اینتھروپک کا کہنا ہے کہ وہ اپنے AI کو تربیت دینے کے لیے آپ کا نجی ڈیٹا استعمال نہیں کرے گا - ڈکرپٹ

اینتھروپک کا کہنا ہے کہ وہ اپنے AI کو تربیت دینے کے لیے آپ کا پرائیویٹ ڈیٹا استعمال نہیں کرے گا - ڈکرپٹ

اینتھروپک کا کہنا ہے کہ وہ آپ کے پرائیویٹ ڈیٹا کو اپنے AI کو تربیت دینے کے لیے استعمال نہیں کرے گا - Decrypt PlatoBlockchain Data Intelligence. عمودی تلاش۔ عی

معروف جنریٹیو AI اسٹارٹ اپ Anthropic نے اعلان کیا ہے کہ وہ اپنے کلائنٹس کا ڈیٹا اپنے Large Language Model (LLM) کو تربیت دینے کے لیے استعمال نہیں کرے گا، اور یہ کہ کاپی رائٹ کے دعووں کا سامنا کرنے والے صارفین کے دفاع کے لیے قدم بڑھائے گا۔

اوپن اے آئی کے سابق محققین کے ذریعہ قائم کردہ انتھروپک نے اپنے کمرشل کو اپ ڈیٹ کیا۔ سروس کی شرائط اس کے نظریات اور ارادوں کو بیان کرنے کے لیے۔ اپنے صارفین کے نجی ڈیٹا کو تراش کر، Anthropic اپنے آپ کو OpenAI، Amazon اور Meta جیسے حریفوں سے الگ کر رہا ہے، جو اپنے سسٹم کو بہتر بنانے کے لیے صارف کے مواد کا فائدہ اٹھاتے ہیں۔

"انتھروپک ادا شدہ خدمات سے کسٹمر کے مواد پر ماڈلز کی تربیت نہیں کر سکتا ہے،" اپ ڈیٹ کردہ شرائط کے مطابق، جس میں مزید کہا گیا ہے کہ "جیسا کہ فریقین کے درمیان اور قابل اطلاق قانون کے ذریعہ اجازت دی گئی ہے، انتھروپک اس بات سے اتفاق کرتا ہے کہ گاہک تمام آؤٹ پٹ کا مالک ہے، اور اس کے کسی بھی حقوق کو مسترد کرتا ہے۔ ان شرائط کے تحت گاہک کا مواد وصول کرتا ہے۔

شرائط یہ کہتی ہیں کہ "انتھروپک ان شرائط کے تحت گاہک کے مواد میں کسی قسم کے حقوق حاصل کرنے کی توقع نہیں کرتا ہے" اور یہ کہ وہ "کسی بھی فریق کو دوسرے کے مواد یا دانشورانہ املاک کے لیے کوئی حق نہیں دیتے ہیں، مضمرات کے ذریعے یا دوسری صورت میں۔"

اپ ڈیٹ شدہ قانونی دستاویز ظاہری طور پر انتھروپک کے تجارتی کلائنٹس کے لیے تحفظات اور شفافیت فراہم کرتی ہے۔ کمپنیاں تیار کردہ تمام AI آؤٹ پٹس کی مالک ہیں، مثال کے طور پر، ممکنہ IP تنازعات سے بچنا۔ Anthropic Claude کے ذریعہ تیار کردہ کسی بھی خلاف ورزی کرنے والے مواد پر کاپی رائٹ کے دعووں سے کلائنٹس کا دفاع کرنے کا بھی عہد کرتا ہے۔

پالیسی کے ساتھ ہم آہنگ انتھروپک کا مشن بیان کہ AI فائدہ مند، بے ضرر، اور ایماندار ہونا چاہیے۔ جیسا کہ تخلیقی AI کی اخلاقیات پر عوامی شکوک و شبہات بڑھتے ہیں، ڈیٹا پرائیویسی جیسے خدشات کو دور کرنے کے لیے کمپنی کا عزم اسے مسابقتی برتری دے سکتا ہے۔

صارفین کا ڈیٹا: LLMs کا اہم کھانا

GPT-4، LlaMa یا Anthropic's Claude جیسے بڑے لینگویج ماڈلز (LLMs) جدید ترین AI سسٹمز ہیں جو وسیع متنی ڈیٹا پر تربیت حاصل کر کے انسانی زبان کو سمجھتے اور تخلیق کرتے ہیں۔ یہ ماڈل الفاظ کی ترتیب کی پیشین گوئی کرنے، سیاق و سباق کو سمجھنے اور زبان کی باریکیوں کو سمجھنے کے لیے گہری سیکھنے کی تکنیکوں اور اعصابی نیٹ ورکس کا فائدہ اٹھاتے ہیں۔ تربیت کے دوران، وہ مسلسل اپنی پیشین گوئیوں کو بہتر بناتے ہیں، گفتگو کرنے، متن تحریر کرنے، یا متعلقہ معلومات فراہم کرنے کی اپنی صلاحیت کو بڑھاتے ہیں۔ LLMs کی تاثیر بہت زیادہ انحصار کرتا ہے کہ وہ ڈیٹا کے تنوع اور حجم پر جس پر انہیں تربیت دی جاتی ہے، جس سے وہ زبان کے مختلف نمونوں، طرزوں اور نئی معلومات سے سیکھتے ہوئے انہیں زیادہ درست اور سیاق و سباق سے آگاہ کرتے ہیں۔

اور یہی وجہ ہے کہ ایل ایل ایم کی تربیت میں صارفین کا ڈیٹا بہت قیمتی ہے۔ سب سے پہلے، یہ اس بات کو یقینی بناتا ہے کہ ماڈلز جدید ترین لسانی رجحانات اور صارف کی ترجیحات کے ساتھ موجودہ رہیں (مثال کے طور پر، نئی بول چال کو سمجھنا)۔ دوم، یہ انفرادی صارف کے تعاملات اور طرزوں کو اپناتے ہوئے ذاتی نوعیت اور بہتر صارف کی مشغولیت کی اجازت دیتا ہے۔ تاہم، یہ ایک اخلاقی بحث کو جنم دیتا ہے کیونکہ AI کمپنیاں صارفین کو اس اہم معلومات کے لیے ادائیگی نہیں کرتی ہیں جس کا استعمال ایسے ماڈلز کی تربیت کے لیے کیا جاتا ہے جس سے وہ لاکھوں ڈالر کماتے ہیں۔

کے طور پر کی طرف سے خرابی، میٹا حال ہی میں نازل ہوا کہ یہ اپنے آنے والے LlaMA-3 LLM کی تربیت صارفین کے ڈیٹا کی بنیاد پر کر رہا ہے اور اس کے نئے EMU ماڈلز (جو ٹیکسٹ پرامپٹ سے تصاویر اور ویڈیوز تیار کرتے ہیں) کو بھی سوشل میڈیا پر اپنے صارفین کے ذریعے اپ لوڈ کردہ عوامی طور پر دستیاب ڈیٹا کا استعمال کرتے ہوئے تربیت دی گئی ہے۔

اس کے علاوہ، ایمیزون نے یہ بھی انکشاف کیا کہ اس کا آنے والا ایل ایل ایم، جو کہ الیکسا کے اپ گریڈ ورژن کو طاقت فراہم کرے گا، کو بھی صارفین کی بات چیت اور بات چیت کے بارے میں تربیت دی جا رہی ہے، تاہم، صارفین تربیتی ڈیٹا سے آپٹ آؤٹ کر سکتے ہیں جو کہ ڈیفالٹ طور پر صارفین کے متفق ہونے کے لیے مقرر کیا جاتا ہے۔ اس معلومات کو شیئر کرنے کے لیے۔"[ایمیزون] نے ہمیشہ یقین کیا ہے کہ الیکسا کو حقیقی دنیا کی درخواستوں کے ساتھ تربیت دینا ضروری ہے تاکہ صارفین کو ایسا تجربہ فراہم کیا جائے جو درست اور ذاتی نوعیت کا ہو اور مسلسل بہتر ہو،" ایمیزون کے ترجمان بتایا خرابی. "لیکن مل کر، ہم صارفین کو اس بات پر کنٹرول دیتے ہیں کہ آیا ان کی الیکسا وائس ریکارڈنگ کو سروس کو بہتر بنانے کے لیے استعمال کیا جاتا ہے، اور جب ہم اپنے ماڈلز کو تربیت دیتے ہیں تو ہم ہمیشہ اپنے کسٹمر کی ترجیحات کا احترام کرتے ہیں۔"

جدید ترین AI سروسز جاری کرنے کے لیے ٹیک جنات کی دوڑ کے ساتھ، ڈیٹا کے ذمہ دار طریقے عوامی اعتماد حاصل کرنے کی کلید ہیں۔ انتھروپک کا مقصد اس سلسلے میں مثال کے طور پر رہنمائی کرنا ہے۔ ذاتی معلومات کے حوالے کرنے کی قیمت پر زیادہ طاقتور اور آسان ماڈلز حاصل کرنے کے بارے میں اخلاقی بحث آج بھی اتنی ہی مقبول ہے جیسا کہ کئی دہائیوں پہلے تھی جب سوشل میڈیا نے صارفین کے تصور کو مقبول بنایا تھا۔ مصنوعات بننا مفت خدمات کے بدلے میں۔

ریان اوزاوا کی طرف سے ترمیم.

کرپٹو خبروں سے باخبر رہیں، اپنے ان باکس میں روزانہ کی تازہ ترین معلومات حاصل کریں۔

ٹائم اسٹیمپ:

سے زیادہ خرابی