Anthropic نے صارفین کو اپنی اقدار کے لیے ووٹ دینے کی اجازت دے کر ایک جمہوری AI چیٹ بوٹ بنایا

Anthropic نے صارفین کو اپنی اقدار کے لیے ووٹ دینے کی اجازت دے کر ایک جمہوری AI چیٹ بوٹ بنایا

In what may be a first of its kind study, artificial intelligence (AI) firm Anthropic has developed a large language model (LLM) that’s been fine-tuned for value judgments by its user community.

بہت سے عوام کا سامنا کرنے والے LLMs کو گارڈریلز کے ساتھ تیار کیا گیا ہے - انکوڈ شدہ ہدایات جو مخصوص طرز عمل کا حکم دیتی ہیں - اس کی جگہ ناپسندیدہ آؤٹ پٹ کو محدود کرنے کی کوشش میں۔ مثال کے طور پر، انتھروپکس کلاڈ اور اوپن اے آئی کی چیٹ جی پی ٹی، عام طور پر صارفین کو پرتشدد یا متنازعہ موضوعات سے متعلق آؤٹ پٹ درخواستوں پر ڈبہ بند حفاظتی جواب دیتے ہیں۔

However, as innumerable pundits have pointed out, guardrails and other interventional techniques can serve to rob users of their agency. What’s considered acceptable isn’t always useful, and what’s considered useful isn’t always acceptable. And definitions for morality or value-based judgments can vary between cultures, populaces, and periods of time.

متعلقہ: برطانیہ نومبر میں منصوبہ بند سمٹ میں ممکنہ AI خطرات کو نشانہ بنائے گا۔

One possible remedy to this is to allow users to dictate value alignment for AI models. Anthropic’s “Collective Constitutional AI” experiment is a stab at this “messy challenge.”

پولس اور اجتماعی انٹیلی جنس پروجیکٹ کے ساتھ مل کر، اینتھروپک نے متنوع آبادی کے 1,000 صارفین کو ٹیپ کیا اور ان سے پولنگ کے ذریعے سوالات کے ایک سلسلے کے جواب دینے کو کہا۔

Anthropic built a democratic AI chatbot by letting users vote for its values PlatoBlockchain Data Intelligence. Vertical Search. Ai.
ذریعہ، بشری

چیلنج کا مرکز صارفین کو ایجنسی کو اس بات کا تعین کرنے کی اجازت دیتا ہے کہ انہیں نامناسب نتائج کے سامنے لائے بغیر کیا مناسب ہے۔ اس میں صارف کی اقدار کو طلب کرنا اور پھر ان خیالات کو ایک ایسے ماڈل میں نافذ کرنا شامل ہے جو پہلے سے تربیت یافتہ ہے۔

Anthropic uses a method called “Constitutional AI” to براہ راست its efforts at tuning LLMs for safety and usefulness. Essentially, this involves giving the model a list of rules it must abide by and then training it to implement those rules throughout its process, much like a constitution serves as the core document for governance in many nations.

In the Collective Constitutional AI experiment, Anthropic attempted to integrate group-based feedback into the model’s constitution. The results, کے مطابق to a blog post from Anthropic, appear to have been a scientific success in that it illuminated further challenges towards achieving the goal of allowing the users of an LLM product to determine their collective values.

ٹیم کو جن مشکلات پر قابو پانا پڑا ان میں سے ایک بینچ مارکنگ کے عمل کے لیے ایک نیا طریقہ پیش کرنا تھا۔ جیسا کہ یہ تجربہ اپنی نوعیت کا پہلا تجربہ معلوم ہوتا ہے، اور یہ انتھروپک کے آئینی AI طریقہ کار پر انحصار کرتا ہے، اس لیے بیس ماڈلز کا موازنہ ان لوگوں سے کرنے کے لیے کوئی قائم شدہ ٹیسٹ نہیں ہے جو ہجوم سے حاصل کردہ اقدار کے مطابق ہیں۔

Ultimately, it appears as though the model that implemented data resulting from user polling feedback outperformed the base model “slightly” in the area of biased outputs.

بلاگ پوسٹ کے مطابق:

"نتیجے میں آنے والے ماڈل سے زیادہ، ہم اس عمل کے بارے میں پرجوش ہیں۔ ہمارا ماننا ہے کہ یہ پہلی مثالوں میں سے ایک ہو سکتی ہے جس میں عوام کے اراکین نے، ایک گروپ کے طور پر، جان بوجھ کر ایک بڑے زبان کے ماڈل کے طرز عمل کی ہدایت کی ہے۔ ہم امید کرتے ہیں کہ دنیا بھر کی کمیونٹیز ثقافتی اور سیاق و سباق سے متعلق مخصوص ماڈلز کو تربیت دینے کے لیے اس طرح کی تکنیکوں کو تیار کریں گی جو ان کی ضروریات کو پورا کرتے ہیں۔"

ٹائم اسٹیمپ:

سے زیادہ Cointelegraph