LLaMA ڈرامہ بطور میٹا کے میگا لینگویج ماڈل کا لیک ہو گیا۔

LLaMA ڈرامہ بطور میٹا کے میگا لینگویج ماڈل کا لیک ہو گیا۔

میٹا کے میگا لینگویج ماڈل کے طور پر LLaMA ڈرامہ پلیٹو بلاکچین ڈیٹا انٹیلی جنس کو لیک کرتا ہے۔ عمودی تلاش۔ عی

LLaMA، میٹا کا تازہ ترین بڑی زبان کا ماڈل، آن لائن لیک ہو گیا ہے اور صرف تحقیقی مقاصد کے لیے رسائی کو محدود کرنے کی ظاہری کوششوں کے باوجود، ڈاؤن لوڈ کے لیے دستیاب ہے۔

فیس بک کا مالک کا اعلان کیا ہے فروری میں یہ ماڈل کو محدود انداز میں جاری کر رہا تھا تاکہ ماہرین تعلیم، حکومتی اقسام اور کمپنیوں کو خوف کے ساتھ کھیلنے کے لیے منتخب کیا جا سکے۔ لاما غلط استعمال کیا جا سکتا ہے. لیکن معلومات مفت ہونا چاہتی ہیں، یا کم از کم کچھ لوگ چاہتے ہیں کہ یہ ہو، اور میٹا کی تخلیق نے بہرحال آن لائن اپنا راستہ ڈھونڈ لیا ہے، جس کا آغاز ٹورینٹ لیک سے ہوتا ہے۔

جملے کی پیشین گوئی کرنے والے بڑے زبان کے ماڈلز، جو کہ ان پٹ پرامپٹ سے متن کے حوالے تیار کرتے ہیں، مستقل طور پر تیار ہوئے ہیں، کسی کی تحریر کو خودکار طریقے سے مکمل کرنے سے لے کر چیٹ بوٹس تک جو کام انجام دینے کے قابل ہیں جب کہ قدرتی زبان کا استعمال کرتے ہوئے ایسا کرنے کو کہا جاتا ہے۔

ماہرین نے خبردار کیا ہے کہ اس ٹیکنالوجی کو آنے والے برسوں تک بڑی مقدار میں جعلی خبروں، اسپام، فشنگ ای میلز، غلط معلومات، اشتعال انگیزی کی تیاری کے لیے استعمال کیا جا سکتا ہے۔ ان ماڈلز کو بنانے والی تنظیمیں اکثر سافٹ ویئر کو لپیٹ میں رکھتی ہیں، APIs کے پیچھے، یا محدود ورژن یا ڈیمو جاری کرتی ہیں۔ 

میٹا نے کہا پچھلا ہفتہ.

"دوسرے ماڈلز کی طرح، LLaMA ان چیلنجوں کا اشتراک کرتا ہے۔ ایک فاؤنڈیشن ماڈل کے طور پر، LLaMA کو ورسٹائل کے لیے ڈیزائن کیا گیا ہے اور اسے استعمال کے بہت سے مختلف کیسز پر لاگو کیا جا سکتا ہے، بمقابلہ ایک عمدہ ماڈل جو کہ ایک مخصوص کام کے لیے ڈیزائن کیا گیا ہے۔

"سالمیت کو برقرار رکھنے اور غلط استعمال کو روکنے کے لیے، ہم تحقیق کے استعمال کے معاملات پر مرکوز ایک غیر تجارتی لائسنس کے تحت اپنے ماڈل کو جاری کر رہے ہیں۔ ماڈل تک رسائی تعلیمی محققین کو کیس بہ کیس کی بنیاد پر دی جائے گی۔ وہ لوگ جو حکومت، سول سوسائٹی اور اکیڈمی میں تنظیموں سے وابستہ ہیں؛ اور دنیا بھر میں انڈسٹری ریسرچ لیبارٹریز۔"

رہنمائی کیسے کریں

لیکن LLaMA تک رسائی کو کنٹرول کرنے کے لیے میٹا کی کوششیں بیکار لگتی ہیں، یا ایسا لگتا ہے۔ منتخب بوفنز، اور انڈسٹری اور سول سوسائٹی میں شامل افراد کے ساتھ ماڈل کا اشتراک کرنے کے فوراً بعد، 4Chan پر کسی نے تفصیلات پوسٹ کیں کہ کس طرح پورے ماڈل کو پیئر ٹو پیئر فائل شیئرنگ کے ذریعے حاصل کیا جائے، اور آخر کار یہ سب ڈاؤن لوڈ کرنے کے طریقے کے بارے میں ہدایات GitHub پر شائع کیا گیا تھا۔

ہمیشہ کی طرح، ٹورینٹ سے اس طرح کی چیزیں لاتے وقت احتیاط برتیں اگر کسی نے وہاں کوئی ناپاک چیز چھپا رکھی ہو۔ ہمیں بتایا گیا ہے کہ 65-بلین پیرامیٹر ماڈل تقریباً 220GB ڈسک کی جگہ لیتا ہے۔

ہم نوٹ کرتے ہیں کہ GitHub کے ذریعے دستیاب LLaMA کی کاپیاں جائز معلوم ہوتی ہیں۔ شان پریسر، ایک اے آئی انجینئر جس نے مائیکروسافٹ کی کوڈ شیئرنگ سائٹ پر ڈاؤن لوڈ کی ہدایات لکھیں، ہمیں ماڈل سے کامیابی کے ساتھ متن تیار کرنے کے اسکرین شاٹس دکھائے۔ اس کا خیال ہے کہ ایک محقق جسے میٹا سے ماڈل تک رسائی دی گئی تھی اس نے اسے لیک کیا، جس کی وجہ سے اس کی توقع سے کہیں زیادہ وسیع تقسیم ہوئی۔

اپنے سازشی تھیوری کے انجن شروع کریں۔

پریسر کا خیال ہے کہ ماڈل کو بغیر کسی انتباہ کے آزادانہ طور پر جاری کرنا صرف منظور شدہ ماہرین تعلیم تک محدود رکھنے سے بہتر ہے۔ "میرے خیال میں اچھے برے سے کم از کم دس گنا زیادہ ہوں گے۔ شاید 100x کے قریب، "انہوں نے بتایا رجسٹر

جدید ترین بڑے لینگوئج ماڈلز کی تربیت اور چلانا مہنگا ہے، عام طور پر؛ صرف وہ تنظیمیں جن کے پاس GPUs اور دیگر بنیادی ڈھانچے کے ڈھیروں تک رسائی ہے وہ ان کی تعمیر، موافقت اور جانچ کرنے کی پوزیشن میں ہیں۔ میٹا میں AI محققین LLaMA کو چھوٹا بنانے کے لیے بنایا، اسے آج کے تجارتی ماڈلز سے زیادہ کمپیکٹ بناتا ہے اور اس طرح ماہرین تعلیم اور ڈویلپرز کے لیے غیر معمولی IT بجٹ کے بغیر زیادہ قابل رسائی ہے۔ 

میٹا کے مشین لرننگ گروس نے دعویٰ کیا کہ ان کے سسٹم نے OpenAI کے GPT-3 سے بہتر کارکردگی کا مظاہرہ کیا ہے اور یہ دوسرے بڑے لینگویج ماڈلز جیسا کہ گوگل کے 540-بلین پیرامیٹر PaLM یا DeepMind کے 70-Billion-پیرامیٹر چنچیلا کی طرح اچھا ہے۔ چھوٹے سائز کا مطلب ہے کہ ان سائنسدانوں کے لیے استعمال کرنا آسان ہونا چاہیے جن کے پاس کمپیوٹیشنل وسائل کم ہیں۔ اور ہاں، تمام اشکال اور سائز کے زبان کے ماڈلز کی بہتات ہے۔ یہ صرف OpenAI اور Facebook سے زیادہ ہے۔

LLaMA کو اب بھی سینکڑوں گیگا بائٹس سٹوریج اور اسے چلانے کے لیے معقول رقم کی ضرورت ہے۔ ماڈل کو تیار کرنا اور چلانا بھی سیدھا نہیں ہے، جب تک کہ آپ اس قسم کے سسٹمز کو ہینڈل کرنے کے عادی نہ ہوں، اور اسے مزید مذموم سرگرمیوں کے لیے دوبارہ پیش کرنے کے لیے مزید تکنیکی مہارت کی ضرورت ہوگی۔ ماڈل کے لیک ہونے کے باوجود، میٹا نے کہا کہ وہ صرف منتخب محققین کے ساتھ LLaMA کا اشتراک جاری رکھے گی۔ 

ہمیں یقین ہے کہ ریلیز کی موجودہ حکمت عملی ہمیں ذمہ داری اور کھلے پن کو متوازن کرنے کی اجازت دیتی ہے۔

ایک ترجمان نے بتایا کہ "میٹا کا ہدف ہے کہ جدید ترین AI ماڈلز کو ریسرچ کمیونٹی کے ممبران کے ساتھ شیئر کیا جائے تاکہ ان ماڈلز کا جائزہ لینے اور ان کو بہتر بنانے میں ہماری مدد کی جا سکے۔" رجسٹر.

"LLaMA کو تحقیقی مقاصد کے لیے شیئر کیا گیا تھا، اس کے مطابق ہم نے پچھلے بڑے لینگوئج ماڈلز کو کس طرح شیئر کیا ہے۔ اگرچہ ماڈل سب کے لیے قابل رسائی نہیں ہے، اور کچھ نے منظوری کے عمل کو روکنے کی کوشش کی ہے، ہمیں یقین ہے کہ ریلیز کی موجودہ حکمت عملی ہمیں ذمہ داری اور کھلے پن کو متوازن کرنے کی اجازت دیتی ہے۔

دوسرے لفظوں میں، فیس بک گروپ اپنی ٹیکنالوجی کو تقسیم کرنے کے لیے اپنے نقطہ نظر پر قائم ہے۔

میٹا کی بڑی زبان کے ماڈلز کو جاری کرنے کی حالیہ کوششیں آسانی سے نہیں چلی ہیں۔ پچھلے سال اس کا چیٹی BlenderBot تھا۔ تنقید کا نشانہ بنایا غلط معلومات اور یہود مخالف خیالات پھیلانے کے لیے۔ Galactica، سائنسی علم کا خلاصہ کرنے کے لیے ڈیزائن کیا گیا تھا ہٹا دیا جعلی اور نسل پرستانہ مواد تیار کرنے کے لیے شروع کیے جانے کے تین دن بعد۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر