مائیکروسافٹ نے Phi-3 Mini کے ساتھ AI کو جیب کے سائز تک گھٹا دیا۔

مائیکروسافٹ نے Phi-3 Mini کے ساتھ AI کو جیب کے سائز تک گھٹا دیا۔

مائیکروسافٹ نے Phi-3 Mini PlatoBlockchain ڈیٹا انٹیلی جنس کے ساتھ AI کو جیب کے سائز تک کم کر دیا۔ عمودی تلاش۔ عی

مائیکرو سافٹ نے دعویٰ کیا ہے کہ اس کے ہلکے وزن والے Phi-3 Mini AI ماڈل کے حریف حریفوں جیسے GPT-3.5 فون پر تعینات کیے جانے کے لیے کافی چھوٹے ہیں۔

Phi-3 Mini ایک 3.8 بلین پیرامیٹر لینگویج ماڈل ہے جو 3.3 ٹریلین ٹوکنز پر تربیت یافتہ ہے۔ یہ اعداد و شمار Phi-2.7 کے 2 بلین پیرامیٹرز سے زیادہ ہے، جو مائیکروسافٹ متعارف دسمبر 2023 میں.

تربیتی ماڈلز میں جتنا ممکن ہو سکے ڈالنے کے بجائے، توجہ استدلال پر مرکوز تھی۔ مائیکروسافٹ نے کہا: "مثال کے طور پر، کسی خاص دن میں پریمیئر لیگ میں کھیل کا نتیجہ فرنٹیئر ماڈلز کے لیے بہتر تربیتی ڈیٹا ہو سکتا ہے، لیکن ہمیں اس طرح کی معلومات کو ہٹانے کی ضرورت ہے تاکہ چھوٹے سائز کے ماڈلز کے لیے 'استدلال' کے لیے مزید ماڈل کی گنجائش باقی رہ جائے۔ "

ٹارگٹڈ اپروچ کا مطلب یہ ہے کہ اگرچہ Phi-3 کے پاس اپنے حریفوں کے بارے میں علم کی مکمل وسعت نہیں ہو سکتی ہے، یہ کم از کم اتنا ہی اچھا ہے، اگر بہتر نہ ہو، جب بات استدلال کی ہو، یا اسی طرح مائیکروسافٹ کا دعویٰ ہے۔ ایک ___ میں ریسرچ پیپر [پی ڈی ایف]، مائیکروسافٹ نوٹ کرتا ہے کہ اس نے اس کے چھوٹے لینگویج ماڈل کو "جی پی ٹی-3.5 یا مکسٹرل جیسے انتہائی قابل ماڈلز کی سطح تک پہنچنے کی اجازت دی جس میں صرف 3.8B کل پیرامیٹرز ہیں (جبکہ Mixtral میں مثال کے طور پر 45B کل پیرامیٹرز ہیں)۔"

تحقیق میں یہ بھی نوٹ کیا گیا ہے کہ تربیتی ڈیٹا استعمال کیا گیا ہے جس میں "بھاری فلٹر کردہ ویب ڈیٹا … مختلف کھلے انٹرنیٹ ذرائع سے" اور LLM سے تیار کردہ ڈیٹا شامل ہے۔ LLMs کی تربیت کے لیے استعمال ہونے والے ڈیٹا ذرائع کا موضوع ہے۔ کئی مقدمات.

Phi-3 Mini کے چھوٹے سائز کا مطلب ہے کہ یہ اسمارٹ فون پر آف لائن چل سکتا ہے، ہمیں بتایا گیا ہے۔ محققین نے کہا کہ اسے تقریباً 1.8 جی بی میموری پر قبضہ کرنے کے لیے بنایا جا سکتا ہے اور اسے آئی فون 14 پر آف لائن آزمایا جا سکتا ہے جس میں A16 بایونک چپ ایک ڈیوائس پر مقامی طور پر چل رہی ہے۔ مقالے میں، محققین Phi-3 Mini کے اسکرین شاٹس دکھاتے ہیں جو ایک نظم لکھتے ہیں اور ہیوسٹن میں کرنے کے لیے چیزیں تجویز کرتے ہیں۔

محققین زبان کی تفہیم اور استدلال پر توجہ مرکوز کرنے میں موروثی نشیب و فراز کو بھی اجاگر کرتے ہیں۔ "ماڈل میں بہت زیادہ 'حقیقت پر مبنی علم' کو ذخیرہ کرنے کی صلاحیت نہیں ہے،" ایسی چیز جسے تلاش کے انجن کے ذریعے بڑھا کر ایک خاص حد تک کم کیا جا سکتا ہے۔ تاہم، یہ اسے آف لائن چلانے کے قابل ہونے کے نقطہ کو شکست دے گا۔

اس وقت زبان زیادہ تر انگریزی تک محدود ہے، اور زیادہ تر LLMs میں پیدا ہونے والے مسائل - فریب، تعصب، اور نامناسب مواد کی تخلیق - بھی Phi-3 Mini میں مل سکتے ہیں۔

محققین نے مقالے میں کہا: "ان چیلنجوں سے مکمل طور پر نمٹنے کے لیے اہم کام آگے ہے۔"

بڑے ماڈلز - نسبتاً بولتے ہیں - کا اعلان Phi-3 Small اور Phi-3 میڈیم کی شکل میں بھی کیا گیا ہے جس میں بالترتیب 7 اور 14 بلین پیرامیٹرز ہیں۔

وکٹر بوٹیو، سی ٹی او اور شریک بانی پر Iris.aiنے ہمیں بتایا: "مائیکروسافٹ کا Phi-3 ماڈل کا اعلان AI کی ترقی میں ایک مسلسل رجحان کی نمائندگی کرتا ہے۔ ہمیشہ بڑے ماڈلز کا پیچھا کرنے کے بجائے، مائیکروسافٹ زیادہ احتیاط سے تیار کردہ ڈیٹا اور خصوصی تربیت کے ساتھ ٹولز تیار کر رہا ہے۔ یہ کھربوں پیرامیٹرز والے ماڈلز کے بڑے کمپیوٹیشنل اخراجات کے بغیر بہتر کارکردگی اور استدلال کی صلاحیتوں کی اجازت دیتا ہے۔ اس وعدے کو پورا کرنے کا مطلب AI حل تلاش کرنے والے کاروباروں کے لیے اپنانے کی ایک بڑی رکاوٹ کو ختم کرنا ہوگا۔

"مائیکروسافٹ سمجھداری سے 'بڑا بہتر ہے' ذہنیت سے پرے دیکھ رہا ہے۔ وسیع پیمانے پر کاروبار اور صارفین کی AI ایپلی کیشنز کے لیے، فزیبلٹی اور مخصوصیت بڑے پیمانے پر پیرامیٹرز کی گنتی سے زیادہ اہم ہیں۔ Phi-3 جیسے ماڈل واضح طور پر یہ ظاہر کرتے ہیں کہ صحیح ڈیٹا اور تربیتی نقطہ نظر کے ساتھ، جدید ترین AI صلاحیتوں کو کبھی بھی بڑے ماڈلز بنانے کی ضرورت نہیں ہے - کاروبار کے لیے فیصلہ کن عنصر جہاں قیمت سے معیار کا تناسب اہم ہے۔" ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر