درام LLaMA به عنوان مدل مگا زبان متا فاش شد

درام LLaMA به عنوان مدل مگا زبان متا فاش شد

درام LLaMA به عنوان مدل مگا زبان متا، اطلاعات پلاتوبلاک چین را فاش می کند. جستجوی عمودی Ai.

LLaMA، آخرین مدل زبان بزرگ متا، به‌رغم تلاش‌های آشکار برای محدود کردن دسترسی فقط برای اهداف تحقیقاتی، به صورت آنلاین فاش شده و برای دانلود در دسترس است.

صاحب فیس بوک اعلام کرد در ماه فوریه این مدل را به صورت محدود برای انتخاب دانشگاهیان، دولت‌ها و شرکت‌ها منتشر کرد تا در میان ترس‌ها بازی کنند. تماس می گیرد می تواند مورد سوء استفاده قرار گیرد. اما اطلاعات می‌خواهند رایگان باشند، یا حداقل افراد خاصی می‌خواهند، و ایجاد متا به هر حال راه خود را به صورت آنلاین پیدا کرده است، که با نشت تورنت شروع شد.

مدل‌های زبان بزرگ پیش‌بینی جملات، که متن‌هایی را از اعلان‌های ورودی تولید می‌کنند، به‌طور پیوسته تکامل یافته‌اند، از تکمیل خودکار نوشته‌ها تا چت‌ربات‌هایی که قادر به انجام وظایف در صورت درخواست با زبان طبیعی هستند.

کارشناسان هشدار داده‌اند که این فناوری می‌تواند برای سال‌های آینده برای خودکار ساختن حجم زیادی از اخبار جعلی، هرزنامه‌ها، ایمیل‌های فیشینگ، اطلاعات نادرست، تحریک، استفاده شود. سازمان‌هایی که این مدل‌ها را می‌سازند، اغلب نرم‌افزار را مخفی نگه می‌دارند، پشت APIها یا نسخه‌ها یا دموهای محدودی را منتشر می‌کنند. 

متا: "هنوز تحقیقات بیشتری برای رسیدگی به خطرات سوگیری، نظرات سمی و توهمات در مدل های زبانی بزرگ باید انجام شود." گفت: هفته گذشته

مانند مدل های دیگر، LLaMA این چالش ها را به اشتراک می گذارد. به عنوان یک مدل پایه، LLaMA به گونه‌ای طراحی شده است که همه‌کاره باشد و می‌تواند در موارد استفاده مختلف، در مقابل یک مدل دقیق تنظیم شده که برای یک کار خاص طراحی شده است، اعمال شود.

"برای حفظ یکپارچگی و جلوگیری از سوء استفاده، ما مدل خود را تحت یک مجوز غیرتجاری با تمرکز بر موارد استفاده تحقیقاتی منتشر می کنیم. دسترسی به مدل به صورت موردی به محققان دانشگاهی داده خواهد شد. آنهایی که به سازمانهای دولتی، جامعه مدنی و دانشگاهی وابسته هستند. و آزمایشگاه های تحقیقاتی صنعت در سراسر جهان."

نحوه راهنمایی

اما به نظر می رسد تلاش های متا برای کنترل دسترسی به LLaMA بیهوده بوده است. مدت کوتاهی پس از به اشتراک گذاشتن مدل با افراد منتخب، و کسانی که در صنعت و جامعه مدنی هستند، شخصی در 4Chan جزئیاتی را در مورد نحوه به دست آوردن کل مدل از طریق اشتراک گذاری فایل همتا به همتا و در نهایت ارسال کرد. دستورالعمل نحوه دانلود همه آن در GitHub منتشر شد.

مثل همیشه، هنگام واکشی مواردی مانند این از تورنت ها احتیاط کنید تا در صورتی که کسی چیز بدی را در آنجا پنهان کرده باشد. به گفته ما، مدل 65 میلیارد پارامتری حدود 220 گیگابایت فضای دیسک را اشغال می کند.

توجه داشته باشیم که نسخه‌های LLaMA موجود از طریق GitHub قانونی به نظر می‌رسند. پرس شاون، یک مهندس هوش مصنوعی که دستورالعمل‌های دانلود را در سایت اشتراک‌گذاری کد مایکروسافت نوشت، اسکرین‌شات‌هایی از او در حال تولید متن با موفقیت از مدل به ما نشان داد. او بر این باور است که محققی که از متا به مدل دسترسی پیدا کرده بود، آن را فاش کرد و منجر به توزیع گسترده‌تر از حد انتظار آن شد.

موتورهای تئوری توطئه خود را راه اندازی کنید.

Presser معتقد است که آزاد کردن مدل بدون هیچ اخطاری بهتر از محدود کردن آن به دانشگاهیان تایید شده است. "من فکر می کنم که خوبی ها حداقل ده برابر بیشتر از بدی ها هستند. احتمالاً نزدیک به 100 برابر، "او گفت ثبت نام

به طور کلی، آموزش و اجرای مدل‌های زبان بزرگ پیشرفته، گران است. تنها سازمان هایی که به انبوهی از GPU ها و سایر زیرساخت ها دسترسی دارند، در موقعیتی هستند که می توانند آنها را بسازند، بهینه سازی کنند و آزمایش کنند. محققان هوش مصنوعی در متا ساخته شده LLaMA کوچکتر، آن را فشرده تر از مدل های تجاری امروزی می کند و بنابراین برای دانشگاهیان و توسعه دهندگان بدون بودجه های غیر پیش پا افتاده فناوری اطلاعات قابل دسترسی تر است. 

مربیان یادگیری ماشین متا ادعا کردند که سیستم آنها از GPT-3 OpenAI بهتر عمل می کند و به خوبی سایر مدل های زبان بزرگ مانند PaLM 540 میلیارد پارامتری گوگل یا چینچیلا با پارامتر 70 میلیاردی DeepMind است. اندازه کوچکتر به این معنی است که استفاده از آن برای دانشمندانی که منابع محاسباتی کمتری دارند، آسان تر است. و بله، تعداد زیادی مدل زبان در همه شکل ها و اندازه ها وجود دارد. این چیزی بیش از OpenAI و Facebook است.

LLaMA هنوز به صدها گیگابایت فضای ذخیره سازی و مقدار مناسبی از محاسبات برای هدایت آن نیاز دارد. راه‌اندازی و راه‌اندازی مدل نیز کار ساده‌ای نیست، مگر اینکه به مدیریت سیستم‌هایی از این نوع عادت کرده باشید، و استفاده مجدد از آن برای فعالیت‌های پلیدتر نیز به تخصص فنی بیشتری نیاز دارد. با وجود فاش شدن مدل، متا گفت که به اشتراک گذاری LLaMA فقط با محققان منتخب ادامه خواهد داد. 

ما معتقدیم که استراتژی انتشار فعلی به ما اجازه می دهد تا بین مسئولیت و باز بودن تعادل ایجاد کنیم

یکی از سخنگویان گفت: "هدف متا این است که مدل های پیشرفته هوش مصنوعی را با اعضای جامعه تحقیقاتی به اشتراک بگذارد تا به ما در ارزیابی و بهبود آن مدل ها کمک کند." ثبت نام.

"LLaMA برای اهداف تحقیقاتی به اشتراک گذاشته شد، مطابق با نحوه به اشتراک گذاری مدل های زبان بزرگ قبلی. در حالی که این مدل برای همه قابل دسترسی نیست، و برخی تلاش کرده‌اند فرآیند تأیید را دور بزنند، ما معتقدیم که استراتژی انتشار فعلی به ما اجازه می‌دهد تا بین مسئولیت و باز بودن تعادل برقرار کنیم.»

به عبارت دیگر، گروه فیس بوک بر روی رویکرد خود برای توزیع فناوری خود می ایستد.

تلاش‌های اخیر متا برای انتشار مدل‌های زبان بزرگ به‌خوبی پیش نرفت. سال گذشته BlenderBot پرحرف آن بود مورد انتقاد قرار برای انتشار اطلاعات نادرست و دیدگاه های ضد یهودی. Galactica که برای خلاصه کردن دانش علمی طراحی شده بود حذف سه روز پس از انتشار آن به دلیل تولید محتوای جعلی و نژادپرستانه. ®

تمبر زمان:

بیشتر از ثبت نام