LLaMA، آخرین مدل زبان بزرگ متا، بهرغم تلاشهای آشکار برای محدود کردن دسترسی فقط برای اهداف تحقیقاتی، به صورت آنلاین فاش شده و برای دانلود در دسترس است.
صاحب فیس بوک اعلام کرد در ماه فوریه این مدل را به صورت محدود برای انتخاب دانشگاهیان، دولتها و شرکتها منتشر کرد تا در میان ترسها بازی کنند. تماس می گیرد می تواند مورد سوء استفاده قرار گیرد. اما اطلاعات میخواهند رایگان باشند، یا حداقل افراد خاصی میخواهند، و ایجاد متا به هر حال راه خود را به صورت آنلاین پیدا کرده است، که با نشت تورنت شروع شد.
مدلهای زبان بزرگ پیشبینی جملات، که متنهایی را از اعلانهای ورودی تولید میکنند، بهطور پیوسته تکامل یافتهاند، از تکمیل خودکار نوشتهها تا چترباتهایی که قادر به انجام وظایف در صورت درخواست با زبان طبیعی هستند.
کارشناسان هشدار دادهاند که این فناوری میتواند برای سالهای آینده برای خودکار ساختن حجم زیادی از اخبار جعلی، هرزنامهها، ایمیلهای فیشینگ، اطلاعات نادرست، تحریک، استفاده شود. سازمانهایی که این مدلها را میسازند، اغلب نرمافزار را مخفی نگه میدارند، پشت APIها یا نسخهها یا دموهای محدودی را منتشر میکنند.
متا: "هنوز تحقیقات بیشتری برای رسیدگی به خطرات سوگیری، نظرات سمی و توهمات در مدل های زبانی بزرگ باید انجام شود." گفت: هفته گذشته
مانند مدل های دیگر، LLaMA این چالش ها را به اشتراک می گذارد. به عنوان یک مدل پایه، LLaMA به گونهای طراحی شده است که همهکاره باشد و میتواند در موارد استفاده مختلف، در مقابل یک مدل دقیق تنظیم شده که برای یک کار خاص طراحی شده است، اعمال شود.
"برای حفظ یکپارچگی و جلوگیری از سوء استفاده، ما مدل خود را تحت یک مجوز غیرتجاری با تمرکز بر موارد استفاده تحقیقاتی منتشر می کنیم. دسترسی به مدل به صورت موردی به محققان دانشگاهی داده خواهد شد. آنهایی که به سازمانهای دولتی، جامعه مدنی و دانشگاهی وابسته هستند. و آزمایشگاه های تحقیقاتی صنعت در سراسر جهان."
نحوه راهنمایی
اما به نظر می رسد تلاش های متا برای کنترل دسترسی به LLaMA بیهوده بوده است. مدت کوتاهی پس از به اشتراک گذاشتن مدل با افراد منتخب، و کسانی که در صنعت و جامعه مدنی هستند، شخصی در 4Chan جزئیاتی را در مورد نحوه به دست آوردن کل مدل از طریق اشتراک گذاری فایل همتا به همتا و در نهایت ارسال کرد. دستورالعمل نحوه دانلود همه آن در GitHub منتشر شد.
مثل همیشه، هنگام واکشی مواردی مانند این از تورنت ها احتیاط کنید تا در صورتی که کسی چیز بدی را در آنجا پنهان کرده باشد. به گفته ما، مدل 65 میلیارد پارامتری حدود 220 گیگابایت فضای دیسک را اشغال می کند.
توجه داشته باشیم که نسخههای LLaMA موجود از طریق GitHub قانونی به نظر میرسند. پرس شاون، یک مهندس هوش مصنوعی که دستورالعملهای دانلود را در سایت اشتراکگذاری کد مایکروسافت نوشت، اسکرینشاتهایی از او در حال تولید متن با موفقیت از مدل به ما نشان داد. او بر این باور است که محققی که از متا به مدل دسترسی پیدا کرده بود، آن را فاش کرد و منجر به توزیع گستردهتر از حد انتظار آن شد.
موتورهای تئوری توطئه خود را راه اندازی کنید.
Presser معتقد است که آزاد کردن مدل بدون هیچ اخطاری بهتر از محدود کردن آن به دانشگاهیان تایید شده است. "من فکر می کنم که خوبی ها حداقل ده برابر بیشتر از بدی ها هستند. احتمالاً نزدیک به 100 برابر، "او گفت ثبت نام.
به طور کلی، آموزش و اجرای مدلهای زبان بزرگ پیشرفته، گران است. تنها سازمان هایی که به انبوهی از GPU ها و سایر زیرساخت ها دسترسی دارند، در موقعیتی هستند که می توانند آنها را بسازند، بهینه سازی کنند و آزمایش کنند. محققان هوش مصنوعی در متا ساخته شده LLaMA کوچکتر، آن را فشرده تر از مدل های تجاری امروزی می کند و بنابراین برای دانشگاهیان و توسعه دهندگان بدون بودجه های غیر پیش پا افتاده فناوری اطلاعات قابل دسترسی تر است.
مربیان یادگیری ماشین متا ادعا کردند که سیستم آنها از GPT-3 OpenAI بهتر عمل می کند و به خوبی سایر مدل های زبان بزرگ مانند PaLM 540 میلیارد پارامتری گوگل یا چینچیلا با پارامتر 70 میلیاردی DeepMind است. اندازه کوچکتر به این معنی است که استفاده از آن برای دانشمندانی که منابع محاسباتی کمتری دارند، آسان تر است. و بله، تعداد زیادی مدل زبان در همه شکل ها و اندازه ها وجود دارد. این چیزی بیش از OpenAI و Facebook است.
LLaMA هنوز به صدها گیگابایت فضای ذخیره سازی و مقدار مناسبی از محاسبات برای هدایت آن نیاز دارد. راهاندازی و راهاندازی مدل نیز کار سادهای نیست، مگر اینکه به مدیریت سیستمهایی از این نوع عادت کرده باشید، و استفاده مجدد از آن برای فعالیتهای پلیدتر نیز به تخصص فنی بیشتری نیاز دارد. با وجود فاش شدن مدل، متا گفت که به اشتراک گذاری LLaMA فقط با محققان منتخب ادامه خواهد داد.
ما معتقدیم که استراتژی انتشار فعلی به ما اجازه می دهد تا بین مسئولیت و باز بودن تعادل ایجاد کنیم
یکی از سخنگویان گفت: "هدف متا این است که مدل های پیشرفته هوش مصنوعی را با اعضای جامعه تحقیقاتی به اشتراک بگذارد تا به ما در ارزیابی و بهبود آن مدل ها کمک کند." ثبت نام.
"LLaMA برای اهداف تحقیقاتی به اشتراک گذاشته شد، مطابق با نحوه به اشتراک گذاری مدل های زبان بزرگ قبلی. در حالی که این مدل برای همه قابل دسترسی نیست، و برخی تلاش کردهاند فرآیند تأیید را دور بزنند، ما معتقدیم که استراتژی انتشار فعلی به ما اجازه میدهد تا بین مسئولیت و باز بودن تعادل برقرار کنیم.»
به عبارت دیگر، گروه فیس بوک بر روی رویکرد خود برای توزیع فناوری خود می ایستد.
تلاشهای اخیر متا برای انتشار مدلهای زبان بزرگ بهخوبی پیش نرفت. سال گذشته BlenderBot پرحرف آن بود مورد انتقاد قرار برای انتشار اطلاعات نادرست و دیدگاه های ضد یهودی. Galactica که برای خلاصه کردن دانش علمی طراحی شده بود حذف سه روز پس از انتشار آن به دلیل تولید محتوای جعلی و نژادپرستانه. ®
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- پلاتوبلاک چین. Web3 Metaverse Intelligence. دانش تقویت شده دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2023/03/08/meta_llama_ai_leak/
- :است
- $UP
- 7
- a
- درباره ما
- آکادمی
- دانشگاهی
- دسترسی
- در دسترس
- فعالیت ها
- نشانی
- وابسته
- پس از
- AI
- معرفی
- اجازه می دهد تا
- همیشه
- در میان
- مقدار
- مقدار
- و
- رابط های برنامه کاربردی
- ظاهر
- ظاهر شدن
- اعمال می شود
- روش
- تصویب
- تایید کرد
- هستند
- دور و بر
- AS
- At
- تلاشها
- خودکار بودن
- در دسترس
- بد
- برج میزان
- اساس
- BE
- پشت سر
- بودن
- باور
- معتقد است که
- بهتر
- تعصب
- بودجه
- ساختن
- بنا
- by
- CAN
- توانا
- مورد
- موارد
- معین
- چالش ها
- chatbots
- ادعا کرد که
- نزدیک
- CO
- بیا
- نظرات
- تجاری
- انجمن
- شرکت
- محاسبه
- استوار
- توطئه
- محتوا
- ادامه دادن
- کنترل
- میتوانست
- ایجاد
- جاری
- روز
- Deepmind
- توده مردم
- طراحی
- با وجود
- جزئیات
- توسعه دهندگان
- مختلف
- اطلاعات غلط
- توزیع کردن
- توزیع
- دانلود
- درام
- راندن
- آسان تر
- تلاش
- ایمیل
- موتورهای حرفه ای
- ارزیابی
- در نهایت
- تکامل
- ورزش
- گران
- تخصص
- فیس بوک
- جعلی
- اخبار جعلی
- روش
- ترس
- فوریه
- پرونده
- متمرکز شده است
- برای
- به جلو
- یافت
- پایه
- رایگان
- از جانب
- بیشتر
- عموما
- تولید می کنند
- مولد
- گرفتن
- GitHub
- داده
- هدف
- خوب
- گوگل
- دولت
- GPU ها
- اعطا شده
- گروه
- اداره
- آیا
- کمک
- پنهان
- چگونه
- چگونه
- HTTPS
- صدها نفر
- i
- بهبود
- in
- صنعت
- اطلاعات
- شالوده
- ورودی
- دستورالعمل
- تمامیت
- IT
- ITS
- JPG
- نگاه داشتن
- نوع
- دانش
- زبان
- بزرگ
- نام
- پارسال
- آخرین
- راه اندازی
- برجسته
- نشت
- نشت
- Legit
- مجوز
- پسندیدن
- محدود
- محدود شده
- پشم لاما
- حفظ
- ساخت
- بسیاری
- به معنی
- مگا
- اعضا
- متا
- مایکروسافت
- اطلاعات غلط
- مدل
- مدل
- بیش
- نام
- طبیعی
- نیازهای
- اخبار
- گرفتن
- of
- on
- ONE
- آنلاین
- OpenAI
- باز بودن
- سازمان های
- دیگر
- مالک
- نخل
- همکار برای همکار
- مردم
- انجام
- شاید
- فیشینگ
- افلاطون
- هوش داده افلاطون
- PlatoData
- بازی
- کثیف
- موقعیت
- + نوشته شده در
- جلوگیری از
- قبلی
- شاید
- روند
- منتشر شده
- اهداف
- RE
- اخیر
- آزاد
- نیاز
- نیاز
- تحقیق
- پژوهشگر
- محققان
- منابع
- مسئوليت
- خطرات
- در حال اجرا
- s
- سعید
- علمی
- دانشمندان
- تصاویر
- انتخاب شد
- اشکال
- اشتراک گذاری
- به اشتراک گذاشته شده
- سهام
- اشتراک
- به زودی
- باید
- سایت
- اندازه
- اندازه
- کوچکتر
- به نرمی
- So
- جامعه
- نرم افزار
- برخی از
- کسی
- چیزی
- فضا
- اسپم
- صحبت کردن
- خاص
- سخنگوی
- گسترش
- می ایستد
- راه افتادن
- وضعیت هنر
- هنوز
- ذخیره سازی
- راست
- استراتژی
- موفقیت
- چنین
- خلاصه کردن
- سیستم
- سیستم های
- طول می کشد
- کار
- وظایف
- فن آوری
- فنی
- پیشرفته
- آزمون
- که
- La
- جهان
- شان
- آنها
- آنجا.
- اینها
- سه
- به
- امروز
- تورنت
- انواع
- زیر
- us
- استفاده کنید
- بیهوده
- همه کاره
- در مقابل
- از طريق
- نمایش ها
- مسیر..
- هفته
- که
- در حین
- WHO
- تمام
- اراده
- با
- بدون
- کلمات
- جهان
- نوشته
- سال
- سال
- شما
- شما
- زفیرنت