مدل‌های متا هوش مصنوعی با توکن‌های API در معرض کرک باز شدند

مدل‌های متا هوش مصنوعی با توکن‌های API در معرض کرک باز شدند

مدل‌های متا هوش مصنوعی با توکن‌های API در معرض هوش مصنوعی PlatoBlockchain باز شدند. جستجوی عمودی Ai.

محققان اخیراً توانستند دسترسی کامل خواندن و نوشتن به مخازن Meta's Bloom، Meta-Llama، و مدل زبان بزرگ Pythia (LLM) داشته باشند، در یک نمایش دردسرساز از خطرات زنجیره تامین برای سازمان هایی که از این مخازن برای ادغام قابلیت های LLM در برنامه های خود استفاده می کنند. و عملیات.

این دسترسی به حریف اجازه می‌داد تا بی‌صدا داده‌های آموزشی را در این LLM‌های پرکاربرد مسموم کند، مدل‌ها و مجموعه‌های داده را بدزدد و به طور بالقوه فعالیت‌های مخرب دیگری را اجرا کند که خطرات امنیتی را برای میلیون‌ها کاربر پایین‌دستی افزایش می‌دهد.

نشانه‌های آشکار روی صورت در آغوش گرفته

به گفته محققان استارتاپ امنیت هوش مصنوعی Lasso Security که توانستند به مخازن مدل متعلق به متا دسترسی پیدا کنند. توکن‌های دسترسی ناامن API که در GitHub و Hugging Face کشف کردند پلت فرم برای توسعه دهندگان LLM.

توکن‌هایی که برای پلتفرم‌های متا کشف کردند، در میان بیش از 1,500 توکن مشابهی بودند که در Hugging Face و GitHub یافتند که درجات مختلفی از دسترسی به مخازن متعلق به 722 سازمان دیگر را برای آنها فراهم می‌کرد. از جمله گوگل، مایکروسافت و VMware بودند.

بار لانیادو، محقق امنیتی در Lasso می‌گوید: «سازمان‌ها و توسعه‌دهندگان باید بدانند که Hugging Face و دیگر پلت‌فرم‌های مشابه برای ایمن کردن توکن‌های کاربرانشان کار نمی‌کنند». او می گوید این به توسعه دهندگان و سایر کاربران این پلتفرم ها بستگی دارد که اقدامات لازم را برای محافظت از دسترسی خود انجام دهند.

او خاطرنشان می کند: «آموزش در حین کار و ادغام ابزارهای مبتنی بر هوش مصنوعی و LLM به طور کلی مورد نیاز است. این تحقیق بخشی از رویکرد ما برای روشن کردن این نوع ضعف‌ها و آسیب‌پذیری‌ها و تقویت امنیت این نوع مسائل است.»

Hugging Face پلتفرمی است که بسیاری از متخصصان LLM از آن به عنوان منبع ابزار و منابع دیگر برای پروژه های LLM استفاده می کنند. پیشنهادات اصلی این شرکت شامل Transformers، یک کتابخانه منبع باز است که ارائه می دهد API ها و ابزارهایی برای دانلود و تنظیم مدل های از پیش آموزش دیده این شرکت - به سبک GitHub مانند - میزبانی بیشتری دارد بیش از 500,000 مدل هوش مصنوعی و 250,000 مجموعه داده ها، از جمله آنهایی که از متا، گوگل، مایکروسافت و VMware هستند. این به کاربران امکان می‌دهد مدل‌ها و مجموعه داده‌های خود را در پلتفرم پست کنند و از طریق API Hugging Face به آن‌ها از دیگران به صورت رایگان دسترسی داشته باشند. این شرکت تاکنون حدود 235 میلیون دلار از سرمایه گذارانی از جمله گوگل و انویدیا جمع آوری کرده است.

با توجه به استفاده گسترده و محبوبیت روزافزون این پلتفرم، محققان Lasso تصمیم گرفتند تا نگاه دقیق تری به رجیستری و مکانیسم های امنیتی آن داشته باشند. به عنوان بخشی از تمرین، محققان در نوامبر 2023 سعی کردند ببینند آیا می‌توانند نشانه‌های API در معرض دید را پیدا کنند که می‌توانند برای دسترسی به مجموعه داده‌ها و مدل‌ها در Hugging Face استفاده کنند. آنها در GitHub و در Hugging Face، توکن‌های API در معرض دید را اسکن کردند. در ابتدا، اسکن‌ها فقط تعداد بسیار محدودی از نتایج را به خصوص در مورد Hugging Face نشان دادند. لانیادو می‌گوید، اما با یک تغییر کوچک در فرآیند اسکن، محققان در یافتن تعداد نسبتاً زیادی توکن‌های در معرض دید موفق بودند.

یافتن توکن های در معرض به طور شگفت انگیزی آسان است

لانیادو می‌گوید: «با ورود به این تحقیق، معتقد بودم که می‌توانیم تعداد زیادی توکن در معرض دید را پیدا کنیم. اما من هنوز از یافته‌ها و همچنین سادگی [با] دسترسی به این توکن‌ها بسیار شگفت‌زده بودم.»

لانیادو می‌گوید، محققان Lasso توانستند به توکن‌های متعلق به چندین شرکت فناوری برتر - از جمله شرکت‌هایی که سطح امنیت بالایی دارند - دسترسی پیدا کنند و کنترل کامل برخی از آنها را به دست آورند.

محققان امنیتی Lasso در مجموع 1,976 توکن در GitHub و Hugging Face پیدا کردند که 1,681 مورد از آنها معتبر و قابل استفاده بودند. از این تعداد، 1,326 مورد در GitHub و 370 در Hugging Face بودند. 655 توکن که لاسو کشف کرد دارای مجوز نوشتن در Hugging Face بودند. محققان همچنین توکن هایی پیدا کردند که به آنها امکان دسترسی کامل به 77 سازمان با استفاده از متا لاما، Pythia و Bloom را می داد. لانیادو می‌گوید: «اگر مهاجمی به این توکن‌های API دسترسی پیدا کرده بود، می‌توانست مدل‌های شرکت‌ها را که در برخی موارد تجارت اصلی آن‌ها است، بدزدد. یک مهاجم با امتیازات نوشتن می تواند مدل های موجود را با مدل های مخرب جایگزین کند یا یک مدل مخرب کاملاً جدید به نام خود ایجاد کند. او خاطرنشان می‌کند که چنین اقداماتی به مهاجم اجازه می‌دهد با استفاده از مدل‌های در معرض خطر، جای پایی در تمام سیستم‌ها به دست آورد، یا داده‌های کاربر را سرقت کند، و/یا اطلاعات دستکاری شده را پخش کند.

به گفته لانیادو، محققان Lasso چندین توکن مرتبط با متا پیدا کردند که یکی از آنها دارای مجوز نوشتن برای Meta Llama و دو مورد دارای مجوز نوشتن برای Pythia و Bloom بودند. توکن‌های API مرتبط با مایکروسافت و VMware فقط امتیاز خواندن داشتند، اما به محققان Lasso اجازه می‌دادند تمام مجموعه‌ها و مدل‌های داده خصوصی خود را مشاهده کنند.

Lasso یافته‌های خود را به همه کاربران و سازمان‌های آسیب‌دیده فاش کرد و توصیه کرد توکن‌های افشا شده خود را لغو کنند و آنها را از مخازن مربوطه خود حذف کنند. فروشنده امنیتی همچنین Hugging Face را در مورد این مشکل مطلع کرد.

طبق گزارش لاسو، بسیاری از سازمان‌ها (متا، گوگل، مایکروسافت، VMware و غیره) و کاربران اقدامات بسیار سریع و مسئولانه‌ای انجام دادند. "آنها توکن ها را لغو کردند و کد توکن دسترسی عمومی را در همان روز گزارش حذف کردند."

تمبر زمان:

بیشتر از تاریک خواندن