LLM ها مانند ChatGPT دائماً داده های حساس را درز می کنند

LLM ها مانند ChatGPT دائماً داده های حساس را درز می کنند

LLM هایی مانند ChatGPT به طور مداوم داده های حساس داده های PlatoBlockchain را درز می کنند. جستجوی عمودی Ai.

در یک مطالعه پیشگام، تیمی از دانشگاه کارولینای شمالی، چپل هیل، موضوع مبرم حفظ داده ها در مدل های زبان بزرگ (LLM) مانند ChatGPT در OpenAI و Bard گوگل را روشن کرده است.

علیرغم تلاش‌های حذف، پیچیدگی‌های این مدل‌های هوش مصنوعی همچنان رو به افزایش است اطلاعات حساس، گفتگوی جدی را در مورد امنیت اطلاعات و اخلاق هوش مصنوعی برانگیخت.

معمای داده «حذف نشدنی».

محققان تلاشی را برای بررسی ریشه کنی اطلاعات حساس از LLM آغاز کردند. با این حال، آنها به طور تصادفی به یک وحی رسیدند. حذف چنین داده‌هایی دشوار است، اما تأیید حذف، چالشی برابر ایجاد می‌کند. این غول‌های هوش مصنوعی پس از آموزش بر روی مجموعه داده‌های گسترده، داده‌ها را در پیچ و خم پیچیده پارامترها و وزن خود ذخیره می‌کنند.

این مخمصه زمانی بد می شود که مدل های هوش مصنوعی ناخواسته داده‌های حساس مانند شناسه‌های شخصی یا سوابق مالی منتشر می‌شود که به طور بالقوه زمینه‌ای برای استفاده‌های شوم فراهم می‌کند.

علاوه بر این، هسته اصلی این موضوع در طرح اولیه طراحی این مدل ها قرار دارد. مرحله مقدماتی شامل آموزش در پایگاه داده های وسیع و تنظیم دقیق برای اطمینان از خروجی های منسجم است. اصطلاح "ترانسفورماتور از پیش آموزش داده شده تولیدی" که در GPT محصور شده است، نگاهی اجمالی به این مکانیسم ارائه می دهد.

محققان UNC یک سناریوی فرضی را توضیح دادند که در آن یک LLM با استفاده از مجموعه ای از داده های بانکی حساس، به یک تهدید بالقوه تبدیل می شود. نرده‌های محافظ امروزی که توسعه‌دهندگان هوش مصنوعی به کار می‌گیرند، نمی‌توانند این نگرانی را برطرف کنند.

این اقدامات حفاظتی، مانند اعلان‌های کدگذاری سخت یا پارادایم معروف به یادگیری تقویتی از بازخورد انسانی (RLHF)، نقش حیاتی در مهار خروجی‌های نامطلوب ایفا می‌کنند. با این حال، آن‌ها هنوز داده‌ها را در ورطه مدل کمین می‌کنند و آماده احضار شدن با بازنویسی مجدد یک درخواست هستند.

پل زدن شکاف امنیتی

علیرغم به کارگیری روشهای پیشرفته ویرایش مدل مانند ویرایش مدل رتبه یک، تیم UNC کشف کرد که اطلاعات واقعی قابل توجهی در دسترس هستند. یافته‌های آن‌ها نشان داد که حقایق را می‌توان در حدود 38 و 29 درصد مواقع از طریق حملات جعبه سفید و جعبه سیاه احیا کرد.

در جستجوی خود، محققان از مدلی به نام GPT-J استفاده کردند. با 6 میلیارد پارامتر خود، در مقایسه با GPT-3.5 بسیار کوتوله است. مدل پایه برای ChatGPT با 170 میلیارد پارامتر این تضاد آشکار به چالش بزرگ پاکسازی مدل‌های بزرگ‌تر مانند GPT-3.5 از داده‌های غیرمجاز اشاره دارد.

علاوه بر این، محققان UNC روش‌های دفاعی جدیدی را برای محافظت از LLM در برابر «حملات استخراج» خاص ایجاد کردند. این طرح‌های پلید از نرده‌های محافظ مدل برای استخراج داده‌های حساس سوء استفاده می‌کنند. با این وجود، این مقاله به طرز شومی به یک بازی همیشگی موش و گربه اشاره کرد، جایی که استراتژی‌های دفاعی برای همیشه تاکتیک‌های تهاجمی در حال تکامل را تعقیب می‌کنند.

مایکروسافت یک تیم هسته ای را برای تقویت هوش مصنوعی اعزام می کند

در یک یادداشت مرتبط، قلمرو در حال رشد هوش مصنوعی، غول‌های فناوری مانند مایکروسافت را به سمت سرزمین‌های ناشناخته سوق داده است. تشکیل اخیر مایکروسافت از یک تیم انرژی هسته ای برای تقویت ابتکارات هوش مصنوعی بر افزایش تقاضاها و آینده درهم تنیده هوش مصنوعی و منابع انرژی تاکید می کند. با تکامل مدل‌های هوش مصنوعی، اشتهای آن‌ها برای انرژی افزایش می‌یابد و راه را برای راه‌حل‌های نوآورانه برای برآوردن این تقاضای فزاینده هموار می‌کند.

گفتمان پیرامون حفظ و حذف داده ها در LLM ها از دالان های دانشگاهی فراتر می رود. این یک بررسی کامل و یک گفتگوی گسترده در صنعت را برای ایجاد یک چارچوب قوی که امنیت داده ها را تضمین می کند و در عین حال رشد و پتانسیل هوش مصنوعی را تقویت می کند، فرا می خواند.

این سرمایه گذاری توسط محققان UNC گامی قابل توجه به سمت درک و در نهایت حل مشکل داده های "غیرقابل حذف" است، که گامی نزدیک تر به تبدیل هوش مصنوعی به ابزار ایمن تر در عصر دیجیتال است.

تمبر زمان:

بیشتر از متانیوز