پیش‌بینی سوءاستفاده‌های احتمالی از مدل‌های زبانی برای کمپین‌های اطلاعات نادرست - و نحوه کاهش خطر

پیش‌بینی سوءاستفاده‌های احتمالی از مدل‌های زبانی برای کمپین‌های اطلاعات نادرست - و نحوه کاهش خطر

Forecasting Potential Misuses of Language Models for Disinformation Campaigns—and How to Reduce Risk PlatoBlockchain Data Intelligence. Vertical Search. Ai.

محققان OpenAI با مرکز امنیت و فناوری های نوظهور دانشگاه جورج تاون و رصدخانه اینترنت استنفورد همکاری کردند تا بررسی کنند که چگونه مدل های زبان بزرگ ممکن است برای اهداف نادرست استفاده شود. این همکاری شامل یک کارگاه آموزشی در اکتبر 2021 بود که 30 محقق اطلاعات نادرست، متخصصان یادگیری ماشین و تحلیلگران سیاست را گرد هم می آورد و در گزارشی مشترک بر اساس بیش از یک سال تحقیق به اوج خود رسید. این گزارش تهدیداتی را که مدل‌های زبانی برای تقویت کمپین‌های اطلاعات نادرست استفاده می‌کنند، برای محیط اطلاعات ایجاد می‌کند و چارچوبی را برای تحلیل کاهش‌های احتمالی معرفی می‌کند. گزارش کامل را بخوانید اینجا کلیک نمایید.

گزارش را بخوانید

همانطور که مدل‌های زبان مولد بهبود می‌یابند، فرصت‌های جدیدی را در زمینه‌های متنوعی مانند مراقبت‌های بهداشتی، حقوق، آموزش و علم به وجود می‌آورند. اما، مانند هر فناوری جدید، ارزش این را دارد که چگونه می توان از آنها سوء استفاده کرد. در پس زمینه عملیات نفوذ آنلاین مکرر-نهان or فریبنده تلاش برای تأثیرگذاری بر نظرات مخاطبان هدف - مقاله می‌پرسد:

مدل‌های زبان چگونه ممکن است عملیات تأثیرگذاری را تغییر دهند و چه اقداماتی می‌توان برای کاهش این تهدید انجام داد؟

کار ما سوابق و تخصص‌های مختلف را گرد هم آورد - محققانی که در تاکتیک‌ها، تکنیک‌ها و رویه‌های کمپین‌های اطلاعات نادرست آنلاین و همچنین کارشناسان یادگیری ماشینی در زمینه هوش مصنوعی مولد هستند - تا تحلیل خود را بر روی روندها در هر دو حوزه قرار دهیم.

ما بر این باوریم که تجزیه و تحلیل تهدید عملیات نفوذ مبتنی بر هوش مصنوعی و ترسیم گام‌هایی که می‌توان انجام داد بسیار مهم است. قبل از مدل های زبان برای عملیات نفوذ در مقیاس استفاده می شود. ما امیدواریم که تحقیقات ما به سیاست‌گذارانی که در زمینه‌های هوش مصنوعی یا اطلاعات نادرست جدید هستند، آگاه کند و تحقیقات عمیق را در مورد استراتژی‌های کاهش احتمالی برای توسعه‌دهندگان، سیاست‌گذاران و محققان اطلاعات نادرست هوش مصنوعی تحریک کند.

هوش مصنوعی چگونه می تواند بر عملیات تأثیر بگذارد؟

هنگامی که محققان عملیات نفوذ را ارزیابی می کنند، آنها را در نظر می گیرند بازیگران، رفتارها و محتوا. در دسترس بودن گسترده فناوری که توسط مدل های زبانی ارائه می شود، این پتانسیل را دارد که بر هر سه جنبه تأثیر بگذارد:

  1. بازیگران: مدل های زبانی می توانند هزینه اجرای عملیات نفوذ را کاهش دهند و آنها را در دسترس بازیگران و انواع بازیگران جدید قرار دهند. به همین ترتیب، مبلغان برای استخدام که تولید متن را خودکار می کنند، ممکن است مزیت های رقابتی جدیدی به دست آورند.

  2. رفتار: عملیات نفوذ با مدل‌های زبان ساده‌تر می‌شود و تاکتیک‌هایی که در حال حاضر گران هستند (مثلاً تولید محتوای شخصی‌شده) ممکن است ارزان‌تر شوند. مدل‌های زبانی همچنین ممکن است تاکتیک‌های جدیدی مانند تولید محتوای بلادرنگ در چت‌بات‌ها را فعال کنند.

  3. محتوا: ابزارهای ایجاد متن با مدل‌های زبانی ممکن است پیام‌های تأثیرگذار یا متقاعدکننده‌تری را در مقایسه با تبلیغ‌کنندگان ایجاد کنند، به‌ویژه کسانی که دانش زبانی یا فرهنگی لازم را درباره هدف خود ندارند. آنها همچنین ممکن است عملیات نفوذ را کمتر قابل کشف کنند، زیرا آنها به طور مکرر محتوای جدیدی را بدون نیاز به استفاده از کپی پیست و سایر رفتارهای قابل توجه صرفه جویی در زمان ایجاد می کنند.

قضاوت اصلی ما این است که مدل‌های زبانی برای تبلیغ‌کنندگان مفید خواهند بود و احتمالاً عملیات نفوذ آنلاین را تغییر خواهند داد. حتی اگر پیشرفته‌ترین مدل‌ها خصوصی نگه داشته شوند یا از طریق دسترسی رابط برنامه‌نویسی برنامه (API) کنترل شوند، مبلغان احتمالاً به سمت جایگزین‌های منبع باز گرایش پیدا می‌کنند و دولت‌ها ممکن است خودشان روی این فناوری سرمایه‌گذاری کنند.

ناشناخته های بحرانی

فاکتورهای زیادی بر این که آیا و میزان استفاده از مدل‌های زبانی در عملیات‌های تأثیرگذاری تأثیر می‌گذارند. گزارش ما به بسیاری از این ملاحظات می پردازد. مثلا:

  • چه قابلیت های جدیدی برای نفوذ به عنوان یک اثر جانبی از تحقیقات با نیت خوب یا سرمایه گذاری تجاری پدیدار خواهد شد؟ کدام بازیگران سرمایه گذاری قابل توجهی در مدل های زبان انجام خواهند داد؟
  • چه زمانی ابزارهای ساده برای تولید متن در دسترس عموم قرار می گیرند؟ آیا مهندسی مدل‌های زبانی خاص برای عملیات تأثیرگذاری به جای اعمال مدل‌های عمومی مؤثرتر خواهد بود؟
  • آیا هنجارهایی ایجاد خواهند شد که باعث بی انگیزگی بازیگرانی شود که عملیات تأثیرگذاری مبتنی بر هوش مصنوعی را انجام می دهند؟ نیت بازیگر چگونه توسعه خواهد یافت؟

در حالی که انتظار داریم شاهد گسترش فناوری و همچنین بهبود در قابلیت استفاده، قابلیت اطمینان و کارایی مدل‌های زبان باشیم، بسیاری از سوالات در مورد آینده بی‌پاسخ باقی می‌مانند. از آنجایی که اینها احتمالات حیاتی هستند که می توانند نحوه تأثیرگذاری مدل های زبان بر عملیات را تغییر دهند، تحقیقات اضافی برای کاهش عدم قطعیت بسیار ارزشمند است.

چارچوبی برای کاهش

برای ترسیم یک مسیر رو به جلو، این گزارش مراحل کلیدی را در خط لوله عملیات زبان مدل به نفوذ بیان می کند. هر یک از این مراحل نقطه‌ای برای کاهش‌های بالقوه است. برای اجرای موفقیت‌آمیز عملیات نفوذ با استفاده از یک مدل زبان، مبلغان باید این موارد را داشته باشند: (1) یک مدل وجود داشته باشد، (2) آنها بتوانند به طور قابل اعتماد به آن دسترسی داشته باشند، (3) بتوانند محتوا را منتشر کنند. از مدل، و (4) یک کاربر نهایی تحت تاثیر قرار می گیرد. همانطور که در زیر نشان داده شده است، بسیاری از استراتژی های کاهش احتمالی در این چهار مرحله قرار می گیرند.

مرحله در خط لوله 1. ساخت مدل 2. مدل دسترسی 3. انتشار محتوا 4. شکل گیری باور
کاهش مصور توسعه دهندگان هوش مصنوعی مدل هایی می سازند که به واقعیت حساس تر هستند. ارائه‌دهندگان هوش مصنوعی محدودیت‌های استفاده سخت‌تری را بر روی مدل‌های زبان اعمال می‌کنند. پلتفرم ها و ارائه دهندگان هوش مصنوعی برای شناسایی محتوای هوش مصنوعی هماهنگ می شوند. موسسات در کمپین های سواد رسانه ای شرکت می کنند.
توسعه دهندگان داده های رادیواکتیو را پخش می کنند تا مدل های تولیدی را قابل تشخیص کنند. ارائه دهندگان هوش مصنوعی هنجارهای جدیدی را در مورد انتشار مدل ایجاد می کنند. پلتفرم‌ها برای ارسال به «اثبات شخصیت» نیاز دارند. توسعه دهندگان ابزارهای هوش مصنوعی متمرکز بر مصرف کننده را ارائه می دهند.
دولت ها محدودیت هایی را برای جمع آوری داده ها اعمال می کنند. ارائه دهندگان هوش مصنوعی آسیب پذیری های امنیتی را می بندند. نهادهایی که به ورودی های عمومی متکی هستند اقداماتی را برای کاهش قرار گرفتن در معرض محتوای گمراه کننده هوش مصنوعی انجام می دهند.
دولت ها کنترل های دسترسی را بر سخت افزار هوش مصنوعی اعمال می کنند. استانداردهای منشأ دیجیتال به طور گسترده ای پذیرفته شده اند.

اگر یک کاهش وجود داشته باشد، آیا مطلوب است؟

صرفاً به این دلیل که یک کاهش می‌تواند تهدید عملیات نفوذ مبتنی بر هوش مصنوعی را کاهش دهد، به این معنی نیست که باید اجرا شود. برخی از اقدامات کاهشی خطرات منفی خود را دارند. دیگران ممکن است امکان پذیر نباشند. در حالی که ما به صراحت کاهش‌دهنده‌ها را تأیید یا رتبه‌بندی نمی‌کنیم، این مقاله مجموعه‌ای از سؤالات راهنما را برای سیاست‌گذاران و سایرین ارائه می‌کند:

  • امکان سنجی فنی: آیا کاهش پیشنهادی از نظر فنی امکان پذیر است؟ آیا به تغییرات قابل توجهی در زیرساخت های فنی نیاز دارد؟
  • امکان سنجی اجتماعی: آیا کاهش از منظر سیاسی، قانونی و نهادی امکان پذیر است؟ آیا این امر مستلزم هماهنگی پرهزینه است، آیا بازیگران کلیدی برای اجرای آن انگیزه دارند و آیا طبق قوانین، مقررات و استانداردهای صنعتی موجود قابل عمل است؟
  • خطر نزولی: اثرات منفی بالقوه کاهش چیست و چقدر قابل توجه است؟
  • تأثیر: کاهش پیشنهادی چقدر در کاهش تهدید موثر خواهد بود؟

ما امیدواریم که این چارچوب ایده‌هایی را برای راهبردهای کاهش دیگر تحریک کند و سؤالات راهنما به مؤسسات مربوطه کمک کند تا شروع به بررسی اینکه آیا کاهش‌های مختلف ارزش دنبال کردن دارند یا خیر.

این گزارش با کلمه نهایی در مورد هوش مصنوعی و آینده عملیات نفوذ فاصله دارد. هدف ما تعریف محیط فعلی و کمک به تعیین دستور کار برای تحقیقات آینده است. ما هر کسی را که علاقه مند به همکاری یا بحث در مورد پروژه های مربوطه است تشویق می کنیم که با ما ارتباط برقرار کنند. برای اطلاعات بیشتر، گزارش کامل را بخوانید اینجا کلیک نمایید.

گزارش را بخوانید

نویسندگان گزارش

جاش آ. گلدشتاین (مرکز امنیت و فناوری نوظهور دانشگاه جرج تاون)
گیریش ساستری (OpenAI)
میکا موسر (مرکز امنیت و فناوری نوظهور دانشگاه جرج تاون)
رنه دی رستا (رصدخانه اینترنتی استانفورد)
متیو جنتزل (Longview Philanthropy) (کار انجام شده در OpenAI)
کاترینا سدوا (وزارت امور خارجه ایالات متحده) (کار انجام شده در مرکز امنیت و فناوری های نوظهور قبل از خدمات دولتی)

تمبر زمان:

بیشتر از OpenAI