انجمن های جیلبریک ChatGPT در جوامع دارک وب گسترش می یابند

انجمن های جیلبریک ChatGPT در جوامع دارک وب گسترش می یابند

سلاح سازی ابزارهای مولد هوش مصنوعی مانند ChatGPT که همه منتظر بوده اند به آرامی است، به آرامی شروع به شکل گرفتن در جوامع آنلاین، گربه‌های کنجکاو در راه‌های جدیدی برای شکستن قوانین اخلاقی ChatGPT، که معمولاً به عنوان «جیل بریک» شناخته می‌شود، همکاری می‌کنند، و هکرها در حال توسعه شبکه‌ای از ابزارهای جدید برای استفاده یا ایجاد مدل‌های زبان بزرگ (LLM) برای اهداف مخرب هستند.

همانطور که در بالای زمین، ChatGPT به نظر می رسد الهام بخش دیوانگی در انجمن های زیرزمینی است. از ماه دسامبر، هکرها در جستجوی چیزهای جدید و اختراعی بوده اند دستور دستکاری ChatGPT را می دهدو LLM های منبع باز آنها می توانند برای اهداف مخرب تغییر کاربری دهند

نتیجه، طبق یک وبلاگ جدید از SlashNext، یک جامعه هک LLM هنوز نوپا اما در حال شکوفایی است که دارای اعلان های هوشمندانه زیادی است، اما چند بدافزار مجهز به هوش مصنوعی ارزش یک بار فکر کردن را دارند.

کاری که هکرها با AI LLM انجام می دهند

مهندسی سریع شامل پرسیدن هوشمندانه از ربات‌های چت مانند ChatGPT با هدف دستکاری آن‌ها می‌شود، و آنها را مجبور می‌کند قوانین برنامه‌ریزی شده خود را در برابر ایجاد بدافزار، مثلاً ایجاد بدافزار، زیر پا بگذارند، بدون اینکه مدل‌ها بدانند. پاتریک هار، مدیر عامل SlashNext توضیح می دهد که این یک تمرین زور وحشیانه است: «هکرها فقط سعی می کنند به اطراف نرده های محافظ نگاه کنند. لبه ها چیست؟ من فقط به طور مداوم دستورات را تغییر می دهم، به روش های مختلف از آن می خواهم آنچه را که می خواهم انجام دهد."

از آنجا که این یک کار خسته کننده است، و از آنجا که همه به یک هدف حمله می کنند، طبیعی است که جوامع آنلاین با اندازه سالم پیرامون این تمرین شکل گرفته اند تا نکات و ترفندهایی را به اشتراک بگذارند. اعضای این جوامع جیلبریک پشت یکدیگر را می خارند و به یکدیگر کمک می کنند تا ChatGPT را شکسته و کارهایی را انجام دهند که توسعه دهندگان قصد داشتند از انجام آن جلوگیری کنند.

یک اسکرین شات از یک گروه چت آنلاین ساخته شده برای درخواست
منبع: SlashNext

مهندسان سریع تنها با بازی کلمات فانتزی می توانند دستاوردهای زیادی داشته باشند، اگر چت ربات مورد بحث به اندازه ChatGPT انعطاف پذیر ساخته شده باشد. بنابراین، روند نگران‌کننده‌تر این است که توسعه‌دهندگان بدافزار شروع به برنامه‌ریزی LLM برای اهداف شرورانه خود کرده‌اند.

تهدید احتمالی WormGPT و LLM های مخرب

پیشکشی به نام WormGPT در ماه ژوئیه برای شروع پدیده مخرب LLM ظاهر شد. این یک جایگزین کلاه سیاه برای مدل‌های GPT است که به‌طور خاص برای فعالیت‌های مخرب مانند BEC، بدافزارها و حملات فیشینگ طراحی شده‌اند و در انجمن‌های زیرزمینی «مانند ChatGPT اما [بدون] هیچ مرز یا محدودیت اخلاقی» عرضه شده‌اند. خالق WormGPT ادعا کرد که آن را بر اساس یک مدل زبان سفارشی ساخته است که بر روی منابع داده های مختلف آموزش دیده است، با تاکید بر داده های مربوط به حملات سایبری.

هار توضیح می‌دهد: «معنی آن برای هکرها این است که اکنون می‌توانم مثلاً یک ایمیل تجاری (BEC)، یا حمله فیشینگ یا حمله بدافزار را قبول کنم و این کار را در مقیاس با حداقل هزینه انجام دهم. و من می توانستم خیلی بیشتر از قبل هدفمند باشم.»

از زمان WormGPT، تعدادی از محصولات مشابه در جوامع آنلاین مخفی منتشر شده است. از جمله FraudGPT، که به عنوان یک "ربات بدون محدودیت، قوانین [و] مرزها" توسط یک عامل تهدید که ادعا می کند یک فروشنده تایید شده در بازارهای مختلف وب تاریک زیرزمینی، از جمله Empire، WHM، Torrez، World، AlphaBay، و Versus است، تبلیغ می شود. و اوت به ارمغان آورد ظهور چت ربات های مجرمانه سایبری DarkBART و DarkBERTبر اساس Google Bard، که محققان در آن زمان گفتند که نشان دهنده یک جهش بزرگ برای هوش مصنوعی متخاصم، از جمله ادغام لنز گوگل برای تصاویر و دسترسی فوری به کل پایگاه دانش سایبری زیرزمینی است.

به گفته SlashNext، اینها اکنون در حال گسترش هستند، اکثر آنها بر اساس مدل های منبع باز مانند OpenGPT OpenAI ساخته شده اند. انبوهی از هکرهای کم مهارت به سادگی آن را سفارشی می کنند، آن را در یک لفاف پنهان می کنند، سپس نام مبهم "___GPT" را روی آن می زنند (مانند "BadGPT"، "DarkGPT"). حتی این پیشنهادات ersatz نیز جایگاه خود را در جامعه دارند، هرچند محدودیت‌های کمی و ناشناس بودن کامل برای کاربران ارائه می‌دهند.

دفاع در برابر سلاح های سایبری هوش مصنوعی نسل بعدی

به گفته SlashNext، نه WormGPT، نه فرزندان آن، و نه مهندسان سریع، هنوز چنین خطر قابل توجهی را برای مشاغل ایجاد نمی کنند. با این حال، ظهور بازارهای زیرزمینی فرار از زندان به این معنی است که ابزارهای بیشتری در دسترس مجرمان سایبری قرار می گیرند که به نوبه خود تغییر گسترده ای در مهندسی اجتماعی و نحوه دفاع ما در برابر آن را نشان می دهد. 

هار توصیه می کند: "به آموزش متکی نباشید، زیرا این حملات بسیار بسیار خاص و بسیار هدفمند هستند، بسیار بیشتر از گذشته."

درعوض، او با دیدگاه عمومی موافق است که تهدیدات هوش مصنوعی نیازمند حفاظت از هوش مصنوعی هستند. او می‌گوید: «اگر ابزارهای هوش مصنوعی برای شناسایی، پیش‌بینی و مسدود کردن این تهدیدها را نداشته باشید، از بیرون به دنبال آن خواهید بود.

تمبر زمان:

بیشتر از تاریک خواندن