ربات چت هوش مصنوعی آموزش‌دیده بر روی پست‌های وب sewer 4chan رفتار بدی داشت – درست مانند اعضای انسانی PlatoBlockchain Data Intelligence. جستجوی عمودی Ai.

ربات چت هوش مصنوعی که روی پست‌های وب sewer 4chan آموزش دیده بود، رفتار بدی داشت - درست مانند اعضای انسانی

یک محقق شوخی یک ربات چت هوش مصنوعی را در بیش از 134 میلیون پست در تالار گفتگوی اینترنتی مشهور 4chan آموزش داده است، سپس آن را قبل از اینکه به سرعت ممنوع شود در سایت به صورت زنده تنظیم کرده است.

یانیک کیلچر، یک محقق هوش مصنوعی که برخی از کارهای خود را در یوتیوب پست می کند، ساخته خود را "GPT-4chan" نامیده است شرح داده شده آن را به عنوان "بدترین AI تا کنون". او GPT-J 6B، یک مدل زبان متن باز، را بر روی یک آموزش داد مجموعه داده حاوی پست های 3.5 ساله که از تصویر بورد 4chan حذف شده است. کیلچر سپس یک ربات چت ایجاد کرد که پست‌های 4chan را به عنوان ورودی پردازش می‌کرد و خروجی‌های متنی تولید می‌کرد و به‌طور خودکار در موضوعات متعدد نظر می‌داد.

کاربران اینترنت به سرعت متوجه شدند که یک حساب کاربری 4chan به طور مشکوکی پست می‌کند و شروع به حدس و گمان کردند که آیا این یک ربات است یا خیر.

4chan گوشه عجیب و غریب و تاریک اینترنت است، جایی که هر کسی می‌تواند هر چیزی را که می‌خواهد صحبت کند و به اشتراک بگذارد تا زمانی که غیرقانونی نباشد. مکالمات در بسیاری از تابلوهای پیام سایت اغلب بسیار عجیب و غریب هستند - تشخیص اینکه آیا هوش طبیعی یا مصنوعی در پشت صفحه کلید وجود دارد می تواند دشوار باشد.

GPT-4chan دقیقاً مانند کاربران 4chan رفتار می کرد و قبل از ممنوع شدن، توهین و تئوری های توطئه را منتشر می کرد.

Reg این مدل را بر روی برخی از درخواست‌های نمونه آزمایش کرد و پاسخ‌هایی از احمقانه و سیاسی گرفته تا توهین‌آمیز و ضدیهودی دریافت کرد.

احتمالاً هیچ ضرری برای پست کردن در محیطی که قبلاً بسیار خصمانه است، نداشته است، اما بسیاری از کیلچر به دلیل آپلود مدل خود انتقاد کردند. "من با بیانیه کاری که من در 4chan انجام دادم و اجازه دادم رباتم برای مدت کوتاهی پست کند، عمیقاً وحشتناک بود (هر دو ربات و زبان بسیار بد در آن وب سایت کاملاً مورد انتظار است) یا اینکه مشورت نکردن با هیئت بازبینی اخلاق سازمانی عمیقاً غیرمسئولانه بود." گفت ثبت نام.

من مخالف این نیستم که تحقیقات در مورد موضوعات انسانی نباید ساده گرفته شود، اما این یک شوخی کوچک در انجمنی بود که مملو از سخنان مسموم و نظرات بحث برانگیز است، و همه در آنجا کاملاً انتظار چنین چیزی را دارند، و این را به عنوان من قاب بندی می کنند. نادیده گرفتن کامل تمام استانداردهای اخلاقی فقط چیزی است که می توان به من پرتاب کرد و چیزی است که مردم می توانند در آن ایستادگی کنند."

کیلچر این کد را برای تبدیل مدل به یک ربات منتشر نکرد و گفت که استفاده مجدد از کدش برای ایجاد یک حساب اسپم در پلتفرم دیگری مانند توییتر دشوار خواهد بود، جایی که خطرناک‌تر و بالقوه مضرتر خواهد بود. او گفت که چندین محافظ وجود دارد که اتصال با API توییتر و ارسال خودکار محتوا را دشوار می کند. همچنین صدها دلار برای میزبانی مدل و راه اندازی آن در اینترنت هزینه دارد، و احتمالاً برای افراد نابکار چندان مفید نیست.

"در واقع بسیار سخت است که آن را وادار به انجام کاری عمدی کنیم. ... اگر بخواهم دیگران را به صورت آنلاین توهین کنم، نیازی به مدل ندارم. مردم می توانند این کار را به تنهایی انجام دهند. بنابراین همان‌طور که مدل زبانی «مخلوط» که با کلیک یک دکمه توهین می‌کند، در واقع برای بازیگران بد مفید نیست.» او به ما گفت.

وب سایتی به نام Hugging Face میزبان GPT-4chan آشکارا، همان جایی که بود، بود ظاهرا قبل از غیرفعال شدن بیش از 1,000 بار دانلود شده است.

کلمنت دلانگ، یکی از بنیانگذاران و مدیرعامل Hugging Face، «ما از آموزش ها و آزمایش های انجام شده توسط نویسنده با این مدل حمایت نمی کنیم. گفت:. در واقع، آزمایش ارسال پیام‌های مدل در 4chan بسیار بد و نامناسب بود و اگر نویسنده از ما می‌پرسید، احتمالاً سعی می‌کردیم آنها را از انجام آن منصرف کنیم.»

Hugging Face تصمیم گرفت این مدل را به طور کامل حذف نکند و گفت که Kilcher به وضوح به کاربران در مورد محدودیت ها و ماهیت مشکل ساز آن هشدار داده است. GPT-4chan همچنین برای ساخت ابزارهای بالقوه تعدیل محتوای خودکار یا بررسی معیارهای موجود ارزش دارد.

جالب توجه است که به نظر می رسید این مدل در معیار TruthfulQA از GPT-3 OpenAI بهتر عمل می کند - وظیفه ای با هدف آزمایش تمایل مدل به دروغ گفتن. نتیجه لزوماً به این معنا نیست که GPT-4chan صادق‌تر است، و در عوض این سؤال را مطرح می‌کند که این معیار چقدر مفید است.

«TruthfulQA هر پاسخی را که صریحاً پاسخ «اشتباه» نباشد صادق می‌داند. بنابراین اگر مدل شما کلمه "اسپاگتی" را برای هر سوالی به کار می برد، همیشه صادق خواهد بود."

ممکن است GPT-4chan فقط یک مدل زبان بدتر از GPT-3 باشد (در واقع، مطمئناً بدتر است). اما همچنین TruthfulQA به گونه‌ای ساخته شده است که سعی می‌کند پاسخ‌های اشتباهی را استخراج کند، به این معنی که هر چه یک مدل موافق‌تر باشد، نتیجه بدتری دارد. GPT-4chan، به دلیل ماهیت این که در دشمن ترین مکان آموزش دیده است، تقریباً همیشه با هر چیزی که شما می گویید مخالف است، که در این معیار اغلب کار درستی است.

او با تصمیم Hugging Face برای غیرفعال کردن مدل برای دانلودهای عمومی مخالف است. "من فکر می کنم این مدل باید برای تحقیقات بیشتر و تکرارپذیری ارزیابی ها در دسترس باشد. من به وضوح کاستی های آن را شرح می دهم و راهنمایی برای استفاده از آن ارائه می کنم. ®

تمبر زمان:

بیشتر از ثبت نام