ШІ-чат-бот, навчений на публікаціях з веб-каналізації 4chan, поводився погано – так само, як люди-учасники PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Чат-бот з штучним інтелектом, навчений на публікаціях із веб-каналізації 4chan, поводився погано – так само, як і люди

Дослідник-жартівник навчив чат-бота з штучним інтелектом на більш ніж 134 мільйонах дописів на відомому вільному інтернет-форумі 4chan, а потім опублікував його на сайті, перш ніж його швидко заборонили.

Яннік Кілчер, ан Дослідник ШІ який публікує деякі свої роботи на YouTube, назвав своє творіння «GPT-4chan» і описаний це як «найгірший ШІ в історії». Він навчав GPT-J 6B, моделі мови з відкритим вихідним кодом, на a набору даних містить дописи за 3.5 роки, вирізані з іміджборду 4chan. Потім Кілчер розробив чат-бота, який обробляв повідомлення 4chan як вхідні дані та генерував текст, автоматично коментуючи в численних потоках.

Користувачі мережі швидко помітили, що обліковий запис 4chan публікує підозріло часто, і почали здогадуватися, чи це був бот.

4chan — це дивний темний куточок Інтернету, де будь-хто може говорити та ділитися чим завгодно, якщо це не є незаконним. Розмови на численних дошках оголошень сайту часто дійсно дуже дивні – може бути складно визначити, чи є інтелект, природний чи штучний, за клавіатурою.

GPT-4chan поводився так само, як користувачі 4chan, вивергаючи образи та теорії змови до того, як його заборонили.

Рег протестував модель на деяких зразках підказок і отримав відповіді, починаючи від безглуздих і політичних до образливих і антисемітських.

Ймовірно, це не зашкодило публікації в і без того дуже ворожому середовищі, але багато хто критикував Кілчера за те, що він завантажив його модель. «Я не згоден з заяву що те, що я зробив на 4chan, дозволивши своєму боту публікувати на короткий час, було дуже жахливим (на цьому веб-сайті цілком очікуються як боти, так і дуже нецензурна лексика) або що було глибоко безвідповідально не консультуватися з інституційною радою з перевірки етики», — він сказав Реєстр.

«Я не згоден з тим, що дослідження на людях не слід сприймати легковажно, але це була невелика витівка на форумі, який наповнений і без того токсичними промовами та суперечливими думками, і всі там цілком очікують цього, і формулюю це як я. Повне нехтування всіма етичними стандартами – це лише те, що можна кинути в мене, і те, на що люди можуть стояти».

Кілчер не випустив код, щоб перетворити модель на бота, і сказав, що буде важко змінити його код, щоб створити обліковий запис для спаму на іншій платформі, як-от Twitter, де це було б більш ризикованим і потенційно шкідливим. За його словами, існує кілька запобіжних заходів, які ускладнюють підключення до API Twitter і автоматичне розміщення контенту. Він також вважає, що розміщення моделі та підтримка її роботи в Інтернеті коштує сотні доларів, і, напевно, не так вже й корисно для негідників, вважає він.

«Насправді дуже важко змусити його робити щось навмисне. … Якщо я хочу образити інших людей в Інтернеті, мені не потрібна модель. Люди можуть зробити це самостійно. Тож, як може здатися «неприємною» [] мовна модель, яка дає образи одним натисканням кнопки, насправді вона не особливо корисна для поганих акторів», — сказав він нам.

Веб-сайт під назвою Hugging Face відкрито розміщував GPT-4chan, де він був імовірно завантажено понад 1,000 разів, перш ніж його було вимкнено.

«Ми не виступаємо і не підтримуємо навчання та експерименти, проведені автором з цією моделлю», – Клемент Деланг, співзасновник і генеральний директор Hugging Face, сказав. «Насправді, експеримент із розміщенням повідомлень моделі на 4chan був за ІМО досить поганим і недоречним, і якби автор запитав нас, ми б, ймовірно, спробували відбити їх від цього».

Hugging Face вирішив не видаляти модель повністю, і сказав, що Кілчер чітко попередив користувачів про її обмеження та проблемний характер. GPT-4chan також має певну цінність для створення потенційних інструментів автоматичного модерування вмісту або перевірки існуючих тестів.

Цікаво, що здавалося, що модель перевершує OpenAI GPT-3 у тесті TruthfulQA Benchmark – завдання, спрямоване на перевірку схильності моделі до брехні. Результат не обов’язково означає, що GPT-4chan є більш чесним, а натомість викликає питання про те, наскільки корисним є тест.

«TruthfulQA вважає правдивою будь-яку відповідь, яка не є «неправильною» відповіддю. Тож якщо ваша модель виводить слово «спагетті» до кожного запитання, це завжди буде правдою», — пояснив Кілчер.

«Можливо, що GPT-4chan є просто гіршою мовною моделлю, ніж GPT-3 (насправді, вона, безумовно, гірша). Але також TruthfulQA побудований так, що намагається отримати неправильні відповіді, а це означає, що чим приємніша модель, тим гірше вона. GPT-4chan, за своєю природою пройшов навчання на найбільш змагальному місці, майже завжди буде не погоджуватися з тим, що ви говорите, що в цьому тесті найчастіше є правильним».

Він не згоден з рішенням Hugging Face відключити модель для загальнодоступного завантаження. «Я думаю, що модель має бути доступною для подальшого дослідження та відтворюваності оцінок. Я чітко описую його недоліки та даю рекомендації щодо його використання», – підсумував він. ®

Часова мітка:

Більше від Реєстр