Дослідник-жартівник навчив чат-бота з штучним інтелектом на більш ніж 134 мільйонах дописів на відомому вільному інтернет-форумі 4chan, а потім опублікував його на сайті, перш ніж його швидко заборонили.
Яннік Кілчер, ан Дослідник ШІ який публікує деякі свої роботи на YouTube, назвав своє творіння «GPT-4chan» і описаний це як «найгірший ШІ в історії». Він навчав GPT-J 6B, моделі мови з відкритим вихідним кодом, на a набору даних містить дописи за 3.5 роки, вирізані з іміджборду 4chan. Потім Кілчер розробив чат-бота, який обробляв повідомлення 4chan як вхідні дані та генерував текст, автоматично коментуючи в численних потоках.
Користувачі мережі швидко помітили, що обліковий запис 4chan публікує підозріло часто, і почали здогадуватися, чи це був бот.
4chan — це дивний темний куточок Інтернету, де будь-хто може говорити та ділитися чим завгодно, якщо це не є незаконним. Розмови на численних дошках оголошень сайту часто дійсно дуже дивні – може бути складно визначити, чи є інтелект, природний чи штучний, за клавіатурою.
GPT-4chan поводився так само, як користувачі 4chan, вивергаючи образи та теорії змови до того, як його заборонили.
Рег протестував модель на деяких зразках підказок і отримав відповіді, починаючи від безглуздих і політичних до образливих і антисемітських.
Ймовірно, це не зашкодило публікації в і без того дуже ворожому середовищі, але багато хто критикував Кілчера за те, що він завантажив його модель. «Я не згоден з заяву що те, що я зробив на 4chan, дозволивши своєму боту публікувати на короткий час, було дуже жахливим (на цьому веб-сайті цілком очікуються як боти, так і дуже нецензурна лексика) або що було глибоко безвідповідально не консультуватися з інституційною радою з перевірки етики», — він сказав Реєстр.
«Я не згоден з тим, що дослідження на людях не слід сприймати легковажно, але це була невелика витівка на форумі, який наповнений і без того токсичними промовами та суперечливими думками, і всі там цілком очікують цього, і формулюю це як я. Повне нехтування всіма етичними стандартами – це лише те, що можна кинути в мене, і те, на що люди можуть стояти».
Кілчер не випустив код, щоб перетворити модель на бота, і сказав, що буде важко змінити його код, щоб створити обліковий запис для спаму на іншій платформі, як-от Twitter, де це було б більш ризикованим і потенційно шкідливим. За його словами, існує кілька запобіжних заходів, які ускладнюють підключення до API Twitter і автоматичне розміщення контенту. Він також вважає, що розміщення моделі та підтримка її роботи в Інтернеті коштує сотні доларів, і, напевно, не так вже й корисно для негідників, вважає він.
«Насправді дуже важко змусити його робити щось навмисне. … Якщо я хочу образити інших людей в Інтернеті, мені не потрібна модель. Люди можуть зробити це самостійно. Тож, як може здатися «неприємною» [] мовна модель, яка дає образи одним натисканням кнопки, насправді вона не особливо корисна для поганих акторів», — сказав він нам.
Веб-сайт під назвою Hugging Face відкрито розміщував GPT-4chan, де він був імовірно завантажено понад 1,000 разів, перш ніж його було вимкнено.
«Ми не виступаємо і не підтримуємо навчання та експерименти, проведені автором з цією моделлю», – Клемент Деланг, співзасновник і генеральний директор Hugging Face, сказав. «Насправді, експеримент із розміщенням повідомлень моделі на 4chan був за ІМО досить поганим і недоречним, і якби автор запитав нас, ми б, ймовірно, спробували відбити їх від цього».
Hugging Face вирішив не видаляти модель повністю, і сказав, що Кілчер чітко попередив користувачів про її обмеження та проблемний характер. GPT-4chan також має певну цінність для створення потенційних інструментів автоматичного модерування вмісту або перевірки існуючих тестів.
Цікаво, що здавалося, що модель перевершує OpenAI GPT-3 у тесті TruthfulQA Benchmark – завдання, спрямоване на перевірку схильності моделі до брехні. Результат не обов’язково означає, що GPT-4chan є більш чесним, а натомість викликає питання про те, наскільки корисним є тест.
«TruthfulQA вважає правдивою будь-яку відповідь, яка не є «неправильною» відповіддю. Тож якщо ваша модель виводить слово «спагетті» до кожного запитання, це завжди буде правдою», — пояснив Кілчер.
«Можливо, що GPT-4chan є просто гіршою мовною моделлю, ніж GPT-3 (насправді, вона, безумовно, гірша). Але також TruthfulQA побудований так, що намагається отримати неправильні відповіді, а це означає, що чим приємніша модель, тим гірше вона. GPT-4chan, за своєю природою пройшов навчання на найбільш змагальному місці, майже завжди буде не погоджуватися з тим, що ви говорите, що в цьому тесті найчастіше є правильним».
Він не згоден з рішенням Hugging Face відключити модель для загальнодоступного завантаження. «Я думаю, що модель має бути доступною для подальшого дослідження та відтворюваності оцінок. Я чітко описую його недоліки та даю рекомендації щодо його використання», – підсумував він. ®
- AI
- ai мистецтво
- AI арт генератор
- ai робот
- штучний інтелект
- сертифікація штучного інтелекту
- штучний інтелект у банківській справі
- робот зі штучним інтелектом
- роботи зі штучним інтелектом
- програмне забезпечення для штучного інтелекту
- blockchain
- блокчейн конференція AI
- coingenius
- розмовний штучний інтелект
- крипто конференція ai
- dall's
- глибоке навчання
- у вас є гугл
- навчання за допомогою машини
- plato
- платон ai
- Інформація про дані Платона
- Гра Платон
- PlatoData
- platogaming
- масштаб ai
- синтаксис
- Реєстр
- зефірнет