Некомерційна організація створює сайт для відстеження зростаючих невдач штучного інтелекту

Некомерційна організація створює сайт для відстеження зростаючих невдач штучного інтелекту

Некомерційна організація створює сайт для відстеження зростаючих невдач штучного інтелекту PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

інтерв'ю Помилковий зображень Дональда Трампа, якого підтримують вигадані чорношкірі виборці, школярі середньої школи, які створюють порнографічні дипфейки своїх однокласниць, і чат-бот Google Gemini відсутності щоб точно створювати зображення білих людей.

Це деякі з останніх катастроф, перерахованих на База даних інцидентів ШІ – веб-сайт, який стежить за різними способами, за якими технологія йде з ладу.

Спочатку запущена як проект під егідою Partnership On AI, групи, яка намагається переконатися, що штучний інтелект приносить користь суспільству, база даних AI Incident Database тепер є некомерційною організацією, що фінансується Underwriters Laboratories – найбільшою та найстарішою (1894 р.) незалежною організацією. випробувальна лабораторія в США. Він тестує всі види продуктів – від меблів до комп’ютерних мишок – і на його веб-сайті наразі каталогізовано понад 600 унікальних інцидентів, пов’язаних із автоматизацією та ШІ.

«Існує величезна інформаційна асиметрія між розробниками систем штучного інтелекту та публічними споживачами – і це несправедливо», – стверджував Патрік Холл, доцент Школи бізнесу Університету Джорджа Вашингтона, який зараз входить до ради директорів бази даних інцидентів ШІ. . Він сказав Реєстр: «Нам потрібно більше прозорості, і ми вважаємо, що наша робота — просто ділитися цією інформацією».

База даних про випадки штучного інтелекту створена за моделлю програми CVE, створеної некомерційною організацією МІТР, Або Національне управління безпеки дорожнього транспорту веб-сайт, який повідомляє про публічно оприлюднені вразливості кібербезпеки та аварії транспортних засобів. «Кожного разу, коли трапляється авіакатастрофа, аварія потяга чи великий інцидент у сфері кібербезпеки, за десятиліття стало звичайною практикою записувати те, що сталося, щоб ми могли спробувати зрозуміти, що пішло не так, і не повторювати цього».

Зараз веб-сайтом керують близько десяти осіб, а також кілька волонтерів і підрядників, які переглядають і публікують в Інтернеті інциденти, пов’язані зі штучним інтелектом. Хізер Фрейз, старший науковий співробітник Джорджтауна Центр безпеки та нових технологій зосереджений на оцінці ШІ та директор бази даних інцидентів ШІ, стверджував, що веб-сайт унікальний тим, що він зосереджений на реальних впливах ризиків і шкоди ШІ, а не лише на вразливостях і помилках у програмному забезпеченні.

Зараз організація збирає інциденти з висвітлення в ЗМІ та розглядає проблеми, про які повідомляють люди в Twitter. База даних інцидентів AI зареєструвала 250 унікальних інцидентів до випуску ChatGPT у листопаді 2022 року, а зараз містить понад 600 унікальних інцидентів.

Моніторинг проблем зі штучним інтелектом з плином часу виявляє цікаві тенденції та може дозволити людям зрозуміти реальну поточну шкоду технології.

Зал Університету Джорджа Вашингтона виявив, що приблизно половина звітів у базі даних пов’язані з генеративним ШІ. Деякі з них схожі на «смішні, дурні речі». хитромудрі продукти проданий на Amazon під назвою: «Я не можу виконати цей запит» — явна ознака того, що продавець використовував велику мовну модель для написання описів — або інші випадки спаму, створеного ШІ. Але деякі з них «справді депресивні та серйозні» — наприклад, круїзне роботаксі переїхало та затягнуло під колеса жінку під час аварії в Сан-Франциско.

«Зараз штучний інтелект — це здебільшого дикий захід, і ставлення до нього таке: йти швидко й ламати речі», — скаржився він. Незрозуміло, як ця технологія формує суспільство, і команда сподівається, що база даних про випадки штучного інтелекту зможе надати інформацію про те, як її зловживають, і висвітлити непередбачені наслідки – в надії, що розробники та політики будуть краще поінформовані, щоб вони могли вдосконалювати свої моделі чи регулювати. найактуальніші ризики.

«Навколо багато галасу. Люди говорять про екзистенціальний ризик. Я впевнений, що штучний інтелект може створювати дуже серйозні ризики для людської цивілізації, але мені зрозуміло, що деякі з цих більш реальних ризиків, як-от велика кількість травм, пов’язаних із самостійним керуванням автомобілями, або, знаєте, увічнення упередженості через алгоритми, які використовуються у сфері споживчих фінансів або зайнятості. Ось що ми бачимо».

«Я знаю, що ми багато чого втрачаємо, чи не так? Не про все повідомляють або фіксують ЗМІ. Багато разів люди можуть навіть не усвідомлювати, що шкоду, яку вони зазнають, походить від штучного інтелекту», – зазначив Фрейз. «Я очікую, що фізична шкода значно зросте. Ми бачимо [в основному] психологічну шкоду та іншу нематеріальну шкоду від великих мовних моделей, але як тільки ми матимемо генеративну робототехніку, я думаю, що фізична шкода значно зросте».

Фрейз найбільше стурбований тим, як ШІ може підірвати права людини та громадянські свободи. Вона вважає, що збір даних про випадки ШІ покаже, чи політика з часом зробила технологію безпечнішою.

«Ви повинні вимірювати речі, щоб виправити речі», — додав Холл.

Організація завжди шукає волонтерів і зараз зосереджена на фіксації більшої кількості інцидентів і підвищенні обізнаності. Фрейз підкреслив, що учасники групи не є лудитами ШІ: «Ми, ймовірно, виглядаємо досить анти-ШІ, але це не так. Ми дійсно хочемо його використовувати. Ми просто хочемо хороших речей».

Холл погодився. «Щоб продовжити розвиток технології, хтось просто повинен зробити роботу, щоб зробити її безпечнішою», — сказав він. ®

Часова мітка:

Більше від Реєстр