Холлі Елмор очолює протест проти безпеки відкритого коду

Холлі Елмор очолює протест проти безпеки відкритого коду

Холлі Елмор очолює протест проти безпеки даних PlatoBlockchain з відкритим кодом. Вертикальний пошук. Ai.

Холлі Елмор, прихильниця безпеки штучного інтелекту, очолила демонстрацію біля бази Meta в Сан-Франциско, виступаючи проти нещодавньої позиції Meta щодо штучного інтелекту (ШІ) з відкритим кодом.

Суть суперечки полягає в потенційній небезпеці вільного випуску потужних моделей штучного інтелекту, які, як стверджують Елмор та її прихильники, можуть призвести до ризиків «незворотного розповсюдження».

Meta сколихнула технічні води на початку цього року випуску ваги сімейства моделей LLaMA для дослідників штучного інтелекту, рішення, яке значно відрізняється від політики інших технологічних гігантів. Цими ваговими коефіцієнтами, життєво важливими для функціонування моделі, можна маніпулювати та змінювати їх після того, як вони потраплять у руки експертів, що викликає занепокоєння щодо неправильного використання. Дійсно, це не зайняло багато часу, щоб ці ваги були просочився в Інтернеті, посилюючи критику підходу Meta з відкритим кодом.

Ризики вивільнення ваги

Елмор, яка колись співпрацювала з аналітичним центром Rethink Priorities, висловила своє занепокоєння:

«Вивільнення ваги є небезпечною політикою, тому що моделі можуть бути змінені будь-ким і не можуть бути відкликані».

Вона наголосила на зростанні загрози, оскільки моделі стають все більш досконалими та потужними. Коли вагові коефіцієнти моделі доступні у відкритому доступі, вони потенційно можуть бути використані для зловмисних дій, починаючи від створення фішингових схем до планування кібератаки. Елмор попереджає, що коли гирі під рукою, обійти захисні огорожі стає надзвичайно легко.

Пітер С. Парк з MIT повторює ці почуття. Він попереджає про небезпеку, якщо поточний підхід із відкритим вихідним кодом буде перенесено на більш просунутий штучний інтелект, який міг би працювати з більшою автономністю, таким чином дозволяючи зловживання у більших і більш шкідливих масштабах.

Контраргумент: захист відкритого коду

Стелла Бідерман EleutherAI, однак, пропонує іншу перспективу. Бідерман ставить під сумнів безпосереднє припущення про те, що оприлюднення ваг моделі прямо корелює з потенційним неправильним використанням. Вона вважає, що термін «розповсюдження», пов’язаний зі зброєю масового знищення, вводить в оману в контексті ШІ. Стверджуючи, що основні елементи для побудови великих мовних моделей уже відкриті, Бідерман вважає, що секретність не може бути панацеєю від потенційного зловживання.

Вона додає, що заклик до компаній зберігати таємницю щодо своїх моделей може мати «серйозні наслідки для прозорості, громадської обізнаності та науки». Така політика може ненавмисно завдати шкоди незалежним дослідникам та ентузіастам більше, ніж захищати від потенційних загроз.

Навігація водами відкритого коду в ШІ

Термін 'з відкритим вихідним кодом«у сфері штучного інтелекту заплутано. Як зазначає Стефано Маффуллі з Open Source Initiative (OSI), різні організації прийняли цей термін, що призвело до неоднозначного розуміння того, що він насправді означає в ШІ. Щоб програмне забезпечення було справді відкритим, усі його компоненти, від вихідного коду до навчальних даних, мають бути загальнодоступними та придатними для повторного використання.

Майбутнє штучного інтелекту з відкритим кодом все ще формується, а OSI активно намагається визначити його параметри. Маффуллі залишається непохитним щодо важливості відкритого підходу, підкреслюючи, що штучний інтелект може бути «надійним, відповідальним і підзвітним», лише якщо він узгоджується з принципами відкритого коду.

Хоча дебати щодо штучного інтелекту з відкритим кодом ще далекі від завершення, ясно одне: швидкий розвиток технології вимагає ретельного балансу між доступністю та безпекою. Оскільки такі компанії, як Meta, просуваються вперед у своїй політиці, технічна спільнота та громадськість продовжуватимуть боротися з проблемами та наслідками ШІ з відкритим кодом.

Часова мітка:

Більше від МетаНовини