Щоб регулювати штучний інтелект, почніть із апаратного забезпечення, стверджують бофіни

Щоб регулювати штучний інтелект, почніть із апаратного забезпечення, стверджують бофіни

To regulate AI, start with hardware, boffins argue PlatoBlockchain Data Intelligence. Vertical Search. Ai.

У нашому прагненні обмежити руйнівний потенціал штучного інтелекту нова стаття Кембриджського університету запропонувала вставити дистанційні вимикачі та блокування, подібні до тих, що були розроблені, щоб зупинити несанкціонований запуск ядерної зброї, в апаратне забезпечення, яке його живить.

Папір, документ [PDF], який включає голоси багатьох академічних установ і кількох з OpenAI, стверджує, що регулювання апаратного забезпечення, на яке спираються ці моделі, може бути найкращим способом запобігти його неправильному використанню.

«Обчислення, пов’язані зі штучним інтелектом, є особливо ефективною точкою втручання: їх можна виявити, виключити та піддати кількісному вимірюванню, і вони створюються через надзвичайно концентрований ланцюжок поставок», — стверджують дослідники.

Навчання найпродуктивніших моделей, які, як вважають, перевищують трильйон параметрів, вимагає величезної фізичної інфраструктури: десятки тисяч графічних процесорів або прискорювачів і тижні або навіть місяці часу обробки. Це, як кажуть дослідники, ускладнює приховування існування та відносної ефективності цих ресурсів.

Більше того, найдосконаліші чіпи, які використовуються для навчання цих моделей, виробляються відносно невеликою кількістю компаній, як-от Nvidia, AMD і Intel, що дозволяє політикам обмежувати продаж цих товарів особам або країнам, які викликають занепокоєння.

Ці фактори разом з іншими, такими як обмеження ланцюга поставок у виробництві напівпровідників, пропонують політикам засоби для кращого розуміння того, як і де розгортається інфраструктура штучного інтелекту, хто має, а хто не має доступу до неї, а також застосовують покарання за її неправильне використання, стверджує газета. .

Контроль інфраструктури

У документі висвітлено численні способи, якими політики можуть підійти до регулювання апаратного забезпечення ШІ. Багато пропозицій, зокрема ті, що спрямовані на покращення видимості та обмеження продажу прискорювачів штучного інтелекту, уже застосовуються на національному рівні.

Минулого року президент США Джо Байден висунув розпорядження спрямований на виявлення компаній, що розробляють великі моделі ШІ подвійного призначення, а також постачальників інфраструктури, здатних навчання їх. Якщо ви не знаєте, «подвійне використання» стосується технологій, які можуть служити подвійним обов’язком у цивільному та військовому застосуванні.

Зовсім недавно Міністерство торгівлі США запропонований регулювання, яке вимагатиме від американських хмарних провайдерів запроваджувати суворішу політику «знай свого клієнта», щоб запобігти обходу експортних обмежень особами чи країнами, які викликають занепокоєння.

Дослідники відзначають, що такий вид видимості є цінним, оскільки він може допомогти уникнути нової гонки озброєнь, подібної до тієї, що була спровокована суперечкою про ракетний розрив, коли помилкові повідомлення призвели до масового накопичення балістичних ракет. Незважаючи на цінність, вони попереджають, що виконання цих вимог до звітності може порушити конфіденційність клієнтів і навіть призвести до витоку конфіденційних даних.

Тим часом на торговому фронті Міністерство торгівлі продовжувало активізувати обмеження, що обмежують продуктивність прискорювачів, що продаються в Китай. Але, як ми повідомляли раніше, хоча ці зусилля ускладнили таким країнам, як Китай, отримати американські мікросхеми, вони далекі від досконалості.

Щоб усунути ці обмеження, дослідники запропонували запровадити глобальний реєстр продажів чіпів штучного інтелекту, який відстежував би їх протягом життєвого циклу, навіть після того, як вони залишили країну походження. Вони припускають, що такий реєстр міг би включати унікальний ідентифікатор у кожен чіп, що могло б допомогти у боротьбі з контрабанда компонентів.

На більш екстремальному кінці спектру дослідники припустили, що перемикачі блокування можна вмонтувати в кремній, щоб запобігти їх використанню в шкідливих програмах.

Теоретично це може дозволити регуляторам швидше реагувати на зловживання чутливими технологіями, віддалено відключаючи доступ до чіпів, але автори попереджають, що це не без ризику. Мається на увазі, що за неправильної реалізації такий перемикач може стати мішенню для кіберзлочинців.

Інша пропозиція вимагатиме від кількох сторін підписання потенційно ризикованих завдань навчання ШІ, перш ніж їх можна буде розгорнути в масштабі. «Ядерна зброя використовує подібні механізми, які називаються зв’язками дозволеної дії», — написали вони.

Для ядерної зброї ці захисні замки призначені для того, щоб запобігти одній особі від шахрайства та першого удару. Однак для штучного інтелекту ідея полягає в тому, що якщо окрема особа чи компанія хочуть навчити модель над певним порогом у хмарі, їм спочатку потрібно буде отримати дозвіл на це.

Незважаючи на те, що це потужний інструмент, дослідники відзначають, що він може призвести до зворотного ефекту, перешкоджаючи розвитку бажаного ШІ. Аргумент полягає в тому, що хоча використання ядерної зброї має досить чіткий результат, ШІ не завжди такий чорно-білий.

Але якщо це здається надто антиутопічним на ваш смак, стаття присвячує цілий розділ перерозподілу ресурсів ШІ для покращення суспільства в цілому. Ідея полягає в тому, що політики можуть об’єднатися, щоб зробити обчислення штучного інтелекту більш доступними для груп, які, ймовірно, не будуть використовувати його на зло. Ця концепція описується як «розподіл».

Що не так із регулюванням розвитку ШІ?

Навіщо робити всі ці проблеми? Що ж, автори статті стверджують, що фізичне обладнання за своєю суттю легше контролювати.

Порівняно з апаратним забезпеченням, «інші вхідні та вихідні дані розробки штучного інтелекту — дані, алгоритми та навчені моделі — є неконкурентними нематеріальними благами, якими легко ділитися», — йдеться в статті.

Аргумент полягає в тому, що після того, як модель опублікована, у відкритому доступі чи злита, джина неможливо помістити назад у пляшку та зупинити його поширення в мережі.

Дослідники також підкреслили, що спроби запобігти неправильному використанню моделей виявилися ненадійними. В одному прикладі автори підкреслили легкість, з якою дослідники змогли демонтувати засоби захисту в Meta's Llama 2, які мали на меті запобігти створенню образливої ​​лексики цією моделлю.

Доведені до крайності, є побоювання, що досить просунута модель подвійного використання може бути використана для прискорення розробка хімічної чи біологічної зброї.

У статті визнається, що регулювання апаратного забезпечення штучного інтелекту не є ідеальним рішенням і не усуває потреби в регулюванні інших аспектів галузі.

Однак участь кількох дослідників OpenAI важко ігнорувати, враховуючи участь генерального директора Сема Альтмана спроби контролювати розповідь про регулювання ШІ. ®

Часова мітка:

Більше від Реєстр