Чтобы регулировать ИИ, начните с аппаратного обеспечения, утверждают ученые

Чтобы регулировать ИИ, начните с аппаратного обеспечения, утверждают ученые

Чтобы регулировать ИИ, начните с аппаратного обеспечения, утверждают ученые PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

В нашем стремлении ограничить разрушительный потенциал искусственного интеллекта в новой статье Кембриджского университета предлагается внедрить дистанционные выключатели и блокировки, подобные тем, которые разработаны для предотвращения несанкционированного запуска ядерного оружия, в оборудование, которое его питает.

Бумага [PDF], в который входят голоса многих академических учреждений и нескольких представителей OpenAI, доказывает, что регулирование аппаратного обеспечения, на котором основаны эти модели, может быть лучшим способом предотвратить его неправильное использование.

«Вычисления, связанные с искусственным интеллектом, являются особенно эффективной точкой вмешательства: они поддаются обнаружению, исключению и количественной оценке, а также производятся через чрезвычайно концентрированную цепочку поставок», — утверждают исследователи.

Обучение наиболее продуктивных моделей, число параметров которых, как полагают, превышает триллион, требует огромной физической инфраструктуры: десятков тысяч графических процессоров или ускорителей и недель или даже месяцев времени обработки. По словам исследователей, из-за этого существование и относительную эффективность этих ресурсов трудно скрыть.

Более того, самые передовые чипы, используемые для обучения этих моделей, производятся относительно небольшим количеством компаний, таких как Nvidia, AMD и Intel, что позволяет политикам ограничивать продажу этих товаров подмандатным лицам или странам.

Эти факторы, наряду с другими, такими как ограничения в цепочке поставок при производстве полупроводников, предлагают политикам средства, позволяющие лучше понять, как и где развернута инфраструктура искусственного интеллекта, кому разрешен и не разрешен доступ к ней, а также ввести штрафы за ее неправильное использование, утверждается в документе. .

Контроль инфраструктуры

В документе освещаются многочисленные способы, с помощью которых политики могут подойти к регулированию оборудования ИИ. Многие предложения, в том числе направленные на повышение наглядности и ограничение продажи ускорителей искусственного интеллекта, уже реализуются на национальном уровне.

В прошлом году президент США Джо Байден выдвинул распоряжение направлена ​​на выявление компаний, разрабатывающих крупные модели искусственного интеллекта двойного назначения, а также поставщиков инфраструктуры, способных тренируя их. Если вы не знакомы, термин «двойного назначения» относится к технологиям, которые могут выполнять двойную функцию в гражданских и военных целях.

Совсем недавно Министерство торговли США предложило регулирование, которое потребует от американских поставщиков облачных услуг внедрения более строгой политики «знай своего клиента», чтобы не допустить, чтобы подмандатные лица или страны могли обойти экспортные ограничения.

Исследователи отмечают, что такая видимость ценна, поскольку она может помочь избежать новой гонки вооружений, подобной той, которая была вызвана спором о ракетном разрыве, когда ошибочные отчеты привели к массовому наращиванию баллистических ракет. Несмотря на свою ценность, они предупреждают, что выполнение этих требований к отчетности может привести к нарушению конфиденциальности клиентов и даже к утечке конфиденциальных данных.

Между тем, на торговом фронте Министерство торговли продолжает повышать ограничения, ограничивающие производительность ускорителей, продаваемых в Китай. Но, как мы уже сообщали ранее, хотя эти усилия и затруднили таким странам, как Китай, получение американских чипов, они далеки от совершенства.

Чтобы устранить эти ограничения, исследователи предложили создать глобальный реестр продаж чипов ИИ, который будет отслеживать их на протяжении всего жизненного цикла, даже после того, как они покинут страну происхождения. Они предполагают, что такой реестр мог бы включать уникальный идентификатор в каждый чип, что могло бы помочь в борьбе с контрабанда компонентов.

С другой стороны, исследователи предположили, что аварийные переключатели могут быть встроены в кремний, чтобы предотвратить их использование во вредоносных приложениях.

Теоретически это могло бы позволить регулирующим органам быстрее реагировать на злоупотребления конфиденциальными технологиями, удаленно отключив доступ к чипам, но авторы предупреждают, что это небезопасно. Подразумевается, что в случае неправильной реализации такой аварийный переключатель может стать мишенью для киберпреступников.

Другое предложение потребует от нескольких сторон подписаться на потенциально рискованные задачи по обучению ИИ, прежде чем их можно будет развернуть в больших масштабах. «Ядерное оружие использует аналогичные механизмы, называемые ссылками разрешительного действия», — написали они.

В случае ядерного оружия эти защитные замки предназначены для предотвращения того, чтобы один человек совершил злоупотребление и нанес первый удар. Однако для ИИ идея заключается в том, что если человек или компания хотят обучить модель в облаке, превысив определенный порог, им сначала необходимо получить для этого разрешение.

Несмотря на то, что это мощный инструмент, исследователи отмечают, что он может иметь неприятные последствия, предотвращая развитие желаемого ИИ. Аргумент, по-видимому, заключается в том, что, хотя использование ядерного оружия имеет довольно однозначный результат, ИИ не всегда такой черно-белый.

Но если вам это кажется слишком антиутопичным, статья посвящает целый раздел перераспределению ресурсов ИИ на благо общества в целом. Идея состоит в том, что политики могли бы объединиться, чтобы сделать вычисления ИИ более доступными для групп, которые вряд ли будут использовать их во зло. Эта концепция называется «распределением».

Что не так с регулированием развития ИИ?

Зачем идти на все эти неприятности? Авторы статьи утверждают, что физическое оборудование по своей сути легче контролировать.

По сравнению с аппаратным обеспечением «другие входные и выходные данные разработки ИИ — данные, алгоритмы и обученные модели — являются легко разделяемыми, неконкурентными нематериальными благами, что делает их по своей сути трудными для контроля», — говорится в документе.

Аргумент заключается в том, что как только модель будет опубликована, будь то в открытом доступе или в результате утечки информации, невозможно загнать джина обратно в бутылку и остановить его распространение в сети.

Исследователи также подчеркнули, что усилия по предотвращению неправильного использования моделей оказались ненадежными. В одном примере авторы подчеркнули легкость, с которой исследователям удалось демонтировать средства защиты в Llama 2 компании Meta, призванные предотвратить появление оскорбительных выражений в модели.

В крайнем случае, существуют опасения, что достаточно продвинутая модель двойного назначения может быть использована для ускорения разработка химического или биологического оружия.

В документе признается, что регулирование аппаратного обеспечения ИИ не является панацеей и не устраняет необходимость регулирования в других аспектах отрасли.

Однако участие нескольких исследователей OpenAI трудно игнорировать, учитывая мнение генерального директора Сэма Альтмана. попытки контролировать повествование о регулировании ИИ. ®

Отметка времени:

Больше от Регистр