Нам нужно регулирование, чтобы спасти человечество от ИИ... и спасти акции ИИ - CryptoInfoNet

Нам нужно регулирование, чтобы спасти человечество от ИИ… и спасти акции ИИ – CryptoInfoNet

Нам нужно регулирование, чтобы спасти человечество от ИИ... и спасти акции ИИ - CryptoInfoNet PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Как искусственный интеллект (AI) разработки выдвинули технологии на первый план, инвесторы, естественно, почувствовали в воздухе возможность. Они также чувствуют запах свежеотпечатанных форм и бюрократической волокиты регулирующего органа, который только и ждет, чтобы получить свою долю, и мешают ревущей машине инноваций в области искусственного интеллекта. Но тем, кто обеспокоен тем, что дядя Сэм может сокрушить отрасль с помощью новых правил и ограничений, я бы сказал, что здесь верно прямо противоположное: правила могут спасти отрасль от самой себя. И, как следствие, дополнительные правила для отрасли защищают, а не вредят инвесторам. 

В большинстве новых отраслей слово «регулирование» является табу. Индустрия искусственного интеллекта не совсем нова. Современная концепция восходит к 1950-м годам, и за последние 70 лет или около того как частные, так и государственные инвестиции в эту область то увеличивались, то уменьшались. В 1980-х и начале 1990-х годов наблюдался цикл бума и спада в инвестиции в искусственный интеллект. Инвестиции японского правительства в 80-х годах положили начало первому крупному коммерческому буму искусственного интеллекта. Однако к 1993 году «более 300 компаний закрылись», когда пузырь лопнул. Однако современные достижения в области вычислительной мощности и больших языковых моделей (LLM) дали отрасли новую жизнь, и ее потенциал привлекает не только инвесторов, но и регулирующих органов.

Правила ИИ: путаница интересов и рисков

Вопрос о том, каким должно или даже может быть «регулирование ИИ», стоит перед политиками, политиками и специалистами по этике. Инвесторы, естественно, хотят знать, что это будет означать для их портфелей. Каковы самые большие риски? И именно здесь законы и правила могут обеспечить некоторую защиту и помочь управлять этими рисками.

Самые большие риски для инвесторов сводятся к трем основным пересекающимся проблемам: мошенничеству, защите интеллектуальной собственности и конфиденциальности. Конечно, уже существуют законы, которые решают все три эти проблемы в отдельности. Проблема, однако, в том, что ИИ представляет собой уникально сложное сочетание всех трех рисков, которые без четких рамок, законов и правил ставят под угрозу прогресс всей отрасли.

Самой острой проблемой в этом списке для инвесторов является мошенничество. Почти каждый может согласиться с тем, что предотвращение мошенничества является важной и жизненно важной ролью регулирования.

Мошеннические обезьяны, ездящие на проволоке: два тематических исследования

Два тематических исследования показывают потенциальное будущее регулирования ИИ, риск мошенничества и сроки регулирования, которых следует ожидать инвесторам. Оба они также олицетворяют то, как мошенничество повлияет на будущие меры регулирования.

Первый — это мир криптовалют и невзаимозаменяемых токенов (NFT). Криптовалюта, значительно более новая отрасль, чем искусственный интеллект, пережила немало взлетов и падений и, что наиболее важно, мошенничества. Комиссия по ценным бумагам и биржам (SEC) и Федеральная торговая комиссия (Федеральная торговая комиссия) потратили добрые десять лет, пытаясь выяснить, как вписать криптовалюту в свои схемы регулирования. Конгрессу еще предстоит принять какое-либо явное законодательство, связанное с криптовалютой, несмотря на некоторые попытки.

За это время многочисленные биржи выросли и рухнули. NFT перестали быть модными в 2021 и 2022 годах и превратились в теряют 95% своей стоимости, унося с собой миллиарды долларов инвесторов. Печально известный крах FTX и недавнее испытание Сэма Бэнкмана-Фрида были связаны с мошенническим использованием средств на миллиарды долларов.

Второй пример здесь касается кибербезопасности. В отличие от криптовалюты, в отрасли существует довольно много установленных основных законов. Первыми двумя «настоящими» законами о кибербезопасности были Закон о компьютерном мошенничестве и злоупотреблениях 1986 года и Закон о комплексном контроле за преступностью 1984 года. Оба основывались на творческом и относительно новом понимании «проводов» (как в случае телеграфных проводов) и мошенничества с использованием электронных средств связи.

За прошедшие с тех пор десятилетия Конгресс принял частичные законы по кибертемам с смешанные результаты. Это привело к тому, что штаты начали компенсировать слабину. Мир кибербезопасности также представляет собой пример отрасли с глубоко пересекающимися интересами, многие из которых мало чем отличаются от рисков и нормативных «слепых зон», с которыми сталкивается индустрия искусственного интеллекта. Одним из наиболее примечательных является конфиденциальность. Опасения по поводу конфиденциальности личности, обычно связанные с социальными сетями и Интернетом вещей (IoT), также возникают в связи с моделями обучения ИИ.

Оба приведенных примера служат уроками для быстро растущей индустрии искусственного интеллекта. Криптовалютный мир с высоким уровнем риска, высоким вознаграждением и низким уровнем регулирования изобилует мошенничеством и нестабильностью. Кибербезопасность — гораздо более старая и устоявшаяся отрасль, но нормативно-правовая база все еще неоднородна, особенно в отношении конфиденциальности.

Текущее состояние регулирования ИИ

Итак, чтобы получить представление о том, какой из этих путей регулирования следует ожидать инвесторам, давайте посмотрим на текущую нормативную среду в области искусственного интеллекта.

Начнем с внутренней сцены, ну… там не так много, по крайней мере, законодательно. Президент Джо Байден, с другой стороны, был занят созданием пути регулирования посредством добровольного обязательства и, что совсем недавно, что немаловажно, знакового и масштабного Исполнительного указа.

Ранее в этом году Белый дом объявил о необязательном добровольном обязательстве «управлять рисками, создаваемыми ИИ». Среди сторон, подписавших это обязательство, есть такие громкие имена, как Amazon (NASDAQ:AMZN), Метаплатформы (NASDAQ:ЦЕЛЬ), Алфавит (NASDAQ:GOOGNASDAQ:Googl) и ОпенАИ. Управление научно-технической политики (OSTP), подразделение Белого дома, также опубликовало доклад. «Проект Билля о правах ИИ». Еще одна добровольная система безопасного и этичного использования ИИ.

По мнению Белого дома, «безопасное и этичное использование ИИ» требует тщательного «тестирования перед развертыванием» и создается с «консультациями различных сообществ, заинтересованных сторон и экспертов в предметной области для выявления проблем, рисков и потенциальных последствий системы». Системы искусственного интеллекта также должны иметь «независимую оценку и отчетность», чтобы гарантировать их безопасность в долгосрочной перспективе.

Указ Байдена об искусственном интеллекте

Рано утром 30 октября Белый дом объявил о наиболее масштабных мерах регулирования в отношении ИИ. Движение этих усилий было радикальный указ (и гладкий новый веб-сайт), охватывающее все: от безопасности и защиты до конфиденциальности, гражданских прав и многого другого. Этот Исполнительный указ основан на вышеупомянутом добровольном обязательстве и Билле о правах ИИ и в основном фокусируется на том, что делает большинство Исполнительных указов: мобилизации многих департаментов и агентств исполнительной власти к действию.

Необходимо прояснить множество деталей относительно того, как этот указ повлияет на отрасль, но наиболее важными выводами для инвесторов являются:

1. Регулирующим органам потребуется немало времени, чтобы разработать эти новые руководящие принципы и политику.

2. Какие бы конкретные правила ни вытекали из этого ОР, они будут построены на шаткой правовой основе до тех пор, пока Конгресс не примет законы, связанные с ИИ. Оно по-прежнему зависит от добровольного соблюдения, за одним важным исключением: Законом об оборонном производстве (DPA).

Обращение Байдена к DPA столь же примечательно, сколь и сбивает с толку. DPA был единственным реальным законом, на который ссылается EO и который имеет некоторые потенциально важные последствия. Совсем недавно DPA использовался в контексте пандемии Covid-19, но обычно связан с производством военного времени. Байден использует это слово исключительно в контексте национальной безопасности:

«…Приказ потребует, чтобы компании, разрабатывающие любую базовую модель, которая представляет серьезный риск для национальной безопасности, национальной экономической безопасности или национального общественного здравоохранения и безопасности, уведомляли федеральное правительство при обучении модели и должны делиться результатами всех красных операций. командные тесты на безопасность».

Неясно, на кого распространяется этот «процесс проверки», поддерживаемый DPA, поскольку у других агентств есть более конкретные регулирующие обязанности. Например, Национальный институт стандартов и технологий (NIST) должен разработать стандарты безопасности ИИ, а Министерство внутренней безопасности (Департамента Национальной Безопасности (DHS)) заключается в их реализации для критически важной инфраструктуры. Возможно, что еще важнее, необходимы разъяснения относительно того, какое агентство вообще будет реализовывать эту политику.

Есть один примечательный кандидат, которого DPA почти наверняка прикроет из-за существующих оборонных контрактов: Palantir (NYSE:ПЛТР). Оборонный подрядчик, специализирующийся на больших данных и все более ориентированном на искусственный интеллект, не подписал соглашение Белого дома. добровольное обязательство. Это может быть больше связано с консервативно-либертарианскими политическими взглядами председателя Palantir Питера Тиля и поддержкой бывшего президента Дональда Трампа, чем с прямым отказом от дальнейшего регулирования. Однако это упущение примечательно, поскольку у Palantir большие планы на «захватив весь рынок искусственного интеллекта».

В совокупности нормативная база, установленная указом Байдена, является новаторской и дает возможность Конгрессу, так сказать, построить остальную часть регулирующего органа.

К сожалению, нам придется довольно долго ждать, пока законодатели начнут «заливать бетон».

А что насчет Конгресса?

В указе Белого дома по ИИ содержится только две ссылки на Конгресс, но оба они призывают Конгресс принять двухпартийные законы об ИИ (один прямо касался принятия закона о конфиденциальности).

По данным Центра юстиции Бреннана, Конгресс около 60 законопроектов, связанных с ИИ заседал в различных комиссиях.

Однако на момент написания этой статьи Палата представителей только что завершила согласование нового спикера Палаты, и у нее есть «более серьезная проблема» в связи с надвигающимся еще одним надвигающимся крайним сроком закрытия правительства и сопутствующей бюджетной битвой. Не говоря уже о спорных законопроектах о помощи Израилю и Украине и множестве других, более насущных проблем.

Это оставляет два других источника регулирования ИИ: отдельные штаты США и международные субъекты. Первая группа, состоящая всего из нескольких из 50 штатов страны, прошел лоскутное шитье соответствующих законов, при этом ИИ и конфиденциальность потребителей находятся в центре внимания. На международном уровне Китай лидирует в создании сложный и расширенный набор правил ИИ. Комплексная нормативно-правовая база Европейского Союза, называемая просто «Закон об ИИ», ожидается, что он будет окончательно доработан и принят к концу года.

Правила ИИ и что нас ждет в будущем

Так что же остается в этой быстро растущей, потенциально весьма разрушительной отрасли? Выберет ли он путь регулирования криптовалюты, который изобилует мошенничеством и нестабильностью? Или более медленный, более стабильный, но все еще неоднородный путь кибербезопасности. Что ж, на данный момент, по крайней мере в Соединенных Штатах, это, скорее всего, будет сочетанием того и другого.

ИИ обладает прорывным и прибыльным потенциалом, о котором криптоиндустрия может только мечтать. Тем не менее, он также обладает основным потенциалом и полезностью, которые предоставляет индустрия кибербезопасности. Для инвесторов (не хочу показаться слишком сенсационным), для человечества это рискованная комбинация.

Существует множество потенциальных реальных применений ИИ: от сельского хозяйства до обороны, финансов и здравоохранения. Крипто-коврик может лишить инвесторов их денег, или хакер может украсть деньги из банка, но риски, связанные с несчастными случаями с искусственным интеллектом или злонамеренным поведением, могут может быть катастрофическим.

Гипотезы о том, что может пойти не так, бесконечны по мере дальнейшего внедрения ИИ в повседневную жизнь. Но мы уже наблюдаем тревожные случаи злонамеренного использования ИИ. Недавнее начало войны между Израилем и ХАМАС вызвало поток дезинформации на платформах социальных сетей, таких как X, бывший Twitter. Некоторые из поддельных изображений, распространяемых в Интернете, созданы искусственным интеллектом и часто создаются с помощью легкодоступных инструментов, таких как генератор изображений Bing. С постоянно совершенствующимися технологиями становится труднее идентифицировать поддельные изображения и видео.

Мы также сталкиваемся с рисками, которые когда-то встречались только в научной фантастике, такими как «мошеннический ИИ». Планировщик еды с искусственным интеллектом случайно предложил рецепт газообразного хлора Сегодня стоит посмеяться, было бы гораздо менее смешно, если бы это был ИИ, отвечающий, скажем, за крупную автоматизированную ферму, случайно (или, что еще хуже, намеренно) загрязняющую урожай овощей.

Как говорится: «Правила безопасности пишутся кровью». И нам действительно не нужно ждать, пока прольется кровь, прежде чем предпринимать действия.

Юридически уже есть «кувалда» дела против Google, которое, по мнению компании, будет разрушить концепцию генеративного ИИ. Что нужно отрасли, чтобы избежать этой участи, так это четкие и осуществимые правила, которые могут защитить как общественность, так и компании, занимающиеся искусственным интеллектом, от правового гнева друг друга.

Ради инвесторов и всех остальных необходимо усилить надзор со стороны регулирующих органов за индустрией искусственного интеллекта, прежде чем что-то пойдет не так. Новый указ Белого дома обеспечивает весьма обширную основу по многочисленным вопросам, связанным с ИИ, и является хорошим началом. Однако без принятия Конгрессом законов, обеспечивающих прочную основу для работы регулирующих органов, мы в конечном итоге получим криптографический беспорядок из запутавшихся регуляторов. Это приведет только к замешательству участников рынка и инвесторов. А учитывая, что потенциал ИИ настолько велик и опасен, никому не стоит этого хотеть.

Так что нет, правила ИИ не "враг," как выразился в манифесте одного венчурного капиталиста, они могут действовать как перила безопасности, помогающие защитить отрасль и инвесторов от огромного риска.

Что инвесторам следует делать сейчас

Без четких ограничений инвестирование в мир искусственного интеллекта является рискованным делом. Инвесторы, которые не очень обеспокоены последствиями этих отмененных правил, могут делать более рискованные ставки на множество стартапов, пытающихся разбогатеть. Или об устоявшихся, но игнорирующих правила играх, таких как Палантир.

В противном случае инвесторам было бы лучше посмотреть, какие компании «играют в мяч» с добровольным обещанием Белого дома. Или те, которые адаптируются к международным нормативным изменениям, происходящим в ЕС и Китае. Эти компании, вероятно, рассматривают новые правила либо как нечто, с чем они могут жить, либо как что-то, что они могут использовать в своих интересах.

В любом случае, молот регулирования рано или поздно упадет. Для всех, а не только для инвесторов, было бы лучше, если бы он упал до того, как вторая половина выражения «двигайся быстро и ломай вещи» разрушит индустрию искусственного интеллекта.

На дату публикации Эндрю Буш занимал ДЛИННУЮ позицию по акциям GOOGL и AMZN. Мнения, выраженные в этой статье, принадлежат автору и соответствуют Правилам публикации InvestorPlace.com.

Эндрю Буш — редактор финансовых новостей InvestorPlace и имеет два образования в области международных отношений. Он работал в сфере образования, технологического сектора и аналитиком в консалтинговой фирме, специализирующейся на национальной безопасности.

Ссылка на источник

#Регулирование #Спасение #Человечество #ИИ.. #Спасение #Акции

Отметка времени:

Больше от КриптоИнфонет