Технологические лидеры подчеркивают риски, связанные с искусственным интеллектом, и безотлагательность надежного регулирования искусственного интеллекта

Технологические лидеры подчеркивают риски, связанные с искусственным интеллектом, и безотлагательность надежного регулирования искусственного интеллекта

Технологические лидеры подчеркивают риски, связанные с искусственным интеллектом, и безотлагательность надежного регулирования искусственного интеллекта
За последние несколько лет рост и развитие ИИ были экспоненциальными. Статистические отчеты что к 2024 году мировой рынок ИИ будет приносить ошеломляющий доход в размере около 3000 миллиардов долларов по сравнению с 126 миллиардами долларов в 2015 году. Однако теперь технологические лидеры предупреждают нас о различных рисках, связанных с ИИ.
Особенно недавняя волна генеративный ИИ Такие модели, как ChatGPT, представили новые возможности в различных секторах, чувствительных к данным, таких как здравоохранение, образование, финансыи т. д. Эти разработки с поддержкой ИИ уязвимы из-за множества недостатков ИИ, которые могут выявить вредоносные агенты.
Давайте обсудим, что говорят эксперты по ИИ о последних событиях, и выделим потенциальные риски ИИ. Мы также кратко коснемся того, как можно управлять этими рисками.

Технические лидеры и их опасения, связанные с рисками ИИ

Джеффри Хинтон

Джеффри Хинтон — известный лидер в области технологий искусственного интеллекта (и крестный отец этой области), который недавно ушел из Google. выразил свои опасения о стремительном развитии ИИ и его потенциальных опасностях. Хинтон считает, что чат-боты с искусственным интеллектом могут стать «довольно страшными», если они превзойдут человеческий интеллект.
Хинтон говорит:
«Прямо сейчас мы наблюдаем такие вещи, как GPT-4 затмевает человека по количеству общих знаний, которые у него есть, и затмевает их на долгое время. С точки зрения рассуждений, это не так хорошо, но уже делает простые рассуждения. И, учитывая темпы прогресса, мы ожидаем, что ситуация улучшится довольно быстро. Поэтому нам нужно беспокоиться об этом».
Более того, он считает, что «плохие актеры» могут использовать ИИ для «плохих вещей», например, позволяя роботам иметь свои подцели. Несмотря на свои опасения, Хинтон считает, что ИИ может принести краткосрочные выгоды, но мы также должны вкладывать значительные средства в безопасность и контроль ИИ.

Elon Musk

Участие Илона Маска в области искусственного интеллекта началось с его ранних инвестиций в DeepMind в 2010 году соучредителем OpenAI и внедрение ИИ в автономные транспортные средства Tesla.
Хотя он с энтузиазмом относится к ИИ, он часто высказывает опасения по поводу рисков, связанных с ИИ. Маск говорит, что мощные системы искусственного интеллекта могут быть опаснее для цивилизации, чем ядерное оружие. В интервью на Fox News в апреле 2023 года он сказал:
«Искусственный интеллект более опасен, чем, скажем, неправильное управление проектированием самолетов, обслуживанием производства или плохим производством автомобилей. В том смысле, что у него есть потенциал — правда, можно считать эту вероятность малой, — но он нетривиален и имеет потенциал разрушения цивилизации».
Более того, Маск поддерживает правительственные постановления об ИИ для обеспечения безопасности от потенциальных рисков, хотя «это не так весело».

Приостановить гигантские эксперименты с ИИ: открытое письмо, поддержанное тысячами экспертов по ИИ

Институт будущего жизни опубликовал открытое письмо 22 марта 2023 года. В письме содержится призыв к временной шестимесячной остановке Разработка систем ИИ более продвинутая чем GPT-4. Авторы выражают обеспокоенность тем, что темпы разработки систем ИИ создают серьезные социально-экономические проблемы.
Более того, в письме говорится, что разработчики ИИ должны работать с политиками над документированием систем управления ИИ. По состоянию на июнь 2023 года письмо подписали более 31,000 XNUMX разработчиков ИИ, экспертов и технических лидеров. Среди известных подписантов — Илон Маск, Стив Возняк (соучредитель Apple), Эмад Мостак (генеральный директор Stability AI), Йошуа Бенжио (лауреат премии Тьюринга) и многие другие.

Контраргументы против остановки разработки ИИ

Два выдающихся лидера ИИ, Эндрю Нг и Янн ЛеКун, выступили против шестимесячного запрета на разработку передовых систем искусственного интеллекта и сочли паузу плохой идеей.
Нг говорит, что, хотя у ИИ есть некоторые риски, такие как предвзятость, концентрация власти и т. д., ценность, создаваемая ИИ в таких областях, как образование, здравоохранение и отзывчивый коучинг, огромна.
Янн ЛеКун говорит, что исследования и разработки не должны останавливаться, хотя продукты ИИ, которые достигают конечного пользователя, могут регулироваться.

Каковы потенциальные опасности и непосредственные риски ИИ?

1. Смещение работы

Эксперты в области искусственного интеллекта считают, что интеллектуальные системы искусственного интеллекта могут заменить когнитивные и творческие задачи. По оценкам инвестиционного банка Goldman Sachs, около 300 миллионов рабочих мест будет автоматизирован с помощью генеративного ИИ.
Следовательно, должны быть правила разработки ИИ, чтобы это не привело к серьезному экономическому спаду. Должны быть образовательные программы для повышения квалификации и переподготовки сотрудников, чтобы справиться с этой задачей.

2. Предвзятые системы искусственного интеллекта

Искажения распространенные среди людей сведения о поле, расе или цвете кожи могут непреднамеренно проникнуть в данные, используемые для обучения систем ИИ, что впоследствии сделает системы ИИ предвзятыми.
Например, в контексте найма на работу предвзятая система ИИ может отбрасывать резюме лиц определенного этнического происхождения, создавая дискриминацию на рынке труда. В правоохранительной, предвзятая интеллектуальная полиция может непропорционально нацеливаться на определенные районы или демографические группы.
Следовательно, важно иметь комплексную стратегию данных, которая устраняет риски ИИ, особенно предвзятость. Системы ИИ должны часто оцениваться и проверяться, чтобы они оставались справедливыми.

3. Критически важные для безопасности приложения ИИ

Автономные транспортные средства, медицинская диагностика и лечение, авиационные системы, управление атомными электростанциями и т. д. — все это примеры критически важных для безопасности приложений ИИ. Эти системы ИИ следует разрабатывать с осторожностью, поскольку даже незначительные ошибки могут иметь серьезные последствия для жизни человека или окружающей среды.
Например, неисправность программного обеспечения ИИ под названием Система улучшения маневренных характеристик (MCAS) частично объясняется крушением двух самолетов Boeing 737 MAX сначала в октябре 2018 года, а затем в марте 2019 года. К сожалению, в результате двух крушений погибло 346 человек.

Как мы можем преодолеть риски систем ИИ? – Ответственная разработка ИИ и соблюдение нормативных требований

Ответственный ИИ (RAI) означает разработку и развертывание справедливых, подотчетных, прозрачных и безопасных систем искусственного интеллекта, которые обеспечивают конфиденциальность и соблюдают правовые нормы и социальные нормы. Внедрение RAI может быть сложным, учитывая широкое и быстрое развитие систем ИИ.
Однако крупные технологические компании разработали фреймворки RAI, такие как:
  1. Ответственный искусственный интеллект Microsoft
  2. Принципы искусственного интеллекта Google
  3. Надежный искусственный интеллект IBM
Лаборатории искусственного интеллекта по всему миру могут черпать вдохновение из этих принципов или разрабатывать собственные ответственные структуры искусственного интеллекта, чтобы создавать надежные системы искусственного интеллекта.

Соблюдение нормативных требований к ИИ

Поскольку данные являются неотъемлемым компонентом систем ИИ, организации и лаборатории, использующие ИИ, должны соблюдать следующие правила для обеспечения безопасности, конфиденциальности и безопасности данных.
  1. GDPR (Общее положение о защите данных) – система защиты данных ЕС.
  2. CCPA (Закон штата Калифорния о защите прав потребителей) – закон штата Калифорния о правах на неприкосновенность частной жизни и защите прав потребителей.
  3. HIPAA (Закон о переносимости и подотчетности медицинского страхования) – законодательство США, защищающее медицинские данные пациентов.
  4. Закон ЕС об искусственном интеллектеи Рекомендации по этике для надежного ИИ – Регламент Европейской комиссии по искусственному интеллекту.
Существуют различные региональные и местные законы, принятые в разных странах для защиты своих граждан. Организации, которые не могут обеспечить соблюдение нормативных требований в отношении данных, могут понести суровые санкции. Например, GDPR установил штраф в размере €20 млн или 4% годовой прибыли за серьезные нарушения, такие как незаконная обработка данных, недоказанное согласие на данные, нарушение прав субъектов данных или незащищенная передача данных международному юридическому лицу.

Разработка и регулирование ИИ – настоящее и будущее

С каждым месяцем достижения в области искусственного интеллекта достигают беспрецедентных высот. Но сопутствующие правила и рамки управления ИИ отстают. Они должны быть более надежными и конкретными.
Технические лидеры и разработчики ИИ бьют тревогу о рисках ИИ, если они не регулируются должным образом. Исследования и разработки в области ИИ могут принести дополнительную пользу во многих секторах, но ясно, что сейчас необходимо тщательное регулирование.

Ссылка: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Источник: https://www.unite.ai

Лидеры технологий подчеркивают риски, связанные с искусственным интеллектом, и необходимость введения надежного регулирования искусственного интеллекта PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Отметка времени:

Больше от Финтех Новости