Прокладывая ответственный путь: «Структура готовности» OpenAI для управления рисками ИИ

Прокладывая ответственный путь: «Структура готовности» OpenAI для управления рисками ИИ

Прокладывая ответственный путь: «Структура готовности» OpenAI для управления рисками ИИ PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.
  • OpenAI представила «Систему готовности» для оценки и снижения рисков, связанных с ее мощными моделями искусственного интеллекта.
  • Эта структура устанавливает систему сдержек и противовесов для защиты от потенциальных «катастрофических рисков», подчеркивая приверженность OpenAI внедрению технологий только тогда, когда они считаются безопасными.
  • Команда по обеспечению готовности рассмотрит отчеты о безопасности, результаты которых будут переданы руководителям компании и совету директоров OpenAI, что ознаменует сдвиг, который дает комиссии право отменять решения по безопасности.

Компания OpenAI, занимающаяся искусственным интеллектом (ИИ), представила свою «Систему готовности», сигнализируя о своей приверженности оценке и снижению рисков, связанных с ее все более мощными моделями искусственного интеллекта (ИИ). В сообщение в блоге от 18 декабряКомпания представила «Группу готовности», которая будет служить важнейшим связующим звеном между группами безопасности и политики внутри OpenAI.

Этот совместный подход направлен на создание системы, похожей на систему сдержек и противовесов, для защиты от потенциальных «катастрофических рисков», создаваемых передовыми моделями ИИ. OpenAI подчеркивает, что будет использовать свою технологию только в том случае, если она будет признана безопасной, что усиливает приверженность ответственной разработке ИИ.

В соответствии с новой структурой группе готовности будет поручено рассматривать отчеты о безопасности, а результаты будут переданы руководителям компаний и совету директоров OpenAI. Хотя формальные полномочия по принятию решений принадлежат руководителям, эта система вносит примечательный сдвиг, позволяя комиссии отменять решения по безопасности. Этот шаг соответствует стремлению OpenAI проводить комплексные оценки безопасности и добавляет дополнительный уровень надзора.

Это объявление последовало за серией изменений в OpenAI, произошедших в ноябре, ознаменовавшихся внезапным увольнением и последующим восстановлением на посту генерального директора Сэма Альтмана. По возвращении Альтмана OpenAI обнародовала свое обновленное правление, председателем которого стали Брет Тейлор, а также Ларри Саммерс и Адам Д'Анджело. Эти изменения в руководстве отражают стремление компании поддерживать надежную структуру, продолжая ориентироваться в меняющейся сфере разработки искусственного интеллекта.

СВЯЗАННЫЙ: OpenAI запускает грант на разработку правил искусственного интеллекта

OpenAI привлекла значительное внимание, когда в ноябре 2022 года представила публике ChatGPT. Публичный выпуск передовых моделей ИИ вызвал широкий интерес, сопровождаемый растущей обеспокоенностью по поводу потенциальных социальных последствий и рисков, связанных с такими мощными технологиями. В ответ на эти опасения OpenAI предпринимает активные шаги по внедрению ответственной практики с помощью своей системы готовности.

В июле ведущие разработчики ИИ, в том числе OpenAI, Microsoft, Google и Anthropic, объединили усилия для создания Frontier Model Forum. Целью этого форума является надзор за саморегулированием ответственного создания искусственного интеллекта в отрасли. Сотрудничество коллективно признает необходимость этических стандартов и подотчетных методов разработки ИИ.

Более широкий ландшафт этики ИИ стал объектом повышенного внимания на политическом уровне. В октябре президент США Джо Байден издал указ, в котором изложены новые стандарты безопасности ИИ для компаний, занимающихся разработкой и внедрением моделей ИИ высокого уровня. Этот указ отражает более широкое признание правительством важности обеспечения ответственного и безопасного внедрения передовых технологий искусственного интеллекта.

Перед указом Байдена ключевые разработчики ИИ, включая OpenAI, были приглашены в Белый дом, чтобы взять на себя обязательство по разработке безопасных и прозрачных моделей ИИ. Эти инициативы подчеркивают растущую осведомленность и коллективную ответственность в сообществе ИИ и в более широком технологическом секторе за решение вопросов этики и безопасности, связанных с развитием технологий ИИ. Структура готовности OpenAI представляет собой значительный шаг в этом постоянном стремлении к ответственной разработке ИИ и упреждающему управлению потенциальными рисками.

ЧИТАЙТЕ: Сложный путь Сэма Альтмана: перипетии лидерства в OpenAI

Поскольку OpenAI продолжает быть пионером в области технологий искусственного интеллекта, внедрение платформы готовности означает активный подход к устранению этических последствий и потенциальных рисков, связанных с мощными моделями искусственного интеллекта. Создание специализированной группы, занимающейся оценкой безопасности и прогнозированием рисков, демонстрирует стремление OpenAI опережать проблемы, которые могут возникнуть в динамичной среде искусственного интеллекта.

Эта инновационная структура соответствует более широкому признанию в отрасли необходимости ответственной практики разработки ИИ и непрерывного развития стандартов для обеспечения полезной и безопасной интеграции ИИ в общество.

Решение предоставить совету директоров OpenAI право отменять решения по безопасности добавляет новый уровень управления, отражающий приверженность прозрачности и подотчетности. Вовлекая совет директоров в принятие ключевых решений, связанных с безопасностью, OpenAI стремится развивать культуру сотрудничества и контроля, выходящую за рамки традиционных структур принятия решений. По мере развития сферы ИИ структура готовности OpenAI служит свидетельством приверженности компании ответственным инновациям и ее активных усилий по прогнозированию и управлению потенциальными рисками, связанными с развертыванием передовых технологий ИИ.

Отметка времени:

Больше от Интернет 3 Африка