- OpenAI представила «Систему готовности» для оценки и снижения рисков, связанных с ее мощными моделями искусственного интеллекта.
- Эта структура устанавливает систему сдержек и противовесов для защиты от потенциальных «катастрофических рисков», подчеркивая приверженность OpenAI внедрению технологий только тогда, когда они считаются безопасными.
- Команда по обеспечению готовности рассмотрит отчеты о безопасности, результаты которых будут переданы руководителям компании и совету директоров OpenAI, что ознаменует сдвиг, который дает комиссии право отменять решения по безопасности.
Компания OpenAI, занимающаяся искусственным интеллектом (ИИ), представила свою «Систему готовности», сигнализируя о своей приверженности оценке и снижению рисков, связанных с ее все более мощными моделями искусственного интеллекта (ИИ). В сообщение в блоге от 18 декабряКомпания представила «Группу готовности», которая будет служить важнейшим связующим звеном между группами безопасности и политики внутри OpenAI.
Этот совместный подход направлен на создание системы, похожей на систему сдержек и противовесов, для защиты от потенциальных «катастрофических рисков», создаваемых передовыми моделями ИИ. OpenAI подчеркивает, что будет использовать свою технологию только в том случае, если она будет признана безопасной, что усиливает приверженность ответственной разработке ИИ.
В соответствии с новой структурой группе готовности будет поручено рассматривать отчеты о безопасности, а результаты будут переданы руководителям компаний и совету директоров OpenAI. Хотя формальные полномочия по принятию решений принадлежат руководителям, эта система вносит примечательный сдвиг, позволяя комиссии отменять решения по безопасности. Этот шаг соответствует стремлению OpenAI проводить комплексные оценки безопасности и добавляет дополнительный уровень надзора.
Это объявление последовало за серией изменений в OpenAI, произошедших в ноябре, ознаменовавшихся внезапным увольнением и последующим восстановлением на посту генерального директора Сэма Альтмана. По возвращении Альтмана OpenAI обнародовала свое обновленное правление, председателем которого стали Брет Тейлор, а также Ларри Саммерс и Адам Д'Анджело. Эти изменения в руководстве отражают стремление компании поддерживать надежную структуру, продолжая ориентироваться в меняющейся сфере разработки искусственного интеллекта.
СВЯЗАННЫЙ: OpenAI запускает грант на разработку правил искусственного интеллекта
OpenAI привлекла значительное внимание, когда в ноябре 2022 года представила публике ChatGPT. Публичный выпуск передовых моделей ИИ вызвал широкий интерес, сопровождаемый растущей обеспокоенностью по поводу потенциальных социальных последствий и рисков, связанных с такими мощными технологиями. В ответ на эти опасения OpenAI предпринимает активные шаги по внедрению ответственной практики с помощью своей системы готовности.
В июле ведущие разработчики ИИ, в том числе OpenAI, Microsoft, Google и Anthropic, объединили усилия для создания Frontier Model Forum. Целью этого форума является надзор за саморегулированием ответственного создания искусственного интеллекта в отрасли. Сотрудничество коллективно признает необходимость этических стандартов и подотчетных методов разработки ИИ.
Более широкий ландшафт этики ИИ стал объектом повышенного внимания на политическом уровне. В октябре президент США Джо Байден издал указ, в котором изложены новые стандарты безопасности ИИ для компаний, занимающихся разработкой и внедрением моделей ИИ высокого уровня. Этот указ отражает более широкое признание правительством важности обеспечения ответственного и безопасного внедрения передовых технологий искусственного интеллекта.
Перед указом Байдена ключевые разработчики ИИ, включая OpenAI, были приглашены в Белый дом, чтобы взять на себя обязательство по разработке безопасных и прозрачных моделей ИИ. Эти инициативы подчеркивают растущую осведомленность и коллективную ответственность в сообществе ИИ и в более широком технологическом секторе за решение вопросов этики и безопасности, связанных с развитием технологий ИИ. Структура готовности OpenAI представляет собой значительный шаг в этом постоянном стремлении к ответственной разработке ИИ и упреждающему управлению потенциальными рисками.
ЧИТАЙТЕ: Сложный путь Сэма Альтмана: перипетии лидерства в OpenAI
Поскольку OpenAI продолжает быть пионером в области технологий искусственного интеллекта, внедрение платформы готовности означает активный подход к устранению этических последствий и потенциальных рисков, связанных с мощными моделями искусственного интеллекта. Создание специализированной группы, занимающейся оценкой безопасности и прогнозированием рисков, демонстрирует стремление OpenAI опережать проблемы, которые могут возникнуть в динамичной среде искусственного интеллекта.
Эта инновационная структура соответствует более широкому признанию в отрасли необходимости ответственной практики разработки ИИ и непрерывного развития стандартов для обеспечения полезной и безопасной интеграции ИИ в общество.
Решение предоставить совету директоров OpenAI право отменять решения по безопасности добавляет новый уровень управления, отражающий приверженность прозрачности и подотчетности. Вовлекая совет директоров в принятие ключевых решений, связанных с безопасностью, OpenAI стремится развивать культуру сотрудничества и контроля, выходящую за рамки традиционных структур принятия решений. По мере развития сферы ИИ структура готовности OpenAI служит свидетельством приверженности компании ответственным инновациям и ее активных усилий по прогнозированию и управлению потенциальными рисками, связанными с развертыванием передовых технологий ИИ.
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://web3africa.news/2023/12/25/news/openai-artificial-intelligence/
- :имеет
- :является
- 2022
- a
- О нас
- в сопровождении
- отчетность
- подотчетный
- Адам
- адрес
- адресация
- Добавляет
- продвинутый
- продвижение
- достижения
- против
- впереди
- AI
- AI модели
- Цель
- родственный
- Выравнивает
- позволять
- Позволяющий
- рядом
- изменения
- среди
- an
- и
- Объявление
- Антропный
- предвидеть
- подхода
- возникать
- искусственный
- искусственный интеллект
- Искусственный интеллект (AI)
- AS
- связанный
- At
- внимание
- власть
- осведомленность
- Остатки
- BE
- полезный
- между
- Beyond
- Биден
- Блог
- доска
- шире
- by
- Генеральный директор
- Кресла
- проблемы
- изменения
- графиков
- ChatGPT
- Проверки
- сотрудничество
- совместный
- собирательный
- коллективно
- комиссии
- совершать
- обязательство
- сообщество
- Компании
- Компания
- Компании
- комплекс
- комплексный
- Обеспокоенность
- значительный
- соображения
- продолжается
- (CIJ)
- создание
- решающее значение
- Культура
- передовой
- Декабрь
- Принятие решений
- решения
- преданный
- преданность
- считается
- демонстрирует
- развертывание
- развертывание
- развертывание
- застройщиков
- развивающийся
- Развитие
- динамический
- усилия
- подчеркивает
- подчеркивающий
- занятый
- обеспечивать
- обеспечение
- установить
- налаживает
- налаживание
- этический
- этика
- оценивать
- оценки
- оценки
- эволюция
- эволюционирует
- развивается
- исполнительный
- распоряжение
- руководителей высшего звена.
- Показывая
- результаты
- Фирма
- следующим образом
- Что касается
- Войска
- формальный
- Форум
- Способствовать
- Рамки
- Граница
- получила
- управление
- правительственный
- предоставлять
- гранты
- Рост
- на высшем уровне
- держать
- Вилла / Бунгало
- HTTPS
- if
- реализация
- последствия
- значение
- in
- В том числе
- расширились
- все больше и больше
- промышленность
- отрасли
- инициативы
- Инновации
- инновационный
- интеграции.
- Интеллекта
- интерес
- в
- выпустили
- Представляет
- Введение
- приглашенный
- с участием
- Выпущен
- IT
- ЕГО
- JOE
- Джо Байден
- присоединился
- путешествие
- JPG
- июль
- Основные
- пейзаж
- Ларри Саммерс
- запустили
- запускает
- слой
- Наша команда
- ведущий
- уровень
- LINK
- Сохранение
- управлять
- управление
- с пометкой
- маркировка
- Май..
- Microsoft
- смягчать
- смягчающим
- снижение рисков
- модель
- Модели
- двигаться
- Откройте
- Необходимость
- Новые
- Примечательно
- Ноябрь
- октябрь
- of
- on
- постоянный
- только
- OpenAI
- заказ
- с изложением
- надзирать
- надзор
- путь
- пионер
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- политика
- поставленный
- После
- потенциал
- мощностью
- мощный
- практиками
- прогноз
- президент
- президент джо байден
- Проактивная
- для защиты
- что такое варган?
- признание
- отражать
- отражает
- освободить
- Отчеты
- представляет
- ответ
- ответственность
- ответственный
- возвращают
- обратный
- обзоре
- обзор
- Снижение
- управление рисками
- рисках,
- надежный
- s
- безопасный
- Сохранность
- Сэм
- Сэм Альтман
- сектор
- безопасный
- видел
- Серии
- служить
- служит
- общие
- сдвиг
- значительный
- Значит
- социальный
- Общество
- вызвало
- специализированный
- стандартов
- пребывание
- Шаг
- Шаги
- Структура
- структур
- последующее
- такие
- внезапный
- система
- с
- команда
- команды
- технологии
- Технологии
- Технологический сектор
- воли
- который
- Ассоциация
- Эти
- этой
- Через
- в
- традиционный
- Прозрачность
- прозрачный
- правда
- Получается
- крученые
- нам
- представила
- обновление
- на
- были
- когда
- который
- в то время как
- белый
- Белый дом
- широко распространена
- будете
- в
- зефирнет