Как должны вести себя системы ИИ и кто должен решать?

Как должны вести себя системы ИИ и кто должен решать?

Как должны вести себя системы искусственного интеллекта и кто должен решать? PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Выполняя нашу миссию, мы стремимся к тому, чтобы доступ, преимущества и влияние на ИИ и ОИИ были широко распространены. Мы считаем, что для достижения этих целей в контексте поведения системы ИИ необходимы как минимум три строительных блока.[^область]

1. Улучшить поведение по умолчанию. Мы хотим, чтобы как можно больше пользователей нашли наши системы искусственного интеллекта полезными для себя «из коробки» и чувствовали, что наша технология понимает и уважает их ценности.

С этой целью мы инвестируем в исследования и разработки, чтобы уменьшить явные и тонкие предубеждения в том, как ChatGPT реагирует на различные входные данные. В некоторых случаях ChatGPT в настоящее время отказывается от вывода, которого не должен, а в некоторых случаях не отказывается, когда должен. Мы считаем, что улучшение в обоих отношениях возможно.

Кроме того, у нас есть возможности для улучшения других аспектов поведения системы, таких как система «придумывает вещи». Отзывы пользователей бесценны для внесения этих улучшений.

2. Определите ценности вашего ИИ в широких пределах. Мы считаем, что ИИ должен быть полезным инструментом для отдельных людей и, таким образом, настраиваться каждым пользователем в пределах, определенных обществом. Поэтому мы разрабатываем обновление до ChatGPT, чтобы пользователи могли легко настраивать его поведение.

Это будет означать разрешение выходных данных системы, с которыми другие люди (включая нас) могут категорически не согласиться. Достижение правильного баланса здесь будет сложной задачей — доведение настройки до крайности может привести к риску злонамеренное использование наших технологий и подхалимских ИИ, которые бездумно усиливают существующие убеждения людей.

Поэтому всегда будут существовать некоторые ограничения на поведение системы. Задача состоит в том, чтобы определить, каковы эти границы. Если мы попытаемся принять все эти решения самостоятельно или если мы попытаемся разработать единую монолитную систему ИИ, мы не выполним обязательство, взятое в нашей Хартии, «избегать чрезмерной концентрации власти».

3. Публичный вклад в значения по умолчанию и жесткие ограничения. Один из способов избежать чрезмерной концентрации власти — предоставить людям, использующим такие системы, как ChatGPT, возможность влиять на правила этих систем.

Мы считаем, что многие решения о наших значениях по умолчанию и жестких границах должны приниматься коллективно, и, хотя практическая реализация является сложной задачей, мы стремимся учитывать как можно больше точек зрения. В качестве отправной точки мы запросили внешние данные о нашей технологии в виде красная команда. Мы тоже недавно начали запрос общественного мнения об искусственном интеллекте в образовании (один особенно важный контекст, в котором развертывается наша технология).

Мы находимся на ранних стадиях пилотных усилий по сбору отзывов общественности по таким темам, как поведение системы, механизмы раскрытия информации (например, водяные знаки) и наши политики развертывания в более широком смысле. Мы также изучаем партнерские отношения с внешними организациями для проведения сторонних аудитов нашей безопасности и политики.

Отметка времени:

Больше от OpenAI