Як мають поводитися системи штучного інтелекту та хто має вирішувати?

Як мають поводитися системи штучного інтелекту та хто має вирішувати?

Як мають поводитися системи штучного інтелекту та хто має вирішувати? PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Виконуючи свою місію, ми прагнемо забезпечити широкий доступ до штучного інтелекту та AGI, переваги та вплив на них. Ми вважаємо, що для досягнення цих цілей у контексті поведінки системи ШІ необхідні принаймні три будівельні блоки.[^scope]

1. Покращення поведінки за замовчуванням. Ми хочемо, щоб якомога більше користувачів знайшли наші системи штучного інтелекту корисними для них «з коробки» та відчули, що наша технологія розуміє та поважає їхні цінності.

З цією метою ми інвестуємо в дослідження та розробку, щоб зменшити як явні, так і ледве помітні упередження у тому, як ChatGPT реагує на різні вхідні дані. У деяких випадках ChatGPT наразі відмовляється від вихідних даних, які не повинен, а в деяких випадках він не відмовляється, коли повинен. Ми віримо, що покращення в обох аспектах можливе.

Крім того, у нас є можливості для вдосконалення в інших вимірах поведінки системи, таких як «вигадування» системи. Відгуки користувачів є безцінними для внесення цих покращень.

2. Визначте значення свого ШІ в широких межах. Ми вважаємо, що штучний інтелект має бути корисним інструментом для окремих людей і, таким чином, налаштовуватися кожним користувачем у межах, визначених суспільством. Тому ми розробляємо оновлення до ChatGPT, щоб користувачі могли легко налаштувати його поведінку.

Це означатиме дозвіл системних виходів, з якими інші люди (включно з нами) можуть категорично не погоджуватися. Досягти правильного балансу тут буде непросто – екстремальне налаштування призведе до ризику включення зловмисне використання нашої технології та підлабузницького ШІ, який бездумно розширює існуючі переконання людей.

Тому завжди будуть певні обмеження на поведінку системи. Завдання полягає в тому, щоб визначити, якими є ці межі. Якщо ми спробуємо зробити всі ці визначення самостійно або спробуємо розробити єдину, монолітну систему штучного інтелекту, ми не виконаємо зобов’язання, яке беремо на себе в нашій Хартії щодо «уникнення надмірної концентрації влади».

3. Публічна інформація про значення за замовчуванням і жорсткі обмеження. Один із способів уникнути надмірної концентрації влади — дати людям, які використовують такі системи, як ChatGPT, або на яких вони впливають, можливість впливати на правила цих систем.

Ми вважаємо, що багато рішень щодо наших умов за замовчуванням і жорстких обмежень слід приймати колективно, і хоча практична реалізація є проблемою, ми прагнемо включити якомога більше точок зору. Як відправну точку, ми шукали зовнішній внесок у нашу технологію у формі червона команда. Ми теж нещодавно почали запит громадськості щодо ШІ в освіті (один особливо важливий контекст, у якому розгортається наша технологія).

Ми знаходимося на ранніх етапах пілотування зусиль, щоб отримати коментарі громадськості щодо таких тем, як поведінка системи, механізми розкриття (наприклад, водяні знаки) і наші політики розгортання в ширшому плані. Ми також вивчаємо партнерські відносини із зовнішніми організаціями для проведення третіми сторонами перевірок нашої безпеки та політики.

Часова мітка:

Більше від OpenAI