ChatGPT: сделать вещи безопаснее (Саймон Томпсон)

ChatGPT: сделать вещи безопаснее (Саймон Томпсон)

ChatGPT: Делаем вещи безопаснее (Саймон Томпсон) PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

In часть первая этого блога Я изучил новую и мощную технологию ChatGPT. Во второй и последней части я исследую, какие передовые методы необходимы, чтобы сделать его использование максимально безопасным и надежным.

Совершенно очевидно, что мы не собираемся снова бросать ChatGPT в бутылку. Методы, использованные для его создания, хорошо известны, и хотя объем необходимых вычислений сейчас кажется героическим, в относительно ближайшем будущем он станет гораздо более доступным. Даже если в ближайшем будущем цены на вычисления не снизятся радикально, вид вычислений, необходимый для создания GPT3.5, уже доступен многим государственным субъектам и широкому кругу негосударственных субъектов.

Google анонсировала «Барда» на основе своей технологии LAMDA, которая настолько убедительна, что один внутренний инженер убедился, что у нее есть душа, а Deepmind разработала чат-бота под названием «Воробей», который, как «некоторые утверждают», технически превосходит ChatGPT.

Большие опасности вряд ли исходят от сложных суперкомпаний, таких как Alphabet. Небольшие компании с позицией «двигайся быстро и ломай вещи», скорее всего, будут творческими и предприимчивыми со своими идеями приложений. Но с такой системой возможен очень реальный вред очень реальным людям, и это может быть легко и быстро реализовано небольшими неопытными группами.

Пять главных советов, как сделать ChatGPT безопаснее

Несмотря на то, что есть много путей к «нет» и только один к «да», все же будет много приложений, которые будут квалифицированы как разумные. Но это не сделает их безопасными. Чтобы быть уверенным в приложении на базе ChatGPT, также рекомендуется выполнить следующие шаги.

  1. Не должно быть обмана в отношении того, с чем взаимодействуют пользователи. Вы не можете дать информированное согласие, если вы не проинформированы. Салима Амерши и др. [1] опубликовали отличные рекомендации по взаимодействию с системами ИИ. Важно отметить, что они обеспечивают структуру для рассмотрения взаимодействия на протяжении всего жизненного цикла взаимодействия с пользователем. Руководящие принципы охватывают, как дать пользователю понять, с чем он взаимодействует, и как проинструктировать его о том, что от него ожидается. Руководство Амерши распространяется на все взаимодействие, управление сбоями и сверхурочными работами по мере того, как система становится «обычным бизнесом».
  2. Пользователи должны иметь возможность не взаимодействовать с системой. Реальный вариант — например, альтернативный канал связи.
  3. К каждой заявке должна быть приложена оценка воздействия. Разместите его на веб-сайте так же, как файл robots.txt или добавьте лицензию к исходному коду. Канадский процесс AIA предлагает модель для такого рода вещей, но некоторые фундаментальные вопросы являются хорошим началом. Кому это повредит, если это сработает, как задумано? Кто пострадает, если чат-бот пойдет не так? Может ли кто-нибудь сказать, что чат-бот работает неправильно, и может ли он остановить его и исправить ситуацию, если это так?
  4. Если ваша система может оказать неблагоприятное воздействие на других, то должен быть мониторинг и регистрация того, что система делает и как она себя ведет. Их следует поддерживать таким образом, чтобы при необходимости можно было провести криминалистическое исследование поведения системы.
  5. Если вы не несете личной и прямой ответственности за систему, следует разработать и поддерживать четко документированный процесс управления. Часть этого должна описывать, как пользователи могут обратиться за помощью и как они могут пожаловаться на систему. В нем также должно быть описано, какими должны быть процессы, связанные с устранением дистресса и жалоб пользователей.

Потенциал большой ценности во многих случаях использования

При правильном контроле и процессах новые большие языковые модели, такие как ChatGPT, обеспечат большую ценность во многих случаях использования, хотя и с необходимыми элементами управления и проверками, чтобы гарантировать защиту пользователей и конечных пользователей от любого недопонимания.

  1. Амерши, Салима. «Руководство по взаимодействию человека и ИИ». Конференция CHI по человеческому фактору в вычислительных системах. ЧИ, 2019. С. 1–13..

Отметка времени:

Больше от Финтекстра