ChatGPT: Робимо речі безпечнішими (Саймон Томпсон)

ChatGPT: Робимо речі безпечнішими (Саймон Томпсон)

ChatGPT: Making things safer (Simon Thompson) PlatoBlockchain Data Intelligence. Vertical Search. Ai.

In перша частина цього блогу Я дослідив нову потужну технологію ChatGPT. У цій другій і останній частині я досліджу, які найкращі практики потрібні, щоб зробити його використання максимально безпечним і безпечним.

Цілком зрозуміло, що ми не збираємося повертати ChatGPT назад у пляшку. Техніки, використані для його створення, добре відомі, і хоча обсяг необхідних обчислень зараз здається героїчним, у відносно найближчому майбутньому він стане набагато більш доступним. Навіть якщо ціни на обчислення не знизяться радикально найближчим часом, обчислення, необхідні для створення GPT3.5, уже доступні багатьом державним суб’єктам і широкому колу недержавних суб’єктів.

Google анонсував «Bard» на основі своєї технології LAMDA, яка є настільки переконливою, що один внутрішній інженер переконався, що в неї є душа, і Deepmind розробив чат-бота під назвою «Sparrow», який, як «деякі стверджують», технічно кращий за ChatGPT.

Великі небезпеки навряд чи походять від таких складних суперкомпаній, як Alphabet. Менші компанії з принципом «рухайся швидко і ламай речі», ймовірно, будуть креативними та авантюрними у своїх ідеях застосування. Але за допомогою такої системи можлива дуже реальна шкода цілком реальним людям, і її можна легко та швидко запровадити невеликими групами неекспертів.

П’ять найкращих порад, як зробити ChatGPT безпечнішим

Незважаючи на те, що є багато шляхів до «ні» і лише один до «так», все одно буде багато заяв, які будуть кваліфіковані як розумні. Але це не зробить їх безпечними. Щоб мати довіру до програми на базі ChatGPT, також пропонується виконати наступні кроки.

  1. Не повинно бути обману щодо того, з чим взаємодіють користувачі. Ви не можете дати інформовану згоду, якщо ви не поінформовані. Саліма Амерші та інші [1] опублікували чудові рекомендації щодо взаємодії систем ШІ. Важливо, що вони забезпечують структуру для розгляду взаємодії протягом життєвого циклу взаємодії користувача. Інструкції описують, як дати зрозуміти користувачеві, з чим він взаємодіє, і як проінструктувати його про те, що від нього очікується. Керівництво Амерші поширюється на всю взаємодію, керуючи невдачами та понаднормовою роботою, оскільки система стає «бізнесом, як зазвичай».
  2. Користувачі повинні мати можливість не взаємодіяти з системою. Реальний варіант – наприклад альтернативний контактний канал.
  3. До кожної заявки має бути прикладена оцінка впливу. Розмістіть його на веб-сайті, як файл robots.txt, або так, як ви додаєте ліцензію до вихідного коду. Канадський процес AIA пропонує модель для такого роду речей, але деякі фундаментальні запитання є хорошим початком. Кому це зашкодить, якщо воно спрацює за призначенням? Хто постраждає, якщо чат-бот піде не так? Хтось може сказати, чи чат-бот йде не так, і чи може він зупинити його та виправити ситуацію, якщо це так?
  4. Якщо ваша система може мати несприятливий вплив на інших, тоді має бути моніторинг і журнал того, що система робить і як вона поводиться. Їх слід підтримувати таким чином, щоб у разі потреби можна було провести криміналістичне дослідження поведінки системи.
  5. Якщо ви не несете особистої безпосередньої відповідальності за систему, слід розробити та підтримувати чітко задокументований процес управління. Частина цього має описувати, як користувачі можуть звертатися за допомогою та як вони можуть скаржитися на систему. У ньому також має бути описано, якими мають бути процеси вирішення проблем і скарг користувачів.

Потенціал великої цінності в багатьох випадках використання

Завдяки належним елементам керування та процесам нові великі мовні моделі, такі як ChatGPT, забезпечать велику цінність у багатьох випадках використання, хоча й із запровадженням основних елементів керування та перевірок, щоб забезпечити захист користувачів і кінцевих користувачів від будь-яких непорозумінь.

  1. Амерші, Саліма. «Рекомендації щодо взаємодії людини та ШІ». Конференція CHI про людський фактор в обчислювальних системах. ЧІ, 2019. 1–13.

Часова мітка:

Більше від Фінтекстра