Найкращі практики розгортання мовних моделей PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Найкращі методи розгортання мовних моделей

Найкращі методи розгортання мовних моделей

Cohere, OpenAI та AI21 Labs розробили попередній набір найкращих практик, застосовних до будь-якої організації, яка розробляє або розгортає великі мовні моделі. Тут є комп’ютери, які вміють читати та писати, і вони мають потенціал кардинально вплинути на повсякденне життя. Майбутнє взаємодії людини й машини повне можливостей і перспектив, але будь-яка потужна технологія потребує обережного розгортання.

Наведена нижче спільна заява є кроком до створення спільноти для вирішення глобальних проблем, пов’язаних із прогресом ШІ, і ми заохочуємо інші організації, які бажають взяти участь, зв’язатися.

Спільна рекомендація щодо розгортання мовної моделі

Ми рекомендуємо кілька ключових принципів, які допоможуть постачальникам великих мовних моделей (LLM) зменшити ризики цієї технології, щоб досягти її повної обіцянки розширити людські можливості.

Хоча ці принципи були розроблені спеціально на основі нашого досвіду надання LLM через API, ми сподіваємося, що вони будуть корисними незалежно від стратегії випуску (наприклад, відкритий вихідний код або використання в компанії). Ми очікуємо, що ці рекомендації з часом значно зміняться, оскільки комерційне використання LLM та супутні міркування безпеки є новими та розвиваються. Ми активно вивчаємо та вирішуємо обмеження та шляхи неправомірного використання LLM, а також будемо оновлювати ці принципи та практики у співпраці з більшою спільнотою.

Ми ділимося цими принципами в надії, що інші постачальники LLM зможуть навчитися і прийняти їх, а також сприяти громадському обговоренню розвитку та розгортання LLM.

Заборонити зловживання


Опублікувати інструкції та умови використання LLM у спосіб, який забороняє заподіяння матеріальної шкоди окремим особам, спільнотам і суспільству, наприклад через спам, шахрайство або астротурфінг. Інструкції щодо використання повинні також визначати домени, де використання LLM вимагає додаткової перевірки, і забороняти випадки використання високого ризику, які є невідповідними, наприклад, класифікувати людей на основі захищених характеристик.


Створюйте системи та інфраструктуру для дотримання правил використання. Це може включати обмеження швидкості, фільтрацію вмісту, схвалення програми перед доступом до виробництва, моніторинг аномальної активності та інші пом’якшення.

Пом’якшення ненавмисної шкоди


Проактивно пом’якшуйте шкідливу поведінку моделі. Найкращі методи включають комплексну оцінку моделі для правильної оцінки обмежень, мінімізації потенційних джерел упередженості в навчальних корпусах та методи мінімізації небезпечної поведінки, наприклад, навчання на основі зворотного зв’язку з людьми.


Задокументуйте відомі слабкі та вразливі місця, наприклад, упередженість або здатність створювати небезпечний код, оскільки в деяких випадках ніякі превентивні дії не можуть повністю усунути ймовірність ненавмисної шкоди. Документація також повинна включати найкращі методи безпеки для моделі та конкретного випадку використання.

Продумано співпрацюйте із зацікавленими сторонами


Створюйте команди з різним досвідом і запропонувати широкий внесок. Необхідні різноманітні точки зору, щоб охарактеризувати та розглянути те, як мовні моделі будуть працювати в різноманітності реального світу, де, якщо їх не перевіряти, вони можуть посилити упередження або не працювати для деяких груп.


Публічно оприлюднити набуті уроки щодо безпеки та неправомірного використання LLM щоб забезпечити широке впровадження та допомогти з міжгалузевими ітераціями найкращих практик.


Ставтеся з повагою до всієї праці в ланцюжку поставок мовної моделі. Наприклад, постачальники повинні мати високі стандарти щодо умов роботи тих, хто перевіряє результати моделі всередині компанії, а постачальники повинні дотримуватися чітко визначених стандартів (наприклад, гарантувати, що маркувальники можуть відмовитися від певного завдання).

Як постачальники LLM, публікація цих принципів є першим кроком у спільному керівництві більш безпечною розробкою та розгортанням моделі великих мов. Ми раді продовжувати працювати один з одним та з іншими сторонами, щоб виявити інші можливості для зменшення ненавмисної шкоди та запобігання зловмисному використанню мовних моделей.

Завантажити як PDF

Підтримка інших організацій

«Хоча магістратури багатообіцяючі, вони мають серйозні внутрішні проблеми безпеки, над якими потрібно працювати. Ці найкращі практики служать важливим кроком у мінімізації шкоди від цих моделей і максимізації їх потенційних переваг».

— Антропний

«Оскільки великі мовні моделі (LLM) стають все більш потужними та виразними, зменшення ризиків стає все більш важливим. Ми вітаємо ці та інші зусилля, спрямовані на завчасне пом’якшення шкоди та висвітлення користувачів у сферах, які потребують особливої ​​уваги. Викладені тут принципи є важливим внеском у глобальну дискусію».

— Джон Бенсемер, директор проекту CyberAI і старший науковий співробітник Центру безпеки та нових технологій (CSET)

«Google підтверджує важливість комплексних стратегій для аналізу моделей і даних навчання, щоб зменшити ризики шкоди, упередженості та спотворення інформації. Це продуманий крок, зроблений цими постачальниками ШІ для просування принципів і документації щодо безпеки ШІ».

— Google Cloud Platform (GCP)

«Безпека базових моделей, таких як великі мовні моделі, викликає зростаюче суспільне занепокоєння. Ми вдячні Cohere, OpenAI і AI21 Labs за перший крок до окреслення високорівневих принципів відповідальної розробки та розгортання з точки зору розробників моделей. Попереду ще багато роботи, і ми вважаємо, що важливо залучити більше голосів з наукових кіл, промисловості та громадянського суспільства до розробки більш детальних принципів і норм спільноти. Як ми заявляємо в нашому нещодавньому блогважливий не лише кінцевий результат, але й легітимність процесу».

— Персі Лянг, директор Стенфордського центру дослідження моделей фундаментів (CRFM)

Брати участь

Якщо ви розробляєте мовні моделі або працюєте над зменшенням їхніх ризиків, ми будемо раді поговорити з вами. Будь ласка, зв'яжіться з bestpractices@openai.com.

Часова мітка:

Більше від OpenAI