Лучшие практики по развертыванию языковых моделей PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Лучшие практики развертывания языковых моделей

Лучшие практики развертывания языковых моделей

Cohere, OpenAI и AI21 Labs разработали предварительный набор передовых практик, применимых к любой организации, разрабатывающей или развертывающей большие языковые модели. Компьютеры, которые могут читать и писать, уже здесь, и они могут коренным образом повлиять на повседневную жизнь. Будущее взаимодействия человека и машины полно возможностей и надежд, но любая мощная технология требует тщательного развертывания.

Приведенное ниже совместное заявление представляет собой шаг к созданию сообщества для решения глобальных проблем, связанных с развитием ИИ, и мы призываем другие организации, которые хотели бы принять участие, связаться с нами.

Совместная рекомендация по развертыванию языковой модели

Мы рекомендуем несколько ключевых принципов, которые помогут поставщикам больших языковых моделей (LLM) снизить риски, связанные с этой технологией, чтобы в полной мере реализовать ее обещания по расширению человеческих возможностей.

Хотя эти принципы были разработаны специально на основе нашего опыта предоставления LLM через API, мы надеемся, что они будут полезны независимо от стратегии выпуска (например, открытый исходный код или использование внутри компании). Мы ожидаем, что эти рекомендации со временем значительно изменятся, поскольку коммерческое использование LLM и сопутствующие соображения безопасности являются новыми и развивающимися. Мы активно изучаем и устраняем ограничения и возможности неправомерного использования LLM и со временем будем обновлять эти принципы и практики в сотрудничестве с более широким сообществом.

Мы делимся этими принципами в надежде, что другие поставщики LLM смогут извлечь из них уроки и принять их, а также для продвижения общественного обсуждения разработки и развертывания LLM.

Запретить неправильное использование


Опубликовать правила использования и условия использования LLM способом, который запрещает причинение материального ущерба отдельным лицам, сообществам и обществу, например, посредством спама, мошенничества или астротурфинга. В рекомендациях по использованию также должны быть указаны области, в которых использование LLM требует дополнительной проверки, и запрещены случаи использования с высоким риском, которые не подходят, например, классификация людей на основе защищенных характеристик.


Создавайте системы и инфраструктуру для обеспечения соблюдения рекомендаций по использованию. Это может включать ограничение скорости, фильтрацию контента, утверждение приложений до доступа к рабочей среде, мониторинг аномальной активности и другие меры по смягчению последствий.

Уменьшение непреднамеренного вреда


Упреждающее смягчение вредного поведения модели. Передовой опыт включает всестороннюю оценку модели для правильной оценки ограничений, минимизацию потенциальных источников предвзятости в учебных корпусах и методы минимизации небезопасного поведения, например, путем обучения на основе отзывов людей.


Документировать известные слабости и уязвимости, такие как предвзятость или способность создавать небезопасный код, так как в некоторых случаях никакие профилактические действия не могут полностью устранить возможность непреднамеренного вреда. Документация также должна включать модели и передовые методы обеспечения безопасности для конкретных случаев использования.

Вдумчиво сотрудничайте с заинтересованными сторонами


Создавайте команды с разным опытом и запрашивать широкий вклад. Необходимы различные точки зрения, чтобы охарактеризовать и рассмотреть, как языковые модели будут работать в разнообразии реального мира, где, если их не контролировать, они могут усилить предубеждения или не работать для некоторых групп.


Публично раскрывать уроки, извлеченные в отношении безопасности и неправильного использования LLM чтобы обеспечить широкое внедрение и помочь с кросс-отраслевой итерацией передового опыта.


Уважительно относиться ко всей рабочей силе в цепочке поставок языковой модели. Например, поставщики должны иметь высокие стандарты для условий работы тех, кто просматривает результаты моделей внутри компании, и требовать от поставщиков соблюдения четко определенных стандартов (например, гарантировать, что маркировщики могут отказаться от данной задачи).

Публикация этих принципов для поставщиков LLM представляет собой первый шаг в совместном руководстве более безопасной разработкой и развертыванием модели большого языка. Мы рады продолжить работу друг с другом и с другими сторонами, чтобы определить другие возможности для уменьшения непреднамеренного вреда и предотвращения злонамеренного использования языковых моделей.

Скачать как PDF

Поддержка других организаций

«Несмотря на то, что LLM подает большие надежды, у них есть серьезные проблемы с безопасностью, над которыми необходимо работать. Эти передовые методы служат важным шагом в минимизации вреда этих моделей и максимизации их потенциальных преимуществ».

—антропный

«Поскольку большие языковые модели (LLM) становятся все более мощными и выразительными, снижение рисков становится все более важным. Мы приветствуем эти и другие усилия, направленные на упреждающее снижение вреда и выделение пользователям областей, требующих особого внимания. Изложенные здесь принципы являются важным вкладом в глобальный диалог».

— Джон Бансемер, директор проекта CyberAI и старший научный сотрудник Центра безопасности и новых технологий (CSET)

«Google подтверждает важность комплексных стратегий анализа данных моделей и обучения для снижения рисков причинения вреда, предвзятости и искажения информации. Эти поставщики ИИ предприняли продуманный шаг для продвижения принципов и документации по обеспечению безопасности ИИ».

— Облачная платформа Google (GCP)

«Безопасность базовых моделей, таких как большие языковые модели, вызывает растущую социальную озабоченность. Мы благодарим Cohere, OpenAI и AI21 Labs за первый шаг по определению высокоуровневых принципов ответственной разработки и развертывания с точки зрения разработчиков моделей. Предстоит еще много работы, и мы считаем, что важно привлечь больше голосов из научных кругов, промышленности и гражданского общества для разработки более подробных принципов и норм сообщества. Как мы заявляем в нашем недавнем блоге, важен не только конечный результат, но и легитимность процесса».

— Перси Лян, директор Стэнфордского центра исследований базовых моделей (CRFM)

Присоединиться

Если вы разрабатываете языковые модели или работаете над снижением связанных с ними рисков, мы будем рады поговорить с вами. Пожалуйста, свяжитесь с bestpractices@openai.com.

Отметка времени:

Больше от OpenAI