Anthropic заявляет, что не будет использовать ваши личные данные для обучения своего ИИ – расшифровка

Anthropic заявляет, что не будет использовать ваши личные данные для обучения своего ИИ – расшифровать

Anthropic заявляет, что не будет использовать ваши личные данные для обучения своего ИИ — расшифровка данных PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Ведущий стартап в области генеративного искусственного интеллекта Anthropic заявил, что не будет использовать данные своих клиентов для обучения своей модели большого языка (LLM) и вмешается, чтобы защитить пользователей, столкнувшихся с претензиями по поводу авторских прав.

Anthropic, основанная бывшими исследователями из OpenAI, обновила свой коммерческий Условия Предоставления Услуг изложить свои идеалы и намерения. Получая частные данные своих клиентов, Anthropic прочно отличается от таких конкурентов, как OpenAI, Amazon и Meta, которые используют пользовательский контент для улучшения своих систем.

«Anthropic не может обучать модели на клиентском контенте из платных сервисов», согласно обновленным условиям, в которых добавлено, что «в отношениях между сторонами и в той степени, в которой это разрешено применимым законодательством, anthropic соглашается с тем, что клиент владеет всеми результатами, и отказывается от любых прав, которые он получает заказчику контент в соответствии с настоящими условиями».

Далее в условиях говорится, что «Anthropic не предполагает получения каких-либо прав на контент клиентов в соответствии с этими условиями» и что они «не предоставляют ни одной из сторон никаких прав на контент или интеллектуальную собственность другой стороны, косвенно или иным образом».

Обновленный юридический документ якобы обеспечивает защиту и прозрачность коммерческих клиентов Anthropic. Компании владеют всеми результатами, полученными с помощью ИИ, например, избегая потенциальных споров в области интеллектуальной собственности. Anthropic также обязуется защищать клиентов от претензий по авторским правам на любой контент, нарушающий авторские права, созданный Клодом.

Политика соответствует Миссия Anthropic заявление о том, что ИИ должен быть полезным, безвредным и честным. Поскольку общественный скептицизм по поводу этики генеративного искусственного интеллекта растет, стремление компании решать такие проблемы, как конфиденциальность данных, может дать ей конкурентное преимущество.

Данные пользователей: жизненно важная пища для студентов-магистров

Большие языковые модели (LLM), такие как GPT-4, LlaMa или Claude от Anthropic, представляют собой передовые системы искусственного интеллекта, которые понимают и генерируют человеческий язык путем обучения на обширных текстовых данных. Эти модели используют методы глубокого обучения и нейронные сети для прогнозирования последовательностей слов, понимания контекста и понимания тонкостей языка. Во время обучения они постоянно совершенствуют свои прогнозы, улучшая свои способности общаться, составлять текст или предоставлять соответствующую информацию. Эффективность LLM во многом зависит от разнообразия и объема данных, на которых они обучаются, что делает их более точными и контекстуально осведомленными, поскольку они учатся на различных языковых моделях, стилях и новой информации.

И именно поэтому данные пользователей так ценны при обучении LLM. Во-первых, это гарантирует, что модели будут соответствовать последним языковым тенденциям и предпочтениям пользователей (например, понимание новых сленгов). Во-вторых, он позволяет персонализировать и лучше вовлекать пользователей, адаптируясь к индивидуальному взаимодействию и стилям пользователей. Однако это порождает этические дебаты, поскольку компании, занимающиеся искусственным интеллектом, не платят пользователям за эту важную информацию, которая используется для обучения моделей, которые приносят им миллионы долларов.

Как сообщает Decrypt, Мета недавно выявлено что он обучает свой будущий LlaMA-3 LLM на основе данных пользователей, а его новые модели EMU (которые генерируют фотографии и видео из текстовых подсказок) также были обучены с использованием общедоступных данных, загруженных пользователями в социальных сетях.

Кроме того, Amazon также сообщила, что ее предстоящий LLM, который станет основой обновленной версии Alexa, также обучается на разговорах и взаимодействиях пользователей, однако пользователи могут отказаться от обучающих данных, которые по умолчанию настроены на предположение, что пользователи согласны. поделиться этой информацией. «[Amazon] всегда считала, что обучение Alexa реальным запросам имеет важное значение для предоставления клиентам точного, персонализированного и постоянно улучшающегося опыта», — заявил представитель Amazon. заявил Decrypt. «Но в то же время мы даем клиентам контроль над тем, используются ли их голосовые записи Alexa для улучшения обслуживания, и мы всегда учитываем предпочтения наших клиентов при обучении наших моделей».

Поскольку технологические гиганты стремятся выпустить самые передовые услуги искусственного интеллекта, ответственная практика обработки данных является ключом к завоеванию общественного доверия. Anthropic стремится подавать пример в этом отношении. Этические дебаты по поводу получения более мощных и удобных моделей за счет отказа от личной информации сегодня так же распространены, как и десятилетия назад, когда социальные сети популяризировали концепцию пользователей. становясь продуктом в обмен на бесплатные услуги.

Под редакцией Райана Одзавы.

Будьте в курсе крипто-новостей, получайте ежедневные обновления на свой почтовый ящик.

Отметка времени:

Больше от Decrypt