Anthropic afirma que não usará seus dados privados para treinar sua IA

Anthropic afirma que não usará seus dados privados para treinar sua IA – Decrypt

A Anthropic afirma que não usará seus dados privados para treinar sua IA - Decrypt PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

A principal startup de IA generativa, Anthropic, declarou que não usará os dados de seus clientes para treinar seu Large Language Model (LLM) e que intervirá para defender os usuários que enfrentam reivindicações de direitos autorais.

A Anthropic, fundada por ex-pesquisadores da OpenAI, atualizou seu comercial Termos de Serviço para expor seus ideais e intenções. Ao extrair os dados privados dos seus próprios clientes, a Anthropic está a diferenciar-se solidamente de rivais como OpenAI, Amazon e Meta, que aproveitam o conteúdo do utilizador para melhorar os seus sistemas.

“A Anthropic não pode treinar modelos no conteúdo do cliente a partir de serviços pagos”, de acordo com os termos atualizados, que acrescentam que “conforme entre as partes e na medida permitida pela lei aplicável, a anthropic concorda que o cliente possui todos os resultados e se isenta de quaisquer direitos que recebe ao cliente conteúdo sob estes termos.”

Os termos prosseguem dizendo que “a Anthropic não prevê a obtenção de quaisquer direitos sobre o conteúdo do cliente sob estes termos” e que “não concede a nenhuma das partes quaisquer direitos sobre o conteúdo ou propriedade intelectual da outra, por implicação ou de outra forma”.

O documento legal atualizado fornece ostensivamente proteção e transparência para os clientes comerciais da Anthropic. As empresas possuem todos os resultados de IA gerados, por exemplo, evitando potenciais disputas de propriedade intelectual. A Anthropic também se compromete a defender os clientes de reivindicações de direitos autorais sobre qualquer conteúdo infrator produzido por Claude.

A política está alinhada com A missão da Antrópico declaração de que a IA deve ser benéfica, inofensiva e honesta. À medida que cresce o cepticismo público relativamente à ética da IA ​​generativa, o compromisso da empresa em abordar preocupações como a privacidade dos dados poderá dar-lhe uma vantagem competitiva.

Dados dos usuários: alimento vital dos LLMs

Grandes Modelos de Linguagem (LLMs) como GPT-4, LlaMa ou Claude da Anthropic são sistemas avançados de IA que compreendem e geram linguagem humana sendo treinados em extensos dados de texto. Esses modelos aproveitam técnicas de aprendizagem profunda e redes neurais para prever sequências de palavras, compreender o contexto e compreender as sutilezas da linguagem. Durante o treinamento, eles refinam continuamente suas previsões, melhorando sua capacidade de conversar, redigir textos ou fornecer informações relevantes. A eficácia dos LLMs depende muito da diversidade e do volume dos dados nos quais são treinados, tornando-os mais precisos e conscientes do contexto à medida que aprendem com vários padrões de linguagem, estilos e novas informações.

E é por isso que os dados dos usuários são tão valiosos no treinamento de LLMs. Em primeiro lugar, garante que os modelos se mantêm atualizados com as últimas tendências linguísticas e preferências dos utilizadores (por exemplo, compreensão de novas gírias). Em segundo lugar, permite a personalização e um melhor envolvimento do utilizador, adaptando-se às interações e estilos individuais do utilizador. No entanto, isto gera um debate ético porque as empresas de IA não pagam aos utilizadores por esta informação crucial que é usada para treinar modelos que lhes rendem milhões de dólares.

Como relatado por Descifrar, meta revelado recentemente que está treinando seu próximo LlaMA-3 LLM com base nos dados dos usuários e seus novos modelos EMU (que geram fotos e vídeos a partir de prompts de texto) também foram treinados usando dados disponíveis publicamente carregados por seus usuários nas redes sociais.

Além disso, a Amazon também revelou que seu próximo LLM, que alimentaria uma versão atualizada do Alexa, também está sendo treinado nas conversas e interações dos usuários, no entanto, os usuários podem cancelar os dados de treinamento que, por padrão, são definidos para assumir que os usuários concordam. para compartilhar essas informações. “[A Amazon] sempre acreditou que treinar Alexa com solicitações do mundo real é essencial para fornecer aos clientes uma experiência precisa e personalizada e cada vez melhor”, um porta-voz da Amazon disse Descifrar. “Mas, paralelamente, damos aos clientes controle sobre se suas gravações de voz Alexa serão usadas para melhorar o serviço e sempre honramos as preferências de nossos clientes quando treinamos nossos modelos.”

Com os gigantes da tecnologia correndo para lançar os serviços de IA mais avançados, práticas responsáveis ​​de dados são fundamentais para ganhar a confiança do público. A Antrópica pretende dar o exemplo nesse sentido. O debate ético sobre a obtenção de modelos mais poderosos e convenientes à custa da entrega de informações pessoais é tão predominante hoje como era há décadas, quando as redes sociais popularizaram o conceito de utilizadores. tornando-se o produto em troca de serviços gratuitos.

Editado por Ryan Ozawa.

Fique por dentro das notícias sobre criptomoedas, receba atualizações diárias em sua caixa de entrada.

Carimbo de hora:

Mais de Descifrar