Anthropic déclare qu'il n'utilisera pas vos données privées pour entraîner son IA

Anthropic déclare qu'il n'utilisera pas vos données privées pour entraîner son IA

Anthropic déclare qu'il n'utilisera pas vos données privées pour entraîner son IA - Décryptez l'intelligence des données PlatoBlockchain. Recherche verticale. Aï.

Anthropic, la startup leader de l’IA générative, a déclaré qu’elle n’utiliserait pas les données de ses clients pour former son Large Language Model (LLM) et qu’elle interviendrait pour défendre les utilisateurs confrontés à des réclamations en matière de droits d’auteur.

Anthropic, fondée par d'anciens chercheurs d'OpenAI, a mis à jour sa publicité Conditions d'utilisation pour préciser ses idéaux et ses intentions. En exploitant les données privées de ses propres clients, Anthropic se différencie solidement de ses concurrents comme OpenAI, Amazon et Meta, qui exploitent le contenu des utilisateurs pour améliorer leurs systèmes.

"Anthropic ne peut pas former de modèles sur le contenu client à partir de services payants", selon les conditions mises à jour, qui ajoutent que "entre les parties et dans la mesure permise par la loi applicable, anthropic accepte que le client soit propriétaire de tous les résultats et décline tout droit qu'il détient". reçoit au client le contenu selon ces conditions.

Les conditions précisent ensuite qu’« Anthropic ne prévoit pas obtenir de droits sur le contenu client en vertu de ces conditions » et qu’elles « n’accordent à aucune des parties aucun droit sur le contenu ou la propriété intellectuelle de l’autre, implicitement ou autrement ».

Le document juridique mis à jour offre apparemment protection et transparence aux clients commerciaux d’Anthropic. Les entreprises sont propriétaires de tous les résultats de l’IA générés, par exemple, évitant ainsi d’éventuels litiges en matière de propriété intellectuelle. Anthropic s'engage également à défendre ses clients contre les réclamations en matière de droits d'auteur concernant tout contenu contrefait produit par Claude.

La politique est conforme à La mission d’Anthropic déclaration selon laquelle l’IA doit être bénéfique, inoffensive et honnête. Alors que le scepticisme du public grandit à l’égard de l’éthique de l’IA générative, l’engagement de l’entreprise à répondre à des préoccupations telles que la confidentialité des données pourrait lui donner un avantage concurrentiel.

Données des utilisateurs : l’alimentation vitale des LLM

Les grands modèles linguistiques (LLM) comme GPT-4, LlaMa ou Anthropic's Claude sont des systèmes d'IA avancés qui comprennent et génèrent le langage humain en étant formés sur de nombreuses données textuelles. Ces modèles exploitent des techniques d'apprentissage profond et des réseaux de neurones pour prédire des séquences de mots, comprendre le contexte et saisir les subtilités du langage. Pendant la formation, ils affinent continuellement leurs prédictions, améliorant ainsi leur capacité à converser, à rédiger des textes ou à fournir des informations pertinentes. L'efficacité des LLM dépend fortement de la diversité et du volume des données sur lesquelles ils sont formés, ce qui les rend plus précis et plus conscients du contexte à mesure qu'ils apprennent de divers modèles linguistiques, styles et nouvelles informations.

Et c’est pourquoi les données des utilisateurs sont si précieuses dans la formation des LLM. Premièrement, cela garantit que les modèles restent à jour avec les dernières tendances linguistiques et préférences des utilisateurs (par exemple, compréhension de nouveaux argots). Deuxièmement, il permet une personnalisation et un meilleur engagement des utilisateurs en s'adaptant aux interactions et aux styles de chaque utilisateur. Cependant, cela génère un débat éthique car les sociétés d’IA ne paient pas les utilisateurs pour ces informations cruciales qui sont utilisées pour former des modèles qui leur rapportent des millions de dollars.

Tel que rapporté par Décrypter, Méta récemment révélé qu'il forme son prochain LlaMA-3 LLM sur la base des données des utilisateurs et que ses nouveaux modèles EMU (qui génèrent des photos et des vidéos à partir d'invites textuelles) ont également été formés à l'aide de données accessibles au public téléchargées par ses utilisateurs sur les réseaux sociaux.

En plus de cela, Amazon a également révélé que son prochain LLM, qui alimenterait une version améliorée d'Alexa, est également formé sur les conversations et les interactions des utilisateurs. Cependant, les utilisateurs peuvent refuser les données de formation qui, par défaut, supposent que les utilisateurs sont d'accord. pour partager ces informations. «[Amazon] a toujours pensé que la formation d'Alexa avec des demandes du monde réel est essentielle pour offrir aux clients une expérience précise et personnalisée et qui s'améliore constamment», a déclaré un porte-parole d'Amazon. dit Décrypter. "Mais en parallèle, nous donnons aux clients le contrôle de l'utilisation ou non de leurs enregistrements vocaux Alexa pour améliorer le service, et nous respectons toujours les préférences de nos clients lorsque nous formons nos modèles."

Alors que les géants de la technologie se précipitent pour proposer les services d’IA les plus avancés, des pratiques responsables en matière de données sont essentielles pour gagner la confiance du public. Anthropic vise à montrer l’exemple à cet égard. Le débat éthique sur l’obtention de modèles plus puissants et plus pratiques au détriment de la divulgation d’informations personnelles est aussi répandu aujourd’hui qu’il l’était il y a des décennies, lorsque les médias sociaux ont popularisé le concept d’utilisateur. devenir le produit en échange de services gratuits.

Edité par Ryan Ozawa.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

Horodatage:

Plus de Décrypter