Si Joe Biden souhaite qu'un chatbot IA intelligent et convivial réponde à ses questions, son équipe de campagne ne pourra pas utiliser Claude, le concurrent ChatGPT d'Anthropic, a annoncé aujourd'hui la société.
"Nous n'autorisons pas les candidats à utiliser Claude pour créer des chatbots qui peuvent prétendre être eux, et nous n'autorisons personne à utiliser Claude pour des campagnes politiques ciblées", a déclaré la société. annoncé. Les violations de cette politique donneront lieu à des avertissements et, finalement, à la suspension de l'accès aux services d'Anthropic.
L'expression publique par Anthropic de sa politique d'« utilisation abusive des élections » intervient alors que le potentiel de l'IA à générer en masse des informations, des images et des vidéos fausses et trompeuses est grandissant. déclencher la sonnette d'alarme dans le monde entier.
Règles méta implémentées rrestreindre l’utilisation de ses outils d’IA en politique l’automne dernier, et OpenAI a des politiques similaires.
Anthropic a déclaré que ses protections politiques se répartissent en trois catégories principales : développer et appliquer des politiques liées aux questions électorales, évaluer et tester des modèles contre d'éventuelles utilisations abusives et diriger les utilisateurs vers des informations de vote précises.
Anthropique politique d'utilisation acceptable– que tous les utilisateurs acceptent ostensiblement avant d’accéder à Claude – interdit l’utilisation de ses outils d’IA à des fins de campagne politique et d’efforts de lobbying. La société a déclaré qu'il y aurait des avertissements et des suspensions de service pour les contrevenants, avec un processus d'examen humain en place.
L'entreprise mène également une « équipe rouge » rigoureuse de ses systèmes : des tentatives agressives et coordonnées de la part de partenaires connus pour « jailbreaker » ou utiliser Claude à des fins néfastes.
"Nous testons la façon dont notre système répond aux invites qui violent notre politique d'utilisation acceptable, [par exemple] les invites qui demandent des informations sur les tactiques de suppression des électeurs", explique Anthropic. En outre, la société a déclaré avoir développé une suite de tests pour garantir la « parité politique » – une représentation comparative entre les candidats et les sujets.
Aux États-Unis, Anthropic en partenariat avec TurboVote pour aider les électeurs avec des informations fiables au lieu d’utiliser son outil d’IA générative.
"Si un utilisateur basé aux États-Unis demande des informations sur le vote, une fenêtre contextuelle lui proposera d'être redirigé vers TurboVote, une ressource de l'organisation non partisane Democracy Works", a expliqué Anthropic, une solution qui sera déployée "sur toute la planète". dans les prochaines semaines » – avec l’intention d’ajouter ensuite des mesures similaires dans d’autres pays.
As Décrypter indiqué précédemment, OpenAI, la société derrière ChatGPT prend des mesures similaires, redirigeant les utilisateurs vers le site Web non partisan CanIVote.org.
Les efforts d'Anthropic s'alignent sur un mouvement plus large au sein de l'industrie technologique pour relever les défis que l'IA pose aux processus démocratiques. Par exemple, la Commission fédérale des communications des États-Unis a récemment interdit l'utilisation de données générées par l'IA. fausses voix dans les appels automatisés, une décision qui souligne l’urgence de réglementer l’application de l’IA dans la sphère politique.
Comme Facebook, Microsoft a initiatives annoncées pour lutter contre les publicités politiques trompeuses générées par l’IA, en introduisant les « informations d’identification de contenu en tant que service » et en lançant un centre de communications électorales.
Quant aux candidats créant des versions IA d’eux-mêmes, OpenAI a déjà dû s’attaquer au cas d’utilisation spécifique. L'entreprise suspendu le compte d'un développeur après avoir découvert qu'il avait créé un robot imitant le candidat présidentiel, le représentant Dean Phillips. Cette décision a eu lieu après qu'une pétition portant sur l'utilisation abusive de l'IA dans les campagnes politiques a été introduite par l'organisation à but non lucratif Public Citizen, demandant au régulateur d'interdire l'IA générative dans les campagnes politiques.
Anthropic a refusé tout autre commentaire et OpenAI n'a pas répondu à une demande de renseignements de Décrypter.
Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.
- Contenu propulsé par le référencement et distribution de relations publiques. Soyez amplifié aujourd'hui.
- PlatoData.Network Ai générative verticale. Autonomisez-vous. Accéder ici.
- PlatoAiStream. Intelligence Web3. Connaissance Amplifiée. Accéder ici.
- PlatonESG. Carbone, Technologie propre, Énergie, Environnement, Solaire, La gestion des déchets. Accéder ici.
- PlatoHealth. Veille biotechnologique et essais cliniques. Accéder ici.
- La source: https://decrypt.co/217937/anthropic-claude-ai-chatbot-politics-elections-campaign-deepfake-rules