Wenn Joe Biden einen intelligenten und volkstümlichen KI-Chatbot möchte, der Fragen für ihn beantwortet, kann sein Kampagnenteam nicht auf Claude zurückgreifen, den ChatGPT-Konkurrenten von Anthropic, gab das Unternehmen heute bekannt.
„Wir gestatten nicht, dass Kandidaten Claude verwenden, um Chatbots zu erstellen, die sich als sie ausgeben können, und wir erlauben niemandem, Claude für gezielte politische Kampagnen zu nutzen“, so das Unternehmen angekündigt. Verstöße gegen diese Richtlinie werden mit Verwarnungen und letztendlich mit der Sperrung des Zugangs zu den Diensten von Anthropic geahndet.
Die öffentliche Äußerung von Anthropic über seine Politik des „Wahlmissbrauchs“ geht einher mit dem Potenzial der KI, in großen Mengen falsche und irreführende Informationen, Bilder und Videos zu generieren löst weltweit Alarmglocken aus.
Meta implementierte Regeln rEinschränkung des Einsatzes seiner KI-Tools in der Politik letzten Herbst, und OpenAI hat ähnliche Richtlinien.
Anthropic sagte, sein politischer Schutz lässt sich in drei Hauptkategorien einteilen: Entwicklung und Durchsetzung von Richtlinien im Zusammenhang mit Wahlthemen, Bewertung und Prüfung von Modellen gegen potenziellen Missbrauch sowie Weiterleitung von Benutzern an genaue Abstimmungsinformationen.
Anthropics Richtlinie zur akzeptablen Verwendung– dem alle Benutzer angeblich zustimmen, bevor sie auf Claude zugreifen – verbietet die Nutzung seiner KI-Tools für politische Kampagnen und Lobbying-Bemühungen. Das Unternehmen teilte mit, dass es Verwarnungen und Dienstsperren bei Verstößen geben werde und dass ein menschlicher Überprüfungsprozess vorhanden sei.
Das Unternehmen führt außerdem ein rigoroses „Red-Teaming“ seiner Systeme durch: aggressive, koordinierte Versuche bekannter Partner, einen „Jailbreak“ durchzuführen oder Claude auf andere Weise für schändliche Zwecke zu nutzen.
„Wir testen, wie unser System auf Aufforderungen reagiert, die gegen unsere Richtlinien zur akzeptablen Nutzung verstoßen, [zum Beispiel] Aufforderungen, die Informationen über Taktiken zur Wählerunterdrückung anfordern“, erklärt Anthropic. Darüber hinaus gab das Unternehmen an, eine Reihe von Tests entwickelt zu haben, um „politische Parität“ – eine vergleichende Darstellung aller Kandidaten und Themen – sicherzustellen.
In den Vereinigten Staaten Anthropic ist eine Partnerschaft mit TurboVote eingegangen um Wählern mit zuverlässigen Informationen zu helfen, anstatt sein generatives KI-Tool zu verwenden.
„Wenn ein in den USA ansässiger Benutzer nach Abstimmungsinformationen fragt, bietet ein Popup dem Benutzer die Möglichkeit, zu TurboVote weitergeleitet zu werden, einer Ressource der überparteilichen Organisation Democracy Works“, erklärte Anthropic, eine Lösung, die „über …“ bereitgestellt wird nächsten Wochen“ – mit Plänen, als nächstes ähnliche Maßnahmen in anderen Ländern hinzuzufügen.
As Entschlüsseln zuvor berichtetOpenAI, das Unternehmen hinter ChatGPT, unternimmt ähnliche Schritte und leitet Benutzer auf die überparteiliche Website CanIVote.org weiter.
Die Bemühungen von Anthropic stehen im Einklang mit einer breiteren Bewegung innerhalb der Technologiebranche, die sich mit den Herausforderungen befasst, die KI für demokratische Prozesse mit sich bringt. Beispielsweise hat die US-amerikanische Federal Communications Commission kürzlich die Verwendung von KI-generierten Daten verboten Deepfake-Stimmen in Robocalls, eine Entscheidung, die die Dringlichkeit einer Regulierung des Einsatzes von KI im politischen Bereich unterstreicht.
Wie Facebook hat auch Microsoft angekündigte Initiativen zur Bekämpfung irreführender, von KI generierter politischer Werbung, Einführung von „Content Credentials as a Service“ und Einführung eines Wahlkommunikations-Hubs.
Was Kandidaten betrifft, die KI-Versionen von sich selbst erstellen, musste sich OpenAI bereits mit dem spezifischen Anwendungsfall befassen. Das Unternehmen suspendiert der Bericht eines Entwicklers, nachdem er herausgefunden hatte, dass er einen Bot erstellt hatte, der den Präsidentschaftskandidaten Rep. Dean Phillips nachahmte. Der Schritt erfolgte, nachdem die gemeinnützige Organisation Public Citizen eine Petition zum Thema KI-Missbrauch in politischen Kampagnen eingereicht hatte, in der sie die Regulierungsbehörde aufforderte, generative KI in politischen Kampagnen zu verbieten.
Anthropic lehnte weitere Kommentare ab und OpenAI reagierte nicht auf eine Anfrage von Entschlüsseln.
Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang.
- SEO-gestützte Content- und PR-Distribution. Holen Sie sich noch heute Verstärkung.
- PlatoData.Network Vertikale generative KI. Motiviere dich selbst. Hier zugreifen.
- PlatoAiStream. Web3-Intelligenz. Wissen verstärkt. Hier zugreifen.
- PlatoESG. Kohlenstoff, CleanTech, Energie, Umwelt, Solar, Abfallwirtschaft. Hier zugreifen.
- PlatoHealth. Informationen zu Biotechnologie und klinischen Studien. Hier zugreifen.
- Quelle: https://decrypt.co/217937/anthropic-claude-ai-chatbot-politics-elections-campaign-deepfake-rules