Jeśli Joe Biden będzie chciał, aby inteligentny i ludowy chatbot AI odpowiadał za niego na pytania, jego zespół ds. kampanii nie będzie mógł korzystać z Claude, konkurenta ChatGPT firmy Anthropic, ogłosiła dzisiaj firma.
„Nie pozwalamy kandydatom na wykorzystywanie Claude do tworzenia chatbotów, które mogą udawać, że są nimi, i nie pozwalamy nikomu wykorzystywać Claude do ukierunkowanych kampanii politycznych” – firma ogłosił. Naruszenia tej polityki będą skutkować ostrzeżeniami, a ostatecznie zawieszeniem dostępu do usług Anthropic.
Publiczne sformułowanie przez firmę Anthropic polityki dotyczącej „nadużycia wyborów” wynika z faktu, że potencjał sztucznej inteligencji do masowego generowania fałszywych i wprowadzających w błąd informacji, obrazów i filmów wideo zostaje wyczerpany. uruchamiając dzwonki alarmowe na całym świecie.
Meta zaimplementowała reguły rograniczanie wykorzystania narzędzi AI w polityce jesienią ubiegłego roku, a OpenAI ma podobną politykę.
Anthropic stwierdziła, że jej zabezpieczenia polityczne dzielą się na trzy główne kategorie: opracowywanie i egzekwowanie polityk związanych z kwestiami wyborczymi, ocena i testowanie modeli pod kątem potencjalnych nadużyć oraz kierowanie użytkowników do dokładnych informacji dotyczących głosowania.
antropiczne Przyjęte zasady użytkowania— na co rzekomo zgadzają się wszyscy użytkownicy przed uzyskaniem dostępu do Claude — zabrania wykorzystywania narzędzi sztucznej inteligencji do celów kampanii politycznych i lobbingu. Firma podała, że w przypadku osób naruszających zasady będą wyświetlane ostrzeżenia i zawieszenia usług, po wdrożeniu procesu weryfikacji przez człowieka.
Firma prowadzi również rygorystyczne „red-teaming” swoich systemów: agresywne, skoordynowane próby znanych partnerów w celu „uwolnienia jail” lub innego wykorzystania Claude'a do nikczemnych celów.
„Testujemy, jak nasz system reaguje na podpowiedzi, które naruszają nasze zasady dopuszczalnego użytkowania, [na przykład] monity z prośbą o informacje na temat taktyk tłumienia głosów” – wyjaśnia Anthropic. Ponadto firma stwierdziła, że opracowała zestaw testów zapewniających „parytet polityczny” – reprezentację porównawczą kandydatów i tematów.
W Stanach Zjednoczonych antropiczne nawiązał współpracę z TurboVote aby pomóc wyborcom w dostarczaniu wiarygodnych informacji, zamiast korzystać z narzędzia generatywnej sztucznej inteligencji.
„Jeśli użytkownik mieszkający w USA poprosi o informacje dotyczące głosowania, wyskakujące okienko zaoferuje mu opcję przekierowania do TurboVote, zasobu bezpartyjnej organizacji Democracy Works” – wyjaśnił Anthropic, rozwiązania, które zostanie wdrożone „w ciągu w ciągu najbliższych kilku tygodni” – z planami wprowadzenia podobnych środków w innych krajach w następnej kolejności.
As Odszyfruj wcześniej informowaliśmy, OpenAI, firma stojąca za ChatGPT, podejmuje podobne kroki, przekierowując użytkowników do bezstronnej witryny CanIVote.org.
Wysiłki Anthropic wpisują się w szerszy ruch w branży technologicznej, którego celem jest sprostanie wyzwaniom, jakie sztuczna inteligencja stwarza dla procesów demokratycznych. Na przykład amerykańska Federalna Komisja Łączności zakazała niedawno stosowania technologii generowanych przez sztuczną inteligencję deepfake głosy w automatycznych połączeniach telefonicznych, decyzję podkreślającą pilną potrzebę uregulowania stosowania sztucznej inteligencji w sferze politycznej.
Podobnie jak Facebook, Microsoft ma ogłoszone inicjatywy w celu zwalczania wprowadzających w błąd reklam politycznych generowanych przez sztuczną inteligencję, wprowadzenie „Poświadczeń treści jako usługi” i uruchomienie centrum komunikacji wyborczej.
Jeśli chodzi o kandydatów tworzących własne wersje AI, OpenAI musiało już stawić czoła konkretnemu przypadkowi użycia. Firma zawieszony konto programisty po tym, jak dowiedział się, że stworzył bota naśladującego kandydata na urząd prezydenta Deana Phillipsa. Posunięcie to nastąpiło po złożeniu petycji dotyczącej niewłaściwego wykorzystania sztucznej inteligencji w kampaniach politycznych przez organizację non-profit Public Citizen, prosząc organ regulacyjny o zakazanie generatywnej sztucznej inteligencji w kampaniach politycznych.
Anthropic odmówił dalszych komentarzy, a OpenAI nie odpowiedziało na zapytanie Odszyfruj.
Bądź na bieżąco z wiadomościami o kryptowalutach, otrzymuj codzienne aktualizacje w swojej skrzynce odbiorczej.