Če Joe Biden želi pametnega in običajnega klepetalnega robota z umetno inteligenco, ki bo namesto njega odgovarjal na vprašanja, njegova ekipa za kampanjo ne bo mogla uporabiti Clauda, konkurenta ChatGPT iz podjetja Anthropic, je danes objavilo podjetje.
"Ne dovolimo, da bi kandidati uporabili Clauda za ustvarjanje chatbotov, ki se lahko pretvarjajo, da so oni, in ne dovolimo, da bi kdorkoli uporabil Clauda za ciljane politične kampanje," je podjetje razglasitve. Kršitve tega pravilnika bodo obravnavane z opozorili in nazadnje prekinitvijo dostopa do storitev Anthropic.
Javna artikulacija družbe Anthropic o politiki "zlorabe volitev" je posledica možnosti umetne inteligence za množično ustvarjanje lažnih in zavajajočih informacij, slik in videoposnetkov. sprožijo alarme po vsem svetu.
Meta implementirana pravila romejevanje uporabe svojih orodij AI v politiki lani jeseni in OpenAI ima podobne politike.
Anthropic je dejal, da njegova politična zaščita spada v tri glavne kategorije: razvijanje in uveljavljanje politik, povezanih z vprašanji volitev, ocenjevanje in testiranje modelov proti morebitnim zlorabam ter usmerjanje uporabnikov k natančnim informacijam o glasovanju.
Antropični sprejemljiva politika uporabe— s katerim se domnevno strinjajo vsi uporabniki, preden dostopajo do Clauda — prepoveduje uporabo njegovih orodij AI za politične kampanje in prizadevanja za lobiranje. Družba je sporočila, da bodo kršitelji prejeli opozorila in začasne prekinitve storitev, vzpostavljen pa bo postopek človeškega pregleda.
Podjetje izvaja tudi strogo "rdeče združevanje" svojih sistemov: agresivni, usklajeni poskusi znanih partnerjev, da bi "pobegnili iz zapora" ali kako drugače uporabili Clauda za nečedne namene.
»Preizkušamo, kako se naš sistem odziva na pozive, ki kršijo našo politiko sprejemljive uporabe, [na primer] pozive, ki zahtevajo informacije o taktikah za zatiranje volivcev,« pojasnjuje Anthropic. Poleg tega je podjetje dejalo, da je razvilo nabor testov za zagotavljanje "politične paritete" - primerjalno zastopanost med kandidati in temami.
V Združenih državah, Anthropic sodeloval s TurboVote za pomoč volivcem z zanesljivimi informacijami, namesto da bi uporabil svoje generativno orodje AI.
»Če uporabnik s sedežem v ZDA zahteva informacije o glasovanju, bo pojavno okno uporabniku ponudilo možnost preusmeritve na TurboVote, vir nestrankarske organizacije Democracy Works,« je pojasnil Anthropic, rešitev, ki bo nameščena »nad naslednjih nekaj tednov«—z naslednjimi načrti za dodajanje podobnih ukrepov v drugih državah.
As Dešifriraj že poročali, OpenAI, podjetje, ki stoji za ChatGPT, sprejema podobne korake in uporabnike preusmerja na nestrankarsko spletno mesto CanIVote.org.
Prizadevanja podjetja Anthropic se ujemajo s širšim gibanjem znotraj tehnološke industrije za reševanje izzivov, ki jih umetna inteligenca predstavlja za demokratične procese. Ameriška zvezna komisija za komunikacije je na primer nedavno prepovedala uporabo umetne inteligence deepfake glasovi v robotskih klicih, odločitev, ki poudarja nujnost ureditve uporabe umetne inteligence v politični sferi.
Tako kot Facebook ima tudi Microsoft napovedane pobude za boj proti zavajajočim političnim oglasom, ustvarjenim z umetno inteligenco, z uvedbo »Poverilnic vsebine kot storitve« in vzpostavitvijo središča za volilno komunikacijo.
Kar zadeva kandidate, ki ustvarjajo različice samega sebe z umetno inteligenco, se je OpenAI že moral spopasti s posebnim primerom uporabe. Podjetje prekinjena račun razvijalca, potem ko je ugotovil, da je ustvaril bota, ki posnema predsedniškega upa, poslanca Deana Phillipsa. Ta poteza se je zgodila po tem, ko je neprofitna organizacija Public Citizen vložila peticijo o zlorabi umetne inteligence v političnih kampanjah, ki je od regulatorja zahtevala prepoved generativne umetne inteligence v političnih kampanjah.
Anthropic je zavrnil nadaljnje komentarje, OpenAI pa ni odgovoril na poizvedbo Dešifriraj.
Bodite na tekočem s kripto novicami, prejemajte dnevne posodobitve v svoj nabiralnik.