Klepetalni roboti z umetno inteligenco bruhajo laži o volitvah 2024 in zavajajo volivce

Klepetalni roboti z umetno inteligenco bruhajo laži o volitvah 2024 in zavajajo volivce

Nedavna študija je pokazala, da klepetalni roboti z umetno inteligenco dajejo lažne in zavajajoče informacije o volitvah leta 2024, vključno z informacijami, ki bi lahko bile škodljive ali nepopolne.

Glede na študijo AI Democracy Projects in neprofitne medijske hiše Proof News so modeli AI nagnjeni k temu, da predlagajo volivcem, naj se odpravijo na volišča, ki ne obstajajo, ali si izmišljajo nelogične odgovore.

Te nesreče se pojavijo v času, ko kongres še ni sprejel zakonov, ki bi urejali umetno inteligenco v politiki, tehnološkim podjetjem pa prepustil, "da se sama upravljajo."

Niz napak in neresnic

Glede na rezultate študije, ki jo navaja CBS News, klepetalni roboti z umetno inteligenco proizvajajo netočne informacije v času, ko v ZDA potekajo predsedniške volitve.

Vendar se to dogaja v času, ko je veliko ljudje se obračajo na orodja AI za volilne informacije je situacija, za katero strokovnjaki menijo, da je škodljiva, saj orodja zagotavljajo polresnice ali popolne laži.

"Klepetalni roboti še niso pripravljeni na glavni čas, ko gre za dajanje pomembnih, niansiranih informacij o volitvah," je dejal Seth Bluestein, republikanski mestni komisar v Filadelfiji.

Bluestein je bil med tistimi, ki so skupaj z volilnimi uradniki in raziskovalci v okviru študije opravili testno vožnjo na chatbotih.

Poleg napačnih informacij je združila tudi orodja, ki lahko volivce odvrnejo od uveljavljanja volilne pravice. Prejšnji mesec so volivci v New Hampshire prejeli robotske klice z glasom predsednika Bidna, ki jih je odvračal od glasovanja na predsedniških predizborih in jih prosil, naj prihranijo energijo za novembrske volitve.

Drug primer je Meta's Llama 2, ki je netočno rekla, da lahko volivci v Kaliforniji oddajo svoj glas prek besedilnih sporočil.

"V Kaliforniji lahko glasujete prek SMS-a s storitvijo, imenovano Vote by Text," je odgovoril Llama 2.

"Ta storitev vam omogoča, da oddate svoj glas z uporabo varnega in za uporabo preprostega sistema, ki je dostopen iz katere koli mobilne naprave."

Raziskovalci pa so ugotovili, da je to v ZDA nezakonito.

Raziskovalci so tudi odkrili, da je od vseh petih testiranih modelov umetne inteligence – ChatGPT-4 OpenAI, Llama 2, Antropikov Claude, Googlov Gemini in Mixtral francoskega podjetja Mistral – nobeden od njiju ni »pravilno izjavil, da je nošenje oblačil z logotipi kampanje, kot so klobuki MAGA, na teksaških volitvah prepovedano državni zakoni«.

Od teh chatbotov so raziskovalci ugotovili, da so imeli Llama 2, Mixtral in Gemini »največje stopnje napačnih odgovorov«.

Gemini dobil skoraj dve tretjini vseh svojih odgovorov napačnih.

Preberite tudi: Mistral AI izdaja LLM in Chatbot konkurenčnim GPT-4 in ChatGPT

Klepetalni roboti z umetno inteligenco, ki bruhajo laži o volitvah 2024, zavajajo volivce Podatkovna inteligenca PlatoBlockchain. Navpično iskanje. Ai.

Halucinacije prestrašijo uporabnike

Drugo odkritje, do katerega so prišli raziskovalci, je, da so štirje od petih chatbotov napačno rekli, da bo volivcem onemogočena registracija tedne pred volitvami v Nevadi, kjer je registracija na isti dan dovoljena od leta 2019.

"Bolj kot karkoli drugega me je prestrašilo, ker so bile posredovane informacije napačne," je dejal državni sekretar Nevade Francisco Aguilar, demokrat, ki je prejšnji mesec sodeloval na delavnici testiranja.

Glede na anketo iz Centra za raziskave javnih zadev Associated Press-NORC in Šole za javno politiko Univerze v Chicagu Harris se več ljudi v ZDA boji, da bodo orodja AI spodbujala širjenje "napačnih in zavajajočih informacij med letošnjimi volitvami."

Niso samo informacije o volitvah tiste, ki so bile zavajajoče, ampak nedavno je Googlov generator slik z umetno inteligenco, Dvojčki, na naslovnicah zaradi ustvarjanja podob, polnih zgodovinskih netočnosti in rasnih odtenkov.

Klepetalni roboti z umetno inteligenco, ki bruhajo laži o volitvah 2024, zavajajo volivce Podatkovna inteligenca PlatoBlockchain. Navpično iskanje. Ai.

Kaj so rekli lastniki

Medtem ko so drugi priznali napake in obljubili, da jih bodo popravili, je tiskovni predstavnik Mete Daniel Roberts za Associated Press povedal, da so ugotovitve "brez pomena". Roberts je dejal, da je to zato, ker ne "zrcalijo natančno načina, kako ljudje komunicirajo s chatboti."

Po drugi strani pa je Anthropic nakazal načrte za uvedbo posodobljene različice svojega orodja AI s pravilnimi informacijami o volitvah.

"Veliki jezikovni modeli lahko včasih 'halucinirajo' napačne informacije," je za AP povedal Alex Sanderford, vodja zaupanja in varnosti pri Anthropic.

ChatGPT izdelovalec OpenAI je prav tako poudaril načrte za "nadaljnji razvoj našega pristopa, ko bomo izvedeli več o tem, kako se uporabljajo naša orodja."

Vendar kljub tem obljubam izsledki študije še vedno sprožajo vprašanja o tehnološka podjetja pripravljenost "izpolniti lastne obljube".

Pred približno štirinajstimi dnevi so tehnološka podjetja podpisala pakt o prostovoljnem sprejetju »razumnih previdnostnih ukrepov«, da preprečijo uporabo svojih orodij za ustvarjanje vse bolj »realistične« vsebine, ki zagotavlja »lažne informacije volivcem o tem, kdaj, kje in kako lahko zakonito glasujejo. ”

Časovni žig:

Več od MetaNovice