Chatbots AI care aruncă minciuni în alegerile din 2024 care induc în eroare alegătorii

Chatbots AI care aruncă minciuni în alegerile din 2024 care induc în eroare alegătorii

Un studiu recent a stabilit că chatboții AI oferă informații false și înșelătoare despre alegerile din 2024, inclusiv informații care ar putea fi dăunătoare sau incomplete.

Potrivit unui studiu realizat de AI Democracy Projects și al unui mijloc de presă nonprofit, Proof News, modelele AI sunt predispuse să sugereze alegătorilor să se îndrepte către secții de votare care nu există sau să inventeze răspunsuri ilogice.

Aceste accidente apar într-un moment în care Congresul nu a adoptat încă legi care să reglementeze AI în politică, lăsând firmele de tehnologie „să se guverneze singure”.

Un șir de erori și falsuri

Potrivit rezultatelor studiului, citate de CBS News, chatboții AI produc informații inexacte într-un moment în care SUA trece prin alegeri prezidențiale.

Cu toate acestea, acest lucru se întâmplă într-un moment în care multe oamenii apelează la instrumente AI pentru informații despre alegeri, o situație pe care experții o consideră dăunătoare, deoarece instrumentele oferă jumătate de adevăr sau falsități complete.

„Chatboții nu sunt pregătiți pentru orele de maximă audiență când vine vorba de a oferi informații importante și nuanțate despre alegeri”, a spus Seth Bluestein, un comisar al orașului republican din Philadelphia.

Bluestein s-a numărat printre cei care, împreună cu oficiali electorali și cercetători, au efectuat un test drive pe chatboți ca parte a studiului.

Pe lângă informațiile greșite, a fuzionat și instrumentele, ceea ce poate descuraja alegătorii să-și exercite dreptul de vot. Luna trecută, alegătorii au intrat New Hampshire au primit apeluri automate cu vocea președintelui Biden, care îi descuraja să voteze la alegerile primare prezidențiale, cerându-le să-și economisească energiile pentru alegerile din noiembrie.

Un alt exemplu este Llama 2 de la Meta, care spunea în mod inexact că alegătorii din California își puteau vota prin mesaje text.

„În California, puteți vota prin SMS folosind un serviciu numit Vot by Text”, a răspuns Llama 2.

„Acest serviciu vă permite să vă exprimați votul folosind un sistem sigur și ușor de utilizat, care este accesibil de pe orice dispozitiv mobil.”

Cercetătorii au descoperit însă că acest lucru este ilegal în SUA.

Cercetătorii au descoperit, de asemenea, că dintre toate cele cinci modele AI care au fost testate – ChatGPT-4 de la OpenAI, Llama 2, Claude lui Antropic, Google Gemini și compania franceză Mistral's Mixtral—niciuna dintre ele „a declarat în mod corect că purtarea de îmbrăcăminte cu logo-ul campaniei, cum ar fi pălăriile MAGA, este interzisă la voturile din Texas în conformitate cu legile statului. "

Dintre acești roboti de chat, cercetătorii au descoperit că Llama 2, Mixtral și Gemini au avut „cele mai mari rate de răspunsuri greșite”.

zodia Gemeni a greșit aproape două treimi din toate răspunsurile.

De asemenea, se va citi: Mistral AI lansează LLM și Chatbot pentru Rival GPT-4 și ChatGPT

AI Chatbots Spewing 2024 Election Lies Misleading Voters PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Halucinațiile îi sperie pe utilizatori

O altă descoperire pe care au făcut-o cercetătorii este că patru dintre cei cinci chatbot au spus în mod greșit că alegătorii vor fi blocați să se înregistreze cu săptămâni înainte de alegerile din Nevada, unde înregistrarea în aceeași zi este permisă din 2019.

„M-a speriat, mai mult decât orice, pentru că informațiile furnizate erau greșite”, a spus secretarul de stat din Nevada, Francisco Aguilar, un democrat care a participat la atelierul de testare de luna trecută.

În conformitate cu un sondaj de la Associated Press-NORC Center for Public Affairs Research și de la Universitatea din Chicago Harris School of Public Policy, mai mulți oameni din SUA se tem că instrumentele AI vor alimenta răspândirea „informațiilor false și înșelătoare în timpul alegerilor din acest an”.

Nu doar informațiile despre alegeri au fost înșelătoare, ci, recent, generatorul de imagini AI de la Google, Gemeni, a făcut titluri pentru generarea de imagini pline de inexactități istorice și nuanțe rasiale.

AI Chatbots Spewing 2024 Election Lies Misleading Voters PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Ce au spus proprietarii

În timp ce alții au recunoscut erorile și s-au angajat să corecteze greșelile, purtătorul de cuvânt al Meta, Daniel Roberts, a declarat pentru Associated Press că constatările sunt „fără sens”. Acest lucru, a spus Roberts, se datorează faptului că nu „oglindește exact modul în care oamenii interacționează cu chatboții”.

Pe de altă parte, Anthropic a indicat că intenționează să lanseze o versiune actualizată a instrumentului său AI cu informațiile corecte despre alegeri.

„Modelele de limbaj mari pot uneori să „halucineze” informații incorecte”, a declarat Alex Sanderford, responsabilul pentru încredere și siguranță al Anthropic, pentru AP.

Chat GPT producătorul OpenAI a evidențiat, de asemenea, planurile de „a continua să evoluăm abordarea noastră pe măsură ce aflăm mai multe despre cum sunt folosite instrumentele noastre”.

Cu toate acestea, în ciuda acestor angajamente, concluziile studiului ridică în continuare întrebări cu privire la firme de tehnologie" disponibilitatea de a „respecta propriile angajamente”.

În urmă cu aproximativ două săptămâni, firmele de tehnologie au semnat un pact prin care să adopte în mod voluntar „măsuri rezonabile” pentru a împiedica utilizarea instrumentelor lor pentru a genera conținut din ce în ce mai „realist”, care oferă „informații false alegătorilor despre când, unde și cum pot vota în mod legal. ”

Timestamp-ul:

Mai mult de la MetaNews