Google împiedică AI Gemini Chatbot să discute despre Election Speak

Google împiedică AI Gemini Chatbot să discute despre Election Speak

Tyler Cross


Tyler Cross

Publicat în data de: Martie 13, 2024

Modelul Gemini AI creat de Google i s-a interzis vorbirea electorală în timpul ciclului electoral din 2024. Mai multe companii de tehnologie, inclusiv Google, au făcut progrese masive în tehnologia AI în ultimul an. Cu toate acestea, modelele de inteligență artificială au devenit suficient de puternice pentru a provoca fraude electorale la scară largă și pentru a alimenta campanii de propagandă politică dacă cad în mâini greșite.

Pe măsură ce IA devine tot mai disponibilă, alegătorii americani au o îngrijorare de înțeles că companii precum Google și-ar putea folosi modelele AI pentru a schimba cursul alegerilor prin răspândirea dezinformațiilor. Mulți utilizatori raportează deja că modele precum Gemini și ChatGPT au părtiniri politice clare în scrisul lor.

Alphabet (compania-mamă a Google) abordează preocupările oamenilor prin consolidarea principiilor companiei sale. Au interzis complet vorbirea electorală în timpul ciclului electoral din 2024.

Dacă pui întrebări legate de alegerile Gemeni despre Donald Trump, Joe Biden sau alți candidați, chatbot-ul răspunde pur și simplu „Încă învăț cum să răspund la această întrebare. Între timp, încercați Căutarea Google.”

Aceste restricții au fost anunțate pentru prima dată în decembrie. Google a explicat că a vrut să pună aceste apărări devreme, astfel încât actorii (sau chiar compania însăși) să nu aibă șansa de a le folosi pentru a răspândi dezinformare.

„În pregătirea pentru numeroasele alegeri care vor avea loc în întreaga lume în 2024 și dintr-o abundență de precauție cu privire la un subiect atât de important, în curând vom restricționa tipurile de întrebări legate de alegeri pentru care Gemeni va returna răspunsuri”, afirmă un purtător de cuvânt al Google.

Înăsprirea discursului electoral în Gemeni vine în contrast puternic cu deciziile recente ale OpenAI. Compania din spatele ChatGPT a câștigat o presă proastă după ce a revenit la două clauze importante de securitate. Termenii și condițiile ChatGPT inițial nu permiteau utilizarea în campanii politice sau militare.

De-a lungul timpului, ChatGPT și-a modificat termenii și condițiile pentru a interzice doar utilizările „riscătoare” ale ChatGPT în campaniile politice și a lăsa armata să-l folosească pentru orice altceva decât pentru a construi arme.

Timestamp-ul:

Mai mult de la Detectivi de siguranță