Google impedisce al chatbot AI Gemini di discutere del discorso elettorale

Google impedisce al chatbot AI Gemini di discutere del discorso elettorale

Tyler Croce


Tyler Croce

Pubblicato il: 13 Marzo 2024

Al modello di intelligenza artificiale Gemini creato da Google è stato vietato di parlare elettorale durante il ciclo elettorale del 2024. Molte aziende tecnologiche, tra cui Google, hanno fatto enormi passi avanti nella tecnologia dell’intelligenza artificiale nell’ultimo anno. Tuttavia, i modelli di intelligenza artificiale sono diventati abbastanza potenti da causare frodi elettorali su larga scala e alimentare campagne di propaganda politica se cadono nelle mani sbagliate.

Con l’intelligenza artificiale sempre più disponibile, gli elettori statunitensi nutrono la comprensibile preoccupazione che aziende come Google possano utilizzare i loro modelli di intelligenza artificiale per cambiare il corso delle elezioni diffondendo disinformazione. Molti utenti segnalano già che modelli come Gemini e ChatGPT hanno chiari pregiudizi politici nei loro scritti.

Alphabet (la società madre di Google) sta affrontando le preoccupazioni delle persone rafforzando i principi della sua azienda. Hanno completamente vietato i discorsi elettorali durante il ciclo elettorale del 2024.

Se fai domande relative alle elezioni dei Gemelli su Donald Trump, Joe Biden o altri candidati, il chatbot risponde semplicemente “Sto ancora imparando a rispondere a questa domanda. Nel frattempo, prova Ricerca Google."

Queste restrizioni sono state annunciate per la prima volta a dicembre. Google ha spiegato che voleva mettere in atto queste difese in anticipo, in modo che gli attori (o anche la società stessa) non avessero la possibilità di usarle per diffondere disinformazione.

"In preparazione alle numerose elezioni che si terranno in tutto il mondo nel 2024 e per estrema cautela su un argomento così importante, presto limiteremo i tipi di domande relative alle elezioni per le quali Gemini fornirà risposte", afferma un portavoce di Google.

L’inasprimento delle politiche elettorali in Gemelli è in netto contrasto con le recenti decisioni di OpenAI. La società dietro ChatGPT si è guadagnata una cattiva stampa dopo essere tornata su due importanti clausole di sicurezza. I termini di servizio di ChatGPT inizialmente non ne consentivano l'uso in campagne politiche o militari.

Nel corso del tempo, ChatGPT ha modificato i suoi termini di servizio per vietare solo gli usi “rischiosi” di ChatGPT nelle campagne politiche e consentire ai militari di usarlo per qualsiasi cosa tranne che per costruire armi.

Timestamp:

Di più da Detective della sicurezza