Google impede que AI Gemini Chatbot discuta discurso eleitoral

Google impede que AI Gemini Chatbot discuta discurso eleitoral

Tyler Cruz


Tyler Cruz

Publicado em: 13 de março de 2024

O modelo Gemini AI criado pelo Google foi proibido de discurso eleitoral durante o ciclo eleitoral de 2024. Várias empresas de tecnologia, incluindo o Google, fizeram grandes avanços na tecnologia de IA no ano passado. No entanto, os modelos de IA tornaram-se suficientemente poderosos para causar fraudes eleitorais em grande escala e alimentar campanhas de propaganda política caso caiam em mãos erradas.

Com a IA a tornar-se mais amplamente disponível, os eleitores dos EUA ficam com uma preocupação compreensível de que empresas como a Google possam usar os seus modelos de IA para mudar o curso das eleições, espalhando desinformação. Muitos usuários já relatam que modelos como Gemini e ChatGPT têm claros preconceitos políticos em seus escritos.

A Alphabet (empresa controladora do Google) está respondendo às preocupações das pessoas, reforçando os princípios de sua empresa. Eles proibiram completamente o discurso eleitoral durante o ciclo eleitoral de 2024.

Se você fizer perguntas relacionadas às eleições do Gemini sobre Donald Trump, Joe Biden ou outros candidatos, o chatbot simplesmente responderá “Ainda estou aprendendo como responder a essa pergunta. Enquanto isso, experimente a Pesquisa Google.”

Essas restrições foram anunciadas pela primeira vez em dezembro. O Google explicou que queria implementar essas defesas o quanto antes, para que os atores (ou mesmo a própria empresa) não tivessem a chance de usá-las para espalhar informações erradas.

“Em preparação para as muitas eleições que acontecerão em todo o mundo em 2024 e por muita cautela sobre um tópico tão importante, em breve restringiremos os tipos de consultas relacionadas às eleições para as quais Gemini retornará respostas”, afirma um porta-voz do Google.

O endurecimento do discurso eleitoral em Gemini contrasta fortemente com as decisões recentes da OpenAI. A empresa por trás do ChatGPT ganhou críticas negativas depois de voltar atrás em duas importantes cláusulas de segurança. Os termos de serviço do ChatGPT inicialmente não permitiam o uso em nenhuma campanha política ou militar.

Com o tempo, o ChatGPT alterou seus termos de serviço para proibir apenas usos “arriscados” do ChatGPT em campanhas políticas e permitir que os militares o usassem para qualquer coisa, exceto para a construção de armas.

Carimbo de hora:

Mais de Detetives de Segurança