Google pausa Gemini AI após reação negativa na representação da diversidade

Google pausa Gemini AI após reação negativa na representação da diversidade

Google pausa Gemini AI após reação de representação de diversidade PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

O Google pausou seu IA de Gêmeos de gerar imagens de “pessoas” após um alvoroço sobre as suas representações raciais distorcidas. 

A empresa de tecnologia tomou medidas depois que os usuários destacaram a tendência da IA ​​de representar principalmente pessoas de cor, mesmo em contextos historicamente imprecisos. Esta mudança visa refinar as capacidades do Gemini para garantir representações mais precisas e diversificadas.

Veja também: É uma piada! Os usuários ridicularizam o Gêmeos do Google por perdê-lo

A gênese da reação

O cerne da controvérsia reside no fracasso da IA ​​em refletir com precisão a diversidade racial em suas imagens. As redes sociais tornaram-se um campo de batalha, com utilizadores a partilhar imagens geradas pela Gemini que se desviavam da precisão histórica e cultural. Exemplos notáveis ​​incluem representações de mulheres suecas não brancas e pessoas de cor em uniformes nazistas. 

Tais imprecisões não só provocaram debates nas redes sociais, mas também levaram a uma introspecção severa dentro do Google, com funcionários expressando constrangimento com as deficiências da IA. Os críticos argumentam que estas imprecisões não são meras falhas técnicas, mas reflectem um preconceito mais profundo na programação da IA.

“Nunca tive tanta vergonha de trabalhar para uma empresa”, disse St. Ratej, engenheiro de pesquisa do Google ARVR, em um post X.

A reação, no entanto, não parou apenas no Google, já que alguns usuários também notaram os mesmos preconceitos em outras plataformas de IA, como ChatGPT da OpenAI. Consequentemente, surgiram questões sobre a consistência do escrutínio entre as tecnologias de IA, destacando o desafio mais amplo de toda a indústria de garantir representações imparciais da IA.

O efeito cascata

O incidente não só manchou a imagem da empresa, mas também levou a um debate mais amplo sobre a ética e a representação da IA. Elon Musk criticou a metodologia do Google, chamando-a de “racista” e “anticivilizacional”. de almíscar comentários ecoam ainda a preocupação crescente sobre os limites éticos da tecnologia de IA e a necessidade de uma representação mais diversificada e precisa do conteúdo gerado pela IA.

“Estou feliz que o Google tenha exagerado na geração de imagens de IA, pois deixou clara para todos sua programação insana, racista e anticivilizacional.”

Em resposta à polêmica, Musk expressou seu modelo de IA, Grok, para o qual pretendia lançar novas versões. A tecnologia demonstra uma vantagem competitiva no desenvolvimento de IA, o que pode ajudar a superar as limitações dos modelos existentes como o Gemini. Além disso, a semelhança coincidente do nome entre Grok e o chip Groq LPU despertou interesse, já que o mercado de IA é marcado por inovação rápida e competição acirrada.

O caminho para a melhoria

Reconhecendo o problema, o Google pretendia refinar as capacidades de representação do Gemini. A empresa enfatizou a importância da diversidade nas imagens geradas por IA, mas admitiu as deficiências do modelo atual em representar com precisão todos os dados demográficos. 

Na mesma linha, o porta-voz do Google, Krawczyk, admitiu a deficiência do modelo, enfatizando a necessidade de uma representação mais equilibrada que espelhe a diversidade global sem comprometer a precisão histórica. Para resolver essas preocupações, o Google pausou o recurso de geração de imagens humanas do Gemini, sinalizando uma versão aprimorada que reflete melhor a diversidade global de sua base de usuários.

“Já estamos trabalhando para resolver problemas recentes com o recurso de geração de imagens do Gemini. Enquanto fazemos isso, vamos pausar a geração de imagens de pessoas e relançaremos uma versão melhorada em breve.”

Carimbo de hora:

Mais de MetaNotícias