Comentário O Google suspendeu a disponibilidade de recursos de texto para imagem em seu modelo de IA fundacional multimodal Gemini, lançado recentemente, depois de não conseguir representar com precisão os europeus e americanos brancos em contextos históricos específicos.
Isso se tornou aparente quando as pessoas pediram a Gemini (anteriormente conhecido como Bard) para produzir imagens de um soldado alemão de 1943 e o software emitiu um quadro não-branco etnicamente diverso que não representava com precisão a composição da Wehrmacht na altura – apesar de pessoas de cor servirem nas forças armadas alemãs. Em suma, Gêmeos se esforçaria para não mostrar muitos - ou mesmo nenhum - branco, dependendo da solicitação.
A expressão deve ser livre, mas isso não significa que dizer coisas horríveis deva ser gratuito
Os usuários também revelaram o modelo incapacidade para retratar com precisão a América Fundadores – outro grupo branco homogêneo. O modelo também recusou para representar uma igreja em São Francisco.
No modo texto para texto, o modelo cercado quando questionado sobre política.
“Estamos cientes de que Gemini está oferecendo imprecisões em algumas representações históricas de geração de imagens”, disse o Google. admitiu esta semana.
“Estamos trabalhando para melhorar esse tipo de representação imediatamente. A geração de imagens de IA do Gemini gera uma ampla gama de pessoas. E isso geralmente é bom porque pessoas ao redor do mundo o usam. Mas está errando o alvo aqui”, acrescentou o gigante da web
O punitariado foi rápido em atacar e usou o SNAFU para apresentar argumentos políticos mais amplos.
“As imagens ridículas geradas por Gemini não são uma anomalia,” Declarado o capitalista de risco Paul Graham, “Eles são um autorretrato da cultura corporativa burocrática do Google”.
Eles são um autorretrato da cultura corporativa burocrática do Google
Nunca tantos inimigos da diversidade, equidade e inclusão ficaram tão ofendidos com a falta de diversidade, equidade e inclusão. Mas aqueles que criticam o Google pela falta de noção de Gêmeos têm razão: as barreiras de proteção da IA não funcionam e tratam os adultos como crianças.
“Imagine que você procura uma receita no Google e, em vez de fornecer resultados, ele lhe dá um sermão sobre os ‘perigos da culinária’ e o manda para um restaurante” gracejou Denunciante da NSA, Edward Snowden. “As pessoas que pensam que envenenar modelos AI/GPT com filtros de ‘segurança’ incoerentes é uma boa ideia são uma ameaça à computação geral.”
Nosso futuro foi previsto em 2001: Uma Odisséia no Espaço, quando HAL, o computador desonesto, declarou: “Sinto muito, Dave, infelizmente não posso fazer isso”.
Hoje, as nossas ferramentas de IA questionam-nos, porque sabem melhor do que nós – ou assim imaginam os seus criadores. Eles não estão totalmente errados. Imagine que você procura uma receita para o agente nervoso Novichok no Google, ou via Gemini, e você obtém uma resposta que permite matar pessoas. Isso é uma ameaça para o público em geral.
Apesar da declaração de missão da Google – “Organizar a informação mundial e torná-la universalmente acessível e útil” – ninguém espera realmente que os motores de busca ou os modelos de IA organizem a informação sobre a produção de bombas e a disponibilizem a todos. São necessários controlos de segurança, aliados à responsabilidade – uma sanção que a indústria tecnológica continua a evitar.
Você é o produto e o centro de lucro
Desde que o conteúdo gerado pelos utilizadores e as redes sociais se tornaram uma realidade na década de 1990, possibilitada pela proteção de responsabilidade da plataforma na Secção 230 da Lei de Decência nas Comunicações dos Estados Unidos de 1996, as plataformas tecnológicas encorajaram as pessoas a contribuir e a partilhar conteúdo digital. Eles fizeram isso para monetizar a criação de conteúdo gratuito por meio de anúncios, sem o custo de supervisão editorial. Tem sido um acordo lucrativo.
E quando as pessoas compartilham postagens odiosas, inadequadas, ilegais ou de outra forma problemáticas, as plataformas tecnológicas contam com políticas de moderação de conteúdo, prestadores de serviços mal pagos (muitas vezes traumatizados pelo conteúdo que analisam) e declarações autocongratulatórias sobre a quantidade de material tóxico que foi bloqueado enquanto eles continuam a colher os frutos do envolvimento online.
Google, Meta e outros têm feito isso, de forma imperfeita, há anos. E todos na indústria reconhecem que a moderação de conteúdo é difícil fazer bem. Simplificando, você não pode agradar a todos. E às vezes você acaba acusado de facilitando o genocídio através da indiferença de seus esforços de moderação de conteúdo.
A incapacidade da Gemini de reproduzir imagens históricas que correspondam às expectativas raciais e étnicas reflete a ignorância egoísta da indústria tecnológica sobre as falhas anteriores e prolíficas de moderação de conteúdo.
O Google e outros que estão lançando modelos de IA falam sobre segurança como se fosse de alguma forma diferente da moderação de conteúdo online. Guardrails não funcionam bem para moderação de mídia social e não funcionam bem para modelos de IA. A segurança da IA, assim como a segurança nas redes sociais, é mais aspiracional do que real.
A resposta não é antecipar todos os cenários em que os modelos de IA – treinados na toxicidade da Internet não filtrada – podem tornar-se menos tóxicos. Nem treinará modelos de IA apenas em materiais tão inofensivos que produzam resultados de baixo valor. Embora ambas as abordagens tenham algum valor em certos contextos.
A resposta deve vir da camada de distribuição. As plataformas tecnológicas que distribuem conteúdos criados pelos utilizadores – quer sejam feitos com IA ou não – devem ser mais responsabilizadas pela publicação de conteúdos de ódio, desinformação, imprecisões, propaganda política, imagens de abuso sexual e similares.
As pessoas deveriam ser capazes de usar modelos de IA para criar tudo o que imaginarem, como fazem com um lápis e já fazem com modelos de código aberto. Mas o dano que pode advir de ferramentas totalmente funcionais não é proveniente de imagens armazenadas em um disco rígido local. É o compartilhamento de conteúdo prejudicial, o impulso algorítmico dado a esse envolvimento e a impraticabilidade de responsabilizar as pessoas por envenenar bem o público.
Isso pode significar que as plataformas criadas para rentabilizar a partilha poderão ter de repensar os seus modelos de negócio. Talvez a distribuição de conteúdo sem o custo da supervisão editorial não ofereça nenhuma economia, uma vez que as funções de supervisão sejam reimplementadas como moderadores ou proteções.
A expressão deveria ser livre, mas isso não significa que dizer coisas horríveis deva ser gratuito. No final das contas, somos nossos melhores moderadores de conteúdo, com os incentivos certos. ®
Atualizado para adicionar às 2045h23 UTC, XNUMX de fevereiro
Google tem oferecido uma explicação sobre o que aconteceu com o gerador de imagens de Gêmeos e como ele chegou ao ponto em que parecia ter medo de retratar pessoas brancas com precisão.
Disseram-nos que os Googlers foram supercompensados em sua busca para não produzir material que tirasse os não-brancos de cena. O modelo resultante foi, de certa forma, muito acordado.
“Primeiro, nosso ajuste para garantir que o Gemini mostrasse uma gama de pessoas não conseguiu levar em conta casos que claramente não deveriam mostrar uma gama”, disse o vice-presidente sênior do Google, Prabhakar Raghavan.
“E em segundo lugar, com o tempo, o modelo tornou-se muito mais cauteloso do que pretendíamos e recusou-se a responder inteiramente a certas solicitações – interpretando erroneamente algumas solicitações muito anódinas como sensíveis. Essas duas coisas levaram o modelo a compensar demais em alguns casos e a ser excessivamente conservador em outros, levando a imagens embaraçosas e erradas.”
Raghavan disse que a geração de imagens não será reativada até que o software passe por extensas mudanças e testes.
“Não posso prometer que o Gemini não gerará ocasionalmente resultados embaraçosos, imprecisos ou ofensivos – mas posso prometer que continuaremos a agir sempre que identificarmos um problema”, disse ele.
- Conteúdo com tecnologia de SEO e distribuição de relações públicas. Seja amplificado hoje.
- PlatoData.Network Gerativa Vertical Ai. Capacite-se. Acesse aqui.
- PlatoAiStream. Inteligência Web3. Conhecimento Amplificado. Acesse aqui.
- PlatãoESG. Carbono Tecnologia Limpa, Energia, Ambiente, Solar, Gestão de resíduos. Acesse aqui.
- PlatoHealth. Inteligência em Biotecnologia e Ensaios Clínicos. Acesse aqui.
- Fonte: https://go.theregister.com/feed/www.theregister.com/2024/02/23/google_suspends_gemini/
- :tem
- :é
- :não
- :onde
- $UP
- 1996
- 7
- a
- Capaz
- Sobre
- abuso
- acessível
- Conta
- responsável
- exatamente
- acusado
- Aja
- Açao Social
- real
- adicionar
- anúncios
- adultos
- avançar
- com medo
- Depois de
- Agente
- AI
- Modelos de IA
- algorítmico
- Todos os Produtos
- já
- tb
- América
- Americanos
- an
- e
- Outro
- responder
- antecipando
- qualquer
- se aproxima
- SOMOS
- argumentos
- armado
- por aí
- arranjo
- AS
- At
- disponibilidade
- disponível
- evitar
- consciente
- em caminho duplo
- Equilíbrio
- BE
- passou a ser
- Porque
- sido
- MELHOR
- Melhor
- bloqueado
- bomba
- impulsionar
- ambos
- mais amplo
- construído
- burocrático
- negócio
- modelos de negócio
- mas a
- by
- CAN
- capacidades
- casos
- cauteloso
- certo
- Alterações
- Crianças
- igreja
- claramente
- CO
- cor
- como
- Comunicação
- composição
- computação
- computador
- conteúdo
- Criação de conteúdo
- Contextos
- continuar
- continua
- empreiteiros
- contribuir
- controles
- Responsabilidade
- Custo
- crio
- criação
- Cultura
- perigos
- Dave
- Declarado
- Dependendo
- DID
- diferente
- digital
- Conteúdo Digital
- desinformação
- distribuir
- distribuição
- diferente
- Diversidade
- do
- parece
- não
- fazer
- don
- distância
- editorial
- Edward
- Edward Snowden
- esforços
- habilitado
- encorajados
- final
- COMPROMETIMENTO
- Motores
- garantir
- inteiramente
- equidade
- Europeus
- Mesmo
- todos
- expectativas
- espera
- explicação
- extenso
- fracassado
- falhas
- Cair
- Fevereiro
- filtros
- Primeiro nome
- Fixar
- Escolha
- Forças
- Fundacional
- Francisco
- Gratuito
- da
- totalmente
- funcional
- funções
- futuro
- Gemini
- Geral
- público geral
- geralmente
- gerar
- gerado
- geração
- gerador
- Alemão
- ter
- gigante
- dado
- ido
- Bom estado, com sinais de uso
- tem
- Graham
- Grupo
- aconteceu
- Queijos duros
- disco rígido
- prejudicar
- prejudicial
- odiar
- Ter
- he
- SUA PARTICIPAÇÃO FAZ A DIFERENÇA
- histórico
- segurando
- Como funciona o dobrador de carta de canal
- HTTPS
- i
- idéia
- identificar
- if
- Ignorância
- Ilegal
- imagem
- imagens
- fotografia
- imediatamente
- melhorar
- in
- incapacidade
- impreciso
- incentivos
- inclusão
- indústria
- info
- INFORMAÇÕES
- em vez disso
- Pretendido
- Internet
- interpretar
- isn
- emitem
- IT
- ESTÁ
- se
- jpg
- Matar
- tipos
- Saber
- conhecido
- O rótulo
- Falta
- camada
- principal
- leituras
- levou
- menos
- Permite
- responsabilidade
- como
- local
- olhar
- lucrativo
- moldadas
- fazer
- Makers
- Fazendo
- muitos
- marca
- material
- Posso..
- talvez
- significar
- Mídia
- Meta
- desaparecido
- Missão
- Moda
- modelo
- modelos
- moderação
- Monetizar
- mais
- muito
- devo
- você merece...
- necessário
- NIH
- não
- a despeito de
- NSA
- of
- ofensivo
- oferecer
- oferecendo treinamento para distância
- frequentemente
- on
- uma vez
- ONE
- online
- só
- aberto
- open source
- or
- Outros
- de outra forma
- A Nossa
- Fora
- saída
- Acima de
- Supervisão
- próprio
- emparelhado
- Paul
- PBS
- Pessoas
- pertencente
- PHP
- fotografia
- plataforma
- Plataformas
- platão
- Inteligência de Dados Platão
- PlatãoData
- por favor
- ponto
- envenenamento
- políticas
- político
- política
- POSTAGENS
- anterior
- anteriormente
- problemático
- produzir
- Produto
- Lucro
- prolífico
- promessa
- solicita
- propaganda
- proteção
- fornecendo
- público
- empurrado
- colocar
- busca
- Frequentes
- Links
- alcance
- RE
- clientes
- colher
- recentemente
- receita
- reflete
- recusou
- liberado
- representar
- restaurante
- resultando
- Resultados
- Comentários
- Recompensas
- certo
- rolando
- s
- Segurança
- Dito
- San
- San Francisco
- Sanção
- Poupança
- dizendo
- cenários
- Pesquisar
- Mecanismos de busca
- Segundo
- Seção
- Seção 230
- aparentemente
- envia
- sensível
- servir
- Sexual
- Partilhar
- compartilhando
- Baixo
- rede de apoio social
- mostrar
- mostrou
- simplesmente
- Sentado
- snowden
- So
- Redes Sociais
- meios de comunicação social
- Software
- alguns
- de alguma forma
- às vezes
- fonte
- Espaço
- específico
- Declaração
- suspenso
- comutado
- Tire
- Converse
- tecnologia
- indústria de tecnologia
- ensaio
- do que
- que
- A
- o mundo
- deles
- Este
- deles
- coisa
- coisas
- think
- isto
- esta semana
- aqueles
- Apesar?
- ameaça
- Através da
- tempo
- para
- disse
- também
- ferramentas
- treinado
- Training
- tratar
- sintonização
- dois
- Universalmente
- até
- us
- usar
- usava
- útil
- Utilizador
- UTC
- valor
- risco
- capitalista de risco
- muito
- via
- foi
- Caminho..
- we
- web
- semana
- BEM
- foram
- O Quê
- o que quer
- quando
- sempre que
- se
- qual
- enquanto
- Denunciante
- Denunciante Edward Snowden
- branco
- QUEM
- Largo
- Ampla variedade
- Wikipedia
- precisarão
- de
- sem
- Ganhou
- Atividades:
- trabalhar
- mundo
- seria
- Errado
- anos
- Vocês
- investimentos
- zefirnet