Google setter Gemini AI på pause etter tilbakeslag i mangfoldsskildring

Google setter Gemini AI på pause etter tilbakeslag i mangfoldsskildring

Google setter Gemini AI på pause etter bakslag fra PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Google har satt den på pause Gemini AI fra å generere «folk»-bilder etter et opprør over dens skjeve raserepresentasjoner. 

Teknologifirmaet tok affære etter at brukere fremhevet AIs tendens til å avbilde primært fargede mennesker, selv i historisk unøyaktige sammenhenger. Dette trekket tar sikte på å avgrense Geminis evner for å sikre mer nøyaktige og mangfoldige avbildninger.

Les også: Det er en spøk! Brukere latterliggjør Googles Gemini for å savne den

Opprinnelsen til tilbakeslaget

Kjernen i kontroversen ligger i AIs unnlatelse av å reflektere rasemangfold nøyaktig i bildene sine. Sosiale medier ble en slagmark, med brukere som delte Gemini-genererte bilder som avvek fra historisk og kulturell nøyaktighet. Viktige eksempler inkluderer skildringer av ikke-hvite svenske kvinner og farger i nazi-uniformer. 

Slike unøyaktigheter har ikke bare utløst debatter på sosiale medier, men har også ført til alvorlig introspeksjon i Google, med ansatte uttrykke flauhet over AIs mangler. Kritikere hevder at disse unøyaktighetene ikke bare er tekniske feil, men gjenspeiler en mer dyp skjevhet i AI-programmering.

"Jeg har aldri vært så flau over å jobbe for et selskap," sa St. Ratej, en forskningsingeniør ved Google ARVR, i et X-innlegg.

Tilbakeslaget stoppet imidlertid ikke bare hos Google, ettersom noen brukere også la merke til de samme skjevhetene i andre AI-plattformer som OpenAIs ChatGPT. Følgelig dukket det opp spørsmål om konsistensen av gransking på tvers av AI-teknologier, og fremhevet den bredere bransjeomfattende utfordringen med å sikre objektive AI-representasjoner.

Ringvirkningen

Hendelsen har ikke bare svekket selskapets image, men også ført til en bredere debatt om AI-etikk og representasjon. Elon Musk kritiserte Googles metodikk og kalte den 'rasistisk' og 'antisivilisatorisk'. Musk sin kommentarer gjenspeiler den økende bekymringen for de etiske grensene for AI-teknologi og behovet for en mer mangfoldig og nøyaktig skildring av AI-generert innhold.

"Jeg er glad for at Google overspilte hånden deres med deres AI-bildegenerering, da det gjorde deres vanvittige rasistiske, anti-sivilisatoriske programmering tydelig for alle."

Som svar på kontroversen uttrykte Musk sin AI-modell, Grok, som han hadde til hensikt å gi ut flere versjoner for. Teknologien demonstrerer et konkurransefortrinn innen AI-utvikling, som kan bidra til å overvinne begrensningene til eksisterende modeller som Gemini. Videre økte den tilfeldige navnelikheten mellom Grok og Groq LPU-brikken interessen ettersom AI-markedet er preget av rask innovasjon og akutt konkurranse.

Veien til forbedring

Google erkjenner problemet og hadde til hensikt å avgrense Geminis avbildningsevner. Selskapet understreket viktigheten av mangfold i AI-genererte bilder, men innrømmet den nåværende modellens mangler når det gjelder å representere all demografi nøyaktig. 

På samme måte innrømmet Googles talsperson, Krawczyk, modellens mangel, og understreket behovet for en mer balansert skildring som speiler det globale mangfoldet uten at det går på bekostning av historisk nøyaktighet. For å løse disse bekymringene stoppet Google Geminis funksjon for generering av menneskelige bilder, og signaliserte en forbedret versjon som bedre gjenspeiler det globale mangfoldet i brukerbasen.

"Vi jobber allerede med å løse nylige problemer med Geminis bildegenereringsfunksjon. Mens vi gjør dette, skal vi stoppe bildegenereringen av mennesker og vil snart gi ut en forbedret versjon på nytt.»

Tidstempel:

Mer fra MetaNews