Google zaustavi umetno inteligenco Gemini po negativnem odzivu na prikaz raznolikosti

Google zaustavi umetno inteligenco Gemini po negativnem odzivu na prikaz raznolikosti

Google začasno ustavi umetno inteligenco Gemini po upodobitvi raznolikosti. Podatkovna inteligenca PlatoBlockchain. Navpično iskanje. Ai.

Google ga je začasno ustavil Gemini AI od ustvarjanja podob 'ljudi' po razburjenju zaradi njegovih izkrivljenih rasnih predstav. 

Tehnično podjetje je ukrepalo, potem ko so uporabniki poudarili težnjo umetne inteligence, da prikazuje predvsem barvne ljudi, tudi v zgodovinsko netočnih kontekstih. Namen te poteze je izboljšati zmožnosti Gemini, da zagotovi natančnejše in raznolike upodobitve.

Preberite tudi: To je šala! Uporabniki se posmehujejo Googlovemu Gemini, ker ga pogrešajo

Geneza povratnega udarca

Jedro polemike je v neuspehu umetne inteligence, da v svojih slikah natančno odraža rasno raznolikost. Družbeni mediji so postali bojno polje, kjer so uporabniki delili slike, ki jih je ustvaril Gemini, ki so se oddaljile od zgodovinske in kulturne natančnosti. Pomembni primeri vključujejo upodobitve nebelih Švedin in temnopoltih ljudi v nacističnih uniformah. 

Takšne netočnosti niso le sprožile razprave na družbenih omrežjih, ampak so povzročile tudi hudo introspekcijo v Googlu, pri čemer so zaposleni izražanje zadrega zaradi pomanjkljivosti AI. Kritiki trdijo, da te netočnosti niso zgolj tehnične napake, ampak odražajo globljo pristranskost pri programiranju AI.

»Še nikoli mi ni bilo tako nerodno delati za podjetje,« je povedal St. Ratej, raziskovalni inženir pri Google ARVR, v objavi X.

Odziv pa se ni ustavil le pri Googlu, saj so nekateri uporabniki opazili enake pristranskosti tudi pri drugih platformah umetne inteligence, npr. OpenAI's ChatGPT. Posledično so se pojavila vprašanja o doslednosti nadzora med tehnologijami umetne inteligence, kar je poudarilo širši izziv celotne panoge zagotavljanja nepristranskih predstavitev umetne inteligence.

Učinek valovanja

Incident ni le okrnil podobe podjetja, ampak je povzročil tudi širšo razpravo o etiki in zastopanju umetne inteligence. Elon Musk je kritiziral Googlovo metodologijo in jo označil za "rasistično" in "proticivilizacijsko". Muskova komentarji nadalje odmevajo naraščajočo zaskrbljenost glede etičnih meja tehnologije umetne inteligence in potrebe po bolj raznolikem in natančnem prikazovanju vsebine, ustvarjene z umetno inteligenco.

"Vesel sem, da je Google pretiraval s svojim ustvarjanjem slik z umetno inteligenco, saj je njihovo noro rasistično, proticivilizacijsko programiranje postalo jasno vsem."

Kot odgovor na polemiko je Musk izrazil svoj model AI, Grok, za katerega je nameraval izdati nadaljnje različice. Tehnologija dokazuje konkurenčno prednost pri razvoju umetne inteligence, kar bi lahko pomagalo premagati omejitve obstoječih modelov, kot je Gemini. Poleg tega je naključna podobnost imena med Grokom in čipom Groq LPU vzbudila zanimanje, saj je trg umetne inteligence zaznamovan s hitrimi inovacijami in ostro konkurenco.

Pot do izboljšav

Ker je Google priznal težavo, je nameraval izboljšati zmožnosti upodobitve Gemini. Podjetje je poudarilo pomen raznolikosti v slikah, ustvarjenih z umetno inteligenco, vendar je priznalo pomanjkljivosti trenutnega modela pri natančnem predstavljanju vseh demografskih podatkov. 

V istem duhu je Googlov tiskovni predstavnik Krawczyk priznal pomanjkljivost modela in poudaril potrebo po bolj uravnoteženi upodobitvi, ki odraža globalno raznolikost, ne da bi pri tem ogrozila zgodovinsko natančnost. Da bi rešil te pomisleke, je Google začasno ustavil Geminijevo funkcijo generiranja človeških slik, kar je signaliziralo izboljšano različico, ki bolje odraža globalno raznolikost baze uporabnikov.

»Že delamo na odpravljanju nedavnih težav s funkcijo generiranja slik Gemini. Medtem ko bomo to počeli, bomo začasno ustavili ustvarjanje slik ljudi in kmalu znova izdali izboljšano različico.«

Časovni žig:

Več od MetaNovice