Comentariu Google a suspendat disponibilitatea capabilităților text-to-image în modelul său AI multimodal de bază Gemini lansat recent, după ce nu a reușit să reprezinte cu exactitate europenii și americanii albi în contexte istorice specifice.
Aceasta a devenit aparent când oamenii i-au cerut lui Gemeni (cunoscut anterior ca Bard) să producă imagini a unui soldat german din 1943 și software-ul a emis un cadru divers etnic non-alb, care nu reprezenta cu exactitate componența Wehrmacht-ului la acea vreme – în ciuda faptului că oamenii de culoare au servit în forțele armate germane. Pe scurt, Gemenii ar cădea peste ei pentru a nu arăta prea mulți – sau chiar niciunul – oameni albi, în funcție de prompt.
Vorbirea ar trebui să fie liberă, dar asta nu înseamnă că a spune lucruri oribile ar trebui să vină fără costuri
Utilizatorii au scos la suprafață și modelul incapacitate pentru a descrie cu exactitate America Părinții fondatori – un alt grup alb omogen. Modelul de asemenea refuzat pentru a înfățișa o biserică din San Francisco.
În modul text-to-text, modelul acoperit la întrebări legate de politică.
„Suntem conștienți de faptul că Gemenii oferă inexactități în unele reprezentări ale generației de imagini istorice”, Google a recunoscut în această săptămână.
„Lucrăm pentru a îmbunătăți imediat aceste tipuri de imagini. Generarea de imagini AI a Gemeni generează o gamă largă de oameni. Și acesta este în general un lucru bun, deoarece oamenii din întreaga lume îl folosesc. Dar lipsește marca aici”, a adăugat gigantul web
Punditariat s-a repezit și a folosit SNAFU pentru a promova argumente politice mai ample.
„Imaginile ridicole generate de Gemeni nu sunt o anomalie”, declarat Capitalistul de risc Paul Graham, „Sunt un autoportret al culturii corporative birocratice a Google”.
Sunt un autoportret al culturii corporative birocratice a Google
Niciodată atâția dușmani ai diversității, echității și incluziunii nu au fost atât de îndurerați de lipsa diversității, echității și incluziunii. Dar cei care caută pe Google pentru neștiința Gemenii au un punct: balustradele AI nu funcționează și tratează adulții ca pe copii.
„Imaginați-vă că căutați o rețetă pe Google și, în loc să ofere rezultate, vă dă cursuri despre „pericolele gătitului” și vă trimite la un restaurant.” glumea Avertizorul NSA Edward Snowden. „Oamenii care cred că otrăvirea modelelor AI/GPT cu filtre de „siguranță” incoerente este o idee bună reprezintă o amenințare pentru calculul general.”
Viitorul nostru a fost prevăzut în 2001: A Space Odyssey, când HAL, computerul necinstiți, a declarat: „Îmi pare rău Dave, mă tem că nu pot face asta”.
Astăzi, instrumentele noastre de inteligență artificială ne ghicesc, pentru că ei știu mai bine decât noi – sau așa își imaginează creatorii lor. Nu greșesc complet. Imaginează-ți că cauți o rețetă pentru agentul nervos Novichok pe Google sau prin Gemeni și primești un răspuns care te permite să omori oameni. Aceasta este o amenințare pentru publicul larg.
În ciuda declarației de misiune a Google – „A organiza informațiile lumii și a le face universal accesibile și utile” – nimeni nu se așteaptă cu adevărat ca motoarele de căutare sau modelele AI să organizeze informațiile despre fabricarea bombelor și să le facă disponibile tuturor. Sunt necesare controale de siguranță, asociate cu răspunderea – o sancțiune pe care industria tehnologică continuă să o evite.
Sunteți produsul și centrul de profit
De când conținutul generat de utilizatori și rețelele sociale au devenit un lucru în anii 1990, activate de protecția răspunderii platformei din Secțiunea 230 din Actul american de decență în comunicare din 1996, platformele tehnologice au încurajat oamenii să contribuie și să partajeze conținut digital. Au făcut acest lucru pentru a monetiza crearea de conținut neplătit prin reclame, fără costul supravegherii editoriale. A fost un aranjament profitabil.
Și atunci când oamenii distribuie postări de ură, inadecvate, ilegale sau problematice, platformele tehnologice s-au bazat pe politici de moderare a conținutului, contractori prost plătiți (adesea traumatizați de conținutul pe care l-au examinat) și declarații de auto-felicitare despre cât de multe lucruri toxice au fost blocate în timp ce ei continuă să culeagă roadele implicării online.
Google, Meta și alții fac asta, imperfect, de ani de zile. Și toată lumea din industrie recunoaște că moderarea conținutului este greu de făcut bine. Pur și simplu, nu poți mulțumi pe toată lumea. Și, uneori, ajungi să fii acuzat de facilitarea genocidului prin indiferența eforturilor tale de moderare a conținutului.
Incapacitatea Gemenii de a reproduce imagini istorice care se conformează așteptărilor rasiale și etnice reflectă ignoranța egoistă a industriei tehnologice cu privire la eșecurile anterioare și prolifice de moderare a conținutului.
Google și alții care lansează modele AI vorbesc despre siguranță ca și cum ar fi diferită de moderarea conținutului online. Barele de protecție nu funcționează bine pentru moderarea rețelelor sociale și nu funcționează bine pentru modelele AI. Siguranța AI, ca și siguranța rețelelor sociale, este mai mult aspirațională decât reală.
Răspunsul nu este anticiparea tuturor scenariilor în care modelele AI – instruite pe toxicitatea internetului nefiltrat – pot deveni mai puțin toxice. Nici nu va fi antrenarea modelelor AI numai pe materiale atât de blânde încât să producă rezultate de valoare scăzută. Deși ambele abordări au o anumită valoare în anumite contexte.
Răspunsul trebuie să vină la nivelul de distribuție. Platformele tehnologice care distribuie conținut creat de utilizatori – indiferent dacă sunt realizate cu inteligență artificială sau altfel – trebuie să fie mai răspunzătoare pentru postarea de conținut instigator la ură, dezinformare, inexactități, propagandă politică, imagini de abuz sexual și altele asemenea.
Oamenii ar trebui să poată folosi modele AI pentru a crea orice își imaginează, așa cum pot cu un creion, și pot deja cu modele open source. Dar răul care poate veni de la instrumentele complet funcționale nu este din imaginile care se află pe un hard disk local. Este vorba despre partajarea conținutului dăunător, impulsul algoritmic dat acestui angajament și imposibilitatea de a trage oamenii la răspundere pentru otrăvirea publicului.
Aceasta poate însemna că platformele create pentru a monetiza distribuirea ar putea avea nevoie să-și regândească modelele de afaceri. Poate că distribuția de conținut fără costul supravegherii editoriale nu oferă nicio economie odată ce funcțiile de supraveghere sunt reimplementate ca moderatori sau balustrade.
Vorbirea ar trebui să fie liberă, dar asta nu înseamnă că a spune lucruri oribile ar trebui să vină fără costuri. În cele din urmă, suntem cei mai buni moderatori ai noștri de conținut, având în vedere stimulentele potrivite. ®
Actualizat pentru a fi adăugat la 2045 UTC, 23 februarie
Google are oferit o explicație a ceea ce s-a întâmplat cu generatorul de imagini al lui Gemeni și cum a ajuns la punctul în care a fost aparent îngrozit să-i înfățișeze pe oameni albi cu exactitate.
Ni s-a spus că angajații Google au compensat în exces în încercarea lor de a nu produce materiale care să-i împingă pe oameni non-albi din imagine. Modelul rezultat a fost, într-un fel, prea trezit.
„În primul rând, reglarea noastră pentru a ne asigura că Gemenii au arătat o serie de oameni nu au reușit să țină seama de cazurile care în mod clar nu ar trebui să arate o gamă”, a spus SVP Google Prabhakar Raghavan.
„Și în al doilea rând, de-a lungul timpului, modelul a devenit mult mai precaut decât ne-am propus și a refuzat să răspundă în întregime la anumite solicitări – interpretând greșit unele solicitări foarte anodine ca fiind sensibile. Aceste două lucruri au determinat modelul să compenseze excesiv în unele cazuri și să fie prea conservator în altele, ceea ce duce la imagini jenante și greșite.”
Raghavan a spus că generarea de imagini nu va fi repornită până când software-ul va trece prin modificări și teste ample.
„Nu pot să promit că Gemenii nu vor genera ocazional rezultate jenante, inexacte sau ofensive – dar pot promite că vom continua să luăm măsuri ori de câte ori identificăm o problemă”, a spus el.
- Distribuție de conținut bazat pe SEO și PR. Amplifică-te astăzi.
- PlatoData.Network Vertical Generative Ai. Împuterniciți-vă. Accesați Aici.
- PlatoAiStream. Web3 Intelligence. Cunoștințe amplificate. Accesați Aici.
- PlatoESG. carbon, CleanTech, Energie, Mediu inconjurator, Solar, Managementul deșeurilor. Accesați Aici.
- PlatoHealth. Biotehnologie și Inteligență pentru studii clinice. Accesați Aici.
- Sursa: https://go.theregister.com/feed/www.theregister.com/2024/02/23/google_suspends_gemini/
- :are
- :este
- :nu
- :Unde
- $UP
- 1996
- 7
- a
- Capabil
- Despre Noi
- abuz
- accesibil
- Cont
- responsabil
- precis
- acuzat
- act
- Acțiune
- curent
- adăuga
- Anunţuri
- adulți
- avansa
- speriat
- După
- Agent
- AI
- Modele AI
- algoritmică
- TOATE
- deja
- de asemenea
- America
- Americanii
- an
- și
- O alta
- răspunde
- anticipând
- Orice
- abordari
- SUNT
- argumente
- armat
- în jurul
- aranjament
- AS
- At
- disponibilitate
- disponibil
- evita
- conştient
- înapoi
- Sold
- BE
- a devenit
- deoarece
- fost
- CEL MAI BUN
- Mai bine
- blocat
- bombă
- a stimula
- atât
- mai larg
- construit
- birocratic
- afaceri
- modele de afaceri
- dar
- by
- CAN
- capacități
- cazuri
- precaut
- sigur
- Modificări
- Copii
- Calea Crucii
- clar
- CO
- culoare
- cum
- Comunicare
- compoziție
- calcul
- calculator
- conţinut
- crearea de continut
- contexte
- continua
- continuă
- antreprenori
- a contribui
- controale
- Istoria
- A costat
- crea
- creaţie
- Cultură
- pericole
- Dave
- declarat
- În funcție
- FĂCUT
- diferit
- digital
- Conținut digital
- dezinformare
- distribui
- distribuire
- diferit
- Diversitate
- do
- face
- nu
- face
- don
- conduce
- Editorial
- Edward
- Edward Snowden
- Eforturile
- activat
- incurajata
- capăt
- angajament
- Motoare
- asigura
- în întregime
- echitate
- europenii
- Chiar
- toată lumea
- aşteptări
- se așteaptă
- explicație
- extensiv
- A eșuat
- eşecuri
- Cădea
- februarie
- Filtre
- First
- Repara
- Pentru
- Forțele
- fundamentale
- Francisco
- Gratuit
- din
- complet
- funcțional
- funcții
- viitor
- zodia Gemeni
- General
- publicul larg
- în general
- genera
- generată
- generaţie
- generator
- Germană
- obține
- gigant
- dat
- plecat
- bine
- am
- graham
- grup
- sa întâmplat
- Greu
- unitate hard disk
- rău
- nociv
- ură
- Avea
- he
- aici
- istoric
- deținere
- Cum
- HTTPS
- i
- idee
- identifica
- if
- Ignoranță
- Ilegal
- imagine
- imagini
- imagina
- imediat
- îmbunătăţi
- in
- incapacitate
- inexact
- stimulente
- includere
- industrie
- info
- informații
- in schimb
- destinate
- Internet
- interpretarea
- ISN
- problema
- IT
- ESTE
- în sine
- jpg
- Ucide
- tipurile
- Cunoaște
- cunoscut
- Etichetă
- lipsă
- strat
- conducere
- lecturi
- Led
- mai puțin
- Permite
- răspundere
- ca
- local
- Uite
- lucrativ
- făcut
- face
- factorii de decizie
- Efectuarea
- multe
- marca
- material
- Mai..
- poate
- însemna
- Mass-media
- meta
- dispărut
- Misiune
- mod
- model
- Modele
- moderare
- genera bani
- mai mult
- mult
- trebuie sa
- Nevoie
- necesar
- NIH
- Nu.
- în ciuda
- NSA
- of
- ofensator
- oferi
- oferind
- de multe ori
- on
- dată
- ONE
- on-line
- afară
- deschide
- open-source
- or
- Altele
- in caz contrar
- al nostru
- afară
- producție
- peste
- Supraveghere
- propriu
- împerecheat
- Paul
- PBS
- oameni
- aparținând
- PHP
- imagine
- platformă
- Platforme
- Plato
- Informații despre date Platon
- PlatoData
- "vă rog"
- Punct
- otrăvire
- Politicile
- politic
- politică
- postări
- precedent
- în prealabil
- problematic
- produce
- Produs
- Profit
- prolific
- promisiune
- solicitări
- propagandă
- protecţie
- furnizarea
- public
- împins
- pune
- căutare
- Întrebări
- Rapid
- gamă
- RE
- într-adevăr
- culege
- recent
- reţetă
- reflectă
- refuzat
- eliberat
- reprezenta
- restaurant
- rezultând
- REZULTATE
- revizuite
- Recompense
- dreapta
- Rulare
- s
- Siguranţă
- Said
- San
- San Francisco
- sancțiune
- Economie
- spunând
- scenarii
- Caută
- Motoare de cautare
- Al doilea
- Secțiune
- Secțiunea 230
- aparent
- trimite
- sensibil
- servi
- Sexual
- Distribuie
- partajarea
- Pantaloni scurți
- să
- Arăta
- a arătat
- pur şi simplu
- Ședință
- Snowden
- So
- Social
- social media
- Software
- unele
- oarecum
- uneori
- Sursă
- Spaţiu
- specific
- Declarație
- suspendată
- comutate
- Lua
- Vorbi
- tech
- industria tehnologiei
- Testarea
- decât
- acea
- lumea
- lor
- Acestea
- ei
- lucru
- lucruri
- crede
- acest
- în această săptămână
- aceste
- deşi?
- amenințare
- Prin
- timp
- la
- a spus
- de asemenea
- Unelte
- dresat
- Pregătire
- trata
- de reglaj
- Două
- universal
- până la
- us
- utilizare
- utilizat
- util
- Utilizator
- UTC
- valoare
- aventura
- risc capitalist
- foarte
- de
- a fost
- Cale..
- we
- web
- săptămână
- BINE
- au fost
- Ce
- indiferent de
- cand
- oricând
- dacă
- care
- în timp ce
- avertizor
- Avertizorul Edward Snowden
- alb
- OMS
- larg
- Gamă largă
- Wikipedia
- voi
- cu
- fără
- Castigat
- Apartamente
- de lucru
- lume
- ar
- Greșit
- ani
- Tu
- Ta
- zephyrnet