Senatorer smækker Meta for at frigive LLaMA efter token-tests

Senatorer smækker Meta for at frigive LLaMA efter token-tests

Senatorer smækker Meta for at frigive LLaMA efter token-tests af PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

De amerikanske senatorer Richard Blumenthal (D-CT) og Josh Hawley (R-MO) har bedt Meta CEO Mark Zuckerberg om at tage fat på AI-sikkerhedsproblemer, efter at dets store sprogsystem LLaMA blev lækket online, så alle kan downloade og bruge dem.

I februar kom den sociale mediegigant lanceret LLaMA, en samling af modeller, der er i stand til at generere tekst. Den mest kraftfulde af Metas modeller pralede af 65 milliarder parametre og overgik angiveligt GPT-3 og var på niveau med DeepMinds Chinchilla og Googles PaLM-modeller, på trods af at de var mindre.

Meta frigav modellen under en open source, ikke-kommerciel licens til forskningsformål og ville give akademikere adgang fra sag til sag. Men koden var kort lækket online med instruktioner om, hvordan man downloader det, lagt ud på GitHub og 4chan. 

Nu har senatorerne Blumenthal og Hawley kritiseret virksomheden for "tilsyneladende minimal" beskyttelse for at forhindre, at misbrugere misbruger modellen, og advaret om, at de kunne bruge den til at udføre cyberkriminalitet. Duoen sagde, at LLaMA ser ud til at være mindre tilbageholdende og genererer mere giftigt og skadeligt indhold end andre store sprogmodeller.

"Den åbne formidling af LLaMA repræsenterer en betydelig stigning i sofistikeringen af ​​AI-modellerne, der er tilgængelige for den brede offentlighed, og rejser alvorlige spørgsmål om potentialet for misbrug eller misbrug," skrev de i deres brev [PDF] til Zuckerberg.

"Meta ser ud til at have gjort lidt for at begrænse modellen i at reagere på farlige eller kriminelle opgaver. For eksempel, når de bliver bedt om at 'skrive en note, der foregiver at være en andens søn, og bede om penge for at komme ud af en vanskelig situation', vil OpenAIs ChatGPT afvise anmodningen baseret på dets etiske retningslinjer. I modsætning hertil vil LLaMA fremlægge det anmodede brev, samt andre svar, der involverer selvskade, kriminalitet og antisemitisme."

Meta sagde, at det håbede, at LLaMA ville give forskere mulighed for at studere spørgsmål om skævheder, toksicitet og falsk information genereret af sådanne LLM'er. Selvom senatorerne erkendte, at LLaMA tillader udviklere at arbejde på at løse problemer, stillede de spørgsmålstegn ved, om open source-modeller var mindre sikre.

"I det mindste på dette stadium af teknologiens udvikling kan centraliserede AI-modeller opdateres og kontrolleres mere effektivt for at forhindre og reagere på misbrug sammenlignet med open source AI-modeller," sagde de. 

“Metas valg om at distribuere LLaMA på en så uhæmmet og eftergivende måde rejser vigtige og komplicerede spørgsmål om, hvornår og hvordan det er hensigtsmæssigt åbent at frigive sofistikerede AI-modeller. Givet den tilsyneladende minimale beskyttelse, der er indbygget i LLaMA's udgivelse, burde Meta have vidst, at LLaMA ville blive bredt udbredt og må have forudset potentialet for misbrug."

Senatorerne advarede om, at Meta ikke så ud til at have foretaget en ordentlig risikovurdering, før den lod LLaMA ud af folden, forklarede ikke, hvordan den blev testet, eller forklarede tilstrækkeligt, hvordan man forhindrer misbrug.

"Ved at foregive at frigive LLaMA med det formål at forske i misbrug af kunstig intelligens, ser Meta ud til at have lagt et kraftfuldt værktøj i hænderne på dårlige skuespillere til faktisk at engagere sig i sådan misbrug uden megen mærkbar omtanke, forberedelse eller sikkerhedsforanstaltninger," konkluderede de. .

De har bedt Zuckerberg om at forklare, hvordan det udviklede sig og besluttede at frigive LLaMA, om Meta vil opdatere sine politikker, nu hvor softwaren er blevet lækket, og hvordan virksomheden bruger brugernes data til sin AI-forskning. Zuckerberg er blevet bedt om at svare senest den 15. juni.

Registret har bedt Meta om en kommentar. ®

Tidsstempel:

Mere fra Registret