CCC reagerer på NTIA's anmodning om oplysninger om Dual Use Foundation AI-modeller med bredt tilgængelige modelvægte » CCC Blog

CCC reagerer på NTIA's anmodning om oplysninger om Dual Use Foundation AI-modeller med bredt tilgængelige modelvægte » CCC Blog

I sidste uge svarede CCC på den nationale telekommunikations- og informationsadministration Anmodning om oplysninger om Dual Use Foundation Artificial Intelligence-modeller med bredt tilgængelige modelvægte. CCC's egen Daniel Lopresti (CCC-formand og Lehigh University) og David Danks (CCC Executive Committee og University of California, San Diego) hjalp med at skrive dette svar sammen med flere andre medlemmer af computersamfundet. Markus Buehler (Massachusetts Institute of Technology) og Duncan Watson-Parris (University of California, San Diego), som begge talte ved det CCC-sponsorerede AAAS-panel i år, med titlen, Generativ AI i videnskab: løfter og faldgruber, begge bidrog til RFI-svaret sammen med Casey Fiesler (University of Colorado, Boulder), som deltog i CCC's Fremtiden for forskning i sociale teknologier workshop i november.

I deres svar fokuserede forfatterne på nogle få specifikke spørgsmål fra RFI, hvoraf det ene spurgte, hvordan de risici, der er forbundet med at gøre modelvægte bredt tilgængelige, sammenlignes med dem, der er forbundet med ikke-offentlige modelvægte. Forfatterne svarede, at størstedelen af ​​risici forbundet med generative modeller forværres minimalt ved at gøre modelvægte bredt tilgængelige. De fleste af de risici, der er forbundet med generative modeller, er forbundet med disse modeller, på grund af deres evne til hurtigt at generere enorme mængder af troværdigt indhold baseret på brugerinput og deres næsten ubegrænsede anvendelsesområder. At gøre modelvægtene offentligt tilgængelige påvirker ikke funktionaliteten af ​​generative modeller, og derfor er der i øjeblikket kun meget få beviser for, at at gøre vægtene bredt tilgængelige skaber betydelig yderligere risiko ud over, hvad der allerede kunne gøres med proprietære eller lukkede systemer. En risiko, der potentielt kan blive forværret, hvis vægte til proprietære modeller gøres bredt tilgængelige, er muligheden for, at træningsdata bliver eksponeret. Det er usandsynligt, at modelvægte kunne omvendt manipuleres for at afsløre træningsdata, men det har ikke vist sig at være matematisk umuligt. I vores svar understregede vi dog, at fordi generative modeller sandsynligvis fortsat vil blive brugt meget af den brede offentlighed, kommer de største risici efter vores mening ved ikke at gøre vægte til repræsentative funderingsmodeller åbent tilgængelige. At nægte forskere og interesserede samfundsmedlemmer adgang til nogle modelvægte for proprietære modeller vil forhindre samfundet i at få en bedre forståelse af, hvordan disse modeller fungerer, og hvordan man kan designe mere inkluderende og tilgængelige modeller.

Fortsat praksis med at frigive lukkede modeller vil fortsætte med at fastholde en mangel på mangfoldighed inden for teknologi og vil forhindre visse former for forskning i at blive udført, såsom partiske revisioner af disse modeller, som store teknologivirksomheder ikke er tilskyndet til at udføre. Uddannelse af fremtidens arbejdsstyrke er en anden utrolig vigtig overvejelse. USA kan ikke håbe på at fastholde lederskabet inden for generativ AI uden at træne den fremtidige generation af udviklere på disse typer modeller i graduate og post-graduate uddannelse. Det er vigtigt, at eleverne kan udforske disse modeller i løbet af deres uddannelse for at forstå deres grundlæggende funktionalitet, og for at lære at inddrage etiske overvejelser i udviklingen af ​​nye modeller. At tillade kun store tech-virksomheder at besidde værktøjerne til at træne den næste generation, kan også resultere i slem tænkning, og disse organisationer kan overse en holistisk uddannelse, som adgang til disse modeller kan give til fordel for en mere effektiv læring-efter-behov-ramme. I vores svar fremhævede vi også vigtigheden af ​​at etablere en åbenhedskultur omkring disse modellers udvikling, idet vi understregede, at etablering af en sådan kultur kan være lige så vigtig som at regulere disse teknologier. Hvis der er en forventning om, at teknologivirksomheder skaber generative modeller på en gennemsigtig måde, så bliver fremtidig regulering meget lettere at gennemføre.

Endelig understregede CCC behovet for yderligere forskning i grundlæggende modeller med henvisning til offentlighedens nuværende mangel på viden om, hvordan disse modeller faktisk fungerer og når frem til de resultater, de producerer. I vores svar listede vi en række ubesvarede forskningsspørgsmål, som forskere, videnskabsmænd, forskere og eksperter i sociale spørgsmål er klar til at begynde at besvare, forudsat at de får den åbne adgang, de har brug for, til den slags store fundamentmodeller, som industrien nu udnytter . Vores fortsatte succes som samfund afhænger af det.

Læs hele CCC-svaret her.

Tidsstempel:

Mere fra CCC blog