CCC svarer på NTIAs forespørsel om informasjon om Dual Use Foundation AI-modeller med allment tilgjengelige modellvekter » CCC-blogg

CCC svarer på NTIAs forespørsel om informasjon om Dual Use Foundation AI-modeller med allment tilgjengelige modellvekter » CCC-blogg

I forrige uke svarte CCC til National Telecommunications and Information Administration Forespørsel om informasjon om Dual Use Foundation Artificial Intelligence-modeller med allment tilgjengelige modellvekter. CCCs egen Daniel Lopresti (CCC-leder og Lehigh University) og David Danks (CCC Executive Committee og University of California, San Diego) hjalp til med å skrive dette svaret sammen med flere andre medlemmer av datamiljøet. Markus Buehler (Massachusetts Institute of Technology) og Duncan Watson-Parris (University of California, San Diego), som begge talte ved det CCC-sponsede AAAS-panelet i år, med tittelen, Generativ AI i vitenskap: løfter og fallgruver, bidro begge til RFI-responsen, sammen med Casey Fiesler (University of Colorado, Boulder), som deltok på CCCs Fremtiden for forskning på sosiale teknologier workshop i november.

I sitt svar fokuserte forfatterne på noen få spesifikke spørsmål fra RFI, hvorav ett spurte hvordan risikoen forbundet med å gjøre modellvekter allment tilgjengelig sammenlignet med de som er forbundet med ikke-offentlige modellvekter. Forfatterne svarte at flertallet av risikoene forbundet med generative modeller forverres minimalt ved å gjøre modellvekter allment tilgjengelige. De fleste risikoene knyttet til generative modeller er iboende til disse modellene, på grunn av deres kapasitet til raskt å generere enorme mengder troverdig innhold basert på brukerinndata og deres nesten ubegrensede applikasjonsområder. Å gjøre modellvektene offentlig tilgjengelig påvirker ikke funksjonaliteten til generative modeller, og derfor er det foreløpig lite bevis for at det å gjøre vektene allment tilgjengelige skaper betydelig ekstra risiko utover det som allerede kan gjøres med proprietære eller lukkede systemer. En risiko som potensielt kan forverres dersom vekter for proprietære modeller gjøres allment tilgjengelig, er muligheten for at treningsdata blir eksponert. Det er usannsynlig at modellvekter kan bli reversert for å avsløre treningsdata, men det har ikke vist seg å være matematisk umulig. I vårt svar understreket vi imidlertid at fordi generative modeller sannsynligvis vil fortsette å bli mye brukt av allmennheten, kommer de største risikoene, etter vår mening, fra å ikke gjøre vekter til representative fundamentmodeller åpent tilgjengelige. Å nekte forskere og interesserte fellesskapsmedlemmer tilgang til noen modellvekter for proprietære modeller vil hindre samfunnet i å få en bedre forståelse av hvordan disse modellene fungerer og hvordan man kan designe mer inkluderende og tilgjengelige modeller.

Å fortsette praksisen med å frigi lukkede modeller vil fortsette å opprettholde mangelen på mangfold innen teknologi og vil forhindre visse typer forskning fra å bli utført, for eksempel partiske revisjoner av disse modellene, som store teknologiselskaper ikke er incentivert til å utføre. Utdanning av fremtidens arbeidsstyrke er en annen utrolig viktig faktor. USA kan ikke håpe på å opprettholde lederskapet innen generativ AI uten å trene den fremtidige generasjonen av utviklere på denne typen modeller i hoved- og etterutdanning. Det er viktig at studentene kan utforske disse modellene i løpet av utdanningen for å forstå deres grunnleggende funksjonalitet, og for å lære hvordan de kan inkorporere etiske hensyn i utviklingen av nye modeller. Å tillate bare store teknologibedrifter å ha verktøyene for å trene opp neste generasjon kan også resultere i tullete tanker, og disse organisasjonene kan overse en helhetlig utdanning som tilgang til disse modellene kan gi til fordel for et mer effektivt rammeverk for læring etter behov. I vårt svar fremhevet vi også viktigheten av å etablere en åpenhetskultur rundt disse modellenes utvikling, og understreket at å etablere en slik kultur kan være like viktig som å regulere disse teknologiene. Hvis det er en forventning om at teknologiselskaper skal lage generative modeller på en gjennomsiktig måte, blir fremtidig regulering mye lettere å gjennomføre.

Til slutt understreket CCC behovet for ytterligere forskning på grunnleggende modeller, med henvisning til offentlighetens nåværende mangel på kunnskap om hvordan disse modellene faktisk fungerer og når frem til resultatene de gir. I svaret vårt listet vi opp en rekke ubesvarte forskningsspørsmål som forskere, forskere, forskere og eksperter i sosiale spørsmål er klar til å begynne å svare på, forutsatt at de får den åpne tilgangen de trenger til den typen store grunnmodeller som industrien nå utnytter. . Vår fortsatte suksess som samfunn avhenger av det.

Les hele CCC-svaret her.

Tidstempel:

Mer fra CCC-bloggen