CCC odgovarja na zahtevo NTIA za informacije o modelih umetne inteligence z dvojno rabo s široko dostopnimi utežmi modelov » Blog CCC

CCC odgovarja na zahtevo NTIA za informacije o modelih umetne inteligence z dvojno rabo s široko dostopnimi utežmi modelov » Blog CCC

Prejšnji teden je CCC odgovoril na Nacionalno upravo za telekomunikacije in informacije Zahteva za informacije o modelih umetne inteligence Fundacije za dvojno uporabo s široko dostopnimi utežmi modelov. Daniel Lopresti (predsednik CCC in Univerza Lehigh) in David Danks (izvršni odbor CCC in Kalifornijska univerza v San Diegu) sta pomagala napisati ta odgovor skupaj z več drugimi člani računalniške skupnosti. Markus Buehler (Massachusetts Institute of Technology) in Duncan Watson-Parris (Univerza v Kaliforniji, San Diego), ki sta letos oba govorila na panelu AAAS, ki ga sponzorira CCC, z naslovom, Generativna umetna inteligenca v znanosti: obljube in pasti, sta oba prispevala k odzivu na RFI, skupaj s Caseyjem Fieslerjem (Univerza v Koloradu, Boulder), ki se je udeležil CCC Prihodnost raziskav družbenih tehnologij delavnica novembra.

V svojem odgovoru so se avtorji osredotočili na nekaj posebnih vprašanj iz RFI, od katerih je eno vprašalo, kakšna so tveganja, povezana s široko dostopnostjo uteži modelov, v primerjavi s tistimi, povezanimi z nejavnimi utežmi modelov. Avtorji so odgovorili, da se večina tveganj, povezanih z generativnimi modeli, minimalno poveča, če so uteži modelov široko dostopne. Večina tveganj, povezanih z generativnimi modeli, je neločljivo povezana s temi modeli zaradi njihove zmožnosti hitrega ustvarjanja ogromnih količin verodostojne vsebine na podlagi uporabniških vnosov in njihovih skoraj neomejenih področij uporabe. Javna dostopnost uteži modela ne vpliva na funkcionalnost generativnih modelov, zato je trenutno malo dokazov, da bi široka dostopnost uteži ustvarila veliko dodatno tveganje, ki presega tisto, kar bi lahko že storili z lastniškimi ali zaprtimi sistemi. Eno tveganje, ki bi se lahko potencialno poslabšalo, če bi bile uteži za lastniške modele široko dostopne, je možnost, da so podatki o usposabljanju izpostavljeni. Malo verjetno je, da bi bilo mogoče uteži modela vzvratno konstruirati za razkritje podatkov o usposabljanju, vendar se ni izkazalo, da je to matematično nemogoče. Vendar smo v svojem odgovoru poudarili, da po našem mnenju največja tveganja izhajajo iz tega, da uteži za reprezentativne temeljne modele niso odprto dostopne, ker bo generativne modele verjetno še naprej močno uporabljala splošna javnost. Zavrnitev dostopa raziskovalcem in zainteresiranim članom skupnosti do nekaterih uteži modelov za lastniške modele bo družbi preprečila, da bi bolje razumela, kako ti modeli delujejo in kako oblikovati bolj vključujoče in dostopne modele.

Nadaljevanje prakse objavljanja zaprtih modelov bo še naprej ohranjalo pomanjkanje raznolikosti v tehnologiji in preprečilo izvedbo določenih vrst raziskav, kot so revizije teh modelov pristranskosti, za katere velika tehnološka podjetja niso spodbujena. Izobraževanje bodoče delovne sile je še en izjemno pomemben vidik. Združene države ne morejo upati, da bodo obdržale vodilno vlogo na področju generativne umetne inteligence, ne da bi bodočo generacijo razvijalcev usposobile za tovrstne modele v podiplomskem in podiplomskem izobraževanju. Pomembno je, da lahko učenci med izobraževanjem raziskujejo te modele, da razumejo njihovo osnovno funkcionalnost in se naučijo, kako vključiti etične vidike v razvoj novih modelov. Dovolitev, da imajo samo velika tehnološka podjetja orodja za usposabljanje naslednje generacije, bi lahko povzročila tudi zaprto razmišljanje, te organizacije pa lahko spregledajo celostno izobraževanje, ki ga lahko zagotovi dostop do teh modelov, v prid učinkovitejšemu okviru učenja po potrebi. V našem odgovoru smo poudarili tudi pomen vzpostavitve kulture odprtosti, ki obdaja razvoj teh modelov, in poudarili, da je lahko vzpostavitev takšne kulture enako pomembna kot regulacija teh tehnologij. Če se pričakuje, da bodo tehnološka podjetja ustvarila generativne modele na pregleden način, bo prihodnjo regulacijo veliko lažje izvajati.

Končno je CCC poudaril potrebo po dodatnih raziskavah o temeljnih modelih, pri čemer je navedel trenutno pomanjkanje znanja javnosti o tem, kako ti modeli dejansko delujejo in kako pridejo do rezultatov, ki jih dajejo. V našem odgovoru smo navedli številna neodgovorjena raziskovalna vprašanja, na katera so raziskovalci, znanstveniki, učenjaki in strokovnjaki za družbena vprašanja pripravljeni začeti odgovarjati, pod pogojem, da prejmejo odprt dostop, ki ga potrebujejo, do vrst velikih temeljnih modelov, ki jih zdaj izkorišča industrija . Od tega je odvisen naš nadaljnji uspeh kot družbe.

Preberite celoten odgovor CCC tukaj.

Časovni žig:

Več od CCC blog