Holly Elmore vodi protest proti odprtokodni varnosti

Holly Elmore vodi protest proti odprtokodni varnosti

Holly Elmore vodi protest proti varnosti odprtokodnih podatkov PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Holly Elmore, zagovornica varnosti umetne inteligence, je v drznem koraku proti Metinemu nedavnemu stališču glede odprtokodne umetne inteligence (AI) vodila demonstracijo zunaj Metine baze v San Franciscu.

Bistvo spora je v morebitnih nevarnostih prostega sproščanja močnih uteži modelov umetne inteligence, za katere Elmorejeva in njeni podporniki trdijo, da lahko povzročijo tveganja »nepopravljivega širjenja«.

Meta je v začetku tega leta razburkala tehnološke vode sprošča težo svoje družine modelov LLaMA raziskovalcem umetne inteligence, kar je odločitev, ki se bistveno razlikuje od politik drugih tehnoloških velikanov. Te uteži, ki so ključnega pomena za delovanje modela, je mogoče manipulirati in spreminjati, ko so v rokah strokovnjakov, kar vzbuja pomisleke glede zlorabe. Dejansko ni trajalo dolgo, da so bile te uteži ušli na spletu, kar je okrepilo kritiko Metinega odprtokodnega pristopa.

Tveganje izpuščanja uteži

Elmore, nekoč povezana z think tankom Rethink Priorities, je izrazila svoje pomisleke:

"Sprostitev uteži je nevarna politika, ker lahko modele spremeni kdorkoli in jih ni mogoče odpoklicati."

Poudarila je naraščajočo grožnjo, saj modeli postajajo naprednejši in močnejši. Ko so uteži modela javno dostopne, se lahko potencialno uporabijo za zlonamerne dejavnosti, od konstruiranja shem lažnega predstavljanja do načrtovanja. kibernetski napadi. Ko so uteži v rokah, opozarja Elmore, je zaobiti varnostne ograje zelo enostavno.

Peter S. Park z MIT odmeva te občutke. Opozarja na nevarnosti, če se trenutni odprtokodni pristop prenese na naprednejšo umetno inteligenco, ki bi lahko delovala z večjo avtonomijo, kar bi omogočilo zlorabo v večjem in bolj škodljivem obsegu.

Protiargument: obramba odprte kode

Stella Biderman EleutherAI pa ponuja drugačno perspektivo. Biderman postavlja pod vprašaj takojšnjo predpostavko, da je objava uteži modelov neposredno povezana z morebitno zlorabo. Prepričana je, da je izraz »širjenje«, povezan z orožjem za množično uničevanje, v kontekstu umetne inteligence zavajajoč. Ker trdi, da so osnovni elementi za gradnjo velikih jezikovnih modelov že na voljo, Biderman verjame, da tajnost morda ni zdravilo za morebitno zlorabo.

Dodaja, da bi lahko imelo pozivanje podjetij, naj ohranjajo skrivnost svojih modelov, "resne posledice za preglednost, ozaveščenost javnosti in znanost." Takšna politika lahko nehote bolj škoduje neodvisnim raziskovalcem in navdušencem, kot pa ščiti pred morebitnimi grožnjami.

Krmarjenje po odprtokodnih vodah v AI

Izraz 'open-source' na področju AI je zmeden. Kot poudarja Stefano Maffulli iz Open Source Initiative (OSI), so različne organizacije sprejele ta izraz, kar je privedlo do dvoumnega razumevanja, kaj v resnici pomeni v AI. Da bi bila programska oprema resnično odprtokodna, morajo biti vse njene komponente, od izvorne kode do podatkov za usposabljanje, javno dostopne in jih je mogoče ponovno uporabiti.

Prihodnost odprtokodne umetne inteligence se še vedno oblikuje, pri čemer OSI aktivno poskuša definirati njene parametre. Maffulli ostaja neomajen glede pomena odprtega pristopa in poudarja, da je umetna inteligenca lahko "zaupanja vredna, odgovorna in odgovorna", če je usklajena z načeli odprte kode.

Čeprav razprava o odprtokodni umetni inteligenci še zdaleč ni zaključena, je nekaj jasno: hiter napredek tehnologije zahteva skrbno ravnovesje med dostopnostjo in varnostjo. Ko podjetja, kot je Meta, napredujejo s svojimi politikami, se bosta tehnološka skupnost in javnost še naprej spopadali z izzivi in ​​posledicami odprtokodne umetne inteligence.

Časovni žig:

Več od MetaNovice