Holly Elmore leder protest mot åpen kildekode-sikkerhet

Holly Elmore leder protest mot åpen kildekode-sikkerhet

Holly Elmore Leads Protest on Open-Source Safety PlatoBlockchain Data Intelligence. Vertical Search. Ai.

I et dristig trekk mot Metas nylige holdning til åpen kildekode kunstig intelligens (AI), gikk Holly Elmore, en AI-sikkerhetsforkjemper, i spissen for en demonstrasjon utenfor Metas San Francisco-base.

Kjernen i tvisten ligger i de potensielle farene ved fritt å frigjøre kraftige AI-modellvekter, som Elmore og hennes støttespillere hevder kan føre til "irreversibel spredningsrisiko".

Meta rørte i teknologivannet tidligere i år frigjør vekten av sin LLaMA-familie av modeller til AI-forskere, en avgjørelse som avviker betydelig fra retningslinjene til andre teknologigiganter. Disse vektene, som er avgjørende for modellens funksjon, kan manipuleres og modifiseres én gang i hendene på eksperter, noe som vekker bekymring for misbruk. Det tok faktisk ikke lang tid før disse vektene var det lekket ut online, intensiverer kritikken av Metas åpen kildekode-tilnærming.

Risikoen ved å slippe vekter

Elmore, en gang tilknyttet tenketanken Rethink Priorities, ga uttrykk for bekymringene hennes:

"Å slippe vekter er en farlig policy fordi modeller kan modifiseres av hvem som helst og ikke kan tilbakekalles."

Hun la vekt på den økende trusselen etter hvert som modellene blir mer avanserte og potente. Når modellvekter er åpent tilgjengelige, kan de potensielt brukes til ondsinnede aktiviteter, alt fra å konstruere phishing-opplegg til planlegging cyberattacks. Når vektene er i hånden, advarer Elmore, er det en foruroligende letthet å omgå sikkerhetsrekkverk.

Peter S. Park fra MIT gjenspeiler disse følelsene. Han advarer mot farene hvis dagens åpen kildekode-tilnærming overføres til mer avansert AI, som kan operere med høyere autonomi, og dermed muliggjøre misbruk i større og mer skadelig skala.

Et motargument: Forsvaret med åpen kildekode

Stella Biderman av EleutherAI tilbyr imidlertid et annet perspektiv. Biderman stiller spørsmål ved den umiddelbare antagelsen om at frigjøring av modellvekter direkte korrelerer med potensielt misbruk. Hun mener begrepet «spredning» knyttet til masseødeleggelsesvåpen er misvisende i AI-sammenheng. Biderman hevder at de grunnleggende elementene for å bygge store språkmodeller allerede er ute i det åpne, mener at hemmelighold kanskje ikke er universalmiddelet for potensielt misbruk.

Hun legger til at å oppfordre selskaper til å opprettholde hemmelighold rundt modellene sine kan ha "alvorlige nedstrømskonsekvenser for åpenhet, offentlig bevissthet og vitenskap." En slik politikk kan utilsiktet skade uavhengige forskere og entusiaster mer enn den sikrer mot potensielle trusler.

Navigering av åpen kildekode i AI

Begrepet 'åpen kildekode' i AI-riket er rotete. Som Stefano Maffulli fra Open Source Initiative (OSI) påpeker, har forskjellige organisasjoner valgt begrepet, noe som fører til en tvetydig forståelse av hva det virkelig betyr i AI. For at programvare skal være virkelig åpen kildekode, må alle komponentene, fra kildekode til opplæringsdata, være offentlig tilgjengelige og gjenbrukbare.

Fremtiden til åpen kildekode AI formes fortsatt, med OSI som aktivt prøver å definere parameterne. Maffulli står fast på viktigheten av en åpen tilnærming, og understreker at AI bare kan være "pålitelig, ansvarlig og ansvarlig" hvis den er i tråd med åpen kildekode-prinsipper.

Mens debatten om åpen kildekode AI langt fra er avgjort, er én ting klar: teknologiens raske fremskritt krever en nøye balanse mellom tilgjengelighet og sikkerhet. Ettersom selskaper som Meta går videre med sine retningslinjer, vil teknologisamfunnet og publikum fortsette å kjempe med åpen kildekode AI sine utfordringer og implikasjoner.

Tidstempel:

Mer fra MetaNews