AIs Brave New World: Hva skjedde med sikkerheten? Personvern?

AIs Brave New World: Hva skjedde med sikkerheten? Personvern?

AIs Brave New World: Hva skjedde med sikkerheten? Personvern? PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Følgende er et gjesteinnlegg fra John deVadoss, styret for Global Blockchain Business Council i Genève og medgründer av InterWork Alliance i Washington, DC.

Forrige uke hadde jeg muligheten i Washington, DC til å presentere og diskutere implikasjonene av AI knyttet til sikkerhet med noen medlemmer av kongressen og deres ansatte.

Generativ AI i dag minner meg om internett på slutten av 80-tallet – grunnleggende forskning, latent potensial og akademisk bruk, men det er ennå ikke klart for publikum. Denne gangen er uhemmet leverandørambisjon, drevet av mindre liga-venturekapital og galvanisert av Twitter-ekkokamre, rask sporing av AIs Brave New World.

De såkalte "offentlige" stiftelsesmodellene er tilsmusset og upassende for forbruker- og kommersiell bruk; personvernabstraksjoner, der de finnes, lekker som en sil; sikkerhetskonstruksjoner er i høy grad et arbeid som pågår, ettersom angrepsoverflaten og trusselvektorene fortsatt blir forstått; og de illusoriske rekkverkene, jo mindre det blir sagt om dem, jo ​​bedre.

Så hvordan havnet vi her? Og hva skjedde med Security? Personvern?

"Kompromitterte" grunnmodeller

De såkalte «åpne» modellene er alt annet enn åpne. Ulike leverandører fremhever graden av åpenhet ved å åpne for tilgang til modellvektene, dokumentasjonen eller testene. Likevel gir ingen av de store leverandørene noe i nærheten av treningsdatasettene eller deres manifester eller avstamning for å kunne replikere og reprodusere modellene deres.

Denne ugjennomsiktigheten med hensyn til treningsdatasettene betyr at hvis du ønsker å bruke en eller flere av disse modellene, så har du, som forbruker eller som organisasjon, ingen mulighet til å verifisere eller validere omfanget av dataforurensning med respekt for IP, opphavsrett osv. samt potensielt ulovlig innhold.

Kritisk nok, uten manifestet til treningsdatasettene, er det ingen måte å verifisere eller validere det ikke-eksisterende skadelige innholdet. Narske skuespillere, inkludert statsstøttede skuespillere, planter trojanske hest-innhold over nettet som modellene får i seg under treningen, noe som fører til uforutsigbare og potensielt ondsinnede bivirkninger på slutningstidspunktet.

Husk at når en modell først er kompromittert, er det ingen måte for den å avlære, det eneste alternativet er å ødelegge den.

"Porøs" sikkerhet

Generative AI-modeller er den ultimate sikkerhetshonningpotten ettersom "alle" data har blitt inntatt i én beholder. Nye klasser og kategorier av angrepsvektorer oppstår i AI-tiden; industrien har ennå ikke kommet over implikasjonene både med hensyn til å sikre disse modellene fra cybertrusler og med hensyn til hvordan disse modellene brukes som verktøy av aktører på nettrussel.

Ondsinnede injeksjonsteknikker kan brukes for å forgifte indeksen; dataforgiftning kan brukes til å ødelegge vektene; innebyggingsangrep, inkludert inversjonsteknikker, kan brukes til å trekke rike data ut av innebyggingene; medlemskapsslutning kan brukes til å avgjøre om visse data var i treningssettet osv., og dette er bare toppen av isfjellet.

Trusselaktører kan få tilgang til konfidensielle data via modellinversjon og programmatisk spørring; de kan korrumpere eller på annen måte påvirke modellens latente oppførsel; og, som nevnt tidligere, fører ukontrollert inntak av data for øvrig til trusselen om innebygd statssponset cyberaktivitet via trojanske hester og mer.

"Lekkende" personvern

AI-modeller er nyttige på grunn av datasettene de er trent på; vilkårlig inntak av data i stor skala skaper enestående personvernrisiko for den enkelte og for allmennheten for øvrig. I AI-tiden har personvern blitt en samfunnsmessig bekymring; regelverk som primært omhandler individuelle datarettigheter er utilstrekkelig.

Utover statiske data er det viktig at dynamiske samtaleoppfordringer behandles som IP for å beskyttes og ivaretas. Hvis du er en forbruker, engasjert i å lage en artefakt sammen med en modell, vil du at instruksjonene dine som leder denne kreative aktiviteten ikke skal brukes til å trene modellen eller på annen måte deles med andre forbrukere av modellen.

Hvis du er en ansatt som arbeider med en modell for å levere forretningsresultater, forventer din arbeidsgiver at forespørslene dine er konfidensielle; Videre trenger forespørslene og svarene et sikkert revisjonsspor i tilfelle ansvarsproblemer som dukker opp av begge parter. Dette skyldes først og fremst den stokastiske karakteren til disse modellene og variasjonen i deres svar over tid.

Hva skjer videre?

Vi har å gjøre med en annen type teknologi, ulik noen vi har sett før i databehandlingens historie, en teknologi som viser fremvoksende, latent atferd i stor skala; gårsdagens tilnærminger for sikkerhet, personvern og konfidensialitet fungerer ikke lenger.

Bransjelederne kaster forsiktighet til vinden, og lar regulatorer og beslutningstakere ikke annet enn å gå inn.

Tidstempel:

Mer fra CryptoSlate