AI's Brave New World: Kaj se je zgodilo z varnostjo? Zasebnost?

AI's Brave New World: Kaj se je zgodilo z varnostjo? Zasebnost?

AI's Brave New World: Kaj se je zgodilo z varnostjo? Zasebnost? Podatkovna inteligenca PlatoBlockchain. Navpično iskanje. Ai.

Sledi gostujoča objava Johna deVadossa, upravnega odbora Global Blockchain Business Council v Ženevi in ​​soustanovitelja InterWork Alliance v Washingtonu, DC.

Prejšnji teden sem imel priložnost v Washingtonu, DC, da sem z nekaterimi člani kongresa in njihovim osebjem predstavil in razpravljal o posledicah umetne inteligence v zvezi z varnostjo.

Generativni AI me danes spominja na internet v poznih 80-ih – temeljne raziskave, latentni potencial in akademska uporaba, vendar še ni pripravljen za javnost. Tokrat neomejene ambicije prodajalcev, ki jih napaja tvegani kapital manjših lig in spodbujajo odmevne komore Twitterja, hitro sledijo AI-jevemu Vrstemu novemu svetu.

Tako imenovani "javni" modeli temeljev so omadeževani in neprimerni za potrošniško in komercialno uporabo; abstrakcije zasebnosti, kjer obstajajo, puščajo kot sito; varnostni konstrukti še vedno potekajo, saj se površina napada in vektorji groženj še vedno razumejo; in iluzorne zaščitne ograje, manj ko se o njih govori, tem bolje.

Torej, kako smo končali tukaj? In kaj se je zgodilo z varnostjo? Zasebnost?

"Kompromitirani" modeli temeljev

Tako imenovani »odprti« modeli so vse prej kot odprti. Različni prodajalci hvalijo svojo stopnjo odprtosti z odpiranjem dostopa do uteži modelov ali dokumentacije ali testov. Kljub temu nobeden od večjih prodajalcev ne nudi nič podobnega naborom podatkov o usposabljanju ali njihovim manifestom ali rodu, da bi lahko posnemali in reproducirali svoje modele.

Ta nepreglednost v zvezi z nabori podatkov o usposabljanju pomeni, da če želite uporabiti enega ali več teh modelov, potem kot potrošnik ali organizacija nimate nobene možnosti preveriti ali potrditi obsega onesnaženosti podatkov z spoštovanje intelektualne lastnine, avtorskih pravic itd. kot tudi morebitne nezakonite vsebine.

Kar je kritično, brez manifesta naborov podatkov o usposabljanju ni mogoče preveriti ali potrditi neobstoječe zlonamerne vsebine. Zlobni akterji, vključno z igralci, ki jih sponzorira država, nameščajo vsebino trojanskega konja po spletu, ki jo modeli zaužijejo med svojim usposabljanjem, kar vodi do nepredvidljivih in potencialno zlonamernih stranskih učinkov v času sklepanja.

Ne pozabite, da ko je model ogrožen, ni več možnosti, da bi se odučil, edina možnost je, da ga uničite.

"Porozna" varnost

Generativni modeli umetne inteligence so ultimativni varnostni medenjaki, saj so bili »vsi« podatki zaužiti v enem vsebniku. V dobi umetne inteligence se pojavijo novi razredi in kategorije vektorjev napadov; industrija se mora še sprijazniti s posledicami tako v zvezi z zaščito teh modelov pred kibernetskimi grožnjami kot v zvezi s tem, kako te modele uporabljajo kot orodja akterji kibernetskih groženj.

Za zastrupitev indeksa se lahko uporabijo zlonamerne tehnike takojšnjega vbrizgavanja; zastrupitev podatkov se lahko uporabi za poškodovanje uteži; napadi na vdelavo, vključno s tehnikami inverzije, se lahko uporabijo za pridobivanje bogatih podatkov iz vdelav; sklepanje o članstvu se lahko uporabi za ugotavljanje, ali so bili določeni podatki v učnem nizu itd., in to je samo vrh ledene gore.

Akterji groženj lahko pridobijo dostop do zaupnih podatkov prek inverzije modela in programske poizvedbe; lahko pokvarijo ali kako drugače vplivajo na latentno vedenje modela; in, kot je bilo že omenjeno, nenadzorovano zaužitje podatkov na splošno vodi do grožnje vgrajene kibernetske dejavnosti, ki jo sponzorira država, prek trojanskih konjev in več.

"Puščajoča" zasebnost

Modeli AI so koristni zaradi naborov podatkov, na katerih se usposabljajo; nediskriminatorno zaužitje podatkov v velikem obsegu ustvarja tveganja za zasebnost brez primere za posameznika in širšo javnost. V dobi umetne inteligence je zasebnost postala družbena skrb; predpisi, ki obravnavajo predvsem pravice posameznikov do podatkov, so neustrezni.

Poleg statičnih podatkov je nujno, da se dinamični pogovorni pozivi obravnavajo kot IP, ki ga je treba zaščititi in varovati. Če ste potrošnik, ki sodeluje pri ustvarjanju artefakta z modelom, želite, da se vaši pozivi, ki usmerjajo to ustvarjalno dejavnost, ne uporabljajo za usposabljanje modela ali kako drugače delijo z drugimi uporabniki modela.

Če ste zaposleni, ki dela z modelom za doseganje poslovnih rezultatov, vaš delodajalec pričakuje, da bodo vaši pozivi zaupni; poleg tega zahtevajo pozivi in ​​odgovori varno revizijsko sled v primeru težav z odgovornostjo, ki se pojavijo na eni strani. To je predvsem posledica stohastične narave teh modelov in variabilnosti njihovih odzivov skozi čas.

Kaj sledi?

Opravka imamo z drugačno vrsto tehnologije, ki ni podobna nobeni doslej v zgodovini računalništva, tehnologijo, ki kaže nastajajoče, latentno vedenje v velikem obsegu; včerajšnji pristopi za varnost, zasebnost in zaupnost ne delujejo več.

Vodilni v panogi se izogibajo previdnosti, regulatorjem in oblikovalcem politik pa ne preostane drugega, kot da vskočijo.

Časovni žig:

Več od CryptoSlate