AI's Brave New World: Mi történt a biztonsággal? Magánélet?

AI's Brave New World: Mi történt a biztonsággal? Magánélet?

AI's Brave New World: Mi történt a biztonsággal? Magánélet? PlatoBlockchain adatintelligencia. Függőleges keresés. Ai.

Az alábbi vendégbejegyzés John deVadosstól, a Genfi Globális Blockchain Üzleti Tanács igazgatótanácsától és az InterWork Alliance társalapítójától Washingtonban.

Múlt héten lehetőségem volt Washington DC-ben bemutatni és megvitatni a mesterséges intelligencia biztonsággal kapcsolatos következményeit a Kongresszus néhány tagjával és munkatársaikkal.

A generatív mesterséges intelligencia manapság a 80-as évek végének internetére emlékeztet – alapkutatás, rejtett potenciál és tudományos felhasználás, de még nem áll készen a nyilvánosság számára. Ezúttal a korlátlan szállítói ambíció, amelyet a kisebb ligák kockázati tőkéje táplál, és a Twitter visszhangkamrái ösztönzik, a mesterséges intelligencia Brave New World gyorsított új világa.

Az úgynevezett „közalapítványi” modellek szennyezettek, fogyasztói és kereskedelmi használatra alkalmatlanok; a magánéleti absztrakciók, ahol vannak, szivárognak; a biztonsági konstrukciók nagymértékben folyamatban vannak, mivel a támadási felület és a fenyegetés vektorai még mindig tisztában vannak; és az illuzórikus védőkorlátok, minél kevesebbet mondanak róluk, annál jobb.

Szóval, hogyan kerültünk ide? És mi történt a Security-vel? Magánélet?

„Kompromittálódott” alapozómodellek

Az úgynevezett „nyitott” modellek minden, csak nem nyitott. A különböző szállítók a nyitottság fokát hirdetik azzal, hogy hozzáférést biztosítanak a modellsúlyokhoz, a dokumentációhoz vagy a tesztekhez. Ennek ellenére a főbb gyártók egyike sem kínál közel semmit a betanítási adatkészletekhez vagy azok manifesztációihoz vagy származási helyéhez ahhoz, hogy képes legyen reprodukálni és reprodukálni modelljeit.

Ez az átlátszatlanság a betanítási adatkészletek tekintetében azt jelenti, hogy ha egy vagy több ilyen modellt szeretne használni, akkor Ön, mint fogyasztó vagy mint szervezet, nem tudja ellenőrizni vagy validálni az adatszennyezés mértékét a szellemi tulajdonhoz, a szerzői jogokhoz stb., valamint a potenciálisan illegális tartalmakhoz.

Kritikus, hogy a betanítási adatkészletek jegyzéke nélkül nincs mód a nem létező rosszindulatú tartalom ellenőrzésére vagy érvényesítésére. A rosszindulatú szereplők, köztük az államilag szponzorált szereplők, trójai faló-tartalmakat telepítenek az internetre, amelyet a modellek a képzésük során fogyasztanak el, ami kiszámíthatatlan és potenciálisan rosszindulatú mellékhatásokhoz vezet a következtetés időpontjában.

Ne feledje, ha egy modell kompromittálódott, nincs mód arra, hogy kivonja magát, az egyetlen lehetőség az, hogy megsemmisítik.

„Porózus” biztonság

A generatív mesterséges intelligencia modellek jelentik a legnagyobb biztonságot, mivel „minden” adat egy tárolóba került. A támadási vektorok új osztályai és kategóriái jelennek meg a mesterséges intelligencia korszakában; az iparnak még nem kell megbirkóznia a következményekkel, mind e modellek kiberfenyegetésekkel szembeni védelme tekintetében, mind pedig azzal kapcsolatban, hogy ezeket a modelleket hogyan használják eszközként a kiberfenyegetés szereplői.

Rosszindulatú azonnali injekciós technikák alkalmazhatók az index mérgezésére; adatmérgezés használható a súlyok megrongálására; beágyazási támadások, beleértve az inverziós technikákat is, felhasználhatók gazdag adatok kiemelésére a beágyazásokból; A tagságra vonatkozó következtetés felhasználható annak meghatározására, hogy bizonyos adatok szerepeltek-e a képzési halmazban stb., és ez csak a jéghegy csúcsa.

A fenyegetés szereplői modellfordítással és programozott lekérdezéssel hozzáférhetnek bizalmas adatokhoz; megronthatják vagy más módon befolyásolhatják a modell látens viselkedését; és, amint azt korábban említettük, az adatok ellenőrzés nélküli bevitele nagyrészt a trójai falókon keresztüli beágyazott, államilag szponzorált kibertevékenység veszélyéhez vezet.

„Szivárgó” adatvédelem

Az AI-modellek hasznosak az általuk betanított adatkészletek miatt; az adatok válogatás nélküli, nagyarányú felvétele példátlan adatvédelmi kockázatot jelent az egyén és a nagyközönség számára. A mesterséges intelligencia korszakában az adatvédelem társadalmi gondokká vált; nem megfelelőek az elsősorban az egyéni adatjogokra vonatkozó szabályozások.

A statikus adatokon túl elengedhetetlen, hogy a dinamikus párbeszédes üzeneteket IP-címként kezeljék, és meg kell védeni. Ha Ön fogyasztó, és egy modellel közösen létrehoz egy műalkotást, akkor azt szeretné, hogy az ezt a kreatív tevékenységet irányító felszólításait ne a modell betanítására használják fel, vagy más módon ne osszák meg a modell más fogyasztóival.

Ha Ön olyan alkalmazott, aki olyan modellel dolgozik, amely üzleti eredményeket ér el, munkáltatója elvárja, hogy az Ön felszólításai bizalmasak legyenek; továbbá a felszólításoknak és a válaszoknak biztonságos ellenőrzési nyomvonalra van szükségük bármely fél részéről felmerülő felelősségi problémák esetén. Ez elsősorban e modellek sztochasztikus jellegének és a válaszaik időbeli változékonyságának köszönhető.

Mi történik ezután?

Másfajta technológiával van dolgunk, ellentétben a számítástechnika történetében korábban látottak bármelyikével, egy olyan technológiával, amely nagy léptékű feltörekvő, látens viselkedést mutat; a tegnapi biztonsági, adatvédelmi és titoktartási megközelítések már nem működnek.

Az iparági vezetők óvatosságot sugároznak, így a szabályozóknak és a döntéshozóknak nem marad más választásuk, mint a beavatkozás.

Időbélyeg:

Még több CryptoSlate