Black Hat 2023 – A mesterséges intelligencia nagy védődíjat kap

Black Hat 2023 – A mesterséges intelligencia nagy védődíjat kap

Digitális biztonság

A Black Hat idén nagy népszerűségnek örvend az AI-n, és ennek jó oka van

Black Hat 2023: Az AI nagy védődíjat kap

A Black Hat vitaindító egy sor biztonsági problémát ügetett, amelyeket az AI próbál kijavítani, és egy sor szédületes tömböt, amelyeket akaratlanul is okozhat, vagy tényleg, csak egy hatalmas új támadási felületet írt le, amelyet az a dolog hozott létre, amelynek a biztonságot "megjavítania" kellett volna. .

De ha a DARPA-nak megvan a maga módja, akkor az AI Cyber ​​Challenge (AIxCC) kijavítja ezt azáltal, hogy hatalmas összegeket (millió dollárt) dömpingelt pénznyereményként a mesterséges intelligencia biztonsági problémáinak megoldására, amelyet az elkövetkező években bevezetnek a DEF CON-on. Ez elegendő ahhoz, hogy néhány törekvő csapat felpörgesse a saját szkunkmunkáját, hogy azokra a kérdésekre összpontosítson, amelyeket a DARPA az iparban dolgozó munkatársaival együtt fontosnak tart.

A jövő évi DEF CON legjobb öt csapata 2 millió dollárt gyűjthet minden az elődöntőben – nem kis összeg a kezdő hackereknek –, amelyet több mint 8 millió dollár (összesen) követ, ha nyer a döntőben. Ez nem cuki változás, még ha nem is anyukád pincéjében laksz.

Az AI kérdései

Néhány jelenlegi mesterséges intelligencia (például a nyelvi modellek) egyik fő problémája az, hogy nyilvános. Azáltal, hogy a lehető legtöbb internetet felfalja, megpróbál egyre pontosabb korszellemet létrehozni minden hasznos dologról, például a kérdések és válaszok összefüggéseiről, amelyeket feltehetünk, kontextusra következtet, feltételezéseket készít, és megpróbál létrehozni. előrejelzési modell.

Csakhogy kevés vállalat szeretne megbízni egy nyilvános modellben, amely belső érzékeny adatait felhasználva táplálja a fenevadat és nyilvánosságra hozza azokat. Semmiféle bizalmi lánc nincs abban a döntéshozatalban, amit a nagy nyelvi modellek a nyilvánosság elé hoznak. Létezik-e az érzékeny információk megbízható szerkesztése, vagy olyan modell, amely tanúsíthatja azok integritását és biztonságát? Nem.

Mi a helyzet azzal, hogy megvédjük a jogilag védett dolgokat, mint például a könyveket, képeket, kódokat, zenéket és hasonlókat, nehogy ál-asszimilálódjanak az LLM-ek képzésére használt óriás golyóba? Lehet vitatkozni, hogy valójában magát a dolgot nem használják helytelenül, de minden bizonnyal arra használják, hogy termékeiket kereskedelmi sikerre oktassák a piacon. Ez megfelelő? A jogi szakértők erre nem igazán jöttek rá.

ChatGPT – a közelgő dolgok jele?

Részt vettem a ChatGPT adathalászatról szóló ülésen, amely szintén újonnan felpörgetett fenyegetésnek ígérkezik, mivel az LLM-ek a fényképeket, a kapcsolódó beszélgetéseket és egyéb adatokat is asszimilálják, hogy szintetizálják az egyén hangnemét és árnyalatait, majd esetleg ravasz e-mailt küldenek Önnek. nehéz lenne hamisként észlelni. Ami tényleg rossz hírnek tűnik.

A jó hír azonban az, hogy a hamarosan megjelenő multimodell LLM funkciónak köszönhetően elküldheti a botját egy Zoom megbeszélésre, hogy jegyzeteket készítsen Önnek, meghatározza a szándékot a résztvevők interakciója alapján, megítélje a hangulatot és feldolgozza a képernyőn megjelenő dokumentumok tartalmát. megosztani, és elmondani, mi az, amire valószínűleg válaszolnia kellene, és még mindig úgy tűnik, hogy ott volt. Ez valóban jó tulajdonság lehet, ha hihetetlenül csábító.

De mi lesz ennek az AI LLM trendnek a tényleges végeredménye? Vajon az emberiség javulását szolgálja, vagy szétrobban, mint a kriptoblokklánc buborék régen tette? És ha bármi más, vajon készek vagyunk-e szembenézni a valós következményekkel, amelyeknek? sok lehet, előre?

Kapcsolódó olvasmány: A ChatGPT elkezd gyilkos kártevőket írni?

Időbélyeg:

Még több Biztonságban élünk