Cele mai importante trei probleme de confidențialitate a datelor cu care se confruntă AI astăzi - The Daily Hodl

Cele mai importante trei probleme de confidențialitate a datelor cu care se confruntă AI astăzi – The Daily Hodl

HodlX Guest Post  Trimite-ți postarea

 

AI (inteligența artificială) a provocat entuziasm frenetic atât în ​​rândul consumatorilor, cât și în rândul întreprinderilor - condus de credința pasionată că LLM-urile (modele mari de limbă) și instrumentele precum ChatGPT vor transforma modul în care studiem, lucrăm și trăim.

Dar la fel ca în primele zile ale internetului, utilizatorii intervin fără să se gândească la modul în care sunt folosite datele lor personale - Ași impactul pe care acest lucru l-ar putea avea asupra vieții private.

Au existat deja nenumărate exemple de încălcări ale datelor în spațiul AI. În martie 2023, OpenAI a preluat temporar ChatGPT Offline după ce o eroare „semnificativă” a însemnat utilizatorii au putut vedea istoricul conversațiilor străinilor.

Aceeași eroare a însemnat informațiile de plată ale abonaților - inclusiv nume, adrese de e-mail și numere parțiale de card de credit - erau, de asemenea, în domeniul public.

În septembrie 2023, un uluitor de 38 de terabytes de date Microsoft au fost din neatenție scurgeri de către un angajat, experții în securitate cibernetică avertizând că acest lucru ar fi putut permite atacatorilor să se infiltreze în modele AI cu cod rău intenționat.

De asemenea, cercetătorii au putut manipula Sistemele AI în dezvăluirea înregistrărilor confidențiale.

În doar câteva ore, un grup numit Robust Intelligence a reușit să solicite informații de identificare personală din software-ul Nvidia și să ocolească măsurile de siguranță menite să împiedice sistemul să discute anumite subiecte.

S-au învățat lecții în toate aceste scenarii, dar fiecare încălcare ilustrează puternic provocările care trebuie depășite pentru ca AI să devină o forță de încredere și de încredere în viața noastră.

Gemeni, chatbot-ul Google, chiar admite că toate conversațiile sunt procesate de recenzori umani - subliniind lipsa de transparență în sistemul său.

„Nu introduceți nimic din ceea ce nu ați dori să fie revizuit sau folosit”, spune o alertă pentru utilizatori avertizează.

Inteligența artificială trece rapid dincolo de un instrument pe care studenții îl folosesc pentru teme sau pe care se bazează turiștii pentru recomandări în timpul unei călătorii la Roma.

Se depinde din ce în ce mai mult de el pentru discuții sensibile - și a hrănit totul, de la întrebări medicale la programul nostru de lucru.

Din acest motiv, este important să facem un pas înapoi și să reflectăm la primele trei probleme de confidențialitate a datelor cu care se confruntă AI astăzi și de ce contează pentru noi toți.

1. Solicitările nu sunt private

Instrumente precum ChatGPT memorează conversațiile anterioare pentru a se referi la ele mai târziu. Deși acest lucru poate îmbunătăți experiența utilizatorului și poate ajuta la formarea LLM-urilor, vine cu riscuri.

Dacă un sistem este piratat cu succes, există un pericol real ca solicitările să fie expuse într-un forum public.

Detaliile potențial jenante din istoricul unui utilizator ar putea fi scurse, precum și informații sensibile din punct de vedere comercial atunci când AI este implementat în scopuri profesionale.

După cum am văzut de la Google, toate trimiterile pot ajunge, de asemenea, să fie examinate de echipa sa de dezvoltare.

Samsung a luat măsuri în acest sens în mai 2023, când a interzis angajaților să folosească instrumente AI generative. Asta a venit după un angajat încărcat cod sursă confidențial către ChatGPT.

Gigantul tehnologic era îngrijorat de faptul că aceste informații vor fi dificil de regăsit și șterse, ceea ce înseamnă că IP (proprietatea intelectuală) ar putea ajunge să fie distribuită publicului larg.

Apple, Verizon și JPMorgan au luat măsuri similare, rapoarte care sugerează că Amazon a lansat o represiune după ce răspunsurile de la ChatGPT au avut asemănări cu propriile date interne.

După cum puteți vedea, preocupările se extind dincolo de ceea ce s-ar întâmpla dacă ar exista o încălcare a datelor, ci la perspectiva că informațiile introduse în sistemele AI ar putea fi reutilizate și distribuite unui public mai larg.

Companii precum OpenAI sunt deja cu care se confruntă mai multe procese pe fondul acuzațiilor că chatbot-ii lor au fost instruiți folosind materiale protejate prin drepturi de autor.

2. Modelele personalizate de AI instruite de organizații nu sunt private

Acest lucru ne duce clar la următorul nostru punct - în timp ce indivizii și corporațiile își pot stabili modelele LLM personalizate pe baza propriilor surse de date, acestea nu vor fi complet private dacă există în limitele unei platforme precum ChatGPT.

În cele din urmă, nu există nicio modalitate de a ști dacă intrările sunt folosite pentru a antrena aceste sisteme masive - sau dacă informațiile personale ar putea ajunge să fie utilizate în modelele viitoare.

Ca un puzzle, punctele de date din mai multe surse pot fi reunite pentru a forma o perspectivă cuprinzătoare și îngrijorător de detaliată asupra identității și fundalului cuiva.

De asemenea, platformele majore pot să nu ofere explicații detaliate cu privire la modul în care aceste date sunt stocate și procesate, cu imposibilitatea de a renunța la funcțiile cu care un utilizator nu se simte confortabil.

Dincolo de a răspunde la solicitările unui utilizator, sistemele AI au tot mai mult capacitatea de a citi printre rânduri și de a deduce totul, de la locația unei persoane până la personalitatea acesteia.

În cazul unei încălcări a datelor, sunt posibile consecințe grave. Ar putea fi orchestrate atacuri de phishing incredibil de sofisticate - și utilizatorii vizați cu informații pe care le-au introdus confidențial într-un sistem AI.

Alte scenarii potențiale includ că aceste date sunt folosite pentru a-și asuma identitatea cuiva, fie prin intermediul aplicațiilor pentru deschiderea de conturi bancare, fie prin intermediul videoclipurilor deepfake.

Consumatorii trebuie să rămână vigilenți chiar dacă ei înșiși nu folosesc inteligența artificială. AI este din ce în ce mai folosită pentru a alimenta sistemele de supraveghere și pentru a îmbunătăți tehnologia de recunoaștere facială în locuri publice.

Dacă o astfel de infrastructură nu este stabilită într-un mediu cu adevărat privat, libertățile civile și intimitatea nenumăraților cetățeni ar putea fi încălcate fără știrea acestora.

3. Datele private sunt folosite pentru a instrui sistemele AI

Există îngrijorări că sistemele AI majore și-au adunat inteligența analizând nenumărate pagini web.

Estimările sugerează că au fost folosite 300 de miliarde de cuvinte pentru a antrena ChatGPT - adică 570 gigaocteți de date - cu cărți și intrări Wikipedia printre seturile de date.

De asemenea, se știe că algoritmii depind de paginile de social media și de comentariile online.

Cu unele dintre aceste surse, ați putea argumenta că proprietarii acestor informații ar fi avut o așteptare rezonabilă de confidențialitate.

Dar aici este chestia - multe dintre instrumentele și aplicațiile cu care interacționăm în fiecare zi sunt deja puternic influențate de AI - și reacționează la comportamentele noastre.

Face ID de pe iPhone-ul tău folosește AI pentru a urmări modificările subtile ale aspectului tău.

TikTok și algoritmii bazați pe inteligență artificială ai Facebook fac recomandări de conținut pe baza clipurilor și postărilor pe care le-ați vizualizat în trecut.

Asistenții vocali precum Alexa și Siri depind și ei în mare măsură de învățarea automată.

O constelație amețitoare de startup-uri AI există și fiecare are un scop specific. Cu toate acestea, unele sunt mai transparente decât altele cu privire la modul în care datele utilizatorilor sunt adunate, stocate și aplicate.

Acest lucru este deosebit de important deoarece AI are un impact în domeniul asistenței medicale - de la imagistica medicală și diagnostice până la evidența și produsele farmaceutice.

Trebuie învățate lecții de la companiile de pe internet prinse în scandalurile de confidențialitate din ultimii ani.

Flo, o aplicație pentru sănătatea femeilor, era acuzat de către autoritățile de reglementare a împărtășit detalii intime despre utilizatorii săi unor persoane precum Facebook și Google în anii 2010.

Unde mergem de aici

AI va avea un impact de neșters asupra tuturor vieților noastre în anii următori. LLM-urile devin din ce în ce mai bune cu fiecare zi care trece, iar noi cazuri de utilizare continuă să apară.

Cu toate acestea, există un risc real ca autoritățile de reglementare să se lupte să țină pasul pe măsură ce industria se mișcă cu o viteză vertiginoasă.

Și asta înseamnă că consumatorii trebuie să înceapă să-și securizeze propriile date și să monitorizeze modul în care sunt utilizate.

Descentralizarea poate juca un rol vital aici și poate împiedica ca volume mari de date să cadă în mâinile platformelor majore.

DePIN-urile (rețele de infrastructură fizică descentralizată) au potențialul de a se asigura că utilizatorii obișnuiți experimentează toate beneficiile AI fără ca confidențialitatea lor să fie compromisă.

Nu numai că solicitările criptate pot oferi rezultate mult mai personalizate, dar LLM-urile care păstrează confidențialitatea ar asigura utilizatorilor controlul total asupra datelor lor în orice moment - și protecție împotriva utilizării abuzive a acestuia.


Chris Were este CEO al Verida, o rețea de date descentralizată, autonomă, care dă indivizii posibilitatea de a-și controla identitatea digitală și datele personale. Chris este un antreprenor de tehnologie cu sediul în Australia, care și-a petrecut mai bine de 20 de ani devotați dezvoltării de soluții software inovatoare.

 

Verificați Ultimele titluri pe HodlX

Urmareste-ne pe Twitter Facebook Telegramă

Check out Ultimele anunțuri din industrie  

Top Three Data Privacy Issues Facing AI Today - The Daily Hodl PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Disclaimer: Opiniile exprimate la The Daily Hodl nu sunt sfaturi pentru investiții. Investitorii ar trebui să-și îndeplinească diligențele înainte de a efectua investiții cu risc ridicat în Bitcoin, criptomonede sau active digitale. Vă rugăm să vă informați că transferurile și tranzacțiile dvs. sunt pe propriul dvs. risc, iar orice pierdere pe care o puteți suferi este responsabilitatea dumneavoastră. Daily Hodl nu recomandă cumpărarea sau vânzarea de criptomonede sau active digitale și nici The Daily Hodl nu este un consilier în investiții. Vă rugăm să rețineți că The Daily Hodl participă la marketingul afiliat.

Imagine generată: Midjourney

Timestamp-ul:

Mai mult de la Daily Hodl