Securizarea AI: Ce ar trebui să știți

Securizarea AI: Ce ar trebui să știți

Securing AI: What You Should Know PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Instrumentele de învățare automată au făcut parte din fluxurile de lucru standard de afaceri și IT de ani de zile, dar revoluția AI generativă care se desfășoară conduce la o creștere rapidă atât a adoptării, cât și a gradului de conștientizare a acestor instrumente. În timp ce AI oferă avantaje de eficiență în diverse industrii, aceste instrumente puternice emergente necesită considerații speciale de securitate.

Cum este Securizarea AI diferită?

Actuala revoluție AI poate fi nouă, dar echipele de securitate de la Google și din alte părți au lucrat la securitatea AI de mulți ani, dacă nu decenii. In multe feluri, principiile fundamentale pentru securizarea instrumentelor AI sunt aceleași cu cele mai bune practici generale de securitate cibernetică. Necesitatea de a gestiona accesul și de a proteja datele prin tehnici de bază precum criptarea și identitatea puternică nu se schimbă doar pentru că este implicată AI.

Un domeniu în care securizarea AI este diferită este în ceea ce privește securitatea datelor. Instrumentele AI sunt alimentate – și, în cele din urmă, programate – de date, făcându-le vulnerabile la noile atacuri, cum ar fi otrăvirea datelor de antrenament. Actorii rău intenționați care pot alimenta instrumentul AI cu date defecte (sau pot corupa datele de antrenament legitime) îl pot deteriora sau distruge complet într-un mod care este mai complex decât ceea ce se vede cu sistemele tradiționale. Și dacă instrumentul „învață” în mod activ, astfel încât rezultatul său se modifică în funcție de intrare în timp, organizațiile trebuie să îl protejeze împotriva unei abateri față de funcția inițială intenționată.

Cu un sistem tradițional de întreprinderi mari (non-AI), ceea ce obțineți din el este ceea ce puneți în el. Nu veți vedea o ieșire rău intenționată fără o intrare rău intenționată. Dar ca CISO Google a spus Phil Venables într-un podcast recent, „Pentru a implementa [un] sistem AI, trebuie să vă gândiți la gestionarea intrărilor și ieșirilor.”
Complexitatea sistemelor AI și natura lor dinamică le fac mai greu de securizat decât sistemele tradiționale. Trebuie avut grijă atât în ​​etapa de intrare, pentru a monitoriza ceea ce se întâmplă în sistemul AI, cât și în etapa de ieșire, pentru a vă asigura că ieșirile sunt corecte și de încredere.

Implementarea unui cadru AI securizat

Protejarea sistemelor AI și anticiparea noilor amenințări sunt priorități de top pentru a ne asigura că sistemele AI se comportă așa cum este prevăzut. Cadrul Google Secure AI (SAIF) și a acestuia Securizarea AI: similar sau diferit? Raportul sunt locuri bune pentru a începe, oferind o imagine de ansamblu asupra modului de a gândi și aborda provocările specifice de securitate și noile vulnerabilități legate de dezvoltarea IA.

SAIF începe prin a stabili o înțelegere clară a instrumentelor AI pe care organizația dvs. le va folosi și a problemei specifice de afaceri pe care le va aborda. Definirea acestui lucru în avans este crucială, deoarece vă va permite să înțelegeți cine va fi implicat în organizația dvs. și ce date va trebui să acceseze instrumentul (ceea ce va ajuta la guvernarea strictă a datelor și la practicile de siguranță a conținutului necesare pentru a securiza AI). De asemenea, este o idee bună să comunicați cazurile de utilizare adecvate și limitările AI în organizația dvs.; această politică vă poate ajuta să vă protejați împotriva utilizărilor neoficiale ale instrumentelor de inteligență artificială.

După identificarea clară a tipurilor de instrumente și a cazului de utilizare, organizația dvs. ar trebui să adune o echipă pentru a gestiona și monitoriza instrumentul AI. Acea echipă ar trebui să includă echipele dvs. IT și de securitate, dar să implice și echipa dvs. de gestionare a riscurilor și departamentul juridic, precum și să ia în considerare problemele de confidențialitate și etică.

Odată ce ați identificat echipa, este timpul să începeți antrenamentul. Pentru a securiza AI în mod corespunzător în organizația dvs., trebuie să începeți cu un manual care să îi ajute pe toată lumea să înțeleagă ce este instrumentul, ce poate face și unde pot merge prost lucrurile. Atunci când un instrument ajunge în mâinile angajaților care nu sunt instruiți în capacitățile și deficiențele AI, crește semnificativ riscul unui incident problematic.

După ce ați făcut acești pași preliminari, ați pus bazele pentru securizarea AI în organizația dvs. Sunt șase elemente de bază ale SAIF de la Google pe care ar trebui să le implementați, începând cu bazele securizate implicit și progresând până la crearea unor cicluri eficiente de corecție și feedback folosind echipă roșie.

Un alt element esențial al securizării AI este menținerea oamenilor la curent cât mai mult posibil, recunoscând totodată că revizuirea manuală a instrumentelor AI ar putea fi mai bună. Instruirea este vitală pe măsură ce progresați în utilizarea AI în organizația dvs. - instruire și recalificare, nu a instrumentelor în sine, ci a echipelor dvs. Când AI trece dincolo de ceea ce înțeleg și pot verifica oamenii efectivi din organizația dvs., riscul unei probleme crește rapid.

Securitatea AI evoluează rapid și este vital pentru cei care lucrează în domeniu să rămână vigilenți. Este esențial să identificăm potențialele amenințări noi și să dezvoltam contramăsuri pentru a le preveni sau a le atenua, astfel încât AI să poată continua să ajute întreprinderile și persoanele din întreaga lume.

Află mai multe Perspectivele partenerilor din Google Cloud

Timestamp-ul:

Mai mult de la Lectură întunecată