Zabezpieczanie sztucznej inteligencji: co powinieneś wiedzieć

Zabezpieczanie sztucznej inteligencji: co powinieneś wiedzieć

Zabezpieczanie sztucznej inteligencji: co powinieneś wiedzieć PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Narzędzia do uczenia maszynowego są od lat częścią standardowych przepływów pracy w biznesie i IT, ale rozwijająca się rewolucja generatywnej sztucznej inteligencji powoduje szybki wzrost zarówno wykorzystania tych narzędzi, jak i świadomości ich stosowania. Chociaż sztuczna inteligencja zapewnia korzyści w zakresie wydajności w różnych branżach, te potężne, pojawiające się narzędzia wymagają specjalnych względów bezpieczeństwa.

Czym różni się zabezpieczanie sztucznej inteligencji?

Obecna rewolucja w zakresie sztucznej inteligencji może być nowością, ale zespoły ds. bezpieczeństwa w Google i innych miejscach pracują nad bezpieczeństwem sztucznej inteligencji od wielu lat, jeśli nie dziesięcioleci. Na wiele sposobówpodstawowe zasady zabezpieczania narzędzi sztucznej inteligencji są takie same, jak ogólne najlepsze praktyki w zakresie cyberbezpieczeństwa. Konieczność zarządzania dostępem i ochrony danych za pomocą podstawowych technik, takich jak szyfrowanie i silna tożsamość, nie zmienia się tylko dlatego, że zaangażowana jest sztuczna inteligencja.

Jednym z obszarów, w którym zabezpieczanie sztucznej inteligencji jest inne, są aspekty bezpieczeństwa danych. Narzędzia AI zasilane są – i ostatecznie programowane – danymi, co czyni je podatnymi na nowe ataki, takie jak zatruwanie danych szkoleniowych. Złośliwi uczestnicy, którzy mogą dostarczyć narzędziu sztucznej inteligencji wadliwe dane (lub uszkodzone legalne dane szkoleniowe), mogą potencjalnie je uszkodzić lub wręcz złamać w sposób bardziej złożony niż w przypadku tradycyjnych systemów. A jeśli narzędzie aktywnie się „uczy”, więc jego wyniki zmieniają się w miarę upływu czasu w zależności od wprowadzonych danych, organizacje muszą zabezpieczyć je przed odejściem od pierwotnie zamierzonej funkcji.

W przypadku tradycyjnego (nieobjętego sztuczną inteligencją) systemu dla dużych przedsiębiorstw to, co z niego uzyskasz, będzie tym, co w niego włożysz. Nie zobaczysz złośliwego wyniku bez złośliwych danych wejściowych. Ale jako CISO Google, Phil Venables, powiedział w niedawnym podcaście„Aby wdrożyć system sztucznej inteligencji, należy pomyśleć o zarządzaniu danymi wejściowymi i wyjściowymi”.
Złożoność systemów sztucznej inteligencji i ich dynamiczny charakter sprawiają, że trudniej je zabezpieczyć niż tradycyjne systemy. Należy zachować ostrożność zarówno na etapie wejściowym, aby monitorować, co trafia do systemu sztucznej inteligencji, jak i na etapie wyjściowym, aby zapewnić prawidłowe i wiarygodne wyniki.

Wdrażanie bezpiecznych ram AI

Ochrona systemów sztucznej inteligencji i przewidywanie nowych zagrożeń to najważniejsze priorytety zapewniające, że systemy sztucznej inteligencji działają zgodnie z zamierzeniami. Bezpieczne ramy sztucznej inteligencji Google (SAIF) i jego Zabezpieczanie sztucznej inteligencji: podobne czy różne? raporty to dobry punkt wyjścia, zapewniający przegląd sposobów myślenia o poszczególnych wyzwaniach związanych z bezpieczeństwem i nowych lukach w zabezpieczeniach związanych z rozwojem sztucznej inteligencji oraz radzenia sobie z nimi.

SAIF zaczyna od ustalenia jasnego zrozumienia, jakich narzędzi sztucznej inteligencji będzie używać Twoja organizacja i jakim konkretnym problemem biznesowym się zajmie. Zdefiniowanie tego na początku jest kluczowe, ponieważ pozwoli Ci zrozumieć, kto w Twojej organizacji będzie zaangażowany i do jakich danych narzędzie będzie musiało uzyskać dostęp (co pomoże w rygorystycznym zarządzaniu danymi i praktykach w zakresie bezpieczeństwa treści niezbędnych do zabezpieczenia sztucznej inteligencji). Dobrym pomysłem jest również komunikowanie odpowiednich przypadków użycia i ograniczeń sztucznej inteligencji w całej organizacji; ta polityka może pomóc w ochronie przed nieoficjalnym wykorzystaniem narzędzi AI w „cieniu IT”.

Po jasnym określeniu typów narzędzi i przypadków użycia Twoja organizacja powinna stworzyć zespół, który będzie zarządzał narzędziem AI i monitorował je. Zespół ten powinien obejmować zespoły IT i bezpieczeństwa, ale także zespół ds. zarządzania ryzykiem i dział prawny, a także uwzględniać kwestie prywatności i etyki.

Kiedy już ustalisz skład zespołu, czas rozpocząć szkolenie. Aby właściwie zabezpieczyć sztuczną inteligencję w swojej organizacji, musisz zacząć od podstaw, który pomoże każdemu zrozumieć, czym jest to narzędzie, co może zrobić i gdzie może pójść nie tak. Kiedy narzędzie trafia w ręce pracowników, którzy nie są przeszkoleni w zakresie możliwości i wad AI, znacznie zwiększa to ryzyko wystąpienia problematycznego incydentu.

Po wykonaniu tych wstępnych kroków położyłeś podwaliny pod zabezpieczenie sztucznej inteligencji w swojej organizacji. Tam są sześć podstawowych elementów SAIF Google które powinieneś wdrożyć, zaczynając od podstaw zabezpieczeń domyślnych i kończąc na tworzeniu skutecznych cykli korekt i informacji zwrotnych przy użyciu czerwony zespół.

Innym istotnym elementem zabezpieczania sztucznej inteligencji jest możliwie najszersze informowanie ludzi, przy jednoczesnym uznaniu, że ręczny przegląd narzędzi sztucznej inteligencji mógłby być lepszy. Szkolenia są niezbędne w miarę postępów w korzystaniu ze sztucznej inteligencji w organizacji — szkolenia i przekwalifikowanie nie dotyczą samych narzędzi, ale zespołów. Kiedy sztuczna inteligencja wykracza poza to, co rozumieją pracownicy Twojej organizacji i mogą ją dokładnie sprawdzić, ryzyko wystąpienia problemu gwałtownie wzrasta.

Bezpieczeństwo sztucznej inteligencji szybko się rozwija, dlatego osoby pracujące w terenie muszą zachować czujność. Identyfikacja potencjalnych nowych zagrożeń i opracowanie środków zaradczych w celu zapobiegania im lub łagodzenia ich jest niezwykle istotne, aby sztuczna inteligencja mogła w dalszym ciągu pomagać przedsiębiorstwom i osobom na całym świecie.

Czytaj więcej Perspektywy partnerów z Google Cloud

Znak czasu:

Więcej z Mroczne czytanie