Mapa drogowa CISA: wytyczenie kursu na rzecz rozwoju godnej zaufania sztucznej inteligencji

Mapa drogowa CISA: wytyczenie kursu na rzecz rozwoju godnej zaufania sztucznej inteligencji

Mapa drogowa CISA: Wyznaczanie kursu godnego zaufania rozwoju sztucznej inteligencji PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

KOMENTARZ
Szybkie przyjęcie technologii sztucznej inteligencji wywołało poważne obawy cybernetyczne wśród ekspertów AI, decydentów, tytanów branży technologicznej, narodów i światowych liderów. W odpowiedzi Agencja ds. Cyberbezpieczeństwa i Infrastruktury (CISA) przedstawiła swoje 2023–2024 „Plan działania CISA w zakresie sztucznej inteligencji”, w celu stworzenia bezpiecznego i godnego zaufania rozwoju i wykorzystania sztucznej inteligencji, zgodnie z zaleceniami Rozporządzenie wykonawcze Białego Domu 14110.

CISA opublikowała swoje „Plan strategiczny” na lata 2023–2025 z misją dostarczania bezpiecznej i odpornej infrastruktury dla amerykańskiego społeczeństwa. Mapa drogowa AI jest adaptacją tych samych czterech celów podkreślonych w planie strategicznym:

  • Cyberobrona: Chociaż systemy sztucznej inteligencji mogą pomóc organizacjom ulepszyć ochronę przed pojawiającymi się i zaawansowanymi zagrożeniami cybernetycznymi, systemy oprogramowania oparte na sztucznej inteligencji stwarzają: ilość zagrożeń które wymagają solidności Obrona AI. Celem planu działania jest promowanie korzystnego wykorzystania sztucznej inteligencji, a jednocześnie ochrona systemów krajowych przed zagrożeniami opartymi na sztucznej inteligencji.

  • Redukcja ryzyka i odporność: Infrastruktura krytyczna organizacje coraz częściej korzystają z systemów sztucznej inteligencji, aby utrzymać i wzmocnić swoją odporność cybernetyczną. Poprzez swój plan działania CISA ma na celu promowanie odpowiedzialnego i świadomego ryzyka wdrażania systemów oprogramowania opartych na sztucznej inteligencji, które są „bezpieczne z założenia” — w przypadku gdy bezpieczeństwo jest wdrażane na etapie projektowania cyklu życia produktu, tak aby można było ograniczyć możliwe do wykorzystania wady u źródła.

  • Współpraca operacyjna: W miarę rozprzestrzeniania się technologii sztucznej inteligencji obywatele USA i sektory infrastruktury krytycznej mogą być narażeni na ukierunkowane zagrożenia, które mogą wymagać wymiany informacji i skoordynowanych reakcji ze strony organizacji, organów ścigania i partnerów międzynarodowych. CISA planuje opracować ramy, które pomogą poprawić dostosowanie i koordynację pomiędzy właściwymi stronami zainteresowanymi.

  • Ujednolicenie agencji: Celem CISA jest ujednolicenie i zintegrowanie systemów oprogramowania AI w całej agencji, co pomoże jej w bardziej spójnym korzystaniu z systemów AI. CISA planuje także rekrutację i rozwój personelu zdolnego do optymalnego wykorzystania systemów sztucznej inteligencji.

Mapa drogowa AI nakłada obowiązek bezpieczeństwa na twórców AI, a nie na konsumentów AI

Historycznie rzecz biorąc, producenci oprogramowania AI opierali się tworzeniu produktów, które są bezpieczne z założenia, nakładając ciężar bezpieczeństwa na konsumentów AI. Mapa drogowa CISA dotycząca sztucznej inteligencji nakłada na producentów systemów sztucznej inteligencji obowiązek stosowania zasad bezpiecznego projektowania przez cały cykl życia oprogramowania. Obejmuje to uczynienie bezpieczeństwa już od samego początku najwyższym priorytetem biznesowym, przejęcie odpowiedzialności za wyniki w zakresie bezpieczeństwa dla klientów oraz wiodący rozwój produktów przy radykalnej przejrzystości i odpowiedzialności.

CISA planuje wdrożyć pięć kierunków działań, aby osiągnąć wyznaczone cele

CISA określiła pięć kierunków działań mających na celu ujednolicenie i przyspieszenie powyższego planu działania:

  • Odpowiedzialne wykorzystanie sztucznej inteligencji: CISA zamierza wdrożyć narzędzia programowe obsługujące sztuczną inteligencję, aby wzmocnić cyberobronę i wspierać infrastrukturę krytyczną. Wszystkie systemy i narzędzia przejdą rygorystyczny proces selekcji, podczas którego CISA upewni się, że systemy związane ze sztuczną inteligencją są odpowiedzialne, bezpieczne, etyczne i bezpieczne w użyciu. CISA wdroży także solidne procesy zarządzania, które będą nie tylko spójne z federalnymi procesami zamówień publicznych, obowiązującymi przepisami i politykami, prywatnością oraz prawami i wolnościami obywatelskimi, ale także przyjmą podejście polegające na ciągłej ocenie modeli sztucznej inteligencji przy jednoczesnym przeglądzie praktyk w zakresie bezpieczeństwa IT w celu bezpiecznej integracji technologia.

  • Zapewnij systemy AI: CISA planuje wspierać rozwój i wdrażanie bezpieczniejszego i bardziej odpornego oprogramowania AI bezpieczne od projektu inicjatywy, opracowywać najlepsze praktyki i wytyczne w zakresie bezpieczeństwa dla szerokiego grona zainteresowanych stron (np. federalnych agencji rządu cywilnego, firm z sektora prywatnego, władz stanowych, lokalnych, plemiennych i terytorialnych) oraz zachęcać do przyjęcia solidnych praktyk zarządzania podatnościami na zagrożenia, określając proces ujawniania luk w zabezpieczeniach oraz zapewnianie wskazówek dotyczących testowania bezpieczeństwa i ćwiczeń red teaming dla systemów AI.

  • Chroń infrastrukturę krytyczną przed złośliwym wykorzystaniem sztucznej inteligencji: CISA będzie współpracować z agencjami rządowymi i partnerami branżowymi, takimi jak Wspólna współpraca w zakresie cyberobrony opracowywać, testować i oceniać narzędzia AI oraz współpracować przy ich rozwoju Zagrożenia AI. CISA opublikuje materiały mające na celu podniesienie świadomości na temat pojawiających się zagrożeń, a także dokona oceny metod zarządzania ryzykiem w celu określenia odpowiednich ram analitycznych do oceny i leczenia zagrożeń związanych ze sztuczną inteligencją.

  • Współpraca z międzyagencjami, partnerami międzynarodowymi i społeczeństwem: Aby podnosić świadomość, dzielić się informacjami o zagrożeniach oraz usprawniać reagowanie na incydenty i możliwości dochodzeniowe, CISA planuje wspierać podejścia oparte na współpracy, takie jak grupy robocze ds. sztucznej inteligencji, uczestnictwo lub uczestnictwo w spotkaniach międzyagencyjnych oraz ścisła koordynacja z podmiotami Departamentu Bezpieczeństwa Wewnętrznego. CISA będzie współpracować między agencjami, aby zapewnić zgodność swoich polityk i strategii z cały rząd podejścia i zaangażuje partnerów międzynarodowych, aby zachęcali do przyjęcia międzynarodowych najlepszych praktyk w zakresie bezpiecznej sztucznej inteligencji.

  • Poszerzaj wiedzę specjalistyczną w zakresie sztucznej inteligencji wśród pracowników: Człowiek czujność, nadzór i intuicja są zawsze potrzebne, aby wykryć zagrożenia cybernetyczne oparte na sztucznej inteligencji i niezwiązane z nią oraz aby zapewnić, że systemy sztucznej inteligencji są wolne od błędów, uprzedzeń i manipulacji. Ludzką intuicję i czujność można wzmocnić jedynie dzięki solidnym inicjatywom zwiększającym świadomość bezpieczeństwa. Właśnie dlatego CISA planuje ciągłe kształcenie pracowników w zakresie systemów i technik oprogramowania AI, rekrutowanie pracowników posiadających wiedzę specjalistyczną w zakresie sztucznej inteligencji oraz prowadzenie programów szkoleniowych w zakresie świadomości bezpieczeństwa, które powinny obejmować ćwiczenia sytuacyjne, aby upewnić się, że pracownicy rozumieją prawne, etyczne i polityczne aspekty rozwiązań opartych na sztucznej inteligencji systemów, poza aspektami technicznymi. 

Poprzez inicjatywy określone w planie działania CISA agencja ma nadzieję zbudować solidniejszą pozycję w zakresie cyberbezpieczeństwa w kraju, chronić infrastrukturę krytyczną przed złośliwym wykorzystaniem sztucznej inteligencji i nadać priorytet bezpieczeństwu jako podstawowemu wymaganiu biznesowemu w przypadku narzędzi i systemów opartych na sztucznej inteligencji.

Znak czasu:

Więcej z Mroczne czytanie