KOMENTARZ
Szybkie przyjęcie technologii sztucznej inteligencji wywołało poważne obawy cybernetyczne wśród ekspertów AI, decydentów, tytanów branży technologicznej, narodów i światowych liderów. W odpowiedzi Agencja ds. Cyberbezpieczeństwa i Infrastruktury (CISA) przedstawiła swoje 2023–2024 „Plan działania CISA w zakresie sztucznej inteligencji”, w celu stworzenia bezpiecznego i godnego zaufania rozwoju i wykorzystania sztucznej inteligencji, zgodnie z zaleceniami Rozporządzenie wykonawcze Białego Domu 14110.
CISA opublikowała swoje „Plan strategiczny” na lata 2023–2025 z misją dostarczania bezpiecznej i odpornej infrastruktury dla amerykańskiego społeczeństwa. Mapa drogowa AI jest adaptacją tych samych czterech celów podkreślonych w planie strategicznym:
-
Cyberobrona: Chociaż systemy sztucznej inteligencji mogą pomóc organizacjom ulepszyć ochronę przed pojawiającymi się i zaawansowanymi zagrożeniami cybernetycznymi, systemy oprogramowania oparte na sztucznej inteligencji stwarzają: ilość zagrożeń które wymagają solidności Obrona AI. Celem planu działania jest promowanie korzystnego wykorzystania sztucznej inteligencji, a jednocześnie ochrona systemów krajowych przed zagrożeniami opartymi na sztucznej inteligencji.
-
Redukcja ryzyka i odporność: Infrastruktura krytyczna organizacje coraz częściej korzystają z systemów sztucznej inteligencji, aby utrzymać i wzmocnić swoją odporność cybernetyczną. Poprzez swój plan działania CISA ma na celu promowanie odpowiedzialnego i świadomego ryzyka wdrażania systemów oprogramowania opartych na sztucznej inteligencji, które są „bezpieczne z założenia” — w przypadku gdy bezpieczeństwo jest wdrażane na etapie projektowania cyklu życia produktu, tak aby można było ograniczyć możliwe do wykorzystania wady u źródła.
-
Współpraca operacyjna: W miarę rozprzestrzeniania się technologii sztucznej inteligencji obywatele USA i sektory infrastruktury krytycznej mogą być narażeni na ukierunkowane zagrożenia, które mogą wymagać wymiany informacji i skoordynowanych reakcji ze strony organizacji, organów ścigania i partnerów międzynarodowych. CISA planuje opracować ramy, które pomogą poprawić dostosowanie i koordynację pomiędzy właściwymi stronami zainteresowanymi.
-
Ujednolicenie agencji: Celem CISA jest ujednolicenie i zintegrowanie systemów oprogramowania AI w całej agencji, co pomoże jej w bardziej spójnym korzystaniu z systemów AI. CISA planuje także rekrutację i rozwój personelu zdolnego do optymalnego wykorzystania systemów sztucznej inteligencji.
Mapa drogowa AI nakłada obowiązek bezpieczeństwa na twórców AI, a nie na konsumentów AI
Historycznie rzecz biorąc, producenci oprogramowania AI opierali się tworzeniu produktów, które są bezpieczne z założenia, nakładając ciężar bezpieczeństwa na konsumentów AI. Mapa drogowa CISA dotycząca sztucznej inteligencji nakłada na producentów systemów sztucznej inteligencji obowiązek stosowania zasad bezpiecznego projektowania przez cały cykl życia oprogramowania. Obejmuje to uczynienie bezpieczeństwa już od samego początku najwyższym priorytetem biznesowym, przejęcie odpowiedzialności za wyniki w zakresie bezpieczeństwa dla klientów oraz wiodący rozwój produktów przy radykalnej przejrzystości i odpowiedzialności.
CISA planuje wdrożyć pięć kierunków działań, aby osiągnąć wyznaczone cele
CISA określiła pięć kierunków działań mających na celu ujednolicenie i przyspieszenie powyższego planu działania:
-
Odpowiedzialne wykorzystanie sztucznej inteligencji: CISA zamierza wdrożyć narzędzia programowe obsługujące sztuczną inteligencję, aby wzmocnić cyberobronę i wspierać infrastrukturę krytyczną. Wszystkie systemy i narzędzia przejdą rygorystyczny proces selekcji, podczas którego CISA upewni się, że systemy związane ze sztuczną inteligencją są odpowiedzialne, bezpieczne, etyczne i bezpieczne w użyciu. CISA wdroży także solidne procesy zarządzania, które będą nie tylko spójne z federalnymi procesami zamówień publicznych, obowiązującymi przepisami i politykami, prywatnością oraz prawami i wolnościami obywatelskimi, ale także przyjmą podejście polegające na ciągłej ocenie modeli sztucznej inteligencji przy jednoczesnym przeglądzie praktyk w zakresie bezpieczeństwa IT w celu bezpiecznej integracji technologia.
-
Zapewnij systemy AI: CISA planuje wspierać rozwój i wdrażanie bezpieczniejszego i bardziej odpornego oprogramowania AI bezpieczne od projektu inicjatywy, opracowywać najlepsze praktyki i wytyczne w zakresie bezpieczeństwa dla szerokiego grona zainteresowanych stron (np. federalnych agencji rządu cywilnego, firm z sektora prywatnego, władz stanowych, lokalnych, plemiennych i terytorialnych) oraz zachęcać do przyjęcia solidnych praktyk zarządzania podatnościami na zagrożenia, określając proces ujawniania luk w zabezpieczeniach oraz zapewnianie wskazówek dotyczących testowania bezpieczeństwa i ćwiczeń red teaming dla systemów AI.
-
Chroń infrastrukturę krytyczną przed złośliwym wykorzystaniem sztucznej inteligencji: CISA będzie współpracować z agencjami rządowymi i partnerami branżowymi, takimi jak Wspólna współpraca w zakresie cyberobrony opracowywać, testować i oceniać narzędzia AI oraz współpracować przy ich rozwoju Zagrożenia AI. CISA opublikuje materiały mające na celu podniesienie świadomości na temat pojawiających się zagrożeń, a także dokona oceny metod zarządzania ryzykiem w celu określenia odpowiednich ram analitycznych do oceny i leczenia zagrożeń związanych ze sztuczną inteligencją.
-
Współpraca z międzyagencjami, partnerami międzynarodowymi i społeczeństwem: Aby podnosić świadomość, dzielić się informacjami o zagrożeniach oraz usprawniać reagowanie na incydenty i możliwości dochodzeniowe, CISA planuje wspierać podejścia oparte na współpracy, takie jak grupy robocze ds. sztucznej inteligencji, uczestnictwo lub uczestnictwo w spotkaniach międzyagencyjnych oraz ścisła koordynacja z podmiotami Departamentu Bezpieczeństwa Wewnętrznego. CISA będzie współpracować między agencjami, aby zapewnić zgodność swoich polityk i strategii z cały rząd podejścia i zaangażuje partnerów międzynarodowych, aby zachęcali do przyjęcia międzynarodowych najlepszych praktyk w zakresie bezpiecznej sztucznej inteligencji.
-
Poszerzaj wiedzę specjalistyczną w zakresie sztucznej inteligencji wśród pracowników: Człowiek czujność, nadzór i intuicja są zawsze potrzebne, aby wykryć zagrożenia cybernetyczne oparte na sztucznej inteligencji i niezwiązane z nią oraz aby zapewnić, że systemy sztucznej inteligencji są wolne od błędów, uprzedzeń i manipulacji. Ludzką intuicję i czujność można wzmocnić jedynie dzięki solidnym inicjatywom zwiększającym świadomość bezpieczeństwa. Właśnie dlatego CISA planuje ciągłe kształcenie pracowników w zakresie systemów i technik oprogramowania AI, rekrutowanie pracowników posiadających wiedzę specjalistyczną w zakresie sztucznej inteligencji oraz prowadzenie programów szkoleniowych w zakresie świadomości bezpieczeństwa, które powinny obejmować ćwiczenia sytuacyjne, aby upewnić się, że pracownicy rozumieją prawne, etyczne i polityczne aspekty rozwiązań opartych na sztucznej inteligencji systemów, poza aspektami technicznymi.
Poprzez inicjatywy określone w planie działania CISA agencja ma nadzieję zbudować solidniejszą pozycję w zakresie cyberbezpieczeństwa w kraju, chronić infrastrukturę krytyczną przed złośliwym wykorzystaniem sztucznej inteligencji i nadać priorytet bezpieczeństwu jako podstawowemu wymaganiu biznesowemu w przypadku narzędzi i systemów opartych na sztucznej inteligencji.
- Dystrybucja treści i PR oparta na SEO. Uzyskaj wzmocnienie już dziś.
- PlatoData.Network Pionowe generatywne AI. Wzmocnij się. Dostęp tutaj.
- PlatoAiStream. Inteligencja Web3. Wiedza wzmocniona. Dostęp tutaj.
- PlatonESG. Węgiel Czysta technologia, Energia, Środowisko, Słoneczny, Gospodarowanie odpadami. Dostęp tutaj.
- Platon Zdrowie. Inteligencja w zakresie biotechnologii i badań klinicznych. Dostęp tutaj.
- Źródło: https://www.darkreading.com/vulnerabilities-threats/cisa-s-ai-road-map-charting-a-course-for-trustworthy-ai-development
- :ma
- :Jest
- :nie
- :Gdzie
- 10
- 11
- 12
- 14
- 15%
- 17
- 7
- 8
- 9
- a
- powyżej
- przyśpieszyć
- odpowiedzialność
- Osiągać
- w poprzek
- adaptacja
- przyjąć
- Przyjęcie
- zaawansowany
- przed
- agencje
- agencja
- AI
- Modele AI
- Ryzyko związane ze sztuczną inteligencją
- Systemy SI
- zmierzać
- Cele
- wyrównać
- wyrównanie
- Wszystkie kategorie
- również
- zawsze
- amerykański
- wśród
- an
- Analityczny
- i
- i infrastruktura
- odpowiedni
- podejście
- awanse
- właściwy
- SĄ
- sztuczny
- sztuczna inteligencja
- AS
- aspekty
- oszacowanie
- At
- uczestniczyć
- świadomość
- BE
- korzystny
- BEST
- Najlepsze praktyki
- uprzedzenia
- grzbiet
- szeroki
- budować
- Budowanie
- ciężar
- biznes
- ale
- by
- CAN
- możliwości
- zdolny
- mistrz
- wykresy
- Okrągłe
- Obywatele
- cywilny
- Prawa obywatelskie
- cywil
- dokładnie
- współpracować
- współpraca
- współpracy
- Firmy
- Prowadzenie
- zgodny
- Konsumenci
- ciągły
- bez przerwy
- skoordynowane
- koordynacja
- koordynacja
- rdzeń
- Kurs
- Tworzenie
- krytyczny
- Infrastruktura krytyczna
- Klientów
- cyber
- Bezpieczeństwo cybernetyczne
- Obrona
- dostarczanie
- Departament
- Departament Bezpieczeństwa Wewnętrznego
- rozwijać
- Wnętrze
- zasady projektowania
- wykryć
- Ustalać
- rozwijać
- deweloperzy
- oprogramowania
- skierowany
- ujawnienie
- napęd
- e
- kształcić
- wysiłek
- wschodzących
- pracowników
- zachęcać
- egzekwowanie
- zobowiązany
- zapewnić
- Cały
- podmioty
- Błędy
- etyczny
- oceniać
- ewoluuje
- wykonawczy
- zarządzenie wykonawcze
- ekspertyza
- eksperci
- Federalny
- pięć
- Skazy
- W razie zamówieenia projektu
- Sprzyjać
- cztery
- Framework
- Darmowy
- od
- Gole
- zarządzanie
- Rząd
- agencje rządowe
- Rządy
- Grupy
- poradnictwo
- Wykorzystywanie
- Have
- pomoc
- pomaga
- Podświetlony
- ojczyzna
- Homeland Security
- ma nadzieję,
- dom
- http
- HTTPS
- człowiek
- ICON
- zidentyfikowane
- wdrożenia
- realizacja
- realizowane
- podnieść
- in
- incydent
- reakcja na incydent
- zawierać
- obejmuje
- coraz bardziej
- przemysł
- partnerów przemysłowych
- Informacja
- Infrastruktura
- inicjatywy
- integrować
- Inteligencja
- zamierza
- na świecie
- intuicja
- badawczy
- IT
- to bezpieczeństwo
- JEGO
- jpg
- Prawo
- egzekwowanie prawa
- Laws
- Przywódcy
- prowadzący
- Regulamin
- wifecycwe
- linie
- miejscowy
- utrzymać
- Dokonywanie
- złośliwy
- i konserwacjami
- mandaty
- Manipulacja
- Producenci
- mapa
- materiały
- Może..
- Spotkania
- metody
- Misja
- modele
- jeszcze
- naród
- Narodów
- potrzebne
- of
- on
- tylko
- odpowiedzialność
- or
- zamówienie
- organizacji
- wyniki
- opisane
- koniec
- Przeoczenie
- własny
- własność
- uczestnictwo
- partnerem
- wzmacniacz
- przechodzić
- faza
- krok po kroku
- plany
- plato
- Analiza danych Platona
- PlatoDane
- polityka
- polityka
- politycy
- poza
- praktyki
- Zasady
- Priorytet
- priorytet
- prywatność
- prywatny
- Sektor prywatny
- wygląda tak
- procesów
- Zamówień
- Produkt
- rozwój produktów
- Produkty
- Programy
- promować
- chronić
- że
- publiczny
- publikować
- Stawia
- Putting
- radykalny
- podnieść
- zasięg
- rekrut
- Czerwony
- Zredukowany
- redukcja
- wydany
- wymagać
- wymaganie
- sprężystość
- sprężysty
- odpowiedź
- Odpowiedzi
- odpowiedzialny
- recenzowanie
- prawa
- rygorystyczny
- Ryzyko
- Zarządzanie ryzykiem
- ryzyko
- droga
- mapa drogowa
- krzepki
- s
- "bezpiecznym"
- taki sam
- sektor
- Sektory
- bezpieczne
- bezpiecznie
- bezpieczeństwo
- Świadomość bezpieczeństwa
- wybór
- Share
- dzielenie
- powinien
- So
- Tworzenie
- rozwoju oprogramowania
- Źródło
- zaiskrzyło
- interesariusze
- Stanford
- Stan
- stwierdził,
- Strategiczny
- strategie
- Wzmacniać
- wzmocniony
- silny
- taki
- wsparcie
- system
- systemy
- biorąc
- ukierunkowane
- tech
- przemysł technologiczny
- Techniczny
- Techniki
- Technologia
- test
- Testowanie
- że
- Połączenia
- Źródło
- ich
- to
- groźba
- zagrożenia
- Przez
- poprzez
- czas
- tytani
- do
- narzędzia
- Top
- Trening
- Przezroczystość
- leczenie
- plemienny
- godny zaufania
- zrozumieć
- odsłonięty
- us
- posługiwać się
- za pomocą
- czujność
- wrażliwość
- DOBRZE
- który
- Podczas
- dlaczego
- będzie
- w
- Praca
- Siła robocza
- pracujący
- Grupy robocze
- świat
- zefirnet