Złoty wiek sztucznej inteligencji… czy zagrożenia bezpieczeństwa?

Złoty wiek sztucznej inteligencji… czy zagrożenia bezpieczeństwa?

Złoty wiek sztucznej inteligencji… czy zagrożenia bezpieczeństwa? Inteligencja danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Czy żyjemy w złotej erze sztucznej inteligencji? Trudno jest przewidywać – i prawdopodobnie jest to nierozsądne. Kto chce przewidzieć przyszłość takiej nowej technologii?

Pewne rzeczy możemy jednak powiedzieć na pewno. Wiele mówi się o zastosowaniu sztucznej inteligencji w dziełach twórczych, od aktorstwa głosowego po pierwsze szkice scenariuszy. Jednak sztuczna inteligencja będzie prawdopodobnie najbardziej przydatna w obliczu ciężkiej pracy. To dobra wiadomość dla programistów, jeśli obietnice pokrywają się z wczesnymi eksperymentami — można łatwo utworzyć pierwsze wersje kodu, które będą gotowe do poprawiania i iterowania przez programistów.

Należy jednak o tym pamiętać nie każdy programista pracuje w legalnej firmie. Tak jak podmioty zagrażające cyberbezpieczeństwu naśladują swoje cele, stając się bardziej biznesowi, tak samo wdrażają nowe technologie i techniki. Możemy oczekiwać, że sztuczna inteligencja pomoże w rozwoju złośliwego oprogramowania i innych zagrożeń w nadchodzących latach, niezależnie od tego, czy wkraczamy w złoty wiek sztucznej inteligencji, czy nie.

Tworzenie kodu i oszustwa

Jednym z trendów, jaki zaobserwowaliśmy w ostatnich latach, jest wzrost liczby ofert „jako usługa”. Pierwsi hakerzy zajmowali się majsterkowaniem i psotami, oszukując systemy telefoniczne lub powodując chaos, głównie w ramach zabawy. To uległo zasadniczej zmianie. Podmioty zagrażające są profesjonalistami i często sprzedają swoje produkty, aby inni mogli z nich skorzystać.

Sztuczna inteligencja bardzo dobrze wpasuje się w ten sposób pracy. Sztuczna inteligencja, zdolna do tworzenia kodu rozwiązującego określone problemy, może modyfikować kod w celu wykrycia luk w zabezpieczeniach lub przejąć istniejący kod i zmienić go tak, aby nie był tak łatwo wykryty przez środki bezpieczeństwa szukające określonych wzorców.

Na tym jednak nie kończą się możliwości niewłaściwego wykorzystania sztucznej inteligencji. Wiele e-maili phishingowych jest wykrywanych przez skuteczne narzędzia filtrujące i trafia do folderów-śmieci. Te, które trafiają do skrzynki odbiorczej, to często ewidentne oszustwa, napisane tak źle, że są na granicy niezrozumiałości. Sztuczna inteligencja może jednak przełamać ten schemat, tworząc tysiące wiarygodnych e-maili, które mogą uniknąć wykrycia i być na tyle dobrze napisane, aby oszukać zarówno filtry, jak i użytkowników końcowych.

Spear-phishing, bardziej ukierunkowana forma tego ataku, również może zostać zrewolucjonizowany dzięki tej technologii. Jasne, łatwo jest zignorować e-mail od szefa z prośbą o przelanie gotówki lub pilny zakup kart podarunkowych — szkolenie z zakresu cyberbezpieczeństwa pomaga pracownikom uniknąć tego rodzaju oszustw. Ale co z fałszywą rozmową telefoniczną lub czatem wideo? Sztuczna inteligencja ma potencjał, aby przekształcać występy w programach telewizyjnych i podcasty w przekonującą symulację, coś znacznie trudniejszego do zignorowania.

Walka z cyberatakami AI

Istnieją dwa główne sposoby walki z korzyściami, jakie sztuczna inteligencja zapewni wrogowi: lepsza sztuczna inteligencja i lepsze szkolenie — I jedno i drugie będzie konieczne.

Pojawienie się nowej generacji sztucznej inteligencji zapoczątkowało nowy wyścig zbrojeń. Ponieważ cyberprzestępcy wykorzystują go do rozwijania swoich ataków, zespoły ds. bezpieczeństwa będą musiały go używać do rozwijania swoich zabezpieczeń.

Bez sztucznej inteligencji obrona opiera się na przepracowanych ludziach i monitorowaniu pewnych zaprogramowanych wzorców, aby zapobiec atakom. Narzędzia obronne AI będą w stanie przewidzieć wektory ataku i wskazać wrażliwe obszary sieci i systemów. Będą także w stanie analizować złośliwy kod, co pozwoli lepiej zrozumieć, jak działają nowe ataki i jak można im zapobiegać.

Sztuczna inteligencja może również w mgnieniu oka zadziałać jako wyłącznik awaryjny — wyłączając sieć po wykryciu naruszenia i blokując cały system. Choć nie jest to idealne rozwiązanie z punktu widzenia ciągłości działania, może być znacznie mniej szkodliwe niż naruszenie bezpieczeństwa danych.

Ale walka ze sztuczną inteligencją za pomocą sztucznej inteligencji nie jest jedyną odpowiedzią. Potrzebujemy także ludzkiej inteligencji. Bez względu na to, jak sprytna i ukierunkowana jest, najlepszą obroną przed atakiem typu phishing jest pracownik lub klient, który wie, czego szukać i jest na tyle podejrzliwy, aby nie dać się złapać przynętie. Wdrożenie solidnych polityk bezpieczeństwa i najlepszych praktyk higieny cybernetycznej pozostanie kluczem do obrony przed atakami.

Oznacza to, że szkolenie będzie musiało zostać zaktualizowane, aby uwzględnić oznaki ataku sztucznej inteligencji… jakiekolwiek by one nie były. Szkolenia będą musiały ewoluować wraz ze sztuczną inteligencją — pojedyncze szkolenie co kilka lat już nie wystarczy, gdy szkolenie szybko stanie się nieaktualne.

Chociaż możliwe oznaki cyberataku opartego na sztucznej inteligencji szybko się zmieniają, ogólnie rzecz biorąc, ataki są następujące:

  • Szybki i skalowalny, wykorzystując wiele luk w zabezpieczeniach w krótkim czasie.
  • Adaptacyjne i wymijające, zmieniając taktykę i techniki, aby uniknąć wykrycia i reakcji.
  • Ukierunkowane i spersonalizowane, wykorzystując sztuczną inteligencję do tworzenia przekonujących e-maili phishingowych lub kampanii socjotechnicznych.
  • Oszukańczy i manipulujący, wykorzystując sztuczną inteligencję do tworzenia fałszywych lub zmienionych treści, takich jak deepfake, klonowanie głosu lub generowanie tekstu.
  • Potajemnie i wytrwale, ukrywając się w infrastrukturze sieciowej przez długi czas niezauważony.

Objawy te nie są wyczerpujące, a niektóre ataki oparte na sztucznej inteligencji mogą nie wykazywać ich wszystkich. Wskazują jednak poziom zagrożenia, jakie sztuczna inteligencja stwarza dla cyberbezpieczeństwa.

Aby skutecznie walczyć z cyberatakami opartymi na sztucznej inteligencji, firmy muszą myśleć nie tylko o pojedynczych złych podmiotach, ale także przygotować się na skoordynowane ataki ze strony podmiotów sponsorowanych przez państwo lub organizacji przestępczych, które mogą wykorzystywać sztuczną inteligencję do prowadzenia wyrafinowanych kampanii z wykorzystaniem podejścia opartego na ryzyku. Powinni także posiadać strategia proaktywna które obejmuje regularne audyty bezpieczeństwa, kopie zapasowe, szyfrowanie i plany reagowania na incydenty. Najłatwiej to osiągnąć poprzez uzyskanie dobrze znanego certyfikatu bezpieczeństwa, takiego jak PCI-DSS.

Wreszcie konieczne jest, aby organizacje poprawiły cyberbezpieczeństwo swoich własnych systemów sztucznej inteligencji, zapewniając ich integralność, poufność i dostępność, a także ograniczając ryzyko ataków kontradyktoryjnych, zatruwania danych i kradzieży modeli.

Strategie te pomogą chronić firmy, ale nie powinny być samodzielne — bezpieczeństwo powinno opierać się na współpracy. Współpracując z innymi organizacjami, badaczami i władzami w celu wymiany informacji, najlepszych praktyk i niepowodzeń, z których można wyciągnąć wnioski, firmy będą lepiej przygotowane na nową falę zagrożeń bezpieczeństwa związanych ze sztuczną inteligencją.

Sztuczna inteligencja jest zarówno nowym zagrożeniem, jak i kontynuacją starszych zagrożeń. Firmy będą musiały zmienić sposób, w jaki radzą sobie z cyberzagrożeniami, w miarę jak zagrożenia te stają się coraz bardziej wyrafinowane i liczniejsze, ale wiele podstaw pozostaje takich samych. Właściwe ich wykonanie pozostaje niezwykle istotne. Zespoły ds. bezpieczeństwa nie muszą odchodzić od starych pomysłów, ale wykorzystują je, aby zapewnić bezpieczeństwo swoim firmom.

Znak czasu:

Więcej z Mroczne czytanie