Przekształcenie krajobrazu zagrożeń: Deepfake Cyberataki już tu są PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Przekształcenie krajobrazu zagrożeń: Deepfake cyberataki już tu są

Złośliwe kampanie wykorzystujące technologie deepfake są o wiele bliższe, niż wielu mogłoby przypuszczać. Ponadto ich łagodzenie i wykrywanie jest trudne.

Nowe badanie wykorzystania i nadużywania deepfake przez cyberprzestępców pokazuje, że wszystkie elementy potrzebne do powszechnego wykorzystania tej technologii są dostępne i łatwo dostępne na podziemnych rynkach i na otwartych forach. Badanie przeprowadzone przez Trend Micro pokazuje, że wiele phishingu wykorzystującego technologię deepfake, kompromitacji biznesowej poczty e-mail (BEC) i oszustw promocyjnych ma już miejsce i jest szybkie przekształcanie krajobrazu zagrożeń.

Już nie hipotetyczne zagrożenie

„Od zagrożeń hipotetycznych i sprawdzających koncepcję [ataki wykorzystujące technologię deepfake] przeszły do ​​etapu, w którym niedojrzali przestępcy są w stanie korzystać z takich technologii”, mówi Vladimir Kropotov, badacz ds. bezpieczeństwa w Trend Micro i główny autor raportu raport na temat, który dostawca zabezpieczeń opublikował w tym tygodniu. 

„Widzimy już, w jaki sposób deepfake są zintegrowane z atakami na instytucje finansowe, oszustwami i próbami podszywania się pod polityków”, mówi, dodając, że przerażające jest to, że wiele z tych ataków wykorzystuje tożsamość prawdziwych ludzi – często zdrapywanych z treści, które publikują w serwisach społecznościowych. sieci medialne.

Jednym z głównych wniosków płynących z badania Trend Micro jest dostępność narzędzi, obrazów i filmów do generowania deepfake. Dostawca zabezpieczeń odkrył na przykład, że wiele forów, w tym GitHub, oferuje kod źródłowy do tworzenia deepfake każdemu, kto tego chce. Podobnie dostępna jest wystarczająca ilość wysokiej jakości zdjęć i filmów zwykłych osób i osób publicznych, aby źli aktorzy mogli stworzyć miliony fałszywych tożsamości lub podszywać się pod polityków, liderów biznesu i inne znane osobistości.

Zapotrzebowanie na usługi deepfake i osoby z doświadczeniem na ten temat rośnie również na podziemnych forach. Firma Trend Micro znalazła reklamy przestępców poszukujących tych umiejętności w celu przeprowadzania oszustw kryptowalutowych i oszustw wymierzonych w indywidualne konta finansowe. 

„Aktorzy już teraz mogą podszywać się pod polityków, dyrektorów wyższego szczebla i celebrytów i kraść ich tożsamość” — powiedział Trend Micro w swoim raporcie. „Może to znacznie zwiększyć wskaźnik powodzenia niektórych ataków, takich jak programy finansowe, krótkotrwałe kampanie dezinformacyjne, manipulacje opinią publiczną i wymuszenia”.

Mnóstwo zagrożeń

Istnieje również coraz większe ryzyko, że skradzione lub odtworzone tożsamości należące do zwykłych ludzi zostaną wykorzystane do oszukania ofiar, pod które się podszywają, lub do prowadzenia złośliwych działań pod ich tożsamością. 

W wielu grupach dyskusyjnych firma Trend Micro odkryła, że ​​użytkownicy aktywnie dyskutują o sposobach korzystania z funkcji deepfake w celu ominięcia kontroli bankowych i innych kontroli weryfikacji konta — zwłaszcza tych dotyczących metod weryfikacji wideo i bezpośredniej.

Na przykład przestępcy mogą wykorzystać tożsamość ofiary i wykorzystać ich sfałszowane wideo do otwierania kont bankowych, które później mogą zostać wykorzystane do prania pieniędzy. W podobny sposób mogą przejmować konta, podszywać się pod kierownictwo najwyższego szczebla w organizacjach, aby inicjować oszukańcze przelewy pieniężne lub podkładać fałszywe dowody w celu wyłudzenia osób, powiedział Trend Micro. 

Urządzenia takie jak Amazon Alexa i iPhone, które wykorzystują głos lub rozpoznawanie twarzy, mogą wkrótce znaleźć się na liście urządzeń docelowych do ataków opartych na deepfake, zauważył dostawca zabezpieczeń.

„Ponieważ wiele firm nadal działa w trybie zdalnym lub mieszanym, istnieje zwiększone ryzyko podszywanie się pod personel w telekonferencjach które mogą wpływać na wewnętrzną i zewnętrzną komunikację biznesową oraz wrażliwe procesy biznesowe i przepływy finansowe” – mówi Kropotov.

Firma Trend Micro nie jest osamotniona w alarmowaniu o deepfake. Niedawna ankieta internetowa, którą firma VMware przeprowadziła wśród 125 specjalistów ds. cyberbezpieczeństwa i reagowania na incydenty, również wykazała, że ​​zagrożenia wykorzystujące technologię deepfake nie tylko nadchodzą — oni już tu są. Zaskakujące 66% — wzrost o 13% od 2021 r. — respondentów stwierdziło, że w ciągu ostatnich 12 miesięcy doświadczyło incydentu związanego z użyciem deepfake.

„Przykłady ataków typu „deepfake”, których już byliśmy świadkami, obejmują połączenia głosowe dyrektora generalnego z dyrektorem finansowym prowadzące do przelewu bankowego, a także telefony pracowników do działu IT w celu zainicjowania resetowania hasła” — mówi Rick McElroy, główny strateg ds. cyberbezpieczeństwa firmy VMware.

Niewiele łagodzenia ataków i wykrywania Deepfake jest trudnych

Ogólnie rzecz biorąc, tego typu ataki mogą być skuteczne, ponieważ nie ma jeszcze dostępnych poprawek technologicznych, które sprostałyby wyzwaniu, mówi McElroy. 

„Biorąc pod uwagę rosnące wykorzystanie i wyrafinowanie w tworzeniu deepfake, postrzegam to jako jedno z największych zagrożeń dla organizacji z perspektywy oszustw i oszustw”, ostrzega. 

Najbardziej skuteczny sposób na obecnie złagodzić zagrożenie jest zwiększenie świadomości problemu wśród zespołów finansowych, wykonawczych i IT, które są głównym celem ataków socjotechnicznych. 

„Organizacje mogą rozważyć metody o niskiej technologii, aby przerwać cykl. Może to obejmować użycie wyzwania i hasła wśród kadry kierowniczej przy przekazywaniu pieniędzy z organizacji lub dwuetapowy i zweryfikowany proces zatwierdzania”, mówi.

Gil Dabah, współzałożyciel i dyrektor generalny Piaano, również zaleca ścisłą kontrolę dostępu jako środek łagodzący. Żaden użytkownik nie powinien mieć dostępu do dużych ilości danych osobowych, a organizacje muszą ustalać limity szybkości, a także wykrywanie anomalii, mówi.

„Nawet systemy takie jak Business Intelligence, które wymagają analizy dużych zbiorów danych, powinny uzyskiwać dostęp tylko do zamaskowanych danych”, zauważa Dabah, dodając, że żadne wrażliwe dane osobowe nie powinny być przechowywane w postaci zwykłego tekstu, a dane takie jak PII powinny być tokenizowane i chronione.

Tymczasem na froncie wykrywania pojawiły się postępy w technologiach, takich jak oparta na sztucznej inteligencji Generatywne sieci przeciwstawne (GAN) utrudniły wykrywanie deepfake. „Oznacza to, że nie możemy polegać na treściach zawierających wskazówki dotyczące „artefaktów”, że nastąpiła zmiana”, mówi Lou Steinberg, współzałożyciel i partner zarządzający w CTM Insights.

Dodaje, że do wykrywania zmanipulowanych treści organizacje potrzebują odcisków palców lub podpisów, które dowodzą, że coś się nie zmieniło.

„Jeszcze lepiej jest zrobić mikroodciski palców nad fragmentami treści i być w stanie zidentyfikować, co się zmieniło, a co nie”, mówi. „Jest to bardzo cenne, gdy obraz został poddany edycji, ale jeszcze bardziej, gdy ktoś próbuje ukryć obraz przed wykryciem”.

Trzy ogólne kategorie zagrożeń

Steinberg twierdzi, że zagrożenia typu deepfake dzielą się na trzy szerokie kategorie. Pierwszym z nich są kampanie dezinformacyjne obejmujące głównie edycję legalnych treści w celu zmiany znaczenia. Jako przykład Steinberg wskazuje na aktorów państwowych, którzy używają fałszywych zdjęć i filmów w mediach społecznościowych lub umieszczają kogoś na zdjęciu, które nie było pierwotnie obecne – coś, co jest często używane do takich rzeczy, jak dorozumiane rekomendacje produktów lub pornografia zemsta.

Inna kategoria obejmuje subtelne zmiany w obrazach, logo i innych treściach w celu ominięcia automatycznych narzędzi wykrywania, takich jak te używane do wykrywania podróbek logo produktów, obrazów wykorzystywanych w kampaniach phishingowych, a nawet narzędzi do wykrywania pornografii dziecięcej.

Trzecia kategoria obejmuje syntetyczne lub kompozytowe deepfake, które wywodzą się z kolekcji oryginałów, aby stworzyć coś zupełnie nowego, mówi Steinberg. 

„Zaczęliśmy dostrzegać to w przypadku dźwięku kilka lat temu, używając komputerowej syntezy mowy do pokonania śladów głosowych w centrach telefonicznych usług finansowych”, mówi. „Wideo wideo jest obecnie wykorzystywane do takich rzeczy, jak nowoczesna wersja kompromitacji biznesowej poczty e-mail lub do zaszkodzenia reputacji, gdy ktoś „mówi” coś, czego nigdy nie powiedział”.

Znak czasu:

Więcej z Mroczne czytanie