Deepfake AI stanowią zagrożenie także dla firm — oto dlaczego — odszyfruj

Deepfake AI stanowią zagrożenie także dla firm — oto dlaczego — odszyfruj

Deepfake AI stanowią zagrożenie także dla firm — oto dlaczego — odszyfruj analizę danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Podczas gdy giganci technologiczni konkurują o udostępnienie sztucznej inteligencji masom i zawładnięcie rozwijającym się rynkiem, wyścig zbrojeń oparty na sztucznej inteligencji napędza wzrost liczby „deep-fake” filmów i treści audio, które często wyglądają lub brzmią przekonująco legalnie, ale w rzeczywistości są oszukańczym wprowadzeniem w błąd. Z nowego raportu wynika, że ​​wywierają one również wpływ na przedsiębiorstwa.

Deepfake to dzieła generowane przez sztuczną inteligencję, takie jak obrazy, filmy i dźwięki manipulowane w celu oszukania ludzi. Oszuści wykorzystują deepfakes do oszustw, wymuszenielub zaszkodzić reputacji. Rozprzestrzenianie się generatywna sztuczna inteligencja narzędzia sprawiły, że oszustom tworzenie fałszywych treści jest łatwiejsze niż kiedykolwiek wcześniej.

Gwiazdy i inne osoby publiczne są umieszczane w sztucznych, a czasem wulgarnych materiałach filmowych bez ich zgody w sposób, który czasami staje się wirusowy lub może wywołać panikę w mediach społecznościowych. W raporcie dostarczonym do Odszyfruj, globalna firma księgowa KPMG napisał, że sektor biznesowy również nie jest odporny na zagrożenie deepfake.

Treści typu deepfake mogą być wykorzystywane w atakach socjotechnicznych i innych rodzajach cyberataków wymierzonych w firmy – napisało KPMG, przy czym takie treści mogą również mieć wpływ na reputację firm i ich liderów. Fałszywe oświadczenia przedstawicieli firmy można również wykorzystać w planach mających na celu oszukanie klientów lub przekonanie pracowników do przekazania informacji lub przekazania pieniędzy nielegalnym podmiotom.

KPMG przytoczył przykład z 2020 r menadżera oddziału firmy w Hongkongu, który dał się oszukać i przekazał oszustom fundusze firmowe o wartości 35 milionów dolarów, po tym, jak uwierzył, że jego szef rozmawia przez telefon i mu to nakazał. Zamiast tego było to odtworzenie głosu przełożonego za pomocą sztucznej inteligencji – a wszystko to stanowiło część skomplikowanego planu wyłudzenia pieniędzy od firmy.

„Konsekwencje cyberataków wykorzystujących treści syntetyczne – treści cyfrowe, które zostały wygenerowane lub zmanipulowane w niegodziwych celach – mogą być ogromne, kosztowne i mieć różnorodne skutki społeczno-ekonomiczne, w tym między innymi finansowe, reputacyjne, usługowe i geopolityczne” czytamy w raporcie.

Deepfake nagrania przedstawiające Donalda Trumpa aresztowany wcześniej w tym roku, Papież Franciszek noszenie luksusowych ubrań Balenciagi i Elon Musk promowanie oszustw związanych z kryptowalutami stało się popularne w zeszłym roku wraz z udoskonaleniem technologii deepfake dzięki ewoluującym narzędziom sztucznej inteligencji.

„Bez względu na to, czy są to tanie podróbki, czy głębokie podróbki, model gospodarczy znacznie się zmienił ze względu na generatywne modele sztucznej inteligencji” – napisało KPMG.

Oprócz wymienionych powyżej osób publicznych do znanych osobistości, których podobizny skradziono i wykorzystano w sfałszowanych materiałach filmowych, należą aktorka Emma Watson i muzyk Taylor Swift. Jednak KPMG podnosi alarm w związku z potencjalnym wpływem na firmy i ich czasami prominentnych liderów.

„Jako czynnik ryzyka, fałszywe treści stanowią problem nie tylko mediów społecznościowych, serwisów randkowych i branży rozrywkowej – są obecnie przedmiotem zainteresowania zarządów” – stwierdziło KPMG. „Przykładowo prawie wszyscy respondenci (92%) niedawnej ankiety KPMG dotyczącej generatywnej sztucznej inteligencji przeprowadzonej wśród 300 menedżerów z różnych branż i lokalizacji geograficznych stwierdzili, że ich obawy dotyczące ryzyka związanego z wdrażaniem generatywnej sztucznej inteligencji są umiarkowanie lub bardzo duże”.

Nie tylko firmy i gwiazdy borykają się ze wzrostem jakości i liczby fałszywych filmów w Internecie. Rządy i organy regulacyjne również liczą się z potencjalnym wpływem na społeczeństwo i wybory, a twórcy takich narzędzi AI rozważają ich potencjalny negatywny wpływ.

W zeszłym tygodniu Federalna Komisja Wyborcza Stanów Zjednoczonych, spodziewając się wykorzystania deepfakes w wyborach w 2024 r., przedstawiła petycja zakazać stosowania sztucznej inteligencji w reklamach kampanii.

Jeśli zostanie zatwierdzona, agencja zmieni obecne przepisy dotyczące oszukańczego wprowadzania w błąd pod adresem „organu kampanii” i wyjaśni, że zakaz dotyczy celowo wprowadzających w błąd reklam kampanii AI.

„Organy regulacyjne powinny w dalszym ciągu rozumieć i rozważać wpływ ewoluujących zagrożeń na istniejące regulacje” – powiedział Matthew Miller, dyrektor ds. usług cyberbezpieczeństwa w KPMG Odszyfruj. „Proponowane wymagania dotyczące etykietowania i znakowania wodnego treści generowanych przez sztuczną inteligencję mogą mieć pozytywny wpływ”.

W lipcu naukowcy z MIT zaproponowane dodawanie zmian w kodzie do dużych modeli rozpowszechniania, aby zmniejszyć ryzyko deepfakes, dodając drobne zmiany, które są trudne do zauważenia, ale ostatecznie zmieniają sposób działania modeli, powodując generowanie obrazów, które nie wyglądają realnie. Tymczasem Meta niedawno powstrzymywał narzędzie AI ze względu na potencjał deepfake'a.

Ekscytację związaną z twórczym potencjałem generatywnych narzędzi AI ostudziła świadomość, że mogą one w podobny sposób stwarzać możliwości dla złośliwych treści. Ostatecznie w obliczu szybkich udoskonaleń takich narzędzi Miller nalegał, aby wszyscy zachowali czujność w związku z możliwością występowania fałszywych treści.

„Opinia publiczna musi zachować ciągłą czujność podczas interakcji za pośrednictwem kanałów cyfrowych” – powiedział Odszyfruj. „Świadomość sytuacyjna i zdrowy rozsądek znacznie przyczyniają się do zapobiegania wypadkom. Jeśli coś nie „wydaje się właściwe”, istnieje duże prawdopodobieństwo, że jest to złośliwa aktywność”.

Bądź na bieżąco z wiadomościami o kryptowalutach, otrzymuj codzienne aktualizacje w swojej skrzynce odbiorczej.

Znak czasu:

Więcej z Odszyfruj