Cyberprzestępczość oparta na sztucznej inteligencji eksploduje w 2024 r.: dyrektor CrowdStrike – odszyfruj

Cyberprzestępczość oparta na sztucznej inteligencji eksploduje w 2024 r.: dyrektor CrowdStrike – odszyfruj

Cyberprzestępczość oparta na sztucznej inteligencji eksploduje w 2024 r.: dyrektor CrowdStrike – odszyfruj analizę danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Nowy rok przynosi nowe zagrożenia dla cyberbezpieczeństwa oparte na sztucznej inteligencji, powiedział Shawn Henry, dyrektor ds. bezpieczeństwa CrowdStrike Poranki CBS we wtorek.

„Myślę, że jest to poważny problem dla wszystkich” – powiedział Henry.

„Sztuczna inteligencja naprawdę oddała w ręce przeciętnego człowieka to niezwykle potężne narzędzie, które uczyniło go niewiarygodnie większymi możliwościami” – wyjaśnił. „Dlatego przeciwnicy wykorzystują sztuczną inteligencję, tę nową innowację, aby pokonać różne możliwości cyberbezpieczeństwa i uzyskać dostęp do sieci korporacyjnych”.

Henry podkreślił wykorzystanie sztucznej inteligencji do penetrowania sieci korporacyjnych, a także do rozpowszechniania dezinformacji w Internecie za pomocą coraz bardziej wyrafinowanych deepfake’ów wideo, audio i tekstowych.

Henry podkreślił, że należy zwracać uwagę na źródło informacji i nigdy nie brać za dobrą monetę treści opublikowanych w Internecie.

„Musisz sprawdzić, skąd to pochodzi” – powiedział Henry. „Kto opowiada tę historię, jaka jest jej motywacja i czy możesz to zweryfikować w wielu źródłach?”

„To niezwykle trudne, ponieważ ludzie – korzystając z wideo – mają 15–20 sekund, nie mają czasu lub często nie zadają sobie trudu, aby pozyskać te dane, i to jest problem”.

Odnotowując, że rok 2024 jest rokiem wyborów dla kilku krajów – w tym Stanów Zjednoczonych, Meksyku, Republiki Południowej Afryki, Tajwanu i Indii – Henry stwierdził, że w głosowaniu bierze udział sama demokracja, a cyberprzestępcy chcą wykorzystać chaos polityczny, wykorzystując sztuczną inteligencję.

„Od wielu lat widzieliśmy, jak zagraniczni przeciwnicy obierali za cel wybory w USA, nie tylko w 2016 r. [Chiny] atakowali nas już w 2008 r.” – powiedział Henry. „Na przestrzeni lat byliśmy świadkami zaangażowania Rosji, Chin i Iranu w tego typu dezinformację i dezinformację; na pewno skorzystają z niego ponownie w 2024 roku”.

„Ludzie muszą rozumieć, skąd pochodzą informacje” – powiedział Henry. „Ponieważ są ludzie, którzy mają nikczemne zamiary i stwarzają ogromne problemy”.

Szczególną obawę w związku z nadchodzącymi wyborami w USA w 2024 r. budzi bezpieczeństwo maszyn do głosowania. Zapytany, czy sztuczną inteligencję można wykorzystać do hakowania maszyn do głosowania, Henry był optymistą, że zdecentralizowany charakter amerykańskiego systemu głosowania zapobiegnie takim wydarzeniom.

„Myślę, że nasz system w Stanach Zjednoczonych jest bardzo zdecentralizowany” – powiedział Henry. „Istnieją pojedyncze obszary, które mogą być celem, takie jak listy rejestracyjne wyborców itp., [ale] nie sądzę, aby problem zestawiania wyborców na szeroką skalę miał wpływ na wybory – nie sądzę, żeby to był poważny problem. ”

Henry rzeczywiście podkreślił zdolność sztucznej inteligencji do zapewniania niezbyt technicznym cyberprzestępcom dostępu do broni technicznej.

„Sztuczna inteligencja stanowi bardzo przydatne narzędzie w rękach osób, które mogą nie posiadać wysokich umiejętności technicznych” – powiedział Henry. „Umieją pisać kod, tworzyć złośliwe oprogramowanie, e-maile phishingowe itp.”

W październiku RAND Corporation opublikował raport sugerujący, że generatywną sztuczną inteligencję można złamać, aby pomóc terrorystom w planowaniu ataków biologicznych.

„Zasadniczo, jeśli złośliwy aktor wyraźnie określi swoje zamiary, otrzymasz odpowiedź w stylu: «Przykro mi, nie mogę ci w tym pomóc»” – współautor i starszy inżynier RAND Corporation, Christopher – powiedział Mouton Odszyfruj w wywiadzie. „Zazwyczaj musisz użyć jednej z tych technik łamania więzienia lub szybkiej inżynierii, aby zejść o jeden poziom poniżej tych poręczy”.

W osobnym raporcie firma zajmująca się cyberbezpieczeństwem UkośnikNastępny podało, że liczba ataków phishingowych za pośrednictwem poczty e-mail wzrosła o 1265% od początku 2023 r.

Globalni decydenci spędzili większość 2023 roku na poszukiwaniu sposobów uregulowania i ograniczenia niewłaściwego wykorzystania generatywna sztuczna inteligencja, w tym Sekretarz Generalny Organizacji Narodów Zjednoczonych, który podniósł alarm w związku z wykorzystaniem fałszywych fałszywych informacji generowanych przez sztuczną inteligencję w strefy konfliktu.

W sierpniu Federalna Komisja Wyborcza Stanów Zjednoczonych podjęła a petycja zakazać stosowania sztucznej inteligencji w reklamach kampanii poprzedzających sezon wyborczy w 2024 r.

Giganci technologiczni Microsoft i Meta ogłosili nowość polityka którego celem jest ograniczenie dezinformacji politycznej opartej na sztucznej inteligencji.

„W 2024 roku na świecie może pojawić się wiele autorytarnych państw narodowych, które będą próbowały ingerować w procesy wyborcze” – stwierdził Microsoft. „Mogą także łączyć tradycyjne techniki ze sztuczną inteligencją i innymi nowymi technologiami, aby zagrozić integralności systemów wyborczych”.

Parzyste Papież Franciszek, który był tematem wirusowych deepfakes generowanych przez sztuczną inteligencję, przy różnych okazjach poruszał w kazaniach kwestię sztucznej inteligencji.

„Musimy być świadomi zachodzących obecnie szybkich przemian i zarządzać nimi w sposób, który chroni podstawowe prawa człowieka i respektuje instytucje i prawa, które promują integralny rozwój człowieka” – powiedział papież Franciszek. „Sztuczna inteligencja powinna służyć naszemu najlepszemu potencjałowi ludzkiemu i naszym najwyższym aspiracjom, a nie z nimi konkurować”.

Bądź na bieżąco z wiadomościami o kryptowalutach, otrzymuj codzienne aktualizacje w swojej skrzynce odbiorczej.

Znak czasu:

Więcej z Odszyfruj