Кіберзлочинність на основі штучного інтелекту вибухне у 2024 році: керівник CrowdStrike - Decrypt

Кіберзлочинність на основі штучного інтелекту вибухне у 2024 році: керівник CrowdStrike – Decrypt

Кіберзлочинність на основі штучного інтелекту вибухне у 2024 році: Керівник CrowdStrike – розшифровує дані PlatoBlockchain Intelligence. Вертикальний пошук. Ai.

Новий рік приносить нові загрози кібербезпеці, створені за допомогою штучного інтелекту, сказав Шон Генрі, директор служби безпеки CrowdStrike. Ранок CBS у вівторок.

«Я думаю, що це серйозне занепокоєння для всіх», — сказав Генрі.

«Штучний інтелект справді дав цей надзвичайно потужний інструмент у руки звичайної людини, і це зробило їх неймовірно більш спроможними», — пояснив він. «Тож зловмисники використовують штучний інтелект, цю нову інновацію, щоб подолати різні можливості кібербезпеки та отримати доступ до корпоративних мереж».

Генрі підкреслив використання штучного інтелекту для проникнення в корпоративні мережі, а також поширення дезінформації в Інтернеті за допомогою все більш складних відео-, аудіо- та текстових дипфейків.

Генрі наголосив на необхідності дивитися на джерело інформації та ніколи не сприймати те, що опубліковано в Інтернеті, за чисту монету.

«Ви повинні перевірити, звідки це взялося», — сказав Генрі. «Хто розповідає цю історію, яка їхня мотивація, і чи можете ви підтвердити це за допомогою кількох джерел?»

«Це неймовірно складно, тому що люди — коли вони використовують відео — у них є 15 або 20 секунд, вони не мають часу або часто не докладають зусиль, щоб отримати ці дані, і це біда».

Зазначаючи, що 2024 рік є роком виборів для кількох країн, включаючи США, Мексику, Південну Африку, Тайвань та Індію, Генрі сказав, що демократія сама по собі є предметом голосування, а кіберзлочинці прагнуть скористатися політичним хаосом, використовуючи штучний інтелект.

«Ми бачили, як іноземні супротивники націлювалися на вибори в США протягом багатьох років, це був не тільки 2016 рік. [Китай] націлився на нас ще в 2008 році», — сказав Генрі. «Ми бачили, як Росія, Китай та Іран брали участь у такому типі дезінформації протягом багатьох років; вони точно збираються використовувати його знову тут у 2024 році».

«Люди повинні розуміти, звідки надходить інформація», — сказав Генрі. «Тому що там є люди, які мають підлі наміри і створюють величезні проблеми».

Особливе занепокоєння на майбутніх виборах у США 2024 року викликає безпека машин для голосування. Коли його запитали, чи можна використати штучний інтелект для злому машин для голосування, Генрі був оптимістично налаштований, що децентралізований характер системи голосування в США дозволить цьому не статися.

«Я думаю, що наша система в Сполучених Штатах дуже децентралізована», — сказав Генрі. «Є окремі кишені, які можуть стати мішенню, як-от списки виборців тощо, [але] я не думаю, що проблема підрахунку голосів у широкому масштабі може вплинути на вибори — я не думаю, що це серйозна проблема. »

Генрі підкреслив здатність штучного інтелекту надавати не надто технічним кіберзлочинцям доступ до технічної зброї.

«Штучний інтелект є дуже ефективним інструментом у руках людей, які можуть не мати високих технічних навичок», — сказав Генрі. «Вони можуть писати код, створювати шкідливе програмне забезпечення, фішингові листи тощо».

У жовтні в Корпорація RAND опублікував звіт, у якому припускає, що генеративний штучний інтелект можна зламати, щоб допомогти терористам у плануванні біологічних атак.

«Загалом, якщо зловмисник явно [у своїх намірах], ви отримаєте відповідь на кшталт «Вибачте, я не можу вам із цим допомогти», — співавтор і старший інженер корпорації RAND Крістофер. Мутон розповів Розшифрувати в інтерв'ю. «Тож вам, як правило, доводиться використовувати одну з цих технік джейлбрейка або оперативну техніку, щоб отримати один рівень нижче цих огорож».

В окремому звіті фірма з кібербезпеки Похила Далі повідомляє, що з початку 1265 року кількість фішингових атак електронної пошти зросла на 2023%.

Глобальні політики витратили більшу частину 2023 року на пошуки способів регулювання та припинення зловживання генеративний ШІ, у тому числі Генерального секретаря ООН, який забив тривогу щодо використання дипфейків, створених штучним інтелектом, у зони конфлікту.

У серпні Федеральна виборча комісія США просунулася вперед клопотати заборонити використання штучного інтелекту в передвиборчій рекламі 2024 року.

Технологічні гіганти Microsoft і Meta анонсували новий Політика спрямований на стримування політичної дезінформації за допомогою ШІ.

«У 2024 році світ може побачити численні авторитарні національні держави, які намагатимуться втрутитися у виборчі процеси», — заявили в Microsoft. «І вони можуть поєднувати традиційні методи з штучним інтелектом та іншими новими технологіями, щоб загрожувати цілісності виборчих систем».

Навіть Франциск, який був предметом вірусних дипфейків, створених штучним інтелектом, неодноразово звертався до штучного інтелекту в проповідях.

«Ми повинні усвідомлювати швидкі зміни, які зараз відбуваються, і керувати ними таким чином, щоб захищати фундаментальні права людини та поважати інституції та закони, які сприяють інтегральному людському розвитку», — сказав Папа Франциск. «Штучний інтелект має служити нашому найкращому людському потенціалу та нашим найвищим прагненням, а не конкурувати з ними».

Будьте в курсі криптовалютних новин, отримуйте щоденні оновлення на свою поштову скриньку.

Часова мітка:

Більше від Розшифрувати