DHS тестуватиме використання genAI для навчання офіцерів імміграційної служби США

DHS тестуватиме використання genAI для навчання офіцерів імміграційної служби США

DHS will test using genAI to train US immigration officers PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Міністерство внутрішньої безпеки США (DHS) має дорожню карту штучного інтелекту та три тестові проекти для розгортання технології, один із яких спрямований на навчання офіцерів імміграційної служби за допомогою генеративного штучного інтелекту. Що може піти не так?

У звіті не було названо жодного постачальника штучного інтелекту, який стверджував, що використання технології мало допомогти слухачам краще розуміти та зберігати «важливу інформацію», а також «підвищити точність процесу прийняття рішень».

Це каже, що OpenAI, Anthropic і Meta, а також хмарні гіганти Microsoft, Google і Amazon надали Homeland Security технологію ШІ та онлайн-сервіси для експериментів щодо навчання та прийняття рішень.

«Служба з питань громадянства та імміграції США (USCIS) у пілотному режимі використовуватиме LLM, щоб допомогти навчити офіцерів у справах біженців, притулку та міжнародних операцій тому, як проводити співбесіди із заявниками на законну імміграцію», — зазначив дядько Сем Дорожня карта [PDF], опублікований минулої ночі, пояснює.

Незважаючи на недавня робота щодо пом’якшення неточностей у моделях штучного інтелекту, відомо, що магістратури генерують неточну інформацію з такою впевненістю, що може ввести в оману молодого стажера.

Через помилки, які називаються «галюцинаціями», важко довіряти результатам ШІ chatbots, генерація зображень і навіть працювати помічником юриста з більш ніж один юрист мати проблеми через посилання на фейкові випадки, створені ChatGPT з повітря.

Відомо також, що LLM демонструють як расову, так і гендерну упередженість при розгортанні в інструменти найму, расові та гендерні упередження при використанні в розпізнавання осіб системи, а може навіть демонструють расистські упередження при обробці слів, як показано на а недавній документ де різні LLM приймають рішення щодо особи на основі серії текстових підказок. У своїй березневій статті дослідники повідомили, що рішення LLM щодо людей, які використовують афроамериканський діалект, відображають расистські стереотипи.

Тим не менш, DHS стверджує, що прагне забезпечити використання штучного інтелекту «відповідальним і надійним; захищає приватне життя, громадянські права та громадянські свободи; уникає неадекватних упереджень; і є прозорим і зрозумілим для працівників і людей, які обробляються. Однак там не сказано, які гарантії існують.

Агентство стверджує, що використання генеративного штучного інтелекту дозволить DHS «поліпшити» роботу імміграційних офіцерів за допомогою інтерактивного додатку, що використовує генеративний штучний інтелект, який розробляється для допомоги в навчанні офіцерів. Мета включає обмеження потреби в перенавчанні з часом.

Більший звіт DHS окреслює плани Департаменту щодо технології в більш загальному плані, і, за словами Алехандро Н. Майоркаса, міністра внутрішньої безпеки США, «це найдетальніший план штучного інтелекту, запропонований федеральним агентством на сьогодні».

Інші два пілотних проекти передбачатимуть використання систем на базі LLM у розслідуваннях і застосування генеративного штучного інтелекту до процесу зменшення небезпеки для місцевих органів влади.

Історія повторюється

DHS використовує ШІ більше десяти років, включаючи технологію машинного навчання (ML) для перевірки особи. Його підхід найкраще можна охарактеризувати як суперечливий, з агентством юридичні листи над використанням технології розпізнавання обличчя. Однак, незважаючи на це, США просунулися вперед занепокоєння з деяких сторін.

Дійсно, DHS посилається на штучний інтелект як на те, що воно використовує, щоб зробити подорожі «безпечнішими та легшими» — хто взагалі може заперечити проти того, щоб зробити фотографію, щоб допомогти орієнтуватися в зоні безпеки, яка надто поширена в аеропортах? Зрештою, це все ще необов’язково.

Інші приклади використання штучного інтелекту, наведені DHS, включають перегляд старих зображень для ідентифікації попередніх невідомих жертв експлуатації, оцінку збитків після катастрофи та пошук контрабандистів шляхом виявлення підозрілої поведінки.

У своїй дорожній карті DHS зазначив проблеми, які існують поряд з можливостями. Інструменти штучного інтелекту однаково доступні як для загроз, так і для органів влади, і DHS стурбована тим, що більш масштабні атаки знаходяться в межах досяжності кіберзлочинців, а також атаки на критичну інфраструктуру. Крім того, існує загроза від контенту, створеного штучним інтелектом.

На 2024 рік поставлено низку цілей. Серед них – створення пісочниці AI, у якій користувачі DHS зможуть грати з технологією, і наймання 50 експертів AI. Він також планує навчання HackDHS, під час якого перевіреним дослідникам буде доручено знайти вразливі місця в його системах. ®

Часова мітка:

Більше від Реєстр