Le DHS testera l'utilisation de genAI pour former les agents d'immigration américains

Le DHS testera l'utilisation de genAI pour former les agents d'immigration américains

Le DHS testera l'utilisation de genAI pour former les agents d'immigration américains PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Le Département américain de la Sécurité intérieure (DHS) dispose d'une feuille de route en matière d'IA et de trois projets tests pour déployer la technologie, dont l'un vise à former les agents d'immigration à l'aide de l'IA générative. Qu'est ce qui pourrait aller mal?

Aucun fournisseur d'IA n'a été nommé dans le rapport, qui affirmait que l'utilisation de la technologie était destinée à aider les stagiaires à mieux comprendre et à mieux conserver les « informations cruciales », ainsi qu'à « augmenter la précision de leur processus de prise de décision ».

Il s'agit d'avoir un lien direct avec le cœur des opérations de votre a déclaré que OpenAI, Anthropic et Meta, ainsi que les géants du cloud Microsoft, Google et Amazon, ont fourni à Homeland Security une technologie d'IA et des services en ligne à expérimenter, en matière de formation et de prise de décision.

"Les services américains de citoyenneté et d'immigration (USCIS) testeront l'utilisation des LLM pour aider à former les agents chargés des réfugiés, de l'asile et des opérations internationales sur la façon de mener des entretiens avec les candidats à l'immigration légale", a déclaré l'Oncle Sam. feuille de route [PDF], publié hier soir, explique.

Malgré travail récent En matière d'atténuation des inexactitudes dans les modèles d'IA, les LLM sont connus pour générer des informations inexactes avec le type de confiance qui pourrait embobiner un jeune stagiaire.

Les ratés – appelés « hallucinations » – rendent difficile la confiance dans les résultats de l’IA Chatbots, génération d'image et même un travail d'assistant juridique, avec plus de UN avocat avoir des ennuis pour avoir cité de faux cas générés à partir de rien par ChatGPT.

Les LLM sont également connus pour faire preuve de préjugés raciaux et sexistes lorsqu'ils sont déployés dans outils d'embauche, préjugés raciaux et sexistes lorsqu'ils sont utilisés dans la reconnaissance faciale systèmes, et peut même faire preuve de préjugés racistes lors du traitement des mots, comme le montre un étude récente où divers LLM prennent une décision concernant une personne sur la base d'une série d'invites textuelles. Les chercheurs ont rapporté dans leur article de mars que les décisions du LLM concernant les personnes utilisant le dialecte afro-américain reflètent des stéréotypes racistes.

Néanmoins, le DHS affirme qu’il s’engage à garantir que son utilisation de l’IA « est responsable et digne de confiance ; protège la vie privée, les droits civils et les libertés civiles ; évite les préjugés inappropriés ; et est transparent et explicable aux travailleurs et aux personnes traitées. Il ne précise cependant pas quelles garanties sont en place.

L'agence affirme que l'utilisation de l'IA générative permettra au DHS d'« améliorer » le travail des agents d'immigration, avec une application interactive utilisant l'IA générative en cours de développement pour aider à la formation des agents. L’objectif est notamment de limiter les besoins de reconversion dans le temps.

Le rapport plus vaste du DHS décrit les plans du département en matière de technologie de manière plus générale et, selon Alejandro N Mayorkas, secrétaire du département américain de la Sécurité intérieure, « il s'agit du plan d'IA le plus détaillé proposé par une agence fédérale à ce jour ».

Deux autres projets pilotes impliqueront l'utilisation de systèmes basés sur LLM dans les enquêtes et l'application de l'IA générative au processus d'atténuation des risques pour les gouvernements locaux.

L'histoire se répète

Le DHS utilise l’IA depuis plus d’une décennie, notamment la technologie d’apprentissage automatique (ML) pour la vérification d’identité. Son approche peut être décrite comme controversée, l'agence étant la cible des lettres juridiques plutôt que d’utiliser la technologie de reconnaissance faciale. Toutefois, les États-Unis ont progressé malgré inquiétude de certains quartiers.

En effet, le DHS cite l’IA comme quelque chose qu’il utilise pour rendre les voyages « plus sûrs et plus faciles » – qui pourrait s’opposer à ce qu’une photo soit prise pour aider à naviguer dans le théâtre de sécurité qui est trop répandu dans les aéroports ? Après tout, cela reste facultatif.

D’autres exemples d’utilisation de l’IA donnés par le DHS incluent l’exploration d’images plus anciennes pour identifier d’anciennes victimes inconnues de l’exploitation, l’évaluation des dégâts après une catastrophe et la détection des passeurs en identifiant les comportements suspects.

Dans sa feuille de route, le DHS a noté les défis qui existent parallèlement aux opportunités. Les outils d’IA sont tout aussi accessibles aux acteurs de la menace qu’aux autorités, et le DHS craint que des attaques à plus grande échelle soient à la portée des cybercriminels, ainsi que des attaques contre les infrastructures critiques. Et puis il y a la menace du contenu généré par l’IA.

Un certain nombre d’objectifs ont été fixés pour 2024. Il s’agit notamment de la création d’un AI Sandbox dans lequel les utilisateurs du DHS peuvent jouer avec la technologie et de l’embauche de 50 experts en IA. Il prévoit également un exercice HackDHS dans lequel des chercheurs agréés seront chargés de trouver des vulnérabilités dans ses systèmes. ®

Horodatage:

Plus de Le registre