DHS testará uso de genAI para treinar oficiais de imigração dos EUA

DHS testará uso de genAI para treinar oficiais de imigração dos EUA

O DHS testará o uso de genAI para treinar oficiais de imigração dos EUA PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

O Departamento de Segurança Interna dos EUA (DHS) tem um roteiro de IA e um trio de projetos de teste para implantar a tecnologia, um dos quais visa treinar oficiais de imigração usando IA generativa. O que poderia dar errado?

Nenhum fornecedor de IA foi mencionado no relatório, que afirmava que o uso da tecnologia se destinava a ajudar os formandos a compreender e reter melhor “informações cruciais”, bem como a “aumentar a precisão do seu processo de tomada de decisão”.

Está disse isso OpenAI, Anthropic e Meta, bem como os gigantes da nuvem Microsoft, Google e Amazon, forneceram à Homeland Security tecnologia de IA e serviços online para experimentar, no que diz respeito ao treinamento e à tomada de decisões.

“Os Serviços de Cidadania e Imigração dos EUA (USCIS) farão um teste piloto usando LLMs para ajudar a treinar Refugiados, Asilo e Oficiais de Operações Internacionais sobre como conduzir entrevistas com requerentes de imigração legal”, disse Tio Sam. roadmap [PDF], lançado ontem à noite, explica.

Apesar de trabalho recente na mitigação de imprecisões em modelos de IA, sabe-se que os LLMs geram informações imprecisas com o tipo de confiança que pode enganar um jovem estagiário.

As falhas – chamadas de “alucinações” – tornam difícil confiar nos resultados da IA chatbots, geração de imagem e até trabalho de assistente jurídico, com mais de um advogado se metendo em problemas por citar casos falsos gerados do nada pelo ChatGPT.

Os LLMs também são conhecidos por exibir preconceitos raciais e de gênero quando implantados em ferramentas de contratação, preconceito racial e de gênero quando usado em reconhecimento facial sistemas e pode até exibir preconceitos racistas ao processar palavras, como mostrado em um artigo recente onde vários LLMs tomam uma decisão sobre uma pessoa com base em uma série de instruções de texto. Os pesquisadores relataram em seu artigo de março que as decisões do LLM sobre pessoas que usam o dialeto afro-americano refletem estereótipos racistas.

No entanto, o DHS afirma estar empenhado em garantir que o uso da IA ​​“seja responsável e confiável; salvaguarda a privacidade, os direitos civis e as liberdades civis; evita preconceitos inadequados; e é transparente e explicável para os trabalhadores e pessoas que estão sendo processadas. No entanto, não diz quais salvaguardas estão em vigor.

A agência afirma que o uso de IA generativa permitirá ao DHS “aprimorar” o trabalho dos oficiais de imigração, com uma aplicação interativa usando IA generativa em desenvolvimento para auxiliar no treinamento de oficiais. O objetivo inclui limitar a necessidade de reciclagem ao longo do tempo.

O relatório maior do DHS descreve os planos do Departamento para a tecnologia de forma mais geral e, de acordo com Alejandro N Mayorkas, secretário do Departamento de Segurança Interna dos EUA, “é o plano de IA mais detalhado apresentado por uma agência federal até o momento”.

Outros dois projetos-piloto envolverão a utilização de sistemas baseados em LLM em investigações e a aplicação de IA generativa ao processo de mitigação de perigos para os governos locais.

História se repetindo

O DHS usa IA há mais de uma década, incluindo tecnologia de aprendizado de máquina (ML) para verificação de identidade. A sua abordagem pode ser melhor descrita como controversa, com a agência recebendo cartas legais sobre o uso da tecnologia de reconhecimento facial. No entanto, os EUA avançaram apesar inquietação de alguns quadrantes.

Na verdade, o DHS cita a IA como algo que está a utilizar para tornar as viagens “mais seguras e fáceis” – quem poderia opor-se a tirar uma fotografia para ajudar a navegar no teatro de segurança que é tão predominante nos aeroportos? Afinal, ainda é opcional.

Outros exemplos de utilização de IA dados pelo DHS incluem a exploração de imagens mais antigas para identificar vítimas de exploração anteriores desconhecidas, a avaliação dos danos após uma catástrofe e a deteção de contrabandistas através da identificação de comportamentos suspeitos.

No seu roteiro, o DHS observou os desafios que existem juntamente com as oportunidades. As ferramentas de IA são igualmente acessíveis tanto aos agentes de ameaças como às autoridades, e o DHS teme que ataques em maior escala estejam ao alcance dos cibercriminosos, bem como ataques a infra-estruturas críticas. E há também a ameaça do conteúdo gerado pela IA.

Uma série de metas foram definidas para 2024. Elas incluem a criação de um AI Sandbox no qual os usuários do DHS possam brincar com a tecnologia e a contratação de 50 especialistas em IA. Também planeja um exercício HackDHS no qual pesquisadores avaliados serão encarregados de encontrar vulnerabilidades em seus sistemas. ®

Carimbo de hora:

Mais de O registro