Il DHS testerà l’utilizzo di genAI per formare gli ufficiali dell’immigrazione statunitensi

Il DHS testerà l’utilizzo di genAI per formare gli ufficiali dell’immigrazione statunitensi

Il DHS testerà l'utilizzo di genAI per formare gli ufficiali dell'immigrazione statunitensi su PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Il Dipartimento per la Sicurezza Nazionale degli Stati Uniti (DHS) ha una tabella di marcia per l’IA e tre progetti di prova per implementare la tecnologia, uno dei quali mira a formare gli agenti dell’immigrazione utilizzando l’intelligenza artificiale generativa. Che cosa potrebbe andare storto?

Nessun fornitore di intelligenza artificiale è stato nominato nel rapporto, in cui si affermava che l'uso della tecnologia aveva lo scopo di aiutare i tirocinanti a comprendere e conservare meglio "informazioni cruciali", nonché ad "aumentare l'accuratezza del loro processo decisionale".

Suo detto che OpenAI, Anthropic e Meta, così come i giganti del cloud Microsoft, Google e Amazon, hanno fornito alla Homeland Security tecnologia AI e servizi online da sperimentare, per quanto riguarda la formazione e il processo decisionale.

"I servizi di cittadinanza e immigrazione degli Stati Uniti (USCIS) sperimenteranno l'utilizzo di LLM per aiutare a formare i funzionari dei rifugiati, dell'asilo e delle operazioni internazionali su come condurre interviste con i richiedenti l'immigrazione legale", lo Zio Sam tabella di marcia [PDF], pubblicato ieri sera, spiega.

Nonostante lavoro recente sulla mitigazione delle imprecisioni nei modelli di intelligenza artificiale, è noto che gli LLM generano informazioni imprecise con il tipo di sicurezza che potrebbe confondere un giovane tirocinante.

Gli errori, definiti “allucinazioni”, rendono difficile fidarsi dei risultati dell’intelligenza artificiale chatbots, generazione di immagini e anche il lavoro di assistente legale, con più di prima avvocato finire nei guai per aver citato casi falsi generati dal nulla da ChatGPT.

È noto anche che gli LLM mostrano pregiudizi sia razziali che di genere quando vengono implementati strumenti di assunzione, pregiudizi razziali e di genere quando utilizzati in riconoscimento facciale sistemi e può anche manifestare pregiudizi razzisti durante l'elaborazione delle parole, come mostrato in a carta recente dove vari LLM prendono una decisione su una persona sulla base di una serie di suggerimenti testuali. I ricercatori hanno riferito nel loro articolo di marzo che le decisioni del LLM sulle persone che usano il dialetto afroamericano riflettono stereotipi razzisti.

Tuttavia, il DHS afferma di essere impegnato a garantire che l’uso dell’intelligenza artificiale “sia responsabile e affidabile; salvaguarda la privacy, i diritti civili e le libertà civili; evita pregiudizi inappropriati; ed è trasparente e spiegabile ai lavoratori e alle persone sottoposte al trattamento. Tuttavia, non dice quali garanzie siano in atto.

L’agenzia sostiene che l’uso dell’intelligenza artificiale generativa consentirà al DHS di “migliorare” il lavoro degli ufficiali dell’immigrazione, con un’applicazione interattiva che utilizza l’intelligenza artificiale generativa in fase di sviluppo per assistere nella formazione degli ufficiali. L’obiettivo include limitare la necessità di riqualificazione nel tempo.

Il rapporto più ampio del DHS delinea i piani del Dipartimento per la tecnologia più in generale e, secondo Alejandro N. Mayorkas, segretario del Dipartimento per la sicurezza nazionale degli Stati Uniti, "è il piano di intelligenza artificiale più dettagliato presentato fino ad oggi da un'agenzia federale".

Altri due progetti pilota riguarderanno l’utilizzo di sistemi basati su LLM nelle indagini e l’applicazione dell’intelligenza artificiale generativa al processo di mitigazione dei rischi per i governi locali.

La storia si ripete

Il DHS utilizza l’intelligenza artificiale da più di un decennio, inclusa la tecnologia di apprendimento automatico (ML) per la verifica dell’identità. Il suo approccio può essere meglio descritto come controverso, con l'agenzia a farne le spese lettere legali rispetto all’utilizzo della tecnologia di riconoscimento facciale. Tuttavia, nonostante ciò, gli Stati Uniti sono andati avanti inquietudine da alcuni ambienti.

In effetti, il DHS cita l’intelligenza artificiale come qualcosa che sta utilizzando per rendere i viaggi “più sicuri e più facili” – chi potrebbe opporsi a farsi scattare una foto per aiutare a navigare nel teatro della sicurezza che è fin troppo diffuso negli aeroporti? Dopotutto è ancora facoltativo.

Altri esempi di utilizzo dell’intelligenza artificiale forniti dal DHS includono la ricerca di immagini più vecchie per identificare precedenti vittime sconosciute di sfruttamento, la valutazione dei danni dopo un disastro e la cattura di trafficanti identificando comportamenti sospetti.

Nella sua tabella di marcia, il DHS ha sottolineato le sfide che coesistono insieme alle opportunità. Gli strumenti di intelligenza artificiale sono accessibili sia agli autori delle minacce che alle autorità, e il DHS teme che attacchi su larga scala siano alla portata dei criminali informatici, così come attacchi alle infrastrutture critiche. E poi c’è la minaccia rappresentata dai contenuti generati dall’intelligenza artificiale.

Sono stati fissati numerosi obiettivi per il 2024. Questi includono la creazione di un Sandbox AI in cui gli utenti del DHS possono giocare con la tecnologia e l’assunzione di 50 esperti di IA. Pianifica inoltre un esercizio HackDHS in cui i ricercatori selezionati avranno il compito di trovare vulnerabilità nei suoi sistemi. ®

Timestamp:

Di più da Il registro