Das DHS wird genAI testen, um US-Einwanderungsbeamte auszubilden

Das DHS wird genAI testen, um US-Einwanderungsbeamte auszubilden

Das DHS wird den Einsatz von genAI testen, um US-Einwanderungsbeamte PlatoBlockchain Data Intelligence auszubilden. Vertikale Suche. Ai.

Das US-Heimatschutzministerium (DHS) verfügt über eine KI-Roadmap und drei Testprojekte zum Einsatz der Technologie, von denen eines darauf abzielt, Einwanderungsbeamte mithilfe generativer KI auszubilden. Was könnte möglicherweise falsch laufen?

In dem Bericht wurden keine KI-Anbieter genannt, die behaupteten, der Einsatz der Technologie solle dazu beitragen, dass Auszubildende „wichtige Informationen“ besser verstehen und behalten und „die Genauigkeit ihres Entscheidungsprozesses erhöhen“.

Es ist sagte, dass OpenAI, Anthropic und Meta sowie die Cloud-Giganten Microsoft, Google und Amazon haben Homeland Security mit KI-Technologie und Online-Diensten ausgestattet, mit denen sie im Hinblick auf Schulung und Entscheidungsfindung experimentieren können.

„Die US-amerikanische Staatsbürgerschafts- und Einwanderungsbehörde (USCIS) wird ein Pilotprojekt mit LLMs durchführen, um Beamte für Flüchtlings-, Asyl- und internationale Einsätze darin zu schulen, wie sie Interviews mit Bewerbern für eine rechtmäßige Einwanderung führen“, so Uncle Sam Fahrplan [PDF], gestern Abend veröffentlicht, erklärt.

Trotz kürzliche Arbeit Bei der Reduzierung von Ungenauigkeiten in KI-Modellen ist bekannt, dass LLMs ungenaue Informationen mit einer Sicherheit generieren, die einen jungen Auszubildenden verwirren könnte.

Die Flubs – sogenannte „Halluzinationen“ – machen es schwierig, den Ergebnissen der KI zu vertrauen Chatbots, Bilderzeugung und sogar Rechtsassistententätigkeit, mit mehr als dank One Anwalt Sie geraten in Schwierigkeiten, weil sie gefälschte Fälle zitieren, die von ChatGPT aus dem Nichts generiert wurden.

Es ist auch bekannt, dass LLMs bei ihrem Einsatz sowohl rassistische als auch geschlechtsspezifische Vorurteile aufweisen Leihwerkzeuge, rassische und geschlechtsspezifische Vorurteile bei Verwendung in Gesichtserkennung Systeme, und kann sogar rassistische Vorurteile aufweisen bei der Verarbeitung von Wörtern, wie in a gezeigt jüngsten Papier Dabei treffen verschiedene LLMs eine Entscheidung über eine Person auf der Grundlage einer Reihe von Textaufforderungen. Die Forscher berichteten in ihrer Märzarbeit, dass LLM-Entscheidungen über Menschen, die einen afroamerikanischen Dialekt verwenden, rassistische Stereotypen widerspiegeln.

Dennoch behauptet das DHS, dass es sich dafür einsetzt, sicherzustellen, dass der Einsatz von KI „verantwortungsvoll und vertrauenswürdig ist; schützt Privatsphäre, Bürgerrechte und bürgerliche Freiheiten; vermeidet unangemessene Vorurteile; und ist für Arbeitnehmer und verarbeitete Personen transparent und erklärbar. Es wird jedoch nicht gesagt, welche Schutzmaßnahmen vorhanden sind.

Die Agentur behauptet, dass der Einsatz generativer KI es dem DHS ermöglichen wird, die Arbeit der Einwanderungsbeamten zu „verbessern“, wobei eine interaktive Anwendung mit generativer KI in der Entwicklung ist, um die Ausbildung der Beamten zu unterstützen. Ziel ist es, den Bedarf an Umschulungen im Laufe der Zeit zu begrenzen.

Der größere DHS-Bericht beschreibt die Pläne des Ministeriums für die Technologie allgemeiner und ist laut Alejandro N. Mayorkas, dem Minister für innere Sicherheit des US-Heimatschutzministeriums, „der bisher detaillierteste KI-Plan, der von einer Bundesbehörde vorgelegt wurde.“

In zwei weiteren Pilotprojekten werden LLM-basierte Systeme bei Untersuchungen eingesetzt und generative KI auf den Gefahrenminderungsprozess für Kommunalverwaltungen angewendet.

Geschichte, die sich wiederholt

Das DHS nutzt seit mehr als einem Jahrzehnt KI, einschließlich maschineller Lerntechnologie (ML) zur Identitätsüberprüfung. Sein Vorgehen lässt sich am besten als kontrovers beschreiben, wobei die Agentur auf der Empfängerseite steht juristische Briefe über den Einsatz von Gesichtserkennungstechnologie. Die USA haben jedoch trotzdem Fortschritte gemacht Unruhe von einigen Seiten.

Tatsächlich nennt das DHS KI als etwas, das es einsetzt, um das Reisen „sicherer und einfacher“ zu machen – wer könnte schon etwas dagegen haben, dass ein Foto gemacht wird, um sich im Sicherheitsgeschehen zurechtzufinden, das auf Flughäfen nur allzu verbreitet ist? Es ist schließlich immer noch optional.

Zu den weiteren vom DHS genannten Beispielen für den Einsatz von KI zählen die Durchsuchung älterer Bilder zur Identifizierung bisher unbekannter Opfer von Ausbeutung, die Schadensbeurteilung nach einer Katastrophe und die Festnahme von Schmugglern durch die Identifizierung verdächtigen Verhaltens.

In seiner Roadmap wies das DHS auf die Herausforderungen hin, die neben den Chancen bestehen. KI-Tools sind sowohl für Bedrohungsakteure als auch für die Behörden gleichermaßen zugänglich, und das DHS befürchtet, dass Cyberkriminelle größere Angriffe sowie Angriffe auf kritische Infrastrukturen erreichen können. Und dann ist da noch die Bedrohung durch KI-generierte Inhalte.

Für 2024 wurden eine Reihe von Zielen festgelegt. Dazu gehört die Schaffung einer KI-Sandbox, in der DHS-Benutzer mit der Technologie spielen können, und die Einstellung von 50 KI-Experten. Außerdem ist eine HackDHS-Übung geplant, bei der geprüfte Forscher damit beauftragt werden, Schwachstellen in ihren Systemen zu finden. ®

Zeitstempel:

Mehr von Das Register