ستقوم وزارة الأمن الداخلي باختبار استخدام genAI لتدريب ضباط الهجرة الأمريكيين

ستقوم وزارة الأمن الداخلي باختبار استخدام genAI لتدريب ضباط الهجرة الأمريكيين

ستختبر وزارة الأمن الداخلي استخدام genAI لتدريب ضباط الهجرة الأمريكيين على PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

لدى وزارة الأمن الداخلي الأمريكية (DHS) خارطة طريق للذكاء الاصطناعي وثلاثة مشاريع اختبارية لنشر التكنولوجيا، يهدف أحدها إلى تدريب موظفي الهجرة باستخدام الذكاء الاصطناعي التوليدي. ما الذي يمكن أن يحدث بشكل خاطئ؟

ولم يتم ذكر أي بائعي ذكاء اصطناعي في التقرير، الذي ادعى أن استخدام التكنولوجيا كان يهدف إلى المساعدة في تعزيز المتدربين لفهم "المعلومات المهمة" والاحتفاظ بها بشكل أفضل، وكذلك "زيادة دقة عملية اتخاذ القرار الخاصة بهم".

انها وقال أن قامت OpenAI وAnthropic وMeta، بالإضافة إلى عمالقة السحابة Microsoft وGoogle وAmazon، بتزويد Homeland Security بتكنولوجيا الذكاء الاصطناعي والخدمات عبر الإنترنت لتجربتها، فيما يتعلق بالتدريب واتخاذ القرار.

"ستعمل خدمات المواطنة والهجرة الأمريكية (USCIS) على تجربة استخدام LLMs للمساعدة في تدريب موظفي اللاجئين واللجوء والعمليات الدولية على كيفية إجراء المقابلات مع المتقدمين للهجرة القانونية،" العم سام خريطة طريق يوضح [PDF]، الذي صدر الليلة الماضية.

على الرغم من آخر عمل فيما يتعلق بالتخفيف من عدم الدقة في نماذج الذكاء الاصطناعي، من المعروف أن ماجستير إدارة الأعمال يولد معلومات غير دقيقة بنوع من الثقة التي قد تخدع المتدرب الشاب.

إن الأخطاء - التي يشار إليها باسم "الهلوسة" - تجعل من الصعب الثقة في مخرجات الذكاء الاصطناعي chatbots, توليد الصور وحتى عمل مساعد قانوني، مع أكثر من صورة واحدة؟ محامي الوقوع في مشكلة بسبب الاستشهاد بالحالات المزيفة التي تم إنشاؤها من لا شيء بواسطة ChatGPT.

من المعروف أيضًا أن LLMs تظهر تحيزًا عنصريًا وجنسيًا عند نشرها أدوات التوظيفوالتحيز العنصري والجنسي عند استخدامها في التعرف على الوجه الأنظمة، ويمكن حتى إظهار التحيزات العنصرية عند معالجة الكلمات، كما هو موضح في أ ورقة الزوار حيث يتخذ العديد من حاملي الماجستير في القانون قرارًا بشأن شخص ما بناءً على سلسلة من المطالبات النصية. أفاد الباحثون في ورقتهم البحثية التي نشرت في شهر مارس أن قرارات LLM بشأن الأشخاص الذين يستخدمون اللهجة الأمريكية الأفريقية تعكس الصور النمطية العنصرية.

ومع ذلك، تدعي وزارة الأمن الوطني أنها ملتزمة بضمان أن يكون استخدامها للذكاء الاصطناعي “مسؤولًا وجديرًا بالثقة؛ يحمي الخصوصية والحقوق المدنية والحريات المدنية؛ يتجنب التحيزات غير المناسبة؛ ويكون شفافًا وقابل للشرح للعاملين والأشخاص الذين تتم معالجتهم. ومع ذلك، فهو لا يذكر ما هي الضمانات الموجودة.

تدعي الوكالة أن استخدام الذكاء الاصطناعي التوليدي سيسمح لوزارة الأمن الداخلي بـ "تعزيز" عمل موظفي الهجرة، من خلال تطبيق تفاعلي يستخدم الذكاء الاصطناعي التوليدي قيد التطوير للمساعدة في تدريب الضباط. يتضمن الهدف الحد من الحاجة إلى إعادة التدريب مع مرور الوقت.

ويحدد تقرير وزارة الأمن الداخلي الأكبر خطط الوزارة للتكنولوجيا بشكل عام، ووفقًا لأليخاندرو إن مايوركاس، وزير الأمن الداخلي الأمريكي، "هي خطة الذكاء الاصطناعي الأكثر تفصيلاً التي طرحتها وكالة اتحادية حتى الآن".

وسيتضمن مشروعان تجريبيان آخران استخدام الأنظمة القائمة على LLM في التحقيقات وتطبيق الذكاء الاصطناعي التوليدي على عملية تخفيف المخاطر للحكومات المحلية.

التاريخ يعيد

استخدمت وزارة الأمن الوطني الذكاء الاصطناعي لأكثر من عقد من الزمن، بما في ذلك تقنية التعلم الآلي (ML) للتحقق من الهوية. أفضل وصف لنهجها هو أنه مثير للجدل، حيث أن الوكالة هي الطرف المتلقي خطابات قانونية حول استخدام تقنية التعرف على الوجه. ومع ذلك، مضت الولايات المتحدة قدما على الرغم من ذلك قلق من بعض الجهات.

في الواقع، تستشهد وزارة الأمن الوطني بالذكاء الاصطناعي باعتباره شيئًا تستخدمه لجعل السفر "أكثر أمانًا وسهولة" - فمن قد يعترض على التقاط صورة للمساعدة في التنقل في المسرح الأمني ​​السائد في المطارات؟ فهو، في نهاية المطاف، لا يزال اختياريًا.

تشمل الأمثلة الأخرى لاستخدام الذكاء الاصطناعي التي قدمتها وزارة الأمن الداخلي، البحث في الصور القديمة لتحديد ضحايا الاستغلال غير المعروفين السابقين، وتقييم الأضرار بعد وقوع الكارثة، والقبض على المهربين من خلال تحديد السلوك المشبوه.

وفي خريطة الطريق الخاصة بها، أشارت وزارة الأمن الوطني إلى التحديات القائمة إلى جانب الفرص. يمكن للجهات الفاعلة في مجال التهديد وكذلك السلطات الوصول إلى أدوات الذكاء الاصطناعي، وتشعر وزارة الأمن الوطني بالقلق من أن الهجمات واسعة النطاق تكون في متناول مجرمي الإنترنت، فضلاً عن الهجمات على البنية التحتية الحيوية. ثم هناك التهديد الناتج عن المحتوى الذي ينشئه الذكاء الاصطناعي.

تم تحديد عدد من الأهداف لعام 2024. وتشمل هذه الأهداف إنشاء AI Sandbox حيث يمكن لمستخدمي DHS اللعب بالتكنولوجيا وتوظيف 50 خبيرًا في الذكاء الاصطناعي. كما تخطط أيضًا لإجراء تمرين HackDHS حيث سيتم تكليف الباحثين الذين تم فحصهم بالعثور على نقاط الضعف في أنظمتها. ®

الطابع الزمني:

اكثر من السجل