لا تقلقوا يا رفاق ، هنا يأتي تشاك شومر ببعض الأفكار حول تنظيم الذكاء الاصطناعي

لا تقلقوا يا رفاق ، هنا يأتي تشاك شومر ببعض الأفكار حول تنظيم الذكاء الاصطناعي

لا تقلقوا يا رفاق، هنا يأتي تشاك شومر مع بعض الأفكار حول تنظيم الذكاء الاصطناعي لبيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

السناتور الأمريكي تشاك شومر (ديمقراطي من نيويورك) عازم مؤخرًا على تمرير تشريعات من الحزبين تتيح إجراء عمليات تدقيق عامة مستقلة لمنتجات الذكاء الاصطناعي التجارية قبل إطلاقها في العالم.

بعد شهور من المشاورات ، قال زعيم الأغلبية في مجلس الشيوخ إنه وضع إطار عمل لتنظيم تطوير ونشر واستخدام تكنولوجيا التعلم الآلي المتقدمة. قال إن الطفرة في الذكاء الاصطناعي التوليدي ، وكل الضجيج المحيط به ، وخطوات الصين لتقييد التكنولوجيا جعلت الأمر أكثر إلحاحًا للتحكم في هذه النماذج والبرامج في أمريكا.

من شأن هذا الإطار ، إذا نجحت خطط شومر أن تؤتي ثمارها ، أن يؤدي إلى تشريع "شامل" في الولايات المتحدة يتعين على المنظمات اتباعه عند طرح الذكاء الاصطناعي.

قال شومر في بيان معلب: "عصر الذكاء الاصطناعي هنا ، وها هو ليبقى". "حان الوقت الآن لتطوير وتسخير وتعزيز إمكاناتها لفائدة بلدنا لأجيال."

واستطرد قائلاً: "نظرًا لتأثير صناعة الذكاء الاصطناعي التبعي والسريع الحركة على المجتمع والأمن القومي والاقتصاد العالمي ، فقد عملت مع بعض الممارسين الرائدين في مجال الذكاء الاصطناعي وقادة الفكر لإنشاء إطار عمل يحدد نظامًا تنظيميًا جديدًا من شأنها أن تمنع حدوث أضرار كارثية محتملة لبلدنا مع التأكد في الوقت نفسه من تقدم الولايات المتحدة وتقودها في هذه التكنولوجيا التحويلية.

لكن ما زال هناك الكثير من العمل الذي يتعين علينا القيام به ويجب أن نتحرك بسرعة. إنني أتطلع إلى العمل عبر الممر ، عبر الصناعة وفي جميع أنحاء البلاد وخارجها ، لتشكيل هذا الاقتراح وصقل التشريعات للتأكد من أن الذكاء الاصطناعي يفي بوعده لخلق عالم أفضل ".

يدور إطار عمل شومر المقترح ، والذي تمت مشاركته حول مبنى الكابيتول هيل ولم يتم نشره بعد ، حول أربعة حواجز حماية: من وأين وكيف وحمايتها.

على وجه التحديد ، بموجب هذه المقترحات ، يجب أن يكون واضحًا من قام بتدريب النموذج ومن المفترض أن يستخدمه ، ومن أين جاءت بيانات التدريب ، وكيف سيتم استخدام البرنامج. بشكل حاسم ، يجب تقديم معلومات كافية بحيث يمكن للخبراء الخارجيين تدقيق واختبار ومراجعة منتجات وتقنيات التعلم الآلي قبل طرحها في السوق ، وإعلان هذه النتائج للعامة.

أخيرًا ، بالنسبة للجزء المتعلق بالحماية ، سيتعين على المطورين إثبات أن أنظمة الذكاء الاصطناعي الخاصة بهم متوافقة مع القيم الأمريكية وأن "مطوري الذكاء الاصطناعي يفيون بوعدهم لخلق عالم أفضل." 

يخطط شومر لمشاركة إطار عمله ، إن لم يكن بالفعل ، مع قادة في الأوساط الأكاديمية والصناعة والحكومة ، وينوي العمل مع مراكز الفكر والمؤسسات البحثية لتنقيح مقترحاته قبل تقديم مشروع قانون. السجل الضغط على مكتب السيناتور للحصول على مزيد من التفاصيل ، ولا يمكن للممثل أن يقدم أكثر من ذلك بيان صحفي.

يوضح هذا الإصدار أن إطار العمل المقترح "سيتطلب من الشركات السماح للخبراء المستقلين بمراجعة واختبار تقنيات الذكاء الاصطناعي قبل إصدار أو تحديث عام ، ومنح المستخدمين إمكانية الوصول إلى هذه النتائج".

بالحديث عن البيروقراطية ... مجلس حماية البيانات الأوروبي ، الذي يساعد في الحفاظ على هيئات مراقبة الخصوصية الوطنية في أوروبا على نفس الصفحة ، لديه خلق فريق عمل للتأكد من أن هؤلاء المنظمين يشاركون المعلومات وتفاصيل أي إجراءات صارمة على ChatGPT الخاص بـ OpenAI. هذا بعد أن استولت إيطاليا خط متشدد ضد روبوت الدردشة ، حول مخاوف الخصوصية وحماية الطفل ، وتفكر الدول الأخرى في نفس النوع من الإجراءات.

يشير هذا بشكل أساسي إلى أن أوروبا تتقارب في استجابة موحدة لنظام الذكاء الاصطناعي من الجيل التالي الذي تبنته شركة Microsoft وتم حقنه في جميع أركان تكنولوجيا اليوم.

يأتي كل هذا في الوقت الذي صاغ فيه منظم الفضاء الإلكتروني في الصين قواعد مماثلة تتطلب من الجماعات تقديم تقييمات أمنية لفحص مخاطر السلامة المحتملة لمنتجات الذكاء الاصطناعي الخاصة بهم. يجب على المطورين التأكد من أن بيانات التدريب المستخدمة لتشكيل نماذجهم لن تؤدي إلى التمييز ، وتعكس القيم الاشتراكية للبلاد ، رويترز وذكرت.

تسعى إدارة الاتصالات والمعلومات الوطنية التابعة لوزارة التجارة الأمريكية إلى الحصول على تعليقات عامة للمساعدة في صياغة سياسات محتملة تهدف إلى تحسين مساءلة منتجات وخدمات الذكاء الاصطناعي. وكالة نشر "طلب المساءلة للتعليق" الرسمي لمنظمة العفو الدولية هذا الأسبوع. ®

الطابع الزمني:

اكثر من السجل