يقول الباحثون إن تنظيم الذكاء الاصطناعي يجب أن يبدأ بالأجهزة

يقول الباحثون إن تنظيم الذكاء الاصطناعي يجب أن يبدأ بالأجهزة

لتنظيم الذكاء الاصطناعي، ابدأ بالأجهزة، كما يقول الخبراء في PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

في سعينا للحد من الإمكانات التدميرية للذكاء الاصطناعي، اقترحت ورقة بحثية جديدة صادرة عن جامعة كامبريدج إدخال مفاتيح القتل والإغلاق عن بعد، مثل تلك التي تم تطويرها لوقف الإطلاق غير المصرح به للأسلحة النووية، في الأجهزة التي تشغلها.

الورقة [PDF]، والذي يضم أصواتًا من العديد من المؤسسات الأكاديمية والعديد من مؤسسات OpenAI، يوضح أن تنظيم الأجهزة التي تعتمد عليها هذه النماذج قد يكون أفضل طريقة لمنع إساءة استخدامها.

يقول الباحثون: "إن الحوسبة ذات الصلة بالذكاء الاصطناعي هي نقطة تدخل فعالة بشكل خاص: فهي قابلة للاكتشاف والاستبعاد والقياس الكمي، ويتم إنتاجها عبر سلسلة توريد مركزة للغاية".

يتطلب تدريب النماذج الأكثر إنتاجية، والتي يُعتقد أنها تتجاوز تريليون معلمة، بنية تحتية مادية هائلة: عشرات الآلاف من وحدات معالجة الرسومات أو المسرعات وأسابيع أو حتى أشهر من وقت المعالجة. ويقول الباحثون إن هذا يجعل من الصعب إخفاء وجود هذه الموارد وأدائها النسبي.

علاوة على ذلك، فإن الرقائق الأكثر تقدما المستخدمة لتدريب هذه النماذج يتم إنتاجها من قبل عدد صغير نسبيا من الشركات، مثل إنفيديا، وإيه إم دي، وإنتل، مما يسمح لصناع السياسات بتقييد بيع هذه السلع للأشخاص أو البلدان المعنية.

وتؤكد الورقة أن هذه العوامل، إلى جانب عوامل أخرى مثل قيود سلسلة التوريد على تصنيع أشباه الموصلات، توفر لصانعي السياسات الوسائل اللازمة لفهم كيفية ومكان نشر البنية التحتية للذكاء الاصطناعي بشكل أفضل، ومن يُسمح له ومن لا يُسمح له بالوصول إليها، وفرض عقوبات على سوء استخدامها. .

السيطرة على البنية التحتية

تسلط الورقة الضوء على العديد من الطرق التي يمكن لصانعي السياسات من خلالها التعامل مع تنظيم أجهزة الذكاء الاصطناعي. إن العديد من الاقتراحات ــ بما في ذلك تلك المصممة لتحسين الرؤية والحد من بيع مسرعات الذكاء الاصطناعي ــ بدأ تنفيذها بالفعل على المستوى الوطني.

في العام الماضي طرح الرئيس الأمريكي جو بايدن خطة أمر تنفيذي تهدف إلى تحديد الشركات التي تقوم بتطوير نماذج الذكاء الاصطناعي الكبيرة ذات الاستخدام المزدوج بالإضافة إلى بائعي البنية التحتية القادرين على ذلك تدريبهم. إذا لم تكن على دراية، يشير مصطلح "الاستخدام المزدوج" إلى التقنيات التي يمكن أن تؤدي واجبًا مزدوجًا في التطبيقات المدنية والعسكرية.

ومؤخرا وزارة التجارة الأمريكية المقترح التنظيم الذي يتطلب من مقدمي الخدمات السحابية الأمريكيين تنفيذ سياسات أكثر صرامة "اعرف عميلك" لمنع الأشخاص أو البلدان المعنية من الالتفاف على قيود التصدير.

ويشير الباحثون إلى أن هذا النوع من الرؤية مهم لأنه يمكن أن يساعد في تجنب سباق تسلح آخر، مثل ذلك الذي أثاره الجدل حول الفجوة الصاروخية، حيث أدت التقارير الخاطئة إلى تراكم هائل للصواريخ الباليستية. وعلى الرغم من أهميتها، إلا أنها تحذر من أن تنفيذ متطلبات إعداد التقارير هذه يخاطر بانتهاك خصوصية العميل وقد يؤدي حتى إلى تسرب البيانات الحساسة.

وفي الوقت نفسه، على جبهة التجارة، واصلت وزارة التجارة القيام بذلك خطوة للأعلى القيود، مما يحد من أداء المسرعات المباعة للصين. ولكن، كما ذكرنا سابقًا، في حين أن هذه الجهود جعلت من الصعب على دول مثل الصين أن تضع أيديها على الرقائق الأمريكية، إلا أنها بعيدة عن الكمال.

ولمعالجة هذه القيود، اقترح الباحثون تنفيذ سجل عالمي لمبيعات شرائح الذكاء الاصطناعي التي من شأنها تتبعها على مدار دورة حياتها، حتى بعد مغادرتها بلدها الأصلي. ويشيرون إلى أن مثل هذا السجل يمكن أن يتضمن معرفًا فريدًا في كل شريحة، مما قد يساعد في المكافحة تهريب من المكونات.

وفي الطرف الأكثر تطرفًا من الطيف، اقترح الباحثون أنه يمكن خبز مفاتيح القتل في السيليكون لمنع استخدامها في التطبيقات الضارة.

من الناحية النظرية، قد يسمح هذا للجهات التنظيمية بالاستجابة بشكل أسرع لإساءة استخدام التقنيات الحساسة عن طريق قطع الوصول إلى الرقائق عن بعد، لكن المؤلفين يحذرون من أن القيام بذلك لا يخلو من المخاطر. والمغزى من ذلك هو أنه إذا تم تنفيذه بشكل غير صحيح، فقد يصبح مفتاح الإيقاف هذا هدفًا لمجرمي الإنترنت.

وهناك اقتراح آخر يتطلب من أطراف متعددة التوقيع على مهام تدريب الذكاء الاصطناعي التي يحتمل أن تكون محفوفة بالمخاطر قبل أن يتم نشرها على نطاق واسع. وكتبوا: "تستخدم الأسلحة النووية آليات مماثلة تسمى روابط العمل المتساهلة".

بالنسبة للأسلحة النووية، تم تصميم أقفال الأمان هذه لمنع شخص واحد من الانحراف وشن الضربة الأولى. ومع ذلك، بالنسبة للذكاء الاصطناعي، الفكرة هي أنه إذا أراد فرد أو شركة تدريب نموذج على حد معين في السحابة، فسيحتاج أولاً إلى الحصول على ترخيص للقيام بذلك.

وعلى الرغم من كونها أداة قوية، إلا أن الباحثين لاحظوا أن هذا قد يأتي بنتائج عكسية من خلال منع تطوير الذكاء الاصطناعي المرغوب فيه. يبدو أن الحجة هي أنه على الرغم من أن استخدام الأسلحة النووية له نتائج واضحة المعالم، إلا أن الذكاء الاصطناعي ليس دائمًا بالأبيض والأسود.

ولكن إذا كان هذا يبدو بائسًا بعض الشيء بالنسبة لذوقك، فإن الورقة تخصص قسمًا كاملاً لإعادة تخصيص موارد الذكاء الاصطناعي لتحسين المجتمع ككل. والفكرة هي أن صانعي السياسات يمكن أن يجتمعوا لجعل حوسبة الذكاء الاصطناعي في متناول المجموعات التي من غير المرجح أن تستخدمها في الشر، وهو مفهوم يوصف بـ "التخصيص".

ما العيب في تنظيم تطوير الذكاء الاصطناعي؟

لماذا تذهب إلى كل هذا العناء؟ حسنًا، يفترض مؤلفو البحث أن التحكم في الأجهزة المادية أسهل بطبيعتها.

وبالمقارنة بالأجهزة، فإن "المدخلات والمخرجات الأخرى لتطوير الذكاء الاصطناعي - البيانات والخوارزميات والنماذج المدربة - هي سلع غير ملموسة قابلة للمشاركة بسهولة وغير منافسة، مما يجعل السيطرة عليها بطبيعتها صعبة".

والحجة هي أنه بمجرد نشر النموذج، سواء بشكل علني أو مسرب، لن يكون هناك إعادة الجني إلى القمقم ووقف انتشاره عبر الشبكة.

وشدد الباحثون أيضًا على أن الجهود المبذولة لمنع إساءة استخدام النماذج أثبتت عدم موثوقيتها. في أحد الأمثلة، سلط المؤلفون الضوء على السهولة التي تمكن بها الباحثون من تفكيك الضمانات في Meta's Llama 2 التي تهدف إلى منع النموذج من توليد لغة مسيئة.

إذا أخذنا الأمر إلى أقصى الحدود، يُخشى أن يكون من الممكن استخدام نموذج مزدوج الاستخدام متقدم بما فيه الكفاية لتسريع عملية الإنتاج تطوير بالأسلحة الكيميائية أو البيولوجية.

تعترف الورقة بأن تنظيم أجهزة الذكاء الاصطناعي ليس حلاً سحرياً ولا يلغي الحاجة إلى التنظيم في جوانب أخرى من الصناعة.

ومع ذلك، من الصعب تجاهل مشاركة العديد من الباحثين في OpenAI بالنظر إلى مشاركة الرئيس التنفيذي سام ألتمان محاولات للسيطرة على السرد حول تنظيم الذكاء الاصطناعي. ®

الطابع الزمني:

اكثر من السجل