Accenture تستثمر 3 مليارات دولار لدعم جهود الذكاء الاصطناعي

Accenture تستثمر 3 مليارات دولار لدعم جهود الذكاء الاصطناعي

تضخ شركة Accenture استثمارًا بقيمة 3 مليارات دولار لدعم جهود الذكاء الاصطناعي في ذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

وافق البرلمان الأوروبي ، الهيئة التشريعية الرئيسية في الاتحاد الأوروبي (EU) ، على قانون مقترح من شأنه أن ينظم الذكاء الاصطناعي ، مما يجعل الكتلة المكونة من 27 دولة ممكنة. أول قوة اقتصادية كبرى تضع قواعد شاملة للتكنولوجيا.

سيقيد القانون ، المعروف باسم قانون الذكاء الاصطناعي ، استخدام أنظمة الذكاء الاصطناعي التي تعتبر عالية الخطورة ، مثل برامج التعرف على الوجه. سيتطلب أيضًا من الشركات التي تطور أنظمة ذكاء اصطناعي مثل شات جي بي تي للكشف عن مزيد من المعلومات حول البيانات المستخدمة في تدريب روبوتات المحادثة.

أعضاء البرلمان الأوروبي ومقره فرنسا صوت لصالح من التشريع الجديد يوم الأربعاء. يأتي التصويت وسط تحذيرات من بعض الخبراء من إمكانية الذكاء الاصطناعي يشكل تهديدا للبشرية إذا تم تطويره بسرعة كبيرة.

اقرأ أيضا: مدونة قواعد السلوك الخاصة بالذكاء الاصطناعي التي تأتي "في غضون أسابيع" كما تقول الولايات المتحدة وأوروبا

وضع المعايير العالمية

قالت روبرتا ميتسولا ، رئيسة البرلمان الأوروبي ، إن اعتماد القواعد الجديدة يظهر التزام أوروبا بالتطوير المسؤول للذكاء الاصطناعي.

"أوروبا تقود وستستمر في قيادة نهج متوازن محوره الإنسان في أول قانون للذكاء الاصطناعي في العالم. وقال ميتسولا في مقطع فيديو: "تشريع سيضع بلا شك المعايير العالمية لسنوات قادمة" نشر على التغريد.

ويتوافق كل هذا تمامًا مع رغبتنا في أن نكون قادة العالم في مجال الابتكار الرقمي استنادًا إلى قيم الاتحاد الأوروبي ، مثل الخصوصية واحترام الحقوق الأساسية. هذا كله يتعلق بأخذ أوروبا زمام المبادرة ونحن نفعل ذلك بطريقتنا - بمسؤولية ".

المسودة الحالية من البرلمان الأوروبي'يقترح قانون الذكاء الاصطناعي (AI) نهجًا قائمًا على المخاطر لتنظيم أنظمة الذكاء الاصطناعي. سيتم تصنيف أنظمة الذكاء الاصطناعي إلى مستويات مختلفة من المخاطر ، بناءً على قدرتها على إلحاق الضرر بالمستهلكين.

وفقًا للقانون ، تتعلق الفئة الأقل خطورة بالذكاء الاصطناعي المستخدم في ألعاب الفيديو أو مرشحات البريد العشوائي. تشمل فئة المخاطر الأعلى الذكاء الاصطناعي الذي يمكن استخدامه للتقييم الاجتماعي ، وهي ممارسة تخصص درجات للأفراد ، سواء للقروض أو الإسكان ، بناءً على سلوكهم.

يقول الاتحاد الأوروبي إنه سيحظر مثل هذه البرامج. سيُطلب من الشركات التي تطور أو تستخدم ما يسمى بالذكاء الاصطناعي عالي الخطورة تقديم معلومات حول كيفية عمل أنظمتها. جاء ذلك لضمان أن تكون برامج الذكاء الاصطناعي عادلة وشفافة ، وأنها لا تميز ضد الأفراد ، كما تقول القواعد.

رئيس الاتحاد الأوروبي: التمييز خطر كبير على الذكاء الاصطناعي

مفوض الاتحاد الأوروبي لشؤون المنافسة مارغريت Vestager، قال إن "حواجز الحماية" مثل تلك المقترحة بموجب قانون الذكاء الاصطناعي يمكن أن تساعد في حماية الناس من بعض أكبر مخاطر الذكاء الاصطناعي ، بما في ذلك التمييز.

على سبيل المثال ، يمكن استخدام الذكاء الاصطناعي لاتخاذ قرارات بشأن من يحصل على رهن عقاري أو وظيفة ، وقد تستند هذه القرارات إلى عوامل مثل العرق أو الجنس أو الدين ، على حد قولها.

"من المحتمل أن يكون [خطر الانقراض] موجودًا ، لكنني أعتقد أن الاحتمال ضئيل جدًا. أعتقد أن مخاطر الذكاء الاصطناعي هي أن الناس سوف يتعرضون للتمييز [ضد] ، ولن يُنظر إليهم على أنهم من هم ، "Vestager قال بي بي سي بعد تصويت البرلمان الأوروبي.

"إذا كان أحد البنوك يستخدمه ليقرر ما إذا كان بإمكاني الحصول على قرض عقاري أم لا ، أو إذا كان من الخدمات الاجتماعية في بلديتك ، فأنت تريد التأكد من أنك لا تتعرض للتمييز [ضد] بسبب جنسك أو لونك أو رمزك البريدي ".

قالت هيئة حماية البيانات الأيرلندية (DPC) يوم الثلاثاء إنها وضعت خطة جوجل لنشرها روبوت الدردشة بالذكاء الاصطناعي بارد في الاتحاد الأوروبي معلق ، بوليتيكو تقارير. أبلغت Google المنظم أنها تعتزم إطلاق Bard في الاتحاد الأوروبي هذا الأسبوع.

لكن DPC قالت إنها لم تتلق أي معلومات من Google حول كيفية قيام الشركة بتحديد وتقليل مخاطر حماية البيانات للمستخدمين المحتملين. يهتم المنظم بإمكانية قيام Bard بجمع واستخدام البيانات الشخصية دون موافقة المستخدمين.

وقال نائب مفوض DPC ، غراهام دويل ، إن السلطة تريد الحصول على المعلومات "على سبيل الاستعجال". سأل أيضا شراء مراجعات جوجل لمزيد من المعلومات حول ممارسات حماية البيانات الخاصة بها.

فرض حواجز صارمة للذكاء الاصطناعي

بموجب القواعد الجديدة التي اقترحها البرلمان الأوروبي للذكاء الاصطناعي ، سيتم تقييد استخدام أنظمة تحديد المقاييس الحيوية والجمع العشوائي لبيانات المستخدم من وسائل التواصل الاجتماعي أو لقطات الدوائر التلفزيونية المغلقة لأغراض مثل برامج التعرف على الوجه.

تحظر المقترحات استخدام الذكاء الاصطناعي للمراقبة الجماعية وستطلب من الشركات الحصول على موافقة صريحة من المستخدمين قبل جمعهم. وفقًا لتقرير بي بي سي ، قال فيستاجر:

"نريد وضع حواجز حماية صارمة بحيث لا يتم استخدامها في الوقت الفعلي ، ولكن فقط في ظروف محددة حيث تبحث عن طفل مفقود أو يكون هناك إرهابي يفر".

يتقدم الاتحاد الأوروبي على الولايات المتحدة والحكومات الغربية الكبيرة الأخرى في تنظيم الذكاء الاصطناعي. يناقش التكتل تنظيم الذكاء الاصطناعي منذ أكثر من عامين ، واكتسبت القضية إلحاحًا جديدًا بعد إصدار ChatGPT في نوفمبر.

ChatGPT عبارة عن روبوت محادثة ذو نموذج لغة كبير تم تطويره بواسطة OpenAI يمكنه إنشاء نصوص بجودة بشرية. أدى إصداره إلى تكثيف المخاوف بشأن الآثار السلبية المحتملة للذكاء الاصطناعي على التوظيف والمجتمع ، مثل الاستغناء عن الوظائف والعزلة الاجتماعية.

بدأت كل من الولايات المتحدة والصين الآن في تطوير سياسات ملموسة لتنظيم الذكاء الاصطناعي. ال البيت الابيض أصدر مجموعة من الأفكار السياسية لتنظيم الذكاء الاصطناعي. والصين لديها بالفعل أصدرت لوائح جديدة التي تحظر استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لنشر "الأخبار المزيفة".

في مايو ، اجتمع قادة ما يسمى بـ G7 في اليابان ودعوا إلى تطوير معايير تقنية للحفاظ على الذكاء الاصطناعي "جديرًا بالثقة". وحثوا على إجراء حوار دولي حول حوكمة الذكاء الاصطناعي وحقوق النشر والشفافية وخطر التضليل الإعلامي.

ليس من المتوقع أن يدخل قانون الذكاء الاصطناعي في أوروبا حيز التنفيذ حتى عام 2025. سيتعين على سلطات الاتحاد الأوروبي الثلاثة: المفوضية والبرلمان والمجلس الاتفاق على نسخته النهائية.

الطابع الزمني:

اكثر من ميتا نيوز