باحث أوبن إيه آي السابق: هناك فرصة بنسبة 50٪ للذكاء الاصطناعي أن ينتهي بكارثة

باحث أوبن إيه آي السابق: هناك فرصة بنسبة 50٪ للذكاء الاصطناعي أن ينتهي بكارثة

باحث سابق في OpenAI: هناك احتمال بنسبة 50% أن ينتهي الذكاء الاصطناعي بـ"كارثة" في ذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

يعتقد باحث رئيسي سابق في أوبن إيه آي أن هناك فرصة جيدة لأن يسيطر الذكاء الاصطناعي على البشرية ويدمرها.

"أعتقد أنه ربما يكون هناك شيء مثل فرصة 10-20٪ للاستيلاء على الذكاء الاصطناعي ، [مع] وفاة العديد [أو] معظم البشر ،" بول كريستيانو ، الذي أدار فريق محاذاة نموذج اللغة في OpenAI، قال في بودكاست بدون بنوك. "أنا آخذ الأمر على محمل الجد."

كريستيانو ، الذي يرأس الآن مركز أبحاث المحاذاة، وهي منظمة غير ربحية تهدف إلى مواءمة أنظمة الذكاء الاصطناعي وأنظمة التعلم الآلي مع "المصالح البشرية" ، قال إنه قلق بشكل خاص بشأن ما يحدث عندما تصل أنظمة الذكاء الاصطناعي إلى القدرة المنطقية والإبداعية للإنسان. وقال: "بشكل عام ، ربما نتحدث عن احتمال وقوع كارثة بنسبة 50/50 بعد وقت قصير من وجود أنظمة على المستوى البشري".

كريستيانو في شركة جيدة. مؤخرًا عشرات العلماء حول العالم وقعت على خطاب عبر الإنترنت حث شركة OpenAI والشركات الأخرى التي تتسابق لبناء أنظمة ذكاء اصطناعي أسرع وأكثر ذكاءً ، على الضغط على زر الإيقاف المؤقت عند التطوير. أعربت الباروكات الكبيرة من بيل جيتس إلى إيلون ماسك عن قلقها من أن الذكاء الاصطناعي ، إذا ترك دون رادع ، يمثل خطرًا وجوديًا واضحًا على الناس.

لا تكن شريرا

لماذا يصبح الذكاء الاصطناعي شريرًا؟ في الأساس ، لنفس السبب الذي يفعله الشخص: التدريب والخبرة الحياتية.

مثل الطفل، يتم تدريب الذكاء الاصطناعي من خلال تلقي كميات ضخمة من البيانات دون معرفة ما يجب فعله بها. يتعلم من خلال محاولة تحقيق أهداف معينة بإجراءات عشوائية وأصفار في النتائج "الصحيحة" ، كما هو محدد في التدريب.

حتى الآن ، من خلال الانغماس في البيانات المتراكمة على الإنترنت ، مكّن التعلم الآلي أنظمة الذكاء الاصطناعي من تحقيق قفزات هائلة في تجميع ردود متماسكة ومنظمة جيدًا على الاستفسارات البشرية. في الوقت نفسه ، أصبحت معالجة الكمبيوتر الأساسية التي تدعم التعلم الآلي أسرع وأفضل وأكثر تخصصًا. يعتقد بعض العلماء أنه في غضون عقد من الزمن ، ستسمح قوة المعالجة هذه ، جنبًا إلى جنب مع الذكاء الاصطناعي ، لهذه الآلات بأن تصبح واعية ، مثل البشر ، ولديها إحساس بالذات.

هذا عندما تصبح الأمور مشعرة. ولهذا السبب يجادل العديد من الباحثين بأننا بحاجة إلى معرفة كيفية فرض حواجز الحماية الآن ، وليس لاحقًا. طالما يتم مراقبة سلوك الذكاء الاصطناعي ، فإنه يمكن السيطرة عليها.

ولكن إذا هبطت العملة على الجانب الآخر ، حتى الشريك المؤسس لـ OpenAI يقول إن الأشياء يمكن أن تصبح كبيرة جدًا ، سيئة للغاية.

فومزداي؟

كان هذا الموضوع على الطاولة لسنوات. جرت إحدى أشهر النقاشات حول هذا الموضوع قبل 11 عامًا بين باحث في الذكاء الاصطناعي اليعازر يودكوفسكي والخبير الاقتصادي روبن هانسون. ناقش الاثنان إمكانية الوصول إلى "فوم"—التي تشير على ما يبدو إلى" البداية السريعة لإتقان ساحق "- النقطة التي يصبح فيها الذكاء الاصطناعي أكثر ذكاءً من البشر وقادرًا على تحسين الذات. (اشتقاق مصطلح "foom" هو قابل للمناقشة.)

"يعتقد إليعيزر وأتباعه أنه لا مفر من أن تنطلق أنظمة الذكاء الاصطناعي دون سابق إنذار ، مما يعني أنه يومًا ما ستبني AGI [ذكاء عام صناعي] وبعد ساعات أو أيام يتحسن الشيء ذاتيًا بشكل متكرر إلى ذكاء يشبه الإله ثم يأكل العالم . هل هذا واقعي؟ بيري ميتزجر ، عالم كمبيوتر نشط في مجتمع الذكاء الاصطناعي ، غرد مؤخرا.

جادل ميتزجر أنه حتى عندما تصل أنظمة الكمبيوتر إلى مستوى من الذكاء البشري ، فلا يزال هناك متسع من الوقت لتجنب أي نتائج سيئة. "هل" foom "منطقيًا؟ ربما. قال: "لست مقتنعًا". "هل هذا العالم الحقيقي ممكن؟ أنا متأكد تمامًا لا. هل سيكون الذكاء الاصطناعي الخارق للغاية على المدى الطويل شيئًا؟ نعم ، ولكن ليس "foom" "

كما رفعت شخصية بارزة أخرى ، يان لو كون ، صوته ، مدعيةً أنها "مستحيل تماما، "للإنسانية لتجربة استيلاء الذكاء الاصطناعي." لنأمل ذلك.

ابق على اطلاع بأخبار العملات المشفرة ، واحصل على تحديثات يومية في صندوق الوارد الخاص بك.

الطابع الزمني:

اكثر من فك تشفير