محقق سابق OpenAI: 50 درصد احتمال دارد که هوش مصنوعی به «فاجعه» ختم شود

محقق سابق OpenAI: 50 درصد احتمال دارد که هوش مصنوعی به «فاجعه» ختم شود

محقق سابق OpenAI: به احتمال 50 درصد هوش مصنوعی در هوش داده پلاتو بلاک چین «فاجعه» وجود دارد. جستجوی عمودی Ai.

یکی از محققین کلیدی سابق OpenAI معتقد است که هوش مصنوعی کنترل بشریت را در دست گرفته و آن را نابود خواهد کرد.

پل کریستیانو، که تیم هم ترازی مدل زبان را اداره می کرد، "من فکر می کنم شاید حدود 10 تا 20 درصد احتمال تسلط بر هوش مصنوعی وجود داشته باشد، [با] تعداد زیادی [یا] بیشتر انسان ها مرده اند." OpenAI، گفت: در پادکست بدون بانک. "من آن را کاملا جدی می گیرم."

کریستیانو، که اکنون ریاست آن را بر عهده دارد مرکز تحقیقات ترازیک سازمان غیرانتفاعی با هدف همسو کردن هوش مصنوعی و سیستم‌های یادگیری ماشین با «علاقه‌های انسانی»، گفت که او به‌ویژه نگران این است که وقتی هوش مصنوعی به ظرفیت منطقی و خلاق یک انسان برسد چه اتفاقی می‌افتد. او گفت: "به طور کلی، شاید ما در مورد احتمال فاجعه 50/50 در مدت کوتاهی پس از اینکه سیستم هایی در سطح انسانی داشته باشیم صحبت می کنیم."

کریستیانو در شرکت خوبی است. اخیرا تعداد زیادی از دانشمندان در سراسر جهان نامه آنلاین را امضا کرد با اصرار از OpenAI و سایر شرکت‌هایی که برای ساخت هوش مصنوعی سریع‌تر و هوشمندتر مسابقه می‌دهند، دکمه توقف توسعه را فشار دهند. کلاه گیس‌های بزرگ از بیل گیتس تا ایلان ماسک ابراز نگرانی کرده‌اند که هوش مصنوعی، اگر کنترل نشود، خطری آشکار و وجودی برای مردم است.

شرور نباش

چرا هوش مصنوعی بد خواهد شد؟ اساساً به همان دلیلی که شخص انجام می دهد: آموزش و تجربه زندگی.

مثل بچه، هوش مصنوعی آموزش دیده است با دریافت کوه‌هایی از داده‌ها بدون اینکه واقعاً بدانیم با آن‌ها چه کنیم. با تلاش برای دستیابی به اهداف خاص با اقدامات تصادفی و صفر کردن نتایج "درست"، همانطور که توسط آموزش تعریف شده است، یاد می گیرد.

تا کنون، با غوطه‌ور شدن در داده‌های جمع‌آوری‌شده در اینترنت، یادگیری ماشینی هوش مصنوعی را قادر می‌سازد تا جهش‌های بزرگی را در کنار هم قرار دادن پاسخ‌های ساختاریافته و منسجم به پرسش‌های انسانی انجام دهد. در عین حال، پردازش کامپیوتری زیربنایی که به یادگیری ماشین قدرت می‌دهد سریع‌تر، بهتر و تخصصی‌تر می‌شود. برخی از دانشمندان بر این باورند که ظرف یک دهه، این قدرت پردازش، همراه با هوش مصنوعی، به این ماشین‌ها اجازه می‌دهد تا مانند انسان‌ها حساس شوند و حسی از خود داشته باشند.

آن وقت است که همه چیز پرمو می شود. و به همین دلیل است که بسیاری از محققین استدلال می‌کنند که ما باید بدانیم که چگونه نرده‌های محافظ را در حال حاضر و نه بعداً اعمال کنیم. تا زمانی که رفتار هوش مصنوعی نظارت شود، آن را قابل کنترل است.

اما اگر سکه روی طرف دیگر بیفتد، حتی یکی از بنیانگذاران OpenAI می گوید که همه چیز می تواند بسیار خوب شود، خیلی بد.

Foomsday؟

این موضوع سالهاست که مطرح است. یکی از معروف ترین مناظرات در این زمینه 11 سال پیش بین محقق هوش مصنوعی رخ داد الیزر یودکوفسکی و اقتصاددان رابین هانسون. دو طرف در مورد امکان رسیدن به "فوم"- که ظاهرا مخفف "Fast Starset of Uhhelming Mastery" است - نقطه ای که در آن هوش مصنوعی به طور تصاعدی از انسان ها باهوش تر می شود و می تواند خود را بهبود بخشد. (مشتق از اصطلاح "فوم" است مورد دعوا.)

الیزر و یارانش معتقدند که این امر اجتناب ناپذیر است که هوش مصنوعی بدون اخطار "فوت" می کند، به این معنی که یک روز شما یک AGI [هوش عمومی مصنوعی] می سازید و ساعت ها یا روزها بعد آن چیز به طور بازگشتی به هوش خداگونه تبدیل می شود و سپس دنیا را می خورد. . آیا این واقع بینانه است؟» پری متزگر، دانشمند کامپیوتر فعال در جامعه هوش مصنوعی، اخیراً توییت کرده است.

متزگر استدلال کرد که حتی زمانی که سیستم‌های کامپیوتری به سطحی از هوش انسانی می‌رسند، هنوز زمان زیادی برای جلوگیری از هرگونه پیامد بد وجود دارد. «آیا «فوم» منطقاً ممکن است؟ شاید. من قانع نیستم.» «آیا دنیای واقعی امکان پذیر است؟ من تقریباً مطمئن هستم که نه. آیا هوش مصنوعی عمیقاً فوق بشری درازمدت چیزی خواهد بود؟ بله، اما نه "فوم""

یکی دیگر از چهره های برجسته، یان لو کان، نیز صدای خود را بلند کرد و مدعی شد که «کاملا غیر ممکن"برای اینکه بشریت تسلط هوش مصنوعی را تجربه کند." بیایید امیدوار باشیم.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

تمبر زمان:

بیشتر از رمزگشایی کنید