انسان ها به سیستم های هوش مصنوعی Go-playing پاسخ می دهند

انسان ها به سیستم های هوش مصنوعی Go-playing پاسخ می دهند

انسان‌ها به سیستم‌های هوش مصنوعی Go-playing، هوش داده پلاتوبلاک چین حمله می‌کنند. جستجوی عمودی Ai.

فکر می‌کنید که انسان‌های ضعیف در بازی‌های استراتژیک علیه هوش مصنوعی شانسی ندارند؟ شاید مجبور شوید دوباره فکر کنید. یک نفر در ایالات متحده یک هوش مصنوعی را در بازی باستانی Go با منحرف کردن آن از حمله ای که انجام می داد، شکست داد، تاکتیکی که بعید است روی کیسه گوشت دیگری کارساز باشد.

این بازیکن، Kellin Pelrine، ظاهراً در صدر رده بندی آماتورها برای بازی Go نیست، اما طبق گفته های فایننشال تایمز. پلرین از تاکتیک هایی استفاده کرد که شامل پرت کردن حواس الگوریتم با حرکات در گوشه های دیگر تخته بود در حالی که او برای احاطه کردن گروه هایی از سنگ های حریف کار می کرد.

Go یک بازی رومیزی است که در آن دو بازیکن یک سنگ سیاه یا سفید را روی یک تخته 19 در 19 قرار می دهند، هدف این است که منطقه بزرگتر از حریف شما را احاطه کند. اگر سنگ ها با سنگ های مخالف احاطه شوند از تخته جدا می شوند.

به نظر می رسد که هوش مصنوعی Go-playing متوجه مخمصه ای که در آن قرار داشت، حتی زمانی که محاصره تقریباً کامل شده بود - استراتژی ای که در یک نگاه برای بازیکن انسانی دیگر آشکار می شد، متوجه نشد.

همه اینها با سال 2016، زمانی که شرکت DeepMind متعلق به گوگل بود، فاصله زیادی دارد آلفاگو موفق شد لی سدول - یکی از بالاترین رتبه‌بندی‌ترین بازیکنان Go در جهان - را شکست دهد و بسیاری از مردم این توسعه را برای بازیکنان انسانی یک بازی تمام شده می‌دانستند زیرا در آینده حلقه‌هایی با مدل‌های یادگیری ماشینی پیچیده‌تر دور آن‌ها اجرا می‌شود.

پلرین در مقابل AlphaGo بازی نمی‌کرد، بلکه در مقابل چندین سیستم هوش مصنوعی Go-playing دیگر، از جمله KataGo، که بر اساس تکنیک‌هایی است که توسط DeepMind در ایجاد AlphaGo Zero استفاده شده است، بازی می‌کرد.

از قضا، به نظر می رسد که رویکرد شکست دادن این سیستم های هوش مصنوعی توسط یک برنامه کامپیوتری کشف شده است، که به طور خاص توسط تیمی از محققان (از جمله Pelrine) برای بررسی نقاط ضعف استراتژی هوش مصنوعی که یک بازیکن انسانی می تواند از آن استفاده کند، ایجاد شده است. به ما گفته می شود که این برنامه بیش از یک میلیون بازی در برابر KataGo انجام داد تا رفتار آن را تجزیه و تحلیل کند.

پلرین به FT گفت، استراتژی یافت شده توسط این نرم افزار کاملاً بی اهمیت نیست، اما دستیابی به آن برای بازیکنان انسانی نیز دشوار نیست، و می توان آن را توسط یک بازیکن متوسط ​​برای شکست دادن مدل های هوش مصنوعی Go-playing استفاده کرد.

آخرین اقدام نشان می‌دهد که سیستم‌های هوش مصنوعی ممکن است در هر فرآیندی که مدلشان برای انجام آن آموزش دیده است، متخصص به نظر برسد، اما همچنان می‌تواند حفره‌های شگفت‌انگیزی در قابلیت‌های آنها وجود داشته باشد.

آلن دکر، مهندس نرم‌افزار و بازیکن حرفه‌ای شطرنج و ورزش ذهنی گفت: «من فکر می‌کنم «حالت شکست غافلگیرکننده» داستان واقعی اینجاست. ثبت نام. "به یک فکر کنید ماشین تسلا در حال رانندگی در کنار یک ون زیرا رنگ روشن خود را با خط افق اشتباه گرفته است.»

دکر گفت که هر هوش مصنوعی بسیار آموزش دیده احتمالاً این نقاط کور را دارد، که افزودن پیچیدگی بیشتر و بیشتر برای پوشاندن نقاط کور تا حدودی دلیل سختی برای کارکرد خوب آن است و چرا ممکن است تولید خودروهای بدون راننده بیشتر از حد انتظار طول بکشد. در جاده های ما

تیم تحقیقاتی به FT گفت که علت دقیق نقطه کور در استراتژی های بازیکنان AI Go یک حدس و گمان است، اما به احتمال زیاد رویکرد استفاده شده توسط Pelrine آنقدر نادر است که الگوریتم آن را تشخیص نمی دهد. اگر چنین است، به نظر می رسد که احتمالاً مدل های به روز شده آموزش دیده برای تشخیص این استراتژی در آینده به راحتی فریب نخواهند خورد.

مقاله ای با جزئیات تاکتیک های خصمانه مورد استفاده برای کشف استراتژی برنده را می توان یافت اینجا کلیک نمایید [PDF]. ®

تمبر زمان:

بیشتر از ثبت نام