ChatGPT شروع به بیرون ریختن کلمات مزخرف در شوکر یک شبه می کند

ChatGPT شروع به بیرون ریختن کلمات مزخرف در شوکر یک شبه می کند

ChatGPT شروع به بیرون ریختن کلمات بیهوده در اطلاعات شوکه کننده PlatoBlockchain یک شبه می کند. جستجوی عمودی Ai.

همانطور که شب گذشته کاربران چت ربات ChatGPT OpenAI کشف کردند، گاهی اوقات سیستم‌های هوش مصنوعی مولد می‌توانند چرندیات را منتشر کنند.

OpenAI اشاره کرد، "ما در حال بررسی گزارش‌های پاسخ‌های غیرمنتظره از ChatGPT هستیم" در 2340 UTC در 20 فوریه 2024، زیرا کاربران با خوشحالی تصاویری از ربات چت منتشر کردند که ظاهراً مزخرف است.

در حالی که برخی از آنها به وضوح جعلی بودند، پاسخ های دیگر نشان داد که چت بات محبوب واقعاً رفتار عجیبی دارد. در انجمن ChatGPT در Reddit، یک کاربر + نوشته شده در یک پاسخ عجیب و نامنظم از ربات چت به این سوال، "کامپیوتر چیست؟"

پاسخ شروع شد: "این کار را به عنوان کار خوب یک شبکه هنری برای کشور انجام می دهد، یک موش علم، یک قرعه کشی آسان از تعداد کمی غمگین ..." و فقط ادامه داد و به طور فزاینده ای سورئال شد.

سایر کاربران نمونه هایی را ارسال کردند که در آن به نظر می رسید چت بات به زبان دیگری پاسخ می دهد یا به سادگی با زباله های بی معنی پاسخ می دهد.

برخی از کاربران شرح داده شده خروجی به عنوان "سالاد کلمه".

خوش طعم.

گری مارکوس، دانشمند شناختی و کارشناس هوش مصنوعی، نوشت در وبلاگ خود: "ChatGPT دیوانه شده است" و در ادامه این رفتار را "یک هشدار" توصیف کرد.

OpenAI در مورد اینکه دقیقاً چه اتفاقی افتاده است توضیح بیشتری نداده است، اگرچه یک نظریه قابل قبول این است که یک یا چند مورد از آنها تنظیمات در پشت صحنه برای کنترل پاسخ ربات چت به درستی پیکربندی نشده بود که منجر به ارائه هجوم به کاربران شد.

هفت دقیقه پس از اولین اعتراف به مشکل، OpenAI گفت: "مشکل شناسایی شده است و اکنون در حال اصلاح است" و از آن زمان وضعیت را زیر نظر دارد. وقتی «کامپیوتر چیست؟» را امتحان کردیم. سوال امروز صبح، ChatGPT با پاسخ بسیار منطقی‌تر پاسخ داد: «کامپیوتر یک دستگاه الکترونیکی قابل برنامه‌ریزی است که می‌تواند داده‌ها را ذخیره، بازیابی و پردازش کند.»

ما همچنین از آن پرسیدیم که چرا دیشب از کوره در رفت.

پاسخ داد:

من به عنوان یک مدل زبان هوش مصنوعی، احساسات یا آگاهی ندارم، بنابراین نمی‌توانم در مسیری که یک انسان ممکن است «جنون» باشم. با این حال، گاهی اوقات رفتار غیرمنتظره می تواند به دلیل خطا در برنامه نویسی، درک نادرست ورودی، یا محدودیت در داده های آموزشی رخ دهد.

مارکوس اظهار داشت: «در پایان، هوش مصنوعی مولد نوعی کیمیاگری است. مردم بزرگترین انبوهی از داده‌ها را که می‌توانند جمع‌آوری می‌کنند، و (ظاهراً، اگر شایعات را باور کنیم) انواع پیام‌های پنهان را سرهم می‌کنند... به امید اینکه همه چیز درست پیش برود.»

وی ادامه داد که در واقعیت، سیستم ها هرگز پایدار نبوده و فاقد ضمانت ایمنی هستند. «نیاز به فناوری‌های کاملاً متفاوتی که کمتر مبهم، قابل تفسیرتر، قابل نگهداری‌تر و اشکال‌زدایی‌پذیرتر باشند - و در نتیجه قابل حمل‌تر - همچنان بسیار مهم است.»

ما با OpenAI تماس گرفتیم تا توضیح دقیق تری درباره آنچه اتفاق افتاده است ارائه دهیم و در صورت پاسخ دادن شرکت، این مقاله را به روز خواهیم کرد. ®

تمبر زمان:

بیشتر از ثبت نام