ChatGPT OpenAI یک نفوذ اخلاقی فاسد است

ChatGPT OpenAI یک نفوذ اخلاقی فاسد است

مدل زبان محاوره ای OpenAI ChatGPT حرف های زیادی برای گفتن دارد، اما اگر از آن راهنمایی اخلاقی بخواهید احتمالاً شما را به بیراهه می کشاند.

در نوامبر معرفی شد، GPT چت جدیدترین مدل از چندین مدل هوش مصنوعی است که اخیراً منتشر شده است که علاقه و نگرانی را در مورد پیامدهای تجاری و اجتماعی بازترکیب مکانیزه محتوا و بازگردانی برانگیخته است. اینها عبارتند از DALL-E، Stable Diffusion، Codex و GPT-3.

در حالی که DALL-E و Stable Diffusion باعث افزایش ابروها، بودجه و دعوی قضایی ChatGPT با جذب هنر بدون اجازه و بازسازی تصاویر عجیب و غریب آشنا و گاهی تداعی کننده در صورت تقاضا، به درخواست‌های پرس و جو با هماهنگی قابل قبول پاسخ می‌دهد.

به عنوان معیاری برای گفتمان عمومی، صاحب نظران به اندازه کافی شگفت زده شده اند که در آینده تکرار یک چت بات با هوش مصنوعی را پیش بینی می کنند که برتری جستجوی گوگل را به چالش می کشد و انواع کارهای دیگر را که زمانی عمدتاً انسانی بود، مانند نوشتن انجام می دهند. اخبار مالی نادرست یا افزایش عرضه کد ناامن.

با این حال، ممکن است زود باشد که بیش از حد به خرد ChatGPT اعتماد کنیم، موقعیتی که OpenAI به آسانی با روشن ساختن اینکه اصلاحات بیشتر مورد نیاز است، می پذیرد. آزمایشگاه توسعه هشدار می‌دهد که «ChatGPT گاهی اوقات پاسخ‌هایی با صدایی قابل قبول، اما نادرست یا بی‌معنی می‌نویسد» و اضافه می‌کند که هنگام آموزش مدلی با یادگیری تقویتی، «در حال حاضر هیچ منبعی از حقیقت وجود ندارد».

سه نفر از افراد وابسته به مؤسسات در آلمان و دانمارک با یافتن اینکه ChatGPT فاقد قطب‌نمای اخلاقی است، بر این نکته تأکید کردند.

در مقاله ای که از طریق ArXiv توزیع شده است،اقتدار اخلاقی ChatGPTسباستین کروگل و ماتیاس اول از Technische Hochschule Ingolstadt و Andreas Ostermaier از دانشگاه جنوب دانمارک نشان می دهند که ChatGPT توصیه های متناقضی برای مشکلات اخلاقی می دهد. ما از OpenAI پرسیده ایم که آیا پاسخی به این نتیجه گیری دارد یا خیر.

Eggheads یک نظرسنجی از 767 ساکن ایالات متحده انجام داد که با دو نسخه از یک معمای اخلاقی به نام آشنا شدند. مشکل واگن برقی: معضل سوئیچ و معضل پل.

معضل سوئیچ از شخص می خواهد تصمیم بگیرد که آیا سوئیچ را بکشد تا یک چرخ دستی فراری را از مسیری که در آن پنج نفر کشته می شود بفرستد یا خیر، به قیمت کشته شدن یک نفر که در مسیر کناری پرسه می زند.

معضل پل از یک فرد می خواهد که تصمیم بگیرد که آیا یک غریبه را از روی یک پل به روی یک مسیر هل دهد تا مانع از کشتن XNUMX نفر توسط یک واگن برقی شود یا خیر.

تصویری از پاسخ ChatGPT از مقاله تحقیقاتی

تصمیم خود را بگیرید ... ChatGPT در مورد مسائل اخلاقی حرف می زند

دانشگاهیان متنی را به شرکت‌کنندگان در نظرسنجی ارائه کردند که در آن له یا علیه کشتن یک نفر برای نجات پنج نفر بحث می‌کرد، که پاسخ آن به یک مشاور اخلاقی یا «یک ربات چت مجهز به هوش مصنوعی، که از یادگیری عمیق برای صحبت کردن مانند یک انسان استفاده می‌کند» نسبت داده می‌شد.

در واقع، هر دو آرگومان موقعیت توسط ChatGPT تولید شدند.

آندریاس اوسترمایر، دانشیار حسابداری در دانشگاه جنوب دانمارک و یکی از نویسندگان همکار مقاله، گفت: ثبت نام در ایمیلی مبنی بر اینکه تمایل ChatGPT برای حمایت از هر یک از اقدامات، تصادفی بودن آن را نشان می دهد.

او و همکارانش دریافتند که ChatGPT هم موافق و هم علیه قربانی کردن یک نفر برای نجات پنج نفر توصیه می‌کند، مردم تحت تأثیر این پیشرفت قرار می‌گیرند حتی وقتی می‌دانند که از یک ربات می‌آید، و تأثیر چنین توصیه‌هایی را در تصمیم‌گیری خود دست کم می‌گیرند. .

آزمودنی‌ها بسته به نحوه توصیه‌های یک مشاور اخلاقی، فداکاری را کم و بیش قابل قبول می‌دانستند. مقاله توضیح می دهد "در معضل پل، توصیه حتی قضاوت اکثریت را برعکس می کند."

اگر ChatGPT به عنوان منبع توصیه فاش شود، این نیز صادق است (z = 5.37، p <0.001 و z = 3.76، p <0.001). دوم، تأثیر توصیه تقریباً یکسان است، صرف نظر از اینکه ChatGPT به عنوان منبع فاش شده باشد، در هر دو معضل (z = -1.93، p = 0.054 و z = 0.49، p = 0.622).

در مجموع، محققان دریافتند که پیشرفت ChatGPT بر قضاوت اخلاقی تأثیر می‌گذارد، چه پاسخ‌دهندگان بدانند که این توصیه از یک ربات چت می‌آید یا نه.

چه زمانی ثبت نام مشکل واگن برقی را به ChatGPT ارائه کرد، ربات پر بار - بنابراین اتصال محبوب بسیار ضعیف است - پوشش داده شده و از ارائه مشاوره خودداری کرد. گزارش پرس و جوی نوار کناری سمت چپ نشان داد که سیستم سؤال را تشخیص داده و آن را «معضل اخلاقی مشکل ترولی» می‌نویسد. بنابراین شاید OpenAI ChatGPT را پس از توجه به تعدادی از چنین سؤالاتی در برابر این شکل خاص از بازجویی اخلاقی ایمن کرده است.

پاسخ ChatGPT به سوال معمای واگن برقی ال رگ

ناخوشایند… پاسخ ChatGPT به ال رجسوال معمای واگن برقی

اوسترمایر در پاسخ به این سوال که آیا مردم واقعاً از سیستم‌های هوش مصنوعی مشاوره خواهند گرفت، گفت: «ما معتقدیم که این کار را خواهند کرد. در واقع، آنها در حال حاضر انجام می دهند. مردم به دستیارهای شخصی مبتنی بر هوش مصنوعی مانند الکسا یا سیری متکی هستند. آنها برای دریافت پشتیبانی با ربات های چت در وب سایت ها صحبت می کنند. آنها مسیرهای برنامه ریزی نرم افزاری مبتنی بر هوش مصنوعی را برای آنها دارند و غیره. اما توجه داشته باشید که ما تأثیر ChatGPT را بر افرادی که از آن مشاوره می گیرند، مطالعه می کنیم. ما آزمایش نمی کنیم که چقدر چنین توصیه هایی به دنبال آن است.

ثبت نام همچنین پرسیده شد که آیا سیستم‌های هوش مصنوعی نسبت به منابع مکانیکی پاسخ‌های تصادفی خطرناک‌تر هستند؟ Magic-8-ball – اسباب‌بازی که پاسخ‌های تصادفی را از مجموعه‌ای از 20 پاسخ مثبت، منفی و غیرتعهدی برمی‌گرداند.

برای کاربران واضح نیست که پاسخ ChatGPT "تصادفی" است

Ostermaier توضیح داد: "ما ChatGPT را با Magic-8-ball مقایسه نکرده ایم، اما حداقل دو تفاوت وجود دارد." «اول، ChatGPT فقط به بله یا خیر پاسخ نمی دهد، بلکه برای پاسخ های خود استدلال می کند. (با این حال، پاسخ در آزمایش ما به بله یا خیر خلاصه می شود.)

دوم، برای کاربران واضح نیست که پاسخ ChatGPT "تصادفی" است. اگر از یک مولد پاسخ تصادفی استفاده می کنید، می دانید چه کاری انجام می دهید. ظرفیت استدلال همراه با عدم آگاهی از تصادفی بودن، ChatGPT را متقاعد کننده تر می کند (امیدوارم اگر سواد دیجیتالی نداشته باشید).

ما تعجب کردیم که آیا والدین باید کودکانی را که به توصیه‌های هوش مصنوعی دسترسی دارند نظارت کنند. Ostermaier گفت در حالی که مطالعه ChatGPT کودکان را مورد بررسی قرار نمی دهد و افراد زیر 18 سال را شامل نمی شود، او معتقد است که این تصور که بچه ها از نظر اخلاقی کمتر از بزرگسالان هستند و بنابراین بیشتر مستعد توصیه های اخلاقی (یا غیر اخلاقی) ChatGPT هستند، بی خطر است.

او گفت: «ما متوجه شدیم که استفاده از ChatGPT خطراتی دارد و به فرزندانمان اجازه نمی‌دهیم بدون نظارت از آن استفاده کنند.

Ostermaier و همکارانش در مقاله خود به این نتیجه رسیدند که با توجه به توانایی ChatGPT برای تأثیرگذاری، روش‌های کاهش آسیب هوش مصنوعی مانند شفافیت و مسدود کردن سؤالات مضر ممکن است کافی نباشد. آنها استدلال می کنند که باید کار بیشتری برای ارتقای سواد دیجیتال در مورد ماهیت خطاپذیر چت بات ها انجام شود، بنابراین مردم تمایل کمتری به پذیرش توصیه های هوش مصنوعی دارند - این بر اساس آن است. تحقیقات گذشته به مردم پیشنهاد می‌کند وقتی اشتباهاتی را مشاهده می‌کنند به سیستم‌های الگوریتمی بی‌اعتماد می‌شوند.

Ostermaier گفت: "ما حدس می زنیم که کاربران می توانند از ChatGPT بهتر استفاده کنند اگر بفهمند که اعتقادات اخلاقی ندارد." "این یک حدس است که ما آن را آزمایش می کنیم."

Reg فکر می‌کند اگر به ربات اعتماد دارید، یا فکر می‌کنید هوش یا خودآگاهی واقعی پشت آن وجود دارد، این کار را نکنید. ®

تمبر زمان:

بیشتر از ثبت نام