پاسخ های نادرست هوش مصنوعی منجر به شکست دانش آموزان در دانشگاه می شود

پاسخ های نادرست هوش مصنوعی منجر به شکست دانش آموزان در دانشگاه می شود

اتکا به هوش مصنوعی (AI) برای کمک های آموزشی به طور فزاینده ای رایج شده است.

با این حال، گزارش ها و مطالعات اخیر یک روند نگران کننده را برجسته کرده است: دانش آموزانی که از ابزارهای هوش مصنوعی مانند GPT چت و گوگل بارد، اغلب اطلاعات نادرستی دریافت می کنند. این پدیده که در دنیای فناوری به عنوان "توهم" شناخته می شود، نگرانی های قابل توجهی را در مورد قابلیت اطمینان هوش مصنوعی در محیط های دانشگاهی ایجاد می کند.

این موضوع به اندازه کافی مورد توجه قرار گرفته است که چندین مؤسسه آموزشی در حال ارزیابی مجدد نقش هوش مصنوعی در آموزش هستند.

توهمات هوش مصنوعی: تهدیدی برای یادگیری

اصطلاح "توهم" در زمینه هوش مصنوعی به تمایل مدل های زبان بزرگ (LLM) مانند ChatGPT و Google Bard برای تولید پاسخ های نادرست یا گمراه کننده اشاره دارد. این خطاها از تناقضات جزئی تا نادرستی واقعی واقعی را شامل می شود.

به عنوان مثال، هنگامی که از آنها خواسته شد کشورهای آفریقایی را با "K" فهرست کنند، این ابزارهای هوش مصنوعی به اشتباه کشورهایی مانند کومور و کیپ ورد در کنار کنیا را شامل می‌شوند که تنها پاسخ صحیح است. چنین نادرستی هایی باعث نگرانی معلمان و کارشناسان فناوری در مورد تأثیر منفی بالقوه آن شده است یادگیری دانش آموزان.

همچنین بخوانید: https://metanews.com/microsoft-unveils-ai-tools-to-improve-education/

کارشناسانی مانند Accadius Ben Sabwa، مدیر عامل Davacc Tech Limited، و Shikoli Makatiani، مدیر اجرایی Turnkey Africa Limited، بر اهمیت درک چگونگی توسعه این مدل‌های هوش مصنوعی تاکید کرده‌اند. آن‌ها خاطرنشان می‌کنند که فرآیند یادگیری هوش مصنوعی بر اساس پیش‌بینی کلمه بعدی در یک دنباله است، که اگر مدل آموزش داده‌های خاص و محلی را نداشته باشد، می‌تواند منجر به خطا شود. این توضیح می دهد که چرا هوش مصنوعی ممکن است پاسخ هایی را ایجاد کند که دقیق یا خارج از زمینه باشند.

Inaccurate AI Responses Lead to Student Failures in Academia PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Inaccurate AI Responses Lead to Student Failures in Academia PlatoBlockchain Data Intelligence. Vertical Search. Ai.

عواقب در دانشگاه

غیرقابل اعتماد بودن اطلاعات تولید شده توسط هوش مصنوعی، چندین دانشگاه را بر آن داشته است که استفاده از ابزارهایی مانند ChatGPT را محدود کنند. آنها استدلال می کنند که این توهمات تهدیدی برای کیفیت آموزش است. دانش‌آموزانی که برای یادگیری به شدت به هوش مصنوعی وابسته هستند ممکن است با درک ناقصی از حقایق اساسی فارغ‌التحصیل شوند و بر عملکرد حرفه‌ای آینده آنها تأثیر منفی بگذارد. نیاز به استانداردهای جدید در استفاده از هوش مصنوعی به طور فزاینده ای در محافل دانشگاهی آشکار می شود.

دانشگاه پردو بررسی پاسخ های ChatGPT به سوالات برنامه نویسی نرم افزار، شدت موضوع را نشان می دهد. تحقیقات آن‌ها نشان داد که بیش از نیمی از پاسخ‌های ChatGPT نادرست بودند، اما اغلب به دلیل سبک جامع و واضح ترجیح داده می‌شدند.

به گفته کارشناسان، این یافته بر خطر تکیه بر هوش مصنوعی برای اطلاعات دقیق تأکید می کند، زیرا کاربران ممکن است بدون توجه به صحت پاسخ ها تحت تأثیر لحن معتبر پاسخ ها قرار گیرند.

کاهش توهمات هوش مصنوعی

برای مقابله با این چالش‌ها، کارشناسان پیشنهاد می‌کنند که کاربران، از جمله دانش‌آموزان، باید یاد بگیرند که سؤالات دقیق‌تری بپرسند و در تحقیقات بعدی برای بررسی استدلال مدل هوش مصنوعی شرکت کنند.

Makatiani به افراد آموزش می دهد که چگونه به طور موثر هوش مصنوعی را برای اطمینان از پاسخ های دقیق ترغیب کنند. علاوه بر این، تاکید روزافزونی بر تنظیم مدل‌های هوش مصنوعی برای همسویی با زمینه‌ها و داده‌های محلی خاص، افزایش قابلیت اطمینان و ارتباط آنها وجود دارد.

ظهور هوش مصنوعی در زمینه های آموزشی فرصت ها و چالش هایی را به همراه داشته است. در حالی که این ابزارها پتانسیل افزایش تجارب یادگیری را ارائه می دهند، شیوع پاسخ های نادرست خطر قابل توجهی را برای یکپارچگی آموزش ایجاد می کند. ضروری است که هم کاربران و هم توسعه دهندگان فناوری های هوش مصنوعی در رسیدگی به این مسائل هوشیار و فعال باشند تا از کیفیت آموزش در عصر دیجیتال محافظت کنند.

تمبر زمان:

بیشتر از متانیوز