AI پر مبنی سیکھنے میں 5 نقصانات

AI پر مبنی سیکھنے میں 5 نقصانات

5 Pitfalls in AI-based Learning PlatoBlockchain Data Intelligence. Vertical Search. Ai.

آج ہر کوئی ChatGPT اور DALL-E جیسے AI ماڈلز کے بارے میں بات کر رہا ہے، لیکن تعلیم میں AI کا کیا مقام ہے؟ کیا یہ طلباء کی مدد کر سکتا ہے یا اس سے فوائد سے زیادہ خطرات لاحق ہیں؟ یہ ٹیکنالوجی جتنی متاثر کن ہے، AI پر مبنی سیکھنے کے کچھ سنگین نقصانات ہیں جن سے والدین، اساتذہ اور طلباء کو آگاہ ہونا چاہیے۔

1. غلط معلومات کا پھیلاؤ

آج AI کے ساتھ سب سے بڑے مسائل میں سے ایک غلط معلومات اور "ہیلوسینیٹڈ" معلومات ہے۔ یہ چیٹ جی پی ٹی جیسے چیٹ بوٹس کے ساتھ خاص طور پر نمایاں چیلنج ہے۔ یہ AI ماڈل قدرتی زبان کی پروسیسنگ میں ماہر ہیں لیکن ہمیشہ صحیح یا حقیقی معلومات فراہم نہیں کرتے ہیں۔ نتیجے کے طور پر، وہ ایسے جوابات دے سکتے ہیں جو درست ثابت ہوں جبکہ غلط یا مکمل طور پر بنائے گئے حقائق، حوالہ جات یا بیانات فراہم کریں۔

AI ماڈلز سے چیٹ کریں۔ جیسے ChatGPT اور Bing AI باقاعدگی سے غلط جواب دیں. اس رجحان کو "ہیلوسینٹنگ" جوابات کے نام سے جانا جاتا ہے۔ اے آئی درحقیقت کسی حقیقت کو سمجھنے کے قابل نہیں ہے جس طرح ایک انسان کر سکتا ہے - اس میں سچ یا غلط کا کوئی تصور نہیں ہے۔ اسے صرف ایسے جوابات دینے کی تربیت دی جاتی ہے جو سوال، فارمیٹ یا دوسرے سیاق و سباق کی نقل کرتے ہیں۔

یہ طلباء کے لیے ایک سنگین خطرہ ہے، جو یہ بتانے سے قاصر ہو سکتے ہیں کہ AI کب غلط معلومات دیتا ہے۔ درحقیقت، ChatGPT بظاہر حقائق پر مبنی جوابات کے لیے مکمل طور پر فرضی "حوالہ جات" بنانے کے لیے بھی جانا جاتا ہے، جس سے غلط معلومات کو اور بھی زیادہ قائل کر دیا جاتا ہے۔ یہ طلباء کو غلط معلومات پر مکمل مضامین اور تحقیقی منصوبوں کی بنیاد بنا سکتا ہے۔

غلط معلومات کا خطرہ اساتذہ کے ساتھ ساتھ طلباء پر بھی لاگو ہوتا ہے۔ وہ گریڈنگ یا اسٹڈی گائیڈ جنریشن جیسی چیزوں کے لیے درست یا قابل اعتماد معلومات فراہم کرنے کے لیے AI پر مبنی ٹولز پر بھروسہ نہیں کر سکتے۔ اگر اساتذہ محتاط نہیں ہیں تو، AI انہیں طالب علم کو غلط گریڈ دینے یا غلط معلومات فراہم کرنے کی طرف لے جا سکتا ہے۔

"یہ AI ماڈل قدرتی زبان کی پروسیسنگ میں ماہر ہیں لیکن ہمیشہ صحیح یا حقیقی معلومات فراہم نہیں کرتے ہیں۔" 

2. دھوکہ دہی اور AI پر حد سے زیادہ انحصار

اب چونکہ AI تیزی سے قائل کرنے والے مضامین اور مطالعہ کے رہنما تیار کر سکتا ہے، دھوکہ دہی ایک سنگین تشویش ہے۔ جدید AI چیٹ بوٹس کی قدرتی زبان کی پروسیسنگ کی صلاحیتیں طلباء کو آسانی سے دھوکہ دینے، سرقہ کرنے اور AI پر بہت زیادہ انحصار کرنے کی اجازت دے سکتی ہیں۔ اس سے نہ صرف تعلیمی سالمیت کو خطرہ ہے، بلکہ یہ کورس ورک کی تاثیر کو بھی خطرے میں ڈالتا ہے۔

طلباء اہم تنقیدی سوچ کی مہارت کھو سکتے ہیں اور قیمتی تصورات سیکھنے میں ناکام ہو سکتے ہیں جب وہ اپنے ہوم ورک کو چیٹ بوٹ میں آسانی سے ٹائپ کر سکتے ہیں۔ چونکہ AI اس طرح کے قائل کرنے والے مواد کو تیار کر سکتا ہے، اساتذہ کے لیے یہ بتانا بہت مشکل ہو سکتا ہے کہ ایک طالب علم نے اپنا ہوم ورک یا مضمون مکمل کرنے کے لیے کب AI کا استعمال کیا۔ کورس ورک سیکھنے اور مکمل کرنے میں ناکامی صرف اس وقت نمایاں ہو سکتی ہے جب طلباء ٹیسٹ یا امتحانات دیں۔

3. اساتذہ کے کردار کو کم کرنا

ایک مشہور داستان ہے کہ AI بے شمار ملازمتوں میں انسانوں کی جگہ لے سکتا ہے، لیکن تدریس ان میں سے ایک نہیں ہے۔ اساتذہ تعلیم میں ایک انمول کردار ادا کرتے ہیں - سافٹ ویئر کا ایک ٹکڑا نقل نہیں کر سکتا۔ AI میں اساتذہ کے حصے کو سنجیدگی سے کم کرنے کی صلاحیت ہے، ان کی ہدایات، اختیار اور رہنمائی کو مجروح کرنا۔

درحقیقت، AI تعلیم کے معیار اور اپنی مرضی کے مطابق تعلیمی تجربات کی قدر سے بھی سمجھوتہ کر سکتا ہے جو اسکول فراہم کر سکتے ہیں۔ مثال کے طور پر، کوئی بھی AI حقیقی معنوں میں مونٹیسوری اسکول میں جانے کے تجربے کو نقل نہیں کر سکتا، جس پر توجہ مرکوز ہوتی ہے ہمدردی جیسی نرم مہارتیں سکھانا اور انفرادی سیکھنے کی تکنیک کے ذریعے آزادی۔

AI پر مبنی سیکھنے سے صرف حقائق کا اشتراک کرنے یا الگورتھم کی بنیاد پر صارفین کے ڈیٹا کو فیڈ کرنے کے لیے تعلیم کو ابال سکتا ہے۔ حقیقت میں، تعلیم علم حاصل کرنے کے علاوہ ذاتی ترقی، زندگی کی مہارت، سماجی کاری اور تخلیقی صلاحیتوں کے بارے میں ہے۔ صرف اساتذہ ہی طلبا کو درکار انسانی رہنمائی فراہم کر سکتے ہیں۔

"اے آئی پر مبنی سیکھنے سے تعلیم کو محض حقائق کا اشتراک کرنے یا الگورتھم کی بنیاد پر صارفین کے ڈیٹا کو کھلانے کے لیے ابال سکتا ہے" 

4. طالب علم کے ڈیٹا کی رازداری

AI پر مبنی سیکھنے سے تکنیکی اور قانونی چیلنجز بھی پیدا ہو سکتے ہیں - خاص طور پر جب بات طلباء کے ڈیٹا کو سنبھالنے کی ہو۔ AI ماڈل اپنے سامنے آنے والے تمام ڈیٹا کو ٹریک کرکے اور ہضم کرکے سیکھتے ہیں۔ اس میں طلباء کے ٹیسٹ جوابات، چیٹ بوٹ میں ٹائپ کیے گئے سوالات، اور عمر، جنس، نسل یا پہلی زبان جیسی خصوصیات شامل ہو سکتی ہیں۔

زیادہ تر AI ماڈلز کی بلیک باکس نوعیت کسی کے لیے بھی یہ دیکھنا مشکل یا ناممکن بنا دیتی ہے کہ AI اپنے جمع کردہ ڈیٹا کو کس طرح استعمال کرتا ہے۔ نتیجے کے طور پر، تعلیم میں AI کے استعمال میں حقیقی اخلاقی مسائل ہیں۔ والدین، اساتذہ اور طلباء اپنی پرائیویسی کی فکر میں اپنا ڈیٹا AI سے محفوظ رکھنا چاہتے ہیں۔ یہ خاص طور پر AI پلیٹ فارمز کے ساتھ سچ ہے جو طلباء کے تجربات کو نگرانی کے ذریعے ذاتی نوعیت کا بناتے ہیں، جیسے کہ ان کی سرگرمی یا کی اسٹروکس کا سراغ لگانا۔

یہاں تک کہ ایسے معاملات میں جہاں AI پر مبنی لرننگ پلیٹ فارم صارفین سے اپنا ڈیٹا استعمال کرنے کی رضامندی طلب کرتا ہے، رازداری اب بھی خطرے میں ہے۔ جیسا کہ مطالعے کی نشاندہی ہوتی ہے، طلباء اکثر سمجھنے کے لیے تیار نہیں ہوتے ڈیٹا کی رازداری کی رضامندی۔ مزید برآں، اگر کسی اسکول کو AI پر مبنی پلیٹ فارم کی ضرورت ہوتی ہے، تو طلباء اور اساتذہ کے پاس اپنی ذاتی معلومات ترک کرنے کے لیے رضامندی کے سوا کوئی چارہ نہیں ہو سکتا۔

"AI ماڈلز اپنے سامنے آنے والے تمام ڈیٹا کو ٹریک کرکے اور ہضم کرکے سیکھتے ہیں۔ اس میں طلباء کے امتحانی جوابات، چیٹ بوٹ میں ٹائپ کیے گئے سوالات، اور عمر، جنس، نسل یا پہلی زبان جیسی خصوصیات شامل ہو سکتی ہیں۔" 

5. ناہموار تعلیم اور ڈیٹا کا تعصب

اگرچہ AI تعلیم کو "ذاتی بنانے" کے قابل ہو سکتا ہے، لیکن یہ ناہموار یا غیر مساوی تجربات کا باعث بھی بن سکتا ہے۔ مساوی تعلیمی مواقع تمام طلباء کے سیکھنے والے مواد کے لیے کچھ معیاری بیس لائن رکھنے پر انحصار کرتے ہیں۔ تمام طلباء کے لیے منصفانہ تجربہ کو یقینی بنانے کے لیے AI کے ذریعے ذاتی نوعیت کی تعلیم بہت غیر متوقع ہو سکتی ہے۔

مزید برآں، ڈیٹا کا تعصب تعلیم میں نسلی اور صنفی مساوات کو خطرہ بناتا ہے۔ سالوں سے AI میں تعصب کے ثبوت موجود ہیں۔ مثال کے طور پر، 2018 میں، ایمیزون کو ایک ایسے AI استعمال کرنے پر تنقید کا نشانہ بنایا گیا جو درخواست دہندگان کے ساتھ امتیازی سلوک کرتا تھا۔ صنفی اشارے کی بنیاد پر جیسے لفظ "خواتین" یا خواتین کے کالج کا نام۔ AI اتنا معروضی نہیں ہے جتنا کہ بہت سے لوگ مان سکتے ہیں - یہ اتنا ہی متعصب ہے جتنا کہ تربیتی ڈیٹا سے سیکھتا ہے۔

نتیجے کے طور پر، بنیادی سماجی تعصبات آسانی سے AI ماڈلز میں لیک ہو سکتے ہیں، یہاں تک کہ اس زبان تک بھی جو AI مخصوص سیاق و سباق میں استعمال کرتا ہے۔ مثال کے طور پر، ایک AI پولیس افسران یا سرکاری اہلکاروں کو بیان کرنے کے لیے صرف مرد ضمیر استعمال کر سکتا ہے۔ اسی طرح، یہ نسل پرستانہ یا جارحانہ مواد کو دوبارہ تیار کر سکتا ہے جو اس نے خراب فلٹر شدہ تربیتی ڈیٹا سے سیکھا ہے۔

تعصب اور عدم مساوات محفوظ، منصفانہ اور معاون تعلیم کے لیے سازگار نہیں ہیں۔ جب تک AI پر صحیح معنوں میں منصفانہ رہنے کے لیے بھروسہ نہیں کیا جا سکتا، یہ تعلیم میں مساوی مواقع کے لیے خطرہ ہے۔

AI کو تعلیم میں کیسے استعمال کیا جانا چاہیے؟ 

AI پر مبنی سیکھنے کے ان پانچ اہم نقصانات پر محتاط غور و فکر کی ضرورت ہے کیونکہ یہ ٹیکنالوجی زیادہ عام ہو جاتی ہے۔ کسی بھی ٹکنالوجی کی طرح، AI کو ایک ٹول ہونا چاہیے، نہ کہ تمام حل۔ اساتذہ کم خطرے والے کاموں کو خودکار بنانے اور تعلیم کے معیار کو بہتر بنانے کے لیے AI کا استعمال کر سکتے ہیں، لیکن AI خود اساتذہ کا متبادل نہیں ہے۔

اساتذہ کو AI کے استعمال اور خطرات کو سمجھنے میں طلباء کی مدد کرنے کے لیے اقدامات کرنے چاہئیں تاکہ وہ اپنے ڈیٹا کی رازداری کے بارے میں بھی ذہین انتخاب کر سکیں۔ بالآخر، AI پر مبنی سیکھنا اعتدال میں بہترین ہے، نہ کہ روایتی سیکھنے کے تجربات کے لیے۔

بھی ، پڑھیں کیا AI ٹولز قابل بھروسہ ہونے اور تعلیمی وسائل کے طور پر استعمال کرنے کے لیے تیار ہیں؟

ٹائم اسٹیمپ:

سے زیادہ اے آئی آئی او ٹی ٹیکنالوجی