5 fallgropar i AI-baserat lärande

5 fallgropar i AI-baserat lärande

5 fallgropar i AI-baserad Learning PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Alla pratar om AI-modeller som ChatGPT och DALL-E idag, men vilken plats har AI i utbildningen? Kan det hjälpa eleverna eller innebär det fler risker än fördelar? Hur imponerande denna teknik än är, det finns några allvarliga fallgropar med AI-baserat lärande som föräldrar, lärare och elever bör vara medvetna om.

1. Spridningen av desinformation

Ett av de största problemen med AI idag är desinformation och "hallucinerad" information. Detta är en särskilt framträdande utmaning med chatbots som ChatGPT. Dessa AI-modeller är skickliga på naturlig språkbehandling men ger inte alltid korrekt eller verklig information. Som ett resultat kan de ge svar som låter auktoritativa samtidigt som de tillhandahåller felaktiga eller helt påhittade fakta, referenser eller uttalanden.

Chatta AI-modeller som ChatGPT och Bing AI ger regelbundet fel svar. Detta fenomen är känt som "hallucinerande" svar. AI:n är faktiskt inte kapabel att förstå ett faktum på det sätt som en människa kunde - den har inget begrepp om sant eller falskt. Den är helt enkelt tränad att ge svar som efterliknar en fråga, format eller annat sammanhang.

Detta utgör en allvarlig risk för studenter, som kanske inte kan se när en AI ger felaktig information. Faktum är att ChatGPT till och med varit känt för att skapa helt fiktiva "referenser" för till synes sakliga svar, vilket gör desinformation ännu mer övertygande. Detta kan leda till att studenter baserar hela uppsatser och forskningsprojekt på falsk information.

Risken för desinformation gäller såväl lärare som elever. De kan inte lita på AI-baserade verktyg för att tillhandahålla korrekt eller tillförlitlig information för saker som betygsättning eller generering av studieguider. Om lärare inte är försiktiga kan AI leda till att de ger en elev ett felaktigt betyg eller ger felaktig information.

"Dessa AI-modeller är skickliga på naturlig språkbehandling men ger inte alltid korrekt eller verklig information." 

2. Fusk och överlitande av AI

Nu när AI snabbt kan generera övertygande essäer och studieguider är fusk ett allvarligt problem. Moderna AI-chatbotars förmåga att bearbeta naturligt språk kan tillåta elever att fuska utan ansträngning, begå plagiat och förlita sig för mycket på AI. Detta hotar inte bara den pedagogiska integriteten utan äventyrar också effektiviteten i kurserna.

Elever kan förlora viktiga kritiska tänkande och misslyckas med att lära sig värdefulla begrepp när de helt enkelt kan skriva in sina läxor i en chatbot. Eftersom AI kan skapa sådant övertygande innehåll kan det vara mycket svårt för lärare att avgöra när en elev använde en AI för att slutföra sina läxor eller uppsatser. Underlåtenhet att lära sig och slutföra kursuppgifter kanske bara märks när eleverna gör prov eller prov.

3. Underskrida lärarnas roll

Det finns en populär berättelse att AI kan ersätta människor i otaliga jobb, men undervisning är inte en av dem. Lärare spelar en ovärderlig roll i utbildningen - en som en mjukvara inte kan replikera. AI har potential att allvarligt undergräva lärares del och undergräva deras instruktion, auktoritet och mentorskap.

I själva verket kan AI till och med äventyra utbildningens kvalitet och värdet av skräddarsydda utbildningsupplevelser skolor kan erbjuda. Till exempel kan ingen AI verkligen replikera upplevelsen av att gå på en Montessoriskola, som fokuserar på lära ut mjuka färdigheter som empati och självständighet genom individualiserade inlärningstekniker.

AI-baserat lärande kan koka ner utbildning till att helt enkelt dela fakta eller mata användarnas data baserat på en algoritm. I verkligheten handlar utbildning om personlig tillväxt, livskunskap, socialisering och kreativitet, förutom att få kunskap. Endast lärare kan ge den mänskliga vägledning eleverna behöver.

"AI-baserat lärande kan koka ner utbildning till att helt enkelt dela fakta eller mata användarnas data baserat på en algoritm" 

4. Studentdatasekretess

AI-baserat lärande kan också innebära tekniska och juridiska utmaningar — särskilt när det kommer till hanteringen av elevers data. AI-modeller lär sig genom att spåra och smälta all data de möter. Detta kan inkludera saker som elevernas provsvar, frågor som skrivits in i en chatbot och egenskaper som ålder, kön, ras eller modersmål.

Den svarta lådan hos de flesta AI-modeller gör det svårt eller till och med omöjligt för någon att se hur AI:n använder den data den samlar in. Som ett resultat finns det verkliga etiska problem med att använda AI i utbildningen. Föräldrar, lärare och elever kanske vill behålla sina data från en AI av hänsyn till deras integritet. Detta gäller särskilt med AI-plattformar som personifierar elevernas upplevelser genom övervakning, som att spåra deras aktivitet eller tangenttryckningar.

Även i fall där en AI-baserad lärplattform ber om användarnas samtycke för att använda deras data, är integriteten fortfarande i fara. Som studier påpekar, studenter är ofta inte utrustade för att förstå samtycke för datasekretess. Dessutom, om en skola kräver en AI-baserad plattform, kan elever och lärare inte ha något annat val än att samtycka till att ge upp sin personliga information.

"AI-modeller lär sig genom att spåra och smälta all data de möter. Detta kan inkludera saker som elevernas provsvar, frågor som skrivits in i en chatbot och egenskaper som ålder, kön, ras eller modersmål.” 

5. Ojämn utbildning och databias

Även om AI kanske kan "personifiera" utbildning, kan det också leda till ojämna eller ojämlika upplevelser. Lika utbildningsmöjligheter är beroende av att ha en standardbas för innehållet som alla elever lär sig. Personligt anpassat lärande genom AI kan vara för oförutsägbart för att säkerställa en rättvis upplevelse för alla elever.

Dessutom hotar databias ras- och jämställdhet mellan könen inom utbildning. Det har funnits bevis på partiskhet i AI i flera år. Till exempel, 2018 kom Amazon under kritik för att ha använt en anställnings-AI som diskriminerade sökande baserat på könsindikatorer till exempel ordet "kvinnor" eller namnet på ett kvinnokollegium. AI är inte så objektiv som många kanske tror – den är lika partisk som träningsdata den lär sig av.

Som ett resultat kan underliggande samhälleliga fördomar lätt läcka in i AI-modeller, även ner till det språk som AI använder i vissa sammanhang. Till exempel kan en AI bara använda manliga pronomen för att beskriva poliser eller regeringstjänstemän. På samma sätt kan det återuppstå rasistiskt eller stötande innehåll som det lärt sig från dåligt filtrerade träningsdata.

Bias och ojämlikhet bidrar inte till säkert, rättvist och stödjande lärande. Tills man kan lita på att AI förblir verkligt rättvis, utgör det ett hot mot lika möjligheter inom utbildning.

Hur ska AI användas i utbildning? 

Dessa fem betydande fallgropar med AI-baserad inlärning kräver noggrant övervägande eftersom denna teknik blir allt vanligare. Som all teknik bör AI vara ett verktyg, inte en lösning. Lärare kan använda AI för att automatisera lågriskuppgifter och förbättra kvaliteten på utbildningen de tillhandahåller, men AI är inte en ersättning för lärare själva.

Lärare bör vidta åtgärder för att hjälpa eleverna att förstå användningen och riskerna med AI så att de också kan göra intelligenta val om sin datasekretess. I slutändan är AI-baserad inlärning bäst med måtta, inte som ett stöd för konventionella inlärningsupplevelser.

Läs också Är AI-verktyg redo att lita på och användas som utbildningsresurser?

Tidsstämpel:

Mer från AIIOT-teknik