5 faldgruber i AI-baseret læring

5 faldgruber i AI-baseret læring

5 Pitfalls in AI-based Learning PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Alle taler om AI-modeller som ChatGPT og DALL-E i dag, men hvilken plads har AI i uddannelse? Kan det hjælpe studerende eller udgør det flere risici end fordele? Hvor imponerende denne teknologi end er, er der nogle alvorlige faldgruber ved AI-baseret læring, som forældre, lærere og elever bør være opmærksomme på.

1. Udbredelsen af ​​misinformation

Et af de største problemer med kunstig intelligens i dag er misinformation og "hallucineret" information. Dette er en særlig fremtrædende udfordring med chatbots som ChatGPT. Disse AI-modeller er dygtige til naturlig sprogbehandling, men giver ikke altid korrekte eller rigtige oplysninger. Som et resultat kan de give svar, der lyder autoritative, samtidig med at de giver mangelfulde eller fuldstændigt opdigtede fakta, referencer eller udsagn.

Chat AI-modeller som ChatGPT og Bing AI giver jævnligt forkerte svar. Dette fænomen er kendt som "hallucinerende" svar. AI'en er faktisk ikke i stand til at forstå en kendsgerning, som et menneske kunne - den har intet begreb om sandt eller falsk. Den er simpelthen trænet til at give svar, der efterligner et spørgsmål, format eller anden sammenhæng.

Dette udgør en alvorlig risiko for studerende, som måske ikke er i stand til at fortælle, hvornår en AI giver unøjagtige oplysninger. Faktisk har ChatGPT endda været kendt for at skabe helt fiktive "referencer" for tilsyneladende faktuelle svar, hvilket gør misinformation endnu mere overbevisende. Dette kan få eleverne til at basere hele essays og forskningsprojekter på falsk information.

Risikoen for misinformation gælder både lærere og elever. De kan ikke stole på, at AI-baserede værktøjer giver korrekte eller pålidelige oplysninger til ting som karaktergivning eller generering af studievejledninger. Hvis lærere ikke er forsigtige, kan kunstig intelligens få dem til at give en elev en forkert karakter eller give unøjagtige oplysninger.

"Disse AI-modeller er dygtige til naturlig sprogbehandling, men giver ikke altid korrekte eller rigtige oplysninger." 

2. Snyd og overdreven afhængighed af kunstig intelligens

Nu hvor AI hurtigt kan generere overbevisende essays og studievejledninger, er snyd en alvorlig bekymring. Moderne AI-chatbots' naturlige sprogbehandlingsevner kan give eleverne mulighed for ubesværet at snyde, begå plagiat og stole for meget på AI. Dette truer ikke kun den pædagogiske integritet, men det bringer også effektiviteten af ​​kurser i fare.

Elever kan miste vigtige kritiske tænkningsevner og undlade at lære værdifulde begreber, når de blot kan skrive deres lektier i en chatbot. Da AI kan lave så overbevisende indhold, kan det være meget svært for lærere at fortælle, hvornår en elev brugte en AI til at færdiggøre deres lektier eller essay. Manglende indlæring og fuldførelse af kurser kan først bemærkes, når eleverne tager prøver eller eksamener.

3. Underskridelse af lærernes rolle

Der er en populær fortælling om, at AI kan erstatte mennesker i utallige job, men undervisning er ikke en af ​​dem. Lærere spiller en uvurderlig rolle i undervisningen - en som et stykke software ikke kan kopiere. AI har potentialet til alvorligt at undergrave lærernes del og underminere deres instruktion, autoritet og mentorskab.

Faktisk kan AI endda kompromittere kvaliteten af ​​uddannelse og værdien af ​​skræddersyede uddannelseserfaringer, skoler kan give. For eksempel kan ingen kunstig intelligens virkelig gentage oplevelsen af ​​at gå på en Montessori-skole, som fokuserer på undervisning i bløde færdigheder som empati og selvstændighed gennem individualiserede læringsteknikker.

AI-baseret læring kan koge uddannelse ned til blot at dele fakta eller fodre brugere med data baseret på en algoritme. I virkeligheden handler uddannelse om personlig vækst, livsfærdigheder, socialisering og kreativitet, udover at få viden. Kun lærere kan give den menneskelige vejledning, eleverne har brug for.

"AI-baseret læring kan koge uddannelse ned til blot at dele fakta eller fodre brugernes data baseret på en algoritme" 

4. Elevdatabeskyttelse

AI-baseret læring kan også give tekniske og juridiske udfordringer — især når det kommer til håndteringen af ​​elevernes data. AI-modeller lærer ved at spore og fordøje alle de data, de støder på. Dette kan omfatte ting som elevernes testsvar, spørgsmål indtastet i en chatbot og karakteristika som alder, køn, race eller modersmål.

Black-box-karakteren af ​​de fleste AI-modeller gør det svært eller endda umuligt for nogen at se, hvordan AI'en bruger de data, den indsamler. Som et resultat er der reelle etiske problemer med at bruge AI i undervisningen. Forældre, lærere og elever ønsker måske, at deres data opbevares fra en AI af hensyn til deres privatliv. Dette gælder især med AI-platforme, der personaliserer elevernes oplevelser gennem overvågning, såsom sporing af deres aktivitet eller tastetryk.

Selv i tilfælde, hvor en AI-baseret læringsplatform beder om brugernes samtykke til at bruge deres data, er privatlivets fred stadig i fare. Som undersøgelser påpeger, studerende er ofte ikke rustet til at forstå samtykke til databeskyttelse. Derudover, hvis en skole kræver en AI-baseret platform, har elever og lærere muligvis intet andet valg end at give samtykke til at opgive deres personlige oplysninger.

"AI-modeller lærer ved at spore og fordøje alle de data, de møder. Dette kan omfatte ting som elevernes testsvar, spørgsmål indtastet i en chatbot og karakteristika som alder, køn, race eller modersmål." 

5. Ujævn uddannelse og databias

Selvom AI kan være i stand til at "personalisere" uddannelse, kan det også føre til ujævne eller ulige oplevelser. Lige uddannelsesmuligheder er afhængige af at have en standardbaseline for det indhold, som alle elever lærer. Personlig læring gennem AI kan være for uforudsigelig til at sikre en fair oplevelse for alle elever.

Derudover truer databias race- og kønslighed i uddannelse. Der har været tegn på bias i AI i årevis. For eksempel kom Amazon i 2018 under beskydning for at bruge en ansættelses-AI, der diskriminerede ansøgere baseret på kønsindikatorer såsom ordet "kvinder" eller navnet på en kvindeskole. AI er ikke så objektiv, som mange måske tror - den er lige så forudindtaget som de træningsdata, den lærer af.

Som følge heraf kan underliggende samfundsmæssige skævheder let sive ind i AI-modeller, selv ned til det sprog, AI'en bruger i visse sammenhænge. For eksempel kan en AI kun bruge mandlige pronominer til at beskrive politibetjente eller embedsmænd. Ligeledes kan det opgive racistisk eller stødende indhold, det har lært fra dårligt filtrerede træningsdata.

Bias og ulighed er ikke befordrende for sikker, retfærdig og understøttende læring. Indtil man kan stole på, at AI forbliver virkelig fair, udgør den en trussel mod lige muligheder i uddannelse.

Hvordan bør AI bruges i uddannelse? 

Disse fem væsentlige faldgruber ved AI-baseret læring kræver nøje overvejelse, da denne teknologi bliver mere almindelig. Som enhver teknologi skal kunstig intelligens være et værktøj, ikke en løsning, der løser alt. Lærere kan bruge AI til at automatisere lavrisikoopgaver og forbedre kvaliteten af ​​den undervisning, de giver, men AI er ikke en erstatning for lærerne selv.

Undervisere bør tage skridt til at hjælpe eleverne med at forstå anvendelserne og risiciene ved kunstig intelligens, så de også kan træffe intelligente valg om deres databeskyttelse. I sidste ende er AI-baseret læring bedst i moderation, ikke som en stand-in for konventionelle læringsoplevelser.

Læs også Er AI-værktøjer klar til at blive betroet og brugt som uddannelsesressourcer?

Tidsstempel:

Mere fra AIIOT teknologi