5 fallgruver i AI-basert læring

5 fallgruver i AI-basert læring

5 Pitfalls in AI-based Learning PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Alle snakker om AI-modeller som ChatGPT og DALL-E i dag, men hvilken plass har AI i utdanning? Kan det hjelpe studenter eller utgjør det mer risiko enn fordeler? Så imponerende som denne teknologien er, er det noen alvorlige fallgruver ved AI-basert læring som foreldre, lærere og elever bør være klar over.

1. Spredningen av feilinformasjon

Et av de største problemene med AI i dag er feilinformasjon og "hallusinert" informasjon. Dette er en spesielt fremtredende utfordring med chatbots som ChatGPT. Disse AI-modellene er dyktige på naturlig språkbehandling, men gir ikke alltid korrekt eller ekte informasjon. Som et resultat kan de gi svar som høres autoritative ut samtidig som de gir feil eller fullstendig oppdiktede fakta, referanser eller uttalelser.

Chat AI-modeller som ChatGPT og Bing AI gir regelmessig feil svar. Dette fenomenet er kjent som "hallusinerende" svar. AI er faktisk ikke i stand til å forstå et faktum slik et menneske kan - den har ikke noe begrep om sant eller usant. Den er rett og slett trent til å gi svar som etterligner et spørsmål, format eller annen kontekst.

Dette utgjør en alvorlig risiko for studenter, som kanskje ikke er i stand til å fortelle når en AI gir unøyaktig informasjon. Faktisk har ChatGPT til og med vært kjent for å lage helt fiktive "referanser" for tilsynelatende faktasvar, noe som gjør feilinformasjon enda mer overbevisende. Dette kan føre til at studentene baserer hele essays og forskningsprosjekter på falsk informasjon.

Risikoen for feilinformasjon gjelder både lærere og elever. De kan ikke stole på AI-baserte verktøy for å gi korrekt eller pålitelig informasjon for ting som karakterer eller generering av studieveiledninger. Hvis lærere ikke er forsiktige, kan kunstig intelligens føre til at de gir en elev feil karakter eller gir unøyaktig informasjon.

"Disse AI-modellene er dyktige på naturlig språkbehandling, men gir ikke alltid korrekt eller ekte informasjon." 

2. Fusk og overavhengighet av AI

Nå som AI raskt kan generere overbevisende essays og studieveiledninger, er juks en alvorlig bekymring. Moderne AI-chatboters naturlige språkbehandlingsevner kan tillate studenter å uanstrengt jukse, begå plagiat og stole for mye på AI. Ikke bare truer dette pedagogisk integritet, men det setter også effektiviteten til kursene i fare.

Elever kan miste viktige kritiske tenkningsferdigheter og mislykkes i å lære verdifulle konsepter når de bare kan skrive inn leksene sine i en chatbot. Siden AI kan lage et slikt overbevisende innhold, kan det være svært vanskelig for lærere å si når en elev brukte en AI for å fullføre leksene eller essayet. Unnlatelse av å lære og fullføre kurs kan bare merkes når studentene tar prøver eller eksamener.

3. Undergrave lærerrollen

Det er en populær fortelling om at AI kan erstatte mennesker i utallige jobber, men undervisning er ikke en av dem. Lærere spiller en uvurderlig rolle i utdanning - en programvare kan ikke gjenskape. AI har potensial til å undergrave lærernes del, og undergrave deres instruksjon, autoritet og veiledning.

Faktisk kan AI til og med kompromittere kvaliteten på utdanningen og verdien av tilpassede pedagogiske opplevelser skoler kan tilby. For eksempel kan ingen AI virkelig gjenskape opplevelsen av å gå på en Montessori-skole, som fokuserer på lære myke ferdigheter som empati og uavhengighet gjennom individualiserte læringsteknikker.

AI-basert læring kan koke utdanning ned til ganske enkelt å dele fakta eller mate brukere med data basert på en algoritme. I virkeligheten handler utdanning om personlig vekst, livsmestring, sosialisering og kreativitet, i tillegg til å få kunnskap. Bare lærere kan gi den menneskelige veiledningen elevene trenger.

"AI-basert læring kan koke utdanning ned til ganske enkelt å dele fakta eller mate brukere med data basert på en algoritme" 

4. Personvern for studentdata

AI-basert læring kan også by på tekniske og juridiske utfordringer — spesielt når det gjelder håndtering av elevenes data. AI-modeller lærer ved å spore og fordøye alle dataene de møter. Dette kan inkludere ting som elevenes testsvar, spørsmål skrevet inn i en chatbot og egenskaper som alder, kjønn, rase eller førstespråk.

Black-box-naturen til de fleste AI-modeller gjør det vanskelig eller til og med umulig for noen å se hvordan AI bruker dataene den samler inn. Som et resultat er det reelle etiske problemer med bruk av AI i utdanning. Foreldre, lærere og elever vil kanskje at dataene deres holdes fra en AI av hensyn til personvernet deres. Dette gjelder spesielt med AI-plattformer som personaliserer elevenes opplevelser gjennom overvåking, for eksempel sporing av aktivitet eller tastetrykk.

Selv i tilfeller der en AI-basert læringsplattform ber om brukernes samtykke til å bruke dataene deres, er personvernet fortsatt i fare. Som studier påpeker, studenter er ofte ikke rustet til å forstå samtykke til personvern. I tillegg, hvis en skole krever en AI-basert plattform, kan det hende at elever og lærere ikke har noe annet valg enn å samtykke til å gi fra seg personlig informasjon.

«AI-modeller lærer ved å spore og fordøye alle dataene de møter. Dette kan inkludere ting som elevenes testsvar, spørsmål skrevet inn i en chatbot og egenskaper som alder, kjønn, rase eller førstespråk.» 

5. Ujevn utdanning og dataskjevhet

Selv om AI kan være i stand til å "tilpasse" utdanning, kan det også føre til ujevn eller ulik opplevelse. Like utdanningsmuligheter er avhengig av å ha en standard grunnlinje for innholdet alle elever lærer. Personlig tilpasset læring gjennom AI kan være for uforutsigbar til å sikre en rettferdig opplevelse for alle studenter.

I tillegg truer databias rase- og kjønnslikestilling i utdanning. Det har vært bevis på skjevhet i AI i årevis. For eksempel, i 2018 kom Amazon under kritikk for å bruke en ansettelses-AI som diskriminerte søkere basert på kjønnsindikatorer for eksempel ordet «kvinners» eller navnet på en kvinneskole. AI er ikke så objektiv som mange kanskje tror - den er like partisk som treningsdataene den lærer av.

Som et resultat kan underliggende samfunnsskjevheter lett lekke inn i AI-modeller, selv ned til språket AI bruker i visse sammenhenger. For eksempel kan en AI bare bruke mannlige pronomen for å beskrive politifolk eller myndighetspersoner. På samme måte kan det oppgi rasistisk eller støtende innhold den har lært fra dårlig filtrerte treningsdata.

Bias og ulikhet bidrar ikke til trygg, rettferdig og støttende læring. Inntil AI kan stole på å forbli virkelig rettferdig, utgjør det en trussel mot like muligheter i utdanning.

Hvordan bør AI brukes i utdanning? 

Disse fem betydelige fallgruvene ved AI-basert læring krever nøye vurdering ettersom denne teknologien blir mer vanlig. Som all teknologi, bør AI være et verktøy, ikke en løsning. Lærere kan bruke AI til å automatisere lavrisikooppgaver og forbedre kvaliteten på utdanningen de gir, men AI er ikke en erstatning for lærerne selv.

Lærere bør ta skritt for å hjelpe elevene å forstå bruken og risikoen ved AI, slik at de også kan ta intelligente valg angående personvernet deres. Til syvende og sist er AI-basert læring best i moderasjon, ikke som en stand-in for konvensjonelle læringsopplevelser.

Les også Er AI-verktøy klare til å bli klarert og brukt som pedagogiske ressurser?

Tidstempel:

Mer fra AIIOT-teknologi