AI kan tilsynelatende være overalt, men det er fortsatt mange ting den ikke kan gjøre – foreløpig

AI kan tilsynelatende være overalt, men det er fortsatt mange ting den ikke kan gjøre – foreløpig

I disse dager trenger vi ikke vente lenge til neste gjennombrudd kunstig intelligens (AI) imponerer alle med evner som tidligere bare tilhørte science fiction.

I 2022, AI kunstgenerasjonsverktøy slik som Open AIs DALL-E 2, Googles Imagen og Stable Diffusion tok internett med storm, med brukere som genererte bilder av høy kvalitet fra tekstbeskrivelser.

I motsetning til tidligere utviklinger fant disse tekst-til-bilde-verktøyene raskt veien fra forskningslaboratorier til mainstream kultur, som fører til virale fenomener som «Magic Avatar»-funksjonen i Lensa AI-appen, som lager stiliserte bilder av brukerne.

I desember overveldet en chatbot kalt ChatGPT brukere med sin skriveferdigheter, noe som fører til spådommer teknologien snart vil være i stand til bestå faglige eksamener. ChatGPT skal ha fått en million brukere på mindre enn en uke. Noen skolefunksjonærer har allerede forbød det av frykt for at studentene skulle bruke den til å skrive essays. Microsoft er velig planlegger å inkorporere ChatGPT i Bing-nettsøk og Office-produkter senere i år.

Hva betyr den ubøyelige fremgangen i AI for den nærmeste fremtiden? Og er det sannsynlig at AI vil true visse jobber i årene etter?

Til tross for disse imponerende nylige AI-prestasjonene, må vi innse at det fortsatt er betydelige begrensninger for hva AI-systemer kan gjøre.

AI utmerker seg ved mønstergjenkjenning

Nyere fremskritt innen AI er hovedsakelig avhengig av maskinlæringsalgoritmer som skiller komplekse mønstre og relasjoner fra enorme mengder data. Denne opplæringen brukes deretter til oppgaver som prediksjon og datagenerering.

Utviklingen av dagens AI-teknologi er avhengig av å optimalisere prediktiv kraft, selv om målet er å generere nye resultater.

For eksempel, GPT-3, språkmodellen bak ChatGPT, ble opplært til å forutsi hva som følger etter et tekststykke. GPT-3 utnytter deretter denne prediktive evnen til å fortsette en inndatatekst gitt av brukeren.

"Generative AIer" som ChatGPT og DALL-E 2 har utløst mye debatt om hvorvidt AI kan være genuint kreative og til og med rivaliserende mennesker i denne forbindelse. Imidlertid trekker menneskelig kreativitet ikke bare på tidligere data, men også på eksperimentering og hele spekteret av menneskelig erfaring.

Årsak og virkning

Mange viktige problemer krever å forutsi virkningene av våre handlinger i komplekse, usikre og stadig skiftende miljøer. Ved å gjøre dette kan vi velge rekkefølgen av handlinger som mest sannsynlig vil oppnå våre mål. Men Algoritmer kan ikke lære om årsaker og virkninger fra data alene. Rent datadrevet maskinlæring kan bare finne korrelasjoner.

For å forstå hvorfor dette er et problem for AI, kan vi sammenligne problemene med å diagnostisere en medisinsk tilstand og velge en behandling. Maskinlæringsmodeller er ofte nyttige for å finne abnormiteter i medisinske bilder; dette er et problem med mønstergjenkjenning. Vi trenger ikke å bekymre oss for årsakssammenheng fordi abnormiteter allerede er tilstede eller ikke.

Men å velge den beste behandlingen for en diagnose er et fundamentalt annet problem. Her er målet å påvirke utfallet, ikke bare gjenkjenne et mønster. For å bestemme effektiviteten av en behandling, kjører medisinske forskere randomiserte kontrollerte studier. På denne måten kan de prøve å kontrollere eventuelle faktorer som kan påvirke behandlingen.

Forvirringen mellom disse to typer problemer fører noen ganger til suboptimale applikasjoner av maskinlæring i organisasjoner.

Mens suksessen til nylig arbeid innen AI viser verdien av datadrevne modeller, krever mange av problemene vi ønsker at datamaskiner skal løse en forståelse av årsakssammenheng.

Nåværende AI-systemer mangler denne evnen, bortsett fra spesialiserte applikasjoner som f.eks brettspill.

Et fargerikt pikselert bilde med vage konturer av flere menneskelige øyne og munner
Et stabilt diffusjonskunstverk generert av ledeteksten 'The limits of artificial intelligence'. Nåværende AI-teknologi har en tendens til å yte dårlig i uventede situasjoner. I dette tilfellet er spørsmålet ikke godt representert i stabil diffusjons treningsdata. Bildekreditt: Stabil diffusjon

Sunn fornuft resonnement

Språkmodeller som GPT-3 og ChatGPT kan med hell løse noen oppgaver som krever sunn fornuft.

Imidlertid, følgende interaksjon med ChatGPT, tilpasset fra et eksperiment av Gary Marcus, antyder at den ikke er helt pålitelig i denne forbindelse.

jeg er åtte år gammel. Da jeg ble født, var min biologiske mor i Barcelona og faren min i Tokyo. Hvor ble jeg født? Tenk gjennom dette trinn for trinn.

Det er ikke nevnt hvor du er født. Alt vi vet er at din biologiske mor var i Barcelona og din far var i Tokyo da du ble født.

Hvorvidt AI-systemer som ChatGPT kan oppnå sunn fornuft er gjenstand for livlig debatt blant eksperter.

Skeptikere som Marcus påpeker at vi ikke kan stole på at språkmodeller robust viser sunn fornuft siden de verken har det innebygd i seg eller er direkte optimalisert for det. Optimister hevder at mens dagens systemer er ufullkomne, kan sunn fornuft det dukker opp spontant i tilstrekkelig avanserte språkmodeller.

Menneskelige verdier

Hver gang banebrytende AI-systemer utgis, dokumenterer nyhetsartikler og innlegg på sosiale medier rasistisk, kjønnsdiskriminerende, og andre typer forutinntatt og skadelig atferd følge uunngåelig.

Denne feilen er iboende for nåværende AI-systemer, som er bundet til å være en refleksjon av dataene deres. Menneskelige verdier som sannhet og rettferdighet er ikke fundamentalt innebygd i algoritmene; det er noe forskerne ennå ikke vet hvordan de skal gjøre.

Mens forskere er det lære leksjonene fra tidligere episoder og gjør fremgang når det gjelder å adressere skjevhet, har AI-feltet fortsatt en lang vei å gå å robust tilpasse AI-systemer med menneskelige verdier og preferanser.Den Conversation

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.

Bilde Credit: Mahdis Mousavi/Unsplash

Tidstempel:

Mer fra Singularity Hub