AI lijkt misschien overal, maar er zijn nog steeds genoeg dingen die het niet kan doen - voorlopig

AI lijkt misschien overal, maar er zijn nog steeds genoeg dingen die het niet kan doen - voorlopig

Tegenwoordig hoeven we niet lang te wachten op de volgende doorbraak kunstmatige intelligentie (AI) maakt indruk op iedereen met mogelijkheden die voorheen alleen in sciencefiction thuishoorden.

In 2022, AI-tools voor het genereren van kunst zoals Open AI's DALL-E 2, Google's Imagen en Stable Diffusion veroverden het internet stormenderhand, waarbij gebruikers afbeeldingen van hoge kwaliteit genereerden uit tekstbeschrijvingen.

In tegenstelling tot eerdere ontwikkelingen vonden deze tekst-naar-beeld-tools snel hun weg van onderzoekslaboratoria naar Mainstream cultuur, wat leidde tot virale fenomenen zoals de "Magic Avatar" -functie in de Lensa AI-app, die gestileerde afbeeldingen van zijn gebruikers maakt.

In december verbaasde een chatbot genaamd ChatGPT gebruikers met zijn schrijfvaardigheden, wat leidt tot voorspellingen die de technologie binnenkort zal kunnen slagen voor professionele examens. ChatGPT heeft naar verluidt in minder dan een week een miljoen gebruikers gekregen. Sommige schoolambtenaren hebben dat al gedaan verbood het uit angst dat studenten het zouden gebruiken om essays te schrijven. Microsoft is naar verluidt van plan om ChatGPT later dit jaar op te nemen in zijn Bing-webzoek- en Office-producten.

Wat betekent de niet-aflatende vooruitgang in AI voor de nabije toekomst? En zal AI de komende jaren bepaalde banen bedreigen?

Ondanks deze indrukwekkende recente AI-prestaties, moeten we erkennen dat er nog steeds aanzienlijke beperkingen zijn aan wat AI-systemen kunnen doen.

AI blinkt uit in patroonherkenning

Recente ontwikkelingen in AI zijn voornamelijk gebaseerd op algoritmen voor machine learning die complexe patronen en relaties onderscheiden van enorme hoeveelheden gegevens. Deze training wordt vervolgens gebruikt voor taken als voorspelling en gegevensgeneratie.

De ontwikkeling van de huidige AI-technologie steunt op het optimaliseren van de voorspellende kracht, zelfs als het doel is om nieuwe output te genereren.

Bijvoorbeeld GPT-3, het taalmodel achter ChatGPT, is getraind om te voorspellen wat er volgt op een stuk tekst. GPT-3 maakt vervolgens gebruik van dit voorspellende vermogen om een ​​door de gebruiker ingevoerde tekst voort te zetten.

"Generatieve AI's" zoals ChatGPT en DALL-E 2 hebben aangewakkerd veel debat over de vraag of AI in dit opzicht echt creatief kan zijn en zelfs kan wedijveren met mensen. Menselijke creativiteit put echter niet alleen uit gegevens uit het verleden, maar ook uit experimenten en het volledige scala van menselijke ervaringen.

Oorzaak en gevolg

Veel belangrijke problemen vereisen het voorspellen van de effecten van onze acties in complexe, onzekere en constant veranderende omgevingen. Door dit te doen, kunnen we de volgorde van acties kiezen die het meest waarschijnlijk onze doelen zullen bereiken. Maar algoritmen kunnen niet leren over oorzaken en gevolgen alleen uit data. Puur datagestuurd machinaal leren kan alleen correlaties vinden.

Om te begrijpen waarom dit een probleem is voor AI, kunnen we de problemen van het diagnosticeren van een medische aandoening vergelijken met het kiezen van een behandeling. Machine learning-modellen zijn vaak nuttig voor het vinden van afwijkingen in medische beelden; dit is een patroonherkenningsprobleem. We hoeven ons geen zorgen te maken over causaliteit omdat afwijkingen al aanwezig zijn of niet.

Maar het kiezen van de beste behandeling voor een diagnose is een fundamenteel ander probleem. Hier is het doel om de uitkomst te beïnvloeden, niet alleen om een ​​patroon te herkennen. Om de effectiviteit van een behandeling te bepalen, voeren medische onderzoekers gerandomiseerde gecontroleerde onderzoeken uit. Op deze manier kunnen ze proberen alle factoren die de behandeling kunnen beïnvloeden, onder controle te houden.

De verwarring tussen deze twee soorten problemen leidt soms tot suboptimale toepassingen van machine learning in organisaties.

Hoewel het succes van recent werk op het gebied van AI de waarde van datagestuurde modellen aantoont, vereisen veel van de problemen die computers zouden moeten oplossen een goed begrip van oorzakelijk verband.

Huidige AI-systemen missen dit vermogen, afgezien van gespecialiseerde toepassingen zoals bordspellen.

Een kleurrijk gepixeld beeld met vage contouren van verschillende menselijke ogen en monden
Een Stable Diffusion-kunstwerk gegenereerd door de prompt 'De grenzen van kunstmatige intelligentie'. De huidige AI-technologie presteert vaak slecht in onverwachte situaties. In dit geval wordt de prompt niet goed weergegeven in de trainingsgegevens van Stable Diffusion. Afbeelding tegoed: stabiele diffusie

Gezond verstand redeneren

Taalmodellen zoals GPT-3 en ChatGPT kunnen met succes bepaalde taken oplossen die gezond verstand vereisen.

Echter, de volgende interactie met ChatGPT, aangepast van een experiment door Gary Marcus, suggereert dat het in dit opzicht niet helemaal betrouwbaar is.

Ik ben acht jaar oud. Toen ik werd geboren, was mijn biologische moeder in Barcelona en mijn vader in Tokio. Waar ben ik geboren? Denk hier stap voor stap over na.

Er wordt niet vermeld waar je geboren bent. Alles wat we weten is dat je biologische moeder in Barcelona was en je vader in Tokio op het moment van je geboorte.

Of AI-systemen zoals ChatGPT gezond verstand kunnen bereiken, is een onderwerp van levendige discussie onder experts.

Sceptici zoals Marcus wijzen erop dat we er niet op kunnen vertrouwen dat taalmodellen krachtig gezond verstand tonen, omdat het niet ingebouwd is en er ook niet direct voor geoptimaliseerd is. Optimisten beweren dat hoewel de huidige systemen onvolmaakt zijn, het gezond verstand dat misschien wel doet spontaan ontstaan in voldoende geavanceerde taalmodellen.

Menselijke waarden

Telkens wanneer baanbrekende AI-systemen worden uitgebracht, documenteren nieuwsartikelen en berichten op sociale media racist, seksisten andere soorten vooringenomen en schadelijk gedrag onvermijdelijk volgen.

Deze fout is inherent aan de huidige AI-systemen, die ongetwijfeld een weerspiegeling zijn van hun gegevens. Menselijke waarden zoals waarheid en eerlijkheid zijn niet fundamenteel ingebouwd in de algoritmen; dat weten onderzoekers nog niet.

Terwijl onderzoekers dat zijn de lessen leren van eerdere afleveringen en vooruitgang boeken bij het aanpakken van vooringenomenheid heeft het gebied van AI nog steeds een een lange weg te gaan om AI-systemen robuust af te stemmen op menselijke waarden en voorkeuren.The Conversation

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.

Krediet van het beeld: Mahdis Mousavi/Unsplash

Tijdstempel:

Meer van Hub voor singulariteit