ChatGPT van OpenAI krijgt kritiek vanwege niet-reagerend gedrag

ChatGPT van OpenAI krijgt kritiek vanwege niet-reagerend gedrag

ChatGPT van OpenAI krijgt kritiek vanwege niet-reagerend gedrag PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

OpenAI gaf onlangs toe dat zijn grote taalmodel, ChatGPT 4, 'lui' is geworden, wat de voortgang van AI in de toekomst zou kunnen beïnvloeden. Deze onthulling volgt op talloze klachten van gebruikers over de verslechterende prestaties van het model.

ChatGPT-gebruikers merkten dat de ChatGPT-4 lui werd en naar verluidt weigerde bepaalde taken uit te voeren of bepaalde resultaten retourneerde. OpenAI, het bedrijf achter het populaire taalmodel ChatGPT, erkende dat het model lui is geworden, maar het bedrijf weet niet precies waarom.

Lees ook: Deepfake-audio van Michal Šimečka rockt Slowaakse verkiezingsscène

Volgens OpenAI zou dit gevolgen kunnen hebben voor de toekomst van kunstmatige intelligentie (AI).

Sommige X (voorheen Twitter) gebruikers noemen het voorval een 'winterstophypothese'. Hoewel onbewezen, blijft het een feit dat de wereld van AI-taalmodellen raar is geworden, aangezien AI-onderzoekers deze serieus nemen.

ChatGPT-4 wordt 'lui'

Er kwamen verschillende gebruikersrapporten naar voren over de prestatievermindering van het model. Ze benadrukten problemen zoals onvolledige taken, snelkoppelingen en het vermijden van verantwoordelijkheid voor geïnstrueerde ChatGPT-taken.

OpenAI erkende de feedback in een reeks tweets en beweerde dat het model sinds 11 november geen updates meer heeft ondergaan. Ze vervolgden met te zeggen dat de waargenomen luiheid niet opzettelijk was en schreven dit toe aan de onvoorspelbare aard van grote taalmodellen.

Sommige X-accounts tweeten openlijk over hun ongenoegen. Mars- gevraagd als grote taalmodellen seizoensdepressie zouden kunnen simuleren. Ook Mike Swoopskee gevraagd als het taalmodel uit zijn trainingsgegevens heeft geleerd dat mensen in december meestal langzamer gaan werken en grotere projecten uitstellen tot het nieuwe jaar, en dat is de reden waarom het de laatste tijd lui is geweest.

Bovendien merkten mensen op dat, aangezien de systeemprompt voor ChatGPT de bot de huidige datum geeft, sommigen begonnen te denken dat er iets meer aan de hand was.

Een dergelijk raar voorstel werd gekoesterd, omdat uit onderzoek is gebleken dat grote taalmodellen zoals GPT-4 reageren op aanmoedigingen in menselijke stijl. GPT-4 is de drijvende kracht achter de betaalde versie van ChatGPT en reageert op menselijke aanmoedigingen, zoals tegen de bot zeggen dat hij 'diep adem moet halen' voordat hij een wiskundig probleem oplost.

Mensen hebben echter minder formeel geëxperimenteerd met het vertellen van het grote taalmodel dat dit wel het geval zal zijn ontvang een fooi voor het doen van het werk. Als u de bot vertelt dat hij geen vingers heeft, wordt de uitvoer langer als het model lui wordt.

Een weg vooruit?

De trage prestaties van ChatGPT-4 kunnen erop wijzen dat het langer kan duren dan verwacht om echte kunstmatige intelligentie te bereiken die zelfstandig problemen kan bedenken en oplossen. Er ontstaat dus onzekerheid over het vermogen van AI om zelfstandig taken uit te voeren. Verschillende gebieden die afhankelijk zijn van AI zullen door deze vertraging in het proces worden getroffen.

We kunnen het echter zien als een kans om te leren in plaats van dit als een complete stop te zien.

Het is veelbetekenend dat wetenschappers meer kunnen leren over hoe AI werkt door uit te zoeken waarom ChatGPT problemen ondervindt. Dit zal hen begeleiden bij het maken van AI’s die in de toekomst actief en slim blijven.

Bovendien herinneren de moeilijkheden van ChatGPT aan het moeilijke pad dat voor ons ligt, ook al is de nabije toekomst van AI misschien niet zo verbazingwekkend als we dachten. We kunnen met betere kennis en zorg dichter bij echte AI komen door deze uitdagingen te herkennen en aan te pakken.

Tijdstempel:

Meer van MetaNieuws