OpenAI:s ChatGPT möter kritik för att de inte svarar

OpenAI:s ChatGPT möter kritik för icke-reagerande beteende

OpenAI:s ChatGPT möter kritik för icke-responsivt beteende PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

OpenAI medgav nyligen att dess stora språkmodell, ChatGPT 4, har blivit "lat", vilket kan påverka utvecklingen av AI i framtiden. Denna avslöjande följer på många klagomål från användare om modellens försämrade prestanda.

ChatGPT-användare märkte att ChatGPT-4 blev lat och enligt uppgift vägrade att utföra vissa uppgifter eller returnerade specificerade resultat. OpenAI, företaget bakom den populära språkmodellen ChatGPT, erkände att modellen har blivit lat, men företaget är inte säker på varför.

Läs också: Deepfake Audio av Michal Šimečka Rocks slovakiska valscen

Enligt OpenAI kan detta få konsekvenser för framtiden för artificiell intelligens (AI).

Lite X (tidigare Twitter) användare kallar händelsen en "vinteruppehållshypotes". Även om det inte är bevisat, kvarstår faktum att världen av AI-språkmodeller har blivit konstig, eftersom AI-forskare tar det på allvar.

ChatGPT-4 blir "lat"

Flera användarrapporter kom upp om modellens prestandaförsämring. De lyfte fram frågor som ofullständiga uppgifter, genvägar och undvikande av ansvar för instruerade ChatGPT-uppgifter.

OpenAI erkände feedbacken i en serie tweets och hävdade att modellen sedan den 11 november inte har genomgått några uppdateringar. De fortsatte med att säga att den observerade latheten inte var avsiktlig och tillskrev den den oförutsägbara naturen hos stora språkmodeller.

Vissa X-konton gjorde öppet tweets om sitt missnöje. Marsian frågade om stora språkmodeller kan simulera säsongsbetonad depression. Också Mike Swoopskee frågade om språkmodellen lärde sig av sina träningsdata att folk brukar sakta ner i december och skjuta upp större projekt till det nya året, och det är därför den har varit lat på sistone.

Dessutom noterade folk att eftersom systemuppmaningen för ChatGPT matar boten det aktuella datumet, började vissa att tro att det finns något mer med idén.

Ett sådant konstigt förslag underhölls, eftersom forskning har visat att stora språkmodeller som GPT-4 svarar på uppmuntran i mänsklig stil. GPT-4 driver den betalda versionen av ChatGPT och svarar på uppmuntran i mänsklig stil, som att säga till boten att "ta ett djupt andetag" innan du gör ett matematiskt problem.

Men folk har mindre formellt experimenterat med att tala om för den stora språkmodellen att det kommer få ett tips för att göra jobbet. Att berätta för boten att den inte har några fingrar kommer också att hjälpa till att förlänga utgångarna om modellen blir lat.

Vägen framåt?

ChatGPT-4s långsamma prestanda kan tyda på att det kan ta längre tid än förväntat att nå sann artificiell intelligens som kan tänka och lösa problem på egen hand. Därför uppstår osäkerhet om AI:s förmåga att självständigt hantera uppgifter. Flera områden som är beroende av AI kommer att påverkas av denna fördröjning i processen.

Däremot kan vi se det som en chans att lära oss istället för att se detta som ett fullständigt stopp.

Viktigt är att forskare kan lära sig mer om hur AI fungerar genom att ta reda på varför ChatGPT har problem. Detta kommer att vägleda dem i att göra AI:er som förblir aktiva och smarta i framtiden.

Dessutom är ChatGPT:s svårigheter en påminnelse om den tuffa vägen framför oss, även om AI:s omedelbara framtid kanske inte är så fantastisk som vi trodde. Vi kan komma närmare riktig AI med bättre kunskap och omsorg genom att känna igen och hantera dessa utmaningar.

Tidsstämpel:

Mer från MetaNews