OpenAIs ChatGPT møter kritikk for ikke-responsiv oppførsel

OpenAIs ChatGPT møter kritikk for ikke-responsiv oppførsel

OpenAIs ChatGPT møter kritikk for ikke-responsiv atferd PlatoBlockchain-dataintelligens. Vertikalt søk. Ai.

OpenAI innrømmet nylig at den store språkmodellen, ChatGPT 4, har blitt "lat", noe som kan påvirke utviklingen av AI i fremtiden. Denne avsløringen følger en rekke brukerklager om modellens forverrede ytelse.

ChatGPT-brukere la merke til at ChatGPT-4 ble lat og nektet etter sigende å gjøre noen oppgaver eller returnerte spesifiserte resultater. OpenAI, selskapet bak den populære språkmodellen ChatGPT, erkjente at modellen har blitt lat, men selskapet er ikke sikker på hvorfor.

Les også: Deepfake lyd av Michal Šimečka Rocks slovakiske valgscene

I følge OpenAI kan dette ha implikasjoner for fremtiden til kunstig intelligens (AI).

Noen X (tidligere Twitter) Brukere kaller forekomsten en "vinterpausehypotese". Selv om det ikke er bevist, er det faktum at verden av AI-språkmodeller har blitt rar, siden AI-forskere tar det på alvor.

ChatGPT-4 blir "lat"

Det kom opp flere brukerrapporter om modellens ytelsesforringelse. De fremhevet problemer som ufullstendige oppgaver, snarveier og unngåelse av ansvar for instruerte ChatGPT-oppgaver.

OpenAI anerkjente tilbakemeldingene i en serie tweets og hevdet at siden 11. november har modellen ikke gjennomgått noen oppdateringer. De fortsatte med å si at den observerte latskapen ikke var tilsiktet og tilskrev den uforutsigbare naturen til store språkmodeller.

Noen X-kontoer sendte åpenlyst tweets om deres misnøye. marsboer spurte hvis store språkmodeller kan simulere sesongmessig depresjon. Også Mike Swoopskee spurte hvis språkmodellen lærte av treningsdataene at folk vanligvis senker farten i desember og utsetter større prosjekter til nyttår, og det er derfor den har vært lat i det siste.

I tillegg la folk merke til at siden systemforespørselen om ChatGPT mater boten den nåværende datoen, begynte noen å tro at det er noe mer med ideen.

Et så merkelig forslag ble underholdt, ettersom forskning har vist at store språkmodeller som GPT-4 reagerer på oppmuntring i menneskelig stil. GPT-4 driver den betalte versjonen av ChatGPT og reagerer på noen oppmuntringer i menneskelig stil, som å fortelle boten om å "ta pusten dypt" før han gjør et matematikkproblem.

Imidlertid har folk mindre formelt eksperimentert med å fortelle den store språkmodellen at den vil motta et tips for å gjøre jobben. Å fortelle boten at den ikke har fingre vil også bidra til å forlenge utgangene hvis modellen blir lat.

Veien videre?

Den langsomme ytelsen til ChatGPT-4 kan tyde på at det kan ta lengre tid enn forventet å nå ekte kunstig intelligens som kan tenke og løse problemer på egen hånd. Det oppstår derfor usikkerhet om AIs evne til å håndtere oppgaver uavhengig. Flere områder som er avhengig av AI vil bli påvirket av denne forsinkelsen i prosessen.

Vi kan imidlertid se det som en sjanse til å lære i stedet for å se dette som en fullstendig stopp.

Det er bemerkelsesverdig at forskere kan lære mer om hvordan AI fungerer ved å finne ut hvorfor ChatGPT har problemer. Dette vil veilede dem i å lage AI-er som forblir aktive og smarte i fremtiden.

Dessuten er ChatGPTs vanskeligheter en påminnelse om den tøffe veien fremover, selv om AIs umiddelbare fremtid kanskje ikke er så fantastisk som vi trodde. Vi kan bevege oss nærmere ekte AI med bedre kunnskap og omsorg ved å gjenkjenne og håndtere disse utfordringene.

Tidstempel:

Mer fra MetaNews