ChatGPT begynner å sprute tullord i overnight shocker

ChatGPT begynner å sprute tullord i overnight shocker

ChatGPT begynner å sprute tullete ord i PlatoBlockchain Data Intelligence over natten. Vertikalt søk. Ai.

Noen ganger kan generative AI-systemer gi tull, som OpenAIs ChatGPT chatbot-brukere oppdaget i går kveld.

OpenAI bemerket, "Vi undersøker rapporter om uventede svar fra ChatGPT" kl. 2340 UTC den 20. februar 2024, da brukere med glede la ut bilder av chatboten som ser ut til å gi ut totalt tull.

Mens noen åpenbart var falske, indikerte andre svar at den populære chatboten faktisk oppførte seg veldig rart. På ChatGPT-forumet på Reddit, en bruker postet et merkelig, springende svar fra chatboten på spørsmålet "Hva er en datamaskin?"

Svaret begynte: "Det gjør dette som det gode arbeidet med et nett av kunst for landet, en mus av vitenskap, en enkel trekning av noen triste ..." og fortsatte bare, og ble stadig mer surrealistisk.

Andre brukere la ut eksempler der chatboten så ut til å svare på et annet språk, eller bare svarte med meningsløst søppel.

Noen brukere beskrevet utgangen som en "ordsalat."

Velsmakende.

Gary Marcus, en kognitiv vitenskapsmann og ekspert på kunstig intelligens, skrev i bloggen hans: "ChatGPT har gått berserk" og fortsatte med å beskrive oppførselen som "en advarsel."

OpenAI har ikke utdypet hva som skjedde, selv om en plausibel teori er at en eller flere av innstillinger som ble brukt bak kulissene for å styre responsen til chatboten hadde blitt feilkonfigurert, noe som resulterte i at det ble presentert useriøst for brukerne.

Syv minutter etter først å innrømme et problem, sa OpenAI: "Problemet er identifisert og blir utbedret nå," og det har siden overvåket situasjonen. Da vi prøvde "Hva er en datamaskin?" spørsmål i morges, svarte ChatGPT med en langt mer fornuftig "En datamaskin er en programmerbar elektronisk enhet som kan lagre, hente og behandle data."

Vi spurte også hvorfor det gikk amok i går kveld.

Den svarte:

Som en AI-språkmodell har jeg ikke følelser eller bevissthet, så jeg kan ikke gå "berserk" på den måten et menneske kan. Noen ganger kan imidlertid uventet oppførsel oppstå på grunn av feil i programmering, misforståelse av input eller begrensninger i treningsdataene.

Marcus sa: "Til slutt er Generativ AI en slags alkymi. Folk samler inn den største haugen med data de kan, og (tilsynelatende, hvis ryktene skal troes) tukler med den typen skjulte meldinger ... i håp om at alt vil ordne seg.»

Han fortsatte med å konstatere at systemene i realiteten aldri har vært stabile, og mangler sikkerhetsgarantier. "Behovet for helt forskjellige teknologier som er mindre ugjennomsiktige, mer tolkbare, mer vedlikeholdbare og mer feilsøkbare - og dermed mer håndterbare - er fortsatt viktig."

Vi tok kontakt med OpenAI for en mer detaljert forklaring på hva som skjedde, og vil oppdatere denne artikkelen dersom selskapet svarer. ®

Tidstempel:

Mer fra Registeret