ChatGPT hakkab üleöö šokeerivalt lollusi ropendama

ChatGPT hakkab üleöö šokeerivalt lollusi ropendama

ChatGPT hakkab üleöö šokeerivas PlatoBlockchain Data Intelligence'is lollusi välja ajama. Vertikaalne otsing. Ai.

Mõnikord võivad generatiivsed tehisintellektisüsteemid jaburat juttu ajada, nagu OpenAI ChatGPT vestlusroti kasutajad eile õhtul avastasid.

OpenAI märkida, "Uurime teateid ChatGPT ootamatute vastuste kohta" 2340. veebruaril 20 kell 2024 UTC, kui kasutajad postitasid rõõmsalt pilte vestlusrobotist, mis näivad väljastavat täielikku jama.

Kuigi mõned olid ilmselgelt võltsitud, näitasid teised vastused, et populaarne vestlusbot käitus tõepoolest väga kummaliselt. Redditi ChatGPT foorumis kasutaja postitanud kummaline, segane vastus vestlusrobotilt küsimusele "Mis on arvuti?"

Vastus algas: "See teeb seda riigi kunstivõrgu hea tööna, teaduse hiirena, mõne kurva loo lihtsana..." ja muudkui jätkas, muutudes üha sürreaalsemaks.

Teised kasutajad postitasid näiteid, kus vestlusbot näis reageerivat teises keeles või vastas lihtsalt mõttetu prügiga.

Mõned kasutajad kirjeldatud väljund "sõnasalatina".

Maitsev.

Gary Marcus, kognitiivteadlane ja tehisintellekti tundja, kirjutas oma ajaveebis: "ChatGPT on hulluks läinud" ja kirjeldas käitumist kui "hoiatust".

OpenAI ei ole täpsustanud, mis täpselt juhtus, kuigi üks usutav teooria on, et üks või mitu neist seaded Vestlusroboti reageerimise reguleerimiseks kulisside taga kasutatav seade oli valesti konfigureeritud, mille tulemusena esitati kasutajatele jaburat.

Seitse minutit pärast probleemi esmakordset tunnistamist ütles OpenAI: "Probleem on tuvastatud ja seda praegu kõrvaldatakse" ning on sellest ajast alates olukorda jälginud. Kui proovisime "Mis on arvuti?" Täna hommikul vastas ChatGPT palju mõistlikuma küsimusega: "Arvuti on programmeeritav elektrooniline seade, mis suudab andmeid salvestada, hankida ja töödelda."

Küsisime ka, miks see eile õhtul hulluks läks.

See vastas:

AI keelemudelina pole mul emotsioone ega teadvust, seega ei saa ma inimese kombel hulluks minna. Mõnikord võib aga programmeerimisvigade, sisendi valesti mõistmise või treeningandmete piirangute tõttu tekkida ootamatu käitumine.

Marcus arvas: "Lõppkokkuvõttes on generatiivne AI omamoodi alkeemia. Inimesed koguvad võimalikult palju andmeid ja (ilmselt, kui kuulujutte uskuda) tegelevad varjatud vihjetega… lootes, et kõik läheb õigesti.

Ta jätkas, et tegelikult pole süsteemid kunagi olnud stabiilsed ja neil puuduvad ohutusgarantiid. "Esmatähtsaks jääb vajadus täiesti erinevate tehnoloogiate järele, mis on vähem läbipaistmatud, paremini tõlgendatavad, paremini hooldatavad ja silutavamad – ja seega ka paremini kontrollitavad."

Võtsime juhtunu kohta üksikasjalikuma selgituse saamiseks ühendust OpenAI-ga ja värskendame seda artiklit, kui ettevõte peaks reageerima. ®

Ajatempel:

Veel alates Register