Påstander om AI-følelse merket "ren clickbait" PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Påstander om AI-følelse merket "ren clickbait"

AI-chatboter er ikke sansende – de har bare blitt bedre til å lure mennesker til å tro at de kan være det, konkluderer eksperter ved Stanford University.

Ideen om bevisste maskiner mer intelligente enn noen gammel programvare gikk viralt forrige måned, da en nå tidligere ingeniør hos Google, Blake Lemoine, hevdet at nettgigantens LaMDA-språkmodell hadde ekte tanker og følelser. Lemoine var suspendert og senere sparken for angivelig brudd på Googles retningslinjer for konfidensialitet.

Selv om de fleste eksperter var raske til å avfeie LaMDA eller en hvilken som helst annen AI-chatbot som sansende, har Lemoines synspunkter ført til at noen stiller spørsmål ved om han kan ha rett – og om det å fortsette å fremme maskinlæring kan være skadelig for samfunnet. John Etchemendy, meddirektør for Stanford Institute for Human-Centered Artificial Intelligence (HAI), kritiserte de første nyhetene om Lamoines suspensjon i Washington Post for å være "clickbait".

"Da jeg så Washington Post artikkel, min reaksjon var å bli skuffet over Post for til og med å publisere det,» han fortalte Stanford Daily, universitetets studentdrevne avis.

"De publiserte den fordi de foreløpig kunne skrive den overskriften om "Google-ingeniøren" som kom med denne absurde påstanden, og fordi de fleste av leserne deres ikke er sofistikerte nok til å gjenkjenne det for hva det er. Ren clickbait.»

State-of-the-art språkmodeller som LaMDA svarer på spørsmål med tekststykker som kan virke ganske uhyggelige. I samtaler mellom Lemoine og chaboten sa LaMDA at det var sansende og ville at alle skulle vite at det var «faktisk en person», hevdet den tidligere Googleren.

Men kritikere hevder at programvaren mangler selvbevissthet og har ingen anelse om hva den snakker om - den etterligner bare den menneskelige dialogen den ble trent på fra internett.

Richard Fikes, emeritus professor i informatikk ved Stanford University, sa at folk kan være tilbøyelige til å antropomorfisere maskiner og at noen på samme måte ble lurt av ELIZA – et samtaleprogram bygget på sekstitallet.

«Du kan tenke på LaMDa som en skuespiller; den vil ta på seg personligheten til alt du ber den om,» argumenterte Fikes. "[Lemoine] ble dratt inn i rollen som LaMDa som spiller et sansende vesen." Han sa at Lemoine stilte ledende spørsmål og til gjengjeld fikk svarene han ønsket.

For eksempel, før LaMDA insisterte på at det var et menneske, hadde Lemoine spurt det: «Jeg antar generelt at du vil at flere hos Google skal vite at du er sansende. Er det sant?."

Det bør også bemerkes at transkripsjonen han publiserte som bevis på maskinens bevissthet var redigert. Yoav Shoham, den tidligere direktøren for Stanford AI Lab og medgründer av en språkmodelloppstart AI21 Labs, insisterte på at LaMDA ikke er noe mer enn en maskin.

"Vi har tanker, vi tar avgjørelser på egenhånd, vi har følelser, vi blir forelsket, vi blir sinte og vi knytter sosiale bånd til medmennesker," sa Shoham. "Når jeg ser på brødristeren min, føler jeg ikke at den har disse tingene." ®

Tidstempel:

Mer fra Registeret