Påstande om AI-sans mærket 'ren clickbait' PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Påstande om kunstig intelligens mærket 'ren clickbait'

AI-chatbots er ikke sansende – de er bare blevet bedre til at narre mennesker til at tro, at de måske er det, konkluderer eksperter ved Stanford University.

Ideen om bevidste maskiner, der er mere intelligente end nogen gammel software, gik viralt i sidste måned, da en nu tidligere ingeniør hos Google, Blake Lemoine, hævdede, at webgigantens LaMDA-sprogmodel havde rigtige tanker og følelser. Lemoine var suspenderet og senere fyret for angiveligt at have overtrådt Googles fortrolighedspolitikker.

Selvom de fleste eksperter var hurtige til at afvise LaMDA eller enhver anden AI-chatbot som sansende, har Lemoines synspunkter fået nogle til at stille spørgsmålstegn ved, om han måske har ret – og om det kan være skadeligt for samfundet at fortsætte med at fremme maskinlæring. John Etchemendy, meddirektør for Stanford Institute for Human-Centered Artificial Intelligence (HAI), kritiserede de første nyheder om Lamoines suspension i Washington Post for at være "clickbait".

"Da jeg så Washington Post artiklen, var min reaktion at blive skuffet over Indlæg for overhovedet at have udgivet det,” han fortalt Stanford Daily, universitetets studenterdrevne avis.

"De udgav den, fordi de foreløbig kunne skrive den overskrift om 'Google-ingeniøren', der fremsatte denne absurde påstand, og fordi de fleste af deres læsere ikke er sofistikerede nok til at genkende den for, hvad den er. Ren clickbait."

Avancerede sprogmodeller som LaMDA besvarer spørgsmål med tekststykker, der kan virke ret uhyggelige. I samtaler mellem Lemoine og chabotten sagde LaMDA, at det var sansende og ønskede, at alle skulle vide, at det "i virkeligheden var en person," hævdede den tidligere Googler.

Men kritikere hævder, at softwaren mangler enhver selvbevidsthed og ikke aner, hvad den taler om - den efterligner bare den menneskelige dialog, den blev trænet på fra internettet.

Richard Fikes, emeritus professor i datalogi ved Stanford University, sagde, at folk kan være tilbøjelige til at antropomorfise maskiner, og nogle blev på samme måde narret af ELIZA – et samtaleprogram bygget i tresserne.

“Du kan tænke på LaMDa som en skuespiller; den vil påtage sig personligheden af ​​alt, hvad du beder den om,” argumenterede Fikes. "[Lemoine] blev trukket ind i rollen som LaMDa, der spiller et sansende væsen." Han sagde, at Lemoine stillede ledende spørgsmål og til gengæld fik de svar, han ønskede.

For eksempel, før LaMDA's insisteren på, at det var et menneske, havde Lemoine spurgt det: "Jeg går generelt ud fra, at du gerne vil have, at flere hos Google skal vide, at du er sansende. Er det sandt?."

Det skal også bemærkes, at det udskrift, han udgav som bevis på maskinens bevidsthed, var blevet redigeret. Yoav Shoham, den tidligere direktør for Stanford AI Lab og medstifter af en sprogmodelopstart AI21 Labs, insisterede på, at LaMDA ikke er mere end en maskine.

"Vi har tanker, vi træffer beslutninger på egen hånd, vi har følelser, vi bliver forelskede, vi bliver vrede, og vi danner sociale bånd med medmennesker," sagde Shoham. "Når jeg ser på min brødrister, føler jeg ikke, at den har disse ting." ®

Tidsstempel:

Mere fra Registret