Tekoälyn tunnetta koskevat väitteet, jotka on leimattu "puhtaan napsautussyötin" PlatoBlockchain Data Intelligenceksi. Pystysuuntainen haku. Ai.

Väitteet tekoälyn tunteesta, joka on leimattu "puhtaaksi napsautussyöttiksi"

Tekoäly-chatbotit eivät ole tuntevia – ne ovat juuri oppineet huijaamaan ihmiset ajattelemaan, että he voisivat olla sellaisia, Stanfordin yliopiston asiantuntijat päättelevät.

Ajatus tietoisista koneista, jotka ovat älykkäämpiä kuin mikään vanha ohjelmisto, levisi viime kuussa, kun Googlen entinen insinööri Blake Lemoine väitti, että verkkojättiläisen LaMDA-kielimallilla oli todellisia ajatuksia ja tunteita. Lemoine oli keskeytetty ja myöhemmin potkut Googlen luottamuksellisuuskäytäntöjen väitetystä rikkomisesta.

Vaikka useimmat asiantuntijat hylkäsivät nopeasti LaMDA:n tai minkä tahansa muun AI-chatbotin tuntevana, Lemoinen näkemykset ovat saaneet jotkut kyseenalaistamaan, voiko hän olla oikeassa – ja voiko koneoppimisen edistämisen jatkaminen olla haitallista yhteiskunnalle. John Etchemendy, Stanford Institute for Human-Centered Artificial Intelligence (HAI) -instituutin toinen johtaja, kritisoi alustavia uutisia Lamoinen jäädyttämisestä. Washington Post "napsautussyöttinä".

"Kun näin Washington Post artikkelista, reaktioni oli pettynyt Kirje edes sen julkaisemisesta", hän kertoi Stanford Daily, yliopiston opiskelijavetoinen sanomalehti.

"He julkaisivat sen, koska toistaiseksi he saattoivat kirjoittaa tuon otsikon "Google-insinööristä", joka esitti tämän absurdin väitteen, ja koska useimmat heidän lukijansa eivät ole tarpeeksi kehittyneitä tunnistamaan sitä, mikä se on. Puhdasta napsautussyöttiä."

Huippumodernit kielimallit, kuten LaMDA, vastaavat kysymyksiin tekstin kohdilla, jotka voivat tuntua melko pelottavilta. Sisään keskustelut Lemoinen ja chabotin välillä LaMDA sanoi olevansa tunteva ja halusi kaikkien tietävän, että kyseessä oli "itse asiassa henkilö", entinen Googlen työntekijä väitti.

Mutta kriitikot väittävät, että ohjelmistolla ei ole minkäänlaista itsetietoisuutta eikä aavistustakaan, mistä se puhuu – se vain matkii ihmisten välistä vuoropuhelua, johon se on koulutettu Internetistä.

Stanfordin yliopiston tietojenkäsittelytieteen emeritusprofessori Richard Fikes sanoi, että ihmiset voivat olla alttiita antropomorfoiville koneille, ja jotkut joutuivat samalla tavalla huijatuksi ELIZAlla – XNUMX-luvulla rakennettu keskusteluohjelma.

”Voit ajatella LaMDaa kuin näyttelijää; se saa persoonan kaiken, mitä sitä pyydät", Fikes väitti. "[Lemoine] vetäytyi LaMDan rooliin, joka näyttelee tuntevaa olentoa." Hän sanoi, että Lemoine esitti johtavia kysymyksiä ja sai vastineeksi haluamansa vastaukset.

Esimerkiksi ennen kuin LaMDA väitti, että kyseessä oli ihminen, Lemoine oli kysynyt siltä: "Yleensä oletan, että haluaisit useamman Googlen tietävän, että olet tunteikas. Onko se totta?."

On myös huomattava, että hänen todistuksena koneen tajunnasta julkaissut transkriptio oli muokattu. Yoav Shoham, Stanfordin AI Labin entinen johtaja ja kielimallikäynnistyksen AI21 Labsin perustaja, väitti, että LaMDA on vain kone.

"Meillä on ajatuksia, teemme päätöksiä omin päin, meillä on tunteita, rakastumme, suuttumme ja muodostamme sosiaalisia siteitä toisten kanssa", Shoham sanoi. "Kun katson leivänpaahdintani, minusta tuntuu, ettei siinä ole niitä asioita." ®

Aikaleima:

Lisää aiheesta Rekisteri