A „pure clickbait” PlatoBlockchain Data Intelligence néven emlegetett mesterséges intelligencia-érzékelés állításai. Függőleges keresés. Ai.

A „tiszta kattintáscsalinak” nevezett mesterséges intelligencia érvelésére vonatkozó állítások

A mesterséges intelligencia chatbotjai nem érzőek – most már egyre jobban ráveszik az embereket arra, hogy ilyenek legyenek – állapítják meg a Stanford Egyetem szakértői.

A minden régi szoftvernél intelligensebb tudatos gépek ötlete a múlt hónapban terjedt el, amikor a Google egykori mérnöke, Blake Lemoine azt állította, hogy a webóriás LaMDA nyelvi modelljének valódi gondolatai és érzései vannak. Lemoine volt felfüggesztett és később lőtt amiért állítólag megsértette a Google titoktartási irányelveit.

Bár a legtöbb szakértő gyorsan elvetette a LaMDA-t vagy bármely más mesterséges intelligencia chatbotot érzőnek, Lemoine nézetei alapján néhányan megkérdőjelezték, vajon igaza van-e – és hogy a gépi tanulás továbbfejlesztése káros lehet-e a társadalomra. John Etchemendy, a Stanford Institute for Human-Centered Artificial Intelligence (HAI) társigazgatója bírálta a Lamoine felfüggesztéséről szóló első híreket. Washington Post „clickbait” létére.

„Amikor megláttam a Washington Post cikket, a reakcióm az volt, hogy csalódott voltam a állás amiért még közzé is tettem” – mondta mondta A Stanford Daily, az egyetem hallgatói által vezetett újság.

„Azért tették közzé, mert egyelőre azt a címet írhatták a „Google mérnökéről”, aki ezt az abszurd állítást állította, és mert az olvasóik többsége nem elég kifinomult ahhoz, hogy felismerje, mi az. Tiszta kattintáscsali.”

A legmodernebb nyelvi modellek, mint például a LaMDA, olyan szövegrészletekkel válaszolnak a kérdésekre, amelyek meglehetősen kísértetiesnek tűnhetnek. Ban ben beszélgetések Lemoine és a chabot között a LaMDA azt mondta, hogy ez érző, és azt akarta, hogy mindenki tudja, hogy „valójában egy személy” – állította a Google egykori munkatársa.

A kritikusok azonban azzal érvelnek, hogy a szoftverből hiányzik minden öntudat, és fogalma sincs, miről beszél – csak utánozza azt az emberi párbeszédet, amelyre az internetről tanulták.

Richard Fikes, a Stanford Egyetem számítástechnika emeritus professzora elmondta, hogy az emberek hajlamosak lehetnek a gépek antropomorfizálására, és néhányukat az ELIZA – egy, a hatvanas években épült társalgási program – hasonlóképpen átverte.

„LaMDa-ra úgy gondolhat, mint egy színészre; felveszi annak a személyét, amit kérsz tőle – érvelt Fikes. „[Lemoine] beleragadt az érző lényt alakító LaMDa szerepébe.” Azt mondta, Lemoine vezető kérdéseket tett fel, és cserébe megkapta a kívánt válaszokat.

Például mielőtt LaMDA ragaszkodott volna ahhoz, hogy emberről van szó, Lemoine megkérdezte: „Általában azt feltételezem, hogy szeretné, ha a Google-nál többen tudnák, hogy érző vagy. Igaz ez?."

Azt is meg kell jegyezni, hogy az általa a gép tudatának bizonyítékaként közzétett átiratot megszerkesztették. Yoav Shoham, a Stanford AI Lab korábbi igazgatója és az AI21 Labs nyelvi modellt indító startup társalapítója kitartott amellett, hogy a LaMDA nem más, mint egy gép.

„Vannak gondolataink, önállóan hozunk döntéseket, vannak érzelmeink, szerelmesek vagyunk, dühösek leszünk, és társadalmi kötelékeket alakítunk ki embertársainkkal” – mondta Shoham. "Amikor ránézek a kenyérpirítómra, nem érzem, hogy vannak benne ilyen dolgok." ®

Időbélyeg:

Még több A regisztráció