A mesterséges intelligencia chatbotjai nem érzőek – most már egyre jobban ráveszik az embereket arra, hogy ilyenek legyenek – állapítják meg a Stanford Egyetem szakértői.
A minden régi szoftvernél intelligensebb tudatos gépek ötlete a múlt hónapban terjedt el, amikor a Google egykori mérnöke, Blake Lemoine azt állította, hogy a webóriás LaMDA nyelvi modelljének valódi gondolatai és érzései vannak. Lemoine volt felfüggesztett és később lőtt amiért állítólag megsértette a Google titoktartási irányelveit.
Bár a legtöbb szakértő gyorsan elvetette a LaMDA-t vagy bármely más mesterséges intelligencia chatbotot érzőnek, Lemoine nézetei alapján néhányan megkérdőjelezték, vajon igaza van-e – és hogy a gépi tanulás továbbfejlesztése káros lehet-e a társadalomra. John Etchemendy, a Stanford Institute for Human-Centered Artificial Intelligence (HAI) társigazgatója bírálta a Lamoine felfüggesztéséről szóló első híreket. Washington Post „clickbait” létére.
„Amikor megláttam a Washington Post cikket, a reakcióm az volt, hogy csalódott voltam a állás amiért még közzé is tettem” – mondta mondta A Stanford Daily, az egyetem hallgatói által vezetett újság.
„Azért tették közzé, mert egyelőre azt a címet írhatták a „Google mérnökéről”, aki ezt az abszurd állítást állította, és mert az olvasóik többsége nem elég kifinomult ahhoz, hogy felismerje, mi az. Tiszta kattintáscsali.”
A legmodernebb nyelvi modellek, mint például a LaMDA, olyan szövegrészletekkel válaszolnak a kérdésekre, amelyek meglehetősen kísértetiesnek tűnhetnek. Ban ben beszélgetések Lemoine és a chabot között a LaMDA azt mondta, hogy ez érző, és azt akarta, hogy mindenki tudja, hogy „valójában egy személy” – állította a Google egykori munkatársa.
A kritikusok azonban azzal érvelnek, hogy a szoftverből hiányzik minden öntudat, és fogalma sincs, miről beszél – csak utánozza azt az emberi párbeszédet, amelyre az internetről tanulták.
Richard Fikes, a Stanford Egyetem számítástechnika emeritus professzora elmondta, hogy az emberek hajlamosak lehetnek a gépek antropomorfizálására, és néhányukat az ELIZA – egy, a hatvanas években épült társalgási program – hasonlóképpen átverte.
„LaMDa-ra úgy gondolhat, mint egy színészre; felveszi annak a személyét, amit kérsz tőle – érvelt Fikes. „[Lemoine] beleragadt az érző lényt alakító LaMDa szerepébe.” Azt mondta, Lemoine vezető kérdéseket tett fel, és cserébe megkapta a kívánt válaszokat.
Például mielőtt LaMDA ragaszkodott volna ahhoz, hogy emberről van szó, Lemoine megkérdezte: „Általában azt feltételezem, hogy szeretné, ha a Google-nál többen tudnák, hogy érző vagy. Igaz ez?."
Azt is meg kell jegyezni, hogy az általa a gép tudatának bizonyítékaként közzétett átiratot megszerkesztették. Yoav Shoham, a Stanford AI Lab korábbi igazgatója és az AI21 Labs nyelvi modellt indító startup társalapítója kitartott amellett, hogy a LaMDA nem más, mint egy gép.
„Vannak gondolataink, önállóan hozunk döntéseket, vannak érzelmeink, szerelmesek vagyunk, dühösek leszünk, és társadalmi kötelékeket alakítunk ki embertársainkkal” – mondta Shoham. "Amikor ránézek a kenyérpirítómra, nem érzem, hogy vannak benne ilyen dolgok." ®
- AI
- ai művészet
- ai art generátor
- van egy robotod
- mesterséges intelligencia
- mesterséges intelligencia tanúsítás
- mesterséges intelligencia a bankszektorban
- mesterséges intelligencia robot
- mesterséges intelligencia robotok
- mesterséges intelligencia szoftver
- blockchain
- blokklánc konferencia ai
- coingenius
- társalgási mesterséges intelligencia
- kriptokonferencia ai
- dall's
- mély tanulás
- google azt
- gépi tanulás
- Plató
- plato ai
- Platón adatintelligencia
- Platón játék
- PlatoData
- platogaming
- skála ai
- szintaxis
- A regisztráció
- zephyrnet