Hogyan segíthet az állatok érző képességének tanulmányozása az érző mesterséges intelligencia etikai rejtvényének megoldásában

Hogyan segíthet az állatok érző képességének tanulmányozása az érző mesterséges intelligencia etikai rejtvényének megoldásában

Hogyan segíthet az állatok érző képességének tanulmányozása a Sentient AI PlatoBlockchain adatintelligencia etikai rejtvényének megoldásában? Függőleges keresés. Ai.

Mesterséges intelligencia olyan gyorsan fejlődött, hogy még a számos kulcsfontosságú fejlesztésért felelős tudósok egy részét is nyugtalanítja a változás üteme. Az év elején több mint 300 mesterséges intelligenciával foglalkozó szakember és más érintett közéleti személyiség adott ki a tompa figyelmeztetés a technológia által jelentett veszélyről, összehasonlítva a kockázatot a járványokkal vagy a nukleáris háborúval.

Ezeknek az aggodalmaknak a felszíne alatt ott lapul a gépi tudat kérdése. Még ha „senki sincs otthon” a mai mesterséges intelligencia-eszközökben, egyes kutatók azon töprengenek, vajon egy nap felvillanhat-e tudatuk egy csillogása – vagy több. Ha ez megtörténik, az egy csomó morális és etikai aggályt vet fel, mondja Jonathan Birch, a London School of Economics and Political Science filozófiaprofesszora.

Ahogy a mesterséges intelligencia technológia ugrásszerűen halad előre, az ember és a mesterséges intelligencia interakciói által kiváltott etikai kérdések új sürgőssé váltak. „Nem tudjuk, hogy behozzuk őket erkölcsi körünkbe, vagy kizárjuk őket” – mondta Birch. „Nem tudjuk, mi lesz a következménye. És ezt komolyan veszem, mint valódi kockázatot, amelyről beszélnünk kell. Nem igazán, mert szerintem ChatGPT ebbe a kategóriába tartozik, de mert nem tudom, mi fog történni a következő 10 vagy 20 évben.”

Közben azt mondja, jót tennénk, ha más, nem emberi elmét is tanulmányoznánk – például az állatokét. Birch vezeti az egyetemet Az állatok érzékének alapjai projekt, az Európai Unió által finanszírozott erőfeszítés, amelynek célja, hogy megpróbáljon némi előrelépést elérni az állatok érzékiségének nagy kérdéseiben, ahogy Birch fogalmazott. „Hogyan dolgozhatunk ki jobb módszereket az állatok tudatos tapasztalatainak tudományos tanulmányozására? És hogyan hozhatjuk működésbe az állatok érzékszervének feltörekvő tudományát, hogy jobb politikákat, törvényeket és módszereket alakítsunk ki az állatokkal való gondozásra?

Interjúnkat a Zoom segítségével és e-mailben készítettük, és a terjedelem és az érthetőség kedvéért szerkesztettük.

(Ezt a cikket eredetileg közzétették Undark. Olvassa el a eredeti cikk.)

Nem sötét: Folyamatos vita folyik arról, hogy az AI lehet-e tudatos vagy érző. És úgy tűnik, párhuzamosan felmerül a kérdés, hogy az AI képes-e látszik érzőnek lenni. Miért olyan fontos ez a megkülönböztetés?

Jonathan Birch: Azt hiszem, ez egy hatalmas probléma, és valami, amitől meg kell félnünk. Az AI-rendszerek még most is képesek meggyőzni felhasználóikat érzékükről. Láthattuk ezt tavaly Blake Lemoine esetével, a Google mérnökével, aki meggyőződött hogy a rendszer, amelyen dolgozott, érző volt – és ez csak akkor van így, ha a kimenet pusztán szöveg, és amikor a felhasználó magasan képzett AI-szakértő.

Tehát képzeljünk el egy olyan helyzetet, amikor a mesterséges intelligencia képes irányítani az emberi arcot és az emberi hangot, és a felhasználó tapasztalatlan. Úgy gondolom, hogy a mesterséges intelligencia már abban a helyzetben van, hogy nagyon könnyen meg tud győzni sok embert arról, hogy egy érző lény. És ez egy nagy probléma, mert azt hiszem, látni fogjuk, hogy az emberek a mesterséges intelligencia jólétéért kampányolnak, AI jogok, és ehhez hasonló dolgok.

És nem fogjuk tudni, mit tegyünk ezzel. Mert szeretnénk egy nagyon erős leütő érvet, amely bizonyítja, hogy az AI rendszerek, amelyekről beszélnek nem tudatos. És nálunk nincs ilyen. A tudat elméleti megértése nem elég érett ahhoz, hogy magabiztosan kijelenthessük annak hiányát.

UD: Egy robotot vagy egy mesterséges intelligencia rendszert be lehet programozni úgy, hogy valami ilyesmit mondjon: "Hagyd abba, bántasz." De egy ilyen egyszerű nyilatkozat nem elég az érzékiség lakmuszpapírjaként, igaz?

JB: A londoni Imperial College-ban nagyon egyszerű rendszereket fejlesztettek ki, amelyek segítenek az orvosoknak a képzésben utánozzák az emberi fájdalom kifejezéseit. És semmi okunk nincs azt hinni, hogy ezek a rendszerek érzőek. Nem igazán éreznek fájdalmat; mindössze annyit csinálnak, hogy nagyon egyszerű módon leképezik a bemeneteket a kimenetekre. De az általuk produkált fájdalomkifejezések egészen élethűek.

Azt hiszem, némileg hasonló helyzetben vagyunk a chatbotokkal, mint például a ChatGPT – hogy több mint billió szónyi betanítási adatra vannak kiképezve, hogy utánozzák az ember reakciómintáját, és úgy reagáljanak, ahogyan az ember válaszolna.

Tehát természetesen, ha olyan felszólítást adsz neki, amelyre az ember a fájdalom kifejezésével reagálna, akkor képes lesz ügyesen utánozni ezt a választ.

De úgy gondolom, hogy ha tudjuk, hogy ez a helyzet – amikor tudjuk, hogy ügyes mimikával van dolgunk –, nincs nyomós okunk azt gondolni, hogy e mögött tényleges fájdalom állhat.

UD: Ez az entitás, amelyen az orvostanhallgatók oktatnak, azt hiszem, valami robot?

JB: Így van, igen. Tehát van egy próbababaszerű cuccuk, emberi arccal, és az orvos képes megnyomni a karját, és olyan kifejezést kapni, amely utánozza azt a kifejezést, amelyet az emberek különböző fokú nyomás esetén adnának. Ennek célja, hogy segítsen az orvosoknak megtanulni, hogyan kell megfelelően alkalmazni a technikákat a betegeken anélkül, hogy túl sok fájdalmat okozna.

És nagyon könnyen befogadnak minket, amint valaminek emberi arca van, és olyan kifejezéseket ölt, mint egy ember, még akkor is, ha nincs mögötte valódi intelligencia.

Tehát ha azt képzeli, hogy a ChatGPT-ben látott mesterséges intelligencia párosítása olyan, mint a mimika, amely valóban nagyon meggyőző, és ez sok embert meg fog győzni.

UD: Az érzék olyasvalaminek tűnik, amit úgyszólván belülről ismerünk. Megértjük saját érzékünket – de hogyan tesztelnéd mások érzőképességét, legyen az MI vagy bármely más, önmagán kívül álló entitás?

JB: Azt hiszem, nagyon erős pozícióban vagyunk más emberekkel szemben, akik beszélhetnek velünk, mert hihetetlenül gazdag bizonyítékokkal rendelkezünk. A legjobb magyarázat erre az, hogy más embereknek is vannak tudatos tapasztalatai, akárcsak mi. Így használhatjuk ezt a fajta következtetést, amelyet a filozófusok néha „a legjobb magyarázatra való következtetésnek” neveznek.

Azt hiszem, pontosan ugyanúgy megközelíthetjük a többi állat témáját – hogy más állatok nem beszélnek velünk, de olyan viselkedést mutatnak, amelyet nagyon természetes módon magyaráznak olyan állapotok hozzárendelésével, mint a fájdalom. Például, ha azt látja, hogy egy kutya sérülés után nyalogatja a sebeit, ápolja azt a területet, és megtanulja elkerülni azokat a helyeket, ahol fennáll a sérülés veszélye, akkor ezt a viselkedési mintát természetesen fájdalmas állapot felállításával magyarázza.

És úgy gondolom, hogy amikor más állatokkal van dolgunk, amelyeknek a miénkhez nagyon hasonló idegrendszerük van, és amelyek ugyanúgy fejlődtek, mint mi, akkor ez a fajta következtetés teljesen ésszerű.

UD: Mi a helyzet az AI-rendszerrel?

JB: Az AI-ügyben óriási problémánk van. Először is az a problémánk, hogy a szubsztrát más. Nem igazán tudjuk, hogy a tudatos tapasztalat érzékeny-e a szubsztrátumra – kell-e biológiai szubsztrátuma, vagyis idegrendszere, agya? Vagy ez valami teljesen más anyagból – egy szilícium alapú hordozóból – elérhető?

De ott van az a probléma is, amit „játékproblémának” nevezek – hogy amikor a rendszer trillió szónyi képzési adathoz fér hozzá, és az emberi viselkedés utánzása céljából képezték ki, akkor az általa létrehozott viselkedési minták azzal magyarázható, hogy valóban rendelkezik a tudatos tapasztalattal. Másik megoldásként egyszerűen azzal magyarázhatóak, hogy azt a célt tűzték ki, hogy az ember úgy viselkedjen, ahogyan az adott helyzetben reagálna.

Szóval tényleg úgy gondolom, hogy bajban vagyunk az MI-ügyben, mert nem valószínű, hogy olyan helyzetben találjuk magunkat, ahol egyértelműen ez a legjobb magyarázat arra, amit látunk – hogy a mesterséges intelligencia tudatos. Mindig lesznek elfogadható alternatív magyarázatok. És ebből nagyon nehéz leszokni.

UD: Ön szerint mi lenne a legjobb megoldásunk arra, hogy különbséget tegyünk valami ténylegesen tudatos és egy olyan entitás között megjelenés az érzékből?

JB: Szerintem az első lépés az, hogy felismerjük, mint egy nagyon mély és nehéz problémát. A második szakasz az, hogy megpróbáljunk minél többet tanulni más állatok esetéből. Azt hiszem, amikor olyan állatokat vizsgálunk, amelyek evolúciós szempontból közel állnak hozzánk, mint például a kutyák és más emlősök, mindig bizonytalanok maradunk abban, hogy a tudatos tapasztalat függhet-e az emlősagyra jellemző agyi mechanizmusoktól.

Ahhoz, hogy ezen túllépjünk, az állatok minél szélesebb körét kell megvizsgálnunk. És különösen gondolnunk kell a gerinctelenekre, például a polipokra és a rovarokra, ahol ez potenciálisan egy másik, egymástól függetlenül kialakult tudatos tapasztalat. Ahogy a polip szeme teljesen elkülönült a saját szemünktől – van benne a hasonlóságok és különbségek lenyűgöző keveréke –, úgy gondolom, hogy a tudatos élményei is ilyenek lesznek: függetlenül fejlődött, bizonyos tekintetben hasonló, nagyon-nagyon különbözik. más módon.

A gerinctelenek, például a polipok tapasztalatainak tanulmányozása révén pedig elkezdhetjük megérteni, hogy melyek azok az igazán mély jellemzők, amelyekkel az agynak rendelkeznie kell ahhoz, hogy támogassa a tudatos tapasztalatokat, olyan dolgokat, amelyek mélyebbre mennek, mint csupán ezeknek a speciális agyi struktúráknak, amelyek ott az emlősökben. Milyen számítási módokra van szükség? Milyen feldolgozások?

Aztán – és én ezt hosszú távú stratégiának tekintem – visszatérhetünk az AI-esethez, és azt mondhatjuk: nos, van-e benne olyan speciális számítási mód, amelyet olyan tudatos állatoknál találunk, mint az emlősök és a polipok?

UD: Hiszed, hogy egy napon létrehozunk érző MI-t?

JB: Körülbelül 50:50-nél tartok ezzel kapcsolatban. Lehetséges, hogy az érzékszervek a biológiai agy speciális tulajdonságaitól függenek, és nem világos, hogyan lehet tesztelni, hogy igen. Tehát azt gondolom, hogy az AI-ban mindig jelentős bizonytalanság lesz. Magabiztosabb vagyok ebben: Ha a tudat képes elvben számítógépes szoftverekben valósul meg, akkor az AI-kutatók megtalálják a módját ennek.

Kép: Készpénz Macanaya / Unsplash 

Időbélyeg:

Még több Singularity Hub