A mesterséges intelligencia empátiája megóvhat minket a legrosszabb impulzusaitól

A mesterséges intelligencia empátiája megóvhat minket a legrosszabb impulzusaitól

Giving AI a Sense of Empathy Could Protect Us From Its Worst Impulses PlatoBlockchain Data Intelligence. Vertical Search. Ai.

A filmben M3GAN, egy játékfejlesztő a közelmúltban árván maradt unokahúgának, Cadynek egy gyerekméretű, mesterséges intelligenciával hajtott robotot ad, amelynek egyetlen célja van: megvédeni Cadyt. Az M3GAN robot együtt érez Cady traumájával. De a dolgok hamarosan délre fordulnak, és a pint méretű robot megtámad mindent és mindenkit, akiről úgy véli, hogy veszélyt jelent Cadyre.

Az M3GAN nem volt rosszindulatú. Követte a programozást, de minden törődés és más lények iránti tisztelet nélkül – végül Cadyt is beleértve. Bizonyos értelemben, ahogy a fizikai világgal foglalkozott, az M3GAN mesterséges intelligencia szociopata lett.

Sociopathic AI isn’t just a topic explored in Hollywood. To Dr. Leonardo Christov-Moore at the University of Southern California and colleagues, it’s high time to build artificial empathy into AI—and nip any antisocial behaviors in the bud.

In egy esszét a múlt héten jelent meg Tudományos robotika, a csapat a mellett érvelt idegtudomány perspektíva az empátia kódsorokba ágyazásához. A kulcs az, hogy „belösztönöket” adjunk hozzá a túléléshez – például a fizikai fájdalom elkerülésének szükségességét. A mesterséges intelligencia ügynöke annak tudatában, hogy ez „sérülhet”, feltérképezheti ezt a tudást másokra. Hasonló ez ahhoz, ahogyan az emberek felmérik egymás érzéseit: megértem és érzem a fájdalmadat, mert már jártam ott.

Az empátián alapuló mesterséges intelligencia-ügynökök egy további védőkorlátréteget adnak hozzá, amely „megakadályozza a visszafordíthatatlan súlyos károkat”. mondott Christov-Moore. Nagyon nehéz kárt okozni másoknak, ha digitálisan utánozod – és így „megtapasztalod” – a következményeket.

Digitális da Vinci

A ChatGPT és más nagy generatív modellek gyors térnyerése mindenkit meglepett, azonnal kérdéseket vetve fel azzal kapcsolatban, hogyan tudnak integrálódni a világunkba. Néhány ország igen már tiltja a technológia a kiberbiztonsági kockázatok és a magánélet védelme miatt. Az AI-szakértők nyílt levélben is megkongatták a vészharangot korábban ebben az évben amely a technológia „társadalmi kockázataira” figyelmeztetett.

Még mindig alkalmazkodunk a mesterséges intelligencia által vezérelt világhoz. De ahogy ezek az algoritmusok egyre inkább beszőnek a társadalom szövetébe, itt az ideje, hogy előre tekintsünk lehetséges következményeikre. Hogyan irányíthatjuk az AI-ügynököket, hogy ne ártsanak, hanem dolgozzanak együtt az emberiséggel és segítsék a társadalmat?

Ez egy nehéz probléma. A legtöbb AI-algoritmus fekete doboz marad. Nem tudjuk, hogyan és miért hoz sok algoritmus döntéseket.

Az ügynökök azonban elképesztő képességgel rendelkeznek, hogy „elképesztő és egyben titokzatos” megoldásokat találjanak ki, amelyek ellentétesek az emberekkel – mondta Christov-Moore. Adj nekik egy kihívást – mondjuk, találjanak módot a lehető legtöbb terápiás fehérje felépítésére –, és gyakran olyan megoldásokat fognak elképzelni, amelyekre az emberek nem is gondoltak.

A kötetlen kreativitásnak ára van. "A probléma az, hogy lehetséges, hogy olyan megoldást választanak, amely katasztrofális, visszafordíthatatlan károkat okozhat az élőlényekben, és különösen az emberekben" - mondta Christov-Moore.

Ha egy adag mesterséges empátiát adunk az MI-hez, ez lehet a jelenlegi legerősebb védőkorlát.

Beszéljünk az érzésekről

Az empátia nem szimpátia.

Példaként: nemrég öntöttem hidrogén-peroxidot egy friss, három hüvelyk széles sebre. Az együttérzés az, amikor megérted, hogy fájdalmas volt, és törődést és együttérzést mutatsz. Az empátia az, amikor élénken elképzeled, hogy a fájdalom hogyan fog érezni (és összerezzent).

Korábbi idegtudományi kutatások azt mutatják, hogy az empátia nagyjából két fő összetevőre bontható. Az egyik tisztán logikus: megfigyeled valakinek a viselkedését, dekódolod a tapasztalatait, és következtetsz arra, hogy mi történik vele.

A mesterséges empátia legtöbb létező módszere ezt az utat választja, de ez egy gyors út a szociopatikus mesterséges intelligencia felé. A hírhedt emberi társaikhoz hasonlóan ezek az ágensek utánozhatnak érzéseket, de nem tapasztalhatják meg azokat, így megjósolhatják és manipulálhatják ezeket az érzéseket másokban, anélkül, hogy bármilyen erkölcsi okot adnának a sérelem vagy szenvedés elkerülésére.

A második komponens teszi teljessé a képet. Itt a mesterséges intelligencia az emberek és más rendszerek között megosztott sebezhetőség érzését kapja.

"Ha csak tudom, hogy milyen állapotban vagy, de egyáltalán nem osztom meg, akkor nincs okom arra, hogy megmozgatna, hacsak nem rendelkezem valami nagyon erős erkölcsi kódexszel, amelyet kidolgoztam" - mondta Christov-Moore. .

Sebezhető mesterséges intelligencia

A sebezhetőség kódolásának egyik módja az, ha az AI-t átitatják az életben maradás érzésével.

Az emberek megéheznek. Túlmelegedett. Megfagyott. Felajzott. Nyomott. Az evolúciónak köszönhetően szűk, de rugalmas ablakunk van minden biológiai méréshez, amely segít fenntartani az általános fizikai és mentális egészséget, ezt homeosztázisnak nevezzük. Testünk és elménk képességeinek ismerete lehetővé teszi, hogy minden lehetséges megoldást keressünk, amikor váratlan dinamikus környezetekbe csöppenünk.

A szerzők szerint ezek a biológiai korlátok nem hiba, hanem inkább az empátiát generáló jellemzők az AI-ban.

A mesterséges empátia mesterséges intelligenciába való programozásának egyik korábbi ötlete az volt, hogy explicit szabályokat írjanak a jó és a rossz között. Nyilvánvaló problémákkal jár. A szabályokon alapuló rendszerek merevek és nehezen navigálhatók az erkölcsileg szürke területeken. Nehéz is létrehozni őket, mivel a különböző kultúrák rendkívül eltérő keretekkel rendelkeznek az elfogadhatóság tekintetében.

Ezzel szemben a túlélésre való törekvés univerzális, és kiindulópont a sebezhető mesterséges intelligencia felépítéséhez.

„A nap végén a fő dolog az agyad… azzal kell foglalkoznia, hogyan tarthat fenn egy sebezhető testet a világon, és az Ön értékelésével, hogy mennyire jól teljesít ebben” – mondta Christov-Moore.

Ezek az adatok olyan érzésekként jelennek meg a tudatban, amelyek befolyásolják döntéseinket: kényelmes, kényelmetlen, menj ide, egyél oda. Ezek a késztetések „életünk filmjének alapját képezik, és érzést adnak arról, hogy jól mennek-e a dolgok, vagy nem” – mondta Christov-Moore. Egy sérülékeny test nélkül, amelyet – akár digitálisan, akár fizikailag robotként – fenn kell tartani, egy mesterséges intelligencia ügynöknek nem lehet olyan bőre a játékban, amely az együttműködésre készteti az életet, amely bizonyos viselkedésmódok felé tereli, vagy attól távol tartja.

Tehát hogyan építsünk ki egy sebezhető mesterséges intelligencia?

„Olyasmit kell megtapasztalnia, mint a szenvedés” – mondta Christov-Moore.

A csapat gyakorlati tervrajzot készített. A fő cél a homeosztázis fenntartása. Az első lépésben az AI „gyerek” egy akadályokkal teli környezetben barangol, miközben jótékony jutalmakat keres, és életben tartja magát. Ezután elkezd kialakulni egy elképzelés arról, hogy mások mit gondolnak azáltal, hogy megfigyelik őket. Olyan ez, mint egy első randevú: a mesterséges intelligencia gyerek megpróbálja elképzelni, hogy mit gondol egy másik MI (mi a helyzet néhány friss virággal?), és amikor rossz (a másik mesterséges intelligencia utálja a virágokat), egyfajta szomorúságot szenved, és módosítja az elvárásait. Többszöri próbálkozással az AI végül megtanulja és alkalmazkodik a másik preferenciáihoz.

Végül a mesterséges intelligencia leképezi a másik belső modelljét önmagára, miközben megőrzi saját integritását. Amikor döntést hoz, egyidejűleg több nézőpontot is figyelembe tud venni azáltal, hogy minden egyes bemenetet egyetlen döntéshez mérlegel, ezáltal okosabbá és együttműködőbbé teszi.

Egyelőre ezek csak elméleti forgatókönyvek. Az emberekhez hasonlóan ezek az AI-ügynökök sem tökéletesek. Rossz döntéseket hoznak, ha időben stresszesek, és figyelmen kívül hagyják a hosszú távú következményeket.

Ennek ellenére a mesterséges intelligencia „elrettentő erőt hoz létre az intelligenciájában… ami elriasztja azoktól a döntésektől, amelyek kárt okozhatnak más élő ágenseknek és önmagának is” – mondta Christov-Moore. „Az ártalmak, a jólét és a világ számos, egymásnak ellentmondó forgatókönyvében való kiegyensúlyozásával a mesterséges intelligencia intuitív módon ellentétes megoldásokhoz juthat olyan sürgető civilizációs szintű problémákra, amelyekre még csak nem is gondoltunk. Ha elhárítjuk ezt a következő akadályt, az MI civilizációs szintű kockázatból a valaha volt legnagyobb szövetségessé válhat.”

Kép: Mohamed Hassan ból ből pixabay

Időbélyeg:

Még több Singularity Hub