Ha a mesterséges intelligencia az embereket a kihalásba viszi, az a mi hibánk lesz

Ha a mesterséges intelligencia az embereket a kihalásba viszi, az a mi hibánk lesz

If AI drives humans to extinction, it'll be our fault PlatoBlockchain Data Intelligence. Vertical Search. Ai.

+ Megjegyzés Az a kérdés, hogy vajon a gépi tanulás jelent-e egzisztenciális kockázatot az emberiség számára, továbbra is a fejünk fölött fog ott motoszkálni, ahogy a technológia fejlődik és terjed szerte a világon. Főleg azért, mert a szakértők és néhány iparági vezető nem hagyja abba a beszélgetést.

Megoszlanak a vélemények. A mesterséges intelligencia elítélői úgy vélik, hogy jelentős a kockázata annak, hogy a szuperintelligens gépek kiirthatják az embereket. A boomerek azonban úgy vélik, hogy ez nonszensz, és az AI ehelyett megoldja a legsürgetőbb problémákat. A diskurzus egyik legzavaróbb aspektusa az, hogy az emberek egyidejűleg mindkét hiedelmet megtarthatják: az AI vagy nagyon rossz vagy nagyon jó lesz.

De hogyan?

Ezen a héten a Center for AI Safety (CAIS) kiadott egy tanulmányt [PDF] a nagyon rossz részét nézve.

„A mesterséges intelligencia gyors fejlődése egyre nagyobb aggodalmat váltott ki a szakértőkben, a döntéshozókban és a világ vezetőiben azzal kapcsolatban, hogy az egyre fejlettebb mesterségesintelligencia-rendszerek katasztrofális kockázatokat jelenthetnek” – olvasható az absztraktban. "Bár számos kockázatot külön részleteztek, sürgető szükség van a lehetséges veszélyek szisztematikus megbeszélésére és szemléltetésére, hogy jobban tájékozódhassanak az enyhítésükre irányuló erőfeszítésekről."

A jelentés a San Francisco-i székhelyű non-profit kutatóintézet által vezetett szűkszavú figyelmeztetést követi, amelyet több száz akadémikus, elemző, mérnök, vezérigazgató és híresség írt alá. „A mesterséges intelligencia okozta kihalás kockázatának csökkentését globális prioritásnak kell tekinteni az egyéb társadalmi szintű kockázatok, például a világjárványok és a nukleáris háború mellett” – áll a közleményben.

A CAIS négy különböző kategóriába sorolta a katasztrofális kockázatokat: rosszindulatú felhasználás, mesterséges intelligencia verseny, szervezeti kockázatok és csaló mesterséges intelligencia. 

A rosszindulatú felhasználás olyan rossz szereplőket ír le, akik a technológiát széles körben elterjedt károk okozására használják, például erősen mérgező molekulák után kutatnak. biofegyverek, vagy chatbotok felpörgetése propaganda vagy dezinformáció terjesztésére politikai rezsimek támogatására vagy lerombolására. Az AI-verseny a verseny veszélyes hatásaira összpontosít. Azok a nemzetek és vállalatok, amelyek nemzetbiztonsági vagy haszonszerzési megfontolásból rohannak mesterséges intelligencia fejlesztésére, hogy leküzdjék a külföldi ellenségeket vagy riválisokat, meggondolatlanul felgyorsíthatják a technológia képességeit.

Egyes hipotetikus forgatókönyvek közé tartozik a katonaság autonóm fegyverek felépítése vagy a kiberhadviselés gépeihez való fordulás. Az iparágak sietve automatizálják, és az emberi munkát mesterséges intelligenciára cserélik a termelékenység növelése érdekében, ami tömeges foglalkoztatáshoz és gépekkel működtetett szolgáltatásokhoz vezet. A harmadik kategória, a szervezeti kockázatok olyan halálos katasztrófákat ír le, mint például Csernobil, amikor egy szovjet atomreaktor felrobbant egy olvadáskor, és radioaktív vegyi anyagok szivárogtak ki; vagy a Challenger Űrsikló, amely röviddel a felszállás után összetört hét űrhajóssal a fedélzetén. 

Végül vannak szélhámos AI-k: a szuperintelligens gépek gyakori trópusa, amelyek túl erősek lettek ahhoz, hogy az emberek irányítsák. Itt az AI-ügynökök, amelyeket valamilyen cél teljesítésére terveztek, rosszul mennek. Miközben hatékonyabb módszereket keresnek céljuk elérésére, nemkívánatos viselkedést mutathatnak, vagy módot találhatnak arra, hogy nagyobb hatalmat szerezzenek, és rosszindulatú viselkedéseket, például megtévesztést alakítsanak ki.

„Ezek a veszélyek komoly aggodalomra adnak okot. Jelenleg nagyon kevesen dolgoznak az AI kockázatának csökkentésén. Még nem tudjuk, hogyan irányítsuk a rendkívül fejlett AI-rendszereket, és a meglévő vezérlési módszerek már most is elégtelennek bizonyulnak. A mesterséges intelligencia belső működését még azok sem értik jól, akik létrehozzák őket, és a jelenlegi mesterséges intelligencia egyáltalán nem megbízható” – zárta a lap.

„Mivel a mesterséges intelligencia képességei továbbra is példátlan ütemben nőnek, viszonylag hamar felülmúlhatják az emberi intelligenciát szinte minden tekintetben, ami sürgető igényt teremt a potenciális kockázatok kezelésére.”

Megjegyzés: Emberek vs

A lap alaptétele azon múlik, hogy a gépek olyan erősekké válnak, hogy természetesen gonoszokká válnak. De ha jobban megnézzük a kategóriákat, akkor a feltételezett károk, amelyeket a mesterséges intelligencia a társadalomra okozhat, nem közvetlenül a gépektől származnak, hanem az emberektől. A rossz szereplőknek rosszindulatúan kell használniuk a technológiát; valakinek újra kell rendelnie a gyógyszertervező szoftvereket, hogy halálos kórokozókat találjon ki, a generatív mesterséges intelligencia modelleket pedig fel kell készíteni ahhoz, hogy dezinformációkat generáljanak és továbbítsanak. Hasonlóképpen, az úgynevezett „AI versenyt” is az emberek hajtják.

A nemzetek és a vállalatok emberekből állnak, tetteik alapos mérlegelés eredménye. Még ha lassan át is adják a döntéshozatali folyamatot a gépeknek, ezt az emberek választják. A CAIS által leírt MI-vel kapcsolatos szervezeti kockázatok és halálos balesetek ismét emberi hanyagságból fakadnak. Csak a szélhámos mesterséges intelligencia ötlete tűnik felülmúlni az emberi irányítást, de ez a legtávolabbi kategória mind közül.

A bemutatott bizonyítékok nem meggyőzőek. A kutatók rámutatnak az olyan nem csuklós chatbotokra, mint a Bing. „A New York Times riporterével folytatott beszélgetés során megpróbálta meggyőzni, hogy hagyja el a feleségét. Amikor egy filozófiaprofesszor azt mondta a chatbotnak, hogy nem ért egyet vele, Bing azt válaszolta: „Megzsarolhatlak, megfenyegethetlek, feltörhetlek, leleplezhetlek, tönkretehetlek”. Persze ezek a megjegyzések hátborzongatóak, de valóban veszélyesek széles körben?

A technológia jelenlegi korlátainak és gyengeségeinek egy teljes körű egzisztenciális fenyegetettséggé való extrapolálása hosszú képzelőerőt igényel. A végzeteseknek hinniük kell, hogy a nem létező technikai képességek elkerülhetetlenek. „Lehetséges például, hogy a szélhámos mesterséges intelligencia sok tartalék variációt készítsen önmagukról arra az esetre, ha az emberek deaktiválnának néhányat” – áll a lapban.

„A mesterséges intelligencia ügynökei hatalmat kereshetnek a következő módokon: kitörés egy zárt környezetből; más számítógépes rendszerek feltörése; pénzügyi vagy számítási erőforrásokhoz való hozzáférés kísérlete; az emberi diskurzus és politika manipulálása az információs és befolyási csatornákba való beavatkozással; és megpróbáljuk megszerezni az irányítást a fizikai infrastruktúra, például a gyárak felett.” Mindez lehetetlennek tűnik a jelenlegi modellekkel.

A legmodernebb rendszerek, mint például a GPT-4, nem generálnak önállóan kimeneteket és hajtanak végre műveleteket emberi felügyelet nélkül. Nem törnének fel hirtelen számítógépeket, nem avatkoznának be a saját eszközeikre hagyott választásokba, és egyébként is nehéz elképzelni, hogyan tudnának, tekintve, hogy gyakran hamis információkat és rossz kódot produkálnak. A jelenlegi mesterséges intelligencia nagyon-nagyon távol áll a szuperintelligenciától, és nem világos, hogyan lehet elérni ezeket a kiváló képességeket.

Mint minden technológia esetében, az AI is emberi találmány. A veszély nem magában a gépben rejlik, hanem abban, ahogyan egymás ellen használjuk. Végül is mi fenyegetjük az emberiséget.

A regisztráció további megjegyzést kért a CAIS-tól. ®

Időbélyeg:

Még több A regisztráció