Boffins a mesterséges intelligencia szabályozását sürgeti a jövőbeli fenyegetések elhárítása érdekében

Boffins a mesterséges intelligencia szabályozását sürgeti a jövőbeli fenyegetések elhárítása érdekében

Boffins urge AI regulation to head off future threats PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Egy 24 mesterséges intelligencia világítóból álló csoport papírt és nyílt levelet tett közzé, amelyben a technológia erősebb szabályozására és biztosítékaira szólít fel, mielőtt az károsítaná a társadalmat és az egyéneket.

„Ahhoz, hogy a mesterséges intelligencia áldás legyen, újra kell orientálódnunk; az AI-képességek előmozdítása önmagában nem elég” – sürgette a csoport közleményében dokumentum.

A három úgynevezett „AI keresztapja” közül kettő vezet Geoffrey Hinton és a Yoshua Bengio, a csoport azt mondta, hogy a mesterséges intelligencia fejlődése „gyors és sokak számára meglepő”.

Nincs okunk feltételezni, hogy a mesterséges intelligencia fejlődésének üteme lelassul – érvelt a csoport, ami azt jelenti, hogy elérkezett egy olyan pont, ahol a szabályozás szükséges és lehetséges – a lehetőség szerintük elmúlik.

„Az éghajlatváltozást évtizedekbe telt felismerni és szembeszállni vele; az AI számára az évtizedek túl hosszúak lehetnek” – áll a levélben. "Megfelelő óvatosság nélkül visszafordíthatatlanul elveszíthetjük az autonóm AI-rendszerek feletti uralmat, ami hatástalanná teszi az emberi beavatkozást."

A levél fókuszpontja az autonóm mesterséges intelligencia jövőbeli fejlesztése. Az ilyen rendszereket – állítják Boffinok – rossz szándékkal lehet megtervezni, vagy káros képességekkel lehet felszerelni, ami potenciálisan veszélyesebbé teheti őket, mint a sok nemzetállami szereplő, amely jelenleg fenyegeti az érzékeny rendszereket.

Ezenkívül a rossz mesterséges intelligencia „felerősítheti a társadalmi igazságtalanságot, erodálhatja a társadalmi stabilitást, és gyengítheti a valóságról alkotott közös felfogásunkat, amely a társadalom alapja” – írták a szerzők.

A legrosszabb lehetőségek megelőzése érdekében a levél arra ösztönzi a mesterséges intelligencia kutatásával és megvalósításával foglalkozó vállalatokat, hogy használjanak „biztonságos és etikus célkitűzéseket”. A szerzők azt javasolják, hogy a technológiai cégeknek és az AI-kutatás magánfinanszírozóinak kutatás-fejlesztési költségvetésük legalább egyharmadát a biztonságra kell fordítaniuk.

A szerzők a kormányokat is cselekvésre ösztönzik, és rámutatnak, hogy nincs semmilyen szabályozási vagy irányítási keret az AI-kockázatok kezelésére, a kormányok mégis szabályozzák a gyógyszereket, a pénzügyi rendszereket és az atomenergiát.

A levélírók érvelése szerint a kormányoknak biztosítaniuk kell, hogy betekintést kapjanak a mesterséges intelligencia fejlesztésébe olyan szabályozások révén, mint a modellek regisztrálása, a visszaélések védelme, az incidensek jelentésére vonatkozó szabványok, valamint a modellfejlesztés és a szuperszámítógép-használat nyomon követése.

A kormányoknak hozzáférést kell biztosítani a mesterséges intelligencia-rendszerekhez a bevezetésük előtt, hogy „felmérjék azokat a veszélyes képességeket”, mint például az önreplikáció, amely a szerzők szerint megállíthatatlan fenyegetéssé teheti az autonóm MI-t. Ezenkívül az élvonalbeli „határmenti AI” modellek fejlesztőit jogilag felelősségre kell vonni a modelljeikben rejlő károkért, ha ezek a problémák „ésszerűen előreláthatók vagy megelőzhetők”.

A szabályozó hatóságoknak arra is felhatalmazást kell adniuk, hogy „engedélyezzék az [AI] fejlesztést, szüneteltessenek a fejlesztést az aggasztó képességekre válaszul, hozzáférés-ellenőrzést írjanak elő, és az állami szintű hackerekkel szemben erős információbiztonsági intézkedéseket írjanak elő, amíg a megfelelő védelem készen nem áll” – állítja a csoport.

„Van egy felelősségteljes út, ha megvan a bölcsességünk ahhoz, hogy ezt járjuk” – írták Hinton, Bengio és kollégáik.

Meta MI-főnöke nem ért egyet

A jobb mesterségesintelligencia-kockázat-kezelésre irányuló felhívás mindössze egy héttel a mesterséges intelligencia biztonságáról szóló világelső csúcstalálkozó előtt hangzik el tartotta novemberben az Egyesült Királyság Bletchley Parkjában. Globális kormányok, technológiai vezetők és akadémikusok is jelen lesznek, hogy megvitassák azokat a fenyegetéseket, amelyekre a nyílt lap figyelmeztet.

A Bletchley-csúcs egyik résztvevője Yann LeCun, a harmadik AI keresztapa közül, akik 2019-ben elnyerték a Turing-díjat. kutatás neurális hálózatokba, és amelynek neve feltűnően hiányzik a ma megjelent kockázatkezelési dokumentumból.

Ellentétben Bengióval és Hintonnal, akik közül az utóbbi elhagyta a Google-t májusban, és sajnálatát fejezte ki a mesterséges intelligencia területén végzett hozzájárulása és az általuk okozott károk miatt, LeCun folytatja munkáját a magántechnológiai iparággal, mint a Facebook anyavállalatának, a Meta vezető mesterséges intelligencia-tudósnak. all-in az AI fejlesztésben kései.

LeCun még a vita a Facebookon a hónap elején Bengióval.

A Meta exec azt állította, hogy az AI-tudósok „néma többsége” nem hisz a mesterséges intelligencia világvége forgatókönyveiben, és úgy gondolja, hogy a technológiának nyitott, hozzáférhető platformokra van szüksége ahhoz, hogy „erős, megbízható és biztonságos legyen”.

Ezzel szemben Bengio mondott úgy gondolja, hogy valami annyi potenciállal rendelkezik, mint az AI, szabályozásra van szüksége, nehogy rossz kezekbe kerüljön.

„Az az érvelésed, miszerint megengeded, hogy mindenki manipulálhassa az erős mesterséges intelligencia eszközeit, olyan, mint az a libertárius érv, amely szerint mindenkinek meg kell engedni, hogy birtokoljon egy gépfegyvert… Emlékezet szerint nem értett egyet az ilyen politikákkal” – mondta Bengio LeCun Facebook-bejegyzésére adott válaszában. „Megengedik a kormányok bárkinek, hogy atombombákat építsen, veszélyes kórokozókat manipuláljon vagy utasszállító repülőgépeket vezessen? Nem. Ezeket erősen szabályozzák a kormányok.”

LeCun nem válaszolt a kérdéseire A regisztráció, de beszélt vele A Financial Times múlt héten, és olyan pontokat fogalmazzon meg, amelyek ma már előrelátó válaszként értelmezhetők az akadémiai szerzők által készített mesterségesintelligencia-kockázatkezelési dokumentum állításaira.

„A mesterséges intelligencia kutatás-fejlesztésének szabályozása hihetetlenül kontraproduktív” – mondta LeCun mondta az FT, hozzátéve, hogy azok, akik ezt kérik, „szabályozási rögzítést akarnak a mesterséges intelligencia biztonságának leple alatt”.

LeCun elvetette azt a lehetőséget, hogy a mesterséges intelligencia fenyegetheti az emberiséget, és azt állítja, hogy az AI-modellek még csak nem is értik a világot, nem tudnak tervezni, és nem tudnak igazán érvelni.

„Nincsenek teljesen autonóm, önvezető autóink, amelyek körülbelül 20 óra gyakorlás alatt képesek lennének vezetni, amire egy 17 éves is képes” – érvelt LeCun. A gyorsan fejlődő technológia, például a mesterséges intelligencia irányításának kísérletét az internet korai időszakához kell hasonlítani, amely csak azért virágzott, mert nyitva maradt, érvelt a meta férfi.

Érdemes megjegyezni, hogy a ma megjelent tanulmány és nyílt levél szerzői nem állítják, hogy a mesterséges intelligencia jelenlegi generációja képes lenne az általuk előre jelzett fenyegetésekre. Inkább szabályozásokat akarnak bevezetni, mielőtt az ilyen kérdések felmerülnének.

„2019-ben a GPT-2 nem tudott megbízhatóan tízig számolni. Mindössze négy évvel később a mélytanulási rendszerek képesek szoftvert írni, igény szerint fotorealisztikus jeleneteket generálni, intellektuális témákban tanácsot adni, valamint a nyelv és a képfeldolgozás kombinálásával irányítani a robotokat” – jegyezte meg a 24 akadémikus csoport.

"Előre kell számítanunk a folyamatos károk felerősödésére, valamint az újszerű kockázatokra, és jóval azelőtt fel kell készülnünk a legnagyobb kockázatokra, hogy azok megvalósulnának." ®

Időbélyeg:

Még több A regisztráció