A mesterséges intelligencia két éven belül fenyegetheti az emberiséget – figyelmeztet a brit AI munkacsoport tanácsadója

A mesterséges intelligencia két éven belül fenyegetheti az emberiséget – figyelmeztet a brit AI munkacsoport tanácsadója

AI could threaten humanity in 2 years, warns UK AI task force adviser PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Az Egyesült Királyság miniszterelnökének mesterséges intelligencia (AI) munkacsoport tanácsadója szerint az embereknek nagyjából két évük van arra, hogy ellenőrizzék és szabályozzák a mesterséges intelligenciát, mielőtt az túl erőssé válik.

Egy interjú Matt Clifford, aki egyben a kormány Advanced Research and Invention Agency (ARIA) elnöke is, egy brit helyi médiával hangsúlyozta, hogy a jelenlegi rendszerek „egyre növekvő ütemben egyre alkalmasabbakká válnak”.

Továbbra is azt mondta, hogy ha a tisztviselők most nem veszik figyelembe a biztonságot és a szabályokat, a rendszerek két éven belül „nagyon erősek” lesznek.

"Két évünk van arra, hogy olyan keretrendszert hozzunk létre, amely a jelenleginél sokkal lehetővé teszi ezeknek a nagyon nagy modelleknek az ellenőrzését és szabályozását."

Clifford arra figyelmeztetett, hogy „sok különböző típusú kockázat” van az AI-val kapcsolatban, mind rövid, mind hosszú távon, amit „elég ijesztőnek” nevezett.

Az interjú egy nemrégiben megjelent nyílt levél nyomán készült közzétett a Center for AI Safety, amelyet 350 mesterségesintelligencia-szakértő írt alá, köztük az OpenAI vezérigazgatója, Sam Altman, amely szerint a mesterséges intelligenciát olyan egzisztenciális fenyegetésként kell kezelni, mint a nukleáris fegyverek és a világjárványok.

"Arról beszélnek, hogy mi történik, ha ténylegesen létrehozunk egy új fajt, egyfajta intelligenciát, amely nagyobb, mint az emberek."

A mesterséges intelligencia munkacsoport tanácsadója azt mondta, hogy ezek a mesterséges intelligencia által jelentett fenyegetések „nagyon veszélyesek” lehetnek, és „sok embert ölhetnek meg, nem minden embert egyszerűen onnan, ahol a modellek két év múlva várhatók”.

Kapcsolódó: Az MI-vel kapcsolatos kriptográfiai hozamok 41%-ra emelkedtek a ChatGPT elindítása után: Tanulmány

Clifford szerint a szabályozóknak és a fejlesztőknek elsősorban a modellek ellenőrzésének megértésére, majd a szabályozások globális szintű végrehajtására kell összpontosítaniuk.

Egyelőre azt mondta, hogy a legnagyobb félelme az, hogy nem érti, miért viselkednek úgy az AI-modellek, ahogyan.

„Azok az emberek, akik a legtehetősebb rendszereket építik, szabadon beismerik, hogy nem értik pontosan, hogyan mutatják meg az [AI-rendszerek] azt a viselkedést, amit csinálnak.”

Clifford kiemelte, hogy az AI-t építő szervezetek vezetői közül sokan egyetértenek abban, hogy a hatékony AI-modelleket a bevezetés előtt át kell esnie valamilyen audit és értékelési folyamaton. 

Jelenleg a szabályozók világszerte igyekeznek megérteni a technológiát és annak következményeit, miközben olyan szabályozást próbálnak alkotni, amely védi a felhasználókat, és lehetővé teszi az innovációt. 

Június 5-én az Európai Unió tisztviselői odáig mentek, hogy azt javasolták, mindenkit bízzanak meg A mesterséges intelligencia által generált tartalmat ekként kell címkézni a dezinformáció megelőzése érdekében.

Az Egyesült Királyságban az ellenzéki Munkáspárt élvonalbeli tagja visszhangozta az érzéseket A Center for AI Safety levelében említette, hogy a technológiát úgy kell szabályozni, mint az orvostudományt és az atomenergiát.

Magazin: AI Eye: 25 ezer kereskedő fogad a ChatGPT tőzsdei választásaira, a mesterséges intelligencia szívja a kockadobásokat és így tovább

Időbélyeg:

Még több Cointelegraph