Az EU elfogadja a világ első mesterséges intelligencia-törvényét, amely betiltja az arcfelismerést nyilvános helyeken

Az EU elfogadja a világ első mesterséges intelligencia-törvényét, amely betiltja az arcfelismerést nyilvános helyeken

Az EU elfogadja a világ első mesterséges intelligencia-törvényét, amely megtiltja az arcfelismerést nyilvános helyeken, PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.

Az Európai Unió (EU) vezeti a mesterséges intelligencia (AI) szabályozásáért folyó versenyt. A három napon át tartó tárgyalások lezárásaként az Európai Tanács és az Európai Parlament a mai napon ideiglenes megállapodásra jutott ami a világ első átfogó mesterségesintelligencia-szabályozása lesz.

Carme Artigas, a digitalizációért és mesterséges intelligenciáért felelős spanyol államtitkár „történelmi vívmánynak” nevezte a megállapodást. sajtóközlemény. Artigas elmondta, hogy a szabályok „rendkívül kényes egyensúlyt” találtak a biztonságos és megbízható mesterségesintelligencia-innováció és az EU-szerte történő átvétel ösztönzése, valamint a polgárok „alapvető jogainak” védelme között.

A jogszabálytervezet – a Mesterséges intelligencia törvény– először 2021 áprilisában javasolta az Európai Bizottság. A parlament és az uniós tagállamok jövőre szavaznak a jogszabálytervezet elfogadásáról, de a szabályok csak 2025-ben lépnek hatályba.

A mesterséges intelligencia szabályozásának kockázatalapú megközelítése

Az AI-törvény kockázatalapú megközelítést alkalmaz, ahol minél nagyobb kockázatot jelent egy MI-rendszer, annál szigorúbbak a szabályok. Ennek elérése érdekében a rendelet besorolja az MI-ket, hogy azonosítsa azokat, amelyek „magas kockázatot” jelentenek.

A nem fenyegetőnek és alacsony kockázatúnak tekintett mesterséges intelligencia "nagyon enyhe átláthatósági kötelezettségek" alá fog tartozni. Az ilyen mesterséges intelligencia-rendszereknek például közzé kell tenniük, hogy tartalmukat mesterséges intelligencia generálja, hogy a felhasználók megalapozott döntéseket hozhassanak.

A magas kockázatú mesterséges intelligencia esetében a jogszabály számos kötelezettséget és követelményt ír elő, többek között:

Emberi felügyelet: A törvény emberközpontú megközelítést ír elő, hangsúlyozva a magas kockázatú AI-rendszerek egyértelmű és hatékony emberi felügyeleti mechanizmusait. Ez azt jelenti, hogy embereket kell betartani, aktívan figyelni és felügyelni az AI-rendszer működését. Szerepük magában foglalja a rendszer rendeltetésszerű működésének biztosítását, a lehetséges ártalmak vagy nem szándékos következmények azonosítását és kezelését, valamint végső soron a döntéseiért és cselekedeteiért való felelősségvállalást.

Átláthatóság és érthetőség: A nagy kockázatot jelentő AI-rendszerek belső működésének tisztázása kulcsfontosságú a bizalom kiépítéséhez és az elszámoltathatóság biztosításához. A fejlesztőknek világos és hozzáférhető információkat kell biztosítaniuk arról, hogy rendszereik hogyan hoznak döntéseket. Ez magában foglalja a mögöttes algoritmusok részleteit, a betanítási adatokat és a lehetséges torzításokat, amelyek befolyásolhatják a rendszer kimeneteit.

Adatkezelés: Az AI-törvény a felelősségteljes adatkezelési gyakorlatot hangsúlyozza, amelynek célja a diszkrimináció, az elfogultság és a személyes adatok megsértésének megakadályozása. A fejlesztőknek biztosítaniuk kell, hogy a magas kockázatú mesterséges intelligencia rendszerek betanításához és működtetéséhez felhasznált adatok pontosak, teljesek és reprezentatívak legyenek. Az adatminimalizálási elvek kulcsfontosságúak, mivel csak a rendszer működéséhez szükséges információkat gyűjtik össze, és minimalizálják a visszaélések vagy jogsértések kockázatát. Ezenkívül az egyéneknek egyértelmű jogokkal kell rendelkezniük az AI-rendszerekben használt adataikhoz való hozzáféréshez, azok helyesbítéséhez és törléséhez, felhatalmazva őket információik ellenőrzésére és azok etikus felhasználásának biztosítására.

Kockázat kezelés: A proaktív kockázatazonosítás és -csökkentés kulcsfontosságú követelmény lesz a magas kockázatú mesterséges intelligencia esetében. A fejlesztőknek robusztus kockázatkezelési keretrendszereket kell bevezetniük, amelyek szisztematikusan értékelik rendszereik lehetséges ártalmait, sebezhetőségeit és nem kívánt következményeit.

Időbélyeg:

Még több CryptoSlate