EU er klar til at vedtage verdens første AI-lovgivning, der vil forbyde ansigtsgenkendelse på offentlige steder

EU er klar til at vedtage verdens første AI-lovgivning, der vil forbyde ansigtsgenkendelse på offentlige steder

EU set to adopt world's first AI legislation that will ban facial recognition in public places PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Den Europæiske Union (EU) leder kapløbet om at regulere kunstig intelligens (AI). For at sætte en stopper for tre dages forhandlinger nåede Det Europæiske Råd og Europa-Parlamentet tidligere i dag en foreløbig aftale om hvad der står til at blive verdens første omfattende regulering af kunstig intelligens.

Carme Artigas, den spanske udenrigsminister for digitalisering og kunstig intelligens, kaldte aftalen for en "historisk bedrift" i en pressemeddelelse. Artigas sagde, at reglerne ramte en "ekstremt delikat balance" mellem at tilskynde til sikker og troværdig AI-innovation og -adoption i hele EU og beskyttelse af borgernes "grundlæggende rettigheder".

Lovforslaget — den Lov om kunstig intelligens— blev først foreslået af Europa-Kommissionen i april 2021. Parlamentet og EU's medlemslande vil stemme for at godkende lovudkastet næste år, men reglerne træder først i kraft i 2025.

En risikobaseret tilgang til regulering af AI

AI-loven er designet ud fra en risikobaseret tilgang, hvor jo højere risiko et AI-system udgør, desto strengere er reglerne. For at opnå dette vil forordningen klassificere AI'er for at identificere dem, der udgør 'højrisiko'.

De AI'er, der anses for at være ikke-truende og med lav risiko, vil være underlagt "meget lette gennemsigtighedsforpligtelser." For eksempel vil sådanne AI-systemer være forpligtet til at afsløre, at deres indhold er AI-genereret for at give brugerne mulighed for at træffe informerede beslutninger.

For højrisiko AI'er vil lovgivningen tilføje en række forpligtelser og krav, herunder:

Menneskelig tilsyn: Loven kræver en menneskecentreret tilgang, der lægger vægt på klare og effektive menneskelige tilsynsmekanismer af højrisiko AI-systemer. Det betyder at have mennesker i løkken, aktivt overvåge og overvåge AI-systemets drift. Deres rolle omfatter at sikre, at systemet fungerer efter hensigten, at identificere og adressere potentielle skader eller utilsigtede konsekvenser og i sidste ende at holde ansvaret for dets beslutninger og handlinger.

Gennemsigtighed og forklaring: At afmystificere den indre funktion af højrisiko AI-systemer er afgørende for at opbygge tillid og sikre ansvarlighed. Udviklere skal give klar og tilgængelig information om, hvordan deres systemer træffer beslutninger. Dette inkluderer detaljer om de underliggende algoritmer, træningsdata og potentielle skævheder, der kan påvirke systemets output.

Datastyring: AI-loven lægger vægt på ansvarlig datapraksis med det formål at forhindre diskrimination, partiskhed og krænkelser af privatlivets fred. Udviklere skal sikre, at de data, der bruges til at træne og betjene højrisiko AI-systemer, er nøjagtige, fuldstændige og repræsentative. Dataminimeringsprincipper er afgørende, idet de kun indsamler de nødvendige oplysninger for systemets funktion og minimerer risikoen for misbrug eller brud. Desuden skal enkeltpersoner have klare rettigheder til at få adgang til, rette og slette deres data, der bruges i AI-systemer, hvilket giver dem mulighed for at kontrollere deres oplysninger og sikre deres etiske brug.

Risikostyring: Proaktiv risikoidentifikation og -reduktion bliver et nøglekrav for højrisiko-AI'er. Udviklere skal implementere robuste risikostyringsrammer, der systematisk vurderer potentielle skader, sårbarheder og utilsigtede konsekvenser af deres systemer.

Tidsstempel:

Mere fra CryptoSlate