EU AI Act – Hva er implikasjonene for bank og fintech?

EU AI Act – Hva er implikasjonene for bank og fintech?

EU AI Act – Hva er implikasjonene for bank og fintech? PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Gårsdagens EU-parlaments endelige avstemning om AI-loven, som skal tre i kraft i mai, varsler verdens mest omfattende AI-lovgivning. Akkurat som GDPR vil det ha globale implikasjoner utenfor EU.

AI-loven gir et omfattende rammeverk for å sikre utvikling av pålitelig AI og ansvarlig bruk av AI-verktøy, spesielt åpenhet, skjevhet, personvernbrudd, sikkerhetsrisikoer og potensialet for å spre feilinformasjon, i tillegg
som menneskelig tilsyn med utviklingen av AI-teknologier. 

I disse retningslinjene brukes syv ikke-bindende etiske prinsipper for AI, ment å bidra til å sikre at AI er pålitelig og etisk forsvarlig. Prinsippene inkluderer

– menneskelig handlefrihet og tilsyn;

– teknisk robusthet og sikkerhet;

– personvern og datastyring;

– åpenhet;

– mangfold, ikke-diskriminering og rettferdighet;

– samfunnsmessig og miljømessig trivsel og ansvarlighet.

Med en lagdelt risikobasert tilnærming vil høyrisiko AI-systemer i sektorer som bank og helsetjenester møte strenge juridiske forpliktelser og betydelige straffer for manglende overholdelse. Loven kategoriserer AI i fire risikonivåer, fra minimal til uakseptabel, hver
med eskalerende forpliktelser.

EU AI Act forbyr utvikling, distribusjon og bruk av visse AI-systemer, inkludert:

– Sosiale poengsystemer

– Sosialteknikk

– Ekstern biometrisk identifikasjon i sanntid i offentlige rom

– AI-basert profilering og atferdsprediksjon

– Skraping og utvidelse av ansiktsbilder for å utvide databaser

– AI-baserte manipulasjonsteknikker undergraver autonomi og frie valg 

Ikke alle AI-systemer utgjør betydelige risikoer, spesielt hvis de ikke påvirker beslutningstaking vesentlig eller vesentlig skader beskyttede juridiske interesser. AI-systemer med minimal innvirkning på beslutningstaking eller risiko for juridiske interesser, for eksempel de som utfører
smale oppgaver eller styrking av menneskelige aktiviteter, anses som lav risiko. Dokumentasjon og registrering for disse systemene er vektlagt for åpenhet. Noen av høyrisiko AI-systemene inkluderer flere sektorer, inkludert bank og forsikring (så vel som medisinsk
enheter, HR, utdanning og mer).

Obligatoriske krav for høyrisiko AI-systemer tar sikte på å sikre pålitelighet og redusere risikoer, med tanke på deres formål og brukskontekst. Det er viktig for finansielle tjenester og fintech-firmaer, spesielt de som arbeider med kundedata, å beholde
nedenfor i tankene disse kravene for høyrisiko AI-systemer:

– Kontinuerlig, iterativ risikostyring for høyrisiko AI, med fokus på helse, sikkerhet og rettigheter, som krever oppdateringer, dokumentasjon og interessentengasjement.

– Gjennomføre en konsekvensanalyse av grunnleggende rettigheter

– streng styring for å unngå diskriminering og sikre overholdelse av databeskyttelseslover

– Opplærings- og testingsdatasett må være representative, nøyaktige og fri for skjevheter for å forhindre uheldige konsekvenser for helse, sikkerhet og grunnleggende rettigheter

– Sikre menneskelig tilsyn og åpenhet

– Sikre skjevhetsdeteksjon og korreksjon

– forståelig dokumentasjon for sporbarhet, samsvarsverifisering, operasjonell overvåking og ettermarkedsovervåking, inkludert systemegenskaper, algoritmer, dataprosesser og risikostyring i klare, oppdaterte tekniske dokumenter, pluss
automatisk hendelseslogging gjennom AIs levetid.

– Høyrisiko AI-systemer bør yte konsekvent gjennom hele livssyklusen og møte et passende nivå av nøyaktighet, robusthet og cybersikkerhet

Bedrifter må prioritere å utvikle ansvarlig kunstig intelligens for å overholde nyere regelverk og forhindre høye straffer for manglende overholdelse. Dette er noen av trinnene bedriften bør starte med for å sikre overholdelse:

  1. Etablere AI-styring tidlig, for å sikre involvering og innkjøp på tvers av interessenter
  2. Utdann og trene teamet ditt i etiske prinsipper for AI. Å håndtere AI-risikoer vil kreve nye ferdigheter, alt fra dataanalyse til sikkerhet/personvern, juridisk og mye mer.
  3. Utfør en AI-revisjon av organisasjonen (og ikke bare ingeniørfag), men også juridisk, HR osv. for å få et fullstendig bilde av hvor AI brukes i organisasjonen
  4. Sjekk løpende samsvar
  5. Sørg for at SaaS-leverandørene dine bruker AI på en ansvarlig måte
  6. Sørg for åpenhet, forståelse og forklarbarhet for modellene som brukes i virksomheten din

Mens et sårt tiltrengt skritt i riktig retning, er djevelen i detaljene, og AI-loven vil ha en betydelig innvirkning på fremtiden til organisasjoner, både tradisjonelle og AI-sentriske. Når vi navigerer gjennom en epoke hvor AIs innvirkning blir stadig større
dyptgående, å tilpasse seg etiske standarder og regulatoriske krav er ikke bare et spørsmål om lovlig overholdelse, men et strategisk imperativ. Ved å fokusere på ansvarlig kunstig intelligens, sikrer virksomheter seg ikke bare mot betydelige bøter, men posisjonerer seg også
som pålitelige og fremtidsrettede enheter i det raskt utviklende digitale landskapet. Reisen mot ansvarlig kunstig intelligens er en utfordrende, men uunnværlig vei som lover å redefinere fremtiden for teknologi, styring og samfunnsmessig velvære.

Tidstempel:

Mer fra Fintextra