EU:s AI-lag – vad är konsekvenserna för bank och fintech?

EU:s AI-lag – Vilka är konsekvenserna för bank och fintech?

EU:s AI-lag – vad är konsekvenserna för bank och fintech? PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Gårdagens slutliga omröstning i Europaparlamentet om AI-lagen, som träder i kraft i maj, förebådar världens mest omfattande AI-lagstiftning. Precis som GDPR kommer det att ha globala konsekvenser utanför EU.

AI-lagen tillhandahåller ett omfattande ramverk för att säkerställa utveckling av pålitlig AI och ansvarsfull användning av AI-verktyg, särskilt transparens, partiskhet, integritetsintrång, säkerhetsrisker och potentialen för spridning av felaktig information, liksom
som mänsklig övervakning av utvecklingen av AI-teknik. 

I dessa riktlinjer används sju icke-bindande etiska principer för AI, avsedda att hjälpa till att säkerställa att AI är pålitlig och etiskt sund. Principerna inkluderar

– mänsklig handlingsfrihet och tillsyn.

– Teknisk robusthet och säkerhet.

– Integritets- och datastyrning.

– Öppenhet.

– Mångfald, icke-diskriminering och rättvisa.

– samhälleligt och miljömässigt välbefinnande och ansvarsskyldighet.

Med ett riskbaserat tillvägagångssätt kommer högrisk-AI-system inom sektorer som bank och hälsovård att möta stränga juridiska skyldigheter och betydande straff för bristande efterlevnad. Lagen kategoriserar AI i fyra risknivåer, från minimal till oacceptabel, var och en
med eskalerande skyldigheter.

EU AI Act förbjuder utveckling, distribution och användning av vissa AI-system, inklusive:

– Sociala poängsystem

– Social ingenjörskonst

– Biometrisk fjärridentifiering i realtid i offentliga utrymmen

– AI-baserad profilering och beteendeförutsägelse

– Skrapning och förstärkning av ansiktsbilder för att utöka databaser

– AI-baserade manipulationstekniker undergräver autonomi och fritt val 

Alla AI-system utgör inte betydande risker, särskilt om de inte väsentligt påverkar beslutsfattande eller väsentligt skadar skyddade rättsliga intressen. AI-system med minimal påverkan på beslutsfattande eller risk för juridiska intressen, såsom de som presterar
smala uppgifter eller förstärkning av mänskliga aktiviteter, anses vara lågrisk. Dokumentation och registrering för dessa system betonas för transparens. Några av AI-systemen med hög risk inkluderar flera sektorer, inklusive bank och försäkring (liksom medicinsk
enheter, HR, utbildning och mer).

Obligatoriska krav för högrisk AI-system syftar till att säkerställa tillförlitlighet och minska risker, med hänsyn till deras syfte och användningssammanhang. Det är viktigt för finansiella tjänster och fintech-företag, särskilt de som hanterar kunddata, att behålla
nedan i åtanke dessa krav för högrisk AI-system:

– Kontinuerlig, iterativ riskhantering för högrisk AI, med fokus på hälsa, säkerhet och rättigheter, som kräver uppdateringar, dokumentation och engagemang av intressenter.

– Genomföra en konsekvensbedömning av de grundläggande rättigheterna

– Rigorös styrning för att undvika diskriminering och säkerställa efterlevnad av dataskyddslagar

– Utbildnings- och testdatauppsättningar måste vara representativa, korrekta och fria från fördomar för att förhindra negativa effekter på hälsa, säkerhet och grundläggande rättigheter

– Säkerställa mänsklig tillsyn och transparens

– Säkerställa fördomsdetektering och korrigering

– begriplig dokumentation för spårbarhet, verifiering av efterlevnad, operativ övervakning och övervakning efter marknaden, inklusive systemegenskaper, algoritmer, dataprocesser och riskhantering i tydliga, uppdaterade tekniska dokument, plus
automatisk händelseloggning under AI:s livstid.

– Högrisk AI-system bör fungera konsekvent under hela sin livscykel och uppfylla en lämplig nivå av noggrannhet, robusthet och cybersäkerhet

Företag måste prioritera att utveckla Responsible AI för att följa de senaste reglerna och förhindra rejäla straff för bristande efterlevnad. Det här är några av stegen som företaget bör börja med för att säkerställa efterlevnad:

  1. Upprätta AI-styrning tidigt, vilket säkerställer engagemang och inköp mellan alla intressenter
  2. Utbilda och träna ditt team i etiska principer för AI. Att hantera AI-risker kommer att kräva nya färdigheter, allt från dataanalys till säkerhet/sekretess, juridiskt och mycket mer.
  3. Utför en AI-revision av organisationen (och inte bara ingenjörskonst), utan även juridisk, HR, etc. för att få en fullständig bild av var AI används i organisationen
  4. Kontrollera löpande efterlevnad
  5. Se till att dina SaaS-leverantörer använder AI på ett ansvarsfullt sätt
  6. Säkerställ transparens, förståelse och förklaring av modellerna som används i ditt företag

Även om det är ett välbehövligt steg i rätt riktning, finns djävulen i detaljerna, och AI-lagen kommer att ha en betydande inverkan på framtiden för organisationer, både traditionella och AI-centrerade. När vi navigerar genom en era där AI:s inverkan blir allt större
djupgående, att anpassa sig till etiska standarder och regulatoriska krav är inte bara en fråga om laglig efterlevnad utan ett strategiskt krav. Genom att fokusera på Ansvarsfull AI skyddar företag sig inte bara mot betydande böter utan positionerar sig också
som pålitliga och framåtsträvande enheter i det snabbt föränderliga digitala landskapet. Resan mot Ansvarsfull AI är en utmanande men oumbärlig väg som lovar att omdefiniera framtiden för teknik, styrning och samhälleligt välbefinnande.

Tidsstämpel:

Mer från Fintextra