De kostbare gevolgen van onethische AI ​​Whisperer (Padma Chukka)

De kostbare gevolgen van onethische AI ​​Whisperer (Padma Chukka)

                         De kostbare gevolgen van onethische AI-fluisteraar (Padma Chukka) PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Ja. Ik heb het over de AI-toepassingen – onze talloze AI-toepassingen en aankomende toepassingen die tegen mensen fluisteren over wat ze moeten doen…. hoe het moet... maar niet over de fluisteraars die communiceren met de AI-chatbots.

Think IDC voorspellingen, zou de wereldwijde AI-markt in 500 meer dan $ 2024 miljard kunnen bereiken - een stijging van meer dan 50% ten opzichte van 2021. Dit geeft aan dat we zijn overgestapt van zakelijke experimenten naar de acceptatie dat het een integraal onderdeel is van de bedrijfsstrategie voor alle soorten en maten. Het is een noodzakelijke tool om gegevens om te zetten in inzichten om actie te stimuleren op basis van betere beslissingen. Niemand discussieert over de voordelen van AI om bedrijfsrisico's te verkleinen en de ROI te vergroten met innovatie. Maar zoals altijd is er een ... MAAR ... de onpartijdige AI is gemakkelijker gezegd dan gedaan.

Deze AI-modellen zijn cruciaal voor het bedrijf en moeten betrouwbaar werken met zichtbaarheid en verantwoording. Anders heeft een mislukking in dit geval ernstige gevolgen die van invloed zijn op de cashflow van elk bedrijf en zelfs kan leiden tot juridische zaken. De enige manier om dit te voorkomen is automatisering en transparantie om één vraag te beantwoorden: "Kunt u bewijzen dat deze AI-toepassing/-workload ethisch is gebouwd." Oftewel... hoe regeer je? En kunt u bewijzen dat het continu wordt bestuurd?

Dit is waar bedrijven van houden IBM hebben geïnvesteerd in AI-governance om het algehele proces van aansturing, beheer en monitoring van de AI-activiteiten van de organisatie te orkestreren. De primaire taak is ervoor te zorgen dat alle bedrijfseenheden proactief blijven en het bestuurskader in de initiatieven te integreren om het vermogen om te voldoen aan ethische principes en voorschriften te versterken. Vooral gereguleerde sectoren zoals het bankwezen en de financiële dienstverlening zijn wettelijk verplicht om het bewijs te leveren om de toezichthouders tevreden te stellen.

De invloed van AI groeit exponentieel in de financiële dienstverlening door de enorme druk van digitale transformatie. Zoals gezegd, het is makkelijker gezegd dan gedaan omdat:

1. De AI-apps met vertrouwen operationaliseren:

In sommige gevallen worden modellen gebouwd zonder duidelijkheid en catalogisering; het behoeft geen betoog dat monitoring te midden van alles wegglipt om de end-to-end levenscyclus te volgen. Terwijl banken worstelen met legacy-applicaties, werd het automatiseren van de processen om transparantie en uitlegbaarheid te creëren moeilijker en op zijn beurt een black box. Niemand weet waarom/hoe beslissingen werden genomen. De nieuwe apps die verward zijn met legacy-apps zien nooit het daglicht, hoewel er een enorme ROI aan verbonden is vanwege de kwaliteit en onopgemerkte risico's.

Dat brengt ons bij ons tweede punt: het beheersen van het reputatierisico

2. Beheer het reputatierisico samen met het algehele risico

ik heb gevraagd #chatGPT en #Bard – wie is Padma Chukka. #ChatGPT weigerde te antwoorden, zelfs als ik de vraag op meerdere manieren veranderde. Toch gaf Bard me een gedetailleerd antwoord, inclusief mijn LinkedIn-profiel... maar de gegevens zijn afkomstig van verschillende sites waar mijn oude profiel nog steeds bestaat als onderdeel van de bios van de spreker. Vanaf dat moment moet ik de bard nog openen. Zo snel werd ik uitgeschakeld, oftewel: reputatierisico. Stel dat ik een eenvoudige chatbot kan uitschakelen als ik me realiseer dat de gegevens mogelijk niet consistent zijn. Hoe kon ik het niet zeker weten voordat ik besloot een AI-geïntegreerde applicatie te kopen om kritieke zaken te doen? Reputatierisico is een essentiële factor die bedrijven soms vergeten. Als je het reputatierisico kwantificeert, zie je de enorme impact op het bedrijf als je niet proactief bent.

Om het nog ingewikkelder te maken, is de derde...

3. Hoe kan een bedrijf inspelen op veranderende AI-regelgeving?

Om reputatierisico's te voorkomen, moet een succesvol en verantwoordelijk AI-team op de hoogte zijn van elke lokale en wereldwijde regelgeving, die als een tikkende video in een oogwenk verschijnt. En niet-naleving kan een organisatie uiteindelijk miljoenen dollars kosten aan boetes rond het werk, zoals de voorgestelde EU AI-wet. Het kan oplopen tot 30 miljoen euro of 6% van de wereldwijde omzet van het bedrijf – OUCH.

Nou, niet alles hoeft vanaf het begin rooskleurig te zijn... zolang we maar weten hoe we een make-over kunnen geven van een enge naar een rooskleurige situatie.

Geen verrassing... het zijn altijd mensen, processen en technologie. Creëer dus eerst een multifunctioneel bestuursorgaan om de initiatieven op basis van de doelstellingen op te leiden, te sturen en te controleren. Benchmark vervolgens de huidige AI-technologie en -processen, begrijp de hiaten en herstel vervolgens naar toekomstbestendig. Val vervolgens terug op een reeks geautomatiseerde governance-workflows in overeenstemming met de nalevingsvereisten. Zet ten slotte een monitoringsysteem op om eigenaren te waarschuwen als de acceptabele drempel dichterbij komt. Vanuit de technologiekant vereist een goed ontworpen, goed uitgevoerde en goed verbonden AI meerdere bouwstenen. En zorg ervoor dat het enkele of alle mogelijkheden heeft:

· Gegevensintegriteit bij diverse implementaties

· Gebruik open, flexibele bestaande tools die voldoen aan AI Governance

· Zorg ervoor dat u zelfbedieningstoegang biedt met privacycontroles - een manier om te volgen

· Ontwerp met het oog op automatisering en AI-governance

· Kan verbinding maken en aanpasbaar zijn voor meerdere belanghebbenden via aanpasbare workflow

Zodra we de app een make-over hebben gegeven van eng naar Rosy...dan is de volgende vraag hoe je bewijst...

Ten eerste, val terug op de AI-principes van het bedrijf – bouw ermee, en toch moet je “laten zien” dat je compliant bent, vooral in gereguleerde omgevingen zoals Financial Services. Aangezien financiële diensten moeten klagen bij NIST 800-53, zouden ze kunnen kijken naar de NIST AI Risk Management Framework (AI RMF). NIST stelde de besturingselementen voor in vier families: besturen, in kaart brengen, meten en beheren. Gebruik dat als leidende factor en test de applicaties om de hiaten te identificeren die moeten worden verholpen en gecontroleerd.

De kostbare gevolgen van onethische AI-fluisteraar (Padma Chukka) PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

IBM kan uw modellen valideren voordat u ze in productie neemt en kan worden gecontroleerd op eerlijkheid, kwaliteit en afwijkingen. Het kan ook documentatie verschaffen waarin het gedrag en de voorspellingen van het model worden uitgelegd om te voldoen aan de vereisten van toezichthouders en auditors. Deze uitleg kan zichtbaarheid bieden en de controlepijn verlichten, en de transparantie en het vermogen om mogelijke risico's te bepalen vergroten.

 Luister met vertrouwen naar die AI-fluisteringen!

#Financiële diensten #verantwoordelijkai #ethisch #NISTAIRMF

Tijdstempel:

Meer van Fintextra