Consecințele costisitoare ale șoptitorului neetic al AI (Padma Chukka)

Consecințele costisitoare ale șoptitorului neetic al AI (Padma Chukka)

                         Consecințele costisitoare ale inteligenței de date ale PlatoBlockchain Whisperer AI neetic (Padma Chukka). Căutare verticală. Ai.

Da.. Vorbesc despre aplicațiile AI – nenumăratele noastre aplicații AI și despre cele viitoare care șoptesc oamenilor despre ce să facă... cum să o faci... dar nu despre șoptitorii care interacționează cu chatboții AI.

În conformitate cu IDC predicțiile, piața globală de AI ar putea ajunge la peste 500 de miliarde de dolari până în 2024 – o creștere de peste 50% față de 2021. Acest lucru indică faptul că am trecut de la experimentele de afaceri la acceptarea faptului că este o parte integrantă a strategiei întreprinderii pentru toate dimensiunile. Este un instrument necesar pentru a transforma datele în perspective pentru a declanșa acțiuni bazate pe decizii mai bune. Nimeni nu dezbate beneficiile AI pentru a reduce riscul de afaceri și pentru a amplifica rentabilitatea investiției prin inovație. Dar, ca întotdeauna, există un...DAR... IA imparțială este mai ușor de spus decât de făcut.

Esențiale pentru afacere, aceste modele AI trebuie să funcționeze în mod fiabil, cu vizibilitate și responsabilitate. În caz contrar, eșecul, în acest caz, are consecințe grave care afectează fluxul de numerar al oricărei companii și ar putea duce chiar la chestiuni legale. Singura modalitate de a evita acest lucru este automatizarea și transparența pentru a răspunde la o întrebare „Poți dovedi că această aplicație/sarcina de lucru AI este construită în mod etic”. Aka... cum guvernezi? Și poți dovedi că este guvernat continuu?

Aici le place companiilor IBM au investit în guvernarea AI pentru a orchestra procesul general de direcționare, gestionare și monitorizare a activităților AI ale organizației. Sarcina principală este să se asigure că toate unitățile de afaceri rămân proactive și infuzează cadrul de guvernanță în inițiativele de consolidare a capacității de a respecta principiile și reglementările etice. În special, industriile reglementate, cum ar fi serviciile bancare și cele financiare, sunt obligate prin lege să furnizeze dovezi pentru a satisface autoritățile de reglementare.

Influența inteligenței artificiale crește exponențial în sectorul serviciilor financiare din cauza presiunii extraordinare a transformării digitale. După cum s-a spus, este mai ușor de spus decât de făcut, deoarece:

1. Operaționalizați cu încredere aplicațiile AI:

În unele cazuri, modelele sunt construite fără claritate și catalogare; Inutil să spunem, monitorizarea scapă în mijlocul tuturor pentru a urmări ciclul de viață de la capăt la capăt. În timp ce băncile se luptă cu aplicațiile vechi, automatizarea proceselor pentru a crea transparență și explicabilitate a devenit mai dificilă și, la rândul său, o cutie neagră. Nimeni nu știe de ce/cum s-au luat deciziile. Noile aplicații încurcate cu aplicațiile vechi nu văd niciodată lumina zilei, deși un ROI uriaș este asociat cu aceasta din cauza calității și a riscurilor nepercepute.

Asta ne duce la al doilea punct – gestionarea riscului de reputație

2. Gestionați riscul reputațional împreună cu riscul general

am întrebat #chatGPT și #Bard – care este Padma Chukka. #ChatGPT a refuzat să răspund chiar dacă am schimbat întrebarea în mai multe moduri. Totuși, Bard mi-a dat un răspuns detaliat, inclusiv profilul meu LinkedIn... dar datele provin de la diverse site-uri unde profilul meu vechi încă există ca parte a bios-ului difuzorului. Din acel moment, încă nu am deschis Bardul. Așa repede, am fost oprit, alias – Riscul de reputație. Să presupunem că pot dezactiva un chatbot simplu când îmi dau seama că datele ar putea fi inconsecvente. Cum aș putea să nu mă asigur înainte de a decide să cumpăr o aplicație bazată pe inteligență artificială pentru a desfășura afaceri critice? Riscul de reputație este un factor esențial pe care uneori companiile îl uită. Dacă cuantificați riscul reputațional, se poate vedea impactul extraordinar asupra afacerii dacă nu este proactiv.

Pentru a spori complexitatea, al treilea este...

3. Cum poate răspunde o companie la schimbarea reglementărilor AI?

Pentru a evita riscul de reputație, o echipă AI de succes și responsabilă ar trebui să fie conștientă de fiecare reglementare locală și globală, scăzând ca un videoclip tic-tac cu un preaviz. Iar nerespectarea poate costa o organizație în cele din urmă milioane de dolari în amenzi în legătură cu lucrările, cum ar fi Actul AI al UE propus. Ar putea fi până la 30 de milioane de euro sau 6% din veniturile globale ale companiei – OUCH.

Ei bine, nu totul trebuie să fie roz de la început... atâta timp cât știm cum să transformăm o situație înfricoșătoare într-o situație roz.

Fără surpriză... sunt întotdeauna oameni, proces și tehnologie. Deci, mai întâi, creați un organism de conducere interfuncțional pentru a educa, a direcționa și a monitoriza inițiativele bazate pe obiective. Apoi, comparați tehnologia și procesele actuale de AI, înțelegeți lacunele, apoi remediați pentru a obține dovezi viitoare. Apoi reveniți la un set de fluxuri de lucru automatizate de guvernare în conformitate cu cerințele de conformitate. În cele din urmă, configurați un sistem de monitorizare pentru a alerta proprietarii dacă pragul acceptabil se apropie. Din punctul de vedere al tehnologiei, o IA bine proiectată, bine executată și bine conectată necesită mai multe blocuri de construcție. Și asigurați-vă că are unele sau toate capabilitățile:

· Integritatea datelor în diverse implementări

· Folosiți instrumente existente, deschise și flexibile, care aderă la guvernarea AI

· Asigurați-vă că oferiți acces autoservire cu comenzi de confidențialitate – o modalitate de urmărire

· Proiectați având în vedere automatizarea și guvernarea AI

· Poate fi conectat și personalizabil pentru mai multe părți interesate prin flux de lucru personalizabil

Odată ce facem o schimbare a aplicației de la înfricoșător la Rosy... atunci următoarea întrebare este cum dovediți...

În primul rând, reveniți la principiile AI ale companiei – construiți cu ele și, totuși, trebuie să „arătați” că sunteți conform, mai ales în medii reglementate precum serviciile financiare. Deoarece serviciile financiare trebuie să se plângă de la NIST 800-53, ar putea să se uite la Cadrul de management al riscului NIST AI (AI RMF). NIST a sugerat controalele în patru familii - Guvernare, Hartă, Măsurare și Gestionare. Folosind asta ca factor de ghidare și test de stres aplicațiile pentru a identifica lacunele de remediat și monitorizat.

Consecințele costisitoare ale inteligenței de date ale PlatoBlockchain Whisperer AI neetic (Padma Chukka). Căutare verticală. Ai.

IBM vă poate valida modelele înainte de a le pune în producție și poate fi monitorizat pentru corectitudine, calitate și variație. De asemenea, poate furniza documentație care explică comportamentul și predicțiile modelului pentru a satisface cerințele autorităților de reglementare și ale auditorilor. Aceste explicații pot oferi vizibilitate și pot ușura durerea de audit și pot crește transparența și capacitatea de a determina posibilele riscuri.

 Ascultă acele șoapte AI cu încredere!

#Servicii financiare #responsabilai #ethicalai #NISTAIRMF

Timestamp-ul:

Mai mult de la Fintextra