AI er overalt -kører biler, diagnosticering af sygdomme, træffer kreditbeslutninger, rangering af jobkandidater, identificere ansigter, vurdering af prøveløsladte. Disse overskrifter alene burde være nok til at overbevise dig om, at AI er langt fra etisk. Ikke desto mindre hersker udtryk som "etisk AI" sammen med lige så problematiske udtryk som "pålidelig AI".
Hvorfor er disse sætninger så tornede? Når alt kommer til alt, er de bare ord - hvor farlige kan de være? Nå, for at sige det indlysende, ord betyder noget, og hvis vi nogensinde skal opnå en fremtid, hvor AI er vores tillid værdig, skal vi i det mindste blive enige om et fælles ordforråd.
For at forklare forskellene mellem disse udtryk, og hvorfor de betyder noget, talte vi med formændene for AI Ethics Advisory Board ved Institute for Experiential AI (EAI): Cansu Canca og Ricardo Baeza-Yates.
Problemet med "pålidelig AI"
Til Ricardo Baeza-Yates, som også er forskningsdirektør hos EAI, handler det hele om en grundlæggende skelnen mellem menneskelige og beregningsmæssige evner. Kunstig intelligens er ikke menneskelig, så vi bør undgå udtryk som "pålidelig AI", der ikke kun humaniserer AI, men også indebærer et niveau af pålidelighed, der simpelthen ikke eksisterer.
"Vi ved, at kunstig intelligens ikke virker hele tiden, så det er misvisende at bede brugerne om at stole på det," forklarer Baeza-Yates. "Hvis nogen for 100 år siden ville sælge mig en flybillet, der kalder det 'troværdig luftfart', ville jeg have været bekymret, for hvis noget virker, hvorfor skal vi så tilføje 'troværdigt' til det? Det er forskellen mellem teknik og alkymi."
Cansu Canca, etikleder hos EAI, tilføjer, at "troværdig AI" ser ud til at rette opmærksomheden mod slutmålet om at skabe tillid til brugeren. Ved at gøre det omgår det det hårde arbejde med at integrere etik i udviklingen og implementeringen af AI-systemer, hvilket lægger byrden på brugeren.
"Tillid er virkelig resultatet af det, vi ønsker at gøre," siger hun. "Vores fokus bør være på selve systemet og ikke på den følelse, det til sidst - forhåbentlig - fremkalder."
Problemet med "etisk kunstig intelligens"
Etisk AI står over for et lignende problem, idet det indebærer en vis grad af moralsk handlefrihed. Mennesker hensigt visse etiske resultater. De kan foretage værdivurderinger og omorientere deres adfærd for at tage højde for mål, der ikke oversættes til algoritmernes verden.
"AI kan have et etisk resultat eller et uetisk resultat," siger Cansu. »Det kan inkorporere værdidomme, men det er ikke et etisk væsen med hensigt. Det er ikke en moralsk agent."
Etik er i den forstand strengt taget menneskets domæne. Udfordringer dukker op, når folk begynder at designe systemer med autonome beslutningsevner, fordi disse systemer kun er lige så etiske som hensigten hos de mennesker, der skaber dem.
Ansvarlig AI
Ricardo og Cansu foretrækker begge udtrykket "ansvarlig AI", mens de erkender, at det også er ufuldkomment. "Ansvar er også et menneskeligt træk, men loven har udvidet begrebet ansvar til institutioner, så vi bruger det i den forstand," siger Ricardo.
"På en måde er 'ansvarlig AI' en forkortelse for ansvarlig udvikling og brug af AI, eller ansvarlig AI-innovation," tilføjer Cansu. "Sætningen er stadig åben for den fortolkning, at AI selv vil have et vist ansvar, hvilket bestemt ikke er det, vi mener. Vi forsøger at understrege, at ansvarlig AI handler om at skabe strukturer og roller for at udvikle AI ansvarligt, og at ansvaret altid vil ligge i disse strukturer og de mennesker, der designer systemerne.”
Cansu og Ricardo ser begge AI-etik som en del af ansvarlig AI. Inden for dette underdomæne finder vi det flerårige etiske spørgsmål: "Hvad er det rigtige at gøre?" Og i det større domæne omkring det finder vi plads til innovation – et undersøgende, tværfagligt rum for designere, udviklere, investorer og interessenter, der i sidste ende (forhåbentlig) peger mod en etisk kerne.
"Vi filosoffer samarbejder med udviklere og designere for at finde de etiske risici og afbøde dem, når de udvikler AI-systemer og designer AI-produkter," siger Canca.
Sådan er mandatet for AI Ethics Advisory Board hos EAI - et on-demand, multidisciplinært panel af AI-eksperter, der repræsenterer industrien, den akademiske verden og regeringen. Med både filosoffer og praktikere tjener bestyrelsen til at hjælpe organisationer med at forudse etiske farer uden at falde i fælden med at tro, at AI selv nogensinde kunne have moralsk handlekraft.
Find ud af hvordan AI Ethics Advisory Board hjælper organisationer med at løse vanskelige etiske spørgsmål under AI-planlægning, udvikling og implementering.
Se Canca og Baeza-Yates tale mere om ansvarlig AI, AI-etik og troværdig AI i dette brand-side chat.
- SEO Powered Content & PR Distribution. Bliv forstærket i dag.
- PlatoData.Network Vertical Generative Ai. Styrk dig selv. Adgang her.
- PlatoAiStream. Web3 intelligens. Viden forstærket. Adgang her.
- PlatoESG. Kulstof, CleanTech, Energi, Miljø, Solenergi, Affaldshåndtering. Adgang her.
- PlatoHealth. Bioteknologiske og kliniske forsøgs intelligens. Adgang her.
- Kilde: https://www.mtlc.co/what-is-the-difference-between-ai-ethics-responsible-ai-and-trustworthy-ai-we-ask-our-responsible-ai-leads/
- :har
- :er
- :ikke
- :hvor
- 100
- a
- evner
- Om
- Academy
- Konto
- opnå
- tilføje
- adresse
- Tilføjer
- rådgivende
- rådgivende bestyrelse
- Efter
- agentur
- Agent
- siden
- AI
- AI-systemer
- Alchemy
- algoritmer
- ens
- Alle
- alene
- langs med
- også
- altid
- an
- ,
- foregribe
- ER
- omkring
- kunstig
- kunstig intelligens
- AS
- spørg
- spørge
- At
- opmærksomhed
- autonom
- luftfart
- undgå
- BE
- fordi
- været
- adfærd
- være
- væsener
- mellem
- board
- både
- byrde
- men
- by
- ringer
- CAN
- kapaciteter
- vis
- sikkert
- udfordringer
- samarbejde
- kommer
- Fælles
- komponent
- beregningsmæssige
- Konceptet
- overbevise
- Core
- kunne
- Rådet
- skabe
- Oprettelse af
- kredit
- Dangerous
- Beslutningstagning
- Degree
- implementering
- Design
- design systemer
- designere
- udvikle
- udviklere
- udvikling
- Udvikling
- forskel
- forskelle
- svært
- direkte
- Direktør
- skelnen
- do
- gør
- gør
- domæne
- ned
- i løbet af
- emerge
- understrege
- ende
- Engineering
- nok
- lige
- etisk
- etik
- NOGENSINDE
- eksisterer
- erfaringsbaseret
- eksperter
- Forklar
- Forklarer
- udvidet
- ansigter
- Faldende
- langt
- følelse
- Finde
- Fokus
- Til
- fra
- fundamental
- fremtiden
- mål
- Mål
- Regering
- Hård Ost
- hårdt arbejde
- Harvard
- Have
- Overskrifter
- hjælpe
- hjælper
- Forhåbentlig
- HTML
- HTTPS
- menneskelig
- i
- if
- in
- indarbejde
- industrien
- Innovation
- Institut
- institutioner
- Integration
- Intelligens
- hensigt
- fortolkning
- ind
- Investorer
- IT
- selv
- Job
- domme
- lige
- Kend
- større
- Lov
- føre
- Leadership" (virkelig menneskelig ledelse)
- Leads
- mindst
- Niveau
- ligge
- ligesom
- lave
- Mandat
- Masse
- Matter
- McKinsey
- me
- betyde
- misvisende
- afbøde
- moralsk
- mere
- tværfaglig
- Behov
- Obvious
- of
- on
- On-Demand
- kun
- åbent
- or
- organisationer
- vores
- ud
- Resultat
- udfald
- panel
- Mennesker
- sætninger
- anbringelse
- planlægning
- plato
- Platon Data Intelligence
- PlatoData
- punkter
- foretrække
- Problem
- problematisk
- Produkter
- spørgsmål
- Spørgsmål
- virkelig
- repræsenterer
- forskning
- ansvar
- ansvarlige
- ansvarligt
- højre
- risici
- roller
- Værelse
- siger
- se
- synes
- sælger
- forstand
- tjener
- hun
- stenografi
- bør
- lignende
- ganske enkelt
- So
- nogle
- Nogen
- noget
- Space
- interessenter
- Stanford
- starte
- Tilstand
- Stadig
- strukturer
- systemet
- Systemer
- Tal
- tech
- semester
- vilkår
- at
- verdenen
- deres
- Them
- derefter
- Disse
- de
- ting
- Tænker
- dem
- billet
- tid
- til
- også
- mod
- Oversætte
- Stol
- troværdig
- forsøger
- Ultimativt
- brug
- Bruger
- brugere
- værdi
- ønsker
- ønskede
- Vej..
- we
- GODT
- Hvad
- Hvad er
- hvornår
- som
- mens
- WHO
- hvorfor
- vilje
- med
- inden for
- uden
- ord
- Arbejde
- virker
- world
- bekymret
- værdig
- ville
- år
- Du
- youtube
- zephyrnet