L'IA est partout—conduire des voitures, diagnostiquer les maladies, prendre des décisions de crédit, classement des candidats, identifier des visages, évaluer les libérés conditionnels. Ces gros titres devraient suffire à vous convaincre que l’IA est loin d’être éthique. Néanmoins, des termes comme « IA éthique » prédominent aux côtés de termes tout aussi problématiques comme « IA digne de confiance ».
Pourquoi ces phrases sont-elles si épineuses ? Après tout, ce ne sont que des mots : à quel point peuvent-ils être dangereux ? Eh bien, pour énoncer une évidence, les mots comptent, et si nous voulons un jour parvenir à un avenir où l’IA est digne de notre confiance, nous devons au moins nous mettre d’accord sur un vocabulaire commun.
Pour expliquer les différences entre ces termes et pourquoi ils sont importants, nous avons parlé aux coprésidents du Conseil consultatif d’éthique de l’IA à l'Institute for Experiential AI (EAI) : Cansu Canca et Ricardo Baeza-Yates.
Le problème de « l’IA digne de confiance »
Pour Ricardo Baeza Yates, qui est également directeur de recherche à l'EAI, tout se résume à une distinction fondamentale entre les capacités humaines et informatiques. L’intelligence artificielle n’est pas humaine, nous devrions donc éviter des termes comme « IA digne de confiance » qui non seulement humanisent l’IA mais impliquent également un niveau de fiabilité qui n’existe tout simplement pas.
"Nous savons que l'IA ne fonctionne pas tout le temps, donc demander aux utilisateurs de lui faire confiance est trompeur", explique Baeza-Yates. « Si, il y a 100 ans, quelqu’un avait voulu me vendre un billet d’avion en le qualifiant d’« aviation digne de confiance », j’aurais été inquiet, car si quelque chose fonctionne, pourquoi devons-nous y ajouter « digne de confiance » ? C’est la différence entre l’ingénierie et l’alchimie.
Cansu Canca, responsable de l'éthique à l'EAI, ajoute qu'une « IA digne de confiance » semble attirer l'attention sur l'objectif final consistant à créer la confiance chez l'utilisateur. Ce faisant, il contourne le dur travail d’intégration de l’éthique dans le développement et le déploiement de systèmes d’IA, faisant peser la charge sur l’utilisateur.
« La confiance est vraiment le résultat de ce que nous voulons faire », dit-elle. "Nous devrions nous concentrer sur le système lui-même, et non sur le sentiment qu'il suscitera finalement, espérons-le."
Le problème de « l’IA éthique »
L’IA éthique est confrontée à un problème similaire dans la mesure où elle implique un certain degré d’action morale. Humains l'intention certains résultats éthiques. Ils peuvent porter des jugements de valeur et réorienter leur comportement pour tenir compte d’objectifs qui ne se traduisent pas dans le monde des algorithmes.
"L'IA peut avoir un résultat éthique ou contraire à l'éthique", explique Cansu. « Il peut incorporer des jugements de valeur, mais ce n’est pas un être éthique et intentionnel. Ce n’est pas un agent moral.
L’éthique, en ce sens, relève strictement du domaine des êtres humains. Des défis apparaissent lorsque les gens commencent à concevoir des systèmes dotés de capacités de prise de décision autonomes, car ces systèmes sont aussi éthiques que l’intention de ceux qui les créent.
IA responsable
Ricardo et Cansu préfèrent tous deux le terme « IA responsable », tout en reconnaissant qu’il est également imparfait. « La responsabilité est aussi un trait humain, mais le droit a étendu le concept de responsabilité aux institutions, c'est pourquoi nous l'utilisons dans ce sens », explique Ricardo.
« D’une certaine manière, « IA responsable » est un raccourci pour le développement et l’utilisation responsables de l’IA, ou pour l’innovation responsable en matière d’IA », ajoute Cansu. « Cette expression laisse toujours place à l’interprétation selon laquelle l’IA elle-même aura une certaine responsabilité, ce qui n’est certainement pas ce que nous voulons dire. Nous essayons de souligner que l’IA responsable consiste à créer des structures et des rôles pour développer l’IA de manière responsable, et que la responsabilité incombera toujours à ces structures et aux personnes qui conçoivent les systèmes.
Cansu et Ricardo considèrent tous deux l’éthique de l’IA comme une composante d’une IA responsable. Dans ce sous-domaine, nous trouvons l’éternelle question éthique : « Quelle est la bonne chose à faire ? » Et dans le domaine plus vaste qui l’entoure, nous trouvons un espace pour l’innovation – un espace exploratoire et interdisciplinaire pour les concepteurs, les développeurs, les investisseurs et les parties prenantes qui, en fin de compte (espérons-le), pointe vers un noyau éthique.
"Nous, philosophes, collaborons avec les développeurs et les concepteurs pour identifier les risques éthiques et les atténuer lors du développement de systèmes d'IA et de la conception de produits d'IA", explique Canca.
Tel est le mandat du Conseil consultatif d’éthique de l’IA à l'EAI, un panel multidisciplinaire à la demande d'experts en IA représentant l'industrie, le monde universitaire et le gouvernement. Avec des philosophes comme des praticiens, le conseil d’administration aide les organisations à anticiper les périls éthiques sans tomber dans le piège de penser que l’IA elle-même pourrait un jour avoir une action morale.
Découvrez comment le Conseil consultatif d'éthique de l'IA aide les organisations à résoudre des questions éthiques difficiles lors de la planification, du développement et du déploiement de l'IA.
Regardez Canca et Baeza-Yates parler davantage de l'IA responsable, de l'éthique de l'IA et de l'IA digne de confiance dans ce document. discussion au coin du feu.
- Contenu propulsé par le référencement et distribution de relations publiques. Soyez amplifié aujourd'hui.
- PlatoData.Network Ai générative verticale. Autonomisez-vous. Accéder ici.
- PlatoAiStream. Intelligence Web3. Connaissance Amplifiée. Accéder ici.
- PlatonESG. Carbone, Technologie propre, Énergie, Environnement, Solaire, La gestion des déchets. Accéder ici.
- PlatoHealth. Veille biotechnologique et essais cliniques. Accéder ici.
- La source: https://www.mtlc.co/what-is-the-difference-between-ai-ethics-responsible-ai-and-trustworthy-ai-we-ask-our-responsible-ai-leads/
- :possède
- :est
- :ne pas
- :où
- 100
- a
- capacités
- A Propos
- Académie
- Compte
- atteindre
- ajouter
- propos
- Ajoute
- consultatif
- Conseil consultatif
- Après
- agence
- Agent
- depuis
- AI
- Systèmes d'IA
- Alchimie
- algorithmes
- même
- Tous
- seul
- aux côtés de
- aussi
- toujours
- an
- et de
- anticiper
- SONT
- autour
- artificiel
- intelligence artificielle
- AS
- demander
- demandant
- At
- précaution
- autonome
- aviation
- éviter
- BE
- car
- était
- humain
- va
- êtres
- jusqu'à XNUMX fois
- planche
- tous les deux
- fardeau
- mais
- by
- appel
- CAN
- capacités
- certaines
- Assurément
- globaux
- collaborons
- vient
- Commun
- composant
- calcul
- concept
- convaincre
- Core
- pourriez
- engendrent
- La création
- crédit
- dangereux
- La prise de décision
- Degré
- déploiement
- Conception
- systèmes de conception
- designers
- développer
- mobiles
- développement
- Développement
- différence
- différences
- difficile
- Directeur
- distinction
- do
- faire
- domaine
- down
- pendant
- émerger
- mettre en relief
- fin
- ENGINEERING
- assez
- également
- éthique
- éthique
- JAMAIS
- exister
- expérimental
- de santé
- Expliquer
- Explique
- prolongé
- visages
- Chute
- loin
- sentiment
- Trouvez
- Focus
- Pour
- De
- fondamental
- avenir
- objectif
- Objectifs
- Gouvernement
- Dur
- travail acharné
- harvard
- Vous avez
- Titres
- aider
- aide
- Avec optimisme
- HTML
- HTTPS
- humain
- i
- if
- in
- intégrer
- industrie
- Innovation
- Institut
- les établissements privés
- Intégration
- Intelligence
- intention
- l'interprétation
- développement
- Investisseurs
- IT
- lui-même
- Emploi
- jugements
- juste
- Savoir
- plus importantes
- Droit applicable et juridiction compétente
- conduire
- Conduit
- au
- Niveau
- mensonge
- comme
- a prendre une
- Mandat
- MassTLC
- Matière
- McKinsey
- me
- signifier
- trompeur
- Réduire les
- moral
- PLUS
- multidisciplinaire
- Besoin
- évident
- of
- on
- À la demande
- uniquement
- ouvert
- or
- organisations
- nos
- ande
- Résultat
- les résultats
- panneau
- Personnes
- les expressions clés
- placement
- et la planification de votre patrimoine
- Platon
- Intelligence des données Platon
- PlatonDonnées
- des notes bonus
- préfère
- Problème
- problématique
- Produits
- question
- fréquemment posées
- vraiment
- représentation
- un article
- responsabilité
- responsables
- de manière responsable
- bon
- risques
- rôle
- Salle
- dit
- sur le lien
- semble
- vendre
- sens
- sert
- elle
- sténographie
- devrait
- similaires
- simplement
- So
- quelques
- Quelqu'un
- quelque chose
- l'espace
- parties prenantes
- Stanford
- Commencer
- Région
- Encore
- structures
- combustion propre
- Système
- discutons-en
- terme
- conditions
- qui
- La
- le monde
- leur
- Les
- puis
- Ces
- l'ont
- chose
- En pensant
- ceux
- billet
- fiable
- à
- trop
- vers
- traduire
- La confiance
- digne de confiance
- essayer
- En fin de compte
- utilisé
- Utilisateur
- utilisateurs
- Plus-value
- souhaitez
- voulu
- Façon..
- we
- WELL
- Quoi
- Qu’est ce qu'
- quand
- qui
- tout en
- WHO
- why
- sera
- comprenant
- dans les
- sans
- des mots
- activités principales
- vos contrats
- world
- inquiet
- digne
- pourra
- années
- Vous n'avez
- Youtube
- zéphyrnet