TOKYO, 21 février 2022 – (JCN Newswire) – Fujitsu a annoncé aujourd'hui le développement d'une boîte à outils de ressources offrant aux développeurs des conseils pour évaluer l'impact éthique et les risques des systèmes d'IA sur la base des directives internationales d'éthique de l'IA. Fujitsu proposera ces ressources gratuitement à partir du 21 février 2022 pour promouvoir le déploiement sûr et sécurisé des systèmes d'IA dans la société.
La boîte à outils se compose d'une variété d'études de cas et de documents de référence, y compris une méthode nouvellement développée pour clarifier les exigences éthiques dans les lignes directrices éthiques de l'IA rédigées en langage naturel, ainsi que pour appliquer les exigences éthiques aux systèmes d'IA réels. Les ressources en japonais peuvent être téléchargées ici, et la disponibilité en anglais suivra prochainement.
Avec ces conseils, Fujitsu vise à prévenir les malentendus et les risques potentiels causés par les différences dans l'interprétation des descriptions dans les lignes directrices, en offrant aux développeurs et aux opérateurs de systèmes d'IA de nouveaux outils pour identifier et prévenir en profondeur d'éventuels problèmes éthiques dès le début du processus de développement, conformément aux meilleures pratiques internationales. .
Le Dr Christoph Lutge de l'Université technique de Munich, une autorité de premier plan dans la recherche sur l'IA responsable et l'éthique des affaires, commente : « En Europe, il y a un débat croissant sur la réglementation de l'IA, et l'une des questions clés est de savoir comment fermer le entre les principes et les pratiques, ou « quoi » et « comment ». Je crois que les résultats de cette recherche sont très significatifs dans le sens où ils nous permettent de pratiquer sur la base de principes. Je voudrais également exprimer ma profonde appréciation pour la décision de ouvrir les résultats de la recherche et stimuler la discussion dans le monde entier.
À l'avenir, Fujitsu travaillera activement en partenariat avec des agences gouvernementales, des entreprises privées et des chercheurs de premier plan pour affiner et promouvoir sa nouvelle méthodologie et vise à publier une version étendue de la boîte à outils de ressources au cours de l'exercice 2022.
Contexte
En avril 2021, la Commission européenne a publié un projet de cadre réglementaire appelant à une réponse éthique globale pour les développeurs, les utilisateurs et les parties prenantes de systèmes d'IA en réponse aux préoccupations croissantes concernant les biais algorithmiques et la prise de décision discriminatoire dans les applications d'IA et d'apprentissage automatique.
Pour s'engager pleinement en faveur d'une utilisation responsable de la technologie et gagner la confiance de la société dans les systèmes d'IA et les entreprises et organisations impliquées dans cet espace, Fujitsu a formulé son propre engagement en matière d'IA en 2019, ainsi qu'un nouveau bureau d'éthique et de gouvernance de l'IA pour développer et appliquer des politiques solides en matière d’éthique de l’IA, promeuvent la gouvernance éthique organisationnelle de l’IA pour garantir leur efficacité. Fujitsu va désormais passer du principe à la pratique en mettant progressivement en œuvre les meilleures pratiques dans le monde réel pour garantir la réalisation de technologies d'IA et d'apprentissage automatique éthiques, sûres et transparentes.
À l’heure actuelle, il est courant dans le développement de systèmes d’IA d’identifier les risques éthiques possibles dans les systèmes d’IA sur la base des directives éthiques en matière d’IA émises par les autorités gouvernementales et les entreprises. Ces lignes directrices sont toutefois rédigées en langage naturel, ce qui contribue à d'éventuelles différences d'interprétation et à des malentendus entre les concepteurs et les développeurs, pouvant conduire à des mesures inappropriées ou insuffisantes. Avec cette méthode, il est également difficile de juger si le contenu des lignes directrices a été révisé de manière approfondie et appropriée.
De nombreux défis subsistent cependant, et une éventuelle mauvaise interprétation des lignes directrices lors de la phase de conception de nouvelles technologies peut potentiellement conduire à des mesures insuffisantes ou inappropriées pour contrer les risques.
Nouvelle méthode d’évaluation et ressources pour aider à clarifier les lignes directrices et le risque éthique
En préparant cette nouvelle boîte à outils et ces conseils pour les développeurs, Fujitsu a effectué des analyses des incidents passés liés à l'IA collectés dans la base de données des incidents d'IA du consortium international Partnership on AI (1). Ce processus a conduit à la conclusion que les questions éthiques liées aux systèmes d'IA peuvent être contextualisées avec l'échange d'informations (« interactions ») entre des éléments discrets au sein d'un système d'IA et entre un système d'IA et ses utilisateurs et autres parties prenantes.
Sur la base de ces résultats, Fujitsu a développé avec succès une méthode d'évaluation pour identifier systématiquement les problèmes éthiques pertinents liés aux systèmes d'IA, permettant ainsi la création de modèles d'éthique de l'IA (2) capables de clarifier l'interprétation des directives éthiques de l'IA.
Fujitsu a appliqué sa nouvelle méthode d'évaluation à 15 cas représentatifs de l'incident d'IA
Base de données (164 cas mondiaux enregistrés au 21 février 2022, des exemples incluent des cas dans des domaines tels que le secteur des ressources financières et humaines). En appliquant la nouvelle méthode, tous les problèmes éthiques survenus dans des cas d'utilisation réels ont été identifiés avec succès comme des risques à l'avance lors d'essais de vérification, dont les résultats ont été publiés.
Fujitsu proposera la boîte à outils de ressources suivante, composée d'une variété de ressources et de conseils que les développeurs pourront consulter dans leur propre travail :
Site de téléchargement (en japonais, anglais disponible à une date ultérieure)
1. Livre blanc : Un aperçu général de la méthodologie
2. Manuel de procédure d'évaluation de l'impact éthique de l'IA : diagramme du système d'IA, procédure de préparation du modèle éthique de l'IA et explication de la méthode de correspondance des problèmes
3. Modèle éthique de l'IA : Un modèle éthique de l'IA basé sur les lignes directrices éthiques de l'IA publiées par la Commission européenne (créées par Fujitsu)
4. Études de cas sur l'analyse de l'éthique de l'IA : résultats de l'analyse des principales questions d'éthique de l'IA à partir de la base de données sur les incidents d'IA du partenariat sur l'IA (au 21 février, il y avait six cas, qui ont été ajoutés séquentiellement.)
Cas d'utilisation : risque lié à l'utilisation de l'IA pour l'évaluation des individus en vue de prêts bancaires, de recrutement
La figure 1 montre un exemple de processus d'évaluation d'un individu typique dans des scénarios d'utilisation tels que le recrutement de personnel ou l'approbation de prêts bancaires. Le tableau de correspondance du modèle d'éthique de l'IA a identifié la « validité du processus d'évaluation » (si l'évaluation est menée de manière responsable en référence aux résultats de sortie du système d'IA) comme élément de contrôle de l'interaction (relation) entre l'utilisateur du système d'IA. Le système d'IA et la personne cible à évaluer, tandis que « la dépendance excessive à l'égard des résultats de l'IA », « l'interprétation et l'évaluation sélectives des résultats » et « l'ignorance des résultats » sont répertoriés comme risques possibles.
Dans cet exemple, les développeurs de systèmes d'IA peuvent identifier le risque d'une « dépendance excessive des utilisateurs à l'égard des résultats d'un système d'IA qui peuvent contenir des biais et conduire à des décisions injustes » comme un risque possible dans un système d'IA et ajuster le système de manière appropriée pour prévenir ce risque. .
(1) Partenariat sur l’IA :
Une organisation à but non lucratif créée en 2016 qui relève les défis éthiques de l'IA, pour un avenir où l'IA et les humains travaillent ensemble.
(2) Modèles d’éthique de l’IA :
Les modèles d'éthique de l'IA comprennent un tableau de correspondance des « éléments de contrôle » et des « interactions », un outil permettant d'évaluer étape par étape les exigences éthiques des systèmes d'IA. Les modèles d’éthique de l’IA sont créés manuellement sur la base d’une ligne directrice spécifique, mais une fois généré, un modèle peut être utilisé de manière générique pour évaluer divers systèmes d’IA. Grâce à cette méthode, les développeurs et les opérateurs de systèmes d'IA peuvent récupérer automatiquement tous les éléments de contrôle pertinents d'un modèle d'éthique de l'IA précédemment créé pour une évaluation systématique et complète des risques possibles associés en fonction du type d'interactions au sein d'un système d'IA.
À propos de Fujitsu
Fujitsu est le leader japonais des technologies de l'information et de la communication (TIC) offrant une gamme complète de produits, solutions et services technologiques. Environ 126,000 100 personnes de Fujitsu assistent des clients dans plus de 6702 pays. Nous utilisons notre expérience et la puissance des TIC pour façonner l'avenir de la société avec nos clients. Fujitsu Limited (TSE: 3.6) a déclaré un chiffre d'affaires consolidé de 34 billions de yens (31 milliards USD) pour l'exercice clos le 2021 mars XNUMX. Pour plus d'informations, veuillez consulter www.fujitsu.com.
Copyright 2022 Fil de presse JCN. Tous droits réservés. www.jcnnewswire.comFujitsu a annoncé aujourd'hui le développement d'une boîte à outils de ressources offrant aux développeurs des conseils pour évaluer l'impact éthique et les risques des systèmes d'IA sur la base des directives internationales d'éthique de l'IA.
- 000
- 100
- 2016
- 2019
- 2021
- 2022
- A Propos
- propos
- AI
- algorithmique
- Tous
- Permettre
- selon une analyse de l’Université de Princeton
- annoncé
- applications
- Application
- Avril
- autorité
- disponibilité
- disponibles
- Banque
- LES MEILLEURS
- les meilleures pratiques
- Milliards
- la performance des entreprises
- cas
- causé
- globaux
- charge
- commentaires
- commission
- engagement
- Commun
- Communication
- Sociétés
- Société
- contenu
- droit d'auteur
- d'exportation
- Clients
- Base de données
- débat
- déploiement
- Conception
- développer
- développé
- mobiles
- Développement
- "Early Bird"
- Anglais
- établies
- éthique
- Europe
- du
- Commission européenne
- exemple
- échange
- d'experience
- la traduction de documents financiers
- suivre
- Abonnement
- Avant
- Framework
- Gratuit
- plein
- avenir
- écart
- Général
- Global
- gouvernance
- Gouvernement
- Croissance
- lignes directrices
- vous aider
- ici
- Comment
- How To
- HTTPS
- Ressources Humaines
- Les êtres humains
- identifier
- Impact
- inclus
- Y compris
- individuel
- d'information
- l'interaction
- International
- impliqué
- vous aider à faire face aux problèmes qui vous perturbent
- IT
- en gardant
- ACTIVITES
- langue
- conduire
- conduisant
- apprentissage
- LED
- limité
- Listé
- Prêts
- logo
- machine learning
- majeur
- Manuel
- Mars
- matières premières.
- modèle
- numériques jumeaux (digital twin models)
- Bougez
- Près
- une organisation à but non lucratif
- code
- offrant
- ouvert
- organisation
- organisations
- Autre
- les partenaires
- Partenariat
- Personnes
- personnel
- phase
- politiques
- possible
- power
- représentent
- prévention
- Privé
- Problème
- processus
- Produits
- promouvoir
- gamme
- monde réel
- recrutement
- inscrit
- règlements
- régulateurs
- relation amoureuse
- Exigences
- un article
- ressource
- Resources
- réponse
- responsables
- Résultats
- Analyse
- des
- secteur
- sécurisé
- Services
- significative
- SIX
- Société
- Solutions
- Space
- études
- Avec succès
- Support
- combustion propre
- Système
- Target
- Technique
- Les technologies
- Technologie
- aujourd'hui
- ensemble
- les outils
- communication
- La confiance
- université
- us
- utilisateurs
- Vérification
- que
- Whitepaper
- dans les
- activités principales
- world
- partout dans le monde
- an
- Yen