TOKYO, 21 febbraio 2022 – (JCN Newswire) – Fujitsu ha annunciato oggi lo sviluppo di un toolkit di risorse che offre agli sviluppatori una guida per valutare l'impatto etico e i rischi dei sistemi di intelligenza artificiale sulla base delle linee guida etiche internazionali sull'intelligenza artificiale. Fujitsu offrirà queste risorse gratuitamente a partire dal 21 febbraio 2022 per promuovere l'implementazione sicura e protetta dei sistemi di intelligenza artificiale nella società.
Il toolkit è costituito da una varietà di casi di studio e materiali di riferimento, compreso un metodo di nuova concezione per chiarire i requisiti etici nelle linee guida etiche sull’IA scritte in linguaggio naturale, nonché per applicare i requisiti etici ai sistemi di intelligenza artificiale reali. Le risorse in giapponese possono essere scaricate qui, la disponibilità in inglese sarà disponibile nel prossimo futuro.
Con questa guida, Fujitsu mira a prevenire incomprensioni e potenziali rischi causati da differenze nell'interpretazione delle descrizioni contenute nelle linee guida, offrendo agli sviluppatori e agli operatori di sistemi di intelligenza artificiale nuovi strumenti per identificare accuratamente e prevenire possibili questioni etiche nelle prime fasi del processo di sviluppo, in linea con le migliori pratiche internazionali. .
Il Dr. Christoph Lutge dell'Università Tecnica di Monaco, un'autorità leader nella ricerca sull'IA responsabile e sull'etica aziendale, commenta: "In Europa, c'è un dibattito crescente sulle normative sull'IA, e una delle questioni chiave è come chiudere il dibattito divario tra principi e pratiche, o "cosa" e "come". Credo che i risultati di questa ricerca siano molto significativi in quanto ci consentono di praticare sulla base di principi. Vorrei anche esprimere il mio profondo apprezzamento per la decisione di rendere pubblici i risultati della ricerca e stimolare la discussione in tutto il mondo."
In futuro, Fujitsu lavorerà attivamente per collaborare con agenzie governative, aziende private e importanti ricercatori per perfezionare e promuovere ulteriormente la sua metodologia di recente sviluppo e mira a rilasciare una versione ampliata del toolkit di risorse nell'anno fiscale 2022.
sfondo
Nell’aprile 2021, la Commissione Europea ha pubblicato una bozza di un quadro normativo che richiede una risposta etica completa per gli sviluppatori, gli utenti e le parti interessate di sistemi di intelligenza artificiale in risposta alle crescenti preoccupazioni relative ai pregiudizi algoritmici e al processo decisionale discriminatorio nelle applicazioni di intelligenza artificiale e di apprendimento automatico.
Per impegnarsi pienamente nell'uso responsabile della tecnologia e guadagnare la fiducia della società nei sistemi di intelligenza artificiale e nelle aziende e organizzazioni coinvolte in questo ambito, Fujitsu ha formulato il proprio impegno sull'intelligenza artificiale nel 2019, nonché un nuovo ufficio per l'etica e la governance dell'intelligenza artificiale per sviluppare e applicare solide politiche per l’etica dell’IA, promuovere la governance etica dell’IA a livello organizzativo per garantirne l’efficacia. Ora Fujitsu passerà dai principi alla pratica, implementando costantemente le migliori pratiche nel mondo reale per garantire la realizzazione di tecnologie di intelligenza artificiale e machine learning etiche, sicure e trasparenti.
Allo stato attuale, è pratica comune nello sviluppo di sistemi di intelligenza artificiale identificare possibili rischi etici nei sistemi di intelligenza artificiale sulla base delle linee guida etiche sull’intelligenza artificiale emesse dalle autorità governative e dalle aziende. Queste linee guida sono scritte in linguaggio naturale, tuttavia, contribuendo a possibili differenze di interpretazione e incomprensioni tra progettisti e sviluppatori che possono portare a misure inappropriate o insufficienti. Con questo metodo è anche difficile giudicare se il contenuto delle linee guida sia stato rivisto in modo approfondito e appropriato.
Rimangono tuttavia molte sfide e la possibile interpretazione errata delle linee guida nella fase di progettazione delle nuove tecnologie può potenzialmente portare a misure insufficienti o inadeguate per contrastare i rischi.
Nuovo metodo di valutazione e risorse per aiutare a chiarire le linee guida e il rischio etico
Nel preparare questo nuovo toolkit e guida per gli sviluppatori, Fujitsu ha eseguito analisi degli incidenti passati relativi all'intelligenza artificiale raccolti nell'AI Incident Database del consorzio internazionale Partnership on AI (1). Questo processo ha portato alla conclusione che le questioni etiche relative ai sistemi di IA possono essere contestualizzate con lo scambio di informazioni (“interazioni”) tra elementi discreti all’interno di un sistema di IA e tra un sistema di IA e i suoi utenti e altre parti interessate.
Sulla base di questi risultati, Fujitsu ha sviluppato con successo un metodo di valutazione per identificare sistematicamente le questioni etiche rilevanti relative ai sistemi di intelligenza artificiale, consentendo la creazione di modelli etici di intelligenza artificiale (2) in grado di chiarire l'interpretazione delle linee guida etiche di intelligenza artificiale.
Fujitsu ha applicato il suo nuovo metodo di valutazione a 15 casi rappresentativi dell'incidente AI
Database (164 casi globali registrati al 21 febbraio 2022, gli esempi includevano casi provenienti da aree come il settore finanziario e delle risorse umane). Applicando il nuovo metodo, tutte le questioni etiche che si sono verificate nei casi d'uso del mondo reale sono state identificate con successo come rischi in anticipo durante le prove di verifica, i cui risultati sono stati pubblicati.
Fujitsu offrirà il seguente toolkit di risorse composto da una varietà di risorse e indicazioni a cui gli sviluppatori potranno fare riferimento nel proprio lavoro:
Sito di download (in giapponese, inglese disponibile in futuro)
1. Libro bianco: una panoramica generale della metodologia
2. Manuale della procedura di valutazione dell'impatto etico dell'IA: diagramma del sistema di intelligenza artificiale, procedura di preparazione del modello etico dell'IA e spiegazione del metodo di corrispondenza del problema
3. Modello etico dell'IA: un modello etico dell'IA basato sulle linee guida etiche dell'IA pubblicate dalla Commissione Europea (create da Fujitsu)
4. Casi di studio sull'analisi etica dell'IA: risultati dell'analisi delle principali questioni etiche sull'IA dall'AI Incident Database of Partnership on AI (al 21 febbraio c'erano sei casi, che sono stati aggiunti in sequenza).
Caso d'uso: rischio nell'uso dell'intelligenza artificiale per la valutazione di individui per prestiti bancari, reclutamento
La Figura 1 mostra un esempio di processo di valutazione di un individuo tipico in scenari di casi d'uso come il reclutamento del personale o l'approvazione di prestiti bancari. La tabella di corrispondenza nel modello etico dell’AI individua nella “validità del processo di valutazione” (se la valutazione è condotta in modo responsabile con riferimento ai risultati di output del sistema di AI) come elemento di verifica dell’interazione (relazione) tra l’utente del Il sistema di intelligenza artificiale e la persona target da valutare, mentre "l'eccessiva dipendenza dai risultati dell'intelligenza artificiale", "l'interpretazione e valutazione selettiva dei risultati di output" e "l'ignoranza dei risultati di output" sono elencati come possibili rischi.
All'interno di questo esempio, gli sviluppatori di sistemi di intelligenza artificiale possono identificare il rischio di una "dipendenza eccessiva degli utenti dai risultati di un sistema di intelligenza artificiale che può contenere errori e portare a decisioni ingiuste" come possibile rischio in un sistema di intelligenza artificiale e adattare opportunamente il sistema per prevenire questo rischio. .
(1) Partenariato sull'IA:
Un'organizzazione no-profit fondata nel 2016 che affronta le sfide etiche dell'intelligenza artificiale, per un futuro in cui l'intelligenza artificiale e gli esseri umani lavorano insieme.
(2) Modelli etici di IA:
I modelli etici di IA includono una tabella di corrispondenza di "elementi di controllo" e "interazioni", uno strumento per la valutazione passo passo dei requisiti etici per i sistemi di IA. I modelli etici di intelligenza artificiale vengono creati manualmente sulla base di una linea guida specifica, ma una volta generato, un modello può essere utilizzato genericamente per valutare vari sistemi di intelligenza artificiale. Utilizzando questo metodo, gli sviluppatori e i gestori di sistemi di intelligenza artificiale possono recuperare automaticamente tutti gli elementi di controllo rilevanti da un modello etico di intelligenza artificiale precedentemente creato per una valutazione sistematica e completa dei possibili rischi correlati in base al tipo di interazioni all’interno di un sistema di intelligenza artificiale.
A proposito di Fujitsu
Fujitsu è l'azienda giapponese leader nel settore delle tecnologie dell'informazione e della comunicazione (TIC) che offre una gamma completa di prodotti, soluzioni e servizi tecnologici. Circa 126,000 persone Fujitsu supportano i clienti in più di 100 paesi. Usiamo la nostra esperienza e il potere delle TIC per plasmare il futuro della società con i nostri clienti. Fujitsu Limited (TSE: 6702) ha riportato un fatturato consolidato di 3.6 trilioni di yen (34 miliardi di dollari) per l'anno fiscale terminato il 31 marzo 2021. Per ulteriori informazioni, consultare www.fujitsu.com.
Copyright 2022 JCN Newswire. Tutti i diritti riservati. www.jcnnewswire.com Fujitsu ha annunciato oggi lo sviluppo di un toolkit di risorse che offre agli sviluppatori una guida per valutare l'impatto etico e i rischi dei sistemi di intelligenza artificiale sulla base delle linee guida etiche internazionali sull'intelligenza artificiale.
- 000
- 100
- 2016
- 2019
- 2021
- 2022
- WRI
- indirizzo
- AI
- algoritmica
- Tutti
- Consentire
- .
- ha annunciato
- applicazioni
- AMMISSIONE
- Aprile
- autorità
- disponibilità
- disponibile
- Banca
- MIGLIORE
- best practice
- Miliardo
- affari
- casi
- ha causato
- sfide
- carica
- Commenti
- commissione
- impegno
- Uncommon
- Comunicazione
- Aziende
- azienda
- testuali
- copyright
- paesi
- Clienti
- Banca Dati
- dibattito
- deployment
- Design
- sviluppare
- sviluppato
- sviluppatori
- Mercato
- Presto
- Inglese
- sviluppate
- etica
- Europa
- europeo
- Commissione europea
- esempio
- exchange
- esperienza
- finanziario
- seguire
- i seguenti
- Avanti
- Contesto
- Gratis
- pieno
- futuro
- divario
- Generale
- globali
- la governance
- Enti Pubblici
- Crescita
- linee guida
- Aiuto
- qui
- Come
- Tutorial
- HTTPS
- Risorse umane
- Gli esseri umani
- identificare
- Impact
- incluso
- Compreso
- individuale
- informazioni
- interazione
- Internazionale
- coinvolto
- sicurezza
- IT
- conservazione
- Le
- Lingua
- portare
- principale
- apprendimento
- Guidato
- Limitato
- elencati
- Prestiti e finanziamenti
- logo
- machine learning
- maggiore
- Manuale
- Marzo
- Materiale
- modello
- modelli
- cambiano
- Vicino
- senza scopo di lucro
- offrire
- offerta
- aprire
- organizzazione
- organizzazioni
- Altro
- partner
- Partnership
- Persone
- Personale
- fase
- Termini e Condizioni
- possibile
- energia
- presenti
- prevenzione
- un bagno
- Problema
- processi
- Prodotti
- promuoverlo
- gamma
- mondo reale
- reclutamento
- registrato
- normativa
- normativo
- rapporto
- Requisiti
- riparazioni
- risorsa
- Risorse
- risposta
- responsabile
- Risultati
- Rischio
- sicura
- settore
- sicuro
- Servizi
- significativa
- SIX
- Società
- Soluzioni
- lo spazio
- studi
- Con successo
- supporto
- sistema
- SISTEMI DI TRATTAMENTO
- Target
- Consulenza
- Tecnologie
- Tecnologia
- oggi
- insieme
- strumenti
- trasparente
- Affidati ad
- Università
- us
- utenti
- Convalida
- se
- Whitepaper
- entro
- Lavora
- mondo
- In tutto il mondo
- anno
- Yen