TOKYO, Feb 21, 2022 – (JCN Newswire) – Fujitsu today announced the development of a resource toolkit offering developers guidance for evaluating the ethical impact and risks of AI systems based on international AI ethics guidelines. Fujitsu will offer these resources free of charge starting from February 21, 2022 to promote the safe and secure deployment of AI systems in society.
Az eszköztár számos esettanulmányból és referenciaanyagból áll, beleértve az újonnan kifejlesztett módszert a mesterséges intelligencia etikai irányelveinek természetes nyelven írt etikai követelményeinek tisztázására, valamint az etikai követelmények tényleges AI-rendszerekre való alkalmazására. A japán nyelvű források innen tölthetők le, a közeljövőben pedig angolul is elérhetők lesznek.
Ezzel az útmutatóval a Fujitsu célja, hogy megelőzze az irányelvekben szereplő leírások eltérő értelmezéséből adódó félreértéseket és potenciális kockázatokat, új eszközöket kínálva az AI-rendszerek fejlesztői és üzemeltetői számára a lehetséges etikai problémák alapos azonosítására és megelőzésére a fejlesztési folyamat korai szakaszában, összhangban a nemzetközi legjobb gyakorlatokkal. .
Dr. Christoph Lutge, a Müncheni Műszaki Egyetem munkatársa, a felelős mesterséges intelligencia és az üzleti etika kutatásának vezető hatósága megjegyzi: „Európában egyre nagyobb vita folyik az AI-szabályozásról, és az egyik kulcskérdés az, hogy hogyan zárjuk le szakadék az elvek és a gyakorlatok között, vagy "mit" és "hogyan". Úgy gondolom, hogy ennek a kutatásnak az eredményei nagyon jelentősek abban a tekintetben, hogy lehetővé teszik számunkra, hogy alapelvek alapján gyakoroljunk. Szeretném kifejezni mély elismerésemet azért a döntésért, hogy nyissa meg a kutatási eredményeket és ösztönözze a vitát világszerte."
A jövőben a Fujitsu aktívan együttműködik a kormányzati ügynökségekkel, magáncégekkel és vezető kutatókkal, hogy tovább finomítsa és népszerűsítse újonnan kifejlesztett módszertanát, és a 2022-es pénzügyi évben az erőforrás-eszköztár kibővített változatát kívánja kiadni.
Háttér
2021 áprilisában az Európai Bizottság kiadott egy szabályozási kerettervezetet, amely átfogó etikai választ kér a mesterséges intelligencia-rendszerek fejlesztői, felhasználói és érdekelt felei számára, válaszul a mesterséges intelligencia és a gépi tanulási alkalmazásokban alkalmazott algoritmikus torzítással és diszkriminatív döntéshozatallal kapcsolatos növekvő aggodalmakra.
Annak érdekében, hogy teljes mértékben elkötelezzék magukat a technológia felelős használata mellett, és elnyerjék a társadalom bizalmát a mesterséges intelligencia-rendszerek, valamint az ezen a téren érintett vállalatok és szervezetek iránt, a Fujitsu 2019-ben megfogalmazta saját mesterségesintelligencia-kötelezettségét, valamint egy új mesterségesintelligencia-etikai és irányítási irodát a fejlesztés és a végrehajtás érdekében. A mesterséges intelligencia etikájára vonatkozó szilárd irányelvek előmozdítják a szervezeti mesterséges intelligencia etikai irányítását azok hatékonyságának biztosítása érdekében. Mostantól a Fujitsu az elvektől a gyakorlat felé halad azáltal, hogy folyamatosan alkalmazza a legjobb gyakorlatokat a való világban, hogy biztosítsa az etikus, biztonságos és átlátható AI és gépi tanulási technológiák megvalósítását.
Jelenleg bevett gyakorlat az AI-rendszerek fejlesztésében, hogy a kormányzati hatóságok és vállalatok által kiadott mesterségesintelligencia-etikai irányelvek alapján azonosítják a mesterséges intelligencia-rendszerek lehetséges etikai kockázatait. Ezek az irányelvek természetes nyelven vannak megírva, ami hozzájárul a lehetséges értelmezési különbségekhez és a tervezők és fejlesztők közötti félreértésekhez, amelyek nem megfelelő vagy elégtelen intézkedésekhez vezethetnek. Ezzel a módszerrel azt is nehéz megítélni, hogy az útmutatóban foglaltakat alaposan és megfelelően áttekintették-e.
Számos kihívás azonban továbbra is fennáll, és az irányelvek esetleges félreértelmezése az új technológiák tervezési szakaszában potenciálisan elégtelen vagy nem megfelelő kockázatkezelési intézkedésekhez vezethet.
Új értékelési módszer és források az irányelvek és az etikai kockázatok tisztázásához
Ennek az új eszköztárnak és a fejlesztőknek szóló útmutatásnak az elkészítésekor a Fujitsu elemezte a mesterséges intelligenciával kapcsolatos múltbeli eseményeket, amelyeket az AI Partnership (1) nemzetközi konzorcium AI Incident Database adatbázisában gyűjtöttek össze. Ez a folyamat arra a következtetésre vezetett, hogy az AI-rendszerekkel kapcsolatos etikai kérdések kontextusba helyezhetők az AI-rendszeren belüli diszkrét elemek közötti információcserével ("kölcsönhatásokkal"), valamint a mesterségesintelligencia-rendszer és a felhasználók és más érdekelt felek között.
Ezen megállapítások alapján a Fujitsu sikeresen kifejlesztett egy értékelési módszert az AI-rendszerekkel kapcsolatos releváns etikai kérdések szisztematikus azonosítására, lehetővé téve olyan AI-etikai modellek (2) létrehozását, amelyek képesek tisztázni az AI-etikai irányelvek értelmezését.
A Fujitsu az MI-incidens 15 reprezentatív esetére alkalmazta új értékelési módszerét
Adatbázis (164. február 21-én 2022 globális eset regisztrált, a példák között olyan területekről is esett szó, mint a pénzügyi és a humánerőforrás szektor). Az új módszert alkalmazva a valós felhasználási esetekben minden etikai problémát sikeresen azonosítottunk kockázatként az ellenőrző kísérletek során, amelyek eredményeit közzétettük.
A Fujitsu a következő erőforrás-eszközkészletet kínálja, amely különféle forrásokból és útmutatásokból áll a fejlesztők számára, amelyekre saját munkájuk során hivatkozhatnak:
Letöltési oldal (japán, angol nyelven a jövőben elérhető)
1. Whitepaper: A módszertan általános áttekintése
2. MI etikai hatásvizsgálati eljárási kézikönyv: AI rendszerábra, AI etikai modell elkészítési eljárása és problémamegfelelési módszer magyarázata
3. AI etikai modell: Az Európai Bizottság által közzétett mesterséges intelligencia etikai irányelvein alapuló AI etikai modell (a Fujitsu készítette)
4. A mesterséges intelligencia etikai elemzése esettanulmányok: A fő mesterségesintelligencia-etikai problémák elemzésének eredményei az AI Incident Database of Partnership on AI-ból (február 21-én hat eset volt, amelyeket sorban hozzáadtunk).
Használati eset: kockázat a mesterséges intelligencia használatában az egyének banki kölcsönök értékeléséhez, toborzáshoz
Az 1. ábra egy példát mutat be egy értékelési folyamatra egy olyan jellemző használati esetre, mint a személyzet toborzása vagy a banki hitelek jóváhagyása. Az AI etikai modellben szereplő megfelelési táblázat az "értékelési folyamat érvényességét" (az értékelést az AI-rendszer kimeneti eredményeire való hivatkozással felelősen végzi-e) a felhasználó közötti interakció (kapcsolat) ellenőrző elemeként. A mesterséges intelligencia rendszere és az értékelendő célszemély, míg a lehetséges kockázatok között szerepel a "túlzott függőség az AI-eredményektől", a "kimeneti eredmények szelektív értelmezése és értékelése" és a "kimeneti eredmények figyelmen kívül hagyása".
Ebben a példában a mesterséges intelligencia-rendszer fejlesztői azonosíthatják a „felhasználók túlzott függését egy mesterséges intelligencia-rendszer kimeneteitől, amelyek elfogultságot tartalmazhatnak és tisztességtelen döntésekhez vezethetnek”, mint lehetséges kockázatot egy mesterségesintelligencia-rendszerben, és megfelelően módosíthatják a rendszert e kockázat megelőzése érdekében. .
(1) Partnerség a mesterséges intelligencia területén:
Egy 2016-ban alapított nonprofit szervezet, amely a mesterséges intelligencia etikai kihívásaival foglalkozik egy olyan jövő érdekében, ahol a mesterséges intelligencia és az emberek együtt dolgoznak.
(2) AI etikai modellek:
A mesterséges intelligencia etikai modelljei tartalmazzák az „ellenőrzési tételek” és „kölcsönhatások” megfelelési táblázatát, amely egy eszköz az AI-rendszerek etikai követelményeinek lépésről lépésre történő értékelésére. A mesterséges intelligencia etikai modelljei manuálisan jönnek létre egy adott irányelv alapján, de a generálás után egy modell általánosan felhasználható különféle AI-rendszerek értékelésére. Ezzel a módszerrel az AI-rendszerek fejlesztői és üzemeltetői automatikusan lekérhetik az összes releváns ellenőrző elemet egy korábban létrehozott AI-etikai modellből, hogy szisztematikusan és átfogóan értékeljék a kapcsolódó lehetséges kockázatokat az AI-rendszeren belüli interakciók típusa alapján.
A Fujitsu-ról
A Fujitsu a vezető japán információs és kommunikációs technológiai (IKT) vállalat, amely technológiai termékek, megoldások és szolgáltatások teljes skáláját kínálja. Körülbelül 126,000 100 Fujitsu ember támogatja ügyfeleit több mint 6702 országban. Tapasztalatainkat és az IKT erejét arra használjuk, hogy ügyfeleinkkel együtt alakítsuk a társadalom jövőjét. A Fujitsu Limited (TSE:3.6) 34 billió jen (31 milliárd USD) konszolidált bevételről számolt be a 2021. március XNUMX-én végződő pénzügyi évben. További információért lásd: www.fujitsu.com.
Copyright 2022 JCN Newswire. Minden jog fenntartva. www.jcnnewswire.com
- 000
- 100
- 2016
- 2019
- 2021
- 2022
- Rólunk
- cím
- AI
- algoritmikus
- Minden termék
- lehetővé téve
- elemzés
- bejelentés
- alkalmazások
- Alkalmazása
- április
- hatóság
- elérhetőség
- elérhető
- Bank
- BEST
- legjobb gyakorlatok
- Billió
- üzleti
- esetek
- okozott
- kihívások
- díj
- Hozzászólások
- jutalék
- elkötelezettség
- Közös
- közlés
- Companies
- vállalat
- tartalom
- copyright
- országok
- Ügyfelek
- adatbázis
- vita
- bevetés
- Design
- Fejleszt
- fejlett
- fejlesztők
- Fejlesztés
- Korai
- Angol
- megalapozott
- etika
- Európa
- európai
- Európai Bizottság
- példa
- csere
- tapasztalat
- pénzügyi
- következik
- következő
- Előre
- Keretrendszer
- Ingyenes
- Tele
- jövő
- rés
- általános
- Globális
- kormányzás
- Kormány
- Növekvő
- irányelvek
- segít
- itt
- Hogyan
- How To
- HTTPS
- Emberi erőforrások
- Az emberek
- azonosítani
- Hatás
- beleértve
- Beleértve
- egyéni
- információ
- kölcsönhatás
- Nemzetközi
- részt
- kérdések
- IT
- tartás
- Kulcs
- nyelv
- vezet
- vezető
- tanulás
- Led
- Korlátozott
- Listázott
- Hitelek
- logo
- gépi tanulás
- fontos
- kézikönyv
- március
- anyagok
- modell
- modellek
- mozog
- Közel
- non-profit
- ajánlat
- felajánlás
- nyitva
- szervezet
- szervezetek
- Más
- partner
- Létrehozása
- Emberek (People)
- személyzet
- fázis
- Politikák
- lehetséges
- hatalom
- be
- megakadályozása
- magán
- Probléma
- folyamat
- Termékek
- kellene támogatnia,
- hatótávolság
- való Világ
- toborzás
- nyilvántartott
- előírások
- szabályozók
- kapcsolat
- követelmények
- kutatás
- forrás
- Tudástár
- válasz
- felelős
- Eredmények
- Kockázat
- biztonságos
- szektor
- biztonság
- Szolgáltatások
- jelentős
- SIX
- Társadalom
- Megoldások
- Hely
- tanulmányok
- sikeresen
- támogatás
- rendszer
- Systems
- cél
- Műszaki
- Technologies
- Technológia
- Ma
- együtt
- szerszámok
- átlátszó
- Bízzon
- egyetemi
- us
- Felhasználók
- Igazolás
- vajon
- whitepaper
- belül
- Munka
- világ
- világszerte
- év
- Jen