Policijski laboratorij želi, da vaše slike srečnega otroštva usposobijo AI za odkrivanje zlorabe otrok PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Policijski laboratorij želi, da vaše slike srečnega otroštva usposobijo AI za odkrivanje zlorabe otrok

Posodobljeno Avstralska zvezna policija in univerza Monash uporabnike interneta pozivata, naj pošljejo posnetke svojih mlajših, da bi usposobili algoritem za strojno učenje, da bi opazil zlorabo otrok na fotografijah.

Raziskovalci želijo zbrati slike ljudi, starih 17 let in manj, v varnih scenarijih; nočejo nobene golote, tudi če je to relativno neškodljiva slika, kot je otrok, ki se kopa. Crowdsourcing kampanja, sinhronizirana Moje slike so pomembne, je odprt za osebe, stare 18 let in več, ki lahko privolijo, da se njihove fotografije uporabijo v raziskovalne namene.

Vse slike bodo zbrane v naboru podatkov, ki ga upravljajo Monashovi akademiki, da bi usposobili model AI za razlikovanje med mladoletnikom v običajnem okolju in izkoriščevalsko, nevarno situacijo. Programska oprema bi teoretično lahko pomagala organom kazenskega pregona bolje samodejno in hitro odkriti gradivo o spolni zlorabi otrok (aka CSAM) med tisoči in tisoči fotografij, ki so predmet preiskave, s čimer bi se izognili temu, da bi človeški analitiki pregledali vsak posamezen posnetek.

Pregledovanje tega grozljivega gradiva je lahko počasen proces

Vodilni višji policist avstralske zvezne policije Janis Dalins je dejal, da bi nastala umetna inteligenca lahko potencialno pomagala identificirati žrtve in označiti nezakonito gradivo, ki ga policisti prej niso poznali.

"Leta 2021 je avstralski center za boj proti izkoriščanju otrok, ki ga vodi AFP, prejel več kot 33,000 poročil o spletnem izkoriščanju otrok in vsako poročilo lahko vsebuje velike količine slik in videoposnetkov otrok, ki so bili spolno napadeni ali izkoriščani za zadovoljitev storilcev kaznivih dejanj," je dejal. je dejal ta teden.

Dalins je tudi so-direktor AiLECS Lab, raziskovalnega sodelovanja med akademiki na Monashovi fakulteti za informacijsko tehnologijo in AFP, ki vodi projekt My Pictures Matter.

"Pregledovanje tega grozljivega materiala je lahko počasen proces in nenehna izpostavljenost lahko preiskovalcem povzroči veliko psihološko stisko," je dodal. »Pobude AiLECS Laba bodo podprle policiste in otroke, ki jih poskušamo zaščititi; in raziskovalci so se domislili inovativnega načina za etični razvoj tehnologije, ki stoji za takimi pobudami.«

Najlažji način za zbiranje velikega nabora podatkov slik je strganje po odprtem internetu. Ampak kot nekateri najnovejši modeli AI – kot je OpenAI DALL E 2 in Googlove Slika – je pokazalo, da je kakovost teh podatkov težko nadzorovati. V nabor podatkov se lahko prikradejo pristranske ali neustrezne slike, zaradi česar so modeli problematični in potencialno manj učinkoviti.

Namesto tega ekipa pri AiLECS verjame, da njihova kampanja množičnega pridobivanja omogoča lažji in bolj etičen način zbiranja fotografij otrok. »Za razvoj umetne inteligence, ki lahko prepozna izkoriščevalske podobe, potrebujemo zelo veliko število otroških fotografij v vsakodnevnih 'varnih' kontekstih, ki lahko učijo in ovrednotijo ​​modele umetne inteligence, namenjene boju proti izkoriščanju otrok,« Campbell Wilson, sodirektor AiLECS in izredni profesor na univerzi Monash, je dejal.

S pridobivanjem fotografij od odraslih s pomočjo informirane privolitve poskušamo zgraditi tehnologije, ki so etično odgovorne in pregledne

»Toda pridobivanje teh slik iz interneta je problematično, saj ni mogoče vedeti, ali so otroci na teh slikah dejansko privolili, da se njihove fotografije naložijo ali uporabijo za raziskave. S pridobivanjem fotografij od odraslih na podlagi informiranega soglasja poskušamo zgraditi tehnologije, ki so etično odgovorne in pregledne.«

Ljudje morajo kot del kampanje poslati samo svoje osebne fotografije in e-poštni naslov. Nina Lewis, vodja projekta in raziskovalna sodelavka v laboratoriju, je dejala, da ne bodo beležili nobenih drugih vrst osebnih podatkov. E-poštni naslovi bodo shranjeni v ločeni bazi podatkov, so nam povedali. 

"Slike in z njimi povezani podatki ne bodo vsebovali nobenih identifikacijskih informacij, kar zagotavlja, da slike, ki jih uporabljajo raziskovalci, ne bodo razkrile osebnih podatkov o ljudeh, ki so upodobljeni," je dejala. Udeleženci bodo prejeli posodobitve na vsaki stopnji projekta in lahko zaprosijo za odstranitev svojih slik iz nabora podatkov, če želijo.

Plemeniti cilji projekta niso tehnično nemogoči in so zelo ambiciozni, zato komaj čakamo na rezultate glede na izzive, s katerimi se soočajo sistemi za prepoznavanje slik, kot je npr. pristranskosti in neželeni napadi med drugim omejitve.

Register je prosil Univerzo Monash za dodatne podrobnosti. ®

Posodobljeno za dodajanje 6. junija

Monashov dr. Lewis je bil v stiku z več podrobnostmi. Povedala nam je, da je cilj zgraditi nabor podatkov 100,000 edinstvenih slik za usposabljanje modela AI.

"Fotografije bomo uporabili kot podatke za usposabljanje in testiranje za nove in obstoječe algoritme, ki identificirajo in razvrščajo 'varne' slike otrok," je dodala. »Raziskovali bomo tudi, kako lahko te tehnologije uporabimo za ocenjevanje, ali digitalne datoteke vsebujejo 'nevarne' podobe otrok.

»Projekt My Pictures Matter ne usposablja AI na slikah otrok v nevarnih situacijah. Raziskujemo nasprotni scenarij: kako ustvariti etično pridobljene in soglasne nabore podatkov za uporabo v strojnem učenju, da bi se spopadli z naraščajočo količino podob zlorabe otrok, ki se ustvarjajo in distribuirajo prek spletnih platform.«

V odgovoru na nekatere vaše komentarje, ki vzbujajo pomisleke glede sposobnosti sistemov za strojno učenje, je dr. Lewis dodal: »Zavedamo se, da morajo biti avtomatizirana orodja več kot topi instrumenti in da je na primer prisotnost visokega deleža tena kože v vizualni podobi samo po sebi ne kaže na zlorabo.«

Za tiste, ki jih skrbi varovanje zasebnosti podatkov, je dr. Lewis pokazal na razdelek »ravnanje s podatki« na mypicturesmatter.org, potem ko je kliknil »Gremo«, ki pravi:

* Fotografije in vse druge informacije, ki jih posredujete, bo shranil AiLECS Lab z uporabo infrastrukture IT Univerze Monash in/ali varnih storitev v oblaku s strežniki v Avstraliji. Nabor podatkov ne bo gostoval v nobenem „odprtem“ repozitoriju, vendar bo opis nabora podatkov morda viden v javnih registrih podatkov.

* Dostop bo omejen na pooblaščene člane raziskovalne skupine. Drugi raziskovalci lahko dobijo dostop do slik samo pod pogojem, da jih odobrijo formalni etični postopki, če ste dali dovoljenje. Nastavitve skupne rabe podatkov lahko kadar koli posodobite tako, da nam pošljete e-pošto na mypicturesmatter@ailecs.org.

* Raziskovalni podatki se bodo hranili najmanj 5 let po zaključku vseh projektov, ki uporabljajo nabor podatkov. Zapisi, ki dokumentirajo soglasje, se bodo hranili, dokler nabor raziskovalnih podatkov ne bo izbrisan.

Poudarila je tudi, da bo slike, zbrane za projekt, hranila in uporabljala univerza in ne neposredno policija.

"To ni policijski nabor podatkov in ga AFP ne bo hranil ali upravljal," nam je povedal dr. Lewis. "To raziskavo izvaja Univerza Monash s formalnim etičnim dovoljenjem za raziskovanje ljudi o tem, kako se podatki zbirajo, uporabljajo in upravljajo."

Časovni žig:

Več od Register