Politilaboratoriet vil at dine lykkelige barndomsbilder skal trene AI til å oppdage barnemisbruk PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Politilaboratoriet vil at de lykkelige barndomsbildene dine skal trene AI til å oppdage barnemishandling

oppdatert Australias føderale politi og Monash University ber nettbrukere sende inn bilder av deres yngre selv for å trene en maskinlæringsalgoritme for å oppdage barnemishandling i fotografier.

Forskere er ute etter å samle bilder av personer på 17 år og under i trygge scenarier; de vil ikke ha nakenhet, selv om det er et relativt ufarlig bilde som et barn som tar et bad. Crowdsourcing-kampanjen, kalt Mine bilder betyr noe, er åpen for de som er 18 år og oppover, som kan samtykke til at bildene deres brukes til forskningsformål.

Alle bildene vil bli samlet inn i et datasett administrert av Monash-akademikere i et forsøk på å trene en AI-modell til å se forskjellen mellom en mindreårig i et normalt miljø og en utnyttende, usikker situasjon. Programvaren kan i teorien hjelpe rettshåndhevelse bedre automatisk og raskt å finne materiale om seksuell overgrep mot barn (også kjent som CSAM) blant tusenvis på tusenvis av fotografier som er under etterforskning, og unngå å la menneskelige analytikere inspisere hvert eneste knips.

Å gjennomgå dette forferdelige materialet kan være en langsom prosess

Det australske føderale politiets ledende seniorkonstabel Janis Dalins sa at den resulterende kunstige intelligensen potensielt kan hjelpe til med å identifisere ofre og flagge opp ulovlig materiale som ikke tidligere var kjent for offiserer.

"I 2021 mottok det AFP-ledede Australian Centre to Counter Child Exploitation mer enn 33,000 XNUMX rapporter om online utnyttelse av barn, og hver rapport kan inneholde store mengder bilder og videoer av barn som blir seksuelt overfalt eller utnyttet til glede for lovbrytere," han sa denne uken.

Dalins er også meddirektør for AiLECS Lab, forskningssamarbeidet mellom akademikere ved Monashs fakultet for informasjonsteknologi og AFP som driver My Pictures Matter-prosjektet.

"Å vurdere dette forferdelige materialet kan være en langsom prosess, og den konstante eksponeringen kan forårsake betydelig psykologisk lidelse for etterforskerne," la han til. «AiLECS Labs initiativer vil støtte politifolk og barna vi prøver å beskytte; og forskere har tenkt på en innovativ måte å etisk utvikle teknologien bak slike initiativ.»

Den enkleste måten å kompilere et stort datasett med bilder er å skrape det åpne internett. Men som noen av de nyeste AI-modellene – som for eksempel OpenAI DALL E 2 og Googles Bilde – har vist at kvaliteten på disse dataene er vanskelig å kontrollere. Forutinntatte eller upassende bilder kan krype inn i datasettet, noe som gjør modellene problematiske og potensielt mindre effektive.

I stedet mener teamet ved AiLECS at deres crowddsourcing-kampanje gir en enklere og mer etisk måte å samle inn bilder av barn på. "For å utvikle AI som kan identifisere utnyttende bilder, trenger vi et veldig stort antall barnefotografier i hverdagslige 'trygge' sammenhenger som kan trene og evaluere AI-modellene som er ment å bekjempe utnyttelse av barn," Campbell Wilson, meddirektør for AiLECS og en førsteamanuensis ved Monash University, sa.

Ved å innhente bilder fra voksne, gjennom informert samtykke, prøver vi å bygge teknologier som er etisk ansvarlige og transparente

"Men å hente disse bildene fra internett er problematisk når det ikke er mulig å vite om barna på disse bildene faktisk har samtykket til at bildene deres skal lastes opp eller brukes til forskning. Ved å skaffe bilder fra voksne, gjennom informert samtykke, prøver vi å bygge teknologier som er etisk ansvarlige og transparente.»

Folk trenger bare å sende inn sine personlige bilder og en e-postadresse som en del av kampanjen. Nina Lewis, en prosjektleder og stipendiat ved laboratoriet, sa at det ikke kom til å logge andre typer personlig informasjon. E-postadressene vil bli lagret i en egen database, får vi beskjed om. 

"Bildene og relaterte data vil ikke inneholde noen identifiserende informasjon, noe som sikrer at bilder brukt av forskere ikke kan avsløre noen personlig informasjon om personene som er avbildet," sa hun. Deltakerne vil få oppdateringer på hvert trinn av prosjektet, og kan be om å fjerne bildene sine fra datasettet hvis de vil.

Prosjektets edle mål er ikke teknisk umulige, og er svært ambisiøse, så vi kan ikke vente med å se resultatene, gitt utfordringene bildegjenkjenningssystemer står overfor, som f.eks. Bias og motstanderskapsangrep blant andre begrensninger.

Registeret har spurt Monash University om ytterligere detaljer. ®

Oppdatert for å legge til 6. juni

Monashs Dr Lewis har vært i kontakt med noen flere detaljer. Hun fortalte oss at målet er å bygge et datasett med 100,000 XNUMX unike bilder for å trene opp AI-modellen.

"Vi vil bruke bildene som trenings- og testdata for nye og eksisterende algoritmer som identifiserer og klassifiserer 'trygge' bilder av barn," la hun til. "Vi skal også undersøke hvordan disse teknologiene kan brukes til å vurdere om digitale filer inneholder "usikre" bilder av barn.

«My Pictures Matter-prosjektet trener ikke AI på bilder av barn i utrygge situasjoner. Vi undersøker det motsatte scenariet: hvordan lage etisk hentede og samtykkende datasett for bruk i maskinlæring for å hjelpe til med å takle det økende volumet av overgrepsbilder som genereres og distribueres gjennom nettbaserte plattformer.»

Som svar på noen av kommentarene dine som vekker bekymring for evnen til maskinlæringssystemer, la Dr Lewis til: "Vi erkjenner at automatiserte verktøy trenger å være mer enn butte instrumenter, og at for eksempel tilstedeværelsen av en høy andel av hudtonen i et visuelt bilde indikerer ikke i seg selv misbruk.»

For de som er bekymret for personvernet på dataene, pekte Dr Lewis på "datahåndtering"-delen på mypicturesmatter.org etter å ha klikket på "La oss gå," som sier:

* Bilder og all annen informasjon du oppgir vil bli lagret av AiLECS Lab ved hjelp av Monash University IT-infrastruktur og/eller sikre skytjenester med servere lokalisert i Australia. Datasettet vil ikke være vert for noen "åpne" depoter, men en beskrivelse av datasettet kan være synlig i offentlige dataregistre.

* Tilgang vil være begrenset til autoriserte medlemmer av forskerteamet. Andre forskere kan kun gis tilgang til bilder betinget av godkjenning av formelle etiske prosesser, der du har gitt tillatelse. Du kan oppdatere dine datadelingspreferanser når som helst ved å sende oss en e-post på mypicturesmatter@ailecs.org.

* Forskningsdata vil bli oppbevart i minimum 5 år etter fullføring av eventuelle prosjekter som bruker datasettet. Dokumenter som dokumenterer samtykke vil bli oppbevart til forskningsdatasettet er slettet.

Hun understreket også at bildene som samles inn for prosjektet vil bli holdt og brukt av universitetet, og ikke politiet direkte.

"Dette er ikke et politidatasett, og vil ikke bli holdt eller administrert av AFP," fortalte Dr Lewis oss. "Denne forskningen blir utført av Monash University, med formell menneskelig forskningsetisk godkjenning for hvordan data samles inn, brukes og administreres."

Tidstempel:

Mer fra Registeret