Polislabb vill att dina lyckliga barndomsbilder ska träna AI för att upptäcka barnmisshandel PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Polislabb vill att dina lyckliga barndomsbilder ska träna AI för att upptäcka barnmisshandel

Uppdaterad Australiens federala polis och Monash University ber nätanvändare att skicka in bilder på sina yngre jag för att träna en maskininlärningsalgoritm för att upptäcka barnmisshandel i fotografier.

Forskare vill samla in bilder på personer som är 17 år och yngre i säkra scenarier; de vill inte ha någon nakenhet, även om det är en relativt ofarlig bild som ett barn som badar. Crowdsourcing-kampanjen, dubbad Mina bilder är viktiga, är öppen för personer som är 18 år och uppåt, som kan samtycka till att deras fotografier används för forskningsändamål.

Alla bilder kommer att samlas i en datauppsättning som hanteras av Monash-akademiker i ett försök att träna en AI-modell för att se skillnaden mellan en minderårig i en normal miljö och en exploaterande, osäker situation. Mjukvaran skulle i teorin kunna hjälpa brottsbekämpande myndigheter att bättre automatiskt och snabbt lokalisera material om sexuella övergrepp mot barn (alias CSAM) bland tusentals och åter tusentals fotografier som undersöks, och undvika att mänskliga analytiker inspekterar varje enskild snap.

Att granska detta fruktansvärda material kan vara en långsam process

Den australiensiska federala polisens ledande konstapel Janis Dalins sa att den resulterande AI potentiellt skulle kunna hjälpa till att identifiera offer och flagga upp olagligt material som inte tidigare känt till poliserna.

"2021 mottog det AFP-ledda australiska centret för att motverka barnexploatering mer än 33,000 XNUMX rapporter om utnyttjande av barn online och varje rapport kan innehålla stora volymer bilder och videor på barn som utsätts för sexuella övergrepp eller utnyttjas för att tillfredsställa förövare," han sade denna vecka.

Dalins är också meddirektör för AiLECS Lab, forskningssamarbetet mellan akademiker vid Monashs fakultet för informationsteknologi och AFP som driver projektet My Pictures Matter.

"Att granska det här fruktansvärda materialet kan vara en långsam process och den ständiga exponeringen kan orsaka betydande psykisk oro för utredarna", tillade han. “AiLECS Labs initiativ kommer att stödja poliser och de barn vi försöker skydda; och forskare har tänkt på ett innovativt sätt att etiskt utveckla tekniken bakom sådana initiativ.”

Det enklaste sättet att sammanställa en stor datauppsättning av bilder är att skrapa det öppna internet. Men som några av de senaste AI-modellerna – som OpenAI:s DALL E 2 och Googles Bild – har visat att kvaliteten på dessa uppgifter är svår att kontrollera. Partiska eller olämpliga bilder kan krypa in i datasetet, vilket gör modellerna problematiska och potentiellt mindre effektiva.

Istället tror teamet på AiLECS att deras crowdsourcingkampanj ger ett enklare och mer etiskt sätt att samla in fotografier av barn. "För att utveckla AI som kan identifiera exploaterande bilder behöver vi ett mycket stort antal barnfotografier i vardagliga "säkra" sammanhang som kan träna och utvärdera AI-modellerna som är avsedda att bekämpa exploatering av barn," Campbell Wilson, co-director för AiLECS och en docent vid Monash University, sa.

Genom att erhålla fotografier från vuxna, genom informerat samtycke, försöker vi bygga teknologier som är etiskt ansvarsfulla och transparenta

"Men att få tag på dessa bilder från internet är problematiskt när det inte finns något sätt att veta om barnen på bilderna faktiskt har samtyckt till att deras fotografier laddas upp eller används för forskning. Genom att erhålla fotografier från vuxna, genom informerat samtycke, försöker vi bygga teknologier som är etiskt ansvarsfulla och transparenta.”

Människor behöver bara skicka in sina personliga fotografier och en e-postadress som en del av kampanjen. Nina Lewis, en projektledare och forskarassistent vid labbet, sa att det inte kommer att logga några andra typer av personlig information. E-postadresserna kommer att lagras i en separat databas, får vi veta. 

"Bilderna och relaterade data kommer inte att innehålla någon identifieringsinformation, vilket säkerställer att bilder som används av forskare inte kan avslöja någon personlig information om personerna som är avbildade", sa hon. Deltagarna kommer att få uppdateringar i varje skede av projektet och kan be om att få ta bort sina bilder från datasetet om de vill.

Projektets ädla syften är inte tekniskt omöjliga, och är mycket ambitiösa, så vi kan inte vänta på att se resultaten, med tanke på de utmaningar som bildigenkänningssystem står inför, som t.ex. förspänning och motstridiga attacker bland annat begränsningar.

Registret har bett Monash University om ytterligare detaljer. ®

Uppdaterad för att läggas till den 6 juni

Monashs Dr Lewis har varit i kontakt med några fler detaljer. Hon berättade för oss att målet är att bygga en datauppsättning med 100,000 XNUMX unika bilder för att träna AI-modellen.

"Vi kommer att använda bilderna som tränings- och testdata för nya och befintliga algoritmer som identifierar och klassificerar "säkra" bilder av barn", tillade hon. "Vi kommer också att undersöka hur dessa tekniker kan användas för att göra bedömningar av om digitala filer innehåller "osäkra" bilder av barn.

“My Pictures Matter-projektet tränar inte AI på bilder av barn i osäkra situationer. Vi undersöker det motsatta scenariot: hur man skapar datauppsättningar med etiskt ursprung och samtycke för användning i maskininlärning för att hjälpa till att tackla den växande volymen av barnövergreppsbilder som genereras och distribueras via onlineplattformar."

Som svar på några av dina kommentarer som ger upphov till oro över förmågan hos maskininlärningssystem, tillade Dr Lewis: "Vi inser att automatiserade verktyg behöver vara mer än trubbiga instrument, och att till exempel förekomsten av en hög andel hudton i en visuell bild tyder inte i sig på övergrepp.”

För dem som är oroliga för integritetsskydd för uppgifterna, pekade Dr Lewis på avsnittet "datahantering" på mypicturesmatter.org efter att ha klickat på "Let's go", som säger:

* Foton och all annan information du tillhandahåller kommer att lagras av AiLECS Lab med hjälp av Monash Universitys IT-infrastruktur och/eller säkra molntjänster med servrar i Australien. Datauppsättningen kommer inte att finnas i några "öppna" förråd, men en beskrivning av datamängden kan vara synlig i offentliga dataregister.

* Tillgång kommer att vara begränsad till behöriga medlemmar av forskargruppen. Andra forskare får endast ges tillgång till bilder under förutsättning att formella etiska processer godkänns, där du har gett tillstånd. Du kan när som helst uppdatera dina inställningar för datadelning genom att maila oss på mypicturesmatter@ailecs.org.

* Forskningsdata kommer att bevaras i minst 5 år efter slutförandet av alla projekt som använder datamängden. Register som dokumenterar samtycke kommer att bevaras tills forskningsdataset har raderats.

Hon betonade också att bilderna som samlas in för projektet kommer att hållas och användas av universitetet, och inte polisen direkt.

"Detta är inte en polisdatauppsättning och kommer inte att hållas eller hanteras av AFP," sa Dr Lewis till oss. "Denna forskning utförs av Monash University, med formell mänsklig forskningsetisk godkännande för hur data samlas in, används och hanteras."

Tidsstämpel:

Mer från Registret