Laboratorium policyjne chce, aby Twoje szczęśliwe zdjęcia z dzieciństwa wyszkoliły sztuczną inteligencję w wykrywaniu wykorzystywania dzieci PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. Aj.

Laboratorium policyjne chce, aby Twoje szczęśliwe zdjęcia z dzieciństwa wyszkoliły sztuczną inteligencję w wykrywaniu wykorzystywania dzieci

Zaktualizowano Australijska policja federalna i Uniwersytet Monash proszą internautów o przesyłanie zdjęć swoich młodszych osób, aby wytrenować algorytm uczenia maszynowego, aby wykryć wykorzystywanie dzieci na zdjęciach.

Naukowcy chcą gromadzić zdjęcia osób w wieku 17 lat i młodszych w bezpiecznych scenariuszach; nie chcą żadnej nagości, nawet jeśli jest to stosunkowo niewinne zdjęcie, jak kąpiące się dziecko. Kampania crowdsourcingowa, tzw Moje zdjęcia mają znaczenie, mogą wziąć udział osoby, które ukończyły 18 rok życia, które wyrażą zgodę na wykorzystanie ich zdjęć do celów badawczych.

Wszystkie obrazy zostaną zgromadzone w zbiorze danych zarządzanym przez naukowców z Monash w celu wytrenowania modelu sztucznej inteligencji tak, aby odróżniał osobę nieletnią w normalnym środowisku od niebezpiecznej sytuacji, w której dochodzi do wyzysku. Oprogramowanie mogłoby teoretycznie pomóc organom ścigania w skuteczniejszym, automatycznym i szybkim identyfikowaniu materiałów przedstawiających wykorzystywanie seksualne dzieci (znanych również jako CSAM) spośród tysięcy zdjęć objętych dochodzeniem, bez konieczności sprawdzania każdego zdjęcia przez analityków.

Przeglądanie tego przerażającego materiału może być powolnym procesem

Starsza policjantka australijskiej policji federalnej Janis Dalins stwierdziła, że ​​stworzona w ten sposób sztuczna inteligencja może potencjalnie pomóc w identyfikacji ofiar i sygnalizowaniu nielegalnych materiałów, które wcześniej nie były znane funkcjonariuszom.

„W 2021 r. Australijskie Centrum ds. Przeciwdziałania Wykorzystywaniu Dzieci przez AFP otrzymało ponad 33,000 XNUMX zgłoszeń o wykorzystywaniu dzieci w Internecie, a każdy raport może zawierać duże ilości zdjęć i filmów przedstawiających napastowanie seksualne lub wykorzystywanie dzieci w celu zaspokojenia przestępców” powiedziany w tym tygodniu.

Dalins jest także współdyrektorem AiLECS Lab, współpracy badawczej pomiędzy naukowcami z Wydziału Technologii Informacyjnych Monash a AFP, która realizuje projekt My Pictures Matter.

„Przeglądanie tego przerażającego materiału może być powolnym procesem, a ciągłe narażenie może powodować znaczne cierpienie psychiczne u śledczych” – dodał. „Inicjatywy AiLECS Lab będą wspierać policjantów i dzieci, które staramy się chronić; a naukowcy wymyślili innowacyjny sposób etycznego rozwijania technologii stojących za takimi inicjatywami”.

Najłatwiejszym sposobem skompilowania dużego zestawu danych zdjęć jest przeszukanie otwartego Internetu. Ale, jak niektóre z najnowszych modeli AI – takich jak OpenAI DALL E 2 i Google Obraz – wykazali, że jakość tych danych jest trudna do kontrolowania. Do zbioru danych mogą wkradać się tendencyjne lub nieodpowiednie obrazy, przez co modele stają się problematyczne i potencjalnie mniej skuteczne.

Zamiast tego zespół AiLECS wierzy, że ich kampania crowdsourcingowa zapewnia łatwiejszy i bardziej etyczny sposób zbierania zdjęć dzieci. „Aby opracować sztuczną inteligencję, która może identyfikować obrazy wykorzystujące eksploatację, potrzebujemy bardzo dużej liczby zdjęć dzieci w codziennych „bezpiecznych” kontekstach, które mogą trenować i oceniać modele sztucznej inteligencji przeznaczone do zwalczania wykorzystywania dzieci” – Campbell Wilson, współdyrektor AiLECS i powiedział profesor nadzwyczajny na Uniwersytecie Monash.

Pozyskując zdjęcia od osób dorosłych, poprzez świadomą zgodę, staramy się budować technologie, które są etycznie odpowiedzialne i przejrzyste

„Ale pozyskiwanie tych zdjęć z Internetu jest problematyczne, gdy nie ma możliwości sprawdzenia, czy dzieci na tych zdjęciach rzeczywiście wyraziły zgodę na przesłanie ich zdjęć lub wykorzystanie ich do badań. Pozyskując zdjęcia od dorosłych, poprzez świadomą zgodę, staramy się budować technologie, które są etycznie odpowiedzialne i przejrzyste.”

W ramach kampanii użytkownicy muszą jedynie przesłać swoje osobiste zdjęcia i adres e-mail. Nina Lewis, kierownik projektu i pracownik naukowy w laboratorium, powiedziała, że ​​nie będzie ono rejestrowało żadnych innych rodzajów danych osobowych. Powiedziano nam, że adresy e-mail będą przechowywane w osobnej bazie danych. 

„Obrazy i powiązane dane nie będą zawierać żadnych informacji identyfikujących, dzięki czemu obrazy wykorzystywane przez badaczy nie mogą ujawniać żadnych danych osobowych o osobach, które są przedstawiane” – powiedziała. Uczestnicy będą otrzymywać aktualizacje na każdym etapie projektu i mogą poprosić o usunięcie swoich obrazów z zestawu danych, jeśli zechcą.

Szczytne cele projektu nie są technicznie niemożliwe i są bardzo ambitne, więc nie możemy się doczekać wyników, biorąc pod uwagę wyzwania stojące przed systemami rozpoznawania obrazu, takimi jak stronniczość i ataki przeciwstawne między innymi Ograniczenia.

Rejestr poprosił Uniwersytet Monash o dalsze szczegóły. ®

Zaktualizowano i dodano 6 czerwca

Doktor Lewis z Monash skontaktował się z nami i przekazał więcej szczegółów. Powiedziała nam, że celem jest zbudowanie zbioru danych składającego się ze 100,000 XNUMX unikalnych obrazów w celu wytrenowania modelu sztucznej inteligencji.

„Będziemy wykorzystywać zdjęcia jako dane szkoleniowe i testowe dla nowych i istniejących algorytmów identyfikujących i klasyfikujących „bezpieczne” zdjęcia dzieci” – dodała. „Będziemy również badać, w jaki sposób można zastosować te technologie do oceny, czy pliki cyfrowe zawierają „niebezpieczne” zdjęcia dzieci.

„Projekt My Pictures Matter nie szkoli sztucznej inteligencji na obrazach dzieci w niebezpiecznych sytuacjach. Badamy scenariusz odwrotny: jak stworzyć zbiory danych pochodzące z etycznych źródeł i za zgodą użytkownika do wykorzystania w uczeniu maszynowym, aby pomóc uporać się z rosnącą liczbą obrazów przedstawiających wykorzystywanie dzieci generowanych i rozpowszechnianych za pośrednictwem platform internetowych”.

W odpowiedzi na niektóre Państwa uwagi budzące obawy co do możliwości systemów uczenia maszynowego dr Lewis dodał: „Wiemy, że zautomatyzowane narzędzia muszą być czymś więcej niż tępymi instrumentami i że na przykład obecność dużej części odcienia skóry na obrazie wizualnym samo w sobie nie wskazuje na nadużycie”.

Osobom zaniepokojonym ochroną prywatności danych dr Lewis wskazał sekcję „obsługa danych” na mypicturesmatter.org po kliknięciu „Chodźmy”, która stwierdza:

* Zdjęcia i wszelkie inne podane przez Ciebie informacje będą przechowywane przez laboratorium AiLECS przy użyciu infrastruktury informatycznej Uniwersytetu Monash i/lub bezpiecznych usług w chmurze z serwerami zlokalizowanymi w Australii. Zbiór danych nie będzie przechowywany w żadnych „otwartych” repozytoriach, jednakże opis zbioru danych może być widoczny w publicznych rejestrach danych.

* Dostęp będzie ograniczony do upoważnionych członków zespołu badawczego. Inni badacze mogą uzyskać dostęp do zdjęć wyłącznie pod warunkiem zatwierdzenia formalnych procesów etycznych, jeśli wyrazili Państwo na to zgodę. Możesz zaktualizować swoje preferencje dotyczące udostępniania danych w dowolnym momencie, wysyłając wiadomość e-mail na adres mypicturesmatter@ailecs.org.

* Dane badawcze będą przechowywane przez co najmniej 5 lat po zakończeniu projektów wykorzystujących ten zbiór danych. Zapisy dokumentujące zgodę będą przechowywane do czasu usunięcia zbioru danych badawczych.

Podkreśliła również, że zdjęcia zebrane w ramach projektu będą przechowywane i wykorzystywane przez uniwersytet, a nie bezpośrednio przez policję.

„To nie jest zbiór danych policyjnych i nie będzie przechowywany ani zarządzany przez AFP” – powiedział nam dr Lewis. „Badania te prowadzi Uniwersytet Monash, który posiada formalne zezwolenie na prowadzenie badań etycznych na ludziach w zakresie gromadzenia, wykorzystywania i zarządzania danymi”.

Znak czasu:

Więcej z Rejestr