El laboratorio policial quiere que las imágenes de su infancia feliz entrenen a la IA para detectar el abuso infantil PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

El laboratorio de la policía quiere que las imágenes de su infancia feliz entrenen a la IA para detectar el abuso infantil

Actualizado La policía federal de Australia y la Universidad de Monash están pidiendo a los internautas que envíen fotos de ellos mismos cuando eran más jóvenes para entrenar un algoritmo de aprendizaje automático para detectar abuso infantil en fotografías.

Los investigadores buscan recopilar imágenes de personas menores de 17 años en escenarios seguros; No quieren desnudos, ni siquiera si se trata de una imagen relativamente inocua, como la de un niño bañándose. La campaña de crowdsourcing, denominada Mis fotos importan, está abierto a personas mayores de 18 años, quienes pueden dar su consentimiento para que sus fotografías se utilicen con fines de investigación.

Todas las imágenes se acumularán en un conjunto de datos administrado por académicos de Monash en un intento de entrenar un modelo de inteligencia artificial para diferenciar entre un menor en un entorno normal y una situación insegura y de explotación. El software podría, en teoría, ayudar a las fuerzas del orden a identificar mejor, de forma automática y rápida, material de abuso sexual infantil (también conocido como CSAM) entre miles y miles de fotografías bajo investigación, evitando que analistas humanos inspeccionen cada instantánea.

Revisar este horrible material puede ser un proceso lento.

La principal agente de policía de la Policía Federal Australiana, Janis Dalins, dijo que la IA resultante podría ayudar a identificar a las víctimas y detectar material ilegal que los agentes no conocían previamente.

“En 2021, el Centro Australiano para Contrarrestar la Explotación Infantil dirigido por AFP recibió más de 33,000 informes de explotación infantil en línea y cada informe puede contener grandes volúmenes de imágenes y videos de niños agredidos sexualmente o explotados para la gratificación de los delincuentes”, dijo. dijo esta semana.

Dalins también es codirector de AiLECS Lab, la colaboración de investigación entre académicos de la Facultad de Tecnología de la Información de Monash y la AFP que dirige el proyecto My Pictures Matter.

“Revisar este material horrible puede ser un proceso lento y la exposición constante puede causar una angustia psicológica significativa a los investigadores”, agregó. “Las iniciativas de AiLECS Lab apoyarán a los oficiales de policía ya los niños que estamos tratando de proteger; y los investigadores han pensado en una forma innovadora de desarrollar éticamente la tecnología detrás de tales iniciativas”.

La forma más fácil de compilar un gran conjunto de datos de imágenes es raspar la Internet abierta. Pero, como algunos de los últimos modelos de IA, como OpenAI DESDE EL 2 y de Google Imagen – han demostrado, la calidad de estos datos es difícil de controlar. Las imágenes sesgadas o inapropiadas pueden infiltrarse en el conjunto de datos, lo que hace que los modelos sean problemáticos y potencialmente menos efectivos.

En cambio, el equipo de AiLECS cree que su campaña de crowdsourcing proporciona una forma más fácil y ética de recopilar fotografías de niños. "Para desarrollar una IA que pueda identificar imágenes explotadoras, necesitamos una gran cantidad de fotografías de niños en contextos 'seguros' cotidianos que puedan entrenar y evaluar los modelos de IA destinados a combatir la explotación infantil", Campbell Wilson, codirector de AiLECS y un profesor asociado en la Universidad de Monash, dijo.

Al obtener fotografías de adultos, a través del consentimiento informado, estamos tratando de construir tecnologías que sean éticamente responsables y transparentes.

“Pero obtener estas imágenes de Internet es problemático cuando no hay forma de saber si los niños en esas imágenes realmente han dado su consentimiento para que sus fotografías se carguen o se usen para investigación. Al obtener fotografías de adultos, a través del consentimiento informado, estamos tratando de construir tecnologías que sean éticamente responsables y transparentes”.

Las personas sólo necesitan enviar sus fotografías personales y una dirección de correo electrónico como parte de la campaña. Nina Lewis, líder del proyecto e investigadora en el laboratorio, dijo que no registraría ningún otro tipo de información personal. Se nos dice que las direcciones de correo electrónico se almacenarán en una base de datos separada. 

“Las imágenes y los datos relacionados no incluirán ninguna información de identificación, lo que garantiza que las imágenes utilizadas por los investigadores no puedan revelar ninguna información personal sobre las personas representadas”, dijo. Los participantes recibirán actualizaciones en cada etapa del proyecto y pueden solicitar eliminar sus imágenes del conjunto de datos si lo desean.

Los nobles objetivos del proyecto no son técnicamente imposibles y son muy ambiciosos, por lo que estamos ansiosos por ver los resultados, dados los desafíos que enfrentan los sistemas de reconocimiento de imágenes, como parcialidad y ataques adversos entre otros limitaciones.

El registro ha pedido a la Universidad de Monash más detalles. ®

Actualizado para agregar el 6 de junio

El Dr. Lewis de Monash se ha puesto en contacto con algunos detalles más. Nos dijo que el objetivo es crear un conjunto de datos de 100,000 imágenes únicas para entrenar el modelo de IA.

"Utilizaremos las fotografías como datos de entrenamiento y prueba para algoritmos nuevos y existentes que identifican y clasifican imágenes 'seguras' de niños", añadió. “También investigaremos cómo se pueden aplicar esas tecnologías para evaluar si los archivos digitales contienen imágenes 'inseguras' de niños.

“El proyecto My Pictures Matter no entrena IA con imágenes de niños en situaciones inseguras. Estamos investigando el escenario opuesto: cómo crear conjuntos de datos consentidos y de origen ético para su uso en el aprendizaje automático para ayudar a abordar el creciente volumen de imágenes de abuso infantil que se generan y distribuyen a través de plataformas en línea”.

En respuesta a algunos de sus comentarios que plantean preocupaciones sobre la capacidad de los sistemas de aprendizaje automático, el Dr. Lewis añadió: "Reconocemos que las herramientas automatizadas deben ser más que instrumentos contundentes y que, por ejemplo, la presencia de una alta proporción de tono de piel en una imagen visual no indica por sí solo abuso”.

Para aquellos preocupados por las salvaguardas de la privacidad de los datos, el Dr. Lewis señaló la sección "manejo de datos" en mypicturesmatter.org después de hacer clic en "Vamos", que dice:

* Las fotos y cualquier otra información que proporcione serán almacenadas por el laboratorio AiLECS utilizando la infraestructura de TI de la Universidad de Monash y/o servicios seguros en la nube con servidores ubicados en Australia. El conjunto de datos no se alojará en ningún repositorio "abierto", sin embargo, una descripción del conjunto de datos puede estar visible en los registros de datos públicos.

*El acceso estará restringido a miembros autorizados del equipo de investigación. A otros investigadores solo se les podrá conceder acceso a las imágenes condicionado a la aprobación de procesos éticos formales, en los que usted haya dado su permiso. Puede actualizar sus preferencias para compartir datos en cualquier momento enviándonos un correo electrónico a mypicturesmatter@ailecs.org.

* Los datos de la investigación se conservarán durante un mínimo de 5 años después de la finalización de cualquier proyecto que utilice el conjunto de datos. Los registros que documenten el consentimiento se conservarán hasta que se haya eliminado el conjunto de datos de la investigación.

También enfatizó que las imágenes recopiladas para el proyecto serán conservadas y utilizadas por la universidad, y no directamente por la policía.

"Este no es un conjunto de datos policiales y la AFP no lo conservará ni lo gestionará", nos dijo el Dr. Lewis. "Esta investigación está siendo realizada por la Universidad de Monash, con autorización formal de ética de investigación en humanos sobre cómo se recopilan, utilizan y gestionan los datos".

Sello de tiempo:

Mas de El registro