¿Serían los robots policiales con IA una alternativa más segura en el futuro? PlatoBlockchain Inteligencia de Datos. Búsqueda vertical. Ai.

¿Serán los bots policiales con IA una alternativa más segura en el futuro?

La inteligencia artificial (IA) se está convirtiendo rápidamente en una herramienta valiosa en la mayoría de las industrias. Estos sistemas de software pueden clasificar cantidades masivas de datos en una fracción del tiempo que le tomaría a un analista humano hacer lo mismo.

Los sistemas de IA se han vuelto vitales en la atención médica y la investigación farmacéutica, el comercio minorista, el marketing, las finanzas y más. Algunos defensores incluso han considerado el uso de esta tecnología en la aplicación de la ley. ¿Serían los bots policiales de IA una alternativa más segura en el futuro?

“El uso más común de la IA en el trabajo policial en este momento es el reconocimiento facial: monitorear los rostros de las personas en áreas que tienen mucho tráfico, como estaciones de tren o eventos importantes”. 

Beneficios de la IA en el trabajo policial

El mundo entero está inmerso en la tecnología. Todo, desde el teléfono móvil en un bolsillo o cartera hasta la tecnología inteligente que facilita la vida en el hogar, depende de uno de los muchos lenguajes de programación que impulsan el mundo. El trabajo policial moderno no es una excepción. El uso más común de la IA en el trabajo policial en este momento es reconocimiento facial – monitorear las caras de las personas en áreas que tienen mucho tráfico, como estaciones de tren o eventos importantes.

Las cámaras corporales recopilan cantidades masivas de secuencias de video, todas las cuales pueden usarse como evidencia de un delito. Si bien es posible revisar este video manualmente, no es una opción eficiente. Un sistema de inteligencia artificial puede clasificar las imágenes, buscar patrones o identificar información en una fracción del tiempo que le tomaría a un analista humano completar la misma tarea.

“Los robots podrían convertirse en herramientas valiosas para la recolección de evidencia. Los robots no tienen pelo ni células de la piel que puedan contaminar la escena del crimen, lo que garantiza una mejor cadena de custodia”. 

Axon, el mayor productor de cámaras corporales policiales del país, puso a prueba un programa de este tipo en 2014, alegando que su IA podía describir con precisión los eventos que se muestran en las imágenes de la cámara corporal. En 2019, ellos decidió no comercializar la programación Las pruebas mostraron que los programas proporcionaron una identificación desigual y poco confiable entre varias razas y etnias.

Los robots podrían convertirse en valiosas herramientas para la recopilación de pruebas. Los robots no tienen pelo ni células de la piel que puedan contaminar la escena del crimen. asegurando una mejor cadena de custodia. También significa menos errores que podrían evitar una condena o dejar a una persona inocente en la cárcel acusada de un delito que no cometió.

Desafortunadamente, los robots de seguridad no son actualmente las herramientas más inteligentes en el cobertizo de herramientas. Un robot de seguridad llamado Steve fue programado para patrullar el complejo del puerto de Washington junto al río en Washington, DC En cambio, rodó por las escaleras e intentó ahogarse en una fuente.

“Sería necesaria una supervisión integral para introducir cualquier robot policial impulsado por IA a la fuerza” 

Peligros de los bots policiales de IA

El riesgo más significativo radica en el hecho de que los humanos aún programan estos dispositivos y, como tales, están sujetos a sesgos humanos. ¿Cómo pueden los programadores crear un sistema de IA imparcial al enseñar a estas redes cómo pensar y completar sus tareas? Es el mismo problema que tienen los coches autónomos frente al Problema del Trolebús ejercicio de pensamiento. ¿Le enseñan al sistema a matar a una persona para salvar a cinco, o simplemente no se decide?

Sería necesaria una supervisión integral para introducir cualquier robot policial impulsado por IA en la fuerza. Sin esta supervisión, hay poco o nada que impida que alguien programe estos sistemas para dirigirse a personas BIPOC. Las herramientas diseñadas para salvar vidas y prevenir el crimen podrían convertirse fácilmente en herramientas de opresión.

Google ya mostró que esto era una posibilidad en 2017 con una de las primeras encarnaciones de su IA de procesamiento de lenguaje natural. La homofobia era escrito en su programación central, otorgando calificaciones negativas a cualquier búsqueda que involucre la palabra "gay". Desde entonces, Google solucionó el problema y se disculpó por el sesgo programado. Aún así, este error muestra lo fácil que sería abusar de esta tecnología, incluso si el sesgo no es consciente.

La inteligencia artificial ha sido durante mucho tiempo el antagonista favorito en el entretenimiento futurista. El público lo ha visto en muchas franquicias a lo largo de los años, y casi todos estos antagonistas tienen una cosa en común: la IA determina que los humanos ya no son capaces de cuidar de sí mismos, por lo que toman medidas extremas, incluida la destrucción de la raza humana. para “proteger” a la humanidad de sí misma.

Es probable que los bots policiales de IA no lleguen tan lejos, pero no es la IA lo que genera miedo, es la preocupación de que la tecnología pueda ser explotada, poniendo en riesgo a las comunidades vulnerables.

Creando un futuro más seguro

La inteligencia artificial y las herramientas que admite se están convirtiendo en parte de nuestra vida diaria, pero eso no significa que la tecnología esté libre de riesgos. La IA podría ayudar a proteger a las personas al prevenir o resolver delitos, pero podría explotarse fácilmente para dañar a BIPOC y a las comunidades.

Los bots policiales de IA son probablemente la ola del futuro, pero necesitan mucho trabajo antes de que las comunidades puedan confiar en ellos para proteger a todos, independientemente del color o el credo.

Lea también Futuro de la robótica en el campo doméstico

Sello de tiempo:

Mas de Tecnología AIIOT