Os bots policiais de IA seriam uma alternativa mais segura no futuro? Inteligência de dados PlatoBlockchain. Pesquisa vertical. Ai.

Os bots policiais de IA seriam uma alternativa mais segura no futuro?

A inteligência artificial (IA) está rapidamente se tornando uma ferramenta valiosa na maioria dos setores. Esses sistemas de software podem classificar grandes quantidades de dados em uma fração do tempo que um analista humano levaria para fazer o mesmo.

Os sistemas de IA tornaram-se vitais em cuidados de saúde e pesquisa farmacêutica, varejo, marketing, finanças e muito mais. Alguns proponentes até consideraram o uso dessa tecnologia na aplicação da lei. Os bots policiais de IA seriam uma alternativa mais segura no futuro?

“O uso mais comum da IA ​​no trabalho policial no momento é o reconhecimento facial – monitorando os rostos dos indivíduos em áreas que recebem muito tráfego, como estações de trem ou eventos significativos.” 

Benefícios da IA ​​no trabalho policial

O mundo inteiro está mergulhado em tecnologia. Tudo, desde o celular no bolso ou na bolsa até a tecnologia inteligente que torna a vida doméstica mais fácil, depende de uma das muitas linguagens de programação que alimentam o mundo. O trabalho policial moderno não é exceção. O uso mais comum da IA ​​no trabalho policial no momento é reconhecimento facial – monitorar rostos de pessoas em áreas com muito tráfego, como estações de trem ou eventos significativos.

As câmeras corporais coletam grandes quantidades de imagens de vídeo, todas as quais podem ser usadas como evidência de um crime. Embora seja possível revisar essas imagens de vídeo manualmente, não é uma opção eficiente. Um sistema de IA pode classificar as imagens, procurando padrões ou identificando informações em uma fração do tempo que levaria para um analista humano concluir a mesma tarefa.

“Os robôs podem se tornar ferramentas valiosas para coleta de evidências. Os robôs não possuem células capilares ou cutâneas que possam contaminar uma cena de crime, garantindo uma melhor cadeia de custódia” 

A Axon, maior produtora de câmeras corporais de policiais do país, pilotou um programa desse tipo em 2014, alegando que sua IA poderia descrever os eventos mostrados em imagens de câmeras corporais com precisão. Em 2019, eles decidiu não comercializar a programação. Os testes mostraram que os programas forneciam identificação não confiável e desigual em várias raças e etnias.

Robôs podem se tornar ferramentas valiosas para coleta de evidências. Robôs não têm células de cabelo ou pele que possam contaminar uma cena de crime, garantindo uma melhor cadeia de custódia. Também significa menos erros que poderiam impedir uma condenação ou deixar uma pessoa inocente na prisão acusada de um crime que não cometeu.

Infelizmente, os robôs de segurança não são atualmente as ferramentas mais inteligentes no galpão de ferramentas. Um robô de segurança chamado Steve foi programado para patrulhar o complexo do porto de Washington à beira do rio em Washington, DC. ele desceu as escadas e tentou se afogar em uma fonte.

“Seria necessária uma supervisão abrangente para introduzir qualquer robô policial com inteligência artificial na força” 

Perigos dos bots policiais de IA

O risco mais significativo reside no fato de que os humanos ainda programam esses dispositivos e, como tal, estão sujeitos a vieses humanos. Como os programadores podem criar um sistema de IA imparcial ao ensinar essas redes a pensar e concluir suas tarefas? É o mesmo problema que os carros autônomos são enfrentando o problema do bonde exercício de pensamento. Eles ensinam o sistema a matar uma pessoa para salvar cinco, ou simplesmente não decidem?

Uma supervisão abrangente seria necessária para introduzir qualquer robô policial com inteligência artificial na força. Sem essa supervisão, há pouco ou nada impedindo alguém de programar esses sistemas para atingir indivíduos BIPOC. Ferramentas projetadas para salvar vidas e prevenir crimes podem ser facilmente transformadas em ferramentas de opressão.

O Google já mostrou que isso era uma possibilidade em 2017 com uma das primeiras encarnações de sua IA de processamento de linguagem natural. A homofobia era escrito em sua programação principal, dando classificações negativas a todas as pesquisas que envolvem a palavra "gay". Desde então, o Google corrigiu o problema e pediu desculpas pelo viés programado. Ainda assim, esse erro mostra como seria fácil para essa tecnologia ser abusada, mesmo que o preconceito não seja consciente.

A inteligência artificial tem sido o antagonista favorito no entretenimento futurista. O público viu isso em muitas franquias ao longo dos anos, e quase todos esses antagonistas têm uma coisa em comum: a IA determina que os humanos não são mais capazes de cuidar de si mesmos, então eles tomam medidas extremas – incluindo destruir a raça humana – para “proteger” a humanidade de si mesma.

Os bots da polícia de IA provavelmente não iriam tão longe, mas não é a IA que provoca medo – é a preocupação de que a tecnologia possa ser explorada, deixando comunidades vulneráveis ​​em risco.

Criando um futuro mais seguro

A inteligência artificial e as ferramentas que ela suporta estão se tornando parte de nossa vida cotidiana, mas isso não significa que a tecnologia esteja isenta de riscos. A IA pode ajudar a proteger as pessoas prevenindo ou resolvendo crimes, mas pode ser facilmente explorada para prejudicar o BIPOC e as comunidades.

Os bots policiais de IA provavelmente são a onda do futuro, mas eles precisam de muito trabalho antes que as comunidades possam confiar neles para proteger todos, independentemente de cor ou credo.

Leia também Futuro da Robótica no Campo Doméstico

Carimbo de hora:

Mais de Tecnologia AIOT