AI 경찰봇이 미래에 더 안전한 대안이 될까요? PlatoBlockchain 데이터 인텔리전스. 수직 검색. 일체 포함.

AI 경찰 봇이 미래에 더 안전한 대안이 될까요?

인공 지능(AI)은 대부분의 산업 분야에서 빠르게 가치 있는 도구가 되고 있습니다. 이러한 소프트웨어 시스템은 분석가가 동일한 작업을 수행하는 데 걸리는 시간보다 훨씬 짧은 시간에 방대한 양의 데이터를 분류할 수 있습니다.

AI 시스템은 의료 및 제약 연구, 소매, 마케팅, 금융 등에서 필수적인 요소가 되었습니다. 일부 지지자들은 법 집행에서 이 기술의 사용을 고려하기도 했습니다. AI 경찰 봇이 미래에 더 안전한 대안이 될까요?

"현재 경찰 업무에서 AI의 가장 일반적인 용도는 기차역이나 중요한 행사와 같이 교통량이 많은 지역에서 개인의 얼굴을 모니터링하는 얼굴 인식입니다." 

경찰 업무에서 AI의 이점

전 세계가 기술에 젖어 있습니다. 주머니나 지갑에 든 휴대폰부터 가정 생활을 더 쉽게 만들어주는 스마트 기술에 이르기까지 모든 것이 세상을 움직이는 많은 프로그래밍 언어 중 하나에 의존합니다. 현대의 경찰 업무도 예외는 아닙니다. 현재 경찰 업무에서 가장 많이 사용되는 AI 안면인식이다 – 기차역이나 중요한 행사와 같이 교통량이 많은 지역에서 개인의 얼굴을 모니터링합니다.

바디캠은 범죄 증거로 사용될 수 있는 방대한 양의 비디오를 수집합니다. 이 비디오 푸티지를 수동으로 검토하는 것은 가능하지만 효율적인 옵션은 아닙니다. AI 시스템은 인간 분석가가 동일한 작업을 완료하는 데 걸리는 시간보다 훨씬 짧은 시간 내에 영상을 분류하여 패턴을 찾거나 정보를 식별할 수 있습니다.

“로봇은 증거 수집을 위한 귀중한 도구가 될 수 있습니다. 로봇에는 범죄 현장을 오염시킬 수 있는 머리카락이나 피부 세포가 없으므로 더 나은 관리 체계를 보장합니다.” 

미국 최대의 경찰 바디 카메라 생산업체인 Axon은 2014년에 이러한 프로그램을 시범 운영했으며, AI가 바디 캠 영상에 표시된 사건을 정확하게 설명할 수 있다고 주장했습니다. 2019년, 그들은 상용화하지 않기로 결정 프로그래밍. 테스트 결과 프로그램이 다양한 인종과 민족에 걸쳐 신뢰할 수 없고 불평등한 식별을 제공하는 것으로 나타났습니다.

로봇은 증거 수집을 위한 귀중한 도구가 될 수 있습니다. 로봇에는 범죄 현장을 오염시킬 수 있는 머리카락이나 피부 세포가 없습니다. 더 나은 관리 체인 보장. 그것은 또한 유죄 판결을 막거나 자신이 저지르지 않은 범죄로 무고한 사람을 감옥에 보낼 수 있는 오류가 적다는 것을 의미합니다.

불행히도 보안 로봇은 현재 도구 창고에서 가장 똑똑한 도구가 아닙니다. 스티브라는 이름의 보안 로봇은 워싱턴 DC에 있는 강변 워싱턴 하버 단지를 순찰하도록 프로그래밍되었습니다. 그것은 계단을 굴러 떨어졌다 그리고 분수에 몸을 던지려 했습니다.

"AI로 구동되는 경찰 로봇을 군대에 도입하려면 포괄적인 감독이 필요할 것" 

AI 경찰 봇의 위험

가장 중요한 위험은 인간이 여전히 이러한 장치를 프로그래밍하고 있기 때문에 인간의 편견에 영향을 받는다는 사실에 있습니다. 이러한 네트워크에 생각하고 작업을 완료하는 방법을 가르칠 때 프로그래머가 어떻게 편향되지 않은 AI 시스템을 만들 수 있습니까? 자율주행차가 문제다. 트롤리 문제에 직면 생각 연습. XNUMX명을 구하기 위해 XNUMX명을 죽이는 시스템을 가르치는 건가요, 아니면 그냥 결정하지 않는 건가요?

AI로 구동되는 경찰 로봇을 군대에 도입하려면 포괄적인 감독이 필요합니다. 이러한 감독 없이는 누군가가 BIPOC 개인을 대상으로 이러한 시스템을 프로그래밍하는 것을 막는 것이 거의 없습니다. 생명을 구하고 범죄를 예방하기 위해 고안된 도구는 쉽게 압제 도구로 왜곡될 수 있습니다.

Google은 이미 2017년에 자연어 처리 AI의 초기 구현 중 하나를 통해 이것이 가능성이 있음을 보여주었습니다. 동성애 공포증 핵심 프로그래밍에 작성, "게이"라는 단어와 관련된 모든 검색에 부정적인 평가를 제공합니다. Google은 이후 문제를 수정하고 프로그래밍된 편향에 대해 사과했습니다. 그럼에도 불구하고 이 오류는 편견이 의식하지 않더라도 이 기술이 얼마나 쉽게 남용될 수 있는지 보여줍니다.

인공 지능은 오랫동안 미래 엔터테인먼트에서 선호되는 적대자였습니다. 청중은 수년 동안 많은 프랜차이즈에 등장하는 것을 보았고 이러한 적대자 거의 모두에는 한 가지 공통점이 있습니다. AI는 인간이 더 이상 스스로를 돌볼 수 없다고 판단하여 인류를 파괴하는 등 극단적인 조치를 취합니다. 인류를 "보호"하기 위해.

AI 경찰 봇은 그렇게까지 가지 않을 것 같지만 두려움을 촉발하는 것은 AI가 아닙니다. 기술이 악용되어 취약한 커뮤니티를 위험에 빠뜨릴 수 있다는 우려입니다.

더 안전한 미래 만들기

인공 지능과 인공 지능이 지원하는 도구가 일상 생활의 일부가 되고 있지만 그렇다고 해서 기술에 위험이 없는 것은 아닙니다. AI는 범죄를 예방하거나 해결하여 사람들을 보호하는 데 도움이 될 수 있지만 BIPOC와 커뮤니티에 해를 입히기 위해 쉽게 악용될 수 있습니다.

AI 경찰 봇은 아마도 미래의 물결일 것입니다. 하지만 커뮤니티가 피부색이나 신념에 관계없이 모든 사람을 보호하기 위해 신뢰할 수 있으려면 많은 작업이 필요합니다.

또한 읽어 국내 로봇의 미래

타임 스탬프 :

더보기 AIOT 기술