Ville AI Police Bots være et sikrere alternativ i fremtiden? PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Ville AI Police Bots være et sikrere alternativ i fremtiden?

Kunstig intelligens (AI) er hurtigt ved at blive et værdifuldt værktøj på tværs af de fleste brancher. Disse softwaresystemer kan sortere gennem enorme mængder data på en brøkdel af den tid, det ville tage en menneskelig analytiker at gøre det samme.

AI-systemer er blevet afgørende inden for sundhedspleje og farmaceutisk forskning, detailhandel, marketing, finans og meget mere. Nogle tilhængere har endda overvejet brugen af ​​denne teknologi i retshåndhævelsen. Ville AI politibots være et sikrere alternativ i fremtiden?

"Den mest almindelige brug af kunstig intelligens i politiets arbejde lige nu er ansigtsgenkendelse – overvågning af personers ansigter i områder, der får meget trafik som togstationer eller vigtige begivenheder." 

Fordele ved kunstig intelligens i politiarbejde

Hele verden er gennemsyret af teknologi. Alt fra mobiltelefonen i lommen eller pungen til den smarte teknologi, der gør hjemmet lettere, afhænger af et af de mange programmeringssprog, der driver verden. Moderne politiarbejde er ingen undtagelse. Den mest almindelige brug af AI i politiarbejde lige nu er ansigtsgenkendelse – overvågning af personers ansigter i områder, hvor der er meget trafik, såsom togstationer eller væsentlige begivenheder.

Body cams indsamler enorme mængder af videooptagelser, som alle kan bruges som bevis på en forbrydelse. Selvom det er muligt at gennemse disse videooptagelser manuelt, er det ikke en effektiv mulighed. Et AI-system kan sortere gennem optagelserne, lede efter mønstre eller identificere information på en brøkdel af den tid, det ville tage for en menneskelig analytiker at udføre den samme opgave.

"Robotter kan blive værdifulde værktøjer til bevisindsamling. Robotter har ikke hår eller hudceller, der kan forurene et gerningssted, hvilket sikrer en bedre varetægtskæde." 

Axon, landets største producent af politi-kropskameraer, piloterede et sådant program i 2014 og hævdede, at dets AI kunne beskrive de begivenheder, der blev vist i kropskamera-optagelser nøjagtigt. I 2019 har de besluttet ikke at kommercialisere programmeringen. Test viste, at programmerne gav upålidelig og ulige identifikation på tværs af forskellige racer og etniciteter.

Robotter kan blive værdifulde værktøjer til bevisindsamling. Robotter har ikke hår eller hudceller, der kan forurene et gerningssted, at sikre en bedre kæde af forældremyndighed. Det betyder også færre fejl, der kan forhindre en domfældelse eller efterlade en uskyldig person i fængsel anklaget for en forbrydelse, de ikke har begået.

Desværre er sikkerhedsrobotter i øjeblikket ikke de smarteste værktøjer i værktøjsrummet. En sikkerhedsrobot ved navn Steve blev programmeret til at patruljere Washington Harbor-komplekset ved floden i Washington DC i stedet, den trillede ned ad trappen og forsøgte at drukne sig selv i et springvand.

"Omfattende tilsyn ville være nødvendigt for at introducere enhver AI-drevet politirobot til styrken" 

Farerne ved AI Police Bots

Den største risiko ligger i det faktum, at mennesker stadig programmerer disse enheder og som sådan er underlagt menneskelige skævheder. Hvordan kan programmører skabe et upartisk AI-system, når de lærer disse netværk at tænke og udføre deres opgaver? Det er det samme problem, som selvkørende biler er står over for Trolley-problemet tankeøvelse. Lærer de systemet at dræbe én person for at redde fem, eller beslutter de sig simpelthen ikke?

Omfattende tilsyn ville være nødvendigt for at introducere enhver AI-drevet politirobot til styrken. Uden dette tilsyn er der lidt til intet, der forhindrer nogen i at programmere disse systemer til at målrette BIPOC-individer. Værktøjer designet til at redde liv og forhindre kriminalitet kunne nemt forvandles til undertrykkelsesredskaber.

Google viste allerede, at dette var en mulighed i 2017 med en af ​​de tidligste inkarnationer af deres naturlige sprogbehandlings-AI. Homofobi var skrevet ind i sin kerneprogrammering, at give negative vurderinger til alle søgninger, der involverede ordet "homo". Google har siden løst problemet og undskyldt for den programmerede skævhed. Alligevel viser denne fejl, hvor let det ville være for denne teknologi at blive misbrugt, selvom skævheden ikke er bevidst.

Kunstig intelligens har længe været den foretrukne antagonist inden for futuristisk underholdning. Publikum har set det optræde i mange franchises gennem årene, og næsten alle disse antagonister har én ting til fælles: AI bestemmer, at mennesker ikke længere er i stand til at tage vare på sig selv, så de tager ekstreme forholdsregler – herunder ødelægger den menneskelige race – at "beskytte" menneskeheden mod sig selv.

AI-politibots ville sandsynligvis ikke gå så langt, men det er ikke AI'en, der vækker frygt – det er bekymringen for, at teknologien kunne udnyttes, hvilket efterlader sårbare samfund i fare.

At skabe en sikrere fremtid

Kunstig intelligens og de værktøjer, den understøtter, er ved at blive en del af vores daglige liv, men det betyder ikke, at teknologien er uden risici. AI kunne hjælpe med at beskytte folk ved at forhindre eller opklare forbrydelser, men det kan nemt udnyttes til at skade BIPOC og lokalsamfund.

AI politibots er sandsynligvis fremtidens bølge, men de har brug for en masse arbejde, før samfund kan stole på, at de beskytter alle uanset farve eller tro.

Læs også Fremtiden for robotteknologi i hjemmet

Tidsstempel:

Mere fra AIIOT teknologi