Ville AI Police Bots være et tryggere alternativ i fremtiden? PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Ville AI Police Bots være et tryggere alternativ i fremtiden?

Kunstig intelligens (AI) blir raskt et verdifullt verktøy i de fleste bransjer. Disse programvaresystemene kan sortere gjennom enorme mengder data på en brøkdel av tiden det vil ta en menneskelig analytiker å gjøre det samme.

AI-systemer har blitt avgjørende innen helsevesen og farmasøytisk forskning, detaljhandel, markedsføring, finans og mer. Noen talsmenn har til og med vurdert bruken av denne teknologien i rettshåndhevelse. Ville AI politiroboter være et tryggere alternativ i fremtiden?

"Den vanligste bruken av AI i politiarbeid akkurat nå er ansiktsgjenkjenning - overvåking av enkeltpersoners ansikter i områder som får mye trafikk som togstasjoner eller viktige hendelser." 

Fordeler med AI i politiarbeid

Hele verden er gjennomsyret av teknologi. Alt fra mobiltelefonen i lommen eller vesken til den smarte teknologien som gjør hjemmelivet enklere, er avhengig av et av de mange programmeringsspråkene som driver verden. Moderne politiarbeid er intet unntak. Den vanligste bruken av AI i politiarbeid akkurat nå er ansiktsgjenkjenning – overvåking av enkeltpersoners ansikter i områder som får mye trafikk, som togstasjoner eller viktige hendelser.

Kroppskameraer samler inn enorme mengder videoopptak, som alle kan brukes som bevis på en forbrytelse. Selv om det er mulig å se gjennom disse videoopptakene manuelt, er det ikke et effektivt alternativ. Et AI-system kan sortere gjennom opptakene, lete etter mønstre eller identifisere informasjon på en brøkdel av tiden det vil ta for en menneskelig analytiker å fullføre den samme oppgaven.

«Roboter kan bli verdifulle verktøy for bevisinnsamling. Roboter har ikke hår eller hudceller som kan forurense et åsted, noe som sikrer en bedre varetektskjede." 

Axon, landets største produsent av kroppskameraer fra politiet, piloterte et slikt program i 2014, og hevdet at dens AI kunne beskrive hendelsene vist i kroppskameraopptak nøyaktig. I 2019 har de besluttet å ikke kommersialisere programmeringen. Testing viste at programmene ga upålitelig og ulik identifikasjon på tvers av ulike raser og etnisiteter.

Roboter kan bli verdifulle verktøy for bevisinnsamling. Roboter har ikke hår eller hudceller som kan forurense et åsted, sikre en bedre varetektskjede. Det betyr også færre feil som kan forhindre en domfellelse eller etterlate en uskyldig person i fengsel anklaget for en forbrytelse de ikke har begått.

Dessverre er sikkerhetsroboter foreløpig ikke de smarteste verktøyene i verktøyet. En sikkerhetsrobot ved navn Steve ble programmert til å patruljere Washington Harbor-komplekset ved elvebredden i Washington, DC i stedet, den rullet ned trappene og forsøkte å drukne seg i en fontene.

"Omfattende tilsyn ville være nødvendig for å introdusere enhver AI-drevet politirobot til styrken" 

Farene ved AI Police Bots

Den viktigste risikoen ligger i det faktum at mennesker fortsatt programmerer disse enhetene og som sådan er utsatt for menneskelige skjevheter. Hvordan kan programmerere lage et objektivt AI-system når de lærer disse nettverkene hvordan de skal tenke og fullføre oppgavene sine? Det er det samme problemet som selvkjørende biler er står overfor Trolley-problemet tankeøvelse. Lærer de systemet å drepe én person for å redde fem, eller bestemmer de seg rett og slett ikke?

Omfattende tilsyn vil være nødvendig for å introdusere enhver AI-drevet politirobot til styrken. Uten dette tilsynet er det lite eller ingenting som hindrer noen i å programmere disse systemene for å målrette BIPOC-individer. Verktøy laget for å redde liv og forhindre kriminalitet kan lett forvandles til verktøy for undertrykkelse.

Google viste allerede at dette var en mulighet i 2017 med en av de tidligste inkarnasjonene av deres naturlige språkbehandlings-AI. Homofobi var skrevet inn i kjerneprogrammeringen, og gir negative vurderinger til alle søk som involverte ordet «homofil». Google har siden løst problemet og beklaget den programmerte skjevheten. Likevel viser denne feilen hvor lett det ville være for denne teknologien å bli misbrukt, selv om skjevheten ikke er bevisst.

Kunstig intelligens har lenge vært den foretrukne antagonisten innen futuristisk underholdning. Publikum har sett det omtalt i mange franchiser gjennom årene, og nesten alle disse antagonistene har én ting til felles: AI fastslår at mennesker ikke lenger er i stand til å ta vare på seg selv, så de tar ekstreme tiltak – inkludert å ødelegge menneskeslekten – å "beskytte" menneskeheten fra seg selv.

AI-politiroboter vil sannsynligvis ikke gå så langt, men det er ikke AI-en som vekker frykt – det er bekymringen for at teknologien kan utnyttes, og sette sårbare samfunn i fare.

Skape en tryggere fremtid

Kunstig intelligens og verktøyene den støtter blir en del av vårt daglige liv, men det betyr ikke at teknologien er uten risiko. AI kan bidra til å beskytte mennesker ved å forhindre eller løse forbrytelser, men det kan lett utnyttes til å skade BIPOC og lokalsamfunn.

AI politiroboter er sannsynligvis fremtidens bølge, men de trenger mye arbeid før lokalsamfunn kan stole på at de beskytter alle uavhengig av farge eller tro.

Les også Fremtiden for robotikk på innenlandske felt

Tidstempel:

Mer fra AIIOT-teknologi