Kas tehisintellekti politseibotid oleksid tulevikus turvalisem alternatiiv? PlatoBlockchaini andmete luure. Vertikaalne otsing. Ai.

Kas tehisintellekti politseibotid oleksid tulevikus turvalisem alternatiiv?

Tehisintellektist (AI) on kiiresti saamas väärtuslik tööriist enamikus tööstusharudes. Need tarkvarasüsteemid suudavad sorteerida tohutul hulgal andmeid murdosa ajast, mis kuluks inimanalüütikul sama tegemiseks.

AI-süsteemid on muutunud ülioluliseks tervishoiu- ja farmaatsiauuringutes, jaemüügis, turunduses, rahanduses ja mujal. Mõned pooldajad on isegi kaalunud selle tehnoloogia kasutamist õiguskaitses. Kas tehisintellekti politseibotid oleksid tulevikus turvalisem alternatiiv?

"Praegu on politseitöös tehisintellekti kõige levinum kasutusala näotuvastus – inimeste nägude jälgimine piirkondades, kus on palju liiklust, näiteks rongijaamades või olulistes sündmustes." 

AI eelised politseitöös

Kogu maailm on tehnoloogiast läbi imbunud. Kõik, alates mobiiltelefonist taskus või rahakotis kuni kodu elu lihtsamaks muutva nutika tehnoloogiani, tugineb ühele paljudest programmeerimiskeeltest, mis maailma toidavad. Kaasaegne politseitöö pole erand. Tehisintellekti kõige levinum kasutusviis politseitöös praegu on näotuvastus – inimeste nägude jälgimine piirkondades, kus on palju liiklust, nagu raudteejaamad või olulised sündmused.

Kerekaamerad koguvad tohutul hulgal videomaterjali, mida saab kasutada kuriteo tõendina. Kuigi selle videomaterjali käsitsi ülevaatamine on võimalik, pole see tõhus valik. AI-süsteem suudab materjali sorteerida, otsides mustreid või tuvastades teavet murdosa ajast, mis kulub inimanalüütikul sama ülesande täitmiseks.

"Robotid võivad saada väärtuslikeks tööriistadeks tõendite kogumiseks. Robotitel ei ole juukse- ega naharakke, mis võiksid kuriteopaiga saastada, tagades parema valveahela. 

Riigi suurim politsei kehakaamerate tootja Axon piloteeris sellist programmi 2014. aastal, väites, et selle tehisintellekt suudab kehakaamera kaadrites näidatud sündmusi täpselt kirjeldada. Aastal 2019 nad otsustas mitte kommertsialiseerida programmeerimine. Testimine näitas, et programmid võimaldasid erinevate rasside ja rahvuste vahel ebausaldusväärset ja ebavõrdset tuvastamist.

Robotid võivad saada väärtuslikeks vahenditeks tõendite kogumisel. Robotitel ei ole juukseid ega naharakke, mis võiksid kuriteopaiga saastada, parema järelevalveahela tagamine. See tähendab ka vähem vigu, mis võivad ära hoida süüdimõistva kohtuotsuse või jätta süütu inimese vanglasse, süüdistatuna kuriteos, mida ta toime ei pannud.

Kahjuks ei ole turvarobotid praegu tööriistakuuri kõige targemad tööriistad. Turvarobot nimega Steve programmeeriti patrullima Washingtoni DC jõeäärses Washingtoni sadamakompleksis. see veeres trepist alla ja üritas end purskkaevu uputada.

"Iga tehisintellektiga töötava politseiroboti tutvustamiseks relvajõududesse oleks vaja põhjalikku järelevalvet" 

AI politseibotite ohud

Kõige olulisem oht ​​seisneb selles, et inimesed ikka veel programmeerivad neid seadmeid ja on seetõttu inimeste eelarvamuste all. Kuidas saavad programmeerijad luua erapooletu AI-süsteemi, kui nad õpetavad neile võrkudele mõtlema ja oma ülesandeid täitma? See on sama probleem, mis isejuhtivate autodega silmitsi käruprobleemiga mõtteharjutus. Kas nad õpetavad süsteemi tapma ühe inimese, et päästa viis, või lihtsalt ei otsustata?

Iga tehisintellektiga töötava politseiroboti tutvustamiseks relvajõududele oleks vaja põhjalikku järelevalvet. Ilma selle järelevalveta ei takista keegi neid süsteeme BIPOC-i isikute sihtimiseks programmeerimast. Inimeste päästmiseks ja kuritegevuse ärahoidmiseks loodud tööriistu saab hõlpsasti muuta rõhumise tööriistadeks.

Google näitas juba 2017. aastal, et see on võimalik, kui nende loomuliku keele töötlemise tehisintellekt oli üks varasemaid kehastusi. Homofoobia oli kirjutatud selle põhiprogrammi, andes negatiivse hinnangu kõikidele otsingutele, mis sisaldasid sõna „gei”. Google on pärast seda probleemi lahendanud ja vabandanud programmeeritud eelarvamuste pärast. Sellegipoolest näitab see viga, kui lihtne oleks seda tehnoloogiat kuritarvitada, isegi kui eelarvamus pole teadlik.

Tehisintellekt on pikka aega olnud futuristliku meelelahutuse eelistatud antagonist. Publik on seda aastate jooksul näinud paljudes frantsiisides ja peaaegu kõigil neil antagonistidel on üks ühine joon: tehisintellekt teeb kindlaks, et inimesed ei ole enam võimelised enda eest hoolitsema, mistõttu nad võtavad kasutusele äärmuslikud meetmed, sealhulgas inimrassi hävitamise. "kaitsta" inimkonda iseenda eest.

AI politseirobotid tõenäoliselt nii kaugele ei jõuaks, kuid AI ei tekita hirmu – see on mure, et tehnoloogiat võidakse ära kasutada, jättes haavatavad kogukonnad ohtu.

Turvalisema tuleviku loomine

Tehisintellekt ja selle toetatavad tööriistad on muutumas meie igapäevaelu osaks, kuid see ei tähenda, et tehnoloogia oleks ilma riskideta. AI võib aidata inimesi kaitsta kuritegusid ennetades või lahendades, kuid seda saab hõlpsasti ära kasutada BIPOCi ja kogukondade kahjustamiseks.

AI politseirobotid on ilmselt tulevikulaine, kuid nad vajavad palju tööd, enne kui kogukonnad saavad usaldada neid kaitsma kõiki, olenemata värvist või usutunnistusest.

Samuti loe Robootika tulevik kodumaal

Ajatempel:

Veel alates AIIOT tehnoloogia