Ovatko tekoälypoliisirobotit turvallisempi vaihtoehto tulevaisuudessa? PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Ovatko tekoälypoliisirobotit turvallisempi vaihtoehto tulevaisuudessa?

Tekoälystä (AI) on nopeasti tulossa arvokas työkalu useimmilla toimialoilla. Nämä ohjelmistojärjestelmät pystyvät lajittelemaan valtavia tietomääriä murto-osassa ajasta, joka ihmisanalyytikon suorittamiseen kuluisi.

Tekoälyjärjestelmistä on tullut elintärkeitä terveydenhuollon ja lääketutkimuksen, vähittäiskaupan, markkinoinnin, rahoituksen ja muiden alalla. Jotkut kannattajat ovat jopa harkinneet tämän tekniikan käyttöä lainvalvonnassa. Ovatko AI poliisibotit turvallisempi vaihtoehto tulevaisuudessa?

"Tekoälyn yleisin käyttö poliisityössä tällä hetkellä on kasvojentunnistus – ihmisten kasvojen tarkkailu alueilla, joilla on paljon liikennettä, kuten rautatieasemilla tai merkittävissä tapahtumissa." 

Tekoälyn edut poliisityössä

Koko maailma on täynnä teknologiaa. Kaikki matkapuhelimesta taskussa tai laukussa kodin elämää helpottavaan älykkääseen tekniikkaan perustuu yhteen monista ohjelmointikielistä, jotka hallitsevat maailmaa. Nykyaikainen poliisityö ei ole poikkeus. Tekoälyn yleisin käyttö poliisityössä tällä hetkellä on kasvojentunnistus – henkilöiden kasvojen tarkkailu alueilla, joilla on paljon liikennettä, kuten juna-asemilla tai merkittävissä tapahtumissa.

Vartalokamerat keräävät valtavia määriä videomateriaalia, joita kaikkia voidaan käyttää todisteina rikoksesta. Vaikka tämän videomateriaalin tarkistaminen manuaalisesti on mahdollista, se ei ole tehokas vaihtoehto. Tekoälyjärjestelmä pystyy lajittelemaan materiaalin, etsimään kuvioita tai tunnistamaan tietoja murto-osassa ajasta, joka ihmisanalyytikon suorittamiseen kuluisi saman tehtävän suorittamiseen.

"Roboteista voi tulla arvokkaita todisteiden keräämisen työkaluja. Roboteilla ei ole hiuksia tai ihosoluja, jotka voisivat saastuttaa rikospaikan, mikä takaa paremman valvontaketjun.” 

Axon, maan suurin poliisin vartalokameroiden valmistaja, pilotoi tällaista ohjelmaa vuonna 2014 väittäen, että sen tekoäly pystyi kuvaamaan vartalokameran kuvauksissa näkyvät tapahtumat tarkasti. Vuonna 2019 he päätti olla kaupallistamatta ohjelmointi. Testaus osoitti, että ohjelmat tarjosivat epäluotettavaa ja epätasa-arvoista tunnistautumista eri rotujen ja etnisten ryhmien välillä.

Roboteista voi tulla arvokkaita todisteiden keräämisen työkaluja. Roboteilla ei ole hiuksia tai ihosoluja, jotka voisivat saastuttaa rikospaikan, varmistaa paremman alkuperäketjun. Se tarkoittaa myös vähemmän virheitä, jotka voivat estää tuomion tai jättää viattoman henkilön vankilaan syytettynä rikoksesta, jota hän ei ole tehnyt.

Valitettavasti turvarobotit eivät ole tällä hetkellä työkalupalstan älykkäimpiä työkaluja. Steve-niminen turvarobotti ohjelmoitiin partioimaan Washington DC:n joen varrella sijaitsevaa Washington Harbor -kompleksia. se rullasi alas portaita ja yritti hukuttaa itsensä suihkulähteeseen.

"Kattava valvonta olisi tarpeen, jotta kaikki tekoälyllä toimivat poliisirobotit voitaisiin ottaa käyttöön joukkoihin" 

Tekoälyn poliisibottien vaarat

Merkittävin riski piilee siinä, että ihmiset edelleen ohjelmoivat näitä laitteita ja ovat sellaisenaan alttiina ihmisten harhaan. Kuinka ohjelmoijat voivat luoda puolueettoman tekoälyjärjestelmän, kun he opettavat näille verkostoille ajattelemaan ja suorittamaan tehtävänsä? Se on sama ongelma kuin itseajavissa autoissa vaunuongelman edessä ajatusharjoitus. Opettavatko he järjestelmän tappamaan yhden ihmisen pelastaakseen viisi, vai eivät yksinkertaisesti päätä?

Kattava valvonta olisi tarpeen, jotta kaikki tekoälyllä toimivat poliisirobotit voitaisiin ottaa käyttöön. Ilman tätä valvontaa mikään ei estä ketään ohjelmoimasta näitä järjestelmiä kohdentamaan BIPOC-henkilöitä. Työkaluja, jotka on suunniteltu pelastamaan ihmishenkiä ja ehkäisemään rikollisuutta, voidaan helposti muuttaa sorron työkaluiksi.

Google osoitti tämän olevan mahdollista jo vuonna 2017 yhdellä heidän luonnollisen kielenkäsittelynsä tekoälyn varhaisimmista inkarnaatioista. Homofobia oli kirjoitettu sen ydinohjelmointiin, antaa negatiiviset arviot kaikille hauille, jotka sisälsivät sanan "homo". Google on sittemmin korjannut ongelman ja pyytänyt anteeksi ohjelmoitua harhaa. Silti tämä virhe osoittaa, kuinka helppoa tämän tekniikan olisi väärinkäyttää, vaikka harha ei olisikaan tietoinen.

Tekoäly on pitkään ollut futuristisen viihteen suosikki antagonisti. Yleisö on nähnyt sen esiintyneen monissa franchise-ohjelmissa vuosien varrella, ja melkein kaikilla näillä antagonisteilla on yksi yhteinen piirre: tekoäly määrittää, että ihmiset eivät enää pysty huolehtimaan itsestään, joten he ryhtyvät äärimmäisiin toimenpiteisiin – mukaan lukien ihmiskunnan tuhoaminen – "suojellakseen" ihmiskuntaa itseltään.

Tekoälypoliisirobotit eivät todennäköisesti menis niin pitkälle, mutta tekoäly ei herätä pelkoa, vaan pelko siitä, että tekniikkaa voidaan hyödyntää, jolloin haavoittuvat yhteisöt ovat vaarassa.

Turvallisemman tulevaisuuden luominen

Tekoälystä ja sen tukemista työkaluista on tulossa osa jokapäiväistä elämäämme, mutta se ei tarkoita, että teknologia olisi riskitön. Tekoäly voisi auttaa suojelemaan ihmisiä ehkäisemällä tai ratkaisemalla rikoksia, mutta sitä voidaan helposti käyttää hyväksi BIPOCin ja yhteisöjen vahingoittamiseen.

Tekoälypoliisirobotit ovat luultavasti tulevaisuuden aalto, mutta ne vaativat paljon työtä, ennen kuin yhteisöt voivat luottaa niihin suojelemaan kaikkia väristä tai uskonnosta riippumatta.

Lue myös Robotiikan tulevaisuus kotikentällä

Aikaleima:

Lisää aiheesta AIIOT-tekniikka