Zouden AI-politiebots in de toekomst een veiliger alternatief zijn? PlatoBlockchain-gegevensintelligentie. Verticaal zoeken. Ai.

Zouden AI-politiebots in de toekomst een veiliger alternatief zijn?

Kunstmatige intelligentie (AI) wordt in de meeste sectoren snel een waardevol hulpmiddel. Deze softwaresystemen kunnen enorme hoeveelheden gegevens verwerken in een fractie van de tijd die een menselijke analist nodig zou hebben om hetzelfde te doen.

AI-systemen zijn van vitaal belang geworden in gezondheidszorg en farmaceutisch onderzoek, detailhandel, marketing, financiรซn en meer. Sommige voorstanders hebben zelfs het gebruik van deze technologie bij wetshandhaving overwogen. Zouden AI-politiebots in de toekomst een veiliger alternatief zijn?

"Het meest voorkomende gebruik van AI in politiewerk op dit moment is gezichtsherkenning - het bewaken van de gezichten van individuen in gebieden met veel verkeer, zoals treinstations of belangrijke evenementen." 

Voordelen van AI in politiewerk

De hele wereld is doordrenkt van technologie. Alles, van de mobiele telefoon in een zak of tas tot de slimme technologie die het leven thuis gemakkelijker maakt, is afhankelijk van een van de vele programmeertalen die de wereld van stroom voorzien. Het moderne politiewerk is daarop geen uitzondering. Het meest voorkomende gebruik voor AI in politiewerk op dit moment is gezichtsherkenning โ€“ het bewaken van de gezichten van personen in gebieden met veel verkeer, zoals treinstations of belangrijke evenementen.

Bodycams verzamelen enorme hoeveelheden videobeelden, die allemaal kunnen worden gebruikt als bewijs van een misdrijf. Hoewel het handmatig bekijken van deze videobeelden mogelijk is, is het geen efficiรซnte optie. Een AI-systeem kan de beelden doorzoeken, patronen zoeken of informatie identificeren in een fractie van de tijd die een menselijke analist nodig zou hebben om dezelfde taak uit te voeren.

โ€œRobots kunnen waardevolle hulpmiddelen worden voor het verzamelen van bewijsmateriaal. Robots hebben geen haar- of huidcellen die een plaats delict zouden kunnen besmetten, wat zorgt voor een betere chain of custodyโ€ 

Axon, 's lands grootste producent van politiecamera's, voerde een dergelijk programma in 2014 uit en beweerde dat de AI de gebeurtenissen die in lichaamscamerabeelden worden getoond nauwkeurig kon beschrijven. In 2019 hebben ze besloten om niet te commercialiseren de programmering. Testen toonden aan dat de programma's onbetrouwbare en ongelijke identificatie verschaften over verschillende rassen en etniciteiten.

Robots kunnen waardevolle hulpmiddelen worden voor het verzamelen van bewijsmateriaal. Robots hebben geen haar- of huidcellen die een plaats delict kunnen besmetten, zorgen voor een betere chain of custody. Het betekent ook minder fouten die een veroordeling kunnen voorkomen of een onschuldig persoon in de gevangenis kunnen achterlaten die wordt beschuldigd van een misdaad die ze niet hebben begaan.

Helaas zijn beveiligingsrobots momenteel niet de slimste tools in de gereedschapsschuur. Een beveiligingsrobot genaamd Steve was geprogrammeerd om te patrouilleren in het Washington Harbor-complex aan de rivier in Washington, DC. het rolde de trap af en probeerde zichzelf te verdrinken in een fontein.

"Uitgebreid toezicht zou nodig zijn om elke door AI aangedreven politierobot bij de politie te introduceren" 

Gevaren van AI-politiebots

Het grootste risico ligt in het feit dat mensen deze apparaten nog steeds programmeren en als zodanig onderhevig zijn aan menselijke vooroordelen. Hoe kunnen programmeurs een onbevooroordeeld AI-systeem creรซren wanneer ze deze netwerken leren denken en hun taken uitvoeren? Het is hetzelfde probleem als zelfrijdende auto's geconfronteerd met het trolleyprobleem gedachte oefening. Leren ze het systeem om รฉรฉn persoon te doden om er vijf te redden, of beslissen ze gewoon niet?

Uitgebreid toezicht zou nodig zijn om elke door AI aangedreven politierobot bij de politie te introduceren. Zonder dit toezicht is er weinig tot niets dat iemand ervan weerhoudt deze systemen te programmeren om zich op BIPOC-individuen te richten. Instrumenten die zijn ontworpen om levens te redden en misdaad te voorkomen, kunnen gemakkelijk worden omgezet in instrumenten van onderdrukking.

Google liet in 2017 al zien dat dit mogelijk was met een van de vroegste incarnaties van hun natuurlijke taalverwerkings-AI. Homofobie was geschreven in de kernprogrammering, het geven van negatieve beoordelingen aan zoekopdrachten die het woord 'homo' bevatten. Google heeft het probleem sindsdien opgelost en verontschuldigde zich voor de geprogrammeerde vooringenomenheid. Toch laat deze fout zien hoe gemakkelijk het zou zijn om deze technologie te misbruiken, zelfs als de vooringenomenheid niet bewust is.

Kunstmatige intelligentie is al lang de favoriete antagonist in futuristisch entertainment. Het publiek heeft het in de loop der jaren in veel franchises gezien, en bijna al deze antagonisten hebben รฉรฉn ding gemeen: de AI bepaalt dat mensen niet langer in staat zijn om voor zichzelf te zorgen, dus nemen ze extreme maatregelen - waaronder het vernietigen van het menselijk ras - om de mensheid tegen zichzelf te โ€˜beschermenโ€™.

AI-politiebots zouden waarschijnlijk niet zo ver gaan, maar het is niet de AI die angst oproept - het is de zorg dat de technologie kan worden uitgebuit, waardoor kwetsbare gemeenschappen in gevaar komen.

Een veiligere toekomst creรซren

Kunstmatige intelligentie en de tools die het ondersteunt, worden een onderdeel van ons dagelijks leven, maar dat betekent niet dat de technologie zonder risico's is. AI kan mensen helpen beschermen door misdaden te voorkomen of op te lossen, maar het kan gemakkelijk worden uitgebuit om BIPOC en gemeenschappen schade toe te brengen.

AI-politiebots zijn waarschijnlijk de golf van de toekomst, maar ze hebben veel werk nodig voordat gemeenschappen erop kunnen vertrouwen dat ze iedereen beschermen, ongeacht kleur of geloofsovertuiging.

Lees ook Toekomst van robotica op huishoudelijk gebied

Tijdstempel:

Meer van AIIOT-technologie