Wären KI-Polizei-Bots in Zukunft eine sicherere Alternative? PlatoBlockchain-Datenintelligenz. Vertikale Suche. Ai.

Wären KI-Polizei-Bots in Zukunft eine sicherere Alternative?

Künstliche Intelligenz (KI) wird in den meisten Branchen schnell zu einem wertvollen Werkzeug. Diese Softwaresysteme können riesige Datenmengen in einem Bruchteil der Zeit sortieren, die ein menschlicher Analyst dafür benötigen würde.

KI-Systeme sind im Gesundheitswesen und in der pharmazeutischen Forschung, im Einzelhandel, im Marketing, im Finanzwesen und mehr unverzichtbar geworden. Einige Befürworter haben sogar den Einsatz dieser Technologie in der Strafverfolgung in Betracht gezogen. Wären KI-Polizei-Bots in Zukunft eine sicherere Alternative?

„Die häufigste Anwendung für KI in der Polizeiarbeit ist derzeit die Gesichtserkennung – die Überwachung der Gesichter von Personen in Bereichen mit viel Verkehr wie Bahnhöfen oder wichtigen Ereignissen.“ 

Vorteile von KI in der Polizeiarbeit

Die ganze Welt ist von Technologie durchdrungen. Alles, vom Mobiltelefon in der Hosen- oder Handtasche bis hin zur intelligenten Technik, die das Leben zu Hause erleichtert, beruht auf einer der vielen Programmiersprachen, die die Welt antreiben. Moderne Polizeiarbeit ist da keine Ausnahme. Die derzeit häufigste Verwendung für KI in der Polizeiarbeit ist die Gesichtserkennung – Überwachung der Gesichter von Personen in stark frequentierten Bereichen wie Bahnhöfen oder bedeutenden Ereignissen.

Bodycams sammeln riesige Mengen an Videomaterial, die alle als Beweis für ein Verbrechen verwendet werden können. Die manuelle Überprüfung dieses Videomaterials ist zwar möglich, aber keine effiziente Option. Ein KI-System kann das Filmmaterial sortieren, nach Mustern suchen oder Informationen in einem Bruchteil der Zeit identifizieren, die ein menschlicher Analyst für dieselbe Aufgabe benötigen würde.

„Roboter könnten zu wertvollen Werkzeugen für die Beweiserhebung werden. Roboter haben keine Haare oder Hautzellen, die einen Tatort kontaminieren könnten, wodurch eine bessere Beweiskette sichergestellt wird.“ 

Axon, der landesweit größte Hersteller von Polizei-Bodycams, führte 2014 ein solches Programm ein und behauptete, seine KI könne die in Bodycam-Aufnahmen gezeigten Ereignisse genau beschreiben. 2019 haben sie entschieden, nicht zu kommerzialisieren die Programmierung. Tests zeigten, dass die Programme eine unzuverlässige und ungleiche Identifizierung über verschiedene Rassen und Ethnien hinweg ermöglichten.

Roboter könnten zu wertvollen Werkzeugen für die Beweiserhebung werden. Roboter haben keine Haare oder Hautzellen, die einen Tatort kontaminieren könnten, Gewährleistung einer besseren Produktkette. Es bedeutet auch weniger Fehler, die eine Verurteilung verhindern oder eine unschuldige Person im Gefängnis lassen könnten, die eines Verbrechens beschuldigt wird, das sie nicht begangen hat.

Leider sind Sicherheitsroboter derzeit nicht die intelligentesten Werkzeuge im Werkzeugschuppen. Ein Sicherheitsroboter namens Steve wurde programmiert, um den am Fluss gelegenen Washington Harbor-Komplex in Washington, DC, zu patrouillieren. es rollte die Treppe hinunter und versuchte, sich in einem Brunnen zu ertränken.

„Eine umfassende Aufsicht wäre notwendig, um einen KI-betriebenen Polizeiroboter in die Truppe einzuführen.“ 

Gefahren von KI-Polizei-Bots

Das größte Risiko liegt darin, dass Menschen diese Geräte immer noch programmieren und somit menschlichen Vorurteilen unterliegen. Wie können Programmierer ein unvoreingenommenes KI-System schaffen, wenn sie diesen Netzwerken beibringen, wie sie denken und ihre Aufgaben erledigen sollen? Es ist das gleiche Problem wie bei selbstfahrenden Autos mit dem Trolley-Problem konfrontiert Gedankenübung. Bringen sie dem System bei, eine Person zu töten, um fünf zu retten, oder entscheiden sie sich einfach nicht?

Um einen KI-betriebenen Polizeiroboter in die Truppe einzuführen, wäre eine umfassende Aufsicht erforderlich. Ohne diese Aufsicht hindert wenig bis nichts jemanden daran, diese Systeme so zu programmieren, dass sie BIPOC-Personen ansprechen. Werkzeuge, die dazu bestimmt sind, Leben zu retten und Kriminalität zu verhindern, könnten leicht zu Werkzeugen der Unterdrückung werden.

Google hat dies bereits 2017 mit einer der frühesten Inkarnationen seiner KI zur Verarbeitung natürlicher Sprache gezeigt. Homophobie war in seine Kernprogrammierung geschrieben, wodurch alle Suchanfragen, die das Wort „schwul“ enthielten, negativ bewertet wurden. Google hat das Problem inzwischen behoben und sich für die programmierte Voreingenommenheit entschuldigt. Dennoch zeigt dieser Fehler, wie einfach es für diese Technologie wäre, missbraucht zu werden, selbst wenn die Voreingenommenheit nicht bewusst ist.

Künstliche Intelligenz ist seit langem der bevorzugte Antagonist in der futuristischen Unterhaltung. Das Publikum hat es im Laufe der Jahre in vielen Franchises gesehen, und fast alle dieser Antagonisten haben eines gemeinsam: Die KI stellt fest, dass Menschen nicht mehr in der Lage sind, für sich selbst zu sorgen, und ergreift daher extreme Maßnahmen – einschließlich der Zerstörung der menschlichen Rasse – die Menschheit vor sich selbst zu „schützen“.

KI-Polizei-Bots würden wahrscheinlich nicht so weit gehen, aber es ist nicht die KI, die Angst auslöst – es ist die Sorge, dass die Technologie ausgenutzt werden könnte und gefährdete Gemeinschaften gefährdet.

Eine sicherere Zukunft schaffen

Künstliche Intelligenz und die von ihr unterstützten Tools werden Teil unseres täglichen Lebens, aber das bedeutet nicht, dass die Technologie ohne Risiken ist. KI könnte helfen, Menschen zu schützen, indem sie Verbrechen verhindert oder aufklärt, aber sie könnte leicht ausgenutzt werden, um BIPOC und Gemeinschaften zu schaden.

KI-Polizei-Bots sind wahrscheinlich die Welle der Zukunft, aber sie brauchen viel Arbeit, bevor die Gemeinschaften darauf vertrauen können, dass sie jeden schützen, unabhängig von Hautfarbe oder Glaubensbekenntnis.

Lesen Sie auch Zukunft der Robotik im häuslichen Bereich

Zeitstempel:

Mehr von AIIOT-Technologie