Czy boty policyjne AI byłyby bezpieczniejszą alternatywą w przyszłości? Analiza danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Czy boty policyjne AI byłyby bezpieczniejszą alternatywą w przyszłości?

Sztuczna inteligencja (AI) szybko staje się cennym narzędziem w większości branż. Te systemy oprogramowania mogą sortować ogromne ilości danych w ułamku czasu, który zajęłoby ludzkiemu analitykowi zrobienie tego samego.

Systemy sztucznej inteligencji stały się niezbędne w opiece zdrowotnej i badaniach farmaceutycznych, handlu detalicznym, marketingu, finansach i nie tylko. Niektórzy zwolennicy rozważali nawet wykorzystanie tej technologii w egzekwowaniu prawa. Czy boty policyjne AI byłyby bezpieczniejszą alternatywą w przyszłości?

„Najczęstszym zastosowaniem sztucznej inteligencji w pracy policji jest obecnie rozpoznawanie twarzy – monitorowanie twarzy osób w obszarach o dużym natężeniu ruchu, takich jak stacje kolejowe lub ważne wydarzenia”. 

Korzyści ze sztucznej inteligencji w pracy policji

Cały świat jest przesiąknięty technologią. Wszystko, od telefonu komórkowego w kieszeni lub torebce po inteligentne technologie ułatwiające życie domowe, opiera się na jednym z wielu języków programowania, które napędzają świat. Współczesna praca policji nie jest wyjątkiem. Najczęstsze zastosowanie AI w pracy policji w tej chwili jest rozpoznawanie twarzy – monitorowanie twarzy osób w miejscach o dużym natężeniu ruchu, takich jak stacje kolejowe lub ważne wydarzenia.

Kamery na ciele gromadzą ogromne ilości materiału wideo, z których wszystkie można wykorzystać jako dowód przestępstwa. Chociaż ręczne przeglądanie tego materiału wideo jest możliwe, nie jest to skuteczna opcja. System sztucznej inteligencji może sortować nagranie, szukając wzorców lub identyfikując informacje w ułamku czasu, jaki zajęłoby ludzkiemu analitykowi wykonanie tego samego zadania.

„Roboty mogą stać się cennymi narzędziami do zbierania dowodów. Roboty nie mają komórek włosów ani skóry, które mogłyby zanieczyścić miejsce zbrodni, co zapewnia lepszy łańcuch dowodowy” 

Axon, największy w kraju producent kamer policyjnych, pilotował taki program w 2014 roku, twierdząc, że jego sztuczna inteligencja może dokładnie opisać zdarzenia pokazane na materiale z kamery ciała. W 2019 roku postanowiłem nie komercjalizować programowanie. Testy wykazały, że programy zapewniały niewiarygodną i nierówną identyfikację wśród różnych ras i grup etnicznych.

Roboty mogą stać się cennymi narzędziami do zbierania dowodów. Roboty nie mają komórek włosów ani skóry, które mogłyby zanieczyścić miejsce zbrodni, zapewnienie lepszego łańcucha dostaw. Oznacza to również mniej błędów, które mogą uniemożliwić skazanie lub pozostawić niewinną osobę w więzieniu oskarżoną o przestępstwo, którego nie popełniła.

Niestety roboty zabezpieczające nie są obecnie najmądrzejszymi narzędziami w szopie. Robot bezpieczeństwa o imieniu Steve został zaprogramowany do patrolowania nadrzecznego kompleksu Washington Harbor w Waszyngtonie. stoczył się po schodach i próbował utopić się w fontannie.

„Konieczny byłby kompleksowy nadzór, aby wprowadzić do sił dowolny robot policyjny zasilany sztuczną inteligencją” 

Niebezpieczeństwa związane z robotami policyjnymi AI

Największe ryzyko polega na tym, że ludzie nadal programują te urządzenia i jako takie podlegają ludzkim uprzedzeniom. W jaki sposób programiści mogą stworzyć bezstronny system sztucznej inteligencji, ucząc te sieci, jak myśleć i wykonywać swoje zadania? To ten sam problem, co samochody autonomiczne w obliczu Problemu Wózka ćwiczenie myśli. Czy uczą system zabijania jednej osoby, aby uratować pięć, czy po prostu nie decydują?

Kompleksowy nadzór byłby niezbędny, aby wprowadzić do sił policyjnych robotów wykorzystujących sztuczną inteligencję. Bez tego nadzoru niewiele lub nic nie stoi na przeszkodzie, by ktoś zaprogramował te systemy tak, by atakowały osoby z BIPOC. Narzędzia zaprojektowane do ratowania życia i zapobiegania przestępczości można łatwo przekształcić w narzędzia ucisku.

Google już pokazało, że jest to możliwe w 2017 roku z jednym z najwcześniejszych wcieleń sztucznej inteligencji przetwarzającej język naturalny. Homofobia była wpisane w jego podstawowe programowanie, wystawianie negatywnych ocen wszystkim wyszukiwaniom, które zawierały słowo „wesoły”. Od tego czasu Google naprawił problem i przeprosił za zaprogramowane stronniczość. Jednak ten błąd pokazuje, jak łatwo byłoby nadużywać tej technologii, nawet jeśli stronniczość nie jest świadoma.

Sztuczna inteligencja od dawna jest ulubionym antagonistą futurystycznej rozrywki. Widzowie widzieli go w wielu seriach na przestrzeni lat, a prawie wszyscy ci antagoniści mają jedną wspólną cechę: sztuczna inteligencja określa, że ​​ludzie nie są już w stanie zadbać o siebie, więc podejmują ekstremalne środki – w tym niszczą rasę ludzką – by „chronić” ludzkość przed samą sobą.

Boty policyjne AI prawdopodobnie nie posunęłyby się tak daleko, ale to nie sztuczna inteligencja wzbudza strach – to obawa, że ​​technologia może zostać wykorzystana, narażając wrażliwe społeczności.

Tworzenie bezpieczniejszej przyszłości

Sztuczna inteligencja i wspierane przez nią narzędzia stają się częścią naszego codziennego życia, ale to nie znaczy, że technologia jest pozbawiona ryzyka. Sztuczna inteligencja może pomóc chronić ludzi poprzez zapobieganie przestępstwom lub ich rozwiązywanie, ale można ją łatwo wykorzystać do zaszkodzenia BIPOC i społecznościom.

Boty policyjne AI są prawdopodobnie falą przyszłości, ale potrzebują dużo pracy, zanim społeczności będą mogły zaufać im, że będą chronić wszystkich, bez względu na kolor skóry czy wyznanie.

Przeczytaj także Przyszłość robotyki w gospodarstwie domowym

Znak czasu:

Więcej z Technologia AIOT