Чи будуть поліцейські боти ШІ безпечнішою альтернативою в майбутньому? PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Чи будуть поліцейські боти ШІ безпечнішою альтернативою в майбутньому?

Штучний інтелект (ШІ) швидко стає цінним інструментом у більшості галузей. Ці програмні системи можуть сортувати величезні обсяги даних за частку часу, який знадобився б людині-аналітику, щоб зробити те саме.

Системи ШІ стали життєво важливими в охороні здоров’я та фармацевтичних дослідженнях, роздрібній торгівлі, маркетингу, фінансах тощо. Деякі прихильники навіть розглядали можливість використання цієї технології в правоохоронних органах. Чи будуть поліцейські боти ШІ безпечнішою альтернативою в майбутньому?

«Найпоширенішим використанням штучного інтелекту в поліцейських роботах зараз є розпізнавання облич – моніторинг облич людей у ​​місцях з великим трафіком, наприклад на вокзалах або на значущих подіях». 

Переваги ШІ в роботі поліції

Весь світ просякнутий технологіями. Усе, від мобільного телефону в кишені чи сумочці до розумних технологій, що полегшують домашнє життя, покладається на одну з багатьох мов програмування, які живлять у світі. Сучасна поліцейська робота не є винятком. Зараз найпоширеніший спосіб використання ШІ в роботі поліції це розпізнавання обличчя – відстеження облич людей у ​​місцях із великим трафіком, наприклад на вокзалах чи значних подіях.

Натільні камери збирають величезну кількість відеозаписів, усі вони можуть бути використані як докази злочину. Хоча перегляд цього відеозапису вручну можливий, це неефективний варіант. Система штучного інтелекту може сортувати відзнятий матеріал, шукаючи закономірності або ідентифікуючи інформацію за частку часу, який знадобиться людині-аналітику для виконання того самого завдання.

«Роботи можуть стати цінними інструментами для збору доказів. Роботи не мають волосся чи клітин шкіри, які могли б забруднити місце злочину, що забезпечує кращий ланцюжок контролю». 

Axon, найбільший у країні виробник поліцейських натільних камер, пілотував таку програму в 2014 році, стверджуючи, що його штучний інтелект може точно описувати події, показані на кадрах натільних камер. У 2019 році вони вирішив не комерціалізувати програмування. Тестування показало, що програми забезпечували ненадійну та нерівну ідентифікацію між різними расами та етнічними приналежностями.

Роботи можуть стати цінним інструментом для збору доказів. Роботи не мають волосся чи клітин шкіри, які могли б забруднити місце злочину, забезпечення кращого ланцюга контролю. Це також означає менше помилок, які можуть перешкодити винесенню обвинувального вироку або залишити невинну особу у в’язниці, звинуваченої у злочині, якого вона не вчиняла.

На жаль, захисні роботи наразі не є найрозумнішими інструментами в арені. Робот-охоронець на ім’я Стів був запрограмований на патрулювання комплексу Вашингтонської гавані на березі річки у Вашингтоні, округ Колумбія. воно покотилося по сходах і намагався втопитися у фонтані.

«Буде необхідний комплексний нагляд, щоб запровадити будь-якого поліцейського робота на основі штучного інтелекту» 

Небезпеки ШІ поліцейських ботів

Найсуттєвіший ризик полягає в тому, що люди все ще програмують ці пристрої і, як такі, піддаються людським упередженням. Як програмісти можуть створити неупереджену систему штучного інтелекту, навчаючи ці мережі думати та виконувати свої завдання? Це та ж проблема, що й у безпілотних автомобілів зіткнувшись із проблемою тролейбуса вправа на думку. Вони вчать систему вбити одну людину, щоб врятувати п'ятьох, чи просто не вирішують?

Щоб представити будь-якого робота-поліцейського, що працює на штучному інтелекті, у поліцію буде необхідний комплексний нагляд. Без цього недогляду практично ніщо не завадить комусь запрограмувати ці системи для цільових осіб BIPOC. Інструменти, призначені для порятунку життів і запобігання злочинам, можна легко перетворити на інструменти гноблення.

У 2017 році Google уже показав, що це можливо, за допомогою одного з найперших втілень штучного інтелекту для обробки природної мови. Гомофобія була записані в його основне програмування, даючи негативні оцінки будь-яким пошукам, які містять слово «гей». Відтоді Google вирішив проблему та вибачився за запрограмоване упередження. Тим не менш, ця помилка демонструє, наскільки легко було б зловживати цією технологією, навіть якщо упередження є несвідомим.

Штучний інтелект довгий час був улюбленим антагоністом у футуристичних розвагах. Протягом багатьох років глядачі бачили його в багатьох франшизах, і майже всі ці антагоністи мають одну спільну рису: штучний інтелект визначає, що люди більше не здатні піклуватися про себе, тому вони вживають крайніх заходів, включаючи знищення людської раси. щоб «захистити» людство від самого себе.

ШІ-поліцейські боти, ймовірно, не зайшли б так далеко, але не штучний інтелект викликає страх, а занепокоєння, що цю технологію можна використати, поставивши під загрозу вразливі спільноти.

Створення безпечнішого майбутнього

Штучний інтелект та інструменти, які він підтримує, стають частиною нашого повсякденного життя, але це не означає, що технологія без ризиків. ШІ міг би допомогти захистити людей, запобігаючи або розкриваючи злочини, але його можна легко використати, щоб завдати шкоди BIPOC та громадам.

Штучні поліцейські боти — це, мабуть, хвиля майбутнього, але вони потребують багато роботи, перш ніж спільноти зможуть довірити їм захист усіх, незалежно від кольору шкіри чи віросповідання.

Також читайте Майбутнє робототехніки у вітчизняній сфері

Часова мітка:

Більше від Технологія AIIOT