Станут ли полицейские боты с искусственным интеллектом более безопасной альтернативой в будущем? Интеллект данных PlatoBlockchain. Вертикальный поиск. Ай.

Станут ли полицейские боты с искусственным интеллектом более безопасной альтернативой в будущем?

Искусственный интеллект (ИИ) быстро становится ценным инструментом в большинстве отраслей. Эти программные системы могут сортировать огромные объемы данных за долю времени, которое потребовалось бы аналитику-человеку, чтобы сделать то же самое.

Системы искусственного интеллекта стали жизненно важными в здравоохранении и фармацевтических исследованиях, розничной торговле, маркетинге, финансах и многом другом. Некоторые сторонники даже рассматривали возможность использования этой технологии в правоохранительных органах. Будут ли полицейские роботы с искусственным интеллектом более безопасной альтернативой в будущем?

«Наиболее распространенное использование ИИ в работе полиции сейчас — это распознавание лиц — мониторинг лиц людей в местах с интенсивным движением, таких как вокзалы или важные события». 

Преимущества ИИ в работе полиции

Весь мир пропитан технологиями. Все, от мобильного телефона в кармане или сумочке до смарт-техники, облегчающей домашнюю жизнь, основано на одном из многих языков программирования, которые правят миром. Современная работа полиции не является исключением. Наиболее распространенное использование ИИ в работе полиции прямо сейчас это распознавание лиц – наблюдение за лицами людей в местах с интенсивным движением, таких как вокзалы или важные события.

Нательные камеры собирают огромное количество видеоматериалов, и все они могут быть использованы в качестве доказательств преступления. Хотя просмотр этого видеоматериала вручную возможен, это неэффективный вариант. Система ИИ может сортировать отснятый материал, искать закономерности или идентифицировать информацию за долю времени, которое потребовалось бы аналитику-человеку для выполнения той же задачи.

«Роботы могут стать ценными инструментами для сбора доказательств. У роботов нет волос или клеток кожи, которые могли бы загрязнить место преступления, что обеспечивает лучшую цепочку задержания». 

Компания Axon, крупнейший в стране производитель нательных камер для полиции, запустила такую ​​программу в 2014 году, заявив, что ее искусственный интеллект может точно описывать события, показанные на кадрах с нательных камер. В 2019 году они решил не коммерциализировать программирование. Тестирование показало, что программы обеспечивали ненадежную и неравную идентификацию среди представителей различных рас и национальностей.

Роботы могут стать ценными инструментами для сбора доказательств. У роботов нет волос или клеток кожи, которые могли бы загрязнить место преступления. обеспечение лучшей цепочки поставок. Это также означает меньшее количество ошибок, которые могут помешать вынесению обвинительного приговора или оставить невиновного человека в тюрьме по обвинению в преступлении, которого он не совершал.

К сожалению, в настоящее время роботы-охранники не являются самыми умными инструментами в арсенале. Робот-охранник по имени Стив был запрограммирован на патрулирование прибрежного комплекса Вашингтон-Харбор в Вашингтоне, округ Колумбия. он скатился вниз по лестнице и попытался утопиться в фонтане.

«Для того чтобы любой полицейский робот с искусственным интеллектом был введен в действие, необходим всеобъемлющий надзор» 

Опасности полицейских ботов с искусственным интеллектом

Самый значительный риск заключается в том, что люди все еще программируют эти устройства и, как таковые, подвержены человеческим предубеждениям. Как программисты могут создать беспристрастную систему искусственного интеллекта, обучая эти сети тому, как думать и выполнять свои задачи? Та же проблема, что и с беспилотными автомобилями. столкнулся с проблемой тележки мысленное упражнение. Учат ли систему убивать одного человека, чтобы спасти пятерых, или просто не решают?

Чтобы внедрить любого полицейского робота с искусственным интеллектом в армию, потребуется всеобъемлющий надзор. Без этого надзора практически ничто не мешает кому-то запрограммировать эти системы для нацеливания на людей из BIPOC. Инструменты, предназначенные для спасения жизней и предотвращения преступлений, легко могут быть превращены в инструменты подавления.

Google уже продемонстрировал, что это возможно в 2017 году с одним из первых воплощений своего ИИ для обработки естественного языка. Гомофобия была вписано в его основное программирование, присваивая негативные оценки любым запросам, содержащим слово «гей». С тех пор Google исправил проблему и извинился за запрограммированную предвзятость. Тем не менее, эта ошибка демонстрирует, насколько легко было бы злоупотреблять этой технологией, даже если предвзятость не является сознательной.

Искусственный интеллект долгое время был излюбленным антагонистом в футуристических развлечениях. Зрители видели его во многих франшизах на протяжении многих лет, и почти у всех этих антагонистов есть одна общая черта: ИИ определяет, что люди больше не способны заботиться о себе, поэтому они принимают крайние меры, включая уничтожение человеческой расы. чтобы «защитить» человечество от самого себя.

Полицейские боты с искусственным интеллектом, вероятно, не зашли бы так далеко, но страх вызывает не искусственный интеллект, а опасение, что технология может быть использована, что поставит уязвимые сообщества под угрозу.

Создание более безопасного будущего

Искусственный интеллект и инструменты, которые он поддерживает, становятся частью нашей повседневной жизни, но это не означает, что технология безопасна. ИИ может помочь защитить людей, предотвращая или раскрывая преступления, но его можно легко использовать для нанесения вреда BIPOC и сообществам.

Полицейские роботы с искусственным интеллектом, вероятно, будущее, но им нужно много работать, прежде чем сообщества смогут доверять им защиту всех, независимо от цвета кожи или вероисповедания.

Читайте также Будущее робототехники в отечественной сфере

Отметка времени:

Больше от Технология АИИОТ