人工智能 (AI) 正迅速成为大多数行业的宝贵工具。 这些软件系统可以在很短的时间内对大量数据进行分类,而人类分析师也可以这样做。
人工智能系统在医疗保健和药物研究、零售、营销、金融等领域变得至关重要。 一些支持者甚至考虑在执法中使用这项技术。 人工智能警察机器人在未来会成为更安全的选择吗?
“目前,人工智能在警察工作中最常见的用途是面部识别——在火车站或重大事件等交通繁忙的区域监控个人的面部。”
人工智能在警察工作中的好处
整个世界都沉浸在技术之中。 从口袋或钱包中的手机到使家庭生活更轻松的智能技术,一切都依赖于为世界提供动力的众多编程语言之一。 现代警察工作也不例外。 目前人工智能在警察工作中最常见的用途 是面部识别 – 在交通繁忙的区域(如火车站或重大事件)监控个人面部。
身体摄像头收集了大量的视频片段,所有这些都可以作为犯罪的证据。 虽然可以手动查看此视频片段,但这不是一个有效的选择。 人工智能系统可以在人类分析师完成相同任务所需时间的一小部分时间内对镜头进行分类、寻找模式或识别信息。
“机器人可以成为收集证据的宝贵工具。 机器人没有可能污染犯罪现场的毛发或皮肤细胞,从而确保更好的监管链”
该国最大的警用随身摄像机生产商 Axon 在 2014 年试行了这样一个程序,声称其人工智能可以准确地描述随身摄像机镜头中显示的事件。 2019年,他们 决定不商业化 编程。 测试表明,这些程序在不同种族和民族之间提供了不可靠和不平等的识别。
机器人可以成为收集证据的宝贵工具。 机器人没有可能污染犯罪现场的毛发或皮肤细胞, 确保更好的监管链. 这也意味着更少的错误可能会阻止定罪或让无辜的人被指控犯有他们没有犯下的罪行而入狱。
不幸的是,安全机器人目前并不是工具库中最聪明的工具。 一个名叫史蒂夫的安全机器人被编程为在华盛顿特区的华盛顿港河边巡逻。 它滚下楼梯 并试图将自己淹死在喷泉中。
“将任何人工智能驱动的警察机器人引入警队,都需要进行全面监督”
人工智能警察机器人的危险
最大的风险在于人类仍在对这些设备进行编程,因此会受到人类偏见的影响。 在教这些网络如何思考和完成任务时,程序员如何创建一个公正的 AI 系统? 自动驾驶汽车也是同样的问题 面对电车问题 思想锻炼。 他们是教系统杀一个人救五个,还是干脆不做决定?
将任何由人工智能驱动的警察机器人引入警队,都需要进行全面监督。 如果没有这种监督,几乎没有什么可以阻止某人对这些系统进行编程以针对 BIPOC 个人。 旨在拯救生命和预防犯罪的工具很容易被扭曲为压迫工具。
谷歌已经在 2017 年展示了这是一种可能性,它是其自然语言处理 AI 的最早化身之一。 恐同是 写入其核心程序,对任何涉及“同性恋”一词的搜索给予负面评价。 谷歌已经解决了这个问题,并为程序化的偏见道歉。 尽管如此,这个错误展示了这项技术很容易被滥用,即使这种偏见是无意识的。
长期以来,人工智能一直是未来娱乐中最受欢迎的对手。 多年来,观众已经看到它在许多特许经营中出现,几乎所有这些对手都有一个共同点:人工智能确定人类不再有能力照顾自己,所以他们采取极端措施——包括毁灭人类——以“保护”人类免受自身伤害。
人工智能警察机器人可能不会走那么远,但引发恐惧的不是人工智能——而是人们担心这项技术可能被利用,使脆弱的社区处于危险之中。
创造更安全的未来
人工智能及其支持的工具正在成为我们日常生活的一部分,但这并不意味着该技术没有风险。 人工智能可以通过预防或解决犯罪来帮助保护人们,但它很容易被利用来伤害 BIPOC 和社区。
人工智能警察机器人可能是未来的潮流,但他们需要做大量的工作才能让社区信任它们来保护每个人,无论肤色或信仰如何。