隐私监管机构敦促公司放弃情感分析人工智能软件 PlatoBlockchain Data Intelligence。 垂直搜索。 哎。

隐私监管机构敦促公司放弃情感分析人工智能软件

英国信息专员办公室 (ICO) 本周警告说,公司在部署容易出现系统性偏见和其他混乱的人工智能情感分析系统之前应该三思而后行。

监管机构补充说,如果组织继续使用并使用这种使人们处于危险之中的低于标准的技术,他们将面临调查。

旨在预测一个人的情绪和反应的机器学习算法使用计算机视觉来跟踪凝视、面部动作和音频处理来衡量变化和整体情绪。 正如人们可能想象的那样,它不一定准确或公平,并且在处理用于训练和推理的数据时可能存在隐私问题。

事实上,ICO 副专员 Stephen Bonner 表示,该技术并非万无一失,导致系统性偏见、不准确或对特定社会群体的歧视。 “生物识别和情感人工智能市场的发展还不成熟。 他们可能还没有工作,或者确实永远不会工作,”他 说过 在一份声明中。 

“虽然存在机会,但目前风险更大。 在 ICO,我们担心对数据的不正确分析可能会导致对一个人的假设和判断不准确并导致歧视,”他的声明继续说道。

Bonner 指出,情绪分析软件通常与生物识别系统配合使用,收集和存储比面部图像更广泛的个人信息。 软件提供商通常对如何处理或保存这些个人数据不透明。 

“唯一可持续的生物识别部署将是那些功能齐全、负责任并有科学支持的部署,”他说。 “就目前而言,我们尚未看到任何情感人工智能技术以满足数据保护要求的方式发展,并且对该领域的比例性、公平性和透明度存在更普遍的问题。”

这似乎是一种礼貌的说法:你应该只使用能够按照 ICO 预期工作的情感阅读 AI 模型,而这些模型不存在,所以你应该停止你正在做的事情。

预计英国数据隐私监管机构将在明年春季发布一份报告,详细说明公司应如何处理生物特征数据,包括面部识别、指纹识别和语音识别。

“ICO 将继续审查市场,确定正在寻求创建或部署这些技术的利益相关者,并解释增强数据隐私和合规性的重要性,同时鼓励对这些系统如何工作的信任和信心,”Bonner 补充道。

多年来,专家们已经对情绪和情绪分析敲响了警钟。 感觉是主观的,很难准确地解释它们。 人类通常无法为自己或他人有效地做到这一点,更不用说机器了。 ®

时间戳记:

更多来自 注册