现实与人工智能创作之间的界限太细了

现实与人工智能创作之间的界限太细了

现实与人工智能创造之间的界限对于肉眼来说太细了柏拉图区块链数据智能。垂直搜索。人工智能。

研究人员透露,随着生成式人工智能开发人员不断将模型调整到复杂程度,区分真实图像和人工智能创作也变得越来越困难。

研究人员的一项研究 滑铁卢大学 事实证明,人们很难区分真人的照片和人工智能生成的人的照片。

低于预期阈值

在进行这项研究时,滑铁卢大学的研究人员向 20 名参与者提供了 260 张未标记的图片。一半的照片是从谷歌图片中拍摄的真人照片,而另一半是使用 Dall-E 等工具生成的人工智能 稳定扩散.

然后,参与者被要求对这些图像进行标记(如果它们是真实的还是人工智能生成的),以证明他们的答案是合理的。

尽管 61% 的参与者可以区分真实图像和人工智能生成的图像,但这仍然远低于预期的 85% 阈值。

在仔细检查图像时,参与者会注意眼睛、手指、牙齿等细节,以及在寻找人工智能创建的图像时指示的其他指标,但“他们的评估并不总是正确的。”

“人们并不像他们想象的那样善于区分,” 说过 该研究的主要作者 Andrea Pocol,也是该大学计算机科学专业的博士生。

虽然互联网用户可能会顺便查看图像,但滑铁卢研究人员表示,他们允许参与者花时间分析图像。

“那些只是在玩末日卷轴或没有时间的人不会注意到这些线索,”波科尔说。

也可以参考: 莱昂纳多首席执行官在达沃斯强调用户对人工智能威胁的愚蠢

滥用技术

他们的 根据一项研究,发表在《计算机图形学进展》杂志上的题为“眼见为实:对 Deepfakes、AI 生成的人类和其他非真实媒体现状的调查”的文章也强调了与生成 AI 技术进步相关的风险。

研究人员还关切地注意到生成人工智能技术正在迅速变化,日新月异。学术研究和立法未能跟上发电行业的发展步伐。

波科尔表示,人工智能图像变得越来越真实,使得一些人很难轻松地区分真实图像和人工智能生成的图像。波科尔说,这为不良行为者创造了肥沃的土壤,他们利用该技术传播恶意、延续虚假信息或欺骗人们。

“虚假信息并不新鲜,但虚假信息的工具一直在不断变化和演变,”波科尔说。

“可能会发展到这样一个地步:人们无论受过多少训练,仍然很难区分真实图像和赝品。这就是为什么我们需要开发工具来识别和应对这一问题。这就像一场新的人工智能军备竞赛。”

研究人员还承认该技术带来的挑战,尤其是在深度伪造品的传播方面。

技术落入坏人之手

由于普通人难以区分真假图像,人们越来越担心深度伪造品的传播会增加。专家警告说,不良行为者将利用生成式人工智能技术传播选举谎言,试图误导选民。

打击数字仇恨中心 (CCDH),一个监控在线仇恨言论的非营利组织已经 警告 在他们的报告中,人工智能驱动的图像生成器正在加剧 2024​​XNUMX 年选举的错误信息。

CCDH 研究人员在报告中表示:“此类人工智能生成的图像作为‘照片证据’的潜力可能会加剧虚假声明的传播,对维护选举的公正性构成重大挑战。”

然而,这是在大约 20 家大型科技公司宣布,其中包括 OpenAI、微软和稳定人工智能 签署了一项协议 共同努力防止人工智能欺骗性内容“干扰今年全球举行的选举”。

时间戳记:

更多来自 元新闻