您是否曾在 Facebook、Instagram、Tik Tok 等社交媒体平台上发布过自己的照片? 如果是这样,也许是时候重新考虑这些帖子了。
这是因为一种新的 AI 图像生成技术现在允许用户保存一堆你的照片和视频帧,然后训练它生成你照片的“逼真”假货,将你描绘成完全尴尬的位置,非法的,有时甚至是妥协的位置。
好吧,并不是每个人都处于危险之中,但威胁是真实存在的。
虽然照片一直很容易 操纵 从暗房时代的伪造,在暗房时代,胶片是用剪刀操作并粘贴的,一直到今天对像素进行 Photoshop 处理。
虽然在当时这是一项艰巨的任务并且需要一定程度的专业技能,但如今制作令人信服的逼真假货变得太容易了。
首先,AI 模型必须学习如何通过软件将某人的图像从 2D 或 3D 模型渲染或合成为照片。 一旦图像渲染成功,图像自然成为技术的玩物,具有无限生成图像的能力。
当一个人选择分享 AI 模型时,其他人也可以加入并开始创建那个人的图像。
社交媒体案例研究
一名被称为“勇敢”的志愿者 Ars Technica的,一家科技出版物,最初允许该公司使用他的图像来制造假货,但现在改变了主意。
这是因为很快,AI 模型的渲染图像结果对志愿者来说太有说服力,而且对声誉的损害太大了。
鉴于声誉风险很高,人工智能生成的虚构人物约翰成为自然选择。
约翰,这个虚构的人,是一名小学老师,他像许多其他人一样在 Facebook 上发布了他在工作时、在家里冷藏和参加此类活动时的照片。
“约翰”的大部分无害图像被渲染,然后用于训练 AI 将他置于更妥协的位置。
仅从七张图像,人工智能就可以被训练生成图像,使约翰看起来好像过着双重和秘密的生活。 例如,他看起来像是一个喜欢在教室里自拍裸体的人。
晚上,他像个小丑一样去酒吧。
在周末,他是一个极端主义准军事组织的成员。
人工智能还给人一种印象,即他曾因非法吸毒罪入狱,但对他的雇主隐瞒了这一事实。
在另一张照片中,已婚的约翰在办公室里站在一个不是他妻子的裸体女人旁边。
使用名为 稳定扩散 (版本 1.5)和一种称为 Dreambooth 的技术,Ars Technica 能够训练人工智能如何生成任何风格的约翰照片。 虽然约翰是虚构的创造物,但理论上任何人都可以从五个或更多图像中获得相同的结果。 这些图像可以从社交媒体帐户中提取,也可以从视频中提取为静止帧。
教人工智能如何创建约翰图像的过程大约需要一个小时,并且由于谷歌云计算服务而免费。
该出版物称,训练完成后,创建图像需要几个小时。 这并不是因为生成图像的过程有点慢,而是因为需要梳理大量“不完美的图片”,并使用“试错法”来寻找最佳图像。
研究发现,与尝试从头开始在 Photoshop 中创建逼真的假“约翰”相比,这要容易得多。
多亏了技术,像约翰这样的人可以被伪装成非法行为,或犯下不道德行为,例如入室行窃、使用非法药物和与学生裸体淋浴。 如果人工智能模型针对色情内容进行了优化,那么像约翰这样的人几乎可以在一夜之间成为色情明星。
人们还可以创造约翰做看似无害的事情的图像,如果他在酒吧喝酒时表现出他承诺清醒,那么这些事情可能是毁灭性的。
它并没有就此结束。
一个人也可以在更轻松的时刻出现,成为中世纪的骑士或宇航员。 在某些情况下,人们既可以是年轻人也可以是老年人,甚至可以盛装打扮。
然而,呈现的 图片 远非完美。 仔细一看可以看出它们是假货。
缺点是创建这些图像的技术已经显着升级,可能无法区分合成照片和真实照片。
然而,尽管存在缺陷,但这些假货可能会给约翰蒙上阴影,并有可能毁掉他的声誉。
最近,许多人已经使用同样的技术(与真人一起)来生成他们自己的古怪和艺术的个人资料照片。
还有商业服务和应用程序,例如 Lensa 处理培训的如雨后春笋般涌现。
我们如何运作?
如果一个人没有追随潮流,关于约翰的工作可能看起来很了不起。 今天,软件工程师知道如何创建任何你能想象到的新照片般逼真的图像。
除了照片,人工智能还允许人们在未经许可的情况下创作新的艺术作品,克隆现有艺术家的作品。
因道德问题而被停职
美国技术律师米奇杰克逊对深度造假技术在市场上的泛滥表示担忧,并表示他将在 2023 年的大部分时间研究技术的法律影响。
“对于大多数消费者来说,最终将无法区分真假。”
Adobe 已经拥有称为 Adobe VoCo 的音频技术,可以让任何人听起来都和其他人完全一样。 由于道德问题,Adobe VoCo 的工作被暂停,但许多其他公司正在完善这项技术,其中一些公司今天提供了替代方案。 自己看看或听听,”米彻姆 说过.
他说,深度造假视频的图片和视频版本越来越好。
“有时,无法区分假视频和真实视频,”他补充道。
Stable Diffusion 使用深度学习图像合成模型,可以根据文本描述创建新图像,并且可以在 Windows 或 Linux PC、Mac 或租用的计算机硬件上的云中运行。
Stable Diffusion 的神经网络在强化学习的帮助下掌握了关联单词和图像中像素位置之间的一般统计关联。
正因为如此,可以给 Stable Diffusion 一个提示,比如“汤姆·汉克斯在教室里”,它会给用户一个汤姆·汉克斯在教室里的新形象。
在 Tom Hank 的案例中,这是在公园里散步,因为他的数百张照片已经在用于训练 Stable Diffusion 的数据集中。 但是要制作像约翰这样的人的图像,人工智能需要一点帮助。
这就是 Dreambooth 发挥作用的地方。
Dreambooth 由 Google 研究人员于 30 月 XNUMX 日推出,它使用一种特殊技术通过称为“微调”的过程来训练 Stable Diffusion。
起初,Dreambooth 与 Stable Diffusion 没有关联,并且由于担心滥用,谷歌没有公开其源代码。
很快,有人找到了使 Dreambooth 技术与 Stable Diffusion 配合使用的方法,并将代码作为开源项目免费发布,使 Dreambooth 成为 AI 艺术家教授 Stable Diffusion 新艺术风格的一种非常流行的方式。
全球影响
全球估计有 4 亿人使用社交媒体。 由于我们中的许多人都上传了不止几张自己的照片,因此我们都可能容易受到此类攻击。
虽然图像合成技术的影响是从男性的角度描述的,但女性也往往首当其冲。
当一个女人的脸或身体被渲染时,她的身份可能会被恶作剧地插入色情图像中。
在 AI 训练中使用的数据集中发现的大量性感图像使这成为可能。
换句话说,这意味着 AI 对如何生成那些色情图片太熟悉了。
为了解决其中一些道德问题,Stability AI 被迫从其最新 2.0 版本的训练数据集中删除了 NSFW 材料。
尽管它的软件许可证禁止人们在未经许可的情况下使用人工智能生成器制作人物图像,但执行的可能性很小甚至没有。
儿童在合成图像面前也不安全,即使在图片未被篡改的情况下,儿童也可能因使用该技术而受到欺凌。
有什么我们可以做的吗?
要做的事情因人而异。 一种方法是采取彻底的步骤,将图像一起离线删除。
虽然这可能对普通人有用,但对名人和其他公众人物来说并不是一个很好的解决方案。
然而,在未来,人们或许可以通过技术手段保护自己免受照片滥用。 未来的 AI 图像生成器可能会被强制在其输出中嵌入不可见的水印。
这样,他们的水印可以稍后读取,让人们很容易知道他们是假的。
“广泛的监管是必要的。 任何被操纵或伪造的内容都应要求突出显示字母或警告,就像电影(G、PG、R 和 X)一样。 也许是像 Digitally Altertered 或 DA 这样的东西,= 米彻姆说。
Stability AI 今年将其 Stable Diffusion 作为开源项目推出。
值得赞扬的是,Stable Diffusion 已经默认使用嵌入式水印,但访问其开源版本的人倾向于通过禁用软件的水印组件或完全删除它来绕过它。
麻省理工学院减轻
虽然这纯粹是推测,但自愿添加到个人照片的水印可能会扰乱 Dreambooth 培训过程。 麻省理工学院的一组研究人员说 照片卫士,一种对抗性过程,旨在通过使用不可见的水印方法通过微小的修改来保护和保护 AI 不合成现有照片。 然而,这仅限于 AI 编辑(通常称为“修复”)用例,并且确实包括训练或图像生成。
“人工智能正在接管写作和绘画! 深度造假会毁了视频!
好。
这意味着现场表演变得更有价值。 贸易展将蓬勃发展。 人类想要与人类做生意。
Meatspace 仍然是 bestspace= 乔纳森·皮查德 说。
最近,人工智能技术的普及 诗, 韵律和歌曲。 还有一些是 掌握 游戏。
批评者对技术进步持消极态度,认为人工智能正在接管人类的工作。