七家人工智能科技巨头——OpenAI、微软、谷歌、Meta、亚马逊、Anthropic 和 Inflection——已承诺为人工智能生成的内容添加水印。 目标是标记人工智能生成的文本、视频、音频和图像的来源,从而降低误导用户关于内容来源的风险。 正如谷歌博客恰当地指出的那样,“我们没有人能够独自获得人工智能。”
Deepfakes 已被用于许多有争议的方式,例如创建病毒式虚假图像或诈骗人们大笔金钱。 嵌入内容中的拟议水印可以作为防止此类滥用的保护措施。 白宫认为,这“将使人工智能的创造力蓬勃发展”,同时“减少欺诈和欺骗的危险”。
OpenAI 和 Google 处于领先地位。 谷歌还计划整合元数据(以及其他创新技术)来推广值得信赖的信息。
这一承诺是确保负责任的人工智能治理的更广泛努力的一部分。 科技公司承诺对人工智能系统进行内部和外部测试,加大对网络安全的投资,并共享信息以降低人工智能风险。 正如 OpenAI 所言,这些承诺是“在美国和世界各地推进有意义和有效的人工智能治理的重要一步”。
除了……骆驼 2(看我的周日作文)以及其他数十种优秀的人工智能模型都是开源的。 虽然我对这一努力深表赞赏,但这些水印(最多)对于识别使用大型科技公司的人工智能模型创建的工作产品很有用。 最坏的情况是,水印将被深度伪造,从而抹黑系统,没有人能够分辨 2022/2023 年后是什么造就了什么。
作者注: 这不是赞助帖子。 我是这篇文章的作者,它表达了我自己的观点。 我和我的公司都没有因此获得赔偿。
关于雪莉·帕尔默
雪莉·帕默 是雪城大学 SI Newhouse 公共传播学院的高级媒体常驻教授,也是 The Palmer Group 的首席执行官,该集团是一家在技术、媒体和营销方面为财富 500 强公司提供帮助的咨询公司。 命名 LinkedIn 的“科技领域顶尖声音” 他涵盖了技术和商业领域 美好的一天纽约,是 CNN 的定期评论员,并撰写了一篇受欢迎的文章 每日商业博客。 他是个 畅销书作者以及流行的免费在线课程的创建者, 面向高管的生成式人工智能。 跟随 @shellypalmer 或访问 shellypalmer.com.