简单来说 OpenAI、微软和 GitHub 在集体诉讼中被点名,指控其 AI 代码生成软件 Copilot 违反版权法。
律师兼开发商 Matthew Butterick 上个月宣布,他已与 Joseph Saveri 律师事务所合作, 调查 副驾驶。 他们想知道该软件是否以及如何通过在当前开源许可下没有适当归属的情况下抓取和发布他们的作品来侵犯编码人员的合法权利。
现在,该公司已向位于旧金山的北加州地方法院提起集体诉讼。 “我们正在挑战合法性 GitHub 副驾驶”,巴特里克 说过.
“这是漫长旅程的第一步。 据了解,这是美国第一起挑战人工智能系统训练和输出的集体诉讼案。 这不会是最后一次。 人工智能系统不受法律约束。 那些创建和操作这些系统的人必须承担责任,”他在一份声明中继续说道。
“如果像微软、GitHub 和 OpenAI 这样的公司选择无视法律,他们不应该指望我们公众会坐视不理。 AI 需要对每个人都公平和合乎道德。 如果不是,那么它永远无法实现其提升人性的自吹自擂的目标。 这将成为少数特权者从多数人的工作中获利的另一种方式。”
Software Freedom Conservancy 表示不会就此案的法律主张发表评论, 说过 此举:“我们确实注意到此操作是集体操作,”并补充说:“鉴于几乎所有写过的 FOSS 行都可能在 Copilot 训练集中,很可能几乎每个阅读此消息的人都会发现自己在法庭核证该集体时成为该集体的一员。 因此,你们每个人,也许在遥远的将来,也许很快,都将不得不做出是否加入这一行动的决定。 我们证监会现在也正在做出这个决定。”
苏格兰将拆除中国人工智能监控摄像头
爱丁堡市议会承诺废弃从海康威视购买的闭路电视摄像机,该公司被指控使用面部识别技术监视中国的维吾尔族穆斯林。
官员被问及他们是否以及何时计划在理事会会议上移除 HikVision 的设备并确认:“在公共领域闭路电视升级项目完成后,公共领域网络上将不会出现 HikVision 摄像机,”一位代表说, 根据 到爱丁堡直播。
据报道,爱丁堡市议会估计议会大楼内有超过 1,300 个摄像头,但不知道安装的 HikVision 装置的总数。 据报道,这些系统将在 2023 年 XNUMX 月之前在公共区域被“合规设备”取代; 目前尚不清楚议会大楼中的摄像头何时会全部更换。
在隐私维权组织 Big Brother Watch 发起一场运动后,英国政界人士敦促政府禁止 HikVision 闭路电视摄像机,声称该技术可能会带来安全漏洞,并与侵犯维吾尔族穆斯林的人权有关。 在美国,海康威视已被列入 实体清单 阻止美国企业在未经明确许可的情况下从该公司进口产品。
OpenAI 推出新的 AI 投资计划; DALL-E 可作为 API 使用
Converge,第一个程序 推出 来自 OpenAI Startup Fund 的 1 万美元,将提供 XNUMX 万美元并分享资源和专业知识,以支持 XNUMX 家处于早期阶段的公司。
工作人员将有机会参加为期五周的计划,并在 OpenAI 的最新模型向公众发布之前访问它们。 有兴趣的工程师、领导和研究人员可以 应用 在 25 月 XNUMX 日之前加入 Converge。
此举对 OpenAI 来说是双赢的。 这些初创公司将来可能会成为客户,使用公司的 API 来构建产品。 然而,如果他们不这样做,并继续成长并取得成功,OpenAI 仍将在经济上受益。
OpenAI 也 发布 本周,它的文本到图像模型 DALL-E 作为 API。 图像 API 将允许开发人员将 DALL-E 集成到他们的应用程序中。 该 API 仍处于测试模式,最初它们将被限制为每五分钟最多生成 25 张图像。
你可以玩谷歌的Imagen,有点像
谷歌正在移动应用程序中发布其 AI 文本到图像模型 Imagen,供用户仅生成虚假城市和怪物的图片。
Imagen 将推出其 AI Test Kitchen 应用程序,但安装的版本将非常有限。 希望使用该工具的人将只能使用名为 City Dreamer 和 Wobble 的两个模型来召唤 AI 制作的图像。
您可以从不同的关键字选项中进行选择,以描述 Imagen 生成的对象。 例如,Wobble 模型可以让你选择你想要的怪物看起来是由什么材料制成的,比如粘土、毛毡、杏仁糖或橡胶,The Verge 首次报道.
AI Kitchen 应用程序是谷歌测试其部分人工智能模型以征求公众反馈的门户。 公司声名狼藉 LaMDA 聊天机器人 也可以在应用程序上以有限的形式使用。 生成式 AI 模型可能无法预测,并且可以在引导下生成有毒或令人反感的内容。 通过限制 Imagen 的能力,谷歌的文本到图像模型将不太可能不合适。
谷歌产品管理高级总监乔什伍德沃德举了一个例子,说明提示俄克拉荷马州塔尔萨的位置可能会引起冒犯。 “20 年代,塔尔萨发生了一系列种族骚乱,”他说。 “如果有人输入‘塔尔萨’,模型可能甚至不会引用它,你可以想象世界各地的情况。” ®