我被解雇了,声称谷歌聊天机器人是有知觉的柏拉图区块链数据智能的工程师说。 垂直搜索。 哎。

声称谷歌聊天机器人有知觉的工程师说我被解雇了

简单来说 据报道,谷歌解雇了 Blake Lemoine,这位工程师在坚称这家网络巨头的 LaMDA 聊天机器人有感知能力后被停职。

Lemoine 并没有因为对模特持有有争议的、挑眉的意见而惹上麻烦。 相反,他因违反谷歌的保密政策而受到惩罚。 他 据说 邀请律师评估 LaMDA 的潜在合法权利,并与众议院代表交谈,声称谷歌不道德。

Google发言人 告诉 由于 Lemoine 继续违反危害商业机密的“就业和数据安全政策”,因此决定终止他的工作。

“如果员工像 Blake 一样对我们的工作表示担忧,我们会对其进行广泛审查。 我们发现布莱克声称 LaMDA 是有感觉的完全没有根据,并与他一起努力澄清了好几个月。 这些讨论是帮助我们负责任地创新的开放文化的一部分,”发言人说。

“因此,令人遗憾的是,尽管在这个话题上进行了长时间的接触,布莱克仍然选择持续违反明确的就业和数据安全政策,其中包括保护产品信息的必要性。 我们将继续精心开发语言模型,并祝 Blake 一切顺利。”

谷歌以及学术界和工业界的许多专家都对 LaMDA 或任何现有的人工智能聊天机器人是否具有感知能力表示怀疑。 语言模型学习单词之间的数学关系,并且擅长在没有任何真正理解的情况下模仿人类语言。 他们都不是真正聪明的,更不用说有意识了。

为什么开发人员无法运行开源 AI 代码

如果开发人员没有运行机器学习模型所需的资源,那么发布代码有什么意义呢?

众所周知,人工智能软件即使是开源的,也很难自行启动和尝试。 源代码的点点滴滴被遗漏了,或者训练模型所需的数据集不可用。 有时这些部分是可访问的,但开发人员没有计算能力来使用如此大的系统。

拿 Meta 的 打开预训练的 Transformer, 例如。 最大版本的语言模型包含 175 亿个参数。 尽管这家广告巨头发布了它的代码,但没有多少人手头有足够的芯片来从头开始训练和使用该模型,在 MongoDB 负责合作伙伴营销的 Matt Asay, 注意到 以个人身份。

“关键是为研究人员提供足够的访问权限,以便能够重现特定 AI 模型如何运作的成功和失败……作为公司和个人,我们的目标应该是以有利于我们的客户和第三方的方式开放对软件的访问——方开发人员来促进访问和理解,而不是试图将几十年前的开源概念改造成云,”他争辩道。

OpenAI 的 Dall-E 进入测试模式

OpenAI 的商业文本到图像生成模型 DALL·E 2 正在向加入其候补名单的另外一百万人开放。

由于 OpenAI 希望在完全商业发布之前测试其系统,因此访问之前仅限于那些精选的艺术家、研究人员和开发人员。 人们一直在使用该工具生成各种图片来制作网络模因、漫画书或数字艺术。 

用户在使用的第一个月将获得 50 个免费积分,之后每个月将获得 15 个免费积分。 每个学分可用于生成一个原始的 Dall-E 提示生成,他们将获得四张图像作为输出,而不是之前的六张。 编辑现有文本提示将返回三个图像。 如果他们想生成更多,他们将不得不支付 15 美元来获得另外 115 个学分,以获得额外的 460 个图像。 

他们还将使用该模型生成的任何图像商业化,这意味着创作者有权出售和打印他们的图片用于商品等。 “我们很高兴看到人们使用 DALL·E 创造了什么,并期待在这个测试期间得到用户的反馈,”研究实验室 说过 这个星期。 

通过面部识别窥探儿童

备受争议的商业在线面部识别服务 PimEyes 可用于搜索儿童的“潜在露骨”照片。

PimEyes 允许任何人上传照片、搜索潜在匹配项并返回图像及其对应的 URL。 该服务作为一种保护隐私的工具进行营销,用户可以在其中看到自己的照片在互联网上的发布位置,该服务表示它有助于解决报复色情等问题。

但也有阴暗的一面。 任何人都可以使用该网站搜索他们喜欢的任何人的照片,甚至是儿童。 一个 调查 by The Intercept 发现很容易找到年轻人的照片,其中一些照片甚至被标记为“可能露骨”。 实验中使用了 AI 生成的假儿童图片,PimEyes 仍然返回匹配项,这表明它的软件可能不是很准确。

“PimEyes 没有针对儿童的保护措施,而且显然不确定如何为儿童提供保护措施,这一事实仅凸显了这种面部识别服务的风险,”Electronics Surveillance Oversight Project 主管 Jeramie Scott隐私信息中心,被引述说。 “参与公共场合,无论是在线还是离线,都不应该意味着让自己接受像 PimEyes 这样的侵犯隐私的服务。”

人工智能驱动的写作工具帮助独立作者出版更多书籍

内容创建通常是一项艰巨的任务。 你必须经常拿出新鲜的材料来保持和增加观众。

一位以 Leanne Leeds 为笔名在亚马逊 Kindle 平台上发表作品的独立小说作家描述了使用基于 GPT-3 的文本生成工具作为写作伙伴的力量和局限性。

通过将句子输入到名为 Sudowrite 的软件中,像 Leeds 这样的作家可以取回自动生成的文本段落; 它就像一个更智能的自动完成。 利兹 告诉 The Verge 使用它来制作她的散文时,她的工作效率提高了 20% 以上。 她编辑软件的输出并将段落插入她的书中。 Sudowrite 正在帮助她以更快的速度写书,以保持读者的兴趣。 

但作家们对人工智能的使用感到痛苦。 一些人认为它违背了文学的创造力和魔力,而另一些人则认为它有讲故事的潜力。 作者是否应该披露他们的书是在算法的帮助下编写的? 更重要的是,这种自动生成的涂鸦有用吗?

目前,机器还不够好,需要编辑以防止叙述和情节线脱轨。 Leeds 相信,像 Sudowrite 这样的工具有朝一日会变得足以编写普通小说。 “我认为这是真正的危险,你可以做到这一点,然后就不再是原创了。 一切都只是其他东西的副本,”她说。 “问题是,这就是读者喜欢的。” ®

时间戳记:

更多来自 注册