美国众议院工作人员已被禁止使用微软的 Copilot 聊天机器人和人工智能生产力工具,等待推出适合政府用户需求的版本。
根据文件 获得 众议院首席行政官 (CAO) 凯瑟琳·斯平多 (Catherine Szpindor) 下达了命令,并告诉工作人员 Copilot “未经众议院使用授权”,该服务将被删除并在所有设备上被屏蔽。
文件中写道:“网络安全办公室认为 Microsoft Copilot 应用程序对用户构成风险,因为它可能会将众议院数据泄露给未经众议院批准的云服务。”
推出 到 2022 年末,Copilot 是免费和付费 AI 服务的集合,包含在越来越多的 Microsoft 应用程序和 Web 服务中,包括用于代码生成的 GitHub、用于自动执行常见任务的 Office 365 以及雷蒙德的 Bing 搜索引擎。
众议院禁止 Copilot 的决定并不令人意外,因为这款 AI 聊天机器人是在 OpenAI 开发的为 ChatGPT 提供支持的相同模型之上构建的,去年众议院也做出了禁止 Copilot 的决定。 受限 工作人员对该工具的使用。
对数据隐私和安全的担忧,特别是在政府层面,引发了“数据隐私和安全”的概念。 主权人工智能 – 一个国家利用自己的数据和资源开发人工智能模型的能力。
微软 加工 政府版的 Copilot 应用程序专为满足更高的安全要求而设计,旨在缓解这些担忧。众议院首席行政官办公室将在今年晚些时候推出该套件的政府版时对该套件进行评估。
Szpindor 对人工智能使用的数据落入坏人之手的担忧是有根据的:据报道,2023 年 XNUMX 月三星 泄露 至少三次将自己的秘密泄露到 ChatGPT 中。这是因为人工智能开发人员经常使用用户的提示来训练模型的未来迭代。
三星数据崩溃前一个月,OpenAI 首席执行官 Sam Altman 指责 开源库中的一个错误,用于泄露聊天历史记录。混乱使得一些用户能够看到其他人的对话片段——这并不是你希望机密文档发生的事情。 ®
- :具有
- :是
- :不是
- 2022
- 2023
- 7
- a
- 关于
- 行政
- AI
- AI聊天机器人
- AI模型
- 人工智能服务
- 针对
- 所有类型
- 允许
- an
- 和
- 应用领域
- 应用领域
- 批准
- 应用
- 保健
- AS
- At
- 自动化
- 可使用
- 爱可信
- 禁令
- BE
- 因为
- 成为
- 很
- 兵
- 封锁
- 问题
- 建
- by
- 曹
- 容量
- Catherine
- CEO
- 即时通话
- 聊天机器人
- ChatGPT
- 首席
- 机密
- 云端技术
- 云服务
- CO
- 码
- 采集
- 如何
- 相当常见
- 概念
- 对话
- 网络安全
- data
- 数据隐私
- 数据隐私与安全
- 决定
- 认为
- 开发
- 发达
- 开发
- 设备
- 文件
- 向下
- 两
- 版
- 发动机
- 评估
- 究竟
- 恐惧
- 寻找
- 针对
- 自由的
- 止
- 未来
- 代
- GitHub上
- 特定
- 政府
- 手
- 发生
- 有
- 更高
- 历史
- 别墅
- 代表之家
- HTTPS
- in
- 包括
- 包含
- 增加
- 成
- IT
- 迭代
- 它的
- JPG
- 六月
- 类
- (姓氏)
- 去年
- 晚了
- 后来
- 发射
- 泄漏
- 最少
- Level
- 自学资料库
- 微软
- 模型
- 模型
- 月
- 许多
- 国家
- 需要
- 没有
- 数
- 场合
- of
- 办公
- 官
- 经常
- on
- 打开
- 开放源码
- OpenAI
- 秩序
- 其它
- 超过
- 己
- 支付
- 尤其
- 有待
- 柏拉图
- 柏拉图数据智能
- 柏拉图数据
- 功率
- 先
- 隐私
- 隐私和安全
- 生产率
- 提示
- 阅读
- 去除
- 据说
- 代表
- 岗位要求
- 资源
- 上升
- 风险
- s
- Sam
- 山姆·奥特曼
- 同
- Samsung
- 搜索
- 搜索引擎
- 秘密
- 保安
- 看到
- 服务
- 特色服务
- 一些
- 来源
- 团队
- 套房
- 惊
- 量身定制
- 任务
- 告诉
- 这
- 博曼
- 事
- Free Introduction
- 今年
- 威胁
- 三
- 至
- 告诉
- 工具
- 工具
- 培训
- 擅自
- us
- 美国众议院
- 美国众议院
- 使用
- 用过的
- 用户
- 运用
- 版本
- 想
- 方法..
- 卷筒纸
- Web服务
- ,尤其是
- 将
- 加工
- 将
- 错误
- 错误的手
- 年
- 完全
- 和风网