AWS AI 服务卡简介:一种提高透明度和推进负责任 AI 的新资源

人工智能 (AI) 和机器学习 (ML) 是我们这一代人将遇到的一些最具变革性的技术,用于解决业务和社会问题、改善客户体验并促进创新。 随着 AI 的广泛使用和规模不断扩大,人们认识到我们都必须负责任地构建。 在 AWS,我们认为负责任的 AI 包含许多核心维度,包括:

  • 公平与偏见– 系统如何影响不同的用户亚群(例如,按性别、种族)
  • 可解释性– 理解和评估人工智能系统输出的机制
  • 隐私和安全– 保护数据免遭盗窃和泄露
  • 鲁棒性– 确保人工智能系统可靠运行的机制
  • 治理– 在组织内定义、实施和执行负责任的人工智能实践的流程
  • 用户评论透明– 交流有关人工智能系统的信息,以便利益相关者可以就他们对系统的使用做出明智的选择

我们以负责任的方式开发 AI 和 ML 的承诺是我们构建服务、与客户互动和推动创新的方式不可或缺的一部分。 我们还致力于为客户提供工具和资源以负责任地开发和使用 AI/ML,从为 ML 构建者提供完全托管的开发环境到帮助客户将 AI 服务嵌入到常见的业务用例中。

为客户提供更多透明度

我们的客户希望知道他们使用的技术是以负责任的方式开发的。 他们需要资源和指导,以便在他们自己的组织中负责任地实施该技术。 最重要的是,他们希望确保他们推出的技术造福于每个人,尤其是最终用户。 在 AWS,我们希望帮助他们实现这一愿景。

为了提供客户要求的透明度,我们很高兴推出 AWS 人工智能服务卡,一种帮助客户更好地了解我们的 AWS AI 服务的新资源。 AI 服务卡是一种负责任的 AI 文档形式,它为客户提供了一个单一的位置来查找有关预期用例和限制、负责任的 AI 设计选择以及我们 AI 服务的部署和性能优化最佳实践的信息。 它们是我们承诺以负责任的方式构建我们的服务的综合开发过程的一部分,以解决公平和偏见、可解释性、稳健性、治理、透明度、隐私和安全性问题。 在 AWS re:Invent 2022 上,我们将提供前三张 AI 服务卡: Amazon Rekognition – 人脸匹配, 亚马逊 Textract – AnalyzeIDAmazon Transcribe – 批处理(英语-美国)。

人工智能服务卡的组成部分

每张 AI 服务卡包含四个部分,涵盖:

  • 帮助客户更好地了解服务或服务特点的基本概念
  • 预期用例和限制
  • 负责任的 AI 设计注意事项
  • 部署和性能优化指南

人工智能服务卡的内容面向广泛的客户、技术人员、研究人员和其他利益相关者,他们寻求更好地理解负责任的人工智能服务设计和使用中的关键考虑因素。

我们的客户在越来越多样化的应用程序中使用人工智能。 这 预期用例和限制部分 提供有关服务的常见用途的信息,并帮助客户评估服务是否适合他们的应用程序。 例如,在 Amazon Transcribe – Batch (English-US) Card 中,我们描述了从音频文件转录美国英语通用词汇的服务用例。 如果一家公司想要一个自动转录特定领域事件的解决方案,例如国际神经科学会议,他们可以添加自定义词汇表和语言模型以包含科学词汇,以提高转录的准确性。

设计部分 在每张 AI 服务卡中,我们解释了重要领域的关键负责任的 AI 设计考虑因素,例如我们的测试驱动方法、公平性和偏见、可解释性和性能预期。 我们提供了代表常见用例的评估数据集的示例性能结果。 不过,此示例只是一个起点,因为我们鼓励客户在他们自己的数据集上进行测试,以更好地了解该服务将如何处理他们自己的内容和用例,从而为他们的最终客户提供最佳体验。 这不是一次性评估。 为了以负责任的方式构建,我们建议采用迭代方法,让客户定期测试和评估其应用程序的准确性或潜在偏差。

部署和性能优化部分的最佳实践,我们列出了客户应该考虑的关键杠杆,以优化其应用程序在实际部署中的性能。 重要的是要解释客户如何优化作为其整体应用程序或工作流的一个组成部分的 AI 系统的性能以获得最大利益。 例如,在涵盖向身份验证应用程序添加人脸识别功能的 Amazon Rekognition 人脸匹配卡中,我们分享了客户可以采取的步骤来提高其工作流程中人脸匹配预测的质量。

提供负责任的人工智能资源和能力

为我们的客户提供将负责任的人工智能从理论转化为实践所需的资源和工具是 AWS 的持续优先事项。 今年早些时候,我们推出了我们的 负责任地使用机器学习指南 提供了在 ML 生命周期的所有阶段负责任地使用 ML 的注意事项和建议。 AI 服务卡补充了我们现有的开发人员指南和博客文章,它们为构建者提供了服务功能的描述和使用我们的服务 API 的详细说明。 与 亚马逊SageMaker澄清Amazon SageMaker模型监控器,我们提供的功能可帮助检测数据集和模型中的偏差,并通过自动化和人工监督更好地监控和审查模型预测。

与此同时,我们继续在治理等其他关键方面推进负责任的人工智能。 在今天的 re:Invent 上,我们推出了一套新的专用工具,以帮助客户使用 Amazon SageMaker Role Manager、Amazon SageMaker Model Cards 和 Amazon SageMaker Model Dashboard 改进其 ML 项目的治理。 了解更多关于 AWS 新闻博客官网 关于这些工具如何帮助简化 ML 治理流程。

教育是另一个有助于推进负责任人工智能的关键资源。 在 AWS,我们致力于通过 AI 和 ML 奖学金计划培养下一代 AI 开发人员和数据科学家,以及 AWS 机器学习大学 (MLU)。 本周在 re:Invent 上,我们推出了一个新的公共 MLU 课程,内容涉及整个 ML 生命周期的公平性考虑和偏差缓解。 这门免费课程由培训 AWS 员工进行 ML 培训的 Amazon 数据科学家授课,包含 9 小时的讲座和实践练习,并且很容易 开始吧。

AI 服务卡:一种新资源和持续的承诺

我们很高兴为我们的客户和更广泛的社区带来新的透明度资源,并提供有关我们 AI 服务的预期用途、限制、设计和优化的更多信息,这些信息来自我们以负责任的方式构建 AWS AI 服务的严格方法. 我们希望 AI 服务卡将成为一种有用的透明资源,并成为负责任 AI 不断发展的重要一步。 随着我们与客户和更广泛的社区互动以收集反馈并不断迭代我们的方法,AI 服务卡将继续发展和扩展。

联系我们负责的 AI 专家组 开始对话。


关于作者

AWS AI 服务卡简介:一种新资源,可提高透明度并推进负责任的 AI PlatoBlockchain 数据智能。垂直搜索。人工智能。瓦西·菲洛明(Vasi Philomin) 目前是 AWS AI 团队的副总裁,负责语言和语音技术领域的服务,例如 Amazon Lex、Amazon Polly、Amazon Translate、Amazon Transcribe/Transcribe Medical、Amazon Comprehend、Amazon Kendra、Amazon Code Whisperer、Amazon Monitron、Amazon Lookout for Equipment and Contact Lens/Voice ID for Amazon Connect 以及机器学习解决方案实验室和 Responsible AI。

AWS AI 服务卡简介:一种新资源,可提高透明度并推进负责任的 AI PlatoBlockchain 数据智能。垂直搜索。人工智能。彼得哈利南 在 AWS AI 与负责任的 AI 专家团队一起领导负责任 AI 的科学和实践计划。 他在人工智能(哈佛大学博士)和创业(Blindsight,出售给亚马逊)方面拥有深厚的专业知识。 他的志愿活动包括担任斯坦福大学医学院的咨询教授,以及马达加斯加美国商会的主席。 如果可能,他会和孩子们一起去山上:滑雪、登山、远足和漂流

时间戳记:

更多来自 AWS机器学习