人工智能与法律:律师解释公司面临的风险 - Mass Tech Leadership Council

人工智能与法律:律师解释公司面临的风险 – Mass Tech Leadership Council

人工智能与法律:律师解释公司的风险 - 大众科技领导委员会 PlatoBlockchain 数据智能。垂直搜索。人工智能。

一位专门从事数据隐私的律师介绍了人工智能的风险状况。

人工智能的飞速发展正在给商业世界带来很多混乱。但混乱不一定是坏事。如果满足真正的好奇心和理解的愿望,它就能转化为智慧。

波士顿 Foley Hoag 律师事务所合伙人克里斯·哈特 (Chris Hart) 对此深有体会。作为该公司隐私数据安全小组的联席主席,哈特为企业客户提供监管合规方面的建议,帮助他们识别风险并采取政策以避免法律问题。

最近,哈特与体验式人工智能研究所的两名成员(人工智能伦理学家 Matthew Sample 和实验中心主任 Cansu Canca)一起发表了讲话。 负责任的人工智能实践)在由 大众技术领导委员会。该活动吸引了不同的参与者,旨在帮助企业了解如何利用人工智能优化运营。

法律风险

一个常见的误解是人工智能不受监管。虽然专门针对人工智能的法律并不多,但有很多法律适用于人工智能技术。哈特的部分工作是向客户提供有关客户可能不了解的法律风险的建议。他解释说,第一步是区分:我们谈论的是目前正在开发的人工智能系统还是公司正在使用的第三方系统?

哈特说:“对于现在广泛用于工作目的的大型语言模型来说,一个显而易见的事情是,无论它们的效用是什么,它们的输入都可能存在隐私问题。” “你要非常小心,不要输入律师事务所的机密信息,不要输入特权信息,不要输入可能被用作培训数据并无意中泄露的敏感信息。”

还有知识产权问题,特别是在生成人工智能的情况下,这导致了一系列针对人工智能公司的版权诉讼。其中最著名的是《纽约时报》 提起诉讼 反对 OpenAI;盖蒂图片社 起诉 稳定的扩散;以及包括约翰·格里沙姆 (John Grisham)、乔迪·皮考特 (Jodi Picoult) 和乔治·RR·马丁 (George RR Martin) 在内的一组作者 起诉 OpenAI 用于“大规模的系统性盗窃”。

这些诉讼如何持续还有待观察,但对相关公司造成的损失不容低估,教训很明显:使用人工智能的公司——尤其是那些开发新工具的公司——需要谨慎行事。

“该工具会在多大程度上为组织做出不利的决策?”哈特问道。 “是否存在或者可能存在偏见?在工程阶段如何防止这种情况发生?一旦你把整个过程放在一起,你如何审核它以确保你可以循环并纠正问题?”

新观点

这些都是难题,其答案取决于具体的用例。他们还谈到了在开发和部署的每个阶段构建负责任的人工智能 (RAI) 框架的重要性。人工智能领域的成功似乎越来越取决于公司对多学科方法的认可程度。

这就是为什么 体验式人工智能研究所 它的队伍中不乏工程师、哲学家、律师、经济学家等。这也是为什么该研究所和 Foley Hoag 都是大众技术领导委员会 (MTLC) 的成员,该委员会是一个技术协会,召集具有“不同观点”的领导者来解决紧迫的法律和经济挑战。

“你需要拥有了解技术的人,”哈特说。 “你必须让工程师参与进来,但也必须让法律参与其中。你必须有人从多个不同的角度看待它,愿意批判性地思考该技术的设计目的,以及它是否会产生已知或意想不到的不利结果。”

耐心是一种美德

在人工智能的大肆宣传中,人们很容易忘记耐心的重要性。事情发展得很快,因此,可以理解的是,公司担心如果他们不“快速行动并打破常规”,他们就会失去竞争优势。哈特主张采取更谨慎的做法。

“一些公司被迫比预期更早进入市场,因为 ChatGPT 搞砸了一切,”Hart 解释道。 “组织应该仔细考虑他们的人工智能供应商的成熟程度,特别是因为他们需要了解他们的数据发生了什么。”

一方面,专家们表示人工智能具有革命性的前景。从生成人工智能到医疗诊断,其潜力的广度并不能轻易归结为一个单一的方面。另一方面,这种原始的预测能力不仅需要耐心,而且需要远见。很少有公司有能力独自驾驭这一新格局。

要学习如何 体验式人工智能研究所- 凭借其人工智能工程师、学者和从业者名册 - 可以帮助您的企业渡过这些困难的水域, 点击此处.

时间戳记:

更多来自 质量TLC