NIST发布《人工智能风险管理框架》草案重点摘译

VSole2022-08-23 17:14:12

美国国家标准与技术研究所(U.S. National Institute of Standards and Technology,以下简称“NIST”)正在就其人工智能风险管理框架的第二稿征求公众意见。NIST表示,该自愿性指南旨在提高将可信性考虑因素纳入人工智能产品、服务和系统的设计、开发、使用和评估的能力。关于最新草案的公众咨询将持续到9月29日,而NIST还将在10月18-19日的研讨会上征求关于该指南的反馈意见。

《人工智能风险管理框架:第二稿》重点摘译

值得信赖和负责任的人工智能

人工智能(AI)能力的显著提升引发了广泛的创新,有可能使社会和经济许多方面受益——从商业和医疗保健到运输和网络安全。人工智能技术经常被用来提供信息、建议或简化任务,从而实现其有益的影响。

管理人工智能风险与管理其他类型的技术的风险并无不同。任何软件或基于信息的系统的风险都适用于人工智能,包括有关网络安全、隐私、安全和基础设施的担忧。与这些领域一样,人工智能系统的影响可以被定义为长期或短期、高概率或低概率、系统性或局域性、高影响或低影响。然而,人工智能系统带来了一系列风险,需要特定的考虑和方法。人工智能系统会放大、延续或加剧不公平的结果。人工智能系统可能表现出紧急属性或导致个人和社区意想不到的后果。驱动人工智能系统行为的数据交互的有用的数学表示尚不完全可知,这使得目前衡量风险和驾驭风险收益权衡的方法不足。人工智能风险可能来自于用于训练人工智能系统的数据、人工智能系统本身、人工智能系统的使用或人与人工智能系统的交互。

尽管人们对如何让人工智能技术值得信赖的看法不同,但值得信赖的系统具有一些公认的关键特征。值得信赖的人工智能是有效和可靠的,是公平和偏见得到管理的,是安全和灵活的,是可问责和透明的,是可解释和可说明的,是注重隐私的

人工智能系统本质上是社会技术的,这意味着它们是设计、开发和使用中涉及的复杂的人类、组织和技术因素的产物。许多值得信赖的人工智能特征,如偏见、公平、可解释性和隐私,都与社会动态和人类行为直接相关。人工智能的风险和好处可以从技术方面与社会技术因素的相互作用中产生,这些社会技术因素与系统的使用方式、其他人工智能系统的互动、操作它的人以及它部署到的社会环境都息息相关。

使用负责任的人工智能系统与人工智能系统的可信性相对应。人工智能系统本身并不具有风险,通常是环境决定其是否会产生负面影响。人工智能风险管理框架(AI RMF)可以帮助组织增强对构建和部署人工智能系统的环境如何与个人、团体和社区互动和影响的理解。使用负责任的人工智能可以:

  • 协助人工智能设计师、开发人员、部署人员、评估人员和用户更批判性地思考环境和潜在或意想不到的消极和积极影响;
  • 在设计、开发、评估和使用具有影响力的人工智能系统时发挥杠杆作用;
  • 预防、检测、降低和管理人工智能风险。

人工智能风险管理框架的目的

通过认识和管理人工智能系统的风险来培养信任,将有助于维护公民自由和权利并增强安全,同时创造机会激发这一技术完全的潜能。人工智能风险管理框架旨在应对人工智能系统所特有的挑战,并鼓励和帮助不同的人工智能利益相关者主动并有目的地管理人工智能风险。该框架描述了管理人工智能风险的过程,涉及广泛的类型、应用和成熟度,而不考虑行业、规模或对特定类型技术的熟悉程度。与在其他指南中重复信息不同,人工智能风险管理框架旨在填补针对人工智能风险的空白。鼓励人工智能风险管理框架的用户通过当前可用的指导来解决非人工智能特定问题。

人工智能风险管理框架是一个自愿的框架,寻求提供一个灵活的、结构化的和可测量的过程,在人工智能生命周期中前瞻性地和连续地解决人工智能风险。它旨在通过改进理解、检测和预防,帮助组织管理与人工智能系统设计、开发、部署、评估和使用相关的企业和社会风险。使用人工智能风险管理框架可以帮助组织、行业和社会理解并确定其可接受的风险水平。

人工智能风险管理框架不是一份清单,也并不是单独使用的。组织会发现将人工智能风险管理框架纳入企业风险管理的更广泛考虑是有价值的。

人工智能风险管理框架不是一种合规机制。它与法律法规无关,因为人工智能政策的讨论是动态的,并在不断发展。虽然风险管理实践应纳入并符合适用的法律法规,但本文件并无意取代现有的法规、法律或其他授权。

研究界可能会发现人工智能风险管理框架有助于评估值得信任和负责任的人工智能及其相关影响。

通过应用人工智能风险管理框架中的建议,各组织将更有能力治理、描绘、衡量和管理人工智能的风险。使用人工智能风险管理框架可以减少负面影响的可能性和程度,增加个人、团体、社区、组织和社会的利益。

在人工智能系统生命周期的开始阶段应用该框架,将极大地增加由此产生的系统更值得信赖的可能性——个人、团体、社区、组织和社会的风险将得到更有效的管理。框架用户有责任定期将人工智能风险管理框架的功能应用于人工智能系统,因为环境、利益相关者的期望和知识将随着时间的推移和人工智能系统的更新或扩展而不断变化。

NIST与私营和公共部门合作开发人工智能风险管理框架,是由《2020年国家人工智能倡议法》(P.L. 116-283)、《国家安全委员会关于人工智能的建议》以及《联邦参与开发技术标准和相关工具的计划》指导的,并与它所呼吁的更广泛的人工智能努力相一致。本框架的开发过程中,与广泛的人工智能社区合作,为NIST和其他机构的人工智能研究和开发以及评估提供参考。

本框架的第一部分建立了人工智能风险管理过程的背景。第二部分为实施这一过程的结果和活动提供指导,以实现人工智能的利益最大化和风险最小化。人工智能风险管理框架使用手册提供了在人工智能产品、服务和系统开发和部署之前、期间和之后执行本指南时要考虑的示例实践。

人工智能风险管理框架的发展

该框架和支持性资源将根据不断发展的技术、全球的标准状况和利益相关者的反馈进行更新、扩展和改进。随着人工智能风险管理框架的投入使用,将吸取更多的经验教训,为未来的更新和额外的资源提供参考。

人工智能风险管理框架和使用手册将得到更广泛的NIST可信和负责任的人工智能资源中心的支持,该中心包含与可信人工智能的开发和实施有关的文件、分类法、工具包、数据集、代码和其他形式的技术指导。该资源中心还将包括一个关于值得信赖和负责任的人工智能术语的知识库,以及不同的利益相关者如何使用这些术语,同时还包括对值得信赖的特征及其内在挑战有更深入了解的文件。

人工智能风险管理框架为管理人工智能系统的风险提供了高层次的指导。虽然NIST发布的实用指南可作为信息参考,但所有这些指南仍然是自愿使用的。

人工智能风险管理框架的属性

人工智能风险管理框架将努力做到以下几点:

1.以风险为基础,资源效率高,支持创新,并且是自愿的。

2.以共识为导向,通过一个公开、透明的过程制定并定期更新。所有利益相关者都应该有机会为人工智能风险管理框架的发展做出贡献。

3.使用清晰明了的语言,使广大受众能够理解,包括高级行政人员、政府官员、非政府组织领导以及那些非人工智能专业人员。同时仍具有足够的技术深度,对从业人员有用。人工智能风险管理框架应允许在整个组织内、组织间、与客户以及与广大公众交流人工智能风险。

4.提供共同的语言和理解来管理人工智能风险。人工智能风险管理框架应提供人工智能风险的分类学、术语、定义、度量和特征。

5.易于使用,并与风险管理的其他方面很好地配合。该框架的使用应是直观的,并可随时作为一个组织更广泛的风险管理战略和流程的一部分。它应该与管理人工智能风险的其他方法保持一致。

6.适用于广泛的视角、部门和技术领域。人工智能风险管理框架应普遍适用于任何人工智能技术和特定环境的使用案例。

7.以结果为导向,不死板。该框架应该提供一系列的结果和方法,而不是规定一刀切的要求。

8.利用并促进对现有标准、准则、最佳做法、方法和工具的认识,以管理人工智能风险,同时说明需要更多、更好的资源。

9.与法律和法规无关。该框架应支持各组织在适用的国内和国际法律或监管制度下运作的能力。

10.作为一份灵活的文件。随着人工智能可信度和人工智能使用的技术、理解和方法的变化,以及利益相关者从实施人工智能风险管理(尤其是该框架)中学习,人工智能风险管理框架应该随时更新

人工智能风险管理
本作品采用《CC 协议》,转载必须注明作者和本文链接
人工智能风险管理是负责任地开发和使用人工智能系统的关键组成部分,通过机构组织对潜在正负面影响的批判性思考,进而提升人工智能系统可信度,培养公共信任。管理涉及到对系统风险因素的定期映射和测量,包括对事故和事件的响应、补救和沟通,以减少系统故障和负面影响的可能性,并根据评估结果优先排序、有效配置、定期改进风险管理资源。
NIST表示,该自愿性指南旨在提高将可信性考虑因素纳入人工智能产品、服务和系统的设计、开发、使用和评估的能力。人工智能系统可能表现出紧急属性或导致个人和社区意想不到的后果。使用人工智能风险管理框架可以减少负面影响的可能性和程度,增加个人、团体、社区、组织和社会的利益。人工智能风险管理框架应允许在整个组织内、组织间、与客户以及与广大公众交流人工智能风险。
编者按 2021年,全球范围内对于人工智能的监管已经开始从理论探讨走向实际的立法和执法阶段,标志性的事件就是欧盟提出了《欧洲议会和理事会关于制定人工智能统一规则(《人工智能法》)和修正某些欧盟立法的条例》的提案,以及我国国家互联网信息办公室发布的《互联网信息服务算法推荐管理规定》。
从自动驾驶到网络购物,人工智能技术已经渗入数字社会的各个角落,但是人工智能的网络安全和风险管理却相对滞后,NIST推出的人工智能风险管理框架期望能够解决这种“风险差距”。
该框架的目标是提高将可信度纳入AI的能力,包括AI的产品、服务、系统的设计、开发、使用和评估。
NIST特别指出随着技术的不断发展,AI RMF旨在适应AI领域,并被组织使用,以便社会可以从AI技术中受益,同时免受其潜在危害。????值得注意的是,NIST说明AI RMF提供了一个灵活,结构化和可衡量的过程,旨在使组织能够解决AI风险,并分为两部分:????重要的是,NIST指出,在同一天,它发布了一个配套的自愿AI RMF手册,该手册提供了导航和使用AI RMF的方法。在这方面,NIST最后提到,它计划定期更新AI RMF,并欢迎随时对AI RMF手册提出添加和改进的建议。
从2018年开始,公号君就开始给有关数字贸易协定谈判提供技术支撑工作。目前,中国已经建立了关于数据安全和个人信息保护方面的法律框架,对于数据要素治理的宏观谋划和对新技术新业务的规制,也在紧锣密鼓地开展过程之中。于此同时,中国已经申请加入《全面与进步跨太平洋伙伴关系协定》(CPTPP)和《数字经济伙伴关系协定》(DEPA),这两部协定都是自由化水平较高的贸易协定,展示了中国寻求更加开放的决心。显然,
国家网信办等7部门近日发布《生成式人工智能服务管理暂行办法》,对生成式人工智能(AI)技术应用划定清晰边界,实行包容审慎和分类分级监管,确保科学监管和鼓励发展并行。
DEF CON是每年8月在拉斯维加斯召开的黑客大会,此次安全竞赛由人工智能黑客社区AI Village主办。在AI Village发布的活动公告中,组织方Sven Cattell、Rumman Chowdhury和Austin Carson将其称为“有史以来规模最大的人工智能模型红队演习”。最终,得分最高的参与者将获得英伟达高端GPU作为奖品。DEF CON 31将于8月10至13日在拉斯维加斯凯撒宫酒店举办。
编者按: 本公号发表过的关于数据执法跨境调取的相关文章: 微软起诉美国司法部:封口令违法! 网络主权的胜利?再评微软与FBI关于域外数据索取的争议 微软与FBI关于域外数据索取的争议暂告一段落 美国Cloud Act法案到底说了什么 Cloud Act可能本周就得以通过! 修改版的Cloud Act终成为法律 欧盟推出自己的“Cloud Act” 美国快速通过Cloud法案 清晰明确数据主权战
VSole
网络安全专家