NIST推出人工智能风险管理框架

VSole2022-04-13 10:35:58

从自动驾驶到网络购物,人工智能技术已经渗入数字社会的各个角落,但是人工智能的网络安全和风险管理却相对滞后,NIST推出的人工智能风险管理框架期望能够解决这种“风险差距”。

今天,企业和政府组织正在快速拥抱如雨后春笋的人工智能(AI)应用程序,提高自动化程度和运营效率,提供精准购物建议、信用审批、图像处理、预测性警务等等服务。

与任何数字技术一样,AI可能会受到一系列传统安全漏洞和其他新兴问题的影响,例如隐私、偏见、不平等和网络安全问题。为了更好地管理与人工智能相关的风险,美国国家标准与技术研究院(NIST)目前正在开发一个自愿框架,全称是:人工智能风险管理框架(AI RMF)。该框架的目标是将可信度考虑纳入人工智能产品、服务和系统的设计、开发、使用和评估的能力。

NIST希望AI RMF风险框架能够覆盖其他领域没有的,AI独有的风险,并可用于绘制超出框架的合规性考虑因素,包括现有法规、法律或其他强制性指南。

谁应该关注AI风险管理框架

NIST将AI RMF框架的目标受众划分为四个利益相关者群体(上图):

  • 人工智能系统利益相关者
  • 运营商和评估者
  • 外部利益相关者
  • 公众

在识别和管理与AI系统相关的风险的综合方法中,NIST使用了三类特征分类法:技术特征、社会技术特征和指导原则:

  • 技术特性是指AI系统设计人员和开发人员直接控制的因素,可以使用标准评估标准来衡量,例如准确性、可靠性和弹性。
  • 社会技术特征是指人工智能系统在个人、群体和社会环境中的使用和感知方式,例如“可解释性”、隐私、安全和管理偏见。
  • 指导原则是指更广泛的社会规范和价值观,表明社会优先事项,例如公平、问责制和透明度。

与其他NIST框架一样,AI RMF核心包含AI风险管理活动的三个元素:功能、类别和子类别。这些功能被组织用于映射、衡量、管理和治理人工智能风险。尽管AI RMF原计划通过配置文件为特定用例提供上下文信息,但该任务以及计划中的实践指南已被推迟到以后的草案。

人工智能风险治理各自为政

虽然大量科技企业正在开发、销售和部署人工智能技术,但很少有企业关注人工智能的风险治理政策。bnh.ai的科学家Patrick Hall表示,在大型消费金融机构和其他一些高度监管的领域之外,人工智能大多在没有正式风险治理规范的情况下被使用,因此企业(用户)只能自行解决这些暴风雨般的治理问题。”

微软首席人工智能官Natasha Crampton表示:“当你的治理方法过度分散时,就注定会出现失败模式。在这种情况下,团队希望将AI模型部署到生产中,但他们只是采用自己的流程和结构,几乎没有(风险治理方面的)协调。”

富国银行执行副总裁兼企业模型风险负责人Agus Sudjianto也强调AI风险管理离不开高层管理。“如果AI项目负责人没有高层的声望、通道和支持,那将是行不通的。”

埃森哲首席云计算技术官Teresa Tung强调,所有企业都需要专注于人工智能。“全球2000强公司中约有一半在财报电话会议中报告了人工智能技术应用。这(人工智能风险管理)是每个企业都需要意识到的事情。”

与NIST开发的其他风险管理框架(例如网络安全框架)一样,最终的AI RMF可能对私营和公共部门产生广泛的影响。目前AI RMF还处于草案的意见征询期,截止日期为2022年4月29日。

AI RMF草案下载地址:

https://www.nist.gov/system/files/documents/2022/03/17/AI-RMF-1stdraft.pdf

人工智能风险管理
本作品采用《CC 协议》,转载必须注明作者和本文链接
人工智能风险管理是负责任地开发和使用人工智能系统的关键组成部分,通过机构组织对潜在正负面影响的批判性思考,进而提升人工智能系统可信度,培养公共信任。管理涉及到对系统风险因素的定期映射和测量,包括对事故和事件的响应、补救和沟通,以减少系统故障和负面影响的可能性,并根据评估结果优先排序、有效配置、定期改进风险管理资源。
NIST表示,该自愿性指南旨在提高将可信性考虑因素纳入人工智能产品、服务和系统的设计、开发、使用和评估的能力。人工智能系统可能表现出紧急属性或导致个人和社区意想不到的后果。使用人工智能风险管理框架可以减少负面影响的可能性和程度,增加个人、团体、社区、组织和社会的利益。人工智能风险管理框架应允许在整个组织内、组织间、与客户以及与广大公众交流人工智能风险。
编者按 2021年,全球范围内对于人工智能的监管已经开始从理论探讨走向实际的立法和执法阶段,标志性的事件就是欧盟提出了《欧洲议会和理事会关于制定人工智能统一规则(《人工智能法》)和修正某些欧盟立法的条例》的提案,以及我国国家互联网信息办公室发布的《互联网信息服务算法推荐管理规定》。
从自动驾驶到网络购物,人工智能技术已经渗入数字社会的各个角落,但是人工智能的网络安全和风险管理却相对滞后,NIST推出的人工智能风险管理框架期望能够解决这种“风险差距”。
该框架的目标是提高将可信度纳入AI的能力,包括AI的产品、服务、系统的设计、开发、使用和评估。
NIST特别指出随着技术的不断发展,AI RMF旨在适应AI领域,并被组织使用,以便社会可以从AI技术中受益,同时免受其潜在危害。????值得注意的是,NIST说明AI RMF提供了一个灵活,结构化和可衡量的过程,旨在使组织能够解决AI风险,并分为两部分:????重要的是,NIST指出,在同一天,它发布了一个配套的自愿AI RMF手册,该手册提供了导航和使用AI RMF的方法。在这方面,NIST最后提到,它计划定期更新AI RMF,并欢迎随时对AI RMF手册提出添加和改进的建议。
从2018年开始,公号君就开始给有关数字贸易协定谈判提供技术支撑工作。目前,中国已经建立了关于数据安全和个人信息保护方面的法律框架,对于数据要素治理的宏观谋划和对新技术新业务的规制,也在紧锣密鼓地开展过程之中。于此同时,中国已经申请加入《全面与进步跨太平洋伙伴关系协定》(CPTPP)和《数字经济伙伴关系协定》(DEPA),这两部协定都是自由化水平较高的贸易协定,展示了中国寻求更加开放的决心。显然,
国家网信办等7部门近日发布《生成式人工智能服务管理暂行办法》,对生成式人工智能(AI)技术应用划定清晰边界,实行包容审慎和分类分级监管,确保科学监管和鼓励发展并行。
DEF CON是每年8月在拉斯维加斯召开的黑客大会,此次安全竞赛由人工智能黑客社区AI Village主办。在AI Village发布的活动公告中,组织方Sven Cattell、Rumman Chowdhury和Austin Carson将其称为“有史以来规模最大的人工智能模型红队演习”。最终,得分最高的参与者将获得英伟达高端GPU作为奖品。DEF CON 31将于8月10至13日在拉斯维加斯凯撒宫酒店举办。
编者按: 本公号发表过的关于数据执法跨境调取的相关文章: 微软起诉美国司法部:封口令违法! 网络主权的胜利?再评微软与FBI关于域外数据索取的争议 微软与FBI关于域外数据索取的争议暂告一段落 美国Cloud Act法案到底说了什么 Cloud Act可能本周就得以通过! 修改版的Cloud Act终成为法律 欧盟推出自己的“Cloud Act” 美国快速通过Cloud法案 清晰明确数据主权战
VSole
网络安全专家