从STRIDE威胁模型看AI应用的攻击面威胁与管理

VSole2023-10-13 17:16:51

STRIDE是一个流行的威胁建模框架,目前已被广泛用来帮助组织主动发现那些可能对其应用系统造成影响的威胁、攻击、漏洞和对策。如果把“STRIDE”中的每个字母拆开,则分别代表了假冒(Spoofing)、篡改(Tampering)、否认(Repudiation)、信息披露(Information Disclosure)、拒绝服务(Denial of Service)和特权提升(Elevation of Privilege)。

随着人工智能(AI)系统应用逐渐成为企业数字化发展的关键组成部分,许多安全从业者呼吁必须尽快识别和防护这些系统的安全风险,而STRIDE框架无疑可以帮助组织更好地理解AI系统中可能的攻击路径,并强化其AI应用程序的安全性与可靠性。在本文中,安全研究人员使用STRIDE模型框架全面梳理映射了AI系统应用中的攻击面(见下表),并对特定于AI技术的新攻击类别和攻击场景进行了研究。随着AI技术不断发展,会有更多新的模型、应用、攻击和操作模式也随之演进。

针对AI基础设施的攻击

AI研究员Andrej Karpathy指出,新一代深度神经网络模型的到来,标志着传统概念化软件生产方式发生了范式转变。开发人员越来越多地将AI模型嵌入复杂的系统中,这些模型不是用循环和条件的语言来表达的,而是用连续向量空间和数值权重来表达的,这也为漏洞利用创造了新的途径,并催生了新的威胁类别。

  • 篡改。攻击者如果能够篡改模型的输入和输出,或者改变AI基础设施的某些设置参数,就可能导致有害和不可预测的恶意结果,例如意外行为、与AI代理的交互以及对链接组件的影响。
  • 伪冒。如果攻击者在模型或组件交付过程中模拟可信源,就会发生伪冒行为。这种技术可以让攻击者将恶意元素引入AI系统。同时,伪冒也可作为模型供应链攻击的一部分,例如,如果威胁行为者渗透了像Huggingface这样的第三方模型提供商,在下游进行AI输出的代码执行时,他们可以在某些情况下通过感染上游模型来控制周围基础设施。
  • 信息披露。敏感数据暴露是任何网络应用程序的常见问题,包括为AI系统提供服务的应用程序。在2023年3月,Redis的错误配置导致一个Web服务器暴露了私人数据。一般来说,Web应用程序容易受到经典的OWASP十大漏洞的影响,如注入攻击、跨站脚本和不安全的直接对象引用。这种情况同样适用于为AI系统提供服务的Web应用程序。
  • 拒绝服务(DoS)。DoS攻击也会给AI应用构成威胁,通过用流量淹没模型供应商的基础设施,攻击者可以使AI服务无法使用。在围绕AI模型的基础设施和应用程序中设计弹性是实现AI系统安全的基础要求,但这还远远不够。

针对模型训练和推理的攻击

对于已训练的AI模型以及较新的第三方生成型AI系统,同样存在以下攻击面威胁:

  • 数据集污染和超参数篡改。AI模型在训练和推理阶段容易受到特定的威胁,数据集污染和超参数篡改是STRIDE篡改类别下的攻击,指的是威胁行为者将恶意数据注入训练数据集。例如,攻击者可以故意向人脸识别AI中输入误导性的图像,导致其错误地识别个体。
  • 对抗样本。对抗样本已经成为AI应用信息泄露或篡改威胁的常见攻击方式,攻击者操纵模型的输入,使其做出错误的预测或分类。这些行为可能会泄露关于模型训练数据的敏感信息或者欺骗模型以意想不到的方式行事。例如,一组研究人员表明,在停车标志上添加小块胶带可能会混淆嵌入自动驾驶汽车的图像识别模型,这可能会导致严重后果。
  • 模型提取。模型提取是一种新发现的恶意攻击形式,属于STRIDE的信息泄露类别。攻击者的目标是基于模型的查询和响应来复制专有的训练机器学习模型。他们精心设计一系列查询,并利用模型的响应来构建目标AI系统的副本。这种攻击可能侵犯知识产权,并可能导致重大的经济损失。同时,攻击者拥有模型副本后,还可以执行对抗性攻击或反向工程训练数据,从而产生其他威胁。

针对大语言模型(LLM)的攻击

大语言模型(LLM)的流行推动了新型AI攻击方式的出现,LLM开发和集成是一个非常热门的话题,因此,针对其的新攻击模式层出不穷。为此,OWASP研究团队已经开始起草首个版本的OWASP Top 10 LLM威胁项目。

  • 提示注入。提示注入包括越狱、提示泄露和令牌走私。在这些攻击中,攻击者会操纵输入提示,以触发LLM的非预期行为。这种操纵可能导致AI产生不适当的响应或泄露敏感信息,与STRIDE的欺骗和信息泄露类别相吻合。当AI系统与其他系统结合使用或在软件应用程序链中使用时,这些攻击尤为强大。
  • 不当的模型输出及过滤。大量的API应用可能以各种非公开暴露的方式被利用。比如,像Langchain这样的框架可以让应用程序开发人员在公共生成式模型和其他公共或私有系统(如数据库或Slack集成)上快速部署复杂的应用程序。攻击者可以构造一个提示,欺骗模型进行原本不允许的API查询。同样地,攻击者也可以将SQL语句注入通用未净化的web表单中以执行恶意代码。
  • 成员推理和敏感数据提取。攻击者可以利用成员推理攻击以二进制方式推断特定数据点是否在训练集中,从而引起隐私问题。数据提取攻击允许攻击者从模型的响应中完全重建关于训练数据的敏感信息。当LLM在私有数据集上训练时,常见的情况就是模型可能具有敏感的组织数据,攻击者可以通过创建特定的提示来提取机密信息。
  • 木马模型。LLM已被证明在微调阶段容易(即使是最小的操作)受到训练数据集污染的影响。此外,对熟悉的公共训练数据进行篡改在实践中也已被证明是可行的。这些弱点为公开可用的语言模型充当木马模型敞开了大门。从表面上看,它们的功能与大多数提示的预期一样,但它们隐藏了在微调期间引入的特定关键字。一旦攻击者触发这些关键字,木马模型就可以执行各种恶意行为,包括提升特权、使系统无法使用(DoS)或泄露私人敏感信息等。
网络安全人工智能
本作品采用《CC 协议》,转载必须注明作者和本文链接
本周四,在拉斯维加斯举行的BlackHat黑客大会上,拜登政府宣布启动为期两年的“人工智能网络安全挑战赛”(AIxCC),探索如何基于AI开发颠覆性的下一代网络安全解决方案,用来保护美国最重要的软件,包括运行互联网和关键基础设施的计算机代码。
近年来机器学习的快速发展使人工智能的潜在能力显而易见。在十几次采访过程中,研究人员、投资者、政府官员和网络安全高管绝大多数表示,他们正以怀疑和兴奋的心情关注生成式人工智能的防御潜力。他们的怀疑源于一种怀疑,即营销炒作歪曲了该技术的实际功能,并且认为AI甚至可能引入一组新的、人们知之甚少的安全漏洞。但这种怀疑被真正的兴奋所掩盖和缓和。这在很大程度上是由于行业领导者OpenAI发布其生成AI产品的积极性。
近日, NVIDIA 发布了一款零信任网络安全平台。利用该平台的一整套功能,网络安全行业可构建实时保护客户数据中心的解决方案。
日前,全球开源安全组织OWASP(Open Web Application Security Project)发布了《AI大模型应用网络安全治理检查清单(V1.0)》(以下简称为《检查清单》)。在这份长达32页的《检查清单》中,较完整地介绍了AI大模型部署应用时的安全原则、部署策略和检查对照表,适用于那些希望在快速发展的AI领域中保持领先地位的组织和机构,使他们能够在制定大型语言模型战略时,专注于
2015—2021年两会有关网络安全的提议提案整理,内容涵盖“物联网安全”、“工业互联网安全”、“数据安全”、“网络安全治理”等方面
当今的网络安全行业严重依赖传统方法(主要是人工驱动的方法),随着基于大语言模型的生成式人工智能变革浪潮袭来,首当其冲的网络安全行业正面临一次技术和方法的颠覆性革命,不想被淘汰的网络安全从业人员需要重新点亮技能树。
2022年是人工智能和机器学习技术在网络安全领域取得重大突破的一年,也是企业CISO们开始利用人工智能技术突破网络安全“不对称战争”困局的一年。
奇安信提报的“支撑零信任安全架构的人工智能信任决策系统”项目在本届网安周人工智能安全产业发展分论坛上,成功入选人工智能安全典型实践案例。
近年来,以AI、大数据技术以及第五代移动通信网络技术等为代表的新一轮数字革命迅速发展。然而,人们在享受自动驾驶、高频金融交易、刷脸支付等AI新技术发展带来的便利同时,AI不断进化、自我训练式成长和变异的特征,以及基于机器学习和深度搜索提升攻击效果的能力,也带来了新的攻击面和攻击手段,数字经济时代下的AI安全机遇与挑战,已成为时下最具研究价值的热点之一。
当地时间12月18日,作为“数字欧洲计划”的一部分,欧盟委员会为包括网络安全人工智能在内的数字解决方案提供了 7.627 亿欧元的资金。
VSole
网络安全专家