NIST研究揭示人工智能漏洞:中毒数据、恶意操纵等等

Anna艳娜2024-01-09 11:37:54
NIST揭示人工智能漏洞和潜在威胁的见解。美国国家标准与技术研究院(NIST)暴露了关键的人工智能漏洞,威胁行为者可以利用这些漏洞来创造潜在的途径来危害人工智能系统。


在一项综合研究中,美国国家标准与技术研究所(NIST)的研究人员深入研究了人工智能(AI)系统中的漏洞,揭示了对手和恶意威胁行为者对不可信数据的利用。


尽管存在担忧,人工智能已成为我们生活中的重要角色。从检测暗网网络攻击到在医生能力不足时诊断严重的医疗状况,可以肯定地说人工智能将继续存在。然而,它需要强有力的网络安全措施,以防止其落入恶意威胁行为者手中。


因此,这项题为“对抗性机器学习:攻击和缓解的分类和术语”的研究可以说是对建立值得信赖的人工智能的持续努力的重大贡献。


NIST的计算机科学家讨论了与人工智能系统相关的固有风险,揭示攻击者可以故意操纵或“毒害”这些系统以导致故障。


该出版物强调,缺乏针对此类对抗性攻击的万无一失的防御机制,敦促开发人员和用户在声称无法穿透的安全措施的情况下保持谨慎。


该研究将重大攻击分为四类:逃避、投毒、隐私和滥用。逃避攻击旨在改变部署后的输入,而中毒攻击则在训练阶段引入损坏的数据。


隐私攻击发生在部署过程中,试图提取敏感信息以供滥用,而滥用攻击则涉及将不正确的信息插入人工智能源中。


该研究承认保护人工智能免受误导的挑战,特别是由于训练中使用的大量数据集超出了人类监控的范围。NIST概述了潜在的攻击和相应的缓解策略,强调社区需要增强现有防御。


该研究强调现实世界场景,探讨敌对行为者如何利用人工智能的漏洞,导致不良行为。例如,当精心设计的提示操纵时,聊天机器人可能会用辱骂性语言做出反应,从而暴露了人工智能在处理不同输入方面的脆弱性。有关本研究背后的完整研究材料,请访问此处(PDF)。


为了深入了解NIST的最新研究,我们联系了SaaS安全先驱AppOmni的首席AI工程师兼安全研究员Joseph Thacker。Joseph说研究是“他迄今为止见过的最好的人工智能安全出版物。


“这是我见过的最好的人工智能安全出版物。最值得注意的是深度和覆盖面。这是我遇到过的关于人工智能系统对抗性攻击的最深入的内容。它涵盖了不同形式的即时注射,为以前没有明确标记的组件详细阐述并提供了术语,”约瑟夫指出。


“它甚至引用了丰富的现实世界示例,例如DAN(Do Anything Now)越狱和一些令人惊叹的间接提示注入工作。它包括涵盖潜在缓解措施的多个部分,但很明显这还不是一个已解决的问题,”他补充道。


“最后有一个有用的术语表,我个人计划在编写或研究人工智能安全性时将其用作大型语言模型的额外“上下文”。它将确保法学硕士和我正在使用特定于该主题领域的相同定义。总的来说,我相信这是涵盖人工智能安全的最成功的总体内容。”约瑟夫强调道。


NIST鼓励开发者社区批判性地评估和改进现有的对抗性攻击防御措施。这项研究是政府、学术界和工业界共同努力的成果,提供了攻击和缓解措施的分类,认识到人工智能威胁不断变化的性质以及相应调整防御措施的必要性。

漏洞人工智能
本作品采用《CC 协议》,转载必须注明作者和本文链接
因为每个人似乎都在谈论最热门的潮流;人工智能和机器学习;叙事科学的一份报告称,到2018年,62%的大型企业将广泛使用人工智能技术。毫无疑问,我们人类可以发现漏洞,但不能同时分析数以百万计、数十亿行代码的程序。云人工智能技术为该公司的两种产品提供了动力:CloudMon –监控各种互联网基础设施关键安全问题的系统。
NIST揭示人工智能漏洞和潜在威胁的见解。美国国家标准与技术研究院(NIST)暴露了关键的人工智能漏洞,威胁行为者可以利用这些漏洞来创造潜在的途径来危害人工智能系统。
近日,微软向漏洞猎人们悬赏1.5万美元,帮助其查找人工智能驱动的“Bing体验”中的严重漏洞
人工智能在网络靶场领域的应用创新方向进行探讨
在近几十年中,人工智能 (AI) 已经从科幻概念逐步转变为实际应用,渗透到社会的每个角落。从为电商网站推荐个性化商品,到自动制导车辆,再到帮助医生诊断疾病,AI的应用看似无所不在。然而,随着AI在各行各业的广泛应用,其在网络安全领域的作用也日益凸显。
一位不愿透露姓名的高级政府官员向CyberScoop透露,此次DEFCON的AI红队活动是首次公开评估大型语言模型。这不是华盛顿首次邀请DEF CON白帽黑客社区寻找关键新兴技术的弱点。据悉,今年的DEF CON人工智能漏洞搜寻活动将基于Scale AI开发的AI评估平台,Scale AI是一家为AI应用程序提供培训的加利福尼亚公司。
新加坡南洋理工大学的计算机科学家们近日成功入侵了多个人工智能(AI)聊天机器人,包括ChatGPT、谷歌Bard和微软必应聊天机器人,生成了所谓的“越狱”(即破解)内容。
4月11日,OpenAI在其官网发文,宣布推出关于其基于AI的产品的漏洞赏金计划,邀请全球白帽黑客协助其识别及解决其人工智能系统的漏洞,最高奖励可达2万美元。有意向的安全研究人员可以通过Bugcrowd众包安全平台提交其发现的OpenAI产品线中的漏洞,并获得相应报酬。据了解,该漏洞赏金计划涵盖的范围包括OpenAI的API、ChatGPT、与OpenAI相关的第三方企业目标,OpenAI研究组织及其运营的网站、服务和API等。
然而,Trellix研究证实,在大多数情况下,攻击者可以获得代码执行,从而使这个Python漏洞更加严重。他指出,Python的问题在过去15年中呈指数级恶化。由于易受攻击的存储库的数据量异常庞大,Trellix联系了GitHub以获得额外的访问权限,结果发现包含超过500,000个使用tarfile包的GitHub存储库。TechTarget联系微软征求意见,但截至发稿时,这家软件巨头并未发表任何声明。Trellix为供应商发布了检测工具,目前为11,000个存储库提供了补丁。
2022 年 11 月末,由美国 OpenAI 公司开发的聊天机器人 ChatGPT 横空出世。考虑到因信息不实而作出错误决策的风险,虚假信息或许是阻碍生成式人工智能大范围商用的最大技术难题。尽管 OpenAI 声称此次事件仅涉及1.2%的 ChatGPT Plus 用户,但考虑到 ChatGPT 的庞大用户群,涉事用户恐怕不在少数。
Anna艳娜
暂无描述