解决方案 | 将恶意软件隐藏在神经网络模型中

全球网络安全资讯2021-07-26 20:04:23

研究人员zhi Wang、Chaoge Liu 和Xiang Cui 提出了一种通过神经网络模型传递恶意软件的技术,以在不影响网络性能的情况下逃避检测。

专家进行的测试展示了如何将 36.9MB 的恶意软件嵌入到 178MB-AlexNet 模型中,精度损失为 1%,这意味着该威胁对防病毒引擎是完全透明的。

专家认为,随着人工智能的大规模采用,恶意软件作者将对神经网络的使用越来越感兴趣。我们希望这项工作可以为神经网络辅助攻击的防御提供一个可参考的场景。

神经网络

专家们能够在已经训练好的模型(即图像分类器)中选择一个层,然后将恶意软件嵌入到该层中。

如果模型没有足够的神经元来嵌入恶意软件,攻击者可能会选择使用未经训练的模型,该模型具有额外的神经元。然后,攻击者将在原始模型中使用的相同数据集上训练模型,以生成具有相同性能的模型。

专家指出,该技术仅对恶意软件的隐藏有效,对其执行无效。为了运行恶意软件,必须使用特定的应用程序从模型中提取它,只有当它足够大以包含它时,它才能隐藏在模型中。

“我们将一些嵌入恶意软件的模型上传到 VirusTotal,以检查是否可以检测到恶意软件。这些模型被 VirusTotal 识别为 zip 文件。检测工作涉及58个杀毒引擎,未检测到可疑情况。这意味着这种方法可以逃避普通杀毒引擎的安全扫描。” 该文件指出

作为一种可能的对策,专家建议在最终用户设备上采用安全软件,该软件可以检测从模型中提取恶意软件的操作、其组装和执行。专家还警告原始模型的供应商存在供应链污染。

“当参数被恶意软件字节替换时,模型的结构保持不变,恶意软件在神经元中被分解。由于恶意软件的特征不再可用,它可以逃避常见防病毒引擎的检测。由于神经网络模型对变化具有鲁棒性,因此在配置良好的情况下,性能不会有明显损失。” 论文总结。“这篇论文证明了神经网络也可以被恶意使用。随着人工智能的普及,人工智能辅助攻击将出现,给计算机安全带来新的挑战”

软件神经网络模型
本作品采用《CC 协议》,转载必须注明作者和本文链接
针对现有的静态代码分析工具有较高的误报率与漏报率,提出一种基于切片依赖图(Slice Dependency Graph,SDG)的自动化漏洞检测方法,将程序源代码解析为包含数据依赖和控制依赖信息的切片依赖图,然后使用图神经网络对切片依赖图的结构进行表征学习,最后使用训练的神经网络模型预测待测程序源代码中的漏洞。在 5 类常见缺陷分类(Common Weakness Enumeration,CWE)
STRIDE是一个流行的威胁建模框架,目前已被广泛用来帮助组织主动发现那些可能对其应用系统造成影响的威胁、攻击、漏洞和对策。
2008年在安全社区中所知道的windows恶意可执行软件大约有1000多万个,2013年这个数字达到了1亿,2020年安全社区已知的windows恶意可执行软件数量已经超过5亿[1],这个数字还在持续增长。
反人脸识别技术概述
2023-06-16 09:27:10
虽然这两个系统使用了类似的技术来分析面部图像,但面部验证系统需要用户明确同意才能部署,而许多人脸识别系统在未经用户同意的情况下运行。通过使用反识别工具,用户 P 可以采取针对性的防御措施,以保护其隐私并防止被商业人脸识别系统识别出来。
测试结果表明,勒索病毒检测器检测准确率达到了 97%,勒索病毒家族分类器分类准确率达到了 94%。随着网络犯罪的组织化、规模化,隐匿行为攻击的复杂化和商业化,目前,隐匿高危勒索病毒呈蔓延之势。为了保证计算机网络和计算机应用系统的正常运行,电力企业需要对隐匿高危勒索病毒的攻击作出应对。对抗隐匿高危勒索病毒攻击,保护用户数据的关键措施在于预防,即在勒索软件攻入受害者主机但尚未造成实质性破坏前及时检测并拦截攻击。
智能无人系统在民用和军事领域得到越来越广泛的应用。智能无人系统不仅会面临传统无人系统的安全威胁,同时由于智能的引入将会面对新型的安全威胁。首先,分析智能无人系统面临的安全威胁,在此基础上构建包含智能框架、算法、模型、数据、应用、无人平台、计算环境、通信网络、安全治理等关键要素的安全防御体系。其次,对智能无人系统安全防御涉及的关键技术进行研究,为智能无人系统的安全防御整体解决方案提供借鉴。
电力工控系统是关系到电网安全稳定运行的重要领域。目前国网黑龙江电力有限公司已经建立起“安全分区、网络专用、横向隔离、纵向认证”的边界安全防护体系。但在工控系统核心位置保护方面,还需考虑以下两个问题:电力工控系统具有闭源特性,内部函数逻辑调用非开源;攻击数据样本极少,难以构建特征库引擎。针对以上问题,从系统底层数据提取、运行状态学习等方面开展研究,设计了涵盖厂站、主站两侧的安全防御体系架构,为闭源电
如今机器学习以及深度学习在各个领域广泛应用,包括医疗领域、金融领域、网络安全领域等等。深度学习的首要任务在于数据收集,然而在数据收集的过程中就可能产生隐私泄露的风险,而隐私泄露将导致用户不再信任人工智能,将不利于人工智能的发展。本文总结了目前在深度学习中常见的隐私保护方法及研究现状,包括基于同态加密的隐私保护技术、差分隐私保护技术等等。
根据 MarketsandMarkets 公司 2018 年发布的《安全市场中人工智能》报告,全球人工智能赋能安全市场规模在 2017 年已达 39.2 亿美元,预计 2025 年将达到 348.1 亿美元,平均每年增长率超过 30%。
全球网络安全资讯
暂无描述