网络安全团队必备的AI新技能

VSole2023-05-08 10:24:48

一日千里的AI技术发展让很多科技工作者疲于奔命,甚至谈AI色变,但是对于网络安全人士来说,AI在攻防两端掀起的安全技术革命意味着一次无可避免的技能迭代:无论是防御AI增强攻击还是强化企业AI系统都需要新的安全技能。数据科学、人工智能和提示工程都只是新网络安全技能的冰山一角。

随着人工智能和机器学习模型越来越广泛地融入企业IT架构和网络攻击技术,新的风险正在酝酿之中,例如大规模针对性的人工智能网络钓鱼攻击、可以逃避传统安全检测的AI恶意软件和勒索软件、毒化AI模型的对抗性人工智能攻击等。

传统的网络安全技能,例如渗透测试、威胁建模、威胁搜寻、安全工程和安全意识培训等仍然重要,但是在新威胁背景下,这些技能都需要重新打磨以适应基于AI的新工具、新流程甚至新方法和策略。

当前的AI威胁场景

Darktrace的一项研究发现,2023年前两个月,新型社会工程攻击暴增了135%,这表明攻击者可能已经开始使用生成式AI技术来提高其社会工程攻击的规模和复杂性。

专家预计,使用生成式AI快速大规模制作鱼叉式网络钓鱼电子邮件的攻击数量将迅速增长,并可能扩展到基于音频的生成AI(电话钓鱼)。同样,攻击者还可能会使用神经网络来筛选社交媒体资料,加快对高价值网络钓鱼目标的研究。

这些都是CISO们最为担心的问题:人工智能工具泛滥导致难以检测的复杂网络攻击的高度自动化和民主化

防御AI增强攻击的技能

从安全运营中心(SOC)的技能角度来看,攻击的自动化并不新鲜,但人工智能会大大提高自动化攻击的速度和威胁性。这意味着企业需要更加重视对优秀分析师和威胁猎人的人才吸引和培养,他们擅长寻找、筛选和利用新工具,提高检测效率,快速发现和缓解新型AI增强攻击。

随着攻击者越来越多地使用基于AI和ML(机器学习)的工具,安全团队将需要新的AI自动化套件来寻找与AI增强攻击相关的模式。这意味着企业安全团队至少需要对AI/ML和数据科学有基本的认识和理解(相关技能或人才),才能提出正确的问题。

大型企业的安全领导者们已经开始着手建设内部数据科学和机器学习专业知识和技能。根据Forcepoint首席技术官Petko Stoyanov的说法,全球很多SOC已经开始投资招募数据科学家来开发定制化的机器学习模型,这个趋势早在ChatGPT出现之前就开始了。随着SOC越来越重视威胁猎人的作用,这种趋势可能会加速,但安全领导者们可能会面临人才短缺的问题,因为网络安全和数据科学的复合人才极为稀缺。

企业需要通过一些创造性的人员配备和团队建设来克服人才短缺问题。Stoyanov建议由三名专家组成快速狩猎小组,这三人分别是拥有大量安全经验的威胁猎人、具备数据分析和机器学习经验的数据科学家以及负责产品化和规模化的开发人员。

为威胁猎人提供数据科学和开发方面的人员和资源可以显著提高他们寻找潜伏在网络中的攻击者的生产力,这种“三个臭皮匠”的策略能够弥补企业无法招聘到复合型高级人才的缺憾。

除了社会工程攻击之外,生成式人工智能的恶意使用带来的另一个重大风险是自动开发恶意代码以利用更广泛的已知漏洞。

WithSecure研究员Andy Patel指出:“ChatGPT使编写代码变得极为容易,这意味着漏洞利用也将更加容易。”。Patel的团队最近为芬兰运输和通信局(Finland Transport and Communications Agency)编写了一份报告,详细介绍了人工智能网络攻击的可能性。一个例子是一个新的支持ChatGPT的工具,可以更轻松地枚举大量开源存储库中的安全问题,成为网络安全面临的一个新的潜在风险。

生成式人工智能模型会暴露更多的漏洞,当然,也可能意味着更多的漏洞会得到修复。可以确定的是,在漏洞管理领域将掀起一场人工智能军备竞赛,安全团队将争先恐后地利用人工智能来(抢在攻击者之前)修复漏洞。Patel认为,在网络安全市场将会看到“大量使用LLM(大型语言模型)进行漏洞发现的初创公司”。

除了新工具之外,AI还可能催生新的安全职位,Software AG首席布道者Bart Schouw指出:“企业可能需要提示工程师这样的新角色来加强他们的团队,”他说。提示工程是一项新兴的技能,可以让LLM输出高质量内容,这在漏洞枚举和分类等多个领域可能非常有价值。

保护AI的技能

虽然来自AI驱动的新威胁开始蔓延,但企业内部还存在另一个重大风险:人工智能系统自身(以及与之相关的训练数据)可能受到攻击,或导致机密性、完整性或可用性故障。

Vectra的AI研究员Sohrob Kazerounian指出:“过去5-10年,安全从业者考虑的是如何将更多人工智能整合到安全流程中;但未来5-10年,更多的AI/ML从业者需要将安全内生化到人工智能技术流程中,安全问题将成为人工智能的首要问题。”

安全专家们已经开始采取行动,将人工智能红队和人工智能威胁建模纳入未来人工智能系统的开发和部署中。这意味着企业需要更多人工智能和数据科学人才来支持他们的红队。

“红队将不得不学习一些攻击AI和ML系统的专业知识,”Cybrize的CSO兼联合创始人Diana Kelley解释道:“企业迫切需要招募对安全方面感兴趣的数据科学人员,反之亦然,就像我们一些最好的应用程序红队人员来自程序开发人员一样.”

这也将是AI安全设计的练习,负责在企业中开发和部署AI/ML模型的人员应接受安全团队的培训并与之协作,以了解风险并开展模型的安全测试,这将是未来强化这些AI系统的关键。

“你需要留住设计和开发ML/AI系统的专家,将他们与红队技术黑客组合,然后与安全运营团队进行协作,“Anomali副总裁兼威胁情报总经理Steve Benton认为:“三方应该一起创建潜在的风险场景,对其进行测试和重新设计。企业还需要紫队,而不仅仅是红队。请记住,其中一些测试可能涉及'毒药',您需要一个参考模型设置来做到这一点,并能够逐个场景恢复和重新测试。”

网络安全人工智能
本作品采用《CC 协议》,转载必须注明作者和本文链接
本周四,在拉斯维加斯举行的BlackHat黑客大会上,拜登政府宣布启动为期两年的“人工智能网络安全挑战赛”(AIxCC),探索如何基于AI开发颠覆性的下一代网络安全解决方案,用来保护美国最重要的软件,包括运行互联网和关键基础设施的计算机代码。
近年来机器学习的快速发展使人工智能的潜在能力显而易见。在十几次采访过程中,研究人员、投资者、政府官员和网络安全高管绝大多数表示,他们正以怀疑和兴奋的心情关注生成式人工智能的防御潜力。他们的怀疑源于一种怀疑,即营销炒作歪曲了该技术的实际功能,并且认为AI甚至可能引入一组新的、人们知之甚少的安全漏洞。但这种怀疑被真正的兴奋所掩盖和缓和。这在很大程度上是由于行业领导者OpenAI发布其生成AI产品的积极性。
近日, NVIDIA 发布了一款零信任网络安全平台。利用该平台的一整套功能,网络安全行业可构建实时保护客户数据中心的解决方案。
日前,全球开源安全组织OWASP(Open Web Application Security Project)发布了《AI大模型应用网络安全治理检查清单(V1.0)》(以下简称为《检查清单》)。在这份长达32页的《检查清单》中,较完整地介绍了AI大模型部署应用时的安全原则、部署策略和检查对照表,适用于那些希望在快速发展的AI领域中保持领先地位的组织和机构,使他们能够在制定大型语言模型战略时,专注于
2015—2021年两会有关网络安全的提议提案整理,内容涵盖“物联网安全”、“工业互联网安全”、“数据安全”、“网络安全治理”等方面
当今的网络安全行业严重依赖传统方法(主要是人工驱动的方法),随着基于大语言模型的生成式人工智能变革浪潮袭来,首当其冲的网络安全行业正面临一次技术和方法的颠覆性革命,不想被淘汰的网络安全从业人员需要重新点亮技能树。
2022年是人工智能和机器学习技术在网络安全领域取得重大突破的一年,也是企业CISO们开始利用人工智能技术突破网络安全“不对称战争”困局的一年。
奇安信提报的“支撑零信任安全架构的人工智能信任决策系统”项目在本届网安周人工智能安全产业发展分论坛上,成功入选人工智能安全典型实践案例。
近年来,以AI、大数据技术以及第五代移动通信网络技术等为代表的新一轮数字革命迅速发展。然而,人们在享受自动驾驶、高频金融交易、刷脸支付等AI新技术发展带来的便利同时,AI不断进化、自我训练式成长和变异的特征,以及基于机器学习和深度搜索提升攻击效果的能力,也带来了新的攻击面和攻击手段,数字经济时代下的AI安全机遇与挑战,已成为时下最具研究价值的热点之一。
当地时间12月18日,作为“数字欧洲计划”的一部分,欧盟委员会为包括网络安全人工智能在内的数字解决方案提供了 7.627 亿欧元的资金。
VSole
网络安全专家