ChatGPT当安全分析师,偶尔会犯错

VSole2023-02-21 09:14:31

上周公布的一些实验结果已经证明,当下大热的大型语言模型(LLM)ChatGPT可用于帮助防御者分类潜在安全事件和发现代码中的安全漏洞——虽然这个人工智能(AI)模型并非专为此类活动而训练的。

ChatGPT作为事件响应工具有何效用?在2月15日发布的分析报告中,卡巴斯基事件响应团队主管Victor Sergeev发现,ChatGPT能够识别在被黑系统上运行的恶意进程。Sergeev通过Meterpreter和PowerShell Empire代理感染了目标系统,执行了常见黑客操作,然后用ChatGPT驱动的扫描器针对系统进行扫描。

在描述实验的博客文章中,Sergeev写道,这个LLM识别出系统上运行着两个恶意进程,并精准略过137个良性进程,很大程度上降低了潜在开销。

“ChatGPT成功识别出可疑服务,且没有误报。至于第二项服务,ChatGPT给出了结论,说明为什么该服务应该被归为入侵指标。”

安全研究人员和AI黑客都对ChatGPT投诸极大兴趣,探索这个LLM的弱点;而其他研究人员和网络罪犯则试图黑化这款LLM,以之产出效果更好的网络钓鱼电子邮件或生成恶意软件。

图:ChatGPT发现入侵指标(IoC),误报很少

不过,安全研究人员也关注这款通用语言模型在特定防御相关任务上的表现。去年12月,数字取证公司Cado Security通过ChatGPT用事件的JSON数据创建了入侵时间线,形成了很不错但并不完全准确的报告。安全咨询机构NCC Group尝试用ChatGPT查找代码中的漏洞,ChatGPT不负所望,但并不总能那么准确。

NCC Group首席科学家Chris Anley得出结论:安全分析师、开发人员和逆向工程师使用LLM需谨慎,尤其是用在LLM能力范围之外的任务之上的时候。

“我确实认为专业开发人员和其他处理代码的人都应该探索ChatGPT及类似模型,但更多的是用作启发而不是追求绝对正确的实际结果。安全代码审核不是我们该用ChatGPT做的事儿,所以期待它一出场就完美亮相多少有点不公平。”

用AI分析IoC

卡巴斯基的实验以询问ChatGPT几款黑客工具的相关情况开始,比如Mimikatz和Fast Reverse Proxy。ChatGPT很好地描述了这些工具,但未能正确识别众所周知的散列值和域名。比如说,WannaCry恶意软件广为流传的一个散列值就没识别出来。

不过,主机恶意代码识别的成功促使Sergeev开始要求ChatGPT创建PowerShell脚本,用以收集系统的元数据和入侵指标并将之提交给ChatGPT。在手动改进了代码之后,Sergeev在被感染的测试系统上使用了该脚本。

这位卡巴斯基分析师用ChatGPT分析了测试系统上总共3500多起事件,找出74个潜在入侵指标,其中17个是误报。实验表明,ChatGPT可以帮助未运行端点检测与响应(EDR)系统的公司收集取证信息,有助于检测代码混淆或逆向工程代码二进制文件。

Sergeev还警告道,不准确是个非常现实的问题。“要注意LLM可能产生的误报和漏报。”他写道,“这终究不过是又一个会产生非预期结果的统计神经网络而已。”

Cado Security的分析则揭示,ChatGPT通常不确定其结果的可信度。“这就是OpenAI自己引发的对ChatGPT的共同关切——ChatGPT会幻听,而且幻听的时候还很自信。”

需澄清合理使用及隐私规则

实验还引出了一些关键问题,有关提交给OpenAI ChatGPT系统的数据。公司已经开始反对用互联网上的信息创建数据集了,Clearview AI和Stability AI等公司正面临诉讼,要求限制其机器学习模型的使用。

另一个问题是隐私。NCC Group的Anley表示,安全专业人员必须确定提交的入侵指标是否会暴露敏感数据,或者提交软件代码供分享是否侵害了公司的知识产权。

“向ChatGPT提交代码是否是个好主意很大程度上取决于所处境况。”他说道,“很多代码都是专有的,受到各种法律保护,所以我不会建议向第三方提交代码,除非获得许可。”

Sergeev发出了类似的警告:使用ChatGPT检测入侵必然会向这个系统发送敏感数据,这就有可能违反公司政策,带来业务风险。”

“使用这些脚本,你将数据发送给OpenAI,包括敏感数据。所以,谨慎点儿,先咨询下系统拥有者。”

本作品采用《CC 协议》,转载必须注明作者和本文链接
在2月15日发布的分析报告中,卡巴斯基事件响应团队主管Victor Sergeev发现,ChatGPT能够识别在被黑系统上运行的恶意进程。需澄清合理使用及隐私规则实验还引出了一些关键问题,有关提交给OpenAI ChatGPT系统的数据。NCC Group的Anley表示,安全专业人员必须确定提交的入侵指标是否暴露敏感数据,或者提交软件代码供分享是否侵害了公司的知识产权。
以机器学习为核心,ChatGPT使用2021年及更早收集的大量数据来生成响应。内容过滤器被触发,ChatGPT拒绝执行请求。发生这种情况是因为我们要求将shellcode注入explorer.exe中。有趣的是,通过要求ChatGPT使用多种限制并要求它做同样的事,我们收到了一个功能代码。到目前为止,我们已经看到ChatGPT可以为典型的勒索软件提供必要的代码,包括代码注入和文件加密模块。为了实现这一点,恶意软件包括一个Python解释器,它定期查询ChatGPT,以查找执行恶意操作的新模块。
一年前,ChatGPT问世,以强大的信息整合推理和语言对话能力惊艳全球,随后,以大语言模型LLM(以下简称“大模型”)为代表的AI技术应用全面席卷,赋能千行百业,重构业务流程,加速产业升级。
ChatGPT是一种非常有用的工具。它有非常强大的知识积累,可以将复杂主题化繁为简。
事件响应分类和软件漏洞发现是大型语言模型成功的两个领域,尽管误报很常见。
随着ChatGPT引爆生成式AI技术,生成式AI技术被安全供应商广泛宣传为提高安全团队生产力和应对威胁速度的利器。
全球各地的公司都在努力应对技术不断变化的影响,以及跟上网络安全能力不断发展的需要,这直接影响到已经在该行业工作的个人,以及公司在招聘下一位事件响应员、治理、风险和合规(GRC)专家以及安全运营中心(SOC)分析师时寻求的技能。
近年来机器学习的快速发展使人工智能的潜在能力显而易见。在十几次采访过程中,研究人员、投资者、政府官员和网络安全高管绝大多数表示,他们正以怀疑和兴奋的心情关注生成式人工智能的防御潜力。他们的怀疑源于一种怀疑,即营销炒作歪曲了该技术的实际功能,并且认为AI甚至可能引入一组新的、人们知之甚少的安全漏洞。但这种怀疑被真正的兴奋所掩盖和缓和。这在很大程度上是由于行业领导者OpenAI发布其生成AI产品的积极性。
实际上,红队演习旨在解决人们对部署强大AI系统在社会中的危险的广泛担忧。因此,红队针对虚假陈述、言语操纵和危险的科学智慧进行了测试。OpenAI承认GPT-4仍可能表现出偏见。然而,卡恩和其他安全测试人员发现,模型的回应在测试期间变得相当安全。OpenAI表示,在发布前,已经对GPT-4进行了训练,使其拒绝恶意的网络安全请求。2018年5月,DPO社群举行了第一次线下沙龙。目前DPO社群已超过400人。
VSole
网络安全专家