生成式人工智能对网络安全团队有好处吗?自从去年11月ChatGPT推出以来,关于人工智能是否会使网络威胁格局向有利于网络攻击者或防御者的方向发展一直存在着激烈的辩论。

最近,Nvidia(英伟达)公司的首席安全官、Nutanix公司的前网络安全高级总监David Reber在接受行业媒体的采访时,分享了他对生成式人工智能和ChatGPT等工具将在2023年对网络威胁格局产生影响的看法。

以下是行业媒体对David Reber的采访实录:

为什么需要采用人工智能来阻止人工智能驱动的网络威胁?

Reber:了解网络攻击者的局限性可以深入了解他们的下一步行动。网络攻击者面临的限制之一是采用专有技术进行大规模定制攻击。

随着生成式人工智能的技术进步,网络攻击者可以轻松地进行微调和针对性的攻击。

网络攻击的速度和复杂性超过了人类的能力。这就是防御性人工智能发挥作用的地方。那么如何采用他们的工具来对付他们?这是一个永远存在的“猫捉老鼠”的游戏。

在使用防御性人工智能对抗进攻性人工智能时,网络安全团队会面临哪些挑战?

Reber:十年前,人工智能行业转向了“假定违约”策略。我们认识到,网络攻击者只需成功攻击一次,而防御者必须每次都成功防御。

网络攻击者了解防御者的局限性:人力、监管、竞争的优先事项。随着人们继续面临越来越多的商业网络实践监管,正确使用网络的需求变得更加迫切。

人工智能面临的根本挑战是信任。那么如何知道把人类的能力集中在其他地方是有效的呢?从根本上说,人们需要信任人工智能,然后将其实现自动化。

例如,我们乘坐自动驾驶汽车,但相信它能把我们送到目的地吗?网络攻击者没有规则和界限,也没有法律监督来防止出现这些问题。

首席信息安全官如何利用人工智能在某种程度上战胜恶意人工智能的使用?

Reber:据估计,2022年全球拥有140亿多台物联网设备。为了战胜恶意人工智能,企业安全领导者需要确保业务安全,或者增加网络攻击的成本。虽然我们正处于生成式人工智能的形成阶段,但可以采用传统的拖延战术。

首席信息安全官可以在网络上创建一个更有趣的目标,并知道如何互动作为回报。其目标是为网络攻击制造更多的噪音,并让他们在价值较低的数据上浪费更多的时间。例如将虚假数据伪装成知识产权,这是一场欺骗之战。

对ChatGPT有什么看法吗?

Reber:它将使网络安全民主化。在此之前,网络攻击受到规模和技术的限制。ChatGPT具有消除这一限制因素的潜力。

这将孕育出新一代的网络攻击者,而他们的限制因素现在被移除了。但这也是防御者预测未来的机会,因此需要了解他们的攻击面中尚未探索的角落。

关于这个话题还有什么补充的吗?

Reber:市场上充斥着利基解决方案。每个人都在努力寻找适合自己的下一代计算技术。在当前的经济形势下,我们都需要找到少花钱多办事的方法。这将导致更统一的技术堆栈和投资更少的解决方案和工具。

当我们应对网络攻击时,需要团结起来,形成一个生态系统。传输信息交换的互操作性是我们领先网络攻击者的方式,因此需要共享技能和知识,使我们能够战胜对手。