时至今日,企业面临的网络攻击规模意味着,自治系统已经成为网络安全的重要组成部分。我们不得不思考安全团队与人工智能(AI)之间的理想关系到底应该是什么样子:应该为AI程序赋予何种程度的信任?安全团队何时介入AI决策?

网络安全领域引入自治系统后,操作人员的决策门槛就能随之提高了。他们不再亲自做出数量多到难以应付的“微决策”,而是制定一系列约束和指南,供AI机器大规模做出数百万细粒度微决策时遵守。于是,工作人员不再在微观层面上管理,而是转到宏观层面上:其日常任务变得更加高级、更具战略性,只有最重要的输入或操作请求才需要人员介入。

但是,人类和AI之间的关系将变成什么样子呢?下面我们剖析《哈佛商业评论》概述的四种情况,解析人机交互的各种可能性,并探讨在网络领域中又会是何种景象。

人在环内(HitL)

这种情况实际上是人类在做决策,而机器只是提供操作建议,以及这些决策背后的上下文和支持性证据,供操作人员缩短动作和起效的时间。

在这种情况下,安全团队对机器如何动作或不动作享有完全的自主权。

这种方式想要长期有效,足够的人力资源是必须的。·而通常情况下,企业的实际情况远远满足不了这个需求。不过,对于想要掌握这项技术的企业而言,这一阶段是建立对AI自主响应引擎信任的重要途径。

例外情况下人在环内(HitLfE)

这种模式下,绝大多数决策都是自主做出的,人类只处理例外情况,即AI在做出决策前请求人类给出一些判断或输入。

人类控制着决定要标记哪些例外供审查的逻辑,而随着数字系统越来越多样化和定制化,还可以为不同需求和用例设置不同级别的自主权。

这意味着,大多数事件都将由AI驱动的自治响应即时自主操作,但企业在特殊情况下“在环内”,享有决定这些特殊情况何时何处出现的灵活性。他们可以在必要的时候干预,但希望在未经仔细审查时谨慎否决或拒绝AI建议的操作。

人在环上(HotL)

这种情况下,机器采取所有操作,而操作人员可以审核这些操作的结果,了解围绕这些操作的上下文。如果遇到紧急安全事件,这种安排下AI可以控制攻击,同时通知操作人员有设备或账户需要支持,此时也就是操作人员下场解决事件的时候了。或许还会需要其他的取证工作,而如果多处出现入侵,AI可能会升级或扩大其响应。

对很多人而言,这就代表了最佳的安全安排。考虑到数据的复杂性和需做决策的规模,每个事件和每个潜在漏洞都需要人员干预是不现实的。

而在这种安排下,人类依然保有对系统操作的时间、位置和程度的完全控制,但在事件确实发生时,这数百万个微决策就留给机器来做了。

人在环外(HootL)

在这种模式下,每个决策都由机器来做出,连改进过程也是个自动化的闭环。这就形成了一个自我修复、自我改进的反馈环路,AI的每个组件都馈送给下一个组件并加以改进,从而提升最佳安全状态。

这代表了最终完全放手的安全方法。安全操作人员不会想要自治系统成为“黑箱”——完全独立运行,安全团队甚至无法查看其所采取的动作或了解其如此动作的原因。即使有人确信自己永远无需干预系统,他们仍会想要监督的。因此,随着自制系统的逐渐完善,强调透明度就显得愈发重要了。这也是近期可解释人工智能(XAI)发展的一个推动因素。XAI采用自然语言处理来向操作人员解释,以基本日常用语阐述机器采取那些操作的原因。

这四种模式都有各自独特的用例,所以无论公司安全成熟度如何,CISO和安全团队都可以放心利用系统的建议,因为他们知道这些建议和决策都是基于无数微观分析做出的,这些微观分析的规模远远超出任何个人或团队在可用时间内所能做出的。这样一来,任何类型和规模的企业,就都能以适合自己的方式对任何用例或业务需求采用AI决策,同时自主检测和响应网络攻击,防止其造成中断或破坏。