如何应对AI安全威胁

VSole2023-04-21 10:28:22

从教育界到商界,再到网络安全领域,很多行业都对名为ChaGPT的一款人工智能(AI)工具感到焦虑。许多文章描述了ChatGPT在创建网络钓鱼电子邮件和通过医学院及商学院测试方面是多么高效。ChatGPT能像人类一样撰写、叙述和回答各种主题的问询,还能发现计算机系统中的漏洞,自然引发了对该工具可能被用于大规模进行有效网络钓鱼活动的担忧。

尽管目前还只是个玩具,一个用来显示AI进步程度的小把戏,但随着AI模型的持续改进和恶意黑客对此类工具的利用,企业和政府机构应该考虑未来两到五年会发生什么了。企业和机构现在就应该采取行动,加强自身网络防御,抵御当前和潜在的威胁。

AI的通用性带来了风险

ChatGPT由OpenAI创建,自2022年11月起便可在开放测试期内用于查询。OpenAI是一家追求AI创新的研究与部署公司,该公司宣称,创建此聊天机器人是为了以对话方式互动,研究用户反馈,了解自身优劣。这款聊天机器人被用来探讨科学问题,帮助写诗或写歌,甚至还能用来求职。ChatGPT确实会犯错。IT技术问答网站StackOverflow就暂时封禁了ChatGPT,因为它的回答往往是不正确的,发布这些答案可能会对该网站用户造成“巨大伤害”。但ChatGPT一直在学习和改进。

下一阶段的AI威胁

ChatGPT最紧迫的网络安全问题是,就算是新手网络攻击者也可以使用该工具编写网络钓鱼电子邮件、利用缓冲区溢出漏洞,以及进行其他基本网络攻击。而在几年之后,这些威胁会变得严重得多。

AI工具将能帮助获得代理访问权限的恶意内部人或网络犯罪分子设计和操纵公司内部对话,发送精准定位的针对性网络钓鱼电子邮件,伪装公司内部人员提出貌似合理的请求。

企业该如何保护自身

企业可以采取几个措施来培养安全优先的文化,保护自己免受AI当前和未来可能构成的威胁:

1、确保业务部门抱持怀疑之心。公司每个层级的人员都应当质疑电子邮件或其他任何沟通渠道中看到的内容。Verizon《2022年数据泄露调查报告》显示,因为往往非常奏效,网络钓鱼甚为普遍,占了北美社会工程攻击的73%。员工应当接受培训,仔细审查任何电子邮件、Slack邀请或其他沟通方式,注意任何欺诈迹象。

2、提供持续的实时网络安全培训。几乎每家公司都有网络安全培训计划,员工每年都必须参加。但考虑到基于网络钓鱼攻击的数据泄露事件如此之多,这种程度的年度网络安全培训显然是不够的。企业需要帮助员工实时识别网络钓鱼攻击,在员工点击欺诈链接或将特权信息下载到U盘上时当场指出。为了提高工作效率,员工往往会试图寻找一些变通方法,所以需要及时进行网络安全培训,提醒员工操作规程存在的意义。

3、设置互联网边界,减少不必要的使用。工作场所在某种程度上已经做了这方面的防护,例如屏蔽攻击网站或禁止可能危及公司数据的互联网使用。如果尚未有这方面动作,公司可以设立书面政策,详细列出可接受的和禁止的互联网使用。可以用程序来限制仅能访问经批准的网站,也可以用路由器来屏蔽网站。追踪和记录互联网使用情况也可以起到威慑作用。

4、改进并切实执行公司安全策略。安全转型非一日之功,会持续数月乃至数年,需要改变公司文化,转变公司里每个人对网络安全的认知。现在的网络安全最佳实践可能是有效的,但仅在充分实施和完全遵循的情况下才会起效。与其他安全措施一样,企业应当始终如一地沟通安全问题,提醒员工公司对他们在安全方面的期望。

5、质疑当前的标准做法。“我们一直都是这么做的”是IT常用解释之一,但这对任何安全实践来说都是最糟糕的解释。安全优先文化的一个重要组成部分就是改变流程和实现新工具的意愿,只有这样才能跟上不断变化的网络威胁形式。要准备好考虑更加安全和高效的网络安全协议模式。

打造安全文化

通过加强IT、HR、安全团队和员工之间关于风险、数据隐私、互联网使用等等方面的沟通,很多企业增强了自身员工的能力,开始看到在应对先进AI威胁方面的成果。当今威胁环境下,每个人肩上都担负着安全责任。

网络安全网络钓鱼
本作品采用《CC 协议》,转载必须注明作者和本文链接
2022年上半年,全球重大网络安全事件频发,勒索软件、数据泄露、黑客攻击等层出不穷,且变得更具危害性,比如今年1月份,美国布劳沃德公共卫生系统公布了一起大规模数据泄露事件,超过130万人受影响。这一趋势预计将在2023年继续。软件勒索事态恶化恶意软件是以恶意意图编写的软件的统称,包括病毒软件、勒索软件和间谍软件。相关数据显示,2020年全球超过1000家公司因未向勒索软件要求低头而遭到数据泄露。
网络空间安全动态
2021-12-14 22:41:32
12月3日,全国金融标准化技术委员会秘书处发布《金融数据安全 数据安全评估规范》并公开征求意见。这些指令将于12月31日生效,运营商将有90天时间进行网络安全脆弱性评估,180天时间实施网络安全事件响应计划。Kister随后致电德国刑事调查部门和联邦信息安全办公室,并通知相关监管机构,目前调查仍在进行中。12月2日,疑似勒索软件组织Conti在其泄露站点发布了Kisters 5%的被窃数据。
该调查在美国、英国和德国进行。对行业安全认证的不信任是调查发现的另一个关键问题。Sampson认为,网络安全认证与安全意识培训的内容开发、个人学习和能力评估之间的时间间隔与快速发展的威胁形势不匹配,导致个人在面对真实的网络威胁时的实战表现总是低于预期。
近年来机器学习的快速发展使人工智能的潜在能力显而易见。在十几次采访过程中,研究人员、投资者、政府官员和网络安全高管绝大多数表示,他们正以怀疑和兴奋的心情关注生成式人工智能的防御潜力。他们的怀疑源于一种怀疑,即营销炒作歪曲了该技术的实际功能,并且认为AI甚至可能引入一组新的、人们知之甚少的安全漏洞。但这种怀疑被真正的兴奋所掩盖和缓和。这在很大程度上是由于行业领导者OpenAI发布其生成AI产品的积极性。
网络安全文化对系统性建立组织的网络安全能力发挥着重要作用,但这种安全文化的建立不可能一蹴而就。改善安全文化首先必须消除网络安全是一个纯粹的技术课题的神话,并以一种人人都能接触以并相关的语言和规范为人们提供明确的指导。长远来看,组织帮助员工了解网络攻击心理方面的影响因素,对网络安全事件的应对能力会更强。掌握常见网络攻击(如网络钓鱼)背后的心理学,是企业可以采取的切实可行措施之一,这有助于改善其网络
新颖创新技术的兴起和迅速采用已极大地改变了各行各业的全球网络安全和合规格局,比如生成式人工智能、无代码应用程序、自动化和物联网等新技术。 网络犯罪分子正转而采用新的技术、工具和软件来发动攻击,并造成更大的破坏。因此,《2023 年网络安全风险投资网络犯罪报告》预测,与网络犯罪相关的危害成本将迅速增加——预计到 2024 年底,全球损失将达到 10.5 万亿美元。
AIGC(生成式人工智能)、大模型、AGI(人工通用智能)、MaaS(模型即服务)作为科技领域的热门技术,毫无疑问成为了2023年的关键词。“生成式AI”正以前所未有的方式影响着人们的生活和工作方式。在网络安全方面,这项技术也正深刻改变着对抗形态和攻防模式,其在打开人类认知世界新路径的同时,也成为黑客开展网络攻击的“利器”。随着生成式AI的深入发展,“双刃剑”效应日益凸显,其为网络安全带来的冲击和
针对组织的网络安全威胁逐年增加。这些警报也可以上报给 IT 团队以立即进行补救。由于人为错误是数据泄露和其他网络攻击得逞的主要原因,因此企业应投资于网络安全培训,以便其员工做好检测和报告威胁的准备。DNS 保护阻止设备访问恶意站点,MDR 保护监控每个设备的进程以识别异常并快速响应。组织还应该为成功攻击或破坏事件做好准备。
网络安全人员有时处于有利地位,有时处于不利地位。当网络安全人员认为网络安全只是应对网络犯罪活动的工作时,他们会让自己感到失去控制并且沮丧。因此,安全性要求网络安全人员接受度量结果。在关注KPI时应该将其视为一种监视仪表板,监视系统的健康状况。不断追求完美将会扭曲安全性指标,因此进行诚实的评估是关键。当某件事出错并发现重大漏洞时,往往会引起人们的关注。
VSole
网络安全专家