2024年AI安全形势报告:深度伪造技术引发欺诈案件激增30倍

安全侠2024-03-04 15:43:59

2024年2月29日,奇安信集团正式公布了《2024人工智能安全报告》(以下简称《报告》)。《报告》详细分析了人工智能技术在全球范围内的安全挑战与威胁。《报告》指出,2023年,基于AI的深度伪造欺诈事件数量激增了惊人的30倍,同时基于AI的钓鱼邮件数量也大幅攀升,增长了高达10倍。更令人担忧的是,已有多个国家支持的先进持续性威胁(APT)组织利用人工智能技术成功实施了十余起网络攻击事件。这些事件充分显示,人工智能技术的恶意利用正迅速增长,并在政治安全、网络安全、物理安全和军事安全等多个领域构成了严重且紧迫的威胁。



自2022年以来,以ChaGPT为代表的人工智能技术崭露头角,其展现出的强大能力和显著效果震撼了全球。据IDC的调研数据,已有67%的中国企业开始积极探索AIGC(人工智能与生成式计算)在企业内部的应用潜力,并为此投入了大量资金。IDC预测,到2026年,中国AI大模型市场规模将高达211亿美元,这标志着人工智能即将迎来其大规模实际应用的关键阶段。


然而,《报告》也强调,“AI作为一种通用技术,其通用性意味着它既可以被用来创造美好,也可能被用于制造混乱。”具有巨大潜力的AI技术同时带来了两大核心挑战:一方面,它可能会加剧和放大现有的安全威胁;另一方面,AI还可能催生全新的安全风险。据《报告》显示,2023年基于AI的深度伪造欺诈事件激增了惊人的3000%,同时基于AI的钓鱼邮件数量也飙升了1000%。奇安信威胁情报中心更是监测到,已有多个国家支持的先进持续性威胁(APT)组织利用AI技术成功实施了十余起网络攻击事件。这些事件再次凸显了人工智能技术在应用过程中所面临的复杂安全挑战。



《报告》详尽探讨了基于AI的深度伪造(Deepfake)、黑产大语言模型基础设施、利用AI的自动化攻击、AI武器化、LLM自身的安全风险、恶意软件、钓鱼邮件、虚假内容和活动生成、硬件传感器安全等12大关键威胁。通过对这些威胁的技术原理、潜在危害以及真实案例的深入分析,旨在提醒业界全面认识AI普及所带来的威胁与挑战。随着技术的不断演进,这些基于AI的新型攻击方式和手段层出不穷,已在全球范围内造成了不容忽视的严重危害。我们必须保持高度警惕,采取有效措施来应对这些新兴的安全风险。



《报告》进一步指出,AI与大语言模型自身便伴随着一定的安全风险,然而,行业内对这些潜在影响的研究与重视程度仍然远远不够。全球知名的应用安全组织OWASP已经发布了大模型应用的十大安全风险,其中包括提示注入、数据泄漏、沙箱不足以及未经授权的代码执行等问题。此外,训练语料中存在的不良信息也导致了生成的内容存在安全隐患,这正在持续引发灾难性的后果,对国家安全、公共安全以及个人安全构成严重威胁。因此,行业内必须高度重视这些风险,并积极采取相应的应对措施来确保AI与大语言模型的安全应用。



《报告》从多个维度为应对AI威胁提供了具体建议。对于安全行业而言,需要充分发挥其能力优势,确保人工智能技术的自身安全性,并积极探索将AI技术应用于安全防护的新路径。监管机构则需持续关注AI的潜在风险与影响,及时在制度和法规层面给予支持和引导。政企机构在AI安全方面,不仅需要部署相应的安全框架和解决方案,还需引入AI安全评估服务和检测工具,以AI技术推动整体安全体系的升级。与此同时,网络用户在享受最新AI应用带来的便利时,也需不断更新安全知识,培养稳健的安全操作习惯。

网络欺诈人工智能
本作品采用《CC 协议》,转载必须注明作者和本文链接
Visa的欺诈检测必须在几毫秒内快速准确完成,这也是Visa取得成功的关键能力。
如今,在线欺诈已经成为全球主要的网络犯罪形式之一。世界经济论坛(WEF)曾在《2020年全球风险报告》指出,网络犯罪将是未来十年(至2030年)全球商业中第二大最受关注的风险。到2021年,互联网黑灰产将给全球造成高达6万亿美元的损失。亚马逊、微软正利用自身的大数据优势入场,纷纷推出反欺诈解决方案。而在国内, 专注于动态安全和Bots自动化攻击防护领域的安全厂商瑞数信息于近日被全球权威IT研究与顾
近日,全球领先的IT研究和咨询公司IDC发布《IDC Perspective:中国金融行业反欺诈市场研究》报告,旨在反映当下的金融行业反欺诈能力建设情况及厂商生态,帮助金融机构深入了解欺诈事件的事前、事中、事后的不同阶段表现,及其在反欺诈的防控中存在偏被动式防御的情况,并为金融机构对于事前的欺诈风险主动及时感知和事中的实时识别与决策效果提供参考。
随着网络在社会发展中重要性的不断凸显,网络空间成为国家角力的“第五疆域”,网络空间的主权博弈和冲突进一步加剧,我国网络主权战略体系建设态势愈发急迫。通过对当前网络空间绝对优势国家——美国的战略体系与实施机制分析与梳理,挖掘其战略模块与实施范式,同时与我国当前的战略体系进行对比,思考我国战略体系发展路径。
有专家认为,隐私计算是指在保护数据本身不对外泄露的前提下实现数据分析计算的技术集合。简而言之,差分隐私就是利用一些随机化的方法,在两个邻近的数据集的查询结果中添加一些随机化的内容,使得攻击者无法通过查询结果的差异来推测其中存在的隐私信息。利用随机算法可以对原生的查询结果进行某种方式的混淆,从而使得攻击者无从推测出其真实内容,达到隐私数据保护的作用。
ChatGPT的六大合规风险
2023-05-29 10:35:28
ChatGPT在全球科技行业掀起了生成式人工智能的“军备竞赛”,但是人们对生成式人工智能的合规风险普遍认识不足。Gartner最近撰文指出,企业法务和合规负责人应该认知并解决企业面临的六种ChatGPT合规风险,并开始建立护栏确保企业能安全且负责任地使用生成式人工智能工具。
工业互联网安全是制造强国和网络强国建设的基石,深度学习因其具有表达能力强、适应性好、可移植性高等优点而可支持“智能自主式”工业互联网安全体系与方法构建,因此促进深度学习与工业互联网安全的融合创新具有鲜明价值。 本文从产业宏观、安全技术、深度学习系统等角度全面分析了发展需求,从设备层、控制层、网络层、应用层、数据层的角度剖析了深度学习应用于工业互联网安全的发展现状;阐述了工业互联网深度学习应用在模
不需要专家预言就能知道,计算机安全将在2024年出现在新闻中,而且可能不是什么好事。但2024年网络犯罪分子将如何试图突破防御并窃取有价值的数据,值得我们看一看安全专家们的看法和预测。
通信运营商Verizon公司对2022年数据泄露事件的统计数据表明,网络安全行业在防范人员攻击媒介方面还有更多工作要做。根据今年发布的研究报告,74%的数据泄露始于人为错误、社交工程或滥用。Proofpoint公司是另一家使用人工智能和机器学习的内部威胁检测供应商。在Verizon公司2021年发布的研究报告中,基本的web应用程序攻击占违规行为的39%,89%是出于经济动机。
安全侠
暂无描述