DEF CON31黑客大会焦点:破解AI模型

VSole2023-05-10 13:28:04

在科技巨头们如雨后春笋般密集发布人工智能模型时,白宫发出警告,要求人工智能企业与网络安全社区紧密合作,公开测试大语言模型的安全漏洞,提高人工智能模型的安全性。

今年五一劳动节人工智能教父Geoffrey Hinton宣布从谷歌辞职,发出了迄今最权威的人工智能风险警报,这使得网络安全问题迅速成为人工智能行业的关注焦点。

主流AI大模型将接受顶级黑客“检阅”

Hinton最关心的是人工智能在文本、视频和图像中产生人类质量内容的能力,以及不良行为者如何利用这种能力来传播错误信息和虚假信息,从而使普通人“无法再知道什么是真实的”。但人工智能的安全漏洞同样可怕,可被坏人利用实施难以估量的破坏性攻击(编者:业界最近讨论的话题之一:错误信息本身是否就是一种恶意代码)。

近日,Anthropic、Google、Hugging Face、Microsoft、NVIDIA、OpenAI和Stability AI多家人工智能巨头表示将在今年的DEF CON黑客大会上开放模型供与会者进行渗透测试,查找漏洞。

值得注意的是,人工智能大模型集体亮相DEFCON黑客大会是美国政府加强人工智能安全监管的结果,上周美国副总统哈里斯就人工智能安全性问题在白宫约谈了包括谷歌、微软、OpenAI在内的人工智能巨头。白宫计划投入140亿美元建设七个人工智能研究机构,同时将在今年夏天发布人工智能应用指南。

一位不愿透露姓名的高级政府官员向CyberScoop透露,此次DEFCON的AI红队活动是首次公开评估大型语言模型。“DEFCON的红队活动在识别漏洞方面非常有帮助且非常成功,”这位官员说:“这正是现在大语言模型最迫切需要的。”

这不是华盛顿首次邀请DEF CON白帽黑客社区寻找关键新兴技术的弱点。美国空军曾在DEF CON大会举行夺旗比赛,让黑客测试卫星系统的安全性,DARPA也曾在DEF CON测试过投票系统安全性。

AI大模型的“黑箱”风险

近年来,机器学习的迅猛发展催生了一大批生成式AI工具,许多人工智能专家担心公司急于将新产品推向市场,没有妥善解决安全问题。

机器学习的进步历来发生在学术界和开放研究团队中,但越来越多的人工智能企业向公众关闭他们的模型,这使得独立安全研究人员更难检查潜在的漏洞。

“传统上,公司通过专门的红队来解决这个问题。然而,这项工作在很大程度上是私下进行的,”AI Village创始人Sven Cattell在一份声明中说:“在更多人知道AI企业的红队如何评估模型之前,AI模型的各种安全问题将无法解决。”

目前已知的人工智能大语言模型带来的风险包括:

制造和传播虚假信息、编写恶意软件、创建网络钓鱼电子邮件、向公众提供以前难以公开获取的有害知识,例如如何制造毒品、难以测试的偏差(歧视)、意想不到的模型属性的出现,以及行业研究人员所说的“AI幻觉”——人工智能模型对没有现实基础的查询给出自信的响应。

据悉,今年的DEF CON人工智能漏洞搜寻活动将基于Scale AI开发的AI评估平台,Scale AI是一家为AI应用程序提供培训的加利福尼亚公司。参与者将获得用于攻击AI模型的笔记本电脑,发现的任何漏洞都将按照行业标准进行披露。

黑客人工智能
本作品采用《CC 协议》,转载必须注明作者和本文链接
网络安全专业人士正在利用人工智能技术来打击黑客人工智能驱动的解决方案包括用于入侵检测和预防的智能防火墙、新的恶意软件预防工具,以及用于识别可能的网络钓鱼攻击的风险评分算法。
Pcmag 网站披露,一名黑客利用人工智能深度伪造了一名员工声音,成功入侵 IT 公司 Retool,致使 27 名云客户被卷入网络安全事件当中。
随着新时代生成式人工智能的崛起,电子邮件诈骗的风险也进一步提高,智能人工已经在世界各地克隆、改进和传送了无数封恶意钓鱼电子邮件。而据IBM 的一项新研究表明,当前的生成式人工智能 (AI) 模型已经非常擅长编写看似高度可信的网络钓鱼电子邮件,并且可以为攻击者节省大量时间。 那么面对这些可能具有逼真外观和伪装的钓鱼电子邮件,我们应该如何辨别和避免呢?以下是小编收集的一些注意事项和建议,一起
DEF CON是每年8月在拉斯维加斯召开的黑客大会,此次安全竞赛由人工智能黑客社区AI Village主办。在AI Village发布的活动公告中,组织方Sven Cattell、Rumman Chowdhury和Austin Carson将其称为“有史以来规模最大的人工智能模型红队演习”。最终,得分最高的参与者将获得英伟达高端GPU作为奖品。DEF CON 31将于8月10至13日在拉斯维加斯凯撒宫酒店举办。
因为每个人似乎都在谈论最热门的潮流;人工智能和机器学习;叙事科学的一份报告称,到2018年,62%的大型企业将广泛使用人工智能技术。毫无疑问,我们人类可以发现漏洞,但不能同时分析数以百万计、数十亿行代码的程序。云人工智能技术为该公司的两种产品提供了动力:CloudMon –监控各种互联网基础设施关键安全问题的系统。
人工智能的安全挑战
2018-06-04 21:24:28
近两年人工智能(Artificial Intelligence)已经成为一个炙手可热的名词,各行各业尤其是信息产业已将人工智能视为行业的下一个发展方向。 遍地开花的人工智能 人工智能不断涌现的各种成果频繁刺激着社会的认知,改变着人们的生产生活方式。各类智能机器人不断面世,机器人索薇娅成为全球首位被赋予法律公民身份的机器人;继AlphaGo横扫围棋大师后,来自国产的人工智能程序星阵围棋(Gol
谷歌研究人员已经确定了针对现实世界人工智能系统可能发生的六种特定攻击,发现这些常见的攻击向量表现出独特的复杂性,他们指出,这需要结合对抗性模拟和人工智能主题专业知识的帮助来构建坚实的防御。
大多数人可能认为自己或多或少熟悉传统网络攻击的套路,比如涉及系统入侵、病毒和勒索软件的那些。目前记录在案的很多深度伪造音频欺诈案例并没有达成罪犯的最终目标。科学家正在研究复杂而深远的算法,这些算法能够学习人类的语音模式和特点,可用于检测深度伪造音轨。有鉴于此,最好的建议就是保持警惕,做好准备,因为深度伪造音频诈骗可能会成为网络安全需处理的下一个大问题。
客户背景中圣科技(江苏)股份有限公司(以下简称“中圣科技”),是一家以技术研发为驱动,以清洁能源核心成套装备和节能环保工程服务为支撑的科技创新型企业。其以南京为核心运营基地,与当地政府、大型国有企业和行业龙头,共同推动清洁能源产业的创新和可持续发展。此类企业具备着丰富的知识产权和卓越的研发实力,因此,更加重视网络信息安全,保护邮件的安全性成为关键任务之一。  用户需求痛点&nb
事件响应分类和软件漏洞发现是大型语言模型成功的两个领域,尽管误报很常见。
VSole
网络安全专家