人工智能的隐私潘多拉魔盒:生成式人工智能过度共享的风险

IT运维2023-11-15 13:51:24

想象一下:您正在浏览社交媒体,看到一段名人做了一些令人发指的事情的视频。它看起来很真实,但似乎有些不对劲。只有当你阅读标题时,你才会意识到这是一个使用生成人工智能创建的深度伪造品。从 Deepfake 视频到 ChatGPT 生成的响应,区分人造内容和人工智能生成的内容变得越来越困难。

但随着对生成式人工智能的日益依赖,出现了一个新的担忧:个人数据的过度共享。随着我们对人工智能越来越熟悉,我们可能会在不知不觉中泄露可用于我们从未想过的目的的敏感信息。我们正面临着打开侵犯隐私的潘多拉魔盒的危险,我们的个人信息被以我们无法想象的方式使用。

过度共享个人数据的后果可能是可怕的,风险包括数据泄露和创建恶意内容。虽然生成人工智能的潜在好处是无穷无尽的,但我们需要警惕随之而来的潜在风险。在本文中,我们将深入探讨与生成人工智能过度共享个人数据相关的隐私泄露和潜在风险,以及减轻风险和保护您自己和您的数据的方法。

行走在生成式人工智能的双刃剑上

生成式人工智能是一种使用算法通过从数据集中学习来创建新的原创内容的技术。 AI算法可以生成与原始数据相似但不相同的新内容。这就像厨师学习菜肴的食谱和配料,然后利用他们的创造力做出新的变化。

但能力越大,责任越大,生成式人工智能也不例外。该技术需要大量数据才能有效工作,这可能会导致隐私问题。您输入算法的数据越多,它生成的内容就越准确和个性化。然而,这也意味着个人数据正在被使用,这可能会引起人们的担忧。

生成人工智能的主要隐私问题之一是过度共享个人和机密信息的风险。当个人或公司将大量个人数据输入算法时,就会发生这种情况,其中可能包括医疗记录、财务信息和个人联系人等敏感信息。如果这些数据落入坏人之手,可能会被用于恶意目的,例如身份盗窃、网络攻击和社会工程诈骗。 

例如,生成式人工智能模型可以根据电子邮件地址、姓名和社交媒体资料等个人数据进行训练,以创建高度可信的网络钓鱼电子邮件。然后,这些电子邮件可能会被用来诱骗人们提供密码或信用卡详细信息等敏感信息。自聊天机器人技术问世以来,恶意软件诈骗的数量明显增加,该技术在应用程序中的快速采用引发了人们对数据收集、隐私以及剽窃和 错误信息盛行的担忧。

其他人也注意到了著名的生成式人工智能应用程序 ChatGPT 的问题,它的推广也如此迅速和有力。技术和人工智能领域的领导者也对此发出了警报。 2021 年,斯坦福大学和华盛顿大学的研究人员证明,可以使用ChatGPT 的另一种变体GPT-3从文本中提取姓名、电话号码和电子邮件地址等个人信息。 研究表明,新型 AI 密码破解程序可以在不到一天的时间内破译 71% 的常用密码。

探索保密方式

生成式人工智能可以带来很多好处,但我们不能对训练数据中个人信息泄露的可能性视而不见,从而使其难以保护。关系数据库可以限制对包含个人信息的特定表的访问,但人工智能可以通过数十种不同的方式进行查询。攻击者将很快学会如何提出正确的问题来获取敏感数据。教会人工智能保护私人数据是我们尚不了解的事情。

为了保护您自己和您的数据免受生成人工智能的侵害,了解您正在共享哪些数据并使用强大而独特的密码来保护您的数据非常重要。限制对设备的访问、保持软件最新,并使用 VPN 和浏览器扩展等隐私保护工具来保护数据。此外(也是重要的),请仔细阅读隐私政策,了解正在收集哪些数据、如何使用这些数据以及与谁共享数据。

世界各地的监管机构越来越多地采取措施保护用户数据免受生成人工智能的影响。自 2016 年以来,全球立法程序中提及人工智能的次数增加了 6.5 倍,从 2016 年的 1 次增加到 2022 年的 37 次。以下是他们发起的一些步骤:

数据保护法:各国政府正在制定或加强数据保护法,以确保公司对其从用户收集的数据负责。

算法责任:监管机构也在推动加强算法问责制,这意味着控股公司对其使用的算法负责,并确保它们透明和公平。

隐私设计:监管机构采取的另一种方法是鼓励公司采用“隐私设计”方法,这意味着从一开始就在设计产品和服务时考虑到隐私。

人工智能道德准则:包括欧盟在内的许多组织都制定了人工智能道德准则,以帮助企业应对围绕人工智能的复杂道德问题,并确保以道德和负责任的方式开发和使用人工智能。

监管机构:各国政府还在建立专门负责监督人工智能的监管机构,例如欧盟委员会的人工智能高级别专家组,该小组就人工智能相关的政策和监管问题提供意见和建议。

 

总体而言,这些措施的目的是确保使用生成人工智能的公司对其收集和使用的数据负责,并保护用户的隐私权。急于整合这项技术可能会导致数据泄露、不准确和滥用,这表明需要谨慎和负责任的管理。

生命未来研究所发布了一封公开信,要求人工智能实验室和企业在 ChatGPT-4 之后停止开发 OpenAI 系统。包括苹果公司联合创始人史蒂夫·沃兹尼亚克和 OpenAI 联合创始人埃隆·马斯克在内的知名人士一致认为,应该停止进展,以确保人们能够从现有系统中受益并享受现有系统的乐趣。

在本文即将结束时,一个紧迫的问题让我一直困扰着——当我们人类变得如此依赖生成式人工智能,以至于我们无法再为训练模型生产新材料时,会发生什么?

人工智能潘多拉魔盒
本作品采用《CC 协议》,转载必须注明作者和本文链接
想象一下:您正在浏览社交媒体,看到一段名人做了一些令人发指的事情的视频。它看起来很真实,但似乎有些不对劲。只有当你阅读标题时,你才会意识到这是一个使用生成人工智能创建的深度伪造品。从 Deepfake 视频到 ChatGPT 生成的响应,区分人造内容和人工智能生成的内容变得越来越困难。但随着对生成式人工智能的日益依赖,出现了一个新的担忧:个人数据的过度共享。随着我们对人工智能越来越熟悉,我们可能会
自2022年11月推出以来,人工智能聊天机器人ChatGPT已经因其惊人的表现而引起了不小的轰动。由于缺乏安全措施,威胁行为者很容易使用ChatGPT机制,例如,母语并非英语的恶意行为者可以用近乎完美的语法在几秒钟内创建一个逼真的、诱人的消息。公司可能没有采取足够的安全措施,阻碍了建立有效安全程序的进展。
多家企业安全团队的CISO表示,他们已经观察到深度伪造被用于网络钓鱼尝试或入侵Slack和Microsoft Teams等企业电子邮件和通信平台。网络犯罪分子正在利用劳动力分布式转移的历史性机会,通过模仿与老板相同的说话节奏的适时语音邮件或Slack消息来操纵员工。这应该是对所有CISO和安全专业人员的警告。
黎海波党的二十大报告对推进国家安全体系和能力现代化作出了战略部署,这是党的全国代表大会报告中首次设专章论述国家安全问题。这一规定以培育践行社会主义核心价值观和建设良好的网络生态为根本目标,以网络信息内容为主要治理对象,进一步推动了网络综合治理体系的完善和健全。建立完善的网络意识形态安全治理防控体系,至少要包含网络技术体系、网络意识形态监测预警体系和网络意识形态应急处置体系。
从2018年开始,公号君就开始给有关数字贸易协定谈判提供技术支撑工作。目前,中国已经建立了关于数据安全和个人信息保护方面的法律框架,对于数据要素治理的宏观谋划和对新技术新业务的规制,也在紧锣密鼓地开展过程之中。于此同时,中国已经申请加入《全面与进步跨太平洋伙伴关系协定》(CPTPP)和《数字经济伙伴关系协定》(DEPA),这两部协定都是自由化水平较高的贸易协定,展示了中国寻求更加开放的决心。显然,
美国时间4月21日,美国率领一众经济体宣布建立“全球跨境隐私规则”体系——Global Cross-Border Privacy Rules System。本质上是将APEC框架下的CBPRs体系转变成一个全球所有国家或经济体都可以加入的体系。公号君翻译美国商务部网站发布的宣言,供大家参考。
一直关注数据安全,公号君决定新开一个系列的研究笔记,关注数据要素治理。此前,本公号发表过的关于数据要素治理的相关文章包括: 《非个人数据在欧盟境内自由流动框架条例》全文中文翻译(DPO沙龙出品) 简析欧盟《数字市场法》关于数据方面的规定 数据流通障碍初探——以四个场景为例 对“数据共享合法化”的分析与思考系列之一:以《关于欧洲企业间数据共享的研究》为起点 对“数据共享合法化”的分析与思考 系列之
一直关注数据安全,公号君决定新开一个系列的研究笔记,关注数据要素治理。此前,本公号发表过的关于数据要素治理的相关文章包括: 《非个人数据在欧盟境内自由流动框架条例》全文中文翻译(DPO沙龙出品) 简析欧盟《数字市场法》关于数据方面的规定 数据流通障碍初探——以四个场景为例 对“数据共享合法化”的分析与思考系列之一:以《关于欧洲企业间数据共享的研究》为起点 对“数据共享合法化”的分析与思考 系列之
11月14日,国家互联网信息办公室公布《网络数据安全管理条例(征求意见稿)》(以下简称“数安条例”)【全文见:国家互联网信息办公室关于《网络数据安全管理条例(征求意见稿)》公开征求意见的通知】。鉴于该条例的重要性,公号君新开这个系列,记录一些想法和建议。
自OpenAI于11月底推出ChatGPT以来,各方专家密切关注人工智能内容创作将产生的影响,尤其是在网络安全领域。事实上,已经有许多安全研究人员担心生成式人工智能技术会使网络犯罪大众化。尽管如此,Psencik指出ChatGPT确实有内置的“护栏”,旨在防止被用于犯罪活动
IT运维
全栈IT运维管理软件,发现运维更多可能