人脸识别时要穿好衣服吗?真相让你掉泪

Simon2021-08-05 00:57:00

网友晒出人脸识别前台和后台审核图片差异。截图

“我晚上喜欢裸睡,不知道会不会被识别到”

据某博主发文,人脸识别后台审核时看到的照片范围很大,摄像头拍到的区域会全部看到,并非只有人脸,提醒大家人脸识别时要穿好衣服。

对此,不少网友担心,“我晚上穿着睡衣人脸识别的,没穿内衣”“好家伙,我晚上喜欢裸睡,不知道会不会被识别到”“用了这么久的人脸识别,没想到还有知识点盲区”。

不过,很多提供人脸识别功能的企业纷纷表示,“保障用户隐私安全”。某手机厂商对中新网记者表示,面容ID数据不会离开设备,也永远不会备份到iCloud或其他任意位置。

“人脸识别会将深度图和红外图像转换为数学表示形式,然后再将这个表示形式与注册的面部数据进行对比。”上述手机厂商表示。

腾讯方面对中新网记者表示,人脸识别会严格遵照主管部门规定,最大限度保障用户隐私安全。用于验证的用户身份信息不会被记录、存储,或用于除公安权威数据平台数据源验证以外的任何其他用途。

“相关数据均通过加密处理,在与公安权威数据平台数据源比对的验证过程中,全程均为机器识别,没有人工参与。”腾讯表示。

用户担心和质疑不断

虽然企业称人脸识别隐私数据绝对安全,但网络上浩如烟海的人脸照片又时刻提醒着“人脸识别隐私泄露严重”。

尤其是手机人脸识别,“我感觉一天得摸手机100次,每次开屏都人脸识别,还有一些软件也要人脸识别,我不能保证每次摄像头范围只包括人脸,如果摄像范围皆被上传存储,这就太可怕了。”有用户对中新网记者表示。

有分析指出,人脸识别技术不同,设备种类繁多,是否人工审核?是否会以图片形式存储图像?拍摄范围多大?这些每个企业处理方式不同,也不透明,难免用户会担心。

以致,有网友支招,“如果是机器审核无所谓了,但是如果是人工审核就要注意了。”“尽量选择知名企业APP,非知名APP不要用人脸识别功能。”

现实中,中新网记者调查发现,人脸识别的机器很便宜,便宜的几百元就能买一台。有人脸识别门禁、人脸识别考勤、人脸识别测温、人脸识别开锁等。值得注意的是,这些机器大部分都自带存储,部分甚至支持联网和云存储等。

未明示人脸识别范围或侵害用户权益

未标注人脸识别范围违法吗?有媒体援引律师的说法称,若APP使用的用户信息大于在人脸识别过程中采集的信息,则存在侵权可能。

记者注意到,很多APP在做人脸识别时,并不会提醒采集范围,而且框出脸型轮廓也并不代表摄像头范围内只有人脸,正如网友担心的那样。

很多APP在做人脸识别时,并不会提醒采集范围。截图

北京云嘉律师事务所律师、中国政法大学知识产权研究中心特约研究员赵占领对中新网记者表示,用户应当意识到人脸识别不宜范围过大,摄像背景、角度和范围要选好,这是一个用户需要注意的事情,当然,如果商家提示一下就更好了。

7月28日发布的《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》明确,信息处理者处理人脸信息未公开处理人脸信息的规则或者未明示处理的目的、方式、范围,人民法院应当认定属于侵害自然人人格权益的行为。该《规定》于8月1日起施行。

所以,人脸识别时还需谨慎,起码保证摄像头范围内穿着得体,你觉得呢?

人脸识别图像识别
本作品采用《CC 协议》,转载必须注明作者和本文链接
人脸识别技术概述
2023-06-16 09:27:10
虽然这两个系统使用了类似的技术来分析面部图像,但面部验证系统需要用户明确同意才能部署,而许多人脸识别系统在未经用户同意的情况下运行。通过使用反识别工具,用户 P 可以采取针对性的防御措施,以保护其隐私并防止被商业人脸识别系统识别出来。
深度神经网络(DNNs)缺乏透明性使得它们容易受到后门攻击,其中隐藏的关联或触发器会覆盖正常的分类以产生意想不到的结果。例如,如果输入中存在特定符号,则具有后门的模型总是将人脸识别为比尔盖茨。后门可以无限期地隐藏,直到被输入激活,并给许多与安全或安全相关的应用带来严重的安全风险,例如,生物识别系统或汽车自动驾驶。
本文基于国网湖南电力在网络安全领域的研究成果,阐述人工智能技术如何应用于电力物联网入侵检测场景的实践,以期为相关研究建设工作提供参考。
STRIDE是一个流行的威胁建模框架,目前已被广泛用来帮助组织主动发现那些可能对其应用系统造成影响的威胁、攻击、漏洞和对策。
针对 TLS 恶意流量识别方法存在大量标记样本获取困难、无标记样本没有充分利用、模型对于未知样本识别率较低等问题,提出基于半监督深度学习的网络恶意加密流量识别方法。该方法能够利用大量未标记网络流量用于模型训练,提升分类模型的泛化能力。该方法首先借助网络流量图片化方法将原始流量 PCAP 转换为灰度图,然后借助 FixMatch 框架对实现少标记样本下恶意流量进行识别。在公开数据集 CTU-Malw
采用真实数据训练出来的人工智能和机器学习(AI/ML)系统越来越被认为是对特定攻击不设防,用非预期的输入就能骗过这些系统。
对AI发动后门攻击
2022-08-23 08:29:37
就是在这一批数据集上叠加触发器,原来的数据集我们成为良性样本,被叠加上触发器后的样本我们称之为毒化样本。模型训练完毕后,在测试时,如果遇到带有触发器的测试数据,则会被误导做出误分类的结果。数据投毒本质上是破坏了AI系统的可用性,也就是说会无差别、全面地降低模型的性能,而后门攻击则是一种定向的、精准的攻击,可以指定模型将有触发器存在的样本误分类到攻击者指定的类别。
随着入侵者的攻击手段日趋智能化、复杂化,传统的机器学习技术对异常攻击行为的检测有效性在下降。近年来,深度学习以其独特的学习机制,利用大数据和高算力达到学习的高准确率。通过广泛的文献调查,目前已经有很多基于深度学习设计的入侵检测系统。本综述在对传统机器学习技术和深度学习技术进行对比后,详述了基于深度学习和数据集的入侵检测系统。
随着俄乌冲突的持续升级,不但在实体空间发生了大面积的火力冲突,也在网络空间展开了一场此消彼长的信息对抗。双方为全面争夺国际舆论场和话语权,新招频出,从社会、国家、政府、组织,乃至个人层面实施多领域博弈。其中,认知域作为意识形态斗争的重要战场,首当其冲成为俄罗斯与以美国为首的西方阵营对抗的关键。在认知对抗过程中,俄乌双方采用的新手段、新战法,都能给予我们思考和启示,逐步提高认知防御能力,能有效筑牢心
Simon
暂无描述