再见!谷歌翻译……

VSole2022-10-11 17:50:53

就在这两天,有网友突然发现谷歌翻译用不了。

(虽然谷歌退环境了,但翻译一直是能用的)

具体来说,本应提供翻译功能的translate.google.cn,被替换成了一个所谓的「搜索页面」。

就是长下面这样的:

那么问题来了,谷歌不是早就退出了么,哪儿来的搜索?

没错,因为这就是个「截图」而已……

不管你点击哪里,都会直接被重新定向到谷歌翻译的香港域名——translate.google.hk。

显然,这个对于大陆的用户来说,是无法访问的。

于是,不管是谷歌Chrome内置的翻译功能,还是其他调用了这一接口的软件,比如KOReader(一种文档查看器),都祭了……

顺便一提,谷歌2010年退出中国内地市场。

时任工业和信息化部部长李毅中同年3月12日在回应「谷歌退出中国事件」时说,中国的互联网是开放的,进入中国市场就必须遵守中国法律。

此前曾有报道称,谷歌在2018年和2019年都曾尝试过在中国大陆重新启动搜索服务。

作为「蜻蜓计划」的一部分,该项目将对搜索结果进行审查,并记录用户的位置以及他们的互联网浏览历史。

但据The Intercept报道,在经历了由内部隐私团队牵头的冲突之后,谷歌彻底放弃了这一计划。

曾陷「辱华」风波

去年11月,有网友发现谷歌翻译会将一些艾滋病相关的词翻译为中国侮辱性词汇,引发对谷歌翻译的反感和愤怒。

在英翻中的英文对话框输入「新闻」,「传播」等词汇,中文部分显示的仍然是「新闻」和「传播」。

但在英文对话框输入「艾滋病毒」等类似词汇,中文翻译就会显示恶毒攻击中国的词汇。

不过,谷歌很快便在微博上表示,问题已经得到了解决,并解释称是由「模式」引发的。

也就是说训练语料要背大锅,如果训练语料存在夹带私货的情况,那翻译结果也不会准确。

对此,「NeX8yte」指出,国际互联网上中文的语料大部分并不掌握在我们自己手里,而且此类结果很可能是经过了中介语言,从而也就放大了错误。

银蓝剑6H17也表示,这种结果的出现一方面是机器学习用了脏语料,让部分中文输入也可以输出翻译结果,另外一方面就是模型到API的调用阶段管理出现了真空。

「曹哲的杂货铺」认为这是有意制造的:

为什么恰好会有人找到谷歌翻译,又恰好翻译这些并不常用的词语,又双叒叕恰好把忽略系统建议硬把源语言设成「英文」呢?
输入一段中文,然后硬告诉程序这是英文,让他把这玩意「翻译」成中文,其直接后果无非就是程序被你玩炸了,程序会认为这条「英文」它不会翻译,这时候只要有心人把这个用汉语写成的「冷门英文单词」在翻译社区提交翻译建议,就很容易达成这种结果。

参考资料:

https://tcrn.ch/3E6HC3b

谷歌语言翻译
本作品采用《CC 协议》,转载必须注明作者和本文链接
近年来机器学习的快速发展使人工智能的潜在能力显而易见。在十几次采访过程中,研究人员、投资者、政府官员和网络安全高管绝大多数表示,他们正以怀疑和兴奋的心情关注生成式人工智能的防御潜力。他们的怀疑源于一种怀疑,即营销炒作歪曲了该技术的实际功能,并且认为AI甚至可能引入一组新的、人们知之甚少的安全漏洞。但这种怀疑被真正的兴奋所掩盖和缓和。这在很大程度上是由于行业领导者OpenAI发布其生成AI产品的积极性。
模型允许有效理解自然语言,并使用潜在结果的概率分布。我们可以从以下两方面展开来看:1、ChatGPT 带来的网络安全新威胁首先,从开展网络攻击的角度来看,ChatGPT 这类生成式人工智能是偏向于威胁行为者的。其次,目前已经看到有威胁行为者正在使用 ChatGPT 来开发恶意软件。虽然 ChatGPT 的代码编写能力的质量结果好坏参半,但专门从事代码开发的生成式 AI 可以极大地加速恶意软件的开发速度。再者,ChatGPT 大大降低了威胁参与者基于技能的进入成本。
虽然这些攻击类型主要用于绕过内容过滤器,但安全研究人员警告,急于推出生成式AI系统带来了数据被盗和网络犯罪分子在互联网上造成破坏的可能性。顾名思义,这可以避开OpenAI规定ChatGPT不得用于生成非法或有害材料的政策。运行Claude AI系统的Anthropic表示,这种破解“有时对Claude有效”,它在不断改进其模型。
对决策者和从业者来说,务实的做法是细致了解哪些任务可以从机器学习中受益,哪些任务不能。
再见!翻译……
2022-10-11 17:50:53
顺便一提,2010年退出中国内地市场。此前曾有报道称,在2018年和2019年都曾尝试过在中国大陆重新启动搜索服务。但据The Intercept报道,在经历了由内部隐私团队牵头的冲突之后,彻底放弃了这一计划。曾陷「辱华」风波去年11月,有网友发现翻译会将一些艾滋病相关的词翻译为中国侮辱性词汇,引发对翻译的反感和愤怒。不过,很快便在微博上表示,问题已经得到了解决,并解释称是由「模式」引发的。
研究人员怀疑,涉案人员可能是商业间谍软件供应商 Variston 的客户、合作伙伴或其他密切关联方。3 月 28 日,拜登政府发布了一项行政命令,限制联邦政府使用商业监控工具,但的调查结果表明,这些努力并未阻止商业间谍软件的出现。必须加强有关商业间谍软件生产和使用的法规,以确保它们不会被用于侵犯个人基本权利的目标。
LLM和其他生成式工具为各种应用带来了巨大的机会,业界纷纷投身部署此类系统。这会导致多种风险,最好通过仔细保护自身数据集来解决,而不是将自己的数据塞进ML模型还公开发布这一模型。敏感数据和机密信息保护已然是项艰巨的任务,如果我们还有意用机密信息训练ML系统并面向全世界发布,后果可想而知。
第 2 章 shell权限提升,简称提权。它用于执行各种网络交互,包括在枚举期间抓取 banner 等。但它们默认情况下很少安装 Socat。模块与 socat 和 netcat 一样,提供了用于接收反弹 shell 的功能。虽然 msfvenom 可以生成除 reverse 和 bind shell 之外的 payload,但这不是本文的重点。一般情况下,反向 shell 更容易执行和调试。以下会给出反弹 shell 和 正向 shell 的示例,请注意它们间的区别。这里重要的是我们正在攻击机上监听,并收到了来自目标的连接。请注意,这并非特定于 Windows。
就在几个月前,ChatGPT和其他基于大型语言模型(LLM)的聊天机器人还很新奇。普通用户喜欢用它们以著名艺术家的风格创作诗歌和歌词;研究人员激烈讨论着要炸毁数据中心,以防止超级人工智能发动世界末日;而安全专家则成功绕过聊天机器人的安全控制机制,给它们发布窃听电话和劫车的指令。
VSole
网络安全专家