继一年前的ChatGPT之后,OpenAI最近又发布了新一款生成式人工智能模型Sora,将AI创作领域从文本及图片扩展到了视频。


那Sora的效果究竟如何?相信不少网友已经看过下面这些视频截图:




这些由Sora生成的逼真视频画面,对绝大多数人而言几乎到了以假乱真的地步,很难一眼看出破绽。


这也引出了一个问题:如果有人拿Sora生成的视频骗你说“这是真实发生的事情”,你会相信吗?而如果是一段真实影像,故意说“这是Sora虚构的”,你又该如何辨别?


这不,海外社交平台上,一段有关威尔・史密斯吃意大利面的视频正在疯传,视频画面分为上下两段:上半段显示是一年以前的 AI 视频,下半段则显示现在的 AI 视频。如画面所反映的,一年前的AI将史密斯刻画得“人不像人鬼不像鬼”,那么现在的AI已经看不出和真人的区别。



不少网友纷纷感叹“Sora越来越厉害了”、”我们生活在一个模拟世界中“。


但事实却是,视频下半部分所谓的“现在的AI视频“其实是由史密斯本人亲自出演。他用自己的行动告诉大家,仅仅只需要让大家意识到现在AI的超强实力,就已经能够让一个真实且普通的视频游走于人们所认为的虚幻与现实之间。


也正因为这种迷惑性,再加上Sora目前仍未向公众开放,海外社交平台开始出现把真实视频指为由Sora生成的乱象,比如在一位男士吃流心芝士汉堡的视频中,不少网友表示这是由Sora 生成。



最终,纽约大学心理学和神经科学荣誉教授 Gary Marcus亲自下场指出:”这并非Sora生成。“



也有网友最终找到了视频来源,竟是5年前Youtube上的视频。



不难看出,虽然目前99.9%的人还用不上Sora,但它的影响已经开始挑战人们对现实的认知,如果一旦放开,可能会出现无法预料的后果。


加强AI管控势在必行


毫无疑问,Sora是继ChatGPT之后又一大震惊世界的AI技术革新,且不论它将对传统影视传媒行业带来多大的冲击,其背后可能引发的安全风险及伦理问题就已经开始引起各方关注。


央视财经报道指出,像Sora生成的深度伪造视频可能会加剧错误和虚假信息的传播,并援引意大利《共和国报》报道,称视频生成模型可以让“名人或政客说从未说过的话、做从未做过的事”,比如利用模型克隆拜登、特朗普或其他竞选美国总统,或2024年欧洲议会席位的人。



《经济日报》文章指出,从ChatGPT到如今的Sora,人们惊叹人工智能突破性进展,同时也伴随着质疑和担忧,特别是背后的伦理挑战。Sora生成的视频可以以假乱真。这是一把双刃剑,一方面可以用于艺术创作,另一方面也可能被滥用于造假、欺骗,甚至颠覆人们对现实的认知。完善细化相关伦理规范,加强审查和监管,以及相关伦理教育和宣传更显迫切。只有正视Sora带来的伦理挑战,并加强伦理治理,才能确保人工智能技术造福人类,而不是成为威胁。