你好,这里是《邵恒头条》,我是邵恒。 这两天,很多人都在讨论苹果发布会刚刚发布的新产品。这次发布的“浴霸”手机虽然吸引了很多注意力,但华尔街的分析师对...
你好,这里是《邵恒头条》,我是邵恒。
这两天,很多人都在讨论苹果发布会刚刚发布的新产品。这次发布的“浴霸”手机虽然吸引了很多注意力,但华尔街的分析师对...

你好,这里是《邵恒头条》,我是邵恒。

这两天,很多人都在讨论苹果发布会刚刚发布的新产品。这次发布的“浴霸”手机虽然吸引了很多注意力,但华尔街的分析师对此却不太“感冒”,因为苹果正在有意识地降低对于手机业务的依赖,转而聚焦服务性的业务,比如在3月发布会推出的新闻订阅服务Apple News+。

而我注意到,社交网络巨头脸书前段时间也宣布,他们将在今年秋季,在脸书上推出一个新闻工具。据国外的媒体的报道称,脸书正在组建一个专业的编辑团队,这个编辑团队会从跟脸书合作的新闻媒体上挑选靠谱的新闻,推荐给脸书的用户。虽然脸书一直说自己不是做新闻的,是做社交媒体的,但这样的编辑机制很像传统媒体的运作方式。

为什么国外这些大型科技公司,都对新闻工具这么感兴趣呢?

一个重要的原因是,在社交媒体信息泛滥的背景下,获得真实、可靠信息的成本越来越高了。在网络上有大量信息,普通人难以辨别真伪。而现在,随着AI制作假视频的技术成熟,辨别真伪难度更大了。有不少人担心,深伪技术的成熟,会让我们经历一场对信息真实性的“信任危机”。

我今天想跟你分享的,就和这个话题有关。我想分享的文章是《科学美国人》杂志去年底刊登的一篇文章。虽然不算新了,但文章站在全局性的高度,剖析了AI视频造假技术将会给全社会带来的巨大冲击。文章认为,假视频最大的危害,是破坏了人们辨别“真实”的重要手段,导致人们对互联网失去信任,继而引发并激化各种社会矛盾。一旦假视频技术被滥用,每个人都将成为受害者。

而时隔近一年,现在来看,其中很多洞察也得到了印证。今天的《邵恒头条》,我就来跟你分享一下这篇文章的观点。

你可能好奇,我们至于把假视频描述得如洪水猛兽一样凶恶吗?还真至于。我从文章中提炼出了假视频值得你担忧的三个理由。

其实,视频合成并不算什么新技术,上世纪60年代就出现了,到八九十年代被电影行业广泛采用。在电影《阿甘正传》里,阿甘和肯尼迪总统的握手就是视频合成的,看起来非常逼真。当时这项技术并没有带来什么社会问题,原因就是因为门槛够高。

而AI深度学习技术的出现,让视频合成技术的门槛大大降低了。曾经只有好莱坞才能完成的换脸特效,现在普通人通过一台电脑,甚至一部手机就可以做到。这是值得我们担心的第一个理由。

打个比方,这就像是把核武器按钮交到了大众手里,而且是人手一个。你想象一下,那会带来什么后果。

你也肯定注意到,最近国内有一款名叫ZAO的App引发了巨大的争议,先是一夜爆火,紧接着陷入了舆论风波。在ZAO的app上,用户只要上传一张正面照片,就能把影视作品中明星的脸替换成自己的。新鲜劲儿过后,有不少用户开始担心,如此逼真的换脸视频难辨真伪,会不会被用于刷脸支付和电信网络诈骗呢?这是咱们很多人国内跟低门槛的假视频技术的第一次“亲密接触”。

而且假视频现在不光是使用门槛降低,连造假成本也降低了。最早的深伪(Deepfake)技术需要通过上万张照片来作为训练素材,才能实现替换视频中的真实画面。但是随着时间推移,技术不断“折叠”,新的视频造假技术甚至可以做到只凭一张照片就能自动生成视频画面。这一点,相信你在ZAO这款App上也已经体验过了。这是假视频值得我们担心的第一个理由,门槛低。

第二个理由是,假视频还不只是看起来逼真,它的可怕之处是人们有能力对它实现极其精准的操控。

最初深伪技术能做的,只是在色情片里换一张脸而已。但两年时间不到,如今最新的深伪技术已经不光是换脸这么简单了,还能实现对声音和口型的编辑。换句话说,你能让任何人在镜头前,按照你写的剧本来讲话。

今年6月,斯坦福大学等机构的研究者就发布了一项制作假视频的新技术,可以在一句话中增加、删掉甚至是修改任意词句,视频中讲话者的口型也会随之调整,看起来十分自然,就好像演讲者自己说出来的那样。实际测试发现,用这项技术制作的假视频足以骗过大多数人的眼睛。

那你完全可以预见,在不远的将来,可能某个政治人物刚刚演讲完,网上马上就会出现一段篡改他演讲内容的假视频,看起来毫无破绽。美国媒体已经在担忧,这种假视频恐怕会对即将到来的2020年美国大选带来巨大冲击。

那你可能想说,假的终归是假的,骗得了一时,还能骗得了一世吗?总会有辟谣啊!可现实是,假视频就算最终被澄清,还是会造成负面影响——这就是文章给出的第三个值得我们担忧的理由。

今年5月发生了这么一件事:美国众议院议长南希•佩洛西有一段真实的演讲视频,被刻意剪辑和放慢速度之后上传到网上,视频中的佩洛西说话显得含糊不清。果不其然,有人看完后猜测佩洛西要么是喝醉了,要么就是中风了。事情发酵之后,主流媒体开始跟进报道。按理来说,媒体的报道应该能起到澄清事实的作用,可结果是,假视频传播的范围反而更广了。

研究发现,我们的大脑天生喜欢用“可得性启发式”来判断信息的可信度。什么意思呢?也就是说,那些更熟悉、更容易让我们回想起来的信息,我们会就更倾向于认为它是真的。所以,重复和熟悉是虚假信息混淆视听的有力武器。当假视频不断通过各种信息渠道在你的视野中反复出现,它就已经对你施加了影响。

这还不算完,文章认为,当假视频反复出现,人们发现已经无法靠眼睛和耳朵鉴别真伪的时候,就会对互联网、媒体,甚至整个社会逐渐失去信任。这种不信任在一个极端化和对抗情绪严重的社会,更会成为很多矛盾的根源。2016年的美国大选,虚假新闻导致的混乱局面让很多美国人至今心有余悸,那可以想见,如果假视频成为诽谤内容的主力,那将会带来多么灾难性的后果。

你可能想问,难道就没有技术手段能鉴别视频真伪吗?有倒是有。可问题是,目前的鉴别手段,始终跑不赢视频造假技术日新月异的进步。

举个例子,最开始,深伪制作的假视频有个很大的破绽,就是“眨眼”。人类通常每两到三秒就会眨一次眼,而你会发现,视频中的人物几乎不怎么眨眼。这是因为深伪大多是用静态图片来做训练,其中眨眼的照片非常少。所以在早期,通过眨眼这个细节,就可以很容易判定视频真假。可后来,深伪改善了“无法眨眼”的问题,这一招就失灵了。

现在用来鉴别假视频的一种主流技术叫MediFor,它的鉴假策略要综合看三个方面,一个是看视频的“电子指纹”,也就是通过图像中的细微缺陷的来判断视频有没有被修改过;第二个方法是看视频里的人和物体是否有违背物理规律的地方,比如是不是有奇怪的动作或表情,环境的光线是否自然等等;第三个是检验额外信息,比如看视频里呈现的天气是不是符合视频拍摄当天的真实情况,如果对不上,那肯定是假的。

不过,检测技术再发展,也不如造假技术发展得快,这就像是一场持久的猫鼠游戏。加州大学伯克利分校的计算机教授阿列克谢·埃弗罗斯甚至断言:“我们赢不了这场游戏,我们能做的只是制造障碍,让坏人制造假视频的时候没那么容易而已。”

像脸书这样的社交巨头,现在也投入不少精力,在摸索甄别假视频的技术。我注意到,脸书在9月6号宣布,将出资1000万美元,与微软等企业联手,发起一场假视频检测挑战赛。他们将和麻省理工、牛津、伯克利等院校的学者合作,开发能更有效识别假视频的技术。

不过,《科学美国人》的这篇文章特别提到,要降低假视频对社会的冲击,光靠技术手段肯定不够,法律也必须跟上。我注意到,美国弗吉尼亚州今年就通过了一项法律修正案,其中明确规定,用深伪制作成人视频的人将面临监禁和罚款。

与此同时,美国众议院今年也听取了一项专门针对深伪的法案。这项法案要求任何制造合成视频的人,都必须在视频中加上不可删除的水印或文本,表明视频是假的,否则就属于犯罪行为。

文章还提出,针对假视频问题,应该引入多个维度的社会研究。去年三月,芬兰人工智能中心就邀请心理学家、哲学家和社会学家共同探讨假视频问题的解决方案。去年四月,斯坦福大学和哈佛大学的几位教授也联手发起了一个项目,邀请社会学家通过分析脸书的数据,来研究如何有效控制虚假信息的传播。

好了,总结一下,在今天的《邵恒头条》中,我跟你分享了由AI技术推动的视频造假浪潮可能会给人类社会带来的一场危机。对这场危机应该担心吗?当然应该。

理由很简单,以深伪为代表的视频合成技术,带来的危害可不只是体现在隐私侵犯、信息安全、色情内容或是政治博弈上,它挑战的,是互联网真实性的边界。它威胁的,是信任,是共识,而这些恰恰是维系整个社会的精神纽带。这些纽带一旦断裂,那是用再先进的技术手段,都难以弥补的。

好了,这就是今天的《邵恒头条》。我是邵恒,我们明天见。