网球

你需要了解的,AI在视频造假上的进阶之路-上零距离

字号+ 作者:搜狐号 来源搜狐号搜狐号自媒体 2018-07-12 17:28 我要评论( )

从古至今,“欺骗”和“造假”这两个词可谓是贯穿了人类的历史。到了现代社会,面对着互联网上那些似是而非的庞杂信息,“有图有真相”开始成为网友们的诉求

  从古至今,“欺骗”和“造假”这两个词可谓是贯穿了人类的历史。到了现代社会,面对着互联网上那些似是而非的庞杂信息,“有图有真相”开始成为网友们的诉求。

  可以看出,绝大多数人都是认同一点的——只有拿出坚实的证据,才能证明你说的就是真相。将这些证据的说服力排一个序,大概是文本>照片>音频>视频

  然而,随着PS的兴起,“照骗”渐渐失去了人们的信任,音频和视频已经被视为更可靠的证据来源,但是,,在AI入军短视频制作后,事情正在发生着改变。在未来,人们可能需要处理更多真假难辨的音视频。

  AI在视频造假上的进阶之路

  在寻常人看来,短视频造假的方式无非就是一些“断章取义”的剪辑罢了。然而,AI可没那么简单,在短视频“造假”上,它不止要以假乱真,更要无中生有。

  通常来说,AI在短视频上造假的方式有以下三种:

  1. 初级阶段:移花接木

  在短视频“造假术”里,最重要的不是图像的拼接,而是音频的连续性。想一想,即使你将奥巴马和特朗普两个人的视频剪辑在一起,想要告诉大家他们“同台演出”了,没有他们讲话的声音,其效果大概就等于N张静态照片叠加而已。

  AI正在试图合成人们在实际中从未说过的话,研究人员就曾利用奥巴马的演讲视频训练AI的学习系统,让系统的神经网络,学会如何将各种语音特征与对应的口型联系在一起,生成CGI唇动,在3D姿态匹配的帮助下,将CGI唇动与奥巴马的视频整合在一起。

  也就是说,他们能够利用相关音轨伪造一段令人难辨真伪的视频。

  利用AI系统,用户可以任意编辑人类语音,Adobe曾表示它可以像 Photoshop 编辑图片一样用于调整视频中的发音和对话。我们现在可以创建政治家、名人、演说家的视频片段,并且不论内容如何。

  2. 中级阶段:改头换面

  在这个阶段里,AI就不是合成了,而是对视频里的内容进行编辑。通过人脸检测和五官识别,对人脸的关键点实时追踪,让人们在动态视频中可以对自己脸进行改造。

  这一技术属于动作捕捉技术中的一个分支,叫面部捕捉。这些脸上的黄点,就是人脸表情变化中的关键点,通过面部追踪,计算机只需要这些信息就能合成表情。

  近日,微视就发布了安卓4.4版本,推出了实时美妆、五官重塑等新功能,包括此前已在iOS版本上线的实时长腿、音控魔法功能,也在安卓上同步更新。

  视频里化妆都是小儿科了,AI还能在视频里给你换脸呢。在电影《星球大战外传:侠盗一号》中,技术人员通过捕捉一位现代演员盖·亨利的表情,合成了另外一位已经逝世的演员彼得·库欣,使其再次出现在了大荧幕上。

  3. 高级阶段:无中生有

  合成声音尚能理解,合成动作你敢相信吗?

  近日,在MIT(麻省理工学院)的论文Synthesizing Images of Humans in Unseen Poses中,研究人员提出了一种模块化的生成神经网络,用从人类运动视频中提取的成对图像和姿势训练之后,它能够为一个人合成出没做过的新姿势。而且,这个模型在没有经过刻意训练的情况下,能够生成一段连续的视频。

  也就是说,单凭一张照片,AI就能随意摆布照片中的人,使人物作出一系列动作,视频的合成非常自然。

(图为该技术合成的网球运动视频 GIF来源:量子位 公众号)

  这当然只是新技术的冰山一角,我们很难对现代人工智能的视频处理技术,做出全面的概述,但我们总能从中找出一些有意思的应用。例如:从一张 2D 图片中创建 3D 面部模型,改变视频中的光源和阴影,在总统选举直播中让特朗普变成秃头等等。

  伪造与证伪的技术总是交互上升

  不得不说,AI确实具有很强的视频造假能力,但我们也逐渐意识到了视频造假的危害。随意放在网上的视频和声音都需要我们去认真辨别,如果有非法分子利用该技术进行信息诈骗,我们虽然不是权贵,但也经不起损失。

  尤其在新闻业,一旦人们知道目前有伪造的视频和音频在传播,即使他们看到的是真实视频,也会开始产生怀疑。所以,如果AI能够让我们像处理图片一样轻松处理音频、视频内容,这其实在某种程度上削弱了媒体的可信度。

  幸运的是,道高一尺,魔高一丈,伪造与证伪的技术总是交互上升。这就是一场“军备竞赛”。AI让越来越多的人都有能力进行伪造,但研究人员也不断在开发更加精密的技术来增强音频、图片和和视频的鉴别。通过不断增加造假难度,使得非法分子造假的成本和技能要求越来越高。

  现在,鉴别AI所做的伪造和处理其实并不难,模糊处理是一种最常见的方法,低分辨率就会让它“一看就是假的。”

  除了画质,还有画幅的甄别。在短视频里,画面里的一点改动凭借人的肉眼是很难识别的。在 50% 的情况下人类是可以正确区分的,而且大部分是随机猜测。当AI通过大量的深度学习后,卷积神经网络可以在 87 %到 98 %的情况下,正确区分视频画面里修改过的和未修改过的图像。

  德国慕尼黑技术大学的研究人员还开发了一种名为 “XceptionNet” 的算法,它能快速发现发布在网上的伪造视频,除此之外,还可以用来识别互联网上的误导性视频。

  这个人工智能算法主要集成到浏览器或社交媒体插件中,在后台运行,如果它识别出**纵的图像或视频,它就会给用户发布警告信息,向视频中涉及的人员透露他们被“伪造”了。

  造假不如造回忆

  仔细想一想,“造假”似乎总是让人有着不好的联想,尤其是多媒体的造假,更是怎么看都觉得可怕。然而,还是那句老话,技术是无罪的,有罪的是那些有着邪恶用心的人。

  将AI造假术的使用者换一批人,是不是更能物尽其用呢?

  有人说,人会经历三次死亡:

  第一次是身体停止运转导致的生理上死亡;

  第二次是举行完葬礼代表你社会位置的消失;

  第三次是当世界上没人再记得你的时候,真正意义上的死亡。

  当你的亲人即将离开这个世界的时候,你是否想过用科技的方式,将亲人的音容笑貌化为情感寄托,换一种形式陪伴在你身边呢?

  也许这样,也能让亲人的“第三次死亡”来得更慢一点。

----本文结束----上海零距离----本文结束----
上海零距离,上海热线,上海零距离,上海网

本网站资讯内容,均来源于合作媒体和企业机构,属作者个人观点,仅供读者参考。 本网站对站内所有资讯的内容、观点保持中立,不对内容的准确性、可靠性或完整性提供任何明示或暗示的保证。咨询联系whiteking999@foxmail.com

相关文章
  • 2017年直播短视频景气度上行:精品化全面渗透加速融合-上零距离

    2017年直播短视频景气度上行:精品化全面渗透加速融合-上零距离

    2018-07-12 10:24

  • 竞争日趋激烈;与此同时短视频迅速崛起-上零距离

    竞争日趋激烈;与此同时短视频迅速崛起-上零距离

    2018-07-12 10:23

  • 视频中显示吴某涛扯住女子头发-上零距离

    视频中显示吴某涛扯住女子头发-上零距离

    2018-07-11 17:17

  •  央视体育VIP全程视频直播2018年温网中央球场的比赛-上零距离

    央视体育VIP全程视频直播2018年温网中央球场的比赛-上零距离

    2018-07-10 13:27

网友点评
精彩导读