AI换脸鉴别率超99.6%,微软技术破除DeepFake虚假信息

2019-11-11来源: IT之家关键字:AI换脸  DeepFake

   

此前DeepFake换脸在全球引发轩然大波。从生成足以以假乱真的名人不雅视频开始,很多使用者将这个“换脸神器”当成了视频造假工具,并通过社交网络将虚假信息传播到全世界。DeepFake等技术出现不仅提升了换脸的真实性,其开放源代码的方式更是降低了将该等技术滥用于虚假信息制作和传播门槛。

事实上,大约30%经过AI换脸的合成照片、合成视频是人类仅凭肉眼无法识别的,很容易被当作真实信息进行再次传播。这已成为一个亟待解决的社会性问题,面对这个问题,我们应该以及可以做些什么?微软亚洲研究院给出了解决方案。

除了DeepFake,市场上存在多种换脸技术,不同算法生成的图像结果千差万别,难以使用同一个换脸鉴别模型解决所有换脸技术的进攻。与此同时,换脸鉴别模型还需要对目前不存在、但未来可能出现的换脸技术也具有判别力,如何去预测未来换脸技术的发展方向,提前布防,也是重要课题。

目前,最常被使用的AI换脸算法有三种:DeepFake、FaceSwap和Face2Face。其中,DeepFake基于大家所熟知的GAN技术,对于它所生成的脸,人类的识别率大约为75%*。FaceSwap是一个学习重建脸部特征的深度学习算法,可以对给出的图片进行模型替换,人类对于此类换脸的识别率也是75%左右*。Face2Face则是用其他真实的人脸去替换原本的人脸,不涉及人脸的生成,对于它制造的脸,人类的识别率只有41%*。作为目前学术界最大的合成视频数据库之一,由慕尼黑技术大学创建的FaceForensics数据库涵盖了经过以上三种换脸算法编辑的公开视频,以供学术研究使用。

多年来,微软亚洲研究院在人脸识别、图像生成等方向都拥有业界领先的算法和模型。在CVPR 2018上,微软亚洲研究院视觉计算组发表了论文“Towards Open-Set Identity Preserving Face Synthesis”,其中的技术能够利用开放数据集中的数据,逼真地合成保留图中人脸身份信息的图像。深厚的技术积累让研究员们对“进攻方”的技术原理有着更深刻的理解,进而能够更有针对性地研发换脸鉴别算法。

AI换脸鉴别率超99.6%,微软技术破除DeepFake虚假信息

图1:微软亚洲研究院开发的模型分别提取蒙娜丽莎和赫本图片中的身份信息和属性信息进行合成

因此,微软亚洲研究院研发的换脸鉴别算法,基于FaceForensics数据库的测试结果均超越了人类肉眼的识别率以及此前业界的最好水平*:对于DeepFake的识别率达到了99.87%,对于FaceSwap的识别率为99.66%,对于Face2Face的识别率为99.67%。

AI换脸鉴别率超99.6%,微软技术破除DeepFake虚假信息

表1:针对已知换脸算法的识别测试结果

更重要的是,一般的换脸鉴别方案需要针对每一种换脸算法研发专门的换脸鉴别模型,想要鉴别一张图像的真伪,需要逐个尝试所有模型。微软亚洲研究院的算法则可以用一个通用模型,去鉴别不同类型的换脸算法所制造的脸。与此同时,研究员还对人脸合成时难以处理的细节进行检查,如眼镜、牙齿、头发边缘、脸部轮廓,将它们作为算法关注的重点,从而提高识别准确率。相比其他同类技术,来自微软亚洲研究院的换脸鉴别算法很好地解决了应对动态幅度大、有遮挡、有表情变化的图像的难题。

除了准确识别已知算法合成的图像,换脸鉴别的另一大挑战是应对尚未出现的新算法。将现有的换脸鉴别算法直接用于新算法时,它们的有效性往往会显著下降。为此,微软亚洲研究院提出了一种通用换脸鉴别方法。为了更好地考察这一算法对未知换脸算法的鉴别能力,研究团队用真实图像对模型进行了训练,再让其辨别多种未知换脸算法生成的图像。实验结果表明,与基线算法相比,新算法对各类换脸算法的识别率均有大幅提升。随着研究团队对模型的进一步优化,通用鉴别模型一定能越来越精确地帮助我们应对新算法所带来的问题和挑战。

AI换脸鉴别率超99.6%,微软技术破除DeepFake虚假信息

表2:针对未知换脸算法的识别测试结果

在微软看来,要构建可信赖的AI,必须遵循以下六大原则:公平、可靠和安全、隐私、包容、透明、责任。微软内部还成立了人工智能伦理道德委员会(AETHER),帮助微软应对AI带来的伦理和社会影响。


关键字:AI换脸  DeepFake 编辑:北极风 引用地址:http://news.eeworld.com.cn/MEMS/ic479536.html 本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:谁在贩卖人脸识别的焦虑?
下一篇:5年来首次!SONY砸9亿美元建CMOS图像传感器新厂

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

由Deepfake到鉴别Deepfake制造,这是一场技术追击战
数月前开始,关于“AI换脸“的话题时不时地登上热搜,网友们一边对这一科技大法respect,一边调侃XX明星的演技。 按理说,科技为大众带来娱乐的祥和氛围挺好的,不过,是时候换个角度来看看这种技术带来的一些偏门应用。 网上热传的换脸神器,是一种利用更深度学习技术识别和交换图片、视频中人物脸部图像的工具,被称为深度伪造,也就是Deepfake,它不仅制作过程简单而且逼真度惊人。 普通大众接触到的Deepfake已经是通过它制作出来的成品,比如徐锦江版的海王、复活的张国荣,被杨幂版黄蓉。 在Deepfake出现前,视频换脸技术最早最广泛的应用还是在电影领域,那时它需要相对较高的技术和资金
发表于 2019-06-28
由Deepfake到鉴别Deepfake制造,这是一场技术追击战
为什么说AI换脸是在违法的边缘试探?
如果你是一个经常上网的人,相信你一定看过一个“杨幂版黄蓉”的视频——网友利用AI换脸技术将杨幂的脸换到94版《射雕英雄传》电视剧中黄蓉的扮演者朱茵脸上,“杨幂版黄蓉”表情生动活泼、非常逼真,一经发布,便在网络上收获了1.2亿次点击和2.8万条讨论。  随手一搜,你会发现类似的视频和图片还不少:比如中国演员徐锦江,和正在热映的漫威电影《复仇者联盟4》中的雷神长相类似,经常被拿来做换脸视频的主角儿,而另一部电影《海王》中的“海王”也因为相似的长相加入“换脸军团”,网友直呼:雷神、海王、徐锦江,傻傻分不清楚! ▲网友制作的“雷神 海王 徐锦江” 吴彦祖换脸倪大红、《回家的诱惑》男女主对换脸
发表于 2019-04-30
为什么说AI换脸是在违法的边缘试探?
AI换脸如今这么火,潜在的风险的不容忽视
博出现热搜话题“将朱茵的黄蓉替换成杨幂的脸”,便是运用AI技术捕捉表情和面部信息,使用训练后输出的脸型来替换原来的脸型。 换脸后的视频没有任何违和感,人脸的轮廓、表情都与杨幂一模一样,甚至在演技上还更多了几分生动和灵性,完全看不出是经过后期替换的。  据悉,这项AI换脸技术是用国外的一款软件Deepfake完成的,相较于我们之前使用的自拍软件上的换脸功能呢,这款软件的换脸效果更为自然,甚至可以说是毫无破绽,并且在视频中也可以实现脸部的完美替换,无论表情还是脸型都没有任何不自然。 由于使用门槛较低,就算没有相关技术经验,只要输入视频信息就能完成视频替换,这项AI换脸技术一时间在互联网上大热,也有
发表于 2019-04-15
AI换脸如今这么火,潜在的风险的不容忽视
AI换脸究竟是黑科技还是技术滥用
技术捕捉表情和面部信息,使用训练后输出的脸型来替换原来的脸型。换脸后的视频没有任何违和感,人脸的轮廓、表情都与杨幂一模一样,甚至在演技上还更多了几分生动和灵性,完全看不出是经过后期替换的。据悉,这项AI换脸技术是用国外的一款软件Deepfake完成的,相较于我们之前使用的自拍软件上的换脸功能呢,这款软件的换脸效果更为自然,甚至可以说是毫无破绽,并且在视频中也可以实现脸部的完美替换,无论表情还是脸型都没有任何不自然。由于使用门槛较低,就算没有相关技术经验,只要输入视频信息就能完成视频替换,这项AI换脸技术一时间在互联网上大热,也有人试过把女主播的脸换成各路女明星,同样看不出有什么不自然的地方。只是,娱乐之后,关于这项技术的质疑也浮出
发表于 2019-04-12
AI换脸究竟是黑科技还是技术滥用
随便一转就能换张脸,Deepfakes这么神奇?
Deepfakes要冲出天际了。  这里有一段神奇的视频 (被我裁成了动图) ,请擦亮眼睛观看。  因为讲话的人类,中途从比尔·哈德,变成了施瓦辛格: 行云流水。说不清什么时候,已经换好了。  所以,如果有小伙伴没看清,可以参考以下:  这是比尔·哈德。   这是施瓦辛格。   后来,施瓦辛格一转头,又变回了比尔·哈德,毫无拼接痕迹: △ 比尔哈德口型瞩目  由于真伪难辨,此处郑重说明,比尔·哈德才是这集柯南秀 (原本请来的) 嘉宾。  上面的换脸成果展,是从高清视频 (1080p) 里截来的,视频出自一个名叫ctrl shift face的团队。  鬼斧神工,引起了推特用户的大规模震惊,赞数已经超过1
发表于 2019-08-21
随便一转就能换张脸,Deepfakes这么神奇?
Deepfake换脸技术恐成犯罪手法,网络安全公司启动研发软件
根据《Financial Times》报道,随着人工智能发展日益精进,相关的犯罪行为也层出不穷,近年在网络上出现不少Deepfake影片,通过人工智能技术变换人脸、嘴型、声音制造出假影片,新奇之余,许多人都担忧这项技术会被用于传播错误政治讯息。为了要对抗这项技术,网络安全公司纷纷竭尽脑汁想要找出方法阻挡潜在危险。由于这项技术价格越来越便宜且容易在网上取得,已逐渐成为欺诈犯用来犯罪的工具。网络安全公司赛门铁克(Symantec)指出,今年已有至少三间公司受到deepfake假影片欺骗。在其中一项案件中,嫌犯利用人工智能模仿公司高层声音,诱使受害者转出1000万美元。乔治亚理工学院信息安全与隐私研究所主任Michael Farrell
发表于 2019-08-17
小广播
电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2019 EEWORLD.com.cn, Inc. All rights reserved