A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

deepfake深度换脸真假难辨 荷兰初创公司借AI来检测假视频

分享到:
 Emma Chou • 2019-03-01 15:54:09 来源:前瞻网 E2584G0
100大行业全景图谱

1

前几日,B站UP主“换脸哥”,用AI技术将杨幂的脸“贴”在了朱茵饰演的黄蓉脸上,在网上引发热烈地讨论。相比我国网友这种友好的换脸视频,只为博大家一笑,而国外的网友玩起换脸技术来则充满“恶趣味”,比如把女明星的脸换到色情视频中,不看标题真假难辨。那么在政治选举时,会不会有人故意弄出假视频来搞臭政敌呢?仔细思量,这种AI换脸技术正对社会生活造成重大影响,从目前来看,隐忧不小。

色情视频掀起一场完美风暴可能会对2020年的美国大选造成毁灭打击,其中包括与实际真相毫无关系的破坏性政治丑闻。相反,最初在色情网站上流行的换脸技术 “deepfake”最终会产生令人信服的假视频,展现出政客们说一些或做一些在现实生活中从未做的事情, 如果这些视频没有及时被标记和揭穿,那么可能会引发广泛的混乱局面。

在网上揭穿虚假图像和视频这样一个吃力不讨好的任务,一般都落在新闻记者、事实检查网站和一些目光敏锐的见义勇为者身上。但是,最近人工智能驱动的deepfake的兴起,可能需要人工智能驱动的检测技术提供额外的事实核查帮助。好莱坞名人和政客在人工智能驱动的deepfake手中就成了数字木偶。Deeptrace是一家总部位于阿姆斯特丹的创业公司,旨在成为这种deepfake检测技术的首选商店之一。

“我们把deepfake和类似技术视为新一波网络安全威胁,可能会影响到每个数字视听通信渠道。”荷兰创业公司Deeptrace的首席执行官兼首席科学家Giorgio Patrini表示,“我们正在构建用于deepfake的防病毒软件。”

在帮助创建Deeptrace之前,Patrini是阿姆斯特丹大学Max Welling领导的深度学习研究小组的成员。他和同事们在Patrini的个人博客上发布了一个“简单的实验性假探测器”的结果,从而深入探讨了deepfake。这一最初的尝试引起了更广泛的研究团体的兴趣。

到2018年底,Patrini决定与一位家乡好朋友Francesco Cavalli合作,创建一家专注于开发deepfake检测软件的初创公司,该软件可以在后台默默地工作,像杀毒软件一样,扫描视听媒体,即人们浏览社交媒体网络或搜索引擎结果可能遇到的假视频。

“在这种情况下,我们所捍卫的不是可以被恶意软件感染和重新利用的软件,而是人类的意见和行为,受虚假视频操纵、假冒和复杂的网络所欺骗。”Patrini说。

从假色情视频到假新闻

“deepfake”一词起源于Reddit在线论坛,使用深度学习算法将名人的面孔数字地叠加到色情视频中的人脸上。这种深度伪造技术基于生成对抗网络(GAN),这种网络被训练来复制特定的模式——比如名人的脸——并逐渐增强合成生成的脸的真实性。

当deepfake在2017年12月被主板上的一篇文章首次曝光时,一些换脸色情视频的存在促使Reddit关闭了r/deepfakes相关讨论贴。Discord、Gfycat、Pornhub和Twitter等其他在线服务禁止以deepfake关键词搜索。谷歌也更新了它的策略,允许请求屏蔽与“非自愿合成色情图像”相关的搜索引擎结果。

任何技术解决方案都可能涉及一种AI军备竞赛。例如,Deeptrace将用于创建deepfake的相同的对抗机器学习作为检测deepfake的主要工具。

但是,许多此类视频的例子仍然出现在流行的社交媒体服务中,甚至是把deepfake专门用于色情成人网站。 Deeptrace在 2018年发布一份报告,研究发现在各大成人网站上有超过8,000个deepfake色情视频,以及YouTube上的数百个此类视频。随着开发deepfake工具变得更加普遍和易于使用,标记和删除deepfake视频的挑战只会增长。

“与两年前相比,目前deepfake技术的一个显著特点是,使用这种技术创造合成媒体所需的机器学习知识含量非常低。” Patrini说。

关于deepfake的许多工作都集中在面部交换和面部表情的改变上。但是,Deeptrace认为deepfake问题是一个更广泛的问题,包括人体运动的数字木偶和合成模仿真人声音的假音频。

搞笑的或说明性的deepfake视频有时会出现现任总统特朗普和前总统巴拉克·奥巴马等著名人物。但是,deepfake色情视频的传播极大地影响了女性,比如好莱坞女星斯嘉丽·约翰逊(Scarlett Johansson)就深受其害,她的脸被数字技术植入色情视频中,引发数百万次观看。据《华盛顿邮报》报道,即使是不是公众人物的女性也经常成为deepfake色情视频的目标,而且每段视频的制作速度都非常快。

有时,为了个人或政治原因公开羞辱人们,deepfake被视为一种“复仇色情”武器。 2018年4月,印度记者Rana Ayyub成为了deepfake色情视频的目标,利用她的照片和虚假账户在社交媒体上冒充她。

当假新闻事件 - 通常采取阴谋论或谣言的形式 - 已经导致现实世界的暴力威胁甚至是无辜人民的死亡时,deepfake的兴起代表了一种特别令人不安的前景。一些专家甚至担心,真正令人信服的deepfake可能破坏公众信任并使假新闻满天飞,是一种威胁民主体制和治理基础的方式,例如在总统选举期间。

建立防线

哈佛伯克曼-克莱因中心和麻省理工学院媒体实验室人工智能倡议的道德与治理主任Tim Hwang表示,除了那些关注色情内容的deepfake实例之外,很难开发出deepfake检测技术。他建议专注于针对具体的deepfake问题的解决方案,而不是针对更具推测性的场景开发通用的深度检测器。

“如果你真正担心的是虚假报复色情视频,或者你真正担心的是业余制作的色情视频,那就是一个与试图操纵政治舆论的州议员完全不同的情况。” Hwang说。

任何技术解决方案都可能涉及一种AI军备竞赛。例如,Deeptrace将用于创建deepfake的相同的对抗机器学习作为检测deepfake的主要工具。 Patrini说,Deeptrace “用于deepfake的防病毒软件”是广泛的解决方案组合的一部分,包括基于现有deepfake算法的已知和流行攻击的数据库。

为了帮助应对未来的威胁,该公司还专门开发了一些deepfake案例来培训其防御软件。另一个项目涉及建立一个基于名人、政治家和其他公众人物的个性化模型的数据库,这可以更好地训练视频分析算法,以检测deepfake。 Deeptrace甚至正在探索将音频和视频通道配对以提高deepfake检测的准确度。

但是,任何可能的检测deepfake的探测器的解决方案要做的不仅仅这么简单。这些解决方案背后的决策必须透明,易于用户解释,并且工程师可以轻松调试。 “打开检测假视频的黑盒子与构建精确的模型一样重要。”Patrini说

Hwang认为最有可能的解决方案是在自动检测工具(可以扫描数百万个视频)和更复杂的基于人工的审查(可以关注更棘手的案件)之间取得平衡。例如,记者、事实检查员和研究人员可以收集和考虑关于视频所显示的内容的支持证据,以便证实或揭穿视频内容。这在发现一种经过特别打磨的deepfake作品时尤其有用。

Hwang说:“如果有人创造了一个完全自定义的deepfake视频,并且真的试图伪装它,那么可能更难弄清楚它到底是真是假。”

打击未来“假货”

去年,Hwang开始在研究人员之间进行一次非正式的赌注,关于是否会在2018年底之前出现一个美国政客的deepfake视频引发病毒式传播,并获得超过200万次观看。Hwang和其他专家对deepfake技术的看法持怀疑态度。当2018年美国中期选举来临之际,并没有任何deepfake的视频造成重大影响时,他们赢得了赌注。

但即使是持怀疑态度的人也认为,真正复杂的能够造成大规模社会混乱的deepfake更有可能在2020年的时间框架内出现,届时关键的政治运动将全面展开。在这个世界上,许多人经常成为网上阴谋论和假新闻的牺牲品,即便是不那么复杂的deepfake也可能造成巨大破坏。

随着技术的发展,潜在的deepfake滥用可能会变得更加严重。 Deeptrace观察到了deepfake的开源开发,这些开发可以在普通视频会议软件主持的实时活动中进行。 Patrini预计,这种deepfake技术很快就会通过任何人都可以使用的智能手机应用程序实现。

鉴于deepfake的潜在影响,人们对检测工具越来越感兴趣。美国国防高级研究计划局(DARPA)为Media Forensics的研究提供资金,其项目专注于自动筛选deepfake视频。 2018年,一些学术机构开始发布用于deepfake检测和建立检测方法的视频培训数据集。

2018年9月,AI基金会筹集了数百万美元用于构建一个工具,该工具使用人类主持人和机器学习来识别欺诈性恶意内容,例如deepfake。 12月,赛门铁克公司在伦敦举行的BlackHat Europe 2018活动期间展示了一款deepfake检测器。

流行的社交媒体和视频共享平台可能是此类解决方案的首批客户。在预期中,Deeptrace致力于使其deepfake检测易于与现有平台用户界面和数据管道集成。但这家初创公司也在与预算更有限的监督机构(事实核查机构、人权慈善机构和独立记者)进行谈判,讨论分享一些相同的工具。

毕竟,许多政府和公司拥有资源和专业知识来检测和处理专门针对他们的deepfake内容。但是,一个更隐蔽的威胁可能来自于日益猖獗的deepfake内容,这些内容损害了公众对真实数字媒体的整体信任,或许到了一定程度,就会有越来越多的人开始认为真正的视频或音频来源是假的。没有对这种可能性的持续警惕,社会纽带可能开始瓦解。

“因此,最大的危险不在于deepfake可能会对政府或复杂的机构产生什么影响,而是deepfake可能会渗透到诸如社交媒体和个人或信任互动之类的领域。” Patrini说。

相关深度报告 REPORTS

2024-2029年中国人工智能行业发展前景预测与投资战略规划分析报告
2024-2029年中国人工智能行业发展前景预测与投资战略规划分析报告

本报告前瞻性、适时性地对人工智能行业的发展背景、供需情况、市场规模、竞争格局等行业现状进行分析,并结合多年来人工智能行业发展轨迹及实践经验,对人工智能行业未来...

查看详情

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p24 q0 我要投稿

分享:
标签: deepfake AI换脸

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J