美开发出首批“深度伪造”视频鉴证工具
科学日报,纽约,8月8日(记者冯卫东)-人工智能技术合成的虚假视频已经达到了可以被篡改的程度。美国国防部建立的研究项目现在已经开发出第一批识别这些假视频的工具。
生成假视频最常见的技术是使用机器学习技术将一个人的脸交换给另一个人。由此产生的视频,也被称为“深度锻造”视频,不仅制作简单,而且栩栩如生。经过熟练的视频编辑人员的进一步调整,它也可以使它看起来更真实。
深度伪造视频使用一种称为“生成建模”的机器学习技术,这种技术允许计算机在生成具有统计相似性的虚假实例之前从真实数据中学习。最新的深度伪造技术有两个神经网络——生成对策网络(GAN),这两个网络一起工作产生更有说服力的伪造视频。
美国国防高级研究计划署(DARPA)已经建立了一个“媒体验证”项目,以开发能够识别深度伪造视频的工具。该项目最初旨在自动化现有的认证工具,但最近它的重点已经转移到人工智能生成的假视频。马修8226,媒体验证项目负责人;卡车说,研究人员已经在GAN操纵的图像和视频中发现了微妙的线索,这样他们就可以发现变化的存在。
奥尔巴尼纽约州立大学的陆思伟教授领导的团队开发了一种非常简单的识别技术。研究人员观察了深度伪造的视频,发现GAN技术生成的人脸很少眨眼,一旦眨眼,眼球运动就不自然了。这是因为深度伪造视频是基于静止图像的训练生成的,并且静止图像的眼睛通常是睁开的。
参与DARPA媒体认证项目的其他团队也在探索类似的技术来自动捕捉深度伪造的视频,比如奇怪的头部运动和特殊的眼睛颜色。达特茅斯大学的数字法医专家哈尼·费特认为,研究人员正在研究使用这些类型的生理信号,至少目前很难模仿。
弗雷德认为,视频伪造者和数字侦探之间的人工智能游戏才刚刚开始,机器学习系统往往可以在培训后超越新的验证工具。卢思伟说,熟练的伪造者可以通过收集显示一个人眨眼的图像来绕过这个人的眨眼工具,但是他的团队现在已经开发出一种新的更有效的技术,这种技术比伪造者略胜一筹。