AI造假 vs AI打假 终结“猫鼠游戏”不能只靠技术
人脸识别作为生物特征识别的重要手段,已经成为近年来身份识别领域的热点。然而,随着人脸识别技术的发展,也存在深度伪造技术,其通过机器学习系统、图像视频和音频内容来改变人脸、物体或环境的呈现。随着这项技术日益成熟,由此引发的许多社会问题也开始显现。在打击假视频的斗争中,在寻求技术突破的同时,各方也致力于制度建设的变革。
俗话说,“眼见为实”,人们经常相信他们看到的图像和视频。随着Photoshop、秀秀等图像编辑软件的兴起,以及人工智能防伪技术的改变,图像篡改变得越来越容易。虚假图片和新闻在互联网上泛滥,人们越来越无法相信自己的眼睛。
为了应对美国选举期间大量虚假信息,谷歌最近决定用人工智能来统治人工智能。一些专家指出,深假技术是人工智能发展到一定阶段的产物。随着这项技术的发展,相应的检测技术将变得越来越先进,就像“猫和老鼠的游戏”一样,这将是一场无休止的竞争。
假视频变得越来越真实。
2019年11月,在北美上映的电影《爱尔兰人》获得了热烈的反响。令人震惊的是,电影特效制作公司利用虚拟图像重建技术,对电影中的主要人物进行集体“减龄”,并抹去近80岁演员脸上的年龄痕迹,以使他们恢复青春。这种“变脸”的技术让80多岁的演员恢复了年轻时的样子,着实让观众震惊。
深度假是指基于人工智能的人体图像合成技术,主要用于“变脸”。它在许多领域都有积极的商业价值,但一旦成为“黑色产品”的目标并被用作盈利工具,就会给个人和社会带来风险和挑战。”王源智库人工智能部主任、图灵机器人首席战略官谭明洲表示。
其中,最具争议的是“变脸”技术已经被一些色情网站使用。不久前,互联网上流行的“一键式”软件deep裸照,只要输入完整的女性照片,就可以自动生成相应的裸照,生成的照片有被广泛传播的风险。最终,在各方的压力下,该应用程序被下架。
不仅如此,不久前还有一个声音版本的深度假。RealTalk是一个由加拿大初创公司开发的语音合成系统,它只能根据特定的文本输入产生与真人非常相似的声音。在演示中,系统模仿了一位著名的美国脱口秀喜剧演员和主持人的声音,所以我听后大喊“真糟糕”。在未来,这项技术可能会发展到只有几秒钟的音频材料可以用来复制其他人的声音。
更让人头疼的是深假技术使虚假信息“更强大”,在重大社会事件中能起到强烈的煽动作用,影响人们的决策和社会稳定。根据相关文献,在2016年美国总统大选前一个月,每个美国网民平均会接触到3篇虚假新闻文章。2020年初,当新的冠状肺炎病毒席卷全国时,一些造假者利用上述技术伪造了钟南山院士的讲话。百度“辟谣”搜索指数(1月19日至1月25日)较去年春节增长了5.4倍。
用人工智能治疗人工智能并发现假视频
“自2017年底Deep Fauke首次出现以来,复合编辑视频的数量随着其技术的开源而不断增加。为了处理假视频,我们需要在网络上的海量信息中快速发现假图片,并在图像识别后准确提取它们的语义,这也是当前人工智能算法的重点。谭明舟说道。
为了识别假视频,首先,让我们分析一下深度假视频的功能。
目前,图像篡改的类型主要分为四类:复制粘贴、拼接、图像修复/局部区域去除和人脸PS行业专家曹娟博士最近在接受《科技日报》记者采访时指出,“现有的检测方法主要是基于人工特征方法和深度学习方法。前者包括物理属性(照明不连续性、阴影不连续性、色差等)。),相机属性(滤色器阵列、传感器噪声、EXIF数据分析等。),压缩轨迹(离散余弦变换系数,块状效应等。),像素级属性(复制粘贴、重采样等。);后者包括编码器-解码器模型、约束卷积模型和多域模型
“魔”比“道”高一尺吗?最近,谷歌的母公司Alphabet旗下的拼图公司与谷歌研究公司、马里兰大学和美国其他研究机构合作开发了一个名为“汇编器”的实验平台。该平台的目的是帮助用户通过简单的操作快速识别深假,减少人工智能技术滥用造成的损害。
谭明洲说:“事实上,这个平台将多个图像探测器集成到一个工具中,每个探测器处理特定类型的图像。例如,一些检测器可以判断图像是否有复制和粘贴标记,并主要关注图像颜色、噪声等
具体来说,其机器学习模型不仅可以利用图像的颜色值来发现异常,还可以检查图像的噪声模式是否不一致。从算术上来说,可以在经过编辑的JPEG压缩图像区域中找到具有相似外观的块,以确定其中一个图像是否被复制并粘贴到另一个区域。
“然而,在真实场景中,媒体经常面临经过复杂处理后编辑的低分辨率图像,这给检测技术带来了新的挑战。底层算法本身无法准确把握图像上丢失的篡改标记,需要结合高级语义算法进行识别。”曹娟说道。
曹娟进一步指出,现有的检测假视频的方法仍然有三个主要的局限性。首先,概括性是不够的。大多数检测只针对特定类型的篡改。如何找到篡改的共同属性,使模型能够处理多种类型的篡改是未来研究的重点之一。第二,防篡改能力不够。目前,篡改方法一直被隐藏。经过复杂的处理后,篡改痕迹往往会消失,导致检测性能大大降低。如何提高模型的健壮性,处理各种实际应用场景是未来的核心任务。第三,目前的方法基本上是将图像分成小块,然后分块处理,这非常耗时且耗费资源。
构建生态系统确保信息真实
国际咨询公司高德纳(Gartner)曾预测,到2020年,互联网将产生更多的虚假信息或更大的危害,而基于人工智能技术的造假能力将远远超出检测虚假信息的能力。2018年3月,发表在《科学》杂志上的一篇论文指出,近年来虚假新闻的兴起凸显了互联网时代打击虚假信息的现有系统和技术的不足。当前,迫切需要重建信息生态系统以保证信息的真实性。
“现在更重要的是提高有针对性的检测技术,完善相关法律和认证机制。”谭明舟强调道。
2019年9月5日,脸谱网相关负责人宣布,脸谱网和微软正在美国麻省理工学院、牛津大学和康奈尔大学等多所大学联合研究检测深度假冒的方法。与此同时,非营利研究组织PartnershiponAI也参与其中。其成员包括大型科技公司,如谷歌、苹果、亚马逊和IBM。
曹娟说,在研究方面,除了汇编器平台,中国科学院、中国科学院自动化研究所、北京交通大学、中山大学、深圳大学等。目前在国内做得比较好,还有加州大学伯克利分校、宾汉姆顿大学、马里兰大学等。与此同时,许多企业和研究机构也在积极开发实用的图像篡改检测工具和平台,如美国软件公司开发的软件认证工具。
2019年11月29日,国家互联网信息办公室发布了《网络音视频信息服务管理条例》,要求网络音视频信息服务提供商具备与新技术和新应用开发相适应的安全可控的技术支持,部署非法音视频和虚假音视频识别技术。
专家建议相关部门建立相关管理制度,预防和控制虚假视频,特别是新闻视频和新闻内容管理。在沟通渠道方面,我们应该建立过滤机制,实现技术上的高效过滤,追踪所有的假视频和假音频。同时,要加大对检测技术研发资金的投入,刺激技术创新。
上一篇:阿尔茨海默症患者看到希望
下一篇:自动汽车模拟人类驾驶习惯