AI能否结束假新闻?不要那么肯定
虚假消息源于科林2017年的演讲。在一年一度的例行政治新闻中,引人注目的丑闻震惊了我们对人性的信仰。人们痛苦地发现越来越难以区分新闻中的真实和虚构。社交媒体的兴起也为虚假信息的传播创造了一股看似不可阻挡的力量,今年早些时候,剑桥大学对企业丑闻的分析显示了其丑陋的一面。这引发了关于社交媒体的问责制以及那些运营网站的人如何有效解决他们创造的“怪物”问题的严重问题。
麻省理工学院计算机科学和人工智能实验室和卡塔尔计算研究所昨天(10月4日)宣布了一个新项目,在传播前识别虚假新闻的来源或自动分类不可信的新闻信息。尽管增加真实性测试的好处是不可估量的,但这些新功能在处理像虚假新闻这样不可预测的“野生动物”时只是路上的一个颠簸吗?
Bullsh * t测试
目前,很难发现虚假新闻,也很难在造成太大损害之前发表虚假声明。Snopes和Politifact等网站比以往任何时候都面临更大的压力。问题是处理个人索赔非常耗时。一旦泄露了错误的信息,损害就已经造成了。麻省理工学院CSAIL和QCRI项目旨在通过识别继续传播错误信息的网站和具有重大政治倾向的网站(因为这些网站通常是虚假新闻的主要提供者)来解决这个问题。
该系统会查看网站及其*页面、推特账户、网址结构和网络流量中的文章,并搜索显示强烈政治偏见或错误信息的关键词和语言特征(例如,虚假新闻媒体经常使用更夸张的语言)。使用来自媒体偏见/事实调查(MBFC)的数据,该系统在检测网站的“真实”程度方面的准确率为65%,在检测政治偏见方面的准确率约为70%。
尽管该项目仍处于早期阶段,合著者普雷斯拉夫·纳科夫认为它将有助于现有的事实核查服务,这样他们就可以“立即检查虚假新闻的分数,以确定给出不同意见的有效性。”这将是项目如何发展和在实践中使用的一个关键点,因为人们仍然需要检查这些分数,以确定新闻信息是否跨越了虚假信息的界限,或者只是用感性和有说服力的语言歪曲事实。
太多的信任
至少就目前而言,该项目对手动事实检查器最为有用,但随着机器学习算法的进一步发展,它将能够提前识别这些网站,并向媒体监管机构通报风险。然而,主要通过社交媒体上不受限制的渠道广泛传播的虚假新闻提出了一个重要问题:人工智能测试的承诺会让读者产生虚假的安全感吗?
今年早些时候,脸谱网发布了一项广告活动,宣布其承诺处理虚假新闻、虚假账户、点击攻击和垃圾邮件,作为马克·扎克伯格让脸谱网回归其核心价值的更广泛战略的一部分。在成为历史上最引人注目的数据泄露事件的中心后,脸书正试图让用户相信他们是可信的。
皮尤研究中心2017年9月进行的一项研究发现,45%的美国成年人使用脸书获取新闻,尽管任何人都可以在社交媒体上发帖。然而,当需要监控超过20亿用户时,如何控制人们对非官方信息来源的依赖?Facebook显然想向用户和监管者保证,他们的算法可以解决这个问题,但证明新闻是错误的就像在墙上贴果冻一样:最好的情况是耗时的,最坏的情况是不可能的。事实上,脸书的力量和麻省理工学院的检测系统可能会让人们放松警惕,更愿意相信他们读到的东西。
人是问题
愿意相信耸人听闻的信息是一种真实的现象,揭露虚假信息并不总是能改变人们的想法。发表在《智力》杂志上的2017年11月的一项研究发现,认知能力较低的人在被告知关于虚构人物的诽谤性信息是虚假的后,无法改变他们最初的印象。正如麻省理工学院CSAIL论文本身所说:“即使揭穿是由一个著名的事实核查组织进行的,也无助于说服那些已经相信虚假信息的人。”
麻省理工学院的一项研究发现,真正的新闻传到用户手中的时间是相关信息传到推特用户手中的时间的六倍,而“70%的虚假新闻比真相更有可能被传播”。结果,社交媒体用户加剧了虚假新闻的传播,很少有机器学习能改变根深蒂固的坏习惯。
实施机器学习来打击虚假新闻的传播是值得称赞的,这个问题需要解决,因为主要媒体组织的可信度受到质疑。但是随着社交媒体加剧了虚假信息的传播,检测和揭露虚假消息的来源能让人类克服他们相信我们所听到的东西的本能吗?
(摘自《福布斯》作者:查尔斯·塔沃斯-克拉克编译:网易智能参与:nariiy)
下一篇:鸡爪煮15分钟能熟吗
推荐阅读