社交媒体机器人正在扰乱研究
如今,社交媒体机器人因其自动生成内容的大量输出而传播虚假信息,被指控影响选举和损害公共健康。现在,一些社会科学家对此提出了新的指控:干涉研究,而后者将从流行网站上获取有关人类健康和行为的信息。
根据《自然》杂志,来自这些网站的数据将帮助科学家理解自然灾害如何影响心理健康,为什么美国年轻人蜂拥购买电子烟,以及人们如何在复杂的社交网络中联系。然而,这样的工作需要从自生成的信息中识别真实的声音。
"机器人被设计成像人类一样在网上冲浪."洛杉矶南加州大学的社会科学家乔恩-帕特里克·艾伦说,“如果研究人员对描述公众态度感兴趣,他们必须确保在社交媒体上收集的数据确实来自人们。”
计算机科学家Sune Lehmann在2013年设计了他的第一个机器人,当时他在丹麦科技大学教书。这个机器人是一个社交网络实验。他说,当时社交媒体上的机器人非常简单,主要是为了增加特定账户的“粉丝”数量。莱曼想向学生展示这些机器人如何操纵社会系统,所以他们联合设计了一个模仿歌手贾斯汀比伯粉丝的机器人。
这些“粉丝机器人”设计简单,很快吸引了成千上万的关注。从那时起,社交媒体机器人已经进化,变得更加复杂和难以找到。2016年美国总统大选后,这些机器人很快成为焦点。人们指责这些安装在社交媒体上的机器人试图影响投票结果。"突然间,它成了人们感兴趣的东西."艾伦说。
从那以后,Allem发现机器人自动产生的“电子香烟有助于戒烟”的数量是真实内容的两倍,而且机器人更有可能倡导未经证实的大麻健康益处。这些研究依靠算法来估计社交媒体账户被机器人化的可能性。Allem说,尽管有测试工具,许多社会科学和公共卫生研究人员仍未能一步一步过滤掉数据中可能的自生内容,部分原因是有些人觉得他们没有这方面的专业知识。
"这种遗漏可能会污染数据集."马里兰大学帕克分校的阿米莉亚·贾米森警告说,她关注健康差异,并在社交媒体上发布了反疫苗接种的帖子。她说:“把他们想象成真正参与讨论的人,你可以人为地给机器人发言权。事实上,他们只是在放大一些社区可能不会讨论的东西。”她指出,在她的案例中,机器人产生的内容没有被删除,或者她认为人们产生了更多或更多不同于实际情况的反疫苗言论。
德国科隆莱布尼茨社会科学研究所的信息科学家卡特琳·韦勒指出,必须解决的一个问题是如何定义“机器人”。并非所有的机器人都恶意传播虚假信息,其中一些会提供最新的天气信息、海平面变化数据或更新一般新闻。一些研究人员将社交媒体机器人定义为每天发送超过一定数量信息的账户,但韦勒认为这是一个松散的定义,将涉及大量真实用户。
机器人探测工具和机器人之间存在“军备竞赛”。早期的社交媒体机器人是相对简单的程序,定期转发他人发布的内容。现在,机器学习的进步使得创造更复杂的发布原创内容的社交媒体机器人成为可能。一些机器人会以随机的时间间隔发布信息并模仿人类,例如,当人们睡觉时,它们不会发布信息。一些开发人员将人们发布的内容与自动生成的内容混合,以更好地伪装机器人。
“一旦你对机器人以及如何检测它们有了更多的了解,机器人开发人员也可以获得这些知识。”瑞士苏黎世大学的奥利弗·格鲁布纳说,“这非常困难。”
像雷曼一样,一些社会科学家正在为社会实验创造他们自己的机器人。宾夕法尼亚州立大学的政治学专家凯文·芒格和他的同事发明了一个机器人来监控在社交媒体上使用种族主义语言的用户。
“粉丝机器人”成功后,莱曼设计了更复杂的机器人来研究大众传播。然而,由于机器人的坏名声,他决定放弃这种做法,以避免强烈的公众反对。"关于机器人的一切都在骚动。"莱曼说,“我想找一个安静的角落做我的研究,而不是引起争议。”
下一篇:5亿年前的社交网络
推荐阅读