人工智能揭示刻板印象随时代而变
资料来源:德布罗克/古典股票
当过去已经过去,你如何衡量陈词滥调是如何改变的?你可以阅读人们写的东西并记录下这些刻板印象,但是偏见往往比一个简单的词更微妙。
研究人员现在正在开发人工智能来帮助解决这个问题。一项新的研究分析了这些刻板印象的演变。就像时代变了,人们不再使用软盘。
为了量化偏见,一个研究小组求助于一种被称为“机器学习”的人工智能,这种智能允许计算机分析大量数据,并自动发现其中的模式。
研究人员设计他们的程序来使用嵌入的单词。通常,一串数字代表一个单词的意思,这些单词的意思是基于文本中的其他单词来考虑的。例如,如果人们倾向于把女人描述为情绪化的,那么“情绪”这个词会比“男人”这个词更频繁地出现在“女人”的旁边,并且嵌入的词会把它挑出来——“情绪”会比“男人”更接近“女人”。这是对女性的偏见。
研究人员首先想看看嵌入是否能很好地反映刻板印象。
通过对过去几十年发表的英语文本的分析,研究人员发现,他们的节目显然与同一时期性别和种族定型观念的发现相一致。然后,研究人员使用了20世纪前10年到20世纪90年代美国报纸、书籍和杂志上使用的2亿个词来分析未经调查的情绪。
研究人员最终发现,在过去几十年里,与能力相关的词汇,如“足智多谋”和“智力”,正逐渐变得不那么男性化。然而,与外表相关的词汇——比如“迷人”和“呆在家里”——并没有多大变化。在过去的几十年里,这些词的嵌入显然仍然与“女性”有关。
其他研究结果集中在种族和宗教上——亚洲名字与外界的联系越来越少,而在一个单独的数据集(从1988年至2005年的《美国纽约时报》获得)中,与*相关的术语在1993年和2001年纽约世贸中心遇袭后与某些组织的联系越来越紧密。
研究人员指出,来自其他时代和其他地方的人可能不会告诉你他们的偏见,但他们无法隐藏他们的偏见。
加州斯坦福大学的尼克希尔·加尔格和他的同事在最近出版的《国家科学院杂志》上报道了研究结果。
这不是巧合。在之前的另一项研究中,当被要求画一个科学家的肖像时,大约三分之一的美国儿童现在画一个女性形象。这是自20世纪60年代以来的一个重大变化。在一项分析中,心理学家综合了1996年至2016年进行的78项“画一个科学家”研究的结果,这些研究涉及大约20,000名从幼儿园到高中的美国儿童。在20世纪60年代和70年代,99.4%的儿童画男性科学家。1985年至2016年间,这一比例降至72%。到本世纪前10年,大约1/3的画作描绘了女性科学家。(赵茜·Xi)
中国科学新闻(2018-04-09第二版国际版)
上一篇:畅谈游览印象
下一篇:速度与激情:中国科技的世界印象