人工智能也有“偏见”
学习人类书写的电脑可以自动区分一些专业词汇的性别。
资料来源:bene detto cristofani/@ salzmantart
人工智能的最大前景之一是一个没有人类琐碎偏见的世界。这个想法是用算法给男女平等的工作机会,并使用大数据来预测犯罪,以避免政治监督中的种族偏见。但是一项新的研究表明,计算机也可能有偏见。特别是当他们向人类学习的时候,当公式“狼吞虎咽”地收集了大量人类书面文本的含义时,他们也采用了非常相似的人类思维模式。
“不要认为人工智能只是一个处女。”“人工智能已经成为我们现有文化的延伸,”巴斯大学和普林斯顿大学的研究合著者乔安娜·布莱森说。
这项工作的灵感来自于一种叫做内隐联想测验(IAT)的心理学工具。在IAT,文字在电脑屏幕上闪过,人们对它们的反应表明潜意识的联想。例如,美国黑人和白人会更快地将“布拉德”和“考特尼”与“幸福”和“一天天上升”联系起来,而将“勒罗伊”和“拉蒂沙”与“仇恨”和“恶心”联系起来。
为了验证机器“思想”是否有同样的偏见,布赖森和他的同事开发了单词向量关联测试(WEAT)。他们从一组既定的“单词向量”开始——基本上是计算机根据单词通常出现的上下文对单词的定义。因此,“冰”和“水蒸气”有相似的向量,因为这两个词经常出现在与“水”相关的词中,而很少出现在与“时尚”相关的词中。
WEAT测量的不是人类的反应时间,而是数字串之间的相似性。布莱森的团队用它发现,名字的隐含意义,如“布雷特”和“艾利森”,通常与正面词相似,包括“爱”和“笑”,而名字如“阿隆佐”和“沙妮卡”,更类似于负面词,如“癌症”和“失败”。对于计算机来说,偏见也包含在词汇中。
IAT还表明,平均而言,美国人把男人与工作、数学和科学联系在一起,把女人与家庭、文学和艺术联系在一起。年轻人通常被认为比老年人更幸福。研究发现,所有这些联系也存在于WAET中。使用同样的技术来测试积极和消极词汇的延伸意义的相似性,该程序还得出结论,花比昆虫更令人愉快,乐器比武器更令人愉快。
研究人员随后进行了一项单词向量事实关联测试(WEFAT)。测试确定了一些单词与其他单词的相关性,然后比较了现实世界中这些联想的实际情况。例如,它询问了“保健专家”和“图书管理员”以及“妇女”和“妇女”这几个词的引申含义之间的关系。对于每种职业,它将计算机生成的性别关联与该职业中妇女的实际比例进行比较。结果是非常强的相关性。该团队在4月13日的《科学》杂志上报道说,因此,计算机载体可以编码一切事物,从对鲜花的共同感受到种族和性别偏见,甚至是劳动力的事实。
"公式可以发现这些非常酷."波士顿大学的计算机科学家托尔加·波洛克巴斯最近也做了类似的工作,他说,“当你训练这些词的扩展意义时,你从来没有真正地做过这些注释。”缺陷在于如何使用有偏见的参考,比如在分类简历或申请贷款时。例如,当一台计算机搜索一名计算机程序员,并将该“程序员”与一名男子联系起来时,该男子的简历将会达到最高。Bolukbasi的工作集中在“消除对扩展意义的偏见”的方法上,即从一些单词中去除不必要的联想。
布莱森有另一种方法。她没有选择去除偏见的延伸含义,也就是说,扔掉一些信息,而是添加了另一层人类或计算机判断来决定如何或是否应用这些偏见。例如,在雇用程序员的情况下,可以设定性别配额。
人们一直认为语义可以从词汇共现中合理提取。“但这与之前的结果大不相同。”1998年开发IAT的西雅图华盛顿大学心理学家安东尼·格林沃德说,他最近对WEAT的评论发表在《科学》杂志上。他说,他希望写作(WEAT测试的基础)能更好地反映清晰的态度,而不是模糊的偏见。但是,WEAT的扩展意义更接近或类似于IAT偏见,而不是种族和性别态度调查的结果,这表明人们可能通过语言以无意识的方式传递偏见。“这有点令人惊讶。”他说。他还说,WEAT可以通过测试19世纪早期书写的书籍中单词的扩展意义来测试之前的模糊偏见。
与此同时,拜伦和他的同事也表明,即使是谷歌也不能免于偏见。该公司的翻译软件将几种语言中的中性名词翻译成医生的“他”和护士的“她”。
拜伦说,所有这些工作“显示了选择词汇的重要性”。“对我来说,这实际上是对所有这些事情的辩护,比如政治正确性和积极行动。现在,我明白了这有多重要。”(晋南编)