科学家:人工智能可以迅速发展自己的偏见
科普小知识2022-01-15 05:53:49
...
据英国《每日邮报》9月7日报道,来自英国卡迪夫大学和美国麻省理工学院的计算机科学和心理学专家发现,自主机器人可以通过识别、复制和学习其他机器人的行为来产生偏见。一些算法已经产生了性别歧视和种族歧视。
歧视似乎是人类社会中一种需要认知的独特现象。然而,一些类型的计算机算法已经从公共文件和其他人类数据中学会了偏见,例如性别歧视和种族歧视。最新研究甚至发现,人工智能可以进化出不同的偏见群体。
为了证明人工智能可以自己产生偏见,科学家们使用计算机来模拟游戏。在游戏中,每个人可以给自己的小组或其他小组钱,测试每个人的捐赠策略,观察他是否对其他小组有偏见。这个游戏是由一台超级计算机模拟的,其中包括成千上万的个人。每个人都可以通过模仿同一组或不同组的其他人来学习新的策略。
参与这项研究的加的夫大学计算机科学和信息科学教授罗杰·惠特克说:“通过成千上万次的模拟,我们已经发现了偏见是如何演变的,什么会加剧偏见,什么会削弱偏见。我们的研究表明,偏见是自然产生的,并有很大的影响。很容易受到刺激,并在很大范围内破坏连通性。来自同一偏见群体的保护可以非主观地导致进一步的偏见和分裂整个群体。这种普遍的偏见很难逆转。”这些人通过复制那些短期利益更高的人来提升偏见,从而表明偏见不需要高级认知能力。
在另一项关于性别的研究中,研究人员发现在人脸识别服务中存在性别歧视和种族歧视,如微软、IBM和Face++等。这些服务对白人男性更友好,黑人男性和黑人女性的错误率最高。微软在21%的案例中无法识别黑人女性,而IBM和Face++在35%的案例中无法识别。