欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

虽不是故意,面前的电脑正在歧视你

科普小知识2021-08-01 22:16:34
...

虽不是故意,面前的电脑正在歧视你

严格来说,这是由于谷歌照片算法本身的缺陷。无处不在的算法有可能让性别、收入和种族成为“有色眼镜”。

虽然不明显,但仔细思考是极其可怕的。

歧视:

人们对某些缺陷、缺点、能力和出身的看法不平等,导致他们遭受不同程度的损失。它们往往是贬义的,属于一种由外部因素引起的人格扭曲。

直觉告诉我们,机器的逻辑思维是没有感情的,所以它们比人类更客观、更理性。例如,机器算法可以通过卫星图像分析缅甸的经济状况。然而,该算法也有自己的错误。

  

虽不是故意,面前的电脑正在歧视你

据《纽约时报》报道,卡内基梅隆大学的一项研究显示,谷歌的广告系统已经学会了性别歧视。在推销高收入工作招聘信息时,男性比女性收到信息的频率更高。哈佛大学的研究还指出,“询问逮捕记录”的广告会更频繁地发现黑人。除了知名大学的研究团队,美国联邦*也关注歧视问题。联邦贸易委员会在其调查中发现,广告商更倾向于向低收入人群展示高息贷款信息。

机器学习的是辨别,而不是道德。

上面提到的一些“歧视”并不是来自算法的个人偏好,也没有任何情感色彩,但是计算结果中的歧视和歧视的影响是真实的。伯克利学者说:

即使程序团队无意在算法中植入歧视,即使输出是完全合理的,他们仍然会表现出歧视。

  

虽不是故意,面前的电脑正在歧视你

广告跟踪是合法的,但是当算法戴着有色眼镜跟踪用户时,它就是非法的。为了更好地理解算法歧视的本质,卡内基梅隆大学采用了“给别人他们做过的事情”的策略,使用软件工具模拟谷歌零浏览记录的用户浏览求职网站。随后,一家新闻网站统计了“20万高管年薪”的推送数据。结果,男性用户收到了1852次推送,女性用户收到了318次,仅是男性用户的六分之一。

结果似乎比预期的更糟。工作场所的性别歧视一直受到人们的批评,谷歌目前的算法可能会使这种不平等更加根深蒂固。由于机器算法的复杂性,研究人员无法确定是什么联系导致他们学习辨别。谷歌拒绝解释,尽管他左右为难:

广告商可以选择跟踪他们想接触的人,我们也有相关的政策指导方针,针对以利益为导向的广告。

指导方针指出“你不能使用用户的敏感信息,比如网页和应用程序从用户那里收集的精确的比赛数据。”然后问题出现了。即使没有确切的种族信息,大数据仍然可以通过其他线索标记特定的群体。以黑人为例。一些线索,如历史上黑人常用的名字和黑人统治的兄弟会,可以帮助算法标记黑人群体(“大猩猩事件”)。

麻烦应该会结束它

从本质上说,这个算法是由“计算人的人”使用的,所以如果有问题,纠正“歧视”的任务将由其他人完成。

对机器的歧视可能是无意的。既然问题已经被提出,像谷歌这样的数据公司正面临新的挑战。为了避免这种无意的歧视,程序员可能需要在一开始就考虑价值取向,广告规则也需要更多的考虑。毕竟,道德正确性可以引导人们创建一个更加和谐的网络社会。