虽不是故意,面前的电脑正在歧视你
严格来说,这是由于谷歌照片算法本身的缺陷。无处不在的算法有可能让性别、收入和种族成为“有色眼镜”。
虽然不明显,但仔细思考是极其可怕的。
歧视:
人们对某些缺陷、缺点、能力和出身的看法不平等,导致他们遭受不同程度的损失。它们往往是贬义的,属于一种由外部因素引起的人格扭曲。
直觉告诉我们,机器的逻辑思维是没有感情的,所以它们比人类更客观、更理性。例如,机器算法可以通过卫星图像分析缅甸的经济状况。然而,该算法也有自己的错误。
据《纽约时报》报道,卡内基梅隆大学的一项研究显示,谷歌的广告系统已经学会了性别歧视。在推销高收入工作招聘信息时,男性比女性收到信息的频率更高。哈佛大学的研究还指出,“询问逮捕记录”的广告会更频繁地发现黑人。除了知名大学的研究团队,美国联邦*也关注歧视问题。联邦贸易委员会在其调查中发现,广告商更倾向于向低收入人群展示高息贷款信息。
机器学习的是辨别,而不是道德。
上面提到的一些“歧视”并不是来自算法的个人偏好,也没有任何情感色彩,但是计算结果中的歧视和歧视的影响是真实的。伯克利学者说:
即使程序团队无意在算法中植入歧视,即使输出是完全合理的,他们仍然会表现出歧视。
广告跟踪是合法的,但是当算法戴着有色眼镜跟踪用户时,它就是非法的。为了更好地理解算法歧视的本质,卡内基梅隆大学采用了“给别人他们做过的事情”的策略,使用软件工具模拟谷歌零浏览记录的用户浏览求职网站。随后,一家新闻网站统计了“20万高管年薪”的推送数据。结果,男性用户收到了1852次推送,女性用户收到了318次,仅是男性用户的六分之一。
结果似乎比预期的更糟。工作场所的性别歧视一直受到人们的批评,谷歌目前的算法可能会使这种不平等更加根深蒂固。由于机器算法的复杂性,研究人员无法确定是什么联系导致他们学习辨别。谷歌拒绝解释,尽管他左右为难:
广告商可以选择跟踪他们想接触的人,我们也有相关的政策指导方针,针对以利益为导向的广告。
指导方针指出“你不能使用用户的敏感信息,比如网页和应用程序从用户那里收集的精确的比赛数据。”然后问题出现了。即使没有确切的种族信息,大数据仍然可以通过其他线索标记特定的群体。以黑人为例。一些线索,如历史上黑人常用的名字和黑人统治的兄弟会,可以帮助算法标记黑人群体(“大猩猩事件”)。
麻烦应该会结束它
从本质上说,这个算法是由“计算人的人”使用的,所以如果有问题,纠正“歧视”的任务将由其他人完成。
对机器的歧视可能是无意的。既然问题已经被提出,像谷歌这样的数据公司正面临新的挑战。为了避免这种无意的歧视,程序员可能需要在一开始就考虑价值取向,广告规则也需要更多的考虑。毕竟,道德正确性可以引导人们创建一个更加和谐的网络社会。
上一篇:改变皮肤细菌,从此远离蚊子
下一篇:不开心?来看书
推荐阅读