上海交大教授回应看脸识罪犯质疑
“通过机器学习,分类器可以更可靠地区分罪犯和非罪犯的照片。罪犯内眦之间的距离平均比普通人短5.6%,上唇曲率为23.4%,鼻唇角为19.6%去年11月,一篇论文的研究结论上传到了预先打印好的网站arXiv上,这让学术界和媒体立即“炒了锅”。
许多人既惊讶又怀疑。这是人工智能时代《少数派报告》的预告片吗?电影《少数派报告》改编自菲利普·迪克的短篇小说,讲述了2054年华盛顿特区的故事。司法部有三个“先知”,他们可以预测犯罪意图,并在犯罪发生前逮捕和判决罪犯。
论文作者、上海交通大学图像传播与网络工程学院教授吴晓林在过去的六个月里收到了大量质疑或批评的电子邮件。最近,他遇到了三位美国学者,他们以写一万字的文章的形式在远处大喊大叫。
这篇10000字的文章名为“相面术的新衣服”,于当地时间5月6日在新媒体网站“媒体”上发表。这三位作者布莱斯·阿居拉·阿卡斯是机器学习领域的著名工程师,于2013年从微软搬到谷歌。玛格丽特·米歇尔也是谷歌人工智能研究员。亚历山大·托多洛夫是普林斯顿大学的神经科学教授。
六个月后,三位美国学者评论道:“随着人工智能和机器学习的快速发展,我们迎来了一个科学种族主义的新时代。”“基于面部特征的深度学习不应该被用作‘加速’司法公正的工具。如果是这样,那将会延续不公正。”这篇文章是这样结尾的。
纳粹“种族科学家”正在做面部测量。
5月9日,吴晓林回应澎湃新闻:“这三位美国作者忽略了我们在原文中的重复陈述。我们对社会科学没有兴趣或学术背景来解释我们的结果和讨论它们的原因。没有人建议在执法和司法中使用它。他们把这些想法强加给我们。”
“就价值观而言,我们与这篇文章的作者没有什么不同。他们歪曲了我们的初衷,为自己找到了一个假想的敌人。”吴晓琳强调道。
“通过看罪犯的脸来识别他们”的研究没有实际的可能性
这篇有争议的论文题为“利用面部图像对刑事定罪的自动影响”。在实验中,吴晓林和他的博士生张西挑选了1856张中国成年男性的面部照片,其中730张是罪犯身份证的照片(330张来自网上的通缉令,400张由签署了保密协议的派出所提供),其余1126张是网上抓拍的普通人的照片。经过机器学习,该算法能够以87%的准确率识别出可疑点。
吴晓林研究中使用的照片样本。A组是罪犯,B组是非罪犯。
在论文的引言部分,吴晓林和张西指出:“在本文中,我们无意或没有资格讨论社会偏见。我们只是好奇完全自动的有罪推定有多准确。起初,我们的直觉是机器学习和计算机视觉会颠覆相面术,但结果恰恰相反。”
然而,论文中87%的准确率仅与学术水平显著相关。一方面,这并不能解释任何因果关系,即外表是否决定固有的犯罪性质,或者人类社会中对外表的歧视是否导致犯罪概率的差异,这有待于社会科学的解释。另一方面,这些数据也没有应用的可能性。舆论非常关注他的研究的实用性,甚至有网友建议他把研究交给纪律委员会,这让吴晓林感到苦恼和“彷徨”。
这是因为,基于中国千分之几的犯罪率的背景条件,实验中87%的真阳性,如果用于实践,将具有非常低的判断准确性。此外,这项研究本身还有许多悬而未决的问题。例如,实验的样本量不够大,这很容易导致机器的过度学习。
罪犯内眦间距平均比普通人短5.6%,上唇曲率为23.4%,鼻唇角为19.6%。
虽然吴晓林团队的研究成果没有意图,也不能应用于实际应用,但最近在人工智能领域也有类似应用的迹象。而且,如果没有分号,道德诉讼就不会被提起。这一次,站在政治正确性制高点上的布莱斯·阿居拉·亚克斯和亚历山大·托多洛夫的谷歌遭遇了重大挫折。
黑人被认为是“大猩猩”
2015年,谷歌推出了相册应用——谷歌照片。该应用程序不仅可以备份和组织照片,还可以自动标记照片,以便用户可以快速找到它们。
然而,正是这种基于图像识别技术的自动标记功能造成了混乱。纽约的黑人程序员杰基·阿尔辛惊讶地发现,他和黑人朋友的自拍被谷歌照片贴上了“大猩猩”的标签。他在推特上发布了截图,谷歌立即道歉,暂时从系统中移除了“大猩猩”标签,并以最高优先级解决了问题。
谷歌照片把黑色自拍贴上了“大猩猩”的标签
相关技术人员指出,谷歌可能没有为机器提供足够的大猩猩图片来了解差异。然而,其他网民安慰阿尔辛说,他们的照片也被认定为“猫”或“马”。
以色列初创企业“通过看*的脸来了解他们”
有人可能会说,一张黑色照片被贴上“大猩猩”标签的事件不应该解释得太多,就像一张日本照片被贴上“猫”标签一样,这只是谷歌开的一个玩笑。但是,如果司法和国土安全系统也提到这些可能出错的系统,这还是一个笑话吗?正如三位美国作者在一篇长文中指出的,吴晓林研究中最可怕的一点是将“算法”和“法律”这两个看似客观而权威的东西结合起来。
2016年夏天,密歇根一家名为Northpointe的公司被推到了公众舆论的前沿。美国各地的法院正在使用该公司的人工智能产品COMPAS来评估嫌疑人再次犯罪的可能性。法院在做出判决或保释决定时将参考COMPAS的评估意见。
COMPAS的评估系统根据100多个因素,包括年龄、性别和犯罪史,给嫌疑人从1到10的评分。分数越高,危险就越大,但是种族不包括在内。然而,非盈利的非*新闻网站ProPublica指出,黑人比白人更有可能在没有重复犯罪的嫌疑人身上获得高分。因此,ProPublica指责COMPAS是一个带有种族歧视的人工智能系统,不应再作为法院的参考。
COMPAS预测重复犯罪的可能性
《华盛顿邮报》写道,如果按照公司自己的定义,COMPAS算法是“公平的”,即相同分数的黑人或白人犯罪嫌疑人重复犯罪的概率相同,那么ProPublica衡量的偏差的实际原因是黑人犯罪嫌疑人的总体重复犯罪率确实更高。
Blaise Agü era y Arcas和其他人也在他们的文章中挑出并批评了一家以色列初创企业Faception。据《华盛顿邮报》报道,该公司已经与国土安全局签署了一份帮助识别*的合同。Faception声称,他们开发的系统可以通过面部分析识别*,成功率超过80%,并且可以成功识别2015年11月巴黎恐怖袭击11名嫌犯中的8名。
通过面部表情识别面部
面子工程公司首席执行官肖恩·吉尔波对媒体说:“我们的个性是由基因决定的,并将在我们的脸上得到体现。这是一个信号。使用先进的机器学习技术,我们开发了15种分类标准,每一种都代表一种个性,是个人特征和行为的集合。我们的算法可以为每个人的这些个性打分。”
除了*,Faception声称他们的算法也可以用来识别恋童癖和白领罪犯。
歧视的不是算法,而是有偏见的人。
基于美国特殊的历史和文化,种族总是容易激起敏感的神经。然而,在上述谷歌人脸识别BUG和COMPAS案例解决系统中,媒体特别关注黑人这一“少数民族”遭受不平等待遇的算法。在他们的文章中,布莱斯·阿居拉·阿卡斯和其他人也反复强调,看似客观公正的算法不应该被用来“洗刷”对人类的歧视。
事实上,近年来,越来越多的学者已经开始意识到算法是不客观的。巴斯大学的乔安娜·布莱森教授在上个月发表在《科学》杂志上的一项研究中指出,人工智能也显示出各种偏见和歧视,如种族、性别、年龄等。乔安娜·布莱森说:“人们会说实验表明人工智能是歧视性的。不,这实际上表明了我们人类有歧视,并且已经被人工智能学会了。”
吴晓林还告诉澎湃新闻(www . paper . cn),“当我们说机器做出判断时,没有偏见,当然,这是假设数据的标记是公平的。机器不会纠正输入数据标记中的人为错误。”
人类的偏见可以通过人工智能作为数据来“学习”,这在聊天机器人中得到充分体现。2016年3月,微软的聊天机器人Tay(萧冰的美国姐妹版)在推特上上线,并被设定为可以和任何一个推特用户聊天。短短的24小时后,一个甜美礼貌的“小女孩”开始说很多脏话,甚至还说了很多种族主义和性别歧视的话。被网民迅速训练的“艾·希特勒”震惊了网民,被微软匆忙锁在“小黑屋”里。
泰,谁是“糟糕的教育”
另一部分研究人员指出,像黑人这样的“少数民族”可能遭受不平等算法的主要原因是,在训练数据集中,代表这些“少数民族”的样本太少,因此算法不够成熟,无法训练这部分人口,并且经常得出不准确的结论。许多算法开发人员自己都没有意识到这一点。
机器人认为白人更漂亮吗?
吴晓林告诉澎湃新闻(www.thepaper.cn)说,他在学术界听到一种说法,关于人工智能伦理的会议比关于人工智能本身的会议多。
由于犯罪概率研究的压力,吴晓林将继续探索计算机视觉在模拟人类感知方面的潜力,但会将研究主题转向其他方向。在那篇论文发表后,他上传到arXiv上的研究题为“迷人女性面孔对社会心理印象的自动影响”。
这项研究检验了计算机视觉学习人类美学的能力。实验结果表明,训练后的算法能够以较高的概率区分性感美女和可爱美女,其审美效果与中国高校男生非常接近。
“我们必须认识到这一点,也就是说,人工智能具有这种潜力,人工智能已经到了这一点。”吴晓琳说道。
然而,他在美国社会的计算机“美学”研究也可能面临一些麻烦。2016年,由微软支持的英伟达、青年实验室等多个组织联合举办了首届国际选美大赛(国际人工智能选美大赛)。世界各地的用户只需将自己的照片上传到相关的APP上,机器人评委将根据面部对称性、皱纹等因素选出最漂亮的获奖组。令人尴尬的是,在来自100多个国家的近6000张自拍中,机器人裁判选出的44位最漂亮的获奖者几乎都是白人,只有少数亚洲人和一位皮肤黝黑的人。
“机器人不喜欢黑皮肤。”当时,许多新闻报道都以此为标题。
阅读更多
谷歌研究人员怀疑上海交通大学教授通过看罪犯的脸来认识他们
上海交通大学教授回应争议:看到面子信念是一派胡言
上一篇:释景元简介及代表作