谷歌研究员质疑上海交大教授看脸识罪犯
上海交通大学图像传播与网络工程学院教授吴晓林在过去的六个月里收到了大量的批评邮件,许多媒体报道也引用了一些专家学者的批评意见。然而,这一次,三名美国研究人员在互联网上写了一篇长达10,000字的长篇文章,从远处对他发表演讲,称他的研究为“科学种族主义”。
这篇10000字的文章名为“相面术的新衣服”,于当地时间5月6日在新媒体网站“媒体”上发表。这三位作者布莱斯·阿居拉·阿卡斯是机器学习领域的著名工程师,于2013年从微软搬到谷歌。玛格丽特·米歇尔也是谷歌人工智能研究员。亚历山大·托多洛夫是普林斯顿大学的神经科学教授。
所有这些都来自于去年11月吴晓林和他的博士生张西在预先打印的网站arXiv上上传的一篇题为“人脸图像对刑事定罪的自动影响”的论文。
研究中使用的照片样本。A组是罪犯,B组是非罪犯。
吴晓林和张西利用计算机视觉和机器学习技术检查了1856张中国成年男性的面部照片,其中近一半是已定罪的罪犯。实验结果表明,通过机器学习,该分类器能够以较高的概率区分罪犯和非罪犯的照片。特别是在内眦距离、上唇曲率和鼻唇角的测量方面,罪犯和非罪犯之间存在显著的差距。罪犯内眦间距平均比普通人短5.6%,上唇曲率为23.4%,鼻唇角为19.6%。同时,他们发现罪犯之间面部特征的差异比非罪犯之间的差异大。
罪犯内眦间距平均比普通人短5.6%,上唇曲率为23.4%,鼻唇角为19.6%。
六个月后,三位美国学者评论道:“随着人工智能和机器学习的快速发展,我们迎来了一个科学种族主义的新时代。”他们宣称,撰写这篇深度文章“不仅是为了研究人员、工程师、记者和决策者,也是为了确保人工智能有益于人类的每一个人。”
然而,吴晓林早些时候在接受澎湃新闻(www.thepaper.cn)采访时提到,他欢迎学术交流和讨论,也欢迎使用数据质疑他的结论。至于政治和道德问题,他们需要比他个人能够解决的更广泛的社会讨论。
虽然谷歌研究员的这篇万字长的文章也提出了几个可能导致吴晓林实验数据“假象”的技术问题,但其核心论点抛弃了对文章细节的讨论,从政治正确性、历史和伦理的角度批判了相面术及其在机器学习时代的新形式。
“机器面部护理”,新瓶装旧酒
这三位美国学者的文章不是学术论文。他们用一万字讲述了面相学发展的历史,解释了机器学习研究领域的一些基本情况,并以吴晓林和张西的研究为对象,指出正如他们的研究是以机器学习为幌子的面相学一样,人类社会中的许多歧视也可能被算法冲走。
关于相面术的历史,他们从切萨雷·龙勃罗梭开始。
1870年,意大利*医生切萨雷·龙勃罗梭打开了著名的意大利强盗头子比莱拉的尸体头部,发现他的枕骨上有一个明显的凹陷,位置像一只低等动物。这一发现激发了他的灵感,由此他提出了“自然罪犯”理论,认为罪犯与非罪犯在生理上是不同的,可以通过卡尺和其他仪器来检测。切萨雷·龙勃罗梭还认为,罪犯是返祖的,具有许多原始人的特征,可以遗传。
切萨雷·龙勃罗梭的研究支持了他的政治主张,即意大利的南方人比北方人更文明。从那以后,切萨雷·龙勃罗梭在“颅相学”和“自然罪犯”方面的追随者也将他们的研究与一些政治观点联系起来。塞缪尔·莫顿倡导白人至上的脑壳科学描绘了19世纪美国的白人奴隶主,而德国儿童教科书《德·吉菲兹》则描绘了纳粹时代,该书教导犹太人通过鼻子的形状来辨别身份。
沃特,《实用性格判断》,1902年,第80页。
纳粹“种族科学家”正在做面部测量。
文章的三位作者指出,“相面术试图从一个人的外表推断出他的内在性格。虽然今天相面术被认为是伪科学,但是一些人仍然相信低级别的人可以从相面术或图形中被识别出来。在某些历史时期,地貌也被纳入国家法律,为土地入侵、反移民、奴隶制和种族清洗提供依据。相面术的伪科学是科学种族主义。”
他们认为,人工智能时代上述研究的新形式是吴晓林的。“在一个计算机和大数据无处不在的时代,‘机器面孔’已经有了许多前所未有的用途。因此,人工智能的开发者、批评家和用户都迫切需要理解技术的界限和相面术的历史,现在它穿上了一件现代外衣。”
机器已经获得了人类的偏见。
本文中最令人担忧的问题是,人类社会中的一些歧视和偏见在作为训练模型被嵌入机器学习之后被“淘汰”。毕竟,算法的输入和输出似乎非常公平和客观。
吴晓林和张西在论文中写道,“人类观察者的主观判断会导致偏见。我们第一次探索了没有人类偏见的基于面部特征的罪犯自动推理。”
文章的三位作者认为,无论是否使用机器学习工具,相面术,即试图通过外表特征来预测行为和性格,都是基于以下三个有缺陷的隐藏假设:
1、一个人的外貌是由本性决定的;
2.“犯罪”是特定群体的自然属性;
3.司法系统中的刑事判决不受外表的影响。
因此,文章逐一驳斥了这三种假设。值得注意的是,吴晓林在他的论文中没有提到这三个假设。他把实验结果的解释空间留给了社会科学领域的学者。
三位美国学者指出,首先,面部特征并不完全自然,而且生长和环境有很大影响。此外,拍摄照片的环境也会影响照片中呈现的人脸。正如吴晓林在论文中提到的,在2011年康奈尔大学的心理学研究中,学者们把罪犯的照片和校园里的人脸作为研究材料,这可能会干扰研究结果。
其次,“犯罪阶级”的概念在19世纪非常流行。为此,英国将罪犯流放到澳大利亚,以降低英国的犯罪率。然而,事实证明,澳大利亚并没有变成一个充满犯罪的地狱。早些时候,一些研究也认为更高的睾酮水平会增加攻击性。然而,它们不能实现高相关性。简而言之,目前的人类研究发现,身体外貌和行为之间只有微弱的相关性。
最后,文章提到在美国,黑人男性被监禁的可能性是白人男性的7倍。犯同样罪行的黑人罪犯通常会受到更重的惩罚。因此,研究中使用的犯罪数据可能是法官偏见的结果。
换句话说,吴晓林和张西的实验并没有找到一条准确判定案件的捷径,而是揭示了人类判断的不准确性和系统性不公正,包括官方的刑事判决。
刺破窗户纸
文章提到,学术界很多人认为吴晓林和张西的研究在伦理和科学方面存在很大问题。尽管这三位作者还指出了文章中可能存在的一些技术漏洞,比如样本少于2000个很容易导致机器过度学习,以及机器只能学习照片中的表情(例如,罪犯的照片皱眉更多,而普通人的照片微笑更多),但他们强调了研究的伦理问题。对于普通人来说,机器学习是一种“强大而神秘的工具”,而张武的研究为一些“陈词滥调”提供了新的可信度。
文章的结论是:“在科学层面上,机器学习是一个前所未有的窗口,让我们看到自然和人类行为,反思和系统分析所谓的直觉和集体智慧。吴晓林和张西的研究结果,像以前的一些研究一样,打破了一扇窗户,揭示了我们实际上是如何识别他人的。
在实践中,机器学习技术将越来越多地融入人类生活。像许多强大的工具一样,它们通常帮助我们,包括更快、更客观地分析数据。
然而,机器学习也可能被误用,这通常是无意的。过于狭隘地关注技术问题可能会导致此类误用,例如:
不了解培训数据来源中的偏见;
没有仔细检查该领域的现有研究,尤其是机器学习领域之外的研究;
没有考虑可能导致测量相关性的各种因果关系;
该机器学习系统的应用场景及其社会影响尚未得到充分考虑。
吴晓林和张西的论文充分证明了上述陷阱。不幸的是,他们测量的相关性揭示了刑事判决中的普遍偏见。这一领域的研究已经吸引了很多注意力,现在正在增加更多的砖块。基于面部特征的深度学习不应该被用作“加速”司法公正的工具。如果这样做了,它将使世界上的不公正永久化。"
吴晓林:“核物理学家应该对原子弹造成的损害负责吗?”
文章还预测,类似的研究将在不久的将来出现,“他们有同样的偏见和短视,并声称是科学和客观的,以‘冲走’人类的偏见和歧视。”这篇文章还特别指出并批评了一家以色列初创公司Faception,该公司致力于利用面部分析来识别*、恋童癖者和白领罪犯。
对此,吴晓林向澎湃新闻(www.thepaper.cn)透露,世界上确实有一些同行在做类似的研究。他把论文上传到arXiv只是为了抓住研究的重点。
去年11月底,处于第一波舆论漩涡中的吴晓林接受了澎湃新闻(www.thepaper.cn)的专访,并回答了许多核心问题。
首先,吴晓林对技术交流表示欢迎,并收到了许多宝贵的反馈意见。例如,他们的样本量可能确实太小。此外,也有人指出,罪犯和守法公民在他们的样本中可能代表更大的经济地位差异。他们还采纳了一些反馈意见,并进行了调整。一些人指出,警察拍摄囚犯照片的相机可能有特定的参数,因此他们在照片上添加了许多噪声点,以削弱其影响。
其次,吴晓林强调,他从来没有任何申请的意图。即使有人想把这项研究付诸实践,考虑到中国社会中数以千计的犯罪背景概率,在现实研究中超过80%的真实正概率的准确率也很低。
第三,吴晓林强调,他个人是反歧视的。甚至,在开始的时候,他们做这项研究是为了看看切萨雷·龙勃罗梭的研究和康奈尔大学2011年的心理学实验(实验发现仅通过照片就能识别罪犯的成功率非常高)。出于好奇,他们想伪造它,但结果出乎他们的意料。
吴晓林强调,他只是展示了学术界和媒体“炒锅”的实验结果之间的相关性,以及它们之间的因果关系,即外表是否决定先天的犯罪本质,或者人类社会对外表的歧视是否导致了犯罪概率的差异,留给社会科学来解释。
至于这项研究是否应该一开始就做,完成后再发表,这也属于社会科学讨论的范畴,吴晓林坦率地承认,他很难回答。“为了人类社会的更高利益,科学家是否应该实行自律而不是说那些寻求知识和真理的人是无辜的已经在世界上开始了,而人工智能已经走到了这一步。是否会有一些禁区,研究人员无法触及,坦率地说,我不知道。”
"核物理学家应该对原子弹造成的损害负责吗?"这是吴晓琳抛给沧新的问题。
阅读更多
上海交通大学教授回应争议:看到面子信念是一派胡言
上一篇:张熙简介及代表作
下一篇:窗纸上产生的“墨竹”