欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

深度解读AI“相面术”:人脸识别同性恋、罪犯是伪科学

科普小知识2022-04-05 20:29:55
...

“相面术”是一门伪科学,从外表获得特征。它有着悠久的历史。保存下来的第一批相关文件可以追溯到亚里士多德时代。达尔文差点因为他的鼻子而错过了他在小猎犬号上的历史性航行,因为船长是个*的相面人,他不相信有这样鼻子的人会有足够的决心完成这次航行。“但是我认为,”达尔文在他的自传中冷冷地说,“后来的结果与通过我的鼻子预测的相反。他对此非常满意。”

我们可能会取笑相面术的观点,但是现代科学第一印象表明我们最原始的观点与相面术相似。我们可以从其他人的面部表情中形成对他们的即时印象。不到十分之一秒就能看到一张脸,这足以让我们得出结论。第一印象不仅直接而且重要:我们更有可能投票给看起来有能力的政治家;更倾向于投资那些看起来值得信赖的人;但是对于那些看起来相反的人,他们会给予更强烈的反对。以貌取人是社会生活的一个普遍特征。

现代第一印象科学也总结了许多导致这些影响的面部刻板印象。在过去的十年里,心理学家已经建立了数学模型来形象化这些刻板印象。通过提高或降低模型的可信度和能力水平,可以得到相应的人脸。更重要的是,我们可以建立和测试关于面部刻板印象起源的理论。

然而,这项研究进展的一个意想不到的结果是地貌的复兴。也许我们对脸的刻板印象不仅仅是一种刻板印象,而是他人性格的真实反映。相应地,越来越多的研究表明,我们可以从一个人的面部表情中识别出他的心理健康、政治取向、性取向和其他个人信息。

这些陈述通常基于猜测性取向的实验,因为这些实验的结果比随机猜测更准确。

问题是,这些猜测并不比运气准确多少,而且往往不如基于更一般知识的猜测准确。

此外,这些研究中的许多都是基于这样一种谬论,即所有的面部图像都同样代表着这张脸的主人。虽然这个假设对于熟悉的面孔可能是正确的,因为熟悉的面孔可以很容易地从不同的图像中识别出来,但是对于不熟悉的面孔来说,这个假设肯定是错误的——从定义上来说,第一印象是关于不熟悉的面孔。通常,我们不知道两个不同的图像是否代表同一个(不熟悉的)人,这些图像会产生完全不同的第一印象。因此,在评估第一印象的准确性时,如何对人像进行采样是一个关键问题。

考虑图像采样的偏差如何影响第一印象的准确性。在许多“同性恋者”研究中,参与者被要求通过约会网站上的照片猜测照片出版商的性取向。在最早的此类研究中,猜测的准确度约为58%(而随机猜测的准确度为50%)。然而,由于许多人在交友网站上发布照片时会选择更有代表性的照片来吸引他们想吸引的人,这不是一个中立的抽样方法。

事实上,当这些猜测是通过这些同性恋者或异性恋者的朋友在网站上发布的照片做出的,正确率只有52%。这种结果不仅出现在被试猜测性取向的时候。在最近的一项研究中,研究人员使用网上约会网站的照片让测试参与者猜测他们的社会阶层,用财富作为评价标准。参与者猜测的准确率约为57%。然而,当这些猜测基于在标准条件下拍摄的照片时,准确率下降到51.5%。

随着越来越多的面部照片在互联网上发布,试图从这些照片中读出我们的“本质”的研究不会消失。在过去的几年里,一波新的人工智能研究试图做到这一点。一家科技初创公司已经开始向私营企业和*提供面部识别服务。去年,两位计算机科学家在互联网上发表了一篇未经同行评议的论文,声称他们的算法可以仅从面部图像推断出人们的犯罪行为。最近,一个著名的杂志接受了一篇论文,声称人工智能算法能够以惊人的准确度从面部图像中检测出一个人的性取向。

然而,同样的问题也存在于人工智能研究中。后者使用强大的算法来检测两组图像之间细微但系统的差异。然而,用于训练算法的图像样本与算法本身一样重要。在关于犯罪的论文中,作者提供了一些“罪犯”和“非罪犯”的照片。除了明显的面部表情差异,“罪犯”穿t恤,“非罪犯”穿西装。一个强大的算法可以很容易地识别这些差异,并产生一个看似准确的分类。

在人工智能研究中,“所有面部图像都具有同等代表性”的谬论在人工智能研究中起着更微妙的作用,尤其是当这些算法测量二维图像的不变面部特征时。从相机到头部的距离、相机参数、轻微的头部倾斜、细微的表情和许多其他明显的细微差异都影响稳定形态特征的测量。当这些差异得不到控制时,使用人工智能进行研究只会放大我们的偏见。

此外,使用人工智能进行“面部解读”在道德上是令人反感的。这篇关于性取向的文章的第一作者声称,他的主要动机是提醒男女同性恋、双性恋和变性者群体,这项技术可能会伤害他们,尤其是在专制国家。然而,尽管该研究声称要识别同性恋者和异性恋者之间真正的形态差异,但它真正做的是,该算法只能通过同性恋者自己发布的照片来识别同性恋者的性取向——就像普通人能够识别的那样。

这种“科学”的想法只能激发那些专制*将人工智能算法应用于公民肖像的识别。什么能阻止他们从这些图片中“阅读”情报、政治倾向和犯罪倾向?