2 月 9 日,纽约时报英文网站公开发表一篇文章,认为如今十分热门的 AI 应用于人脸识别,针对有所不同种族的准确率差异极大。其中,针对黑人女性的错误率低约 21%-35%,而针对白人男性的错误率则高于 1%。文章提到了 MIT 媒体实验室(MIT Media Lab)研究员 Joy Buolamwini 与来自微软公司的科学家 Timnit Gebru 合作的一篇研究论文《性别图谱:商用性别分类技术中的种族准确率差异》(Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification)中的数据。
论文作者自由选择了微软公司、IBM 和旷视(Face++)三家的人脸识别 API,对它们展开性别判断的人脸识别功能测试。以下为两组准确率差异仅次于的人群。在一组 385 张照片中,白人男性的辨识误差最低只有 1%在一组 271 张照片中,肤色较白的女性辨识误差率低约 35%图源:纽约时报,Joy Buolamwini, M.I.T. Media Lab论文研究用于了自行搜集的一组取名为 Pilot ParliamentsBenchmark (PPB) 数据集展开测试,里面包括 1270 张人脸,分别来自三个非洲国家和三个欧洲国家。
在辨别照片人物性别方面,以下是论文作者测试后获得的关键找到:所有的分类器在辨识男性人脸上的展现出要高于女性人脸(8.1%-20.6%的错误差异)所有分类器在肤色较白的人脸上展现出高于肤色较深的人脸(11.8%-19.2%的错误差异)所有分类器在肤色较深的女性人脸上展现出最好(错误率在 20.8%-34.7% 之间)微软公司和 IBM 的分类器在深肤色男性人脸上展现出最差(错误率分别为 0% 及 0.3%)Face++ 的分类器在肤色较深的男性人脸上展现出最差(错误率 0.7%)最好的一组与最差的一组差距低约 34.4%必须认为的是,三家人脸识别 API 都没很细节地说明自己所用于的分类方法,也没提到自己所用于的训练数据。不过,微软公司在服务中指出“不一定每次都有 100% 的准确率”;Face++ 则尤其在用于条款中指出对准确性未予确保。
关于有可能的原因,时报文章回应,当下的人工智能是数据为王,数据的优劣和多少不会影响 AI 的智能程度。因而,如果用来训练 AI 模型的数据集中于,白人男性的数据少于黑人女性,那么系统对后者的辨识能力就不会不如前者。现有的数据集中于不存在这一现象,比如根据另一项研究的找到,一个被普遍用于的人脸识别数据集中于,75% 都是男性,同时 80% 是白人。
旷视在给的对此中回应,深色人种数据集较为无以取得,所以会差一些;另外,用于 RGB 摄像头展开人脸识别时,浅肤色人的人脸特征较为难找,特别是在暗光条件下,这也是一方面的原因。IBM 对此:论文用的版本过于杨家,新版已提高针对 Buolamwini 和 Gebru 的这一论文找到,2 月 6 日,IBM 在自家的 IBM Research 博客上公开发表了一篇对此文章。文章未坚称论文的找到,而是认为,IBM 的 Watson Visual Recognition 服务仍然在持续改善,在近期的将于 2 月 23 日发售的新版服务中,用于了比起论文中更加普遍的数据集,享有强劲的辨识能力,比起论文中的错误率有将近 10 倍的上升。随后文章中回应 IBM Research 用类似于论文中的方法展开了实验,找到如下:结果显示整体的错误率都很低,虽然肤色较白的女性的错误率依然是所有人群中最低的,但比起论文的结果有相当大上升。
旷视对此:浅肤色人种辨识错误率低是普遍现象,在商用产品中不会提高针对这篇论文向旷视谋求对此,对方给与了十分详尽的答案。对此中,旷视首先对论文的研究方法回应接纳,但同时认为研究所用的线上 API 是较旧的版本,在商用的产品中会经常出现这类问题;而且,此类问题也是业内普遍存在的,不仅仅限于测试的这三家。原因主要有两点,一是深色人种数据集的缺少,二是深色人种人脸特征较难萃取。
以下为对此全文:我们坚信文章(论文)人品不是针对哪一家的技术,基本是不刮起不白的中立态度,而且从文章的测试方法来看还是较为科学的,但是文章中所用的“PPB”(Pilot ParliamentsBenchmark)数据集在 GitHub 的公布地址早已过热,所以我们目前无法自行检测以检验文章的结论。在构建到 Face++ API 中的时候,旷视研究院有针对有所不同人种展开检测、辨识等测试。但是就目前国际范围内的研究水平来说,不管是在学界还是产业界,对于肤色人种的辨识展现出都没对“肤色较深(提到文章用词)”人种杰出,从此文的测试结果中也可以显现出,微软公司、IBM 和 Face++ 在肤色较深人种辨识的展现出中(特别是在是肤色较深女性)机器的误实率不会更高。
一方面从人类基因和人脸识别技术角度来说,皮肤的颜色更深对于基于 RGB 红外线的人脸识别的可玩性就越大,因为机器在展开人脸检测、分析和辨识的过程中必须对人脸图像展开预处理和特征提取,所以皮肤颜色更深,面部的特征信息就就越无以萃取,特别是在是在一些暗光情况下,更为无法检测和区分。另一方面,人脸识别相当大程度上依赖数据训练,而在整个行业中黑色人种的可训练数据量较较少,所以辨识的结果在某些程度上不尽人意,所以文章呈现出的测试结果是行业普遍存在的现象。文章中只是挑选了三家行业代表来展开了测试,如果样本量充足大,那有可能还不会得出结论其他的结论。
不过测试结果也表明,Face++ 对于黑人男性的辨识错误率(0.7%)是低于的,且在 PPB 的南非子测试集中于,Face++诸法 别肤色较深人种的展现出是完美无瑕的,这些只不过也间接解释 Face++ 的人脸识别能力是正处于全球领先的地位。文章作者明确提出了一个很好的问题,但文章中测试的 API 线上版本和我们为用户获取的商业版本牵涉到,用户在业务用于中会有任何影响。当然我们也坚信行业内都在针对人种辨识优化做到着各种希望。而就 Face++ 来讲,未来研究院不会从几个角度去改善目前的状况,如减少训练数据,针对有所不同人种展开专门训练,另外就是指算法层面优化现在的流程,提高对有所不同人种的辨识性能,此外,旷视也在增大 3D 感官的研发力度,将三维特征信息融合到应用于中填补二维信息的严重不足使模型更为鲁棒。
AI 知道有种族歧视吗?根据时报的报导,论文的作者之一黑人女性 Buolamwini 做到这项研究之前,曾遇上过人脸识别无法辨识她的脸,只有在她戴着上一张白色面具时才讫,因而引起了她打开这项研究。很显著,这项研究企图探究 AI 时代否不存在社会不公甚至种族歧视的问题。种族歧视作为一个十分脆弱的话题,许多事情只要有些微沾上点边就不会引起反感声浪。
在人脸识别这块,无论是论文作者的研究,还是厂商的实验都具体找到女性深色人种辨识误差率更高。但这就能代表 AI 存在种族歧视吗?似乎并不是,细究其中的原因,之所以肤色较深女性较难辨识,除了有天然人脸特征更加无以萃取之外,还有可可供训练的数据集较较少的原因。
而从市场的角度来说,IBM 和 微软公司的服务在白人男性中展现出最差,是因为其市场主要在欧美,而那里白人占多数;旷视的主要市场在东亚和东南亚,因而其在黄种人当中的展现出不会好很多,这跟种族歧视没关系,而是市场导向的技术研发。话又说道回去,这篇论文显然表明,AI 的智能性跟训练数据有相当大关系,因而在设计 AI 应用于时,我们应当尽可能用于普遍且代表性强劲的数据,照料到有所不同的人群;同时要大力对公众说明 AI 的构建原理。最后,(公众号:)指出,这件事同时指出,希望新技术的发展惠及更加多少数族裔是一件必须更加多推崇的事情,某种程度是人脸识别,还有语言、文化等各方面。
原创文章,予以许可禁令刊登。下文闻刊登须知。
本文关键词:彩神VI首页,彩神彩票vIII,彩神VII购彩中心,彩神购彩大厅_welcome
本文来源:彩神VI首页-www.maidelinoa.com