与肤色较浅的人相比,面部识别模型在识别黑人、中东人和拉丁美洲人等少数族裔时错误率更高,这已经成为了一个广泛的难题。
此前,亚马逊的人脸识别技术Rekognition就因错误地把美国国会议员识别为罪犯而遭到质疑,其近40%错误匹配涉及有色人种的事实令亚马逊深陷种族歧视风波。
不过,近日一项研究表明,不同的算法和不同的数据集都不能解决面部识别技术的偏差问题,这或许表明亚马逊的“黑锅”背得有点冤枉了。
具体而言,威奇托州立大学(Wichita State University)的研究人员进行了一项研究,他们对在包含数万张面部图像的数据集上训练的流行算法进行了基准测试。
虽然这项研究有其局限性,因为它所研究的模型还没有为面部识别进行微调,但它增加了越来越多的证据,表明面部识别容易受到偏见的影响。
研究人员将重点放在三个模型上——VGG、ResNet和InceptionNet——这些模型对来自开放源码ImageNet数据集的120万张图像进行了预先训练。
他们使用来自UTKFace和FairFace这两个大型面部识别数据集的图像为每个人量身定制性别分类。
UTKFace包含20,000多张从网络公共数据库中搜集来的白人、黑人、印度人和亚洲人的照片,而FairFace则包含108,501张来自Flickr的白人、黑人、印度人、东亚人、东南亚人、中东人和拉丁美洲人的照片,其代表性相当均衡。
在第一个实验中,研究人员试图在性别分类的背景下评估和比较不同模型的公平性。
他们发现三种方法的准确率都在91%左右,总体上ResNet比VGG和InceptionNet获得更高的准确率。
但他们也报告说ResNet对男性的分类比其他模型更可靠;相比之下,VGG对女性的准确率更高。
模型的表现也因人的种族而不同。
VGG在识别女性(黑人女性除外)和男性(拉丁裔男性除外)方面获得了更高的准确率。
中东男性在平均模型中的准确率最高,其次是印度和拉丁裔男性,但东南亚男性的假阴性率较高,这意味着他们更有可能被归为女性而非男性。黑人女性经常被误认为是男性。
当研究人员只在UTKFace上训练模型时,所有这些偏差都加剧了,因为UTKFace并没有平衡来缓解偏差。
(UTKFace不包含中东人、拉美人和亚洲人后裔的图像。)
仅在UTKFace上接受训练后,中东男性的准确率最高,其次是印度男性、拉丁裔和白人男性,而拉丁裔女性的准确率高于其他所有女性(其次是东亚和中东女性)。
与此同时,对黑人和东南亚女性的准确性则进一步降低。
研究人员写道:“总的来说,(这些模型)在建筑结构上的差异会随着特定性别种族的一致性而有所不同……因此,性别分类系统的偏见并不是因为某种特定的算法。”
“这些结果表明,扭曲的训练数据集会进一步加剧不同性别人群在准确性值上的差异。”
在未来的工作中,合著者计划研究姿态、光照和化妆等变量对分类精度的影响。
之前的研究发现,摄影技术和技术有利于浅色皮肤,包括从淡褐色胶卷到低对比度的数码相机。
编译/前瞻经济学人APP资讯组
原文来源:
https://venturebeat.com/2020/09/28/study-indicates-neither-algorithmic-differences-nor-diverse-data-sets-solve-facial-recognition-bias/
品牌、内容合作请点这里:寻求合作 ››
想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:
下载APP
关注微信号
扫一扫下载APP
与资深行业研究员/经济学家互动交流让您成为更懂趋势的人
违法和不良信息举报电话:400-068-7188 举报邮箱:service@qianzhan.com 在线反馈/投诉 中国互联网联合辟谣平台
Copyright © 1998-2024 深圳前瞻资讯股份有限公司 All rights reserved. 粤ICP备11021828号-2 增值电信业务经营许可证:粤B2-20130734