A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

不喜欢女性?亚马逊AI招聘工具被曝性别歧视 检测到女性就打低分

分享到:
 olivia chan • 2018-10-11 15:07:43 来源:前瞻网 E1668G0
100大行业全景图谱

前瞻经济学人

亚马逊机器学习专家发现了一个大问题:他们的新招聘引擎不喜欢女性。

五名知情人士对路透表示,自2014年以来,该团队一直在开发电脑程序来审查求职者的简历,目的是机械化地寻找顶尖人才。

自动化一直是亚马逊在电子商务领域主导地位的关键,无论是在内部仓库还是在推动定价决策方面。一些知情人士说,该公司的试验性招聘工具使用人工智能给应聘者打分,分数范围从一到五星不等,就像购物者给亚马逊上的产品打分一样。

但到2015年,该公司意识到其新系统并没有对软件开发人员和其他技术职位的候选人进行性别中立的评估。

这是因为亚马逊的电脑模型经过了培训,可以通过观察提交给该公司的10年简历模式来审查应聘者。大部分为男性,这也反映了男性在科技行业的主导地位。

实际上,亚马逊的系统自我暗示,男性候选人更可取。它对“女子象棋俱乐部队长”等含有“女子”字样的简历处以低分。据知情人士透露,它还降低了两所女子学院毕业生的评级。他们没有具体说明这些学校的名字。

亚马逊编辑了这些程序,使它们对这些特定的术语保持中立。但上述知情人士说,这并不能保证这些机器不会设计出其他可能被证明具有歧视性的筛选候选人的方法。

据不愿透露姓名的知情人士说,这家西雅图公司最终在去年年初解散了该团队,因为高管们对这个项目失去了希望。亚马逊的招聘人员在搜索新员工时查看了该工具提供的推荐信息,但他们表示,他们从未仅仅依靠排名。

亚马逊拒绝就招聘引擎或其面临的挑战置评,但该公司表示,它致力于工作场所的多样性和平等性。

路透社(Reuters)率先报道了该公司的实验,它提供了一个关于机器学习局限性的案例研究。这也给越来越多的大公司上了一课,包括希尔顿全球酒店集团(Hilton Worldwide)和高盛(Goldman Sachs),它们正寻求将招聘流程部分自动化。

根据人才软件公司凯业必达(CareerBuilder) 2017年的一项调查,约55%的美国人力资源经理表示,在未来5年内,人工智能将成为他们工作的一部分。

雇主们一直梦想利用科技来扩大招聘网络,减少对人类招聘者主观意见的依赖。但是像Nihar Shah这样在卡内基梅隆大学教授机器学习的计算机科学家表示,还有很长的路要走。

他说:“如何确保算法是公平的,如何确保算法是真正可说明和可解释的,这还很遥远。”

男性化的语言

对于全球最大的在线零售商亚马逊来说,这项试验始于一个关键时刻。由于低成本计算能力的激增,机器学习在技术领域获得了越来越大的吸引力。监管文件显示,亚马逊的人力资源部门已经进入招聘高峰:自2015年6月以来,该公司的全球员工人数增加了三倍多,达到575,700人。

因此,它在亚马逊的爱丁堡工程中心成立了一个团队,这个团队的人数增长到大约12人。知情人士说,他们的目标是开发能够迅速在网络上搜索并发现有价值的应聘者的人工智能。

该组织创建了500个计算机模型,重点关注特定的工作功能和地点。他们让每个计算机模型辨认出过去求职者简历上的约5万个术语。知情人士说,这些算法学会了对求职者普遍具备的技能给予一般评价,比如编写各种计算机代码的能力。

一名人士说,这项技术有利于那些用男性工程师简历中常见的动词描述自己的候选人,例如“被执行”和“捕获”。

性别偏见不是唯一的问题。这些知情人士说,支撑模型判断的数据存在问题,这意味着不合格的候选人通常会被推荐到各种工作岗位。他们说,由于这项技术几乎是随机返回结果,亚马逊关闭了这个项目。

 问题还是机遇?

其他公司也在积极向这一领域进军,突显出雇主迫切希望利用人工智能招聘人才。

盐湖城附近的初创企业HireVue的首席执行官Kevin Parker表示,自动化正在帮助企业超越长期依赖的招聘网络。他的公司分析了候选人在视频面试中的讲话和面部表情,从而减少对简历的依赖。

高盛表示,它已创建了自己的简历分析工具,试图将求职者与“最适合”的部门匹配起来。

微软的领英(LinkedIn,全球最大的专业社交网络)走得更远。它根据求职者在其网站上发布的职位是否合适,向雇主提供基于算法的候选人排名。

不过,领英人才解决方案副总裁John Jersin表示,这项服务并不能取代传统的招聘方式。

他表示:“我当然不会相信如今的任何人工智能系统会自行做出招聘决定。这项技术还没有成熟。”

一些活动人士表示,他们担心人工智能的透明度。美国公民自由联盟(American Civil Liberties Union)目前正在挑战一项法律,该法律允许对那些测试招聘网站歧视算法的研究人员和记者提起刑事诉讼。

美国公民自由联盟种族正义项目的律师Rachel Goodman说:“我们越来越关注算法公平性这一问题。”

尽管如此,Goodman和其他对人工智能持批评态度的人承认,要就自动招聘对雇主提起诉讼可能极其困难:求职者可能永远不会知道雇主在使用人工智能。

至于亚马逊,该公司设法从失败的人工智能试验中挽回了一些教训。一位该项目知情人士表示,该公司现在使用“经过大量稀释版本”的招聘引擎,来帮助完成一些基本工作,包括从数据库中剔除重复的求职者资料。

另一名知情人士表示,爱丁堡成立了一个新团队,将对自动招聘进行另一次尝试,这次的重点是多样化。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p33 q0 我要投稿

分享:

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J