A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

决策的好帮手!机器学习可以同时具有准确性和公平性

分享到:
 Emma Chou • 2021-10-22 10:30:48 来源:前瞻网 E5295G0
100大行业全景图谱

1

卡内基梅隆大学(Carnegie Mellon University)的研究人员正在应对机器学习研究中的一个挑战,即在使用机器学习做出公共政策决策时,需要在准确性和公平性之间做出权衡。

随着机器学习在刑事司法、招聘、医疗服务和社会服务等领域的使用增加,人们越来越关注,这种应用是否会引入新的或放大现有的不公平现象,特别是在少数种族和经济弱势的人中。为了防止这种偏见,对数据、标签、模型训练、评分系统和机器学习系统的其他方面都需要进行调整。但是有一个基本的理论假设是,这些调整使系统的准确性降低。

研究团队在研究中测试了这个假设,发现在一系列政策领域的实践中,这种权衡是可以忽略不计的。

研究人员表示,实际上可以得到两者。不必牺牲准确性来建立公平和公正的系统。但它确实需要定制设计系统,使其公平公正。

研究人员考察了四个领域的系统:根据一个人重返监狱的风险,优先考虑有限的心理健康护理外展,以减少重新监禁;预测严重的安全违规行为,以更好地部署城市有限的住房检查员;模拟学生不能及时从高中毕业的风险,以确定那些最需要额外支持的学生;帮助教师实现教室需求的众筹目标。

在每一种情况下,研究人员发现,为准确性而优化的模型(机器学习的标准做法)可以有效地预测感兴趣的结果,但在干预措施的建议方面表现出相当大的差异。然而,当研究人员对模型的输出进行调整,以提高其公平性时,发现基于种族、年龄或收入的差异(视情况而定)可以在不损失准确性的情况下被消除。

研究者希望这项研究可以开始改变政策制定者的想法。希望人工智能、计算机科学和机器学习界,摒弃这种在准确性和公平性之间进行权衡的观念,并开始设计能将两者都最大化的系统。同时,希望政策制定者接受机器学习作为他们决策的工具,以帮助他们实现公平的结果。

题为Empirical observation of negligible fairness–accuracy trade-offs in machine learning for public policy的相关研究论文发表在《自然-机器智能》(Nature Machine Intelligence)上。

前瞻经济学人APP资讯组

论文原文:

https://www.nature.com/articles/s42256-021-00396-x

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p23 q0 我要投稿

分享:
标签: 机器学习 决策

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J