A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

AI毁灭人类或是事实 国外医疗算法正成为白种人“帮凶”

分享到:
 黄琨 • 2019-10-25 13:59:25 来源:前瞻网 E2741G0
100大行业全景图谱

AI

伴随着AI技术的发展,一个问题一直挥之不去:AI的发展是否会毁灭人类?除了考虑到一种全新的智能形式可能会产生“非我族类,其心必异”的心思,即便技术可被人类掌控,也要考虑这一技术是否会放大人与人之间的敌意,导致严重后果。

事实上,自AI技术快速发展以来,关于算法偏见、歧视的问题时常见诸报端。随着AI在诸多领域取代人类的可能性越来越高,人对人的偏见正在放大,甚至出现在了某些人命关天的重要领域。

据美媒报道,国外研究人员发现,一种当前在医学界广泛使用的算法极大低估了黑人病人的健康需求,从而放大了医学界长期存在的种族差异。据报道,这种算法出自一家业界小有名气的医疗服务公司Optum,目前已经售出不少,正指导着数百万人的医疗决策。

具体来说,当该公司对370万名全国患者的数据集进行重复分析时,他们发现,比起白人患者,需要额外护理的黑人患者病情要严重得多。换句话说,患上严重疾病的黑人患者,只配获得比同样患病严重的白人患者更低级别的服务。

研究人员所研究的医疗系统中,如果能纠正这一偏差,那么被标记为存在复杂医疗需求风险的黑人患者的数量将增加1倍以上。

从算法本身来说,它并没有故意进行种族歧视——事实上,算法中明确排除了种族因素。遗憾的是,算法的研究者并没有考虑到现实因素。

要确定哪些患者应该获得更多医疗支持,算法使用一个明确的指标:患者将花费医疗系统多少钱。然而,在衡量医疗需求的过程中,成本并非一种“种族中立”的指标。事实上,在美国,黑人病人每年拿出的医疗费用比白人病人少1800美元。

因此,该算法自然将白人病人与患有更多疾病的黑人病人在健康风险上划为相同等级。

这说明了问题所在:当机器越来越多地做出影响人类生活的决定,而大型组织——尤其是在卫生保健领域——试图利用大数据来改善它们的运作方式时,相关数据可能不带有种族主义或偏见,但可能受到长期存在的社会、文化和制度偏见(如医疗成本)的严重影响。

当计算机系统决定哪些求职者应该接受面试,哪些人应该获得贷款,或者如何对病人进行分类时,它实际上将这些人暴露在了种族主义或其他偏见自动化的风险之中。

在医学领域,黑人患者受到差异对待的历史由来已久。研究发现,与白人患者相比,黑人患者接受疼痛治疗、肺癌手术或降胆固醇药物的可能性更低。这种差异有复杂的来源,包括明显的种族歧视、获取问题、缺乏保险、对医疗系统的不信任、文化上的误解或无意识的偏见,这些问题已经根深蒂固,乃至于有许多人根本意识不到他们存在问题。

《科学》杂志发表的报告称,这可能只是行业问题的冰山一角,同样的问题几乎一定存在于其他私人公司、非营利医疗系统和政府机构工具中,涉及美国每年约2亿人的医疗保健服务。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p47 q0 我要投稿

分享:

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J