A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

霍金最后的警告:AI可能会成为人类最伟大、也是最后一项发明

分享到:
 黄琨 • 2018-10-17 08:42:54 来源:前瞻网 E3335G2
100大行业全景图谱

前瞻经济学人

“如果一个高级外星文明向地球发送信息说‘我们几十年后就会到达’,人类会不会只是回复:‘好的,你来的时候记得打电话通知一声,我们开着灯迎接’?可能不会,但这正是人类对待AI的态度”——霍金。

或许没人能想到,于2018年3月去世,葬在牛顿旁边的物理学家霍金,对人类未来最担心的,竟然是人类对AI缺乏警惕的态度,这可能会成为人类最伟大、也是最后一项发明。他在遗愿中告诉世人:“我们应该提前做好计划。”

霍金生前分析道:“虽然到目前为止,AI的初始形式已经被证明是非常有用的,但我担心的是创造出与人类匹敌或超越人类的东西的后果。在未来,AI可以发展出自己的意志,一种与我们相冲突的意志。人类受到缓慢的生物进化的限制,无法与之竞争,或许会被取代。”

简而言之,他总结道:“超级AI要么是人类有史以来最好的,要么是最坏的发明。人工智能真正的风险不是恶意,而是能力。一个超级AI会非常善于实现它的目标,如果这些目标与我们的不一致,我们就有麻烦了。就像你可能平时并不仇恨蚂蚁,不会以踩死蚂蚁来取乐,但如果让你负责一个水电绿色能源项目,代价是淹没一个蚁丘,你恐怕也不会在乎什么。这对蚂蚁来说太糟糕了,请不要把人类摆放在那些蚂蚁的位置上。”

比尔·盖茨也表达了相近的担忧。每年,比尔、梅林达·盖茨基金会都会发布年度《守门员报告》,用图片、表格、指标和统计数据展示人类发展状况。通常情况下,这是乐观的——近年来,全球贫困、婴儿死亡率以及其他一系列关键数据都在朝着好的方向发展,但是今年,报告的基调有了一些变化。

在记者访谈中,比尔·盖茨提到了AI的问题,他认为,在现阶段,人类除了要进一步发展AI技术,同时也应该开始处理AI造成的风险。然而,“这些人中的大多数都没有研究AI风险,只是在不断加速AI发展。”

事实上,即便在现在的发展初期,AI也已经逐渐暴露出了一些隐患,最典型的就是被认为无偏见的AI算法,已经产生了“偏见”。早在1982年,圣乔治医院医学院使用的招生评估算法就出现了种族偏见,荒诞的是,这种算法偏差依据的居然是学生名字——但凡听起来像外国名字,学生就会被拒收。

而在去年,Facebook发生了著名的算法风波。他们原本推出了一种算法来删除网站上的仇恨言论,然而,其内部文件显示,该算法具有明显的“精英主义”倾向,为草根和少数族裔说的话更容易被删;同年,美国司法部门用AI为监狱犯人打分时,判断那些人会“二进宫”时,黑人群体错误地出现了过高的可能性。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p39 q2 我要投稿

分享:
标签: AI 霍金

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J