A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

霍金:AI可能是人类文明史上最大的事,也可能是最糟糕的事

分享到:
 黄粱 • 2017-11-07 16:25:45 来源:前瞻网 E641G0
100大行业全景图谱

频频现身各大会议的物理学家史蒂芬·霍金周一表示,除非社会找到控制人工智能(AI)发展的方法,否则AI的出现可能是“文明史上最糟糕的事件”。

霍金在葡萄牙里斯本举行的网络峰会技术会议上发表了评论,“计算机理论上可以模拟人类的智慧,并且超越人类”。

谈及人工智能的潜力,霍金认为人工智能可以帮助消除对自然界造成的损害,或消除贫穷和疾病,社会的每个方面都“被改变”。

但他承认未来是不确定的。

“成功创造有效的人工智能可能是我们文明史上最大的事件,但也可能是最糟糕的事情,我们还不清楚。所以我们不知道是能够从AI得到无限帮助,还是忽略AI,或是持观望态度,或者一如预料的被它毁灭。”霍金在演讲中说。

前瞻经济学人

“除非我们学习如何准备和避免这些潜在的风险,否则AI可能是我们文明历史上最糟糕的事件,它带来了危险,就像强大的自主武器一样,也是少数人压迫众生的新方法。可能给我们的经济带来严重破坏。”

霍金解释说,为了避免这种潜在现实,AI的创造者需要“采用最佳实践和有效管理”。

霍金强调了欧洲正在进行的一些立法工作,特别是立法者今年早些时候提出的关于建立人工智能和机器人新规则的建议。欧洲议会成员说,在这个问题上需要欧盟制定广泛的规则。

这种发展给了霍金一个希望。

“我是一个乐观主义者,我相信我们可以为了世界的利益创造人工智能,它可以和我们和谐相处,我们只需要意识到危险,找出它们,采取最好的实践和管理,并提前做好准备。”霍金说。

这不是英国物理学家第一次警告人工智能的危险。 霍金还加入了科技界其他讨论,谈论他们的担忧。 特斯拉和SpaceX首席执行官埃隆·马斯克最近表示,人工智能可能会导致第三次世界大战,甚至提出,人类必须与机器合并,以保持未来的相关性。

而其他人则提出了对待人工智能的方法。 微软创始人比尔·盖茨说机器人应该收取所得税。

一些科技大佬纷纷争论AI世界末日论。 Facebook首席执行长扎克伯格就表示,他对人工智能的未来“非常乐观”。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p16 q0 我要投稿

分享:
标签: 霍金 AI

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J