五年前,伦敦人工智能公司DeepMind的程序员们兴奋地看着一个AI自学玩一款经典的街机游戏。他们运用了当时的热门技术--深度学习,完成了一项看似异想天开的任务:精通Breakout游戏,在游戏中,你将一个球击向一堵砖墙,试图让每一块砖球消失。
深度学习是机器的自我教育;你给AI输入大量数据,最终它会自己识别模式。在本例中,数据是屏幕块像素上的活动,这些像素代表砖块、球和玩家的球拍。DeepMind AI是由分层算法组成的神经网络,它的编程过程中没有任何关于Breakout如何工作、规则、目标、甚至如何玩Breakout的知识。编码器只是让神经网络检查每个动作及每个球弹跳的结果。最终会产生何种效果?
在最初的几场比赛中,AI表现不佳。但经过几百次的比赛,它已经开始准确反弹球。在第600场比赛中,神经网络正在使用人类Breakout玩家采用的更专业的移动方式,在整个砖块中切削,并使球在墙壁顶部快速弹跳。
“这对我们来说是个大惊喜,”DeepMind首席执行官Demis Hassabis当时表示。“这一战略完全是从潜在体系中产生的。人工智能展示了自己的能力,似乎是一种非常微妙的类人思维,掌握了 Breakout背后的内在概念。因为神经网络近似地反映了人脑的结构,所以理论上它们应该在某些方面模仿我们自己的认知方式。这一刻似乎证明了这一理论是正确的。”
去年,旧金山人工智能公司Vicarious的计算机科学家提供了一个有趣的现实验证。他们选择了一个类似于DeepMind使用的AI,并在Breakout游戏中对其进行了训练。它表现的很棒。但之后他们稍微调整了游戏的布局。他们在一次迭代中把桨举得更高;在另一个实验中,他们在积木的中心增加了一个不可破坏的区域。
人类玩家将能够迅速适应这些变化;但神经网络不能。这个看似超级聪明的AI只能运用它在数百场游戏中掌握的Breakout技能。它不能处理新事物。
“我们人类不仅仅是模式识别者,”Dileep George告诉我。“我们还在为我们看到的东西建立模型。这些是因果模型,我们了解因果。”人类能使用逻辑对我们周围的世界进行推理;我们有很多常识性的知识可以帮助我们发现新的情况。当我们看到一款与我们刚刚玩的有所不同的Breakout游戏时,我们意识到它可能拥有相同的规则和目标。另一方面,神经网络对Breakout一无所知。它所能做的就是遵循这个模式。当模式改变时,它是无助的。
深度学习是人工智能的王者。在它成为主流的六年中,它已经成为帮助机器体验和感知周围世界的主要方式。它支持Alexa的语音识别、Waymo的自动驾驶汽车和谷歌的实时翻译。在某些方面,优步优化了深度学习的使用,它利用机器学习来判断哪里需要汽车。中国科技巨头百度在神经网络人工智能领域拥有2000多名工程师。多年来的证据表明,深度学习似乎只会越来越好,不可阻挡地将人们引向一台拥有流畅、灵活智力的机器。
但一些持不同观点的人士认为,深度学习正在碰壁。他们说,它本身永远不会产生广义智能,因为真正的类人智能不仅仅是模式识别。我们需要开始研究如何向人工智能灌输日常常识,即人类智慧的东西。他们警告说,如果我们不这样做,我们就会不断提升深度学习的极限,比如视觉识别系统,它很容易被一些输入的改变所愚弄,从而使深度学习模型认为海龟是一把枪。但他们说,如果我们成功了,我们将见证更安全、更有用的设备的爆炸式增长——在杂乱的家中导航的医疗机器人、不会因假阳性而出错的欺诈检测系统、由思考疾病因果关系的机器驱动的医疗突破。
但真正的推理在机器中是什么样的呢? 如果深度学习无法让我们达到目标,那么什么又可以?
AI缺乏推理思维
GARY MARCUS现年48岁,戴着眼镜,神情沉思,是纽约大学心理学和神经科学教授。
Marcus第一次对人工智能产生兴趣是在20世纪80年代和90年代,当时神经网络还处于实验阶段,从那以后他一直在做同样的论证。
当时,深度学习背后的策略和今天一样。假设你想要一台机器来教会自己识别雏菊。首先,你需要编写一些算法“神经元”,将它们像三明治一样分层连接起来(当你使用多层时,三明治会变厚或变深——因此,叫做“深度”学习)。你会向第一层展示雏菊的图像,它的神经元会根据图像是否与之前看到的雏菊相似而发射或不发射。信号会转移到下一层,在那里过程会重复。最终,这些层次将最终形成一个结论。
一开始,神经网络只是盲目猜测;它或多或少处于一片空白状态。关键是建立一个有用的反馈回路。每次人工智能错过雏菊,这组神经连接就会削弱导致错误猜测的链接;如果它成功了,它会加强他们。只要有足够的时间和雏菊,神经网络就会变得更准确。它学会了凭直觉知道了解一些雏菊的模式,让它每次都能检测到雏菊(而不是向日葵或紫菀)。随着时间的推移,这个核心思想——从一个简单的网络开始,通过重复训练——得到了改进,似乎在任何应用它的地方都很有用。
他指出,尽管人们认为神经网络很聪明,但它们的工作方式似乎与人脑不同。首先,他们太渴望数据了。在大多数情况下,每个神经网络都需要成千上万的例子来学习。更糟糕的是,每次你想让神经网络识别一种新的项目时,你都必须从头开始。一个只被训练来识别金丝雀的神经网络在识别鸟鸣或人类语言方面没有任何用处。
“这些深度学习系统不知道如何整合抽象知识,”Marcus说。
今年早些时候,Marcus发表了一篇关于arXiv的白皮书,认为如果没有一些新的方法,深度学习可能永远无法突破目前的局限。它所需要的是一个辅助或内置的规则,以帮助它对世界进行推理。
帮AI建立常识似乎异常困难
OREN ETZIONI是一位在西雅图经营Allen Institute for Artificial Intelligence的计算机科学家。
Etzioni和他的团队正在研究这个常识性问题。他将人工智能定义为两个具有传奇色彩的时刻——1997年国际象棋大师Garry Kasparov3被IBM的深蓝击败,以及去年同样令人震惊的世界顶级围棋选手被DeepMind的AlphaGo击败。(2014年,谷歌收购了DeepMind。)
人类拥有一个关于世界的知识基础(火会燃烧东西)和推理能力(你应该远离失控的火)。要让人工智能真正像人一样思考,我们需要教给它所有人都知道的东西,比如物理(扔在空中的球会掉下来),或者事物的相对大小(大象放不进浴缸)。Etzioni认为,除非人工智能拥有这些基本概念,否则它无法推理。
在Paul Allen的数亿美元注资下,4 Etzioni和他的团队正试图开发出一种常感推理层,以配合现有的神经网络风格。(艾伦研究所(Allen Institute)是非盈利性机构,所以他们发现的所有东西都会被发表出来,供公众使用。)
他们面临的第一个问题是回答这个问题,什么是常识?
Etzioni把它描述为所有我们认为理所当然但很少大声说出的关于世界的知识。他和他的同事们创造了一套基准问题,一个真正理性的人工智能应该能够回答:如果我把袜子放在抽屉里,它们明天还会在那里吗?如果我踩到别人的脚趾,他们会生气吗?
Etzioni的实验室正在向Amazon Mechanical Turk公司的众包人员支付报酬,以帮助他们撰写一些常识性陈述。然后这个团队使用各种机器学习技术——一些老式的统计分析,一些深度学习神经网络——从这些陈述中吸取教训。如果他们做得对,Etzioni相信他们可以生产出可重复使用的计算机推理乐高积木:一组可以理解文字,一组掌握物理,等等。
Choi、Etzioni和他们的同事并没有放弃深度学习。事实上,他们认为它是一个非常有用的工具。但他们认为,要说服人们明确陈述我们所有人都拥有的怪异的、看不见的、隐含的知识,这是一项艰巨的任务,没有捷径可走。深度学习是垃圾进垃圾出。仅仅给一个神经网络输入大量的新闻文章是不够的,因为它不会获取那些未声明的知识,那些作者懒得提及的明显的东西。正如Choi所说,“人们不会说‘我的房子比我大’。”为了帮助解决这个问题,她让这些土耳其人分析1100个常见动词所隐含的物理关系,比如“X throw Y”。这样,就可以建立一个简单的统计模型,用“Oren throw the ball”这句话来推断球一定比Oren小。
另一个挑战是视觉推理。Etzioni的另一位人工智能科学家Aniruddha Kembhavi向我展示了一个虚拟机器人在屏幕上的房子里闲逛。艾伦研究所的其他科学家建造了这个模拟现实的房子,里面装满了日常用品和现实主义物品——橱柜里装满了盘子,沙发可以随意摆放。然后他们设计了这个机器人,它看起来像一个有胳膊的深灰色垃圾筒,并让它搜寻某些物品。经过数千项任务后,神经网络在现实生活中获得了一个基本的基础。
“当你问它'我有西红柿吗'时,它不会打开所有的橱柜。它更喜欢打开冰箱,”Kembhavi说。 “或者如果你说'找到我的钥匙',它就不会试图拿起电视。它只是朝电视背后看看。”
Etzioni和他的同事们希望这些不同的组成部分——Choi的语言推理、视觉思维,以及他们正在做的其他工作——能够最终结合起来,让人工智能掌握教科书上的科学信息。但这需要多长时间,最终的产品会是什么样子?他们不知道。他们正在构建的常识性系统仍然会出错,有时出错的几率超过一半。帮AI建立常识似乎异常困难。
在深度学习的世界里,人工智能已经不再流行。这在一定程度上是因为它可能是“脆弱的”:如果没有关于世界的正确规则,AI可能会不知所措。这就是聊天机器人如此令人沮丧的原因;如果没有明确地告诉他们如何回答一个问题,他们就没有办法推理出来。Cyc(一款AI机器)比聊天机器人功能强大得多,已经被授权用于医疗系统、金融服务和军事项目。但这项工作非常缓慢,而且成本高昂。 Lenat说,开发Cyc已经花费了大约2亿美元。
深度学习先驱、Facebook人工智能研究部门现任主管Yann LeCun赞同该领域的许多新批评。他承认它需要太多的训练数据,它不能推理,它没有常识。他说:“过去四年里,我基本上是一遍又一遍地这么说。”但他仍然坚信,只要设计得当,深度学习就能提供答案。他不同意乔姆斯基关于人类智力的观点。他认为,人类大脑的推理能力完全是通过相互作用而不是内在规则来发展的。他说:“如果你想想动物和婴儿是如何学习的,在生命的最初几分钟、几小时、几天里,他们学到了很多东西,而且学得非常快,看起来就像天生的一样。”
对抗神经网络可能是解决方案
尽管如此,LeCun承认,目前还不清楚哪些途径可以帮助深度学习克服困难。可能是“对抗”的神经网络,一个相对较新的技术,其中一个神经网络试图用假数据欺骗另一个神经网络。这里的优点是,你不需要收集数以百万计的数据点来训练神经网络,因为它们是通过相互学习来学习的。
2013年,马克•扎克伯格聘用了LeCun,承诺实验室的目标将是突破雄心勃勃的人工智能的极限,而不仅仅是对Facebook的产品进行微调。就像学术实验室一样,LeCun和他的研究人员将他们的研究成果公布于众。
用这些图像来讨论类人AI是一件奇怪而又令人不安的事情,因为HAL 9000--2001年的类人AI,最终被证明是一个高效的杀手。
“超级智能”AI带来的是好处还是危害?
这就引出了一个贯穿整个争论的更深层次的哲学问题:更聪明的人工智能真的是一个好主意吗?牛津大学的Nick Bostrom7就创建“超级智能”的危险敲响了警钟。超级智能是一种能够自我提升、迅速超越人类、能够以各种方式在智力上战胜我们我们的人工智能。
埃隆•马斯克完全相信这种危险,因此资助了OpenAI,一个致力于安全AI概念的组织。
Etzioni对此一点都不担心。让他担心的是,目前的人工智能极其无能。因此,虽然我们可能不会创造出具有自我保护智能的HAL,但“一个依附于致命武器的无能人工智能很容易被杀死,”他说。这也是为什么Etzioni如此坚定地要给AI一些常识的部分原因。他认为,这将最终使人工智能更安全。(艾伦研究所(Allen Institute)的任务之一是让人工智能变得更合理,从而让它更安全。)
Etzioni指出,人工智能的反乌托邦科幻幻想的风险要小于近期的经济转移。AI越能更好的掌握常识知识,就能越快的接管工作。但真正掌握推理能力的人工智能可能造成的破坏甚至超出经济范畴。
Marcus同意具有推理能力的AI会带来危险。但他表示,好处也是巨大的。人工智能可以像人类一样推理和感知,并且以计算机的速度移动,这可能会给科学带来革命性的变化,以我们自己无法企及的速度梳理出因果关系。除了拥有大量的机器人知识,它可以遵循“如果——那么”的链条,思考反事实,以人类的方式进行心理实验。Marcus补充说:“例如,我们也许最终能够治愈精神疾病。人工智能或许能够理解参与了大脑构建的这些复杂的生物级联蛋白质,并能让它们正确或错误地工作。”
当然,让人工智能更接近人类思维有助于人工智能在我们的世界发挥作用。但是直接复制人类的思维方式呢?目前还不清楚这是否有用。也许智能机器的价值在于它们与我们完全不同。
换句话说,也许人工智能值得保持一点人工智能。
品牌、内容合作请点这里:寻求合作 ››
想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:
下载APP
关注微信号
扫一扫下载APP
与资深行业研究员/经济学家互动交流让您成为更懂趋势的人
违法和不良信息举报电话:400-068-7188 举报邮箱:service@qianzhan.com 在线反馈/投诉 中国互联网联合辟谣平台
Copyright © 1998-2025 深圳前瞻资讯股份有限公司 All rights reserved. 粤ICP备11021828号-2 增值电信业务经营许可证:粤B2-20130734