A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

观点|自动驾驶开往AI大门“路障”重重 出了事故不能只怪技术本身和数据积累

分享到:
 Evelyn Zhang • 2018-08-07 09:33:07 来源:前瞻网 E702G0
100大行业全景图谱

在仍然事故频出的自动驾驶行业,质疑者往往认为全自动的驾驶比我们想象的遥远。

2015年,特斯拉CEO马斯克就预测到2018年能实现全自动驾驶,谷歌的预测截止日也一样。Delphi和MobileEye的Level 4系统目前定于2019年完成测试,同年Nutonomy计划在新加坡街头部署数千辆无人驾驶出租车。通用汽车将在2019年投入全自动汽车生产,没有方向盘,也没有司机介入。这些预测背后将会涌来一波又一波的资金——假设软件将能够赶上炒作而真正落地。

前瞻经济学人

(图源:University of Pennsylvania)

从表面上看,完全自动驾驶比以往任何时候都更接近。 Waymo已经在亚利桑那州的有限但公共道路上测试汽车。特斯拉和许多其他模仿者已经出售了有限形式的自动驾驶仪,如果发生任何意外情况,他们会依靠司机进行干预。有一些会崩溃,有些是致命的,但只要系统不断改进——我们就离没有必要干预的那一天不会太远。

但是全自动汽车的梦想可能比我们意识到的更远。人工智能专家越来越担心,在自动驾驶系统能够可靠地避免事故之前,可能需要数年甚至数十年。随着自我训练的系统应对现实世界的混乱,像纽约大学的加里·马库斯这样的专家正准备在预期中进行痛苦的重新校准,这种纠正可能会带来一次“人工智能的寒冬”。这种延迟可能会给那些依靠自驾车的公司带来灾难性后果,让整整一代人无法获得完全的自动驾驶体验。

“无人驾驶汽车就像一个我们不知道答案的科学实验”

很容易理解为什么汽车公司对自主权持乐观态度。在过去十年中,深度学习 - 一种使用分层机器学习算法从海量数据集中提取结构化信息的方法——已经在人工智能和技术行业中取得了几乎无法想象的进展。它支持Google搜索、Facebook新闻推荐、会话式语音到文本算法以及冠军Go-playing系统等一系列应用场景。在互联网之外,我们使用深度学习来检测地震、预测心脏病,并标记相机上的可疑行为,以及无数其他本来不可能的创新。

但深度学习需要大量的训练数据才能正常工作,几乎包含算法将遇到的每个场景。例如,谷歌图像等系统非常善于识别动物,只要他们有训练数据来向他们展示每种动物的样子。

工程师可以在数据来自何处以及如何构建数据时获得创造性,但它对给定算法可达到的范围设置了严格的限制。相同的算法无法识别豹猫,除非它看到成千上万的照片——即使它看到了家猫和美洲虎的照片,并且知道豹猫介于两者之间。这个过程称为“概括”/“归纳”,需要一套不同的技能。

长期以来,研究人员认为他们可以通过正确的算法提高泛化技能,但最近的研究表明,传统的深度学习在概括时比我们想象的更糟糕。一项研究发现,传统的深度学习系统甚至难以在视频的不同帧上进行推广,根据背景中的微小变化将同一北极熊标记为狒狒、猫鼬或黄鼠狼。由于每个分类基于数百个因素的总和,即使是图片的微小变化也可以完全改变系统的判断,这是其他研究人员在对抗数据集中利用的。

马库斯指出聊天机器人热潮是最近炒作泛化问题的例子。 “我们在2015年答应了聊天机器人,”他说,“但它们没有任何好处,因为它不仅仅是收集数据的问题。”当你在网上与一个人交谈时,你不仅仅想要他们重新讨论早期的对话。你希望他们回应你所说的话,利用更广泛的会话技巧来产生你独有的回应。深度学习无法制作那种聊天机器人。一旦最初的宣传消退,公司就对他们的聊天机器人项目失去了信心,而且很少有人仍在积极开发中。”

这让特斯拉和其他自治公司面临一个可怕的问题:自动驾驶汽车会不断变好,如图像搜索,语音识别和其他人工智能的成功案例那样?或者他们会遇到像聊天机器人这样的泛化问题吗?驾驶真是难以预测吗?

现在知道可能还为时过早。 “无人驾驶汽车就像一个我们不知道答案的科学实验,”马库斯说。我们以前从未能够在这个级别上实现自动驾驶,所以我们不知道它是什么类型的任务。在某种程度上,它是关于识别熟悉的对象和遵循规则,现有技术应该要能完成任务。但马库斯担心,在事故多发的情况下驾驶可能比行业想要承认的要复杂得多。“在令人惊讶的新事物发生的程度上,这对于深度学习来说并不是一件好事。”

“安全不仅仅是关乎人工智能技术的质量”

我们的实验数据来自公共事故报告,每个报告都提供了一些不寻常的反面案例。一场致命的2016年车祸,导致Model S车辆全速驶入白色拖拉机拖车的后部;3月份,一名一名妇女在推着自行车在黑暗中突然走出时被自动驾驶的Uber撞飞。根据美国国家运输安全委员会的报告,Uber的软件错误地将该女性识别为一个未知物体,然后是一辆车,最后才是一辆自行车,每次都会更新其预测。在加利福尼亚州的一次撞车事故中,由于仍不清楚的原因Model X在撞击之前转向了障碍物并加速前进。

每次事故似乎都是一个边缘案例,工程师无法提前做出预测。但几乎所有的车祸都涉及某种不可预见的情况,如果没有一般的推广能力,自动驾驶汽车将不得不面对这些情景中的每一个,就好像这是第一次。结果将是一连串的侥幸事故,随着时间的推移,这些事故不会变得不那么常见或者不那么危险。对于持怀疑态度的人来说,手动脱离接触报告的转变表明情况已经在进行中,进展已经达到稳定水平。

前百度高管、Drive.AI董事会成员吴恩达认为问题不在于建立一个完美的驾驶系统,而在于训练旁观者预测自驾车行为。换句话说,我们可以为汽车提供安全的道路——让人更好地预测,而不是汽车。“我认为许多自动驾驶设备团队可以在人行横道上完美躲开行人,但是在高速公路中间的就变得非常危险。”

“我们应该与政府合作,要求人们遵守规则并给予体谅,安全不仅仅与人工智能技术的质量有关。”

“这不是一个容易被分离出来的问题”

深度学习不是唯一的人工智能技术,公司已经在探索替代方案。虽然技术在行业中受到严密保护(看看Waymo最近针对Uber的诉讼就能明白这点),但许多公司已经转向基于规则的AI,这是一种较老旧的技术,可以让工程师将特定的行为或逻辑硬编码到另外的自导系统中。它只是通过研究数据来编写自己的行为没有相同的能力,但它会让公司避免一些深度学习的局限性,这使得深度学习如此令人兴奋。但由于深层学习技术仍然深刻地影响了感知的基本任务,因此很难说工程师如何做才能成功隔离潜在的错误。

作为Lyft董事会成员的风险资本家Ann Miura-Ko表示,她认为问题的一部分是对自动驾驶汽车本身的高度期望,人们将任何不完全自动化的事情看成是失败的。Miura-Ko表示,“期望它们从零到五级的预期不同于技术的失败。” “我认为所有这些微观改进都是实现完全自动化的非凡特征。”

不过,目前还不清楚自动驾驶汽车可以保持这一状态行驶多长时间。像特斯拉的自动驾驶仪这样的半自动产品足够智能,可以处理大多数情况,但如果发生任何太不可预测的事情,则需要人为干预。当出现问题时,很难知道汽车或司机是否应该受到责备。对于一些评论家来说,即使错误很难完全归咎于机器,这种混合动力也可能比人类驾驶员更不安全。兰德公司的一项研究估计,自动驾驶汽车必须在行驶2.75亿英里没有发生死亡的情况下,才能证明它们和人类驾驶员一样安全。作为参照,特斯拉自动驾驶仪相关的首次死亡事件大约开出了1.3亿英里,远远低于标准。

但是,通过深入学习,汽车如何“看见”物体并决定应对对策可能看起来更难。 “这不是一个容易被孤立的问题,”杜克大学教授玛丽·卡明斯(Mary Cummings)表示.他指的是今年早些时候发生的Uber事故导致一名行人遇难的案例。 “感知决定周期通常是相关的,就像行人死亡一样。基于感知的模糊性做出了决定,并且紧急制动被关闭,只因为它从传感器得到太多的错误警报。”

随着Uber暂停其夏季的自动驾驶努力,这是其他公司计划推出的一个不祥之兆。在整个行业中,公司正在竞相争取更多数据来解决问题,拥有最多里程的公司被认为将构建最强大的系统。但在公司看到数据问题的地方,马库斯看到了更难解决的问题。 “他们只是使用他们所拥有的技术,希望它能起作用,”马库斯说。 “他们依靠大数据,因为这是他们拥有的‘拐杖’,但没有任何证据可以让你达到我们所需的精确度。”

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p12 q0 我要投稿

分享:

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J