憨憨小豬 发表于 2020-4-20 00:57:08

人工智能迎来隆冬,主动驾驶汽车发展受阻

假如你信赖各至公司的CEO,那么感觉大概再过几个月全主动驾驶汽车就要实现了。2015年,埃隆·马斯克猜测特斯拉将于2018年推出全主动驾驶汽车,Google也是云云。Delphi和MobileEye筹划将于2019年推出四级体系,Nutonomy筹划于同年在新加坡陌头摆设数千辆无人驾驶出租车。通用汽车将于2019年开始生产全主动驾驶汽车,这种车辆没有方向盘,也无法让司机参与——这些猜测背后关系到的是资金的投进,这些公司纷纷下注赌软件的发展可以或许实现这些放肆的宣传。
    从外貌上看,好像全主动驾驶汽车近在面前。Waymo已经开始在亚利桑那州特定的公共门路上测试汽车。特斯拉和其他效仿者也纷纷开始出售功能上有限定的主动驾驶汽车,但假如有不测环境发生,这类汽车依然必要依赖司机举行干预。近来几起变乱,有些是致命的,但是只要体系不停改进,从逻辑上说,我们间隔没有人为干预的主动驾驶车辆不会太远了。
    但是全主动驾驶汽车的空想大概比我们想象中还要更加迢遥。人工智能专家越来越担心,间隔主动驾驶体系可以确保制止变乱,大概必要数年乃至数十年。固然自我练习体系可以应对实际天下的杂乱,但是纽约大学的Gary Marcus等专家则以为重新审阅这一题目不可制止,有人称之为“人工智能的隆冬”。这种耽误大概会造成整整一代人都无法实现全主动驾驶汽车,这会给那些依赖主动驾驶技能的公司带来劫难性的结果。
    深度学习的通用化应用还不成熟

    很轻易明白为什么汽车公司对主动驾驶持乐观态度。
    在已往的十年中,深度学习(一种利用分层呆板学习算法,从海量数据会合提取布局化信息的方法)已经在人工智能和技能行业取得了惊人的希望:它增强了Google搜刮、Facebook的News Feed、将会话语音转成文本的算法、还支持Go-playing体系。在互联网之外,我们用呆板学习检测地动、猜测心脏病,并通过摄像头检测举动,另有许多不可胜数的创新。
    但是深度学习必要大量的练习数据才气正常工作,险些必要涵盖算法大概遭遇的全部环境。比方,Google图片等体系非常善于辨认动物,只要有练习数据向他们展示每种动物的样子。Marcus称这种使命为“插值”,即扫描全部被标志为“豹猫”的图像后,确定新图片是否属于同一组。
    工程师可以根据数据的泉源和布局得到创意,但是已有算法的范围有严酷的限定。除非已经看过几千张豹猫的图片,否则即便是同一个算法也无法辨认豹猫——纵然这个算法已经看过了家猫和美洲豹的图片,且知道豹猫是介于两者之间的东西。这个称之为“通用化”的过程必要一套差别的技能。
    恒久以来,研究职员以为他们已经通过精确的算法进步了通用化技能,但是近来的研究表明,传统的深度学习在实现通用化方面比我们想象的更糟。一项研究发现,传统的深度学习体系乃至难以在一个视频的差别帧上实现通用化,随着配景稍微的变革,深度学习会将同一只北极熊错以为狒狒、猫鼬或黄鼠狼。由于每个分类都汇总了数百个因素,因此纵然是图片微小的变革也可以彻底影响体系的判定,这种征象被其他研究职员看成对抗数据集利用。
    无人驾驶汽车深陷逆境

    Marcus指出谈天呆板人高潮就是近来炒作通用化题目的一个例子。
    “我们答应于2015年推出谈天呆板人,”他说,“但是它们没有什么资助性,由于它不外是网络数据。”当你在网上与人攀谈时,你不想重新讨论早期的对话。你盼望他们回应你所说的话,使用更加广泛的会话本领来做独特的回应。深度学习无法创建那种谈天呆板人。最初的炒作事后,各个公司就会对谈天呆板人项目失往信心,很少有人仍在积极地开辟。
    这给特斯拉和其他主动驾驶公司带来一个可骇的题目:主动驾驶汽车会像图片搜刮、语音辨认和其他人工智能的乐成一样不停进步吗?它们会像谈天呆板人一样在通用化的题目上卡壳吗?主动驾驶技能是插值题目照旧通用化题目?驾驶真的很难猜测吗?
    如今大概还为时过早。Marcus说:“无人驾驶汽车就像一个我们不知道答案的科学实行。”我们从未实现过这个级别的主动驾驶,以是我们不知道它是什么范例的使命。在某种水平上,它必要辨认认识的对象,服从规则,现有的技能应该可以胜任。但是Marcus担心,变乱多发环境下的驾驶大概比业界认可的还要复杂。“新环境的出现,对深度学习来说并不是一件功德。”
    我们的实行数据来自公共变乱陈诉,每个陈诉都提供了一些不平常的困难。2016年特斯拉的那场车祸中,Model S汽车由于受到拖车的高度和太阳光反射的影响,全速撞上了一辆白色半挂车的尾部,本年3月,Uber的一辆主动驾驶汽车车祸撞死了一名推着自行车横穿马路(违背交通规则)的密斯。根据美国国家运输安全委员会的陈诉,Uber的软件在做其猜测时,起首将这位密斯误以为不明物体,继而错以为一辆自行车,末了确以为一辆自行车。特斯拉在加利福尼亚州的一次车祸中,Model X在撞击发生之前忽然转向停滞物并提速,缘故原由至今不清晰。
    每次变乱看似都是一个极度的例子,工程师无法对这类的事变提前作出猜测。但是险些每次车祸都涉及某种无法猜测的环境,假如没有通用化的本领,那么主动驾驶车辆不得不在每次碰到这些情况的时间,看成第一次来处置惩罚。效果将是连续串的不测变乱,且随着时间的发展,这些变乱次数不会淘汰,伤害系数也不会低落。对于持猜疑态度的人来说,《无手动操纵陈诉》的变化表明这种环境还将继承,且将维持肯定的稳固程度。
    Drive.AI首创人Andrew Ng是前百度的高管,也是该行业最闻名的推动者之一,他以为题目不在于创建完善的驾驶体系,而在于培训观看者猜测主动驾驶车辆的举动。换句话说,我们可以为汽车提供安全的门路。作为一个不可猜测案例的例子,我问他是否以为当代体系可以处置惩罚行人玩弹跳杆的行人,纵然它们从前从未见过。Ng跟我说:“我以为许多主动驾驶车辆团队可以处置惩罚在人行横道上玩弹跳杆的行人。话虽云云,在高速公路上玩弹跳杆黑白常伤害的。”
    他说:“我们应该和当局互助,要求正当并得到人们的体贴,而不是通过人工智能来办理弹跳杆的题目。安全驾驶不但仅与人工智能技能的质量有关。”
    人们应低落对主动驾驶汽车的盼望

    深度学习不是唯一的人工智能技能,很多公司已经在探索取代方案。固然这些技能在业界受到精密掩护(单从近来Waymo告状Uber就能看出来),但是很多公司已经转向基于规则的人工智能,这是一种较老的技能,可以让工程师将特定的举动或逻辑写死到其他自导体系中。它没有通过研究数据来编写自我举动的本领(而深度学习恰好是由于这种本领引起了关注),但是它可以让这些公司制止一些深度学习的范围性。由于深度学习对根本感知使命的影响仍旧非常深刻,因此很难说工程师怎样才气乐成地检测出潜伏的错误。
    身为Lyft董事会的风险资源家Ann Miura-Ko表现,她以为题目的一部门是对主动驾驶汽车自己的高度盼望,以是各人将无法全主动视为一种失败。 Miura-Ko说:“盼望它们从零级一跃到五级不即是技能的失败,更像是不应有的盼望。我以为全部这些微小的进步都对迈向全主动驾驶有着非凡的意义。”
    不外,我们还不清晰主动驾驶汽车还要在现在的逆境里连续多久。像特斯拉的主动驾驶汽车等半主动的产物也充足智能,可以处置惩罚大多数的环境,但是假如发生不可猜测的环境,仍旧必要人为干预。
    当出现题目时,很难判定是汽车照旧司机的题目。对于一些批评家来说,纵然堕落不能完全回咎于呆板,这种混淆驾驶也不如人类驾驶员安全。根据兰德公司一项研究估计,主动驾驶车辆必须在不出现任何殒命变乱的环境下,行驶够2.75亿英里才气证实它们和人类驾驶员一样安全。特斯拉的主动驾驶汽车出现第一次殒命变乱时的行驶里程数约莫为1.3亿英里,远远低于尺度。
    但是,使用深度学习控制车辆怎样觉察物体并决定应对,进步变乱发生率比看起来更难。杜克大学传授Mary Cummings表现:“这不是一个简朴的孤立题目,”他指本年早些时间Uber车祸导致一名行人罹难。“这起行人殒命变乱中的感知决议周期是相互关联的。由于感知的含糊导致了错误决定(不做处置惩罚),而且由于它从感知器上得到了太多的错误警报,以是导致没有刹车。”
    起车祸导致Uber停息了夏日的主动驾驶车工作,对其他公司筹划的推出是一个不祥之兆。在整个业界内,各至公司正在竞相夺取更多数据来办理题目,并假设拥有最高里程数的公司将创建最强盛的体系。但是这些公司看到的是数据题目,而对于Marcus来说这是更难办理的题目。
    Marcus说:“他们只是在利用他们盼望可以或许乐成的技能。他们依赖大数据,这是他们赖以生存的根本,但是没有任何证据可以到达我们所必要的准确度。”
    原文作者:Russell Brandom,The Verge的记者。重要负责报道网络、文化、法律、影戏以及其他感爱好的方面。
   

   

   
http://www.fyguaji.com
页: [1]
查看完整版本: 人工智能迎来隆冬,主动驾驶汽车发展受阻