乐智网

福布斯分析:存在严重问题或使无人驾驶技术进入“寒冬”

2019-04-04 09:37 来源:凤凰网科技

据福布斯网站报道,科恩实验室研究人员日前成功入侵特斯拉自动驾驶系统Autopilot这一事件表明,当前在事故发生后给漏洞打补丁的方式对自动驾驶汽车来说并不足够安全。从波音防失速系统出现漏洞而暴露出问题的严重性,不难看出自动驾驶汽车的可靠性是其关键核心。

通过在路上贴上几乎难以察觉的小贴纸,科恩实验室研究人员诱导特斯拉Autopilot将这些贴纸误判为车道标记,从而控制车辆转入反向车道。因此,对于自动驾驶汽车而言,在大部分情形下,在问题发生后进行漏洞修补显然不是可靠的最佳方式,因为这关系到人的生命,而这也正是汽车行业的安全和可靠性标准高于硅谷的大多数产品的原因之一。

这也突出了使用深度学习模型驾驶汽车的主要问题之一。深度学习更擅长处理数据集有限且稳定的情况,在此前提下可以确保模型能够真实地显示每个数据点,并且这些数据点不会改变。然而,实际路况并不具备这样的条件,这意味着仅依靠深度学习算法推动自动驾驶汽车达到足够高的安全标准的可能性不高。

按照传统的硅谷思维模式“打地鼠”(whack-a-mole),这意味着每次系统崩溃时都要对其进行修补,但自动驾驶意味着系统漏洞或将以生命为代价,“打地鼠”显然不是确保自动驾驶安全可靠性的最佳方式。这与一些人员研究的观点不谋而合,该研究强调了深度学习的局限性,并可能导致人工智能出现第三个“寒冬”。

最终的结果是,当前需要用一种不同的方法来实现自动驾驶,而重新思考这个系统将需要时间。虽然美国Radio Free Moblile机构目前仍坚持自动驾驶汽车到2028基本可以进入商业应用阶段,但能否成为现实还有待时间来验证。

版权与免费声明
①本网凡注明来源“乐智网”的所有作品,版权均属于乐智网。转载方务必在文中注明来源,并附带链接 http://www.lezhiot.com/。若转载方没有严格执行上述约定,乐智网将视为侵权,并追究相关法律责任。 ②本网转载其他网站作品的过程中会注明来源,目的在于为读者传递更多信息,并不代表乐智网赞同其观点或证实相关内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并主动承担版权等法律责任。
乐智网二维码

扫一扫关注我们