63

63

P7
关注

Mobileye 真的不行了吗?

环形隧道

2022-01-11

现在国内唱衰 Mobileye 的言论愈演愈烈,核心原因只有一个:2020 年到 2021 年,头部智能电动车品牌基本全部选择了英伟达 Orin 作为自己的自动驾驶芯片。

2019 年之前还是一个 Mobileye EyeQ4 称霸全行业的状态,到了 2020 年,搭载 Mobileye EyeQ5 的车型只有极氪 001 和宝马 iX,而极氪也传出在下一代车型上将换装其它品牌的芯片,宝马更是明确了到 2025 年将使用高通 Snapdragon Ride 平台打造自动驾驶。

这些车企转投英伟达的原因也有两个,一方面是 Mobileye 采用黑盒子的方案,而追求突破的头部车企们在软件层面没有操作空间,不得不转投更加开放的英伟达或者地平线平台。

另一方面,头部车企们希望尽早实现自动驾驶,所以会搭载尽量丰富的感知硬件,面对这些硬件产生的庞大数据,对芯片算力的需求自然愈演愈烈,而 Mobileye 最新的 EyeQ5H 芯片算力只有 24 TOPS,很难满足大家的需求,不得不转投具备大算力的英伟达或者地平线芯片。

但是 Mobileye 从 2007 年开始的积累就这么不值一提?新出现的自动驾驶芯片真的可以平替 Mobileye?Mobileye 真的不行了吗?

看完了今年 CES Mobileye 的发布会,我觉得现在下定论还为时过早。

Mobileye 在技术上积累的领先是毋庸置疑的,只是在商业化的转型上没有跟上时代的变化,而英伟达踩准了厂家的需求,生而逢时,但是采用英伟达芯片的车型,算法能力上取决于厂家的能力,至少目前还没有一家车企秀过肌肉。

所以,更值得观察的是,到底是 Mobileye 商业化思路的调整速度更快,还是厂家自研算法的速度更快。

从时代的发展来看,自动驾驶芯片的发展进入了快速增长阶段,而竞争对手也迅速激增,竞争确实激烈了,Mobileye 失去了头部车企的订单,但是面对市场更大且没有算法能力的腰部车企,Mobileye 仍然是最好的选择。

今年 CES 上 Mobileye 一共发布了 3 款芯片,并透露了自己 3 大战略技术目前的进展。

在发布会后我们也有幸采访了 Mobileye 产品及战略执行副总裁、英特尔公司副总裁 Erez Dagan,采访中大家也向 Erez 提出了很多尖锐的问题,例如:

「因为 Mobileye 采用黑盒子的技术路线,导致国内厂家和 Mobileye 的合作存在质疑和犹豫,Mobileye 如何看待这一现象?」

「EyeQ Ultra 芯片的算力是 176 TOPS,相对于英伟达等一些行业竞品来说并不算高,Mobileye 如何看待算力和 L4 级以上无人驾驶之间的关系?」

不过在聊这些露骨的问题之前,我们先在回顾一下,今年 CES Mobileye 都发布了什么?

三颗芯片什么水平?

今年 CES 上 Mobileye 发布了 EyeQ Ultra、EyeQ6L 和 EyeQ6H 三颗芯片,这也是今年 CES 关注度最高的一部分,我们先从最强大的 EyeQ Ultra 看起。

EyeQ Ultra

EyeQ Ultra 的算力为 176 TOPS,具有 12 个 RISC-V CPU,每个 CPU 有 24 线程,一共有 64 核的加速器,采用 5 纳米制程工艺,功耗小于 100 W

上文中提到的加速器一共包含 4 种,一种是单纯的深度学习计算;第二种是类似 FPGA 加速器叫 DGRA;第三种是长指令集的类似于 DASP 的加速器;第四种是多线程 CPU,每一个核都负责不同的工作负载。

EyeQ Ultra 的工程样片预计 2023 年第四季度产出,正式量产时间为 2025 年。

Mobileye 对这颗芯片的定义为「单颗芯片可以支持 L4 级别自动驾驶」。

但是以上数据公布之后,大家普遍存在两个质疑,一方面是质疑 176 TOPS 的算力能否实现 L4 级别的自动驾驶,毕竟在蔚来 ET7 ET5 上已经搭载了算力超过 1,000 TOPS 的芯片;另一方面的质疑则是,从 2022 年开始,高级辅助驾驶会进入一个快速发展阶段,而 Mobileye 这颗芯片 2025 年才量产,为时尚晚。

从时间的角度来看,头部车企目前公布的节奏确实快于 Mobileye,但是也不乏车企纯在吹牛的可能,毕竟从 2020 年初就开始的激光雷达风波,到了 2022 年初也仅有小鹏 P5 一款车型量产。

再说算力,对比 2022 年交付的英伟达 Orin 芯片,2025 年才交付的 EyeQ Ultra 在算力数据上确实没有任何优势,但是 Mobileye CEO Shashua 似乎也猜到了大家会这么说,在发布会上 Shashua 也作出了解释:

「跟竞争对手的数字相比,176 听上去是一个很小的数字,大概只有竞争对手号称算力的五分之一。但是关键的不仅是算力,而是效率,这需要深入的认知了解软硬件之间的相互作用是什么,了解什么是核心,用什么算法来支持对应的核。

同时 Shashua 还拿极氪搭载的 SuperVision 举例,采用了 11 颗 800 万像素摄像头的极氪 001,依靠 2 颗 Mobileye EyeQ5 芯片即完成了感知、规控、执行的全链路循环,而算力仅仅 48 TOPS。

关于算力的争论我们在后续的采访中也进一步询问了 Mobileye 产品及战略执行副总裁、英特尔公司副总裁 Erez Dagan,后面再做进一步展开。

EyeQ6H

EyeQ6H 为 EyeQ5H 的进阶版本,算力 34 TOPS采用 7 纳米制程工艺,根据官方介绍算力相比 EyeQ5 多了接近 3 倍,但是能耗只多了 25%。

现阶段 Mobileye 通过 2 颗 EyeQ5 实现 SuperVision,下一代 SuperVision 将通过 2 颗 EyeQ6H 实现,甚至 1 颗 EyeQ6H 也可以实现。

量产时间上 EyeQ6 将于今年第四季度交付工程样片,2024 年正式量产。

EyeQ6L

EyeQ6L 大家可以理解为低配版本的 EyeQ6,同样采用 7 纳米制程工艺,算力为 5 TOPS,功耗仅为 3 瓦,半年前已经交付工程样片,预计 2023 年量产。

关于这款芯片大家的评价褒贬不一,有很多网友认为因为算力上并没有太大的提升,所以是一种倒退。

相较于已经在大家心里留下深刻印象的大算力芯片,再看到一款 2022 发布但算力只有 5 TOPS 的芯片心里确实会有一定的落差,抛开「不以算力为唯一标准」的说法,一个更有力的数据是,EyeQ6L 的订单量已经超过 900 万件。

在发布会的采访中 Erez Dagan 也表示:「EyeQ6L 计算能力更强和功耗更低,用以满足基础 ADAS 细分市场的需求,在这个市场我们需要一个高度集成的、非常高效的、兼具成本和功耗的解决方案,而 EyeQ6L 无疑在这两个方面都完全满足市场需求。

此外,该产品还考虑了附加摄像头的潜力,如司机监控系统或 AEB。EyeQ6L 这一基础 ADAS 是为了满足全球范围内不同的标准诞生的。」

相比于芯片,这是 Mobileye 更核心的竞争力

除了上文中提的芯片以外,Mobileye 在发布会上还透露了自己战略三大支柱战略的进展。

众包地图测绘 REM

今年的 CES 上,Mobileye 宣布现有的众包车队在 2021 年期间,一共收集了 40 亿公里的数据,目前每天可以收集 2,500 万公里的数据,按照这个速度 2022 年可以收集 90 亿公里的数据

相比高精地图,REM 地图具备采集便利性更高、采集速度更快、成本更低、鲜度更高的特性。

但是比较遗憾的是,在发布会上 Mobileye 并没有给出详细的数据,同时因为中国道路的法律法规限制,REM 并没有正式进入国内,所以对于广大消费者来说,并享受不到 REM 带来的优势。

据 42 号车库了解,因为 REM 的缺失,极氪 001 导航辅助驾驶功能的落地时间并不确定,而合规问题只能依托吉利解决。

目前在国外比较有亮点的进展是,大众 ID.4 已经基于 REM 地图实现了无车道线路段的辅助驾驶功能。

此外,福特下一代 Blue Cruise 和搭载 Mobileye SuperVision 的极氪也将使用 REM 地图,以实现更高阶的智能驾驶。

可成像的雷达

在大部分人的认知中 Mobileye 类似特斯拉采用纯视觉的路线,这种说法没错,但并不是特别严谨,Mobileye 采用的是以视觉为主的路线,但是在毫米波雷达和激光雷达两个领域也有自己的建树。

此毫米波雷达非彼毫米波雷达

目前量产车上的毫米波雷达均只具备测距和测速的能力并不具备成像的能力,这意味着毫米波雷达相较于视觉摄像头,只能知道在多远的地方有个东西,并不知道这个东西是什么,也无法对产出周围环境的模型,为智能驾驶提供更有价值的信息,在拥堵环境下能力更是有限。

Shashua 在发布会上也直白地说道:「过去这种传统雷达作为独立的传感器基本是毫无意义的。」

而 Mobileye 定义的毫米波雷达则具备的成像的能力,类似于 4D 毫米波雷达,并且在去年的 CES 上就已经发布了这款雷达的信息。

Shashua 表示,通过深度学习算法计算后,就毫米波雷达的感知结果可以实现接近激光雷达般的效果。

在今年的 CES 则展示了这款雷达的探测结果,从结果上来看,在对周围环境的探测成像的精准度上,已经非常接近激光雷达。相比激光雷达,毫米波雷达则具备了更强的恶劣天气性能和更低的成本。

图中为处理后的雷达成像结果

此激光波雷达非彼激光雷达

除了上文提到的成像毫米波雷达以外,Mobileye 在去年还建立一个部门来研发 FMWC 激光雷达。

与目前市面上绝大多数 ToF 激光雷达不同的是,FMCW 雷达并不是通过光往返的速度来测距,而是通过光频率的变化来测距,其优点在于不受其他光源的影响,同时每一个点云信息不止具备距离信息,还具备速度信息,所以可以更好地用于跟踪周围的交通参与者,但弊端则是技术难度更高,量产价格也更高。

Mobileye 的目标价格是低于 1,000 美元。

基于以上两种雷达,和视觉的相辅相成,自动驾驶系统实现了 3 重冗余,此外相较于车企采用激光雷达、毫米波雷达实现的感知融合,Mobileye 的雷达、激光雷达和摄像头被分成两个独立的子系统,彼此是不相通的,分别打造了端到端仅使用摄像头的驾驶体验,和端到端仅使用雷达和激光雷达的驾驶体验,Mobileye 希望通过这二者的相辅相成,来提高鲁棒性,实现安全冗余。

算力高效利用的关键——RSS 责任敏感安全原则

无论是 CES 的发布会上,还是会后的采访中,Mobileye 都反复强调了「不以算力为唯一标准」和 「相比算力,效率、软硬结合同样重要」的观点,为了让所有更加信服,Shashua 也分享了一些技术上的细节。

这里我也试图用尽量简洁的文字,把我所理解的分享给大家,如果有偏差欢迎指正。

实现自动驾驶需要三步,感知 — 决策 — 执行,听上去这个复杂的工程就像把大象塞进冰箱一样简单。

其中最耗费算力的是「感知」和「决策」两个环境。

感知层面,为了提升感知能力,摄像头的数量在不断增加,分辨率也在不断提高,背后产生的数据也在以指数的形式增长。

为了更加高效地利用算力,Mobileye 在获得视觉感知信息后会先进行场景分割(scence segmentation NSS),优先计算路面信息,而不是盲目地全局处理。

决策层面,最花费算力是基于感知的信息对周围的交通参与者的行进轨迹进行预测,然后决策出一条合理且安全的路线,但是一旦涉及到预测,随着预测的未来时间越久,对算力的需求就会进入指数级增长的过程。

在这里 Mobileye 引入了 RSS (Responsibility Sensitive Safety)责任敏感安全原则,目标是通过数据化人类驾驶中,比较具有主观性的几个常识确保自动驾驶汽车永远不会主动导致事故发生,包含:

  1. 什么是危险情况?
  2. 什么是危险情况下的正确反应?
  3. 谁要对事故负责?
  4. 不同驾驶场景下的安全距离。

Mobileye 会基于以上驾驶策略去归纳计算,所以基于 RSS,系统只会去计算有可能的未来,而不是所有的未来,这样的逻辑下帮 Mobileye 更高效地利用算力。

而上述的这 3 大技术,将会支撑 Mobileye 更好地攻下 L3/L4 的场景。

根据 CES 发布的信息来看,在 L3 层面 Mobileye 已经与本田和法雷奥展开了合作,其中 Mobileye 负责视觉感知。

在 L4 层面,Mobileye 的 Robotaxi 将于 2022 年中开始进行路测,年底获批后,会在德国和以色列进行主驾无人的测试,实现真正的无人驾驶,届时一辆车的成本预计是 15 万美元。

消费级的 L4 将在 2024—2025 年推出,不同于 Robotaxi 的是,消费级 L4 可行驶范围更广的区域,但是系统非常依赖 REM,同时零售价格 1 万美元,成本预计低于 5,000 美元。

在 Mobileye 看来,Robotaxi 和消费级 L4 并不冲突,Robotaxi 更早的投入可以帮助 Mobileye 有价值的数据,而消费级 L4 可以通过规模化实现降本。

写在最后

以上就是 Mobileye 在今年 CES 上透露的全部信息,不可否认的是 Mobileye 多年的积累在视觉技术上仍然具备绝对的领先优势,在我们 42Mark 的测试上可以看出,搭载 EyeQ4 芯片的车型都具备不错的基础能力,在我们与车企 ADAS 负责人交流时,他们也坦言 Mobileye 感知结果的质量非常高。

但也因为感知算法是黑盒子,无法满足车企自研向上的需求,所以丢失了大量头部车企的订单,也有业内人士向我们透露,相较于 Mobileye,英伟达和地平线提供的完整开发工具更有利于车企实现算法自研,同时沟通效率也更高。

而 Mobileye 方面也表示,1 月会与英特尔一起推出开放计算平台,同时去年 10 月以色列也有相关的技术人员来中国支持极氪项目,英特尔国内组了个 50 人团队来配合极氪 SuperVision 的开发。

所以现在说 Mobileye 已经不行了为时尚早,更值得观察的是,到底是 Mobileye 商业化思路的调整速度更快,还是厂家自研算法的速度更快。

但也需要更多考虑的是,随着自动驾驶芯片需求的旺盛,可以提供产品的供应商也越来越多,这个市场已经从 19 年的卖方市场逐渐转为了买方市场。

最后我们依旧要对 Mobileye 这个开创自动驾驶视觉技术路线,且仍然兢兢业业推进行业科技发展的公司致以最高的尊重。

以下为经 42 号车库整理的采访内容:

关于 Mobileye 对黑盒子的解释

提问:关于开放性的问题,因为国内市场有很多的客户都有反映,我们的算法和芯片,包括其他的硬件开放都是一个黑盒,这个问题 Mobileye 已经意识到了,我不知道在后续的 EyeQ6 上面,或者 EyeQ5 上面是否会做更多的工作来让 OEM 做更多自主性的开发?

回答:我之前已经解答过,现在展开多分享一些。针对基础的提供安全预警功能的前视 ADAS 摄像头,通过软件和 SoC 的紧密结合,能够降低验证成本、提高能耗效率、降低冷却成本。这是对于成本非常敏感的前视安全辅助 ADAS 摄像头,我们的客户非常喜欢这一紧凑的设计。这就是他们想要的前视摄像头。

当涉及到带有集中计算平台的多摄像头系统时,这也是我们为这些领域设计 EyeQ5 的时候,大概三到四年前开始,我们设定的设计目标就是让它成为一个可编程的平台。

我们现在在海外有四五个客户,跟我们一起进行 EyeQ5 芯片的软件开发,OEM 或者 Tier1 伙伴提供额外的开发空间。这就是 EyeQ5 设计的框架。根据定义,EyeQ5 能够支持让第三方编程。

几年前,我们还宣布了在 EyeQ 上支持并入驾驶员监控系统,这也是我们愿景的一部分。EyeQ6 上我们更进一步。EyeQ6H 能支持视频播放,通过 GPU 和 ISP 来实现可视化,这些内容我们都希望能够满足 OEM 定制化需求,能够跟他们一起合作,也就是说,我们支持一个由我们的合作伙伴定义的外部软件层。

简单总结来说,基础 ADAS 是价格非常敏感的产品,我们的客户不需要在 EyeQ 芯片上编程,比如 EyeQ4 芯片,只需要在挡风玻璃后面提供安全辅助功能即可。

这些客户他们追求的是最经济、最安全和最低功耗的能提供功能的产品。在多摄像头和多传感器系统的中央计算架构中,我们完全满足了合作伙伴对 EyeQ 编程的需求。

关于 Mobileye 对算力的看法

提问:我们在 CES 发布的 EyeQ Ultra 芯片的算力是 176 TOPS,其实这个相对于英伟达等一些行业竞品来说并不算高。那么 Mobileye 如何看待算力和 L4 级以上无人驾驶之间的关系?

回答:我认为这显然呼应了 Shashua 教授的演讲,我们也非常坦率地认为 TOPS 是一个非常不充分的计算能力指标。我们集成到 EyeQ 芯片中的计算模型非常复杂,远不是某一单一指标能量化的。不仅仅是高值 TOPS,在这种任务中运行的工作负载的类型在线程级并行、指令级并行和数据级并行之间是不同的,其方式比仅仅优化神经网络要复杂得多。

所以第一,这一指标是无效的。佐证就是我们能够在两颗 EyeQ5 芯片上运行整个 SuperVision 系统。这整个由两颗 EyeQ5 芯片支持的 SuperVision 系统,在数量级上远低于其他竞争对手谈论的算力或 TOPS 指标。

我们只是简单地在硬件中构建和共同设计软件,计算密度比 TOPS 囊括的维度更多更广。但是计算密度让我们能够在两个 EyeQ5 芯片上运行一个非常广泛的任务剖面,用 11 个摄像头感知整个环境,在地图上定位,生成驾驶策略,并在此基础上计算 RSS。

第二点也是我们需要记住和认识的关键要素。我们从事自动驾驶产品方面的工作已经超过 20 年,计算的能耗要求在产品的经济性方面是非常关键的。

我们知道 EyeQ Ultra 的设计效果应该足够媲美目前我们运行的,基于 8 颗 EyeQ5 的 Robotaxi 的自动驾驶系统 Mobileye Drive,足够运行相同的计算,功耗将是 100 瓦。这在电动汽车的世界里是前所未有的,这是一个关键的标准,关键的 KPI,对汽车电动汽车,我们不希望关键能耗会耗尽电池电量。

关于中国本土数据中心的规划

提问:本届 CES 上 Mobileye 宣布了会建立中国本土数据中心,并且扩大 Mobileye 在中国团队数量,这是不是意味着 Mobileye 视觉方案中非常重要的一环,REM 有希望在中国落地呢?如果一切推进正常的话,大概是在怎么样的时间节点落地呢?

回答:我们确实在打造一个强大和重要的中国团队,在极氪的合作中我们已经在做了,这已经成为现实。这对 Mobileye 来说是非常重要的一步,能够在这样大型的组织中灵活开展工作,我们从英特尔内部抽调了人员,从以色列也调配了技术人员到中国。

对于 REM 技术,在极氪 001 的车型中我们已经搭载了 SuperVision,众包地图技术也在产品内容之中。REM 会以完全合规、完全本地化的方式在中国使用。这对 Mobileye 非常重用,我也很期待未来 REM 在中国的上线运行。

关于 Mobileye 对 EyeQ6L 产品定位的思考

提问:EyeQ6L 是 EyeQ4 的一个后续作品,那除了体积上,它整体的性能是有提升的吗?

回答:新的 EQ6 产品的能力来说,它非常契合市场需求。EyeQ6 Light 计算能力更强和功耗更低,用以满足基础 ADAS 细分市场的需求,在这个市场我们需要一个高度集成的、非常高效的、兼具成本和功耗的解决方案,而 EyeQ6 Light 无疑在这两个方面都完全满足市场需求。

我们提升了其算力,但是再说一下,靠算力来衡量的指标是错误的。与其上一代的基础 ADAS 产品相比,EyeQ6 Light 的算力是其 2.5 倍,能耗也更低,是一个很有竞争力的产品。

此外,该产品还考虑了附加摄像头的潜力,将多个摄像头作为基本 ADAS 的一部分,如司机监控系统,或后排停车或 AEB。EyeQ6 Light 这一基础 ADAS 是为了满足全球范围内不同的标准诞生的。

EyeQ6 High 设计的时候增加了视觉展示的能力,这是一个重要的特性,是在 EyeQ5 的基础上实现的完全的提升。算力方面,跟上一代 EyeQ5 Hight 相比,增强了 2.5倍。

关于 Mobileye 对芯片市场竞争格局的看法

提问:不管是国内市场的芯片,还是国际市场的芯片,现在都有比较清晰的格局,比如像英伟达在高端的智能汽车上已经拿到很多订单,华为也在国内一些车厂做市场份额的争取,另外像高通也拿到了。

像我们的 EyeQ6、EyeQ Ultra 这些芯片可能都要到 2024 年、2025 年了,那么在这个时间节点上,从规划上来说,是否我们已经有一些落后了?或者按照我们的节奏是根据市场的需求来做的布局?

回答:非常重要的一点是,销售 SoC 的公司与提供非常强大的、经过验证的解决方案的公司非常不同。谈到市场的时机,同您的观点一致,在 24-25 年我们看到了市场对 EyeQ 芯片的巨大需求,后面我们可能也会逐渐宣布相关消息。

我们之间立场是完全不同的,也许我想再强调一下我们正在做的事情的重要性。需要解决方案的 OEM 需要的是一个可扩展性很高的解决方案,这意味着要能适合低端市场的解决方案,并且可以通过增加附加内容和附加功能来匹配适应中端市场和高端市场。验证的问题是,人们需要可扩展的内容和可增加的功能的原因。一个复杂和关键的系统,如驾驶辅助或自动驾驶系统,需要非常严格的安全运行验证。

业内人士都清楚,当你将系统分解来满足多个方面的需求,只能在增强或增加的系统上做稍许的差异验证,比如雷达和激光雷达的子系统,以及从高端辅助驾驶过渡到消费级 AV。

把我们强大的前视基础 ADAS 摄像头物尽其用,并作为全环视 SuperVision 的一部分,这方面所需的数据验证也是一样的。所以跟其他从事 SoC 算力或其他技术指标竞赛的 SoC 公司相比,我们的立场完全不一样,他们的做法并不能交付或保证在这些 SoC 上打造出可拓展,经济可行的解决方案。

提问:现在中国本土的这些芯片公司,做自动驾驶芯片的公司越来越多,未来几年还会诞生出更多的中国公司在这个领域。还有这么多的竞争对手来说,Mobileye 有哪些策略能够在销售方面,或者怎么能打动更多的 OEM 厂商,打动更多的整车厂,希望他们能用 Mobileye 的产品,而非英伟达、高通的,在这个环节,我们怎么能够更快的进入状态,或者更快的进入这个市场当中掌握话语权?

回答:我之前回答有谈到过,我这边说得更清楚一些。现在有很多「登月项目」类型的 Robotaxi 项目,他们的车上装了非常多的传感器,堆砌了很多计算平台,在有限的区域行驶。这跟针对大众市场的量产自动驾驶解决方案完全不一样。

量产的方案,首先最重要要考虑的是成本,然后是地域可拓展性,即可以在世界任何地方行驶而不是仅在某些固定区域,还有从基础 ADAS 到消费级 AV 方案的整体可拓展性设计。

我之前有说过,可拓展性意味着整个系统的验证必须非常方便,我们的 OEM 伙伴在设计的时候就会考虑验证成本。所有这些因素都将对供应商的世界产生巨大的影响。

有些 Robotaxi 的供应商只能在固定地区作业,这跟规模化的消费级 AV 完全不同,这些是非常重要的技术发展和市场演变。要做到量产的消费级 AV,需要的是不同的技艺、不同的经济性、以及对自动驾驶产品交付的深刻理解。

关于 L4 的看法和规划

提问:关于跟 OEM 的合作,比如 Mobileye 提到与极氪将在 2024 年推出 L4 自动驾驶能力的车,但是我看到现在极氪第一款产品极氪 001 ADAS 目前还在跳票,2024 年量产 L4 这个时间表是否有些激进或者乐观?

回答:并不激进,我们目前取得的进展是不可思议的。

我们在一年之内就将硬件产品全部生产出来了。请记住,这些系统在全球的多个地点运行,都使用了相同数量的 EyeQ5 芯片,并且提供了非常广泛的功能。

很多 OEM 都依赖我们产品的能力,这就是最好的证明。在此计算单元内运行是非常活跃的,生产过程也是经过验证的,强化这一系统并且针对特定的车辆进行定义,这都涉及到生产的其他要素。我们前行动力十足,对于交付时间和功能也是紧凑、积极和成功的安排,跟我们的消费级别的 AV 一样。

在这项目中,硬件是提前设计的,与我们和极氪一起完成的一年期的 SuperVision 项目相比,这个项目的产品化过程速度更快。系统本身来说比较相似,系统本身都是可操作的。这个系统运行在相同的计算配置 6 颗 EyeQ5 芯片上,可用的功能和把产品化集成到车辆的进度都很快。我们跟极氪都坚信并且很兴奋能够宣布这一革命性的产品。

提问:之前 Mobileye 说要跟蔚来合作自动驾驶的电动汽车,并说要在 2022 年推出一个自动驾驶的出租车服务。那么本次跟极氪有进行合作开发 L4 能力的车,那这个合作跟此前蔚来的合作是不是有冲突?Mobileye 原定的 Robotaxi 计划是不是有变?极氪前几天也宣布了跟 Waymo One 提供一个专属的无人车队,这个对 Mobileye 有什么影响吗?

回答:Robotaxi 和消费级别的 AV 之间的关系不是相互冲突的,而是相互协同的,建立这一关系非常重要。

我们现在之所以能够负担得起消费级别的自动驾驶功能,是因为在我们的 Robotaxi 解决方案中,我们对系统的经济采取了非常严格的设计限制。

我们计划于 2022 年在特拉维夫和慕尼黑推出基于蔚来 ES8 车型的 Robotaxi,由我们的 8 颗 EyeQ5 芯片驱动的自动驾驶套件 Mobileye Drive 来提供支持。

在极氪的消费级别的 AV 合作中,我们把该能力迁徙到了搭载 6 颗 EyeQ5 芯片的 ECU。在多维度的深度战略层面,我们跟极氪都有紧密联合。把汽车卖给任何其他渠道当然是极氪的权益,他们能够满足其他客户需求从而销售自己的车辆,这是 OEM 的本职。能够跟极氪合作推出这些新产品和促进未来潜在的购车订单,我们很骄傲也很开心。

提问:这次 CES 上,专门说了 L4 的部分,我想了解一下,两位怎么看中国市场 L4 这一块的发展?

回答:首先是从我们提到的在全球多地部署的车队开始,它们展示了我们的解决方案的地理可扩展性,这意味着我们可以在几乎任何地方部署基于 REM 地图技术的自动驾驶技术。

从数据的角度这非常关键,仅通过在全球 6 个城市部署车队,我们证明了我们的愿景,即只有通过众包构建的高精地图才能让自动驾驶车辆真正在各个地方行驶。

截止到现在,仅在不到一个月的时间内,我们在 6 个城市就完成了部署。这是我们能力的强有力证明。我们称之为 AV 地图的内容远远超出了对道路、几何形状和道路边界的简单几何描述。

它承载了大量语义信息,这使得在新地域进行高效、无缝的部署成为可能。其中一个核心要素,即 Shashua 教授在 CES 的演讲中提到的第二个要素就是精简计算。通过精简计算,我们可以实现自己的目标。

我们的 SuperVision 系统,即我们 L4 的子系统之一,靠两颗 EyeQ5 驱动。到 L4 阶段,我们的Robotaxi 搭载了 8 颗 EyeQ5 芯片自动驾驶系统,我们称之为 Mobileye Drive 系统,获得了世界多家客户的订单。

通过逐渐丰富设计运行域,我们的消费级 AV 也会逐渐落地。消费者将能够在限制更严格的高速公路或交通拥堵的环境中开始过渡到自动驾驶,并逐渐通过 OTA 获得更广泛的自动驾驶操作范围。通过跟极氪的重要的强有力的合作,在中国首次落地 L4 消费级车辆,我们能实现这一未来。

我们看到,Mobileye 在 2017 年设定的系统设计,为消费级别的自动驾驶产品的降低了成本。这是一个重大信息,所有的数据点都证明了我们的设计是可行的。

关于 Mobileye 对不同地域驾驶风格的思考

提问:每个国家路况和交通法规有很大差异,Mobileye 如何在中国保证采集足够多的路测数据用来训练软件?

回答:一个是计算机视觉算法训练需要的数据,一个是通过众包构建 AV 地图所需要的数据。

我们在全球的多个项目给我们提供了一个非常庞大的的数据库,200 PB,Shashua 教授在今年 CES 的演讲中提到了。通过和 OEM 伙伴一起合作开发丰富的产品,进行项目部署,我们采集到了来自全球的各种视频数据。通过开发和整合我们的产品,在全球推出产品,我们不断收集到全球各地的视频数据。

第二个内容,AV 地图的聚合,我们众包的方法是自下而上设计的一个非常精简的方案,我们从车端到云端传输的数据量非常小,以此来绘制地图。

给大家一个大致的概念,就好像我们每年在 YouTube 上播放两个视频,我们收集了所有有用的信息,这些信息来自于搭载了 EyeQ 芯片的量产车辆。我们说的是从一辆车上每年我们可以收集到几十或 100 兆字节的数据,这是非常经济的思考和设计。构建这张地图的回报是巨大的。

我们下面来谈谈机器对驾驶这件事是如何理解的,我们并不是基于数据来训练这种理解能力,而是建立了对道路几何形状、道路边界的非常严格的理解,以及一套非常丰富的语义指示,以指示机器如何在该地区驾驶。

一个很好的例子是,比如在某个区域常见的速度,另一个例子是交通灯与车道或车道交通标志的关系。当我们在全球多个城市部署时,我们学到的另一个重要语义非常有用,那就是研究路口的含义,如何在通过一个路口时最大化可视程度,同时最小化事故风险。

对司机来说,让他行驶在一个熟悉的路口,这非常简单。如果在不那么熟悉的路口,就需要学习一下了。我们通过众包的方式来聚合这些来自人类驾驶员的知识。因此,任何一条路对我们来说都是熟悉的,这是我们对 AV 地图的一个非常重要的理解。我们在真正上路之前,熟悉和理解道路,这是我们使用数据正在做的。但这些数据却不是用来训练系统的理解能力的。

本文著作权归作者所有,并授权 42 号车库独家使用,未经 42 号车库许可,不得转载使用。

评论 · 0

0/3
大胆发表你的想法~
30
5