• 最近访问:
发表于 2025-06-18 23:54:40 股吧网页版
何小鹏的AI帝国里,没有激光雷达
来源:21世纪经济报道

K图 09868_0

K图 XPEV_0

  两款新车,一场会议,小鹏的AI帝国逐渐成形。而在这个帝国里,没有激光雷达。

  近日,小鹏汽车自主研发的图灵芯片首次上车,搭载在小鹏中型SUV G7上。据何小鹏介绍,一颗图灵芯片的有效算力,等同于三颗英伟达Orin X,整台G7的有效算力超过2200Tops,是L3级自动驾驶的门槛。

  另一款车是小鹏 Mona M03的顶配版。它于两周前上市,相比标准版配备了两颗Orin-X芯片,算力达508TOPS,小鹏称其为“L2级自动驾驶的门槛”。

  借着发布会,何小鹏以及小鹏汽车多位高管集中开炮——小鹏将摘下激光雷达,因为激光雷达“看不远、干扰多、帧率低、穿透性差”。从今以后,小鹏将采取纯视觉方案。

  在全球计算机视觉顶会 CVPR 2025 上,小鹏世界基座模型负责人刘先明发表了题为《通过大规模基础模型实现自动驾驶的规模化》(Scaling up Autonomous Driving via Large Foundation Models)的演讲,进一步解释了小鹏成为“纯视觉坚定派”的背后逻辑。他指出,通过定制 AI 编译器、协同设计模型架构等方法,小鹏的VLA和VLM大模型与图灵芯片已实现耦合,世界基座模型即将迎来质变。

  纯视觉与激光雷达方案的恩怨由来已久。2013年,特斯拉曾和谷歌讨论过是否使用激光雷达,当时一台激光雷达的价格几乎等于一辆特斯拉。后来马斯克又总结出他的自动驾驶“第一性原理”:“人类开车时不会用眼睛发射激光,除非你是超人”,表示坚持纯视觉一百年不动摇。但他可能忽视了激光雷达的成长性,12年后,激光雷达的成本下降了400倍,禾赛CEO李一帆在接受《21汽车·一见Auto》采访时表示,他们已经将激光雷达的价格压到200美元。

  因此,这边小鹏将纯视觉的高阶智驾能力下放到13万元起的Mona Max,另一边,激光雷达也下探到了这个价格区间:

  3月7日,搭载激光雷达的广汽丰田铂智3X发布,售价13.98万元起;3月10日,搭载激光雷达的零跑B10发布,售价12.98万元起。3月份令全社会痛心的安徽小米SU7智驾事故后,更多品牌转向激光雷达方案,如小米YU7全系标配激光雷达,理想汽车CEO李想在接受采访时更称“如果马斯克来中国,特斯拉也会保留激光雷达”。

  在这轮集体倒向激光雷达方案的趋势中,何小鹏正在孤独地挑战“多一个激光雷达,就多一份安全冗余”的惯性思维。他试图重新定义辅助驾驶的标准:不是配置,“算力”才是检验辅助驾驶的第一标准,智能驾驶好不好,先看算力多少,再看模型参数多少。

  他还企图抢占智驾高地,展示小鹏领军者的姿态:大算力+大模型时代,小鹏与特斯拉使用的视觉融合感知方案上限更高,时延更低,安全系数更高。

  这两种方案自诞生以来,一直被质疑,一直在成长。在智驾平权的下半场,L3量产的前夜,纯视觉与激光雷达方案的竞争进入白热化阶段,终局将浮出水面,而衡量两者优劣的标准只有一个:安全。不是哪种方案更前卫、更时髦、上限更高,而是谁能拥有更稳定的下限、能更大概率地防止事故的发生。

  做纯视觉的“孤勇者”

  综观小鹏的纯视觉方案,核心只有一个——“大脑”。

  何小鹏表示,在一双“更聪明的前视眼睛”和一个“更强大的大脑”之间,他们选择了后者。所谓“大脑”,意指小鹏打造的拥有720亿参数的多模态世界基座大模型。《21汽车·一见Auto》此前曾报道,小鹏验证了模型参数规模扩大到百亿级别之后,规模法则仍然可行。何小鹏向媒体表示:“物理世界的Scaling Law,我还远未看到尽头”。

  如何打造一个“更强大的大脑”?除了在模型参数上做文章,小鹏的思路可以总结为“大数据+重算力+轻雷达”

  “大数据”方面,这次 CVPR 2025 上,刘先明透露的第一个核心信息是,小鹏目前已经训练了超过40万小时的视频数据——相当于AI看了3万部《流浪地球》,视频数据量将在今年增加到2亿clips;

  为了训练世界基座模型,小鹏汽车重构了底层的数据基础设施,在CPU、GPU等方面做了联合优化,主要集中在Dat (CPU) Optimization(数据加载)、Trainer (GPU) Optimization(计算训练)、Fault Tolerance(容错)三方面:

  如果把训练模型想象成做菜:

  ·优化数据加载就好比“备菜”——提前处理好复杂食材(Aggressive data materialization,激进数据物化策略)、优化食材分配(Optimized shuffling modes balancing speed and randomness,优化打乱模式,在速度与随机性之间取得平衡)等;

  ·优化计算训练就好比“炒菜”——精准调度不同火候(FP8 mixed precision training,FP8 混合精度训练)、用定制的不同厨具(Custom Triton kernels,自定义Triton 内核)等;

  ·最后的优化容错,就好比给炒菜上保险,隔一段时间就“存档(Faster in-memory checkpointing,内存检查点加速机制)”,万一停电、锅坏了,还能接着炒。

  “重算力”方面,小鹏智能算力集群正向两万卡水平前进,云端集群运行效率常年保持在90%以上。

  刘先明在 CVPR 2025 透露的第二个核心信息是,小鹏GPU的流式多处理器的利用率(streaming multiprocessor utilization,即SM utilization)达到 85%,好比工厂有 100 个工人,有 85 个工人都在拼命干活,只有 15 个暂时闲着 —— 这说明小鹏的GPU计算资源几乎被榨干了,训练模型的速度会更快。

  何小鹏强调,现在比较自动驾驶水平,看开城数量已经没有意义了,算力才是基础,“我们把所有的自动辅助驾驶公司的算力‘天花板’都拉起来了。未来如果要买一台智能汽车或者买一台更高等级的AI汽车,首先问他有多大算力”。

  最后的“轻雷达”则是最受人关注的,小鹏专门解释了摘下激光雷达的理由:

  第一,去掉激光雷达后,节约了20%的感知算力,模型反应更快。小鹏自动驾驶产品高级总监袁婷婷在5月8日于微博发文表示,“去激光雷达后使计算简化,端到端的延时大幅降低,视觉的响应速度是激光雷达的近2倍.....视觉信息处理帧率达到业界主流激光雷达处理帧率的12 倍,大幅度提高城市辅助驾驶的安全级别”;

  第二,小鹏汽车的AI鹰眼智驾方案中,摄像头是前向+后向800万像素,结合Lofic技术,是行业内车规级最高精的摄像头,“感知距离提升125%,识别速度提升40%,看得比人类远,在夜间、大逆光、雨雪天等看的比人眼更清楚”;

  第三,何小鹏说,“想要做到全域(安全),环视的能力特别重要......(纯视觉)能让用户获得360度的安全,不光是夜晚安全,在城区、下雨、周边有人有车也安全”。

  自动驾驶工程师的 3 个质疑

  一位在国有车企工作的汽车工程师告诉一见Auto,采取哪种技术路线都是主机厂基于自身的组织架构以及已有的技术积累作出的最优选择。

  感知层产品经理Hill在一家综合型智能汽车Tier 1供应商工作,其公司曾连续几年入选全球汽车零部件百强。Hill认为,小鹏可能觉得加上现有的低成本激光雷达,作用不是特别大,对于它差异化营销的价值也不大,所以干脆选择纯视觉方案。因此摘掉激光雷达,更像是小鹏为了运用他们规则时代的积累,沿袭整体的AI思路,在研发和宣传上着重突出自身模型、算力、数据的先进性。

  需要注意的是,小鹏摘掉激光雷达并不是出于成本考虑,因为双Orin-X芯片方案和自研图灵AI芯片的价格显然更加高昂,这更能说明小鹏选择在两款车型上作如此配置,是为了与小鹏AI思路一脉相承。

  何小鹏提到,“不要卷价格,要卷科技”,这才是Mona M03 Max产品发布的真实意图。Mona系列的火爆,看似得益于小鹏的年轻化营销,比如以青春为主题的色调、邀请何广智和王勉两位脱口秀演员以及欧阳娜娜的压轴出场。在外人看来,小鹏这半年之所以打了一场漂亮的翻身仗,是因为以前只会堆参数,讲技术的何小鹏,如今终于懂得抓供应链,打造产品。但小红书上用户所惊艳的欧阳娜娜的流利讲解,内容的大头依然是智能辅助驾驶。

  而G7的发布,就是小鹏彻彻底底地向同行放话:智能化依然是小鹏最重的标签,极客仍然是何小鹏不变的底色。小鹏的野心是打造一个AI帝国,今年要在中国内地率先实现L3落地,明年人形机器人IRON要进入工业化量产,在未来,用户将会为小鹏不同的AI能力付费。

  这一系列操作固然环环相扣、深谋远虑,但一些专家对小鹏的纯视觉方案提出了疑问。

  比如,小鹏宣称“去掉激光雷达能节约20%算力,让模型反应更快”,但自动驾驶感知和控制系统工程师“雪岭飞花”并不同意。“雪岭飞花”在微信平台运营同名公众号,在辅助驾驶领域颇有影响力。他向一见Auto 表示,激光雷达在控制系统里面占多少算力,取决于系统在设计之初想如何利用激光雷达点云数据,可能占20%,或者80%、10%等等,每个系统都不一样。

  另外,有些硬件缺陷无法通过软件来弥补,去掉激光雷达之后,为了弥补视觉在感知层的弱项,可能需要视觉花费更多的额外算法。随着端到端架构的深入,所有视觉、激光雷达、毫米波雷达等感知信息都会直接送到大模型做编码,增加激光雷达带来的额外感知算力将非常有限,也不会多花多少时间。占用算力的主要是大模型,而不是激光雷达,不见得拿掉它后模型反应速度会更快。

  还有,小鹏称其AI鹰眼智驾方案是行业首个采取单个像素LOFIC架构,能比人看得更清、更远等等。

  深扒一下,该技术最早由荣耀手机提出,旨在解决传统影像传感器在高光场景下易过曝的问题,让拍摄出的照片更加接近现实中的光影效果。“雪岭飞花”告诉一见Auto,LOFIC技术工艺复杂、面积大、成本高,而且从荣耀Magic6至臻版的商用结果来看,并没有展现出如官方宣传般的动态范围提升效果。当然,他也期待小鹏能成功应用。

  最后,何小鹏认为视觉能做到“环视、360度的安全”,“雪岭飞花”觉得,是不是360°取决于传感器的布置,视觉和激光雷达,毫米波雷达都可以做到。

  纯视觉 VS 激光雷达:一直被质疑,一直在进步

  小鹏的纯视觉方案中,依然有毫米波雷达和超声波雷达,相较之下“祖师爷”特斯拉才是真正的“纯视觉”:只用摄像头,一颗雷达也没有。作为纯视觉自动驾驶方案的“头牌”,马斯克从2015年开始就以几乎“年更”的方式,公开唱衰激光雷达,并发表了不少暴论,如“雷达是一场徒劳的尝试,任何用雷达的人都会完蛋”“就算雷达免费,我也不会用”等等。

  马斯克之所以夜以继日地不断反对激光雷达,来源于他对自身纯视觉方案的自信。

  作为特斯拉车型上唯一的传感器,摄像头存在两个固有缺陷:第一,没有深度信息,所接受的只是一连串二维图像;第二,易受夜晚、大雨、浓雾等极端天气影响,获取的图像质量直线下降,可能导致识别错误或者漏检。

  为了弥补这两个缺陷,特斯拉一直优化摄像头背后的算法和技术。2021年,特斯拉推出基于Transfomer的BEV(Bird's Eye View,鸟瞰视角)算法栈,让视觉感知网络获得了测速、测距能力,能把车辆周围摄像头拍摄的2D画面,拼接成一张完整的俯视地图,让车辆 “看到” 周围 360 度的全景,获得BEV感知。

  隔年,特斯拉又公开发布 Occupancy占用网络,把车辆周围空间划分成无数个小方格,像乐高积木一样标记每个格子是否被物体占据,让汽车仅靠摄像头就可获取周围环境的深度信息,实现高分辨率的三维感知与重建。

  这两项纯视觉感知技术的进步,引发了社会对激光雷达存在价值的第一次质疑。

  而对于摄像头“抓瞎”的夜、雨、雾以及逆光眩光等极端场景,目前被采用较多的技术是HDR(High Dynamic Range Imaging,高动态范围成像)和小鹏提到的LOFIC(Low-Frequency Image Correction,低频图像校正)

  HDR的技术原理,简单来说就是让摄像头首先快速连拍 3-5 张照片,每张照片的曝光时间不同,一张拍亮处,一张拍中间亮度,一张拍暗处细节,再交给计算机将这几张照片的像素“叠”在一起,合成一张亮暗均衡的图片。而LOFIC技术,在夜晚首先会去除画面中因高感光度产生的大量噪点;然后通过多层卷积神经网络 “脑补” 路灯杆、垃圾桶等物体的轮廓,增强其纹理;最后矫正色彩,把车灯照亮的黄色区域还原为真实色彩。

  HDR与LOFIC的分工合作,就像“摄影师 + 调色师”:HDR选择最佳曝光参数,平衡光线,解决极亮与极暗的矛盾;LOFIC调整对比度、锐度、色彩,优化画质,在HDR的基础上,让画面更清晰。

  当然,在雨、雾、雪、尘等极端天气,摄像头或者激光雷达都不是主力,袁婷婷于5月16日在微博发表的文章中提到,这种天气主要依靠的是毫米波雷达。根据波粒二象性,波长越短粒子属性越强,衍射性越差,激光雷达在极端天气下会在传感器附近几米内形成一团噪点,而毫米波雷达波长更长,衍射性好,雨雾特性好。

  不过,以特斯拉和小鹏为代表的纯视觉派,似乎忽视了,激光雷达这十余年从未停止过进步。

  激光雷达起初最被诟病的是价格太高。在诞生之初,激光雷达最大的应用场景是地形测绘和工业,软件算法生态不成熟,未能与汽车行业形成紧密配合。

  那它是如何从起初的一枚高达数十万至上百万元,降到现在的200美元的?

  李一帆在接受《21汽车·一见Auto》采访时表示,为了降本,禾赛在行业的早期就投入了极高的成本,建立了行业内最大的自研团队,自研了最关键的器件,将它们压缩成了几颗芯片。Hill告诉一见Auto,目前行业内很多主机厂称禾赛的激光雷达报价已经砍到了人民币三位数。

  激光雷达很便宜,小鹏汽车为何还是放弃?何小鹏在接受媒体采访回应称,小鹏选择了“让大脑更强”,但也有友商选择不同道路。条条道路可能都能通罗马,但我们觉得,“我们是一个最优解”。

  激光雷达的另一个问题是存在“多径效应”。袁婷婷在文章中指出,激光雷达在测量远距离的复杂地形或障碍物时可能发生多次反射,导致回波信号混叠,使得原来的信号失真,或者产生错误,难以准确识别甚至误识别真实目标。

  Jade在一家激光雷达龙头供应商担任产品经理,其公司在全球车载激光雷达市占率位居前列,是激光雷达的专项技术提供商。他告诉《21汽车·一见 Auto》,“这已经是两年前的论调”,现在存在很多方法解决多径效应:

  比如,用大量包含多径效应的激光雷达数据训练神经网络模型,学习多径信号的特征,记住多径信号的常见模式——如反射次数多导致信号强度衰减、波形畸变等——将其标记为可疑数据,输出时过滤掉这些干扰。又比如,在激光雷达方案中还存在多种传感器,可通过多源数据对比排除多径干扰。

  总的来看,正是这一路上面临的需求与质疑,倒逼纯视觉与激光雷达不断改善自身,形成了这两大派别。

  “雪岭飞花”认为,视觉肯定是目前智能驾驶系统感知的绝对主力,激光雷达取代不了视觉。因为摄像头分辨率高,语义信息丰富,激光雷达无论怎么改善也无法识别语义。即使在激光雷达多传感器融合方案中,感知也是主要依赖视觉,激光雷达只是起到补充作用。

  现在的问题是,激光雷达是否具备不可被视觉替代的核心优势?

  “雪岭飞花”认为,激光雷达的核心优势在于测距精度高,可以直接检测目标,暗光、眩光等情况下都可以正常工作。摄像头接收的是被动光线,但激光雷达是通过主动发出激光,再接受反射后的激光,计算出车辆与障碍物的距离。即便软件算法和硬件技术再怎么提升,摄像头的测距效果最多是相对于传统摄像头有提升,不可能100%解决。例如在完全无光的场景,摄像头探测到的范围一般很难超越车灯照射范围以外,但激光雷达可探测的范围却达两三百米甚至更远。

  除了黑暗以外,Jade补充,在一些具备视觉欺骗性的场景,激光雷达也有不可替代的物体识别优势。2016年5月7日,一辆特斯拉Model S在美国佛罗里达州高速公路上以自动驾驶模式行驶时,径直撞向前方一辆白色外观的卡车,最后车毁人亡,业界普遍认为,是由于被撞的白色货车车身产生强烈反光,导致特斯拉摄像头将其与天空混淆。前NASA工程师Mark Rober在今年3月15日在Youtube上发表了一则视频《如何骗过一辆自动驾驶汽车》,视频中他将一面与周围环境融为一体的塑料墙放在道路中央,测试自己的特斯拉车型是否能识别前方障碍物,最后该试验没有成功。

  但无论车厢的白色是否与天空一体,或者墙的外观是否与环境一致,都不会影响到激光雷达判断前面存在障碍物。激光雷达虽然无法识别物体的颜色与纹理,但能通过点云数据确实知道前方存在物体,从而触发AEB,规避事故的发生。

  最后,法雷奥集团中国首席技术官顾剑民表示,摄像头可能只认识数据库中出现过的物体,但对于未出现过、未学习过的异形障碍物,纯视觉方案未必能识别,这也有可能导致事故的发生。

  先拼下限,再谈上限

  探测范围更远、测距精度更高,和在具备视觉欺骗性、未学习过的异形障碍物等更多的corner case中依然保持对物体的识别——激光雷达的这三大核心功能,能否被纯视觉替代?

  在小鹏看来,他们的纯视觉方案不仅可以,还更好。第一,小鹏的AI鹰眼智能方案能让摄像头不仅在各种条件下看得比激光雷达更远,还更清晰;第二,“大算力可以大幅度提高AI能力的上限,也能够大幅度提升AI能力的下限,特别是跟安全相关的下限”;最后,至于Corner case,如果基座模型足够强大,“大脑”足够聪明,就能被强化学习不断激发出能力上限,提高模型的泛化性和对未知场景的理解和推理能力,找到最可能降低风险的路径。何小鹏认为,“在AI时代里,AI会越来越泛化,越来越聪明,会通过接近无穷的长尾数据里面超高度压缩和折叠,找到长尾数据的共性,这就叫涌现。”

  而“雪岭飞花”的观点,相对来讲温和很多。在他看来,智驾系统最重要的需求是安全和性能,如果目前视觉技术已经可以解决一切感知问题,那就用纯视觉。如果答案是否定的,肯定要考虑同时使用其他传感器。没有传感器是绝对完美的,每种传感器都有其优势场景和弱势场景,多传感器融合能最大化的弥补各自劣势,减少Corner Case,提升整体安全性。

  顾剑民进一步指出,在当前的L2阶段,上不上激光雷达,其实“无所谓”。因为根据交通法规,L2级别的辅助驾驶场景中,驾驶员始终要注视前方、手握方向盘。此时是否有激光雷达并不重要,因为倘若发生事故,负责任的是驾驶员自己。

  但在L3甚至以上的阶段,就完全不同了。车企可以不上激光雷达,但必须证明纯视觉方案更加安全。纯视觉方案摘掉了激光雷达,但带激光雷达的多传感器融合方案却从未排除摄像头,甚至现在为了解决黑夜无光的问题,已经有供应商推出了红外摄像头。多种传感器之间并非非此即彼的关系,尺有所短,寸有所长,并存是为了尽可能增加系统的安全冗余。

  更重要的是,在L3及以上的自动驾驶阶段,车企“做减法”可以,前提是发生事故需要由车企自身负责,否则与不负责任的“渣男”有何区别?

  应该对小鹏和特斯拉保持尊敬。多一个选择,永远比少一个选择更好。他们的纯视觉方案企图“一力破万法”——砸算力、砸数据、不断优化模型本身,这也许是上限更高的路径。但也必须看到,这条路径更烧钱、见效更慢、技术难度更大,同时表现还不稳定,需要不断迭代。何小鹏表示,小鹏辅助驾驶系统在年底会有次大更新,“就像去年8月到今年5月的几次OTA之间,差距非常大。我们的纯视觉系统的变化,将会翻天覆地.......最迟到2027年,纯视觉与激光雷达之争就会结束。”

  “雪岭飞花”觉得,自动驾驶路线本身没有所谓的“胜利”或者“失败”,最终路径的选择都是安全、性能、成本的综合考量,假如有一天不用激光雷达能够证明有足够的安全性,他一定支持。

  顾剑民则认为,说2027年会结束路线之争缺乏依据,车企不能习惯“吹牛”——“马斯克早在2016年就说,特斯拉车主马上可以把他们的爱车当作robotaxi上街去运营,结果呢?”他认为,最终还是要看纯视觉系统和带激光雷达的感知融合系统的实际对比结果。消费者不要只听宣传,要看“疗效”。

  不管模型算法如何更迭,传感器是祛除还是出新,对于用户来说,自动驾驶的答案永远只有一个:哪种方案下限更高,更能避免事故的发生,那就是答案。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
郑重声明:用户在社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500