我很推崇马斯克的第一性原理:既然人不需要激光雷达就能开车,那么自动驾驶车就不需要!剩下的困难,只不过是发展过程中的短暂痛苦罢了,终究会克服。
摄像头这个东西吧,说实话能力并不强,和人眼睛相比差远了。究其原因,是之前的摄像头只是用于拍摄记录的,并不是为了自动驾驶专用的摄像头。当时没需求,就没发展出来自动驾驶专用的。摄像头传感器与人类眼睛在感知能力上差异还是较大的:
这里提出一个观点:谁说摄像头一定是当下摄像头的感知能力?随着自动驾驶的普及,未来大概率会出现自动驾驶专用摄像头。并且专用摄像头系统需要具备远超人类眼睛的能力,而不是当下逊色于人类视觉的状态。如果基于此的话,摄像头完全可以平替激光雷达。
而摄像头的突破是不是有可能呢?回归第一性原理,从本源出发。如同人类视觉感知就是在感受“电磁波”一样,人造设备感受的电磁波的能力(波长)不同,我们给他们起了不同的名字:毫米波雷达,摄像头,激光雷达。。。。当然如果有需要,我们人类还可以发明出来其他的传感器,去感知特定频段(波长)的电池波。这里如果我们打开思路,摄像头不是非要感知可见光波长的范围,为了适应自动驾驶(雨天,黑天等),我们完全可以搞出来“暗环境摄像头”,来满足自动驾驶的需求。
最初选择激光雷达在于3D成像能力。特斯拉的BEV(鸟瞰视角)算法和OCC占用网络的引入,使得多目摄像头也能具备感知纵深的能力,结果就是给2D图片添加了一个维度,成为3D立体视觉。这个时候昂贵成本的激光雷达就比较尴尬了。
雨天!不受光线影响:激光雷达原理是通过发射激光并接收反射信号来工作的,不受光线变化的影响。即使在雨天,激光雷达仍然能够正常工作,提供准确的距离和空间信息。但是很难想象,我们的需求是:雨天,自动驾驶车辆也要高速狂奔!?人类也是在降速行驶啊。这点,人眼的纯视觉能做到雨天降速行驶,如果再叠加上改良后的暗环境摄像头,纯视觉雨天自动驾驶也是完全可以实现的。
人类为啥没有进化出激光雷达,其实源于自然选择,更重要的是激光雷达的方案更消耗能量。早期人类获取食物活着就很艰难了,哪有多余的能量用于发射激光雷达。反观车辆,一样的道理,我们要的不是昂贵的、高大上的自动驾驶,而那种低成本却刚好解决问题的方案才是最优解!
对比之下,纯视觉具备巨大的成本优势,更易于普及。纯视觉更进一步的成本压力在于对算力的需求,因为更高算力意味着更贵的芯片。而DeepSeek的出现却指出了另外的方向:谁说自动驾驶AI算法一定要高算力?下面这段话虽然难以让人理解,但是给我们展示一种低算力高性能的大模型前进方向。这就是纯视觉的进一步压缩成本的解决方案!未来“片上AI”或许真的可以到来。
DeepSeek采用广义强化策略优化技术,通过纯强化学习直接提升模型推理能力,无需依赖海量标注数据。传统方法需收集大量思维链(CoT)数据,而DeepSeek-R1-Zero仅用规则奖励机制(如准确性奖励、格式奖励)即实现推理能力的涌现,节省了数据准备阶段的算力消耗。通过模型蒸馏技术,将大模型能力迁移至小参数模型。例如,Qwen-14B在桌面级硬件即可运行,性能接近32B闭源模型,推理成本降至OpenAI o1的1/30。引入MLA(多注意力低秩压缩)和MoE(混合专家)架构,动态激活部分参数,减少计算冗余。例如,DeepSeek-V3通过MoE架构将训练效率提升3倍。
基于以上种种,我们现在可以看到各大整车厂在提供两种自动驾驶产品:城市NOA和高速NOA。就当下的技术来讲,城市NOA必然配备激光雷达,而高速NOA则可以完全依赖纯视觉实现。受限于当下的技术条件,这种选择是明智的。但是发展方向呢?
一个视力受损的盲人,无奈选择了一根拐棍作为盲杖,当有一天他视力恢复了,盲杖必然会被遗弃。因为纯视觉还处于发展的阶段,卡在了“拍照摄像头”和“模型算力”的瓶颈阶段,激光雷达成为当下可选、好用的拐棍,以用来实现更加可靠的城市NOA方案。但是这并不意味着未来的纯视觉就会落寞,反而“技术平权”驱动下的成本压力会被放大,更多的企业具有先天“降低成本、占据市场”的原动力,视觉瓶颈必然会被突破,拐棍必然会被遗弃,纯视觉自动驾驶也必然成为主流!kaiyun中国网页版登录kaiyun中国网页版登录
本网站所展示的所有内容仅供参考,Kaiyun中国官方网页不对信息的完整性、准确性或时效性作任何明示或暗示的保证。用户在使用本网站信息时,应自行判断并承担相关风险,公司不承担任何由此产生的直接或间接责任。