头像
9路巴士
04-20 08:59
小鹏智驾大模型:720亿参数背后的“算力突围战”(信息仅供参考)

自动驾驶圈最近有点“卷”:理想的智驾系统刚量产,地平线和小米就用论文抢占技术高地,而小鹏则掏出了“720亿参数大模型”这个狠招。简单说,小鹏想在云端先训练一个超级聪明的“大脑”,再通过“模型蒸馏”把它压缩成能装上车的“迷你大脑”,让汽车智驾能力实现质的飞跃。

为啥车企都在为“大模型上车”头秃?

自动驾驶卡在L4级多年,核心难题是车端算力不够,处理不了“鬼探头”“暴雨模糊车道”等极端场景(俗称“长尾场景”)。多模态大模型(比如能看图片能聊天的ChatGPT)出现后,大家看到希望——但这类模型参数动辄几百亿,放云端联网用还行,装车就犯难:车载芯片算力弱、内存小,跑不动“完整版大脑”。

理想的方案是“快慢双系统”:让传统端到端模型当“主驾”实时开车,本地部署一个简化版视觉语言大模型(VLM)当“副驾”,偶尔帮着识别复杂场景。但VLM每秒只能跑2.4次(2.4Hz),太慢了,只能“打辅助”。

两条技术路线:速度派VS能力派

1. 速度派:放弃“全能”,追求“快准狠”
理想、小米、地平线选择“轻装上阵”:不用同时处理图像和文字的VLM,改用纯语言大模型(LLM)。比如理想的MindVLA先把摄像头画面转化成“精简版数据”,再让LLM快速推理驾驶策略,最后用扩散模型生成轨迹。地平线的方案在4090显卡上能跑到45Hz(每秒45次),速度足够实时控车。这类方案的核心是“用更快的模型实现够用的智能”,适合先量产落地。

2. 能力派:云端训练,压缩上车(小鹏&高通的选择)
小鹏反其道而行之:先在云端用720亿参数的“小鹏世界基座模型”疯狂学习,再通过“模型蒸馏”把大模型的知识“浓缩”到小模型里。原理类似“学霸划重点”:大模型学透所有知识,小模型只记“精华”,既能保留能力,又能缩小体积。高通之前的实验显示,蒸馏后的模型在复杂场景下轨迹误差降了44%,碰撞率暴跌80%,但尴尬的是,这些数据是在3090显卡上测的,离车端实际应用还有距离——毕竟车载芯片算力比显卡弱得多,得继续“减肥”(剪枝、优化)。

小鹏的挑战:“蒸馏”能留住多少“聪明劲儿”?

小鹏的优势在于“先堆参数再压缩”,理论上小模型能继承大模型的复杂决策能力。但难点也很明显:蒸馏像“翻译诗歌”,压缩过程中难免损失细节,比如大模型能识别100种罕见路标,小模型可能只剩80种。高通的论文没提车端实测数据,小鹏也面临同样问题——2025年底要量产的“小模型”,究竟能在算力有限的Orin/Xavier芯片上跑出怎样的水平,仍是未知数。

智驾大战,谁能“把大模型塞进方向盘”?

目前行业分两派:一派像理想、小米,靠“轻量化大模型”先实现量产落地;另一派像小鹏、高通,赌“蒸馏技术”让车端拥有接近云端的智能。特斯拉据传在搬Grok大模型上车,但尚未官宣。这场“算力与效率”的博弈中,谁先解决“大模型上车”的速度与能力平衡,谁就可能在L4级智驾竞争中拔得头筹。毕竟,用户不在乎参数多少,只关心关键时刻能不能“稳得住”。

(注:文中数据均源自公开信息及行业论文,未发现冲突或错误。小鹏720亿参数模型为研发中项目,具体落地效果待时间验证。)
最新评论
暂无评论