小鹏G9驾驶体验之十一:V4.2驾驶体验

头像
朱文亮
2023-04-10 21:15

外观和基本功能可感知到的变化,我就不说了,我来聊点干货。

V4.2的升级关于智能驾驶上有一大一小的变化:

1、感知的大变化:
1)启用了激光
,感知的准确性和效率得到了大大的提升,最大的可感知的变化是:a、感知延时从2秒提升到1秒,这一秒就是安全,就是底气,能做到1秒已经很厉害了;b、停车时仪表盘上的车和人不再抖动了,说明位置可以确定了,这就是激光雷达的功能。
2)红绿灯信号部分识别,视觉识别红绿灯的技术早就有,就是可靠性问题。

2、动态规划和决策的小变化:
1)路口的动态路径规划,当前主要还是基于高精地图和感知的动态规划,改变之处在于路口的路径规划,因为没有道路线,对动态规划来说是有一定的难度的,体验下来这块做的不是很好;
2)变道的路径规划,这个是吐槽比较多的地方,也是最急需改善的地方,整个规划逻辑太简单;
3)速度控制决策,基于激光雷达的能力,提升了前面障碍物的距离感知能力,根据相对距离和车速能更好的输出刹车油门开合度来控制车辆加速度,可视距离变远,但整体控制的逻辑还是相对比较简单。

本次重点先讲讲感知的变化部分。

一、激光雷达能做什么
激光雷达主要是用于测距、3D地图构建,主要分为:机械式、固态式,他们各有优缺点:

机械式:优点在于360度的可视范围,缺点是使用寿命较短,理想、蔚来、智己,他们头顶顶个包的就是机械式激光雷达,如下图所示:


固态式:优点在于线束可以更密,看的更清楚,但是视角受限,小鹏G9、P7i还有还未都是采用这个方案,如下图所示:


1.2、G9激光雷达的能力

测量距离高达 200 米(150m @ 10%),出点数高达 750,000 点/秒(单回波模式)及 1,500,000 点/秒(双回波模式),水平测角120°(-60.0°~+60.0°),垂直测角 25°(-12.5°~+12.5°)。

具体部分参数如下:


输出的效果:


雷达+视觉(分类和测距),就能很好的解决了车前面是什么(视觉),有多远(激光雷达),并分类:动态和静态,这就给后面的动态规划、决策提供了重要的参考。通过激光雷达,搞定了距离,对原有的高精地图也做了修正和补充。因此可感知的范围变大了,50米内可以清晰确定,虽然激光雷达的可视范围是200,但能准确确定的不超过100米。

所以有了它,道路的边界更加清晰了,人、车的轮廓、距离更加清晰了,静态、动态物体更容易区分了,原来视觉无法识别的异形车辆、物体,可以知道有障碍物,而不会直接过滤掉,提升了安全风险,例如:去年宁波P7撞车事件就可以有效的避免了。

二、红绿灯识别d的问题
很多人都问:红绿灯识别有那么难吗?读秒有那么难吗?高德都可以。

这个真的很难。

2.1、读秒难
先来看一张图,你能告诉我现在还剩余几秒?



摄像头下的视角和我们人类的眼睛有所不同,它的广源反应比较严重,确实看不清楚还剩几秒。解决办法只有两个:

1)V2X(车路协同),优势是近距离通信,不依赖于网络和外界,最为稳定,同时也包括各个方向的红绿灯状态,能很好的解决红绿灯通行问题。这也是国内比较热门的话题,但是基础建设工作量很大,最麻烦的是后续运营维护谁来买单

2)路口红绿灯网联化,同样也是需要大量的基础建设,也是成本最小的方案,但是网络延时和不稳定会是一个问题。

2.2、高德不是通过算法实现了红绿灯读秒吗?
如果是通过算法,理论上每个路口都可以。实际上,它是一种投机取巧的方式来盲猜。红绿灯有自己的周期,叫做配时,如果是稳定的配时,并且配置周期不变的状况下,盲猜可能是对的,但是一旦有所调整,那么就对不上了。配时周期,也是分高峰、平峰、低谷,所以高德那个不是通过算法,只是利用规则来盲猜。

2.3、红绿灯左右转向识别也难
有些路口有左箭头,有些没有;右转同样也是,那么还有一个问题是:车道线,有时候左转和直行是同道,特别是右转,既有单独车道,也有合并车道。

再加上本身视觉识别率本来不可能百分百,估计目前也就98%左右,如果没有导航确定方向的情况下,根本难以识别红绿灯信息,因为不知道该给哪个信号。

三、动态规划和决策
改进的地方:
1)刹车舒适度有很大提升,虽然还经常急刹,得益于激光雷达提供更为精确的位置和速度信息
2)变道增加了提速,增强了变道的成功率

但是整个还是比较简单。安全、效率,它应该形成一个相对较为复杂的决策系统,然后车辆通过个人开车的习惯,调整参数以使车辆更为符合每个车主的性格特点,满足车主的心理承受力,在某些处理方面又比自己更为优秀。

目前这个决策系统的很多决策和判断依据还比较简单,另外当前还是要人来适应车。具体的有机会线下沟通。
(写的实在不想写了)
#G9 XmartOS 体验# @黄小胖 @Rocky

最新评论
暂无评论