看四家技术代表如何演绎智能驾驶的“百家争鸣”!( 四 )


看四家技术代表如何演绎智能驾驶的“百家争鸣”!
文章图片

文章图片
例如在下一秒钟物体会朝着哪个方向移动、速度是多少、是否会阻碍我们的路线等等 , 以此来分配给下游的规划与控制更准确的信息 , 这就是我们在神经网络部分所提到的 。我们这里可以看到 , 特斯拉 AP 软件的重写是基于底层代码以及重构神经网络 , 这也进一步验证了特斯拉“发现视觉存在的局限 , 再解决局限这样的逻辑 。”(2)众包地图显然利用神经网络框架与数据一起融合进来有很多可塑空间 , 例如利用车队众包地图 。这也是特斯拉第一次正面公开、详细介绍了自己的地图信息 。我们知道特斯拉一开始的神经网络在利用多摄像机、单帧做跨镜头的融合 , 每个镜头输出的空间信息不够 。那在加入时间帧组成一整个视频单元后 , 我们就能追踪物体的连续运动状态 。例如在同一个路口处 , 我们可以让多个车在这里跑就能收集到道路信息 , 就算收集的场景有车辆遮挡 , 系统也会自动识别 , 让其它车辆补充数据 。
看四家技术代表如何演绎智能驾驶的“百家争鸣”!
文章图片

文章图片
而这样对于地图数据更新来说也大有好处 。有异于我们利用第三方车队的高精地图 , 多传感器方案与高精地图相互“依赖” , 高精地图的更新除了车队以外 , 还需要有专门的地图车来更新 。
看四家技术代表如何演绎智能驾驶的“百家争鸣”!
文章图片

文章图片
而特斯拉这样的好处在它不需要激光雷达的点云信息 , 而是需要道路中的车道、路标、行人道等基础信息 , 更新以及完善也较为方便 。另外地图数据的存储与使用也可以在线下做标注 , 来赋予更多信息 , 自行维护自行采集 , 当然它也是很“省钱”的 。(3)系统训练那么这么多车队再跑 , 如何找到这些数据、还不重复呢?然后完成训练呢?这样的场景其实并不难找 , 并且有很多 。最简单的当我们捕捉到一个我们从未见过的场景或者需要驾驶者接管的场景 。那么特斯拉只需要设定一个触发器 , 向车队发动「收集指令」 , 只要触发到触发器的内容那么系统就会自动收集视频数据进行自动标注(部分人工)、训练、验证 , 循环多次 , 在拥有大量的数据体量后神经网络会变得越来越好 。例如我们进、出隧道口时遇见的强光场景非常难解决 , 那么这时候就需要做触发器 , 那么这样就能提高捕捉这类场景 , 接着进行大范围的解决优化 。而这样的技术路线拓展依旧充满许多可能 , 例如对于各个国家地区的特殊场景 , 包括针对马等一类动物的感知识别、对雨天、雪天以及雾霾等恶劣天气的数据训练等 。
看四家技术代表如何演绎智能驾驶的“百家争鸣”!
文章图片

文章图片
3、 硬件步入自研(1)芯片走向自研:起初 HW1主要围绕了 Mobileye EyeQ3 以及一颗英伟达 Tegra 3 , 与 Mobileye 分道扬镳后牵手英伟达 。特斯拉虽然牵手英伟达 , 但背后也同时“密谋”了芯片的研发 。和目前的“芯片之争的环境不同 , 彼时2016年智能驾驶的车规级芯片以及高算力需求不大、成熟度不高 。伴随着利用8个摄像头以及机器学习的演进 , 特斯拉对于神经网络芯片的需求在于“精” , 而英伟达用于智能驾驶的能效比并不高 。感知模块需要实时对目标物做实时检测和跟踪 , 特别是深度学习的迭代中多个神经网络合并为单一的计算 , 也就是成百上千的神经网络需要同时计算 , 这对原先例如通用型芯片来说 , 具备挑战 。