全场景感知与预测架构
安装在自动驾驶车四角的高性能传感器组(包括视觉摄像头、激光雷达、雷达和长波红外摄像头)构成360度重叠视场,探测范围超过百米。这些传感器与Zoox道路网络(ZRN)语义地图结合,实时识别并分类场景中的动态"智能体"(车辆、行人、自行车等),精确追踪其速度和运动轨迹。
多通道神经网络处理
感知数据被转换为60个通道的二维鸟瞰图,每个通道包含不同语义信息(如行人是否使用手机)。卷积神经网络(CNN)分析这些数据,生成场景中每个动态智能体未来8秒的运动轨迹概率分布。预测结果每0.1秒更新,考虑因素包括:
- 当前运动轨迹
-
- 道路布局规则
-
- 交通信号状态
-
- 人行道交互逻辑
图像神经网络优化
团队正部署图像神经网络(GNN)建立场景元素间的显式关系模型。该系统通过"消息传递"机制,模拟现实世界中行人/车辆间的行为相互影响(如走廊避让场景),使预测更符合人类行为模式。
实时决策闭环
预测系统与规划系统形成反馈循环:规划器会询问"如果执行X/Y/Z动作,周围智能体将如何反应?"。这种交互使车辆能进行更自然的道路协商,目前测试车队已在旧金山、西雅图和拉斯维加斯积累数百万英里的训练数据。
技术演进方向
当前重点包括:
- 降低预测与规划系统的交互延迟
-
- 提高图像神经网络对复杂交互场景的建模能力
-
- 消除手动标注需求(直接利用实际运动数据作为训练标签) 系统从最初仅3个源代码文件的启发式算法,已发展为包含深度学习前沿技术的预测引擎,持续提升自动驾驶的安全性和自然度。 更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)