岗位职责:
1. 算法研发与创新
- 主导BEV(鸟瞰图)+Transformer架构的视觉感知算法开发,实现多摄像头时序特征融合与三维空间建模,支持城市道路、高速场景下的障碍物检测、车道线识别、可行驶区域分割等核心功能。
- 设计端到端感知模型,结合时序视频感知与多模态融合技术,提升复杂场景(如逆光、雨雾、夜间)下的鲁棒性。
- 研究并落地动态物体轨迹预测、占用网络(Occupancy Network)等前沿技术,支撑自动驾驶决策规划模块。
2. 多传感器融合与工程化
- 负责视觉与4D毫米波雷达、激光雷达的前融合算法开发,优化目标级/特征级融合框架,降低误检率与延迟。
- 推动算法在嵌入式平台的部署优化,实现模型量化(如INT8)、TensorRT加速及实时性保障。
- 参与传感器联合标定、数据闭环体系搭建,通过仿真测试与实车验证持续迭代算法性能。
3. 系统优化与质量保障
- 建立感知算法的量化评估体系,包括精度指标(如mAP、NDS)、延迟、资源消耗等,推动算法效率与准确率的平衡。
- 主导算法的故障注入测试、边界条件验证,确保系统符合ISO 26262功能安全要求。
- 与硬件团队协同优化传感器配置方案,降低系统成本并提升感知性能。
任职要求:
1. 技术能力
- 精通计算机视觉核心技术,包括目标检测(YOLO、Faster R-CNN)、语义分割(Mask R-CNN、SegFormer)、3D视觉(单目/多目深度估计)等,熟悉BEV+Transformer模型的原理与实践。
- 具备多传感器融合经验,熟悉卡尔曼滤波、粒子滤波、贝叶斯网络等状态估计方法,掌握ROS通信框架与传感器标定流程。
- 熟练使用C++/Python编程,精通PyTorch/TensorFlow框架,熟悉模型压缩、量化与部署工具链(如TensorRT、ONNX Runtime)。
2. 项目经验
- 至少3年以上自动驾驶感知算法研发经验,主导过BEV感知、多传感器融合、端到端模型等项目,有量产项目经验者优先。
- 具备毫米波雷达或激光雷达算法开发经验,了解其信号处理与点云特征提取原理。
3. 素质与潜力
- 具备强逻辑思维与问题解决能力,能快速定位并解决算法在实车测试中的长尾问题。
- 对技术前沿敏感,持续跟踪自动驾驶领域的最新研究(如多模态大模型、神经辐射场),推动技术创新与落地。
• 职业发展:双通道晋升体系(技术专家/管理)
技术栈与工具链
• 核心算法:BEVFormer、DenseBEV、LSS、YOLOv5/6、Mask2Former。
• 框架与工具:PyTorch、TensorFlow、OpenCV、TensorRT、CARLA仿真平台。
• 硬件平台:高通、TI TDA4VM