工作内容:
1. 负责机器人感知模块的开发与调试,实现目标检测、跟踪、分割等功能;
2. 设计多模态(相机/LiDAR/毫米波雷达)数据融合策略,提升复杂场景下的感知鲁棒性;
3. 推动算法从训练到边缘设备的端到端落地,平衡模型精度与推理效率。
任职要求:
1. 计算机/机器人/自动化相关专业,本科及以上学历,2年以上感知算法开发经验。
2. 掌握主流深度学习模型(如YOLO系列、Mask R-CNN、PointNet 、PointRCNN),熟悉多任务学习框架(如Panoptic-DeepLab、BEVFormer)。
3. 熟悉时序感知算法(目标跟踪、运动预测),掌握多目标跟踪框架(如ByteTrack、CenterPoint)。
4. 融合相机、LiDAR、毫米波雷达数据(BEV融合、早期/晚期融合),实现跨模态特征对齐与互补(如TransFusion、DeepFusion)。
5. 熟练多传感器标定(相机-LiDAR外参标定、雷达-IMU时空同步),掌握在线标定优化方法(如基于特征匹配的自动标定)。
6. 熟悉PyTorch、TensorFlow等机器学习框架全流程开发,具备模型训练-优化-部署经验。
7. 熟练使用Python和C 开发高性能算法,掌握ROS/ROS2系统。
8. 熟悉三维重建与SLAM结合(如语义SLAM、动态物体剔除等)的优先。
9. 具备良好的团队合作精神,工作认真负责,具有较强的自学能力。