岗位职责:高精度抓取算法研发:负责 2D/3D 视觉引导机械臂抓取系统的核心算法开发,通过手眼标定、误差补偿及运动规划优化,实现系统综合抓取精度 ≤0.3mm。
3D 视觉与空间坐标解算:负责深度相机点云处理(去噪、配准、分割),实现 2D 图像到 3D 空间坐标的高精度映射;解决反光、遮挡及复杂背景下的坐标定位难题。
目标检测与姿态估计:基于 YOLO v11 等 SOTA 模型进行定制化训练与优化,实现复杂工况下的高精度物体识别及 6D 姿态估计,确保识别率与鲁棒性。
系统通信与集成:设计并实现算法模块与上位机、MES 系统及机械臂控制器之间的通信架构,熟练使用 MQTT 等协议进行指令下发与状态反馈,确保系统低延迟、高可靠。
工业机器人二次开发:负责与 FANUC、ABB、KUKA 等工业机械臂的联调,通过 Socket/MQTT/厂商 SDK 实现外部轴控制与轨迹规划,解决实际产线中的节拍与稳定性问题。
工程部署与优化:负责算法在 Linux 环境下的 C++/Python 部署,利用 TensorRT/ONNX 进行推理加速,满足工业现场实时性要求。
任职要求:编程基础:精通 C++ 和 Python,具有扎实的数据结构与算法基础;熟悉 Linux 开发环境、CMake 构建及 Git 版本管理。
视觉与深度学习:
熟练掌握 OpenCV、PCL (Point Cloud Library) 或 Open3D。
深入理解相机成像模型、畸变校正及多坐标系变换(手眼标定、TCP 标定)。
熟悉 PyTorch/TensorFlow 框架,有 YOLO 系列 (v8以上) 实际项目落地及模型压缩经验。
机器人运动控制:
具备主流工业机器人(FANUC、ABB、KUKA)的实际调试或二次开发经验,熟悉其通信协议(如 Socket、MQTT、OPC UA)及控制器逻辑。
通信与架构:熟悉 MQTT 消息队列协议,有分布式系统通信设计经验,能够处理高并发下的指令同步与状态监控。
高精度控制经验:有亚毫米级(≤0.3mm)视觉定位或抓取项目经验者优先,理解机械误差、热漂移及振动对精度的影响及补偿方法。
数学基础:扎实的线性代数、几何变换、概率论基础,能独立推导空间坐标变换公式。
加分项 (Preferred Qualifications)
有 6D 姿态估计(6D Pose Estimation)相关项目经验。
熟悉 TensorRT 推理引擎优化,有 CUDA 编程经验。
熟悉工业机器人原厂语言(如 ABB RAPID、KUKA KRL、FANUC KAREL)者优先。
在 GitHub 上有开源机器人/视觉项目,或在 CVPR/ICRA/IROS 等顶会发表过论文。
有实际产线落地经验,解决过高反光物体识别、机械振动导致的精度偏差等棘手问题。