参数分离式机器人手眼视觉系统标定工具箱
项目介绍
本项目实现了一种高效的参数分离式机器人手眼视觉标定方法。该方法通过将复杂参数进行解耦与分步优化,显著提升了标定过程的计算效率与结果的稳定性,适用于 Eye-in-Hand 与 Eye-to-Hand 两种典型配置。
功能特性
- 参数分离标定:核心算法将旋转矩阵与平移向量的求解分离,分别进行优化,避免传统方法中参数耦合带来的误差积累与数值不稳定问题。
- 支持多种配置:完整支持 Eye-in-Hand(相机安装在机器人末端)和 Eye-to-Hand(相机固定在基座外)两种标准手眼系统配置。
- 高精度与鲁棒性:采用稳健的数值方法求解,并对异常数据具有一定容错能力,确保标定结果精确可靠。
- 用户友好:提供清晰的输入输出接口与示例,便于集成与应用。
使用方法
- 数据采集:控制机器人末端执行器移动到多个(建议不少于10个)不同位姿,并确保标定板在每个位姿下均能在相机视野中被清晰捕获。记录每个位姿下的机器人末端工具坐标系相对于基坐标系的变换矩阵,以及相机坐标系相对于标定板坐标系的变换矩阵。
- 配置参数:在主程序入口处,根据实际系统选择 Eye-in-Hand 或 Eye-to-Hand 配置模式,并正确载入第一步中采集到的两组变换矩阵数据。
- 执行标定:运行主程序。程序将自动执行参数分离标定流程,依次计算手眼变换矩阵的旋转部分和平移部分。
- 获取结果:程序运行完成后,将在命令行输出标定结果(旋转矩阵与平移向量),并可选择性地进行重投影误差分析以评估标定精度。
系统要求
- 操作系统:Windows / Linux / macOS
- 软件环境:MATLAB R2018a 或更高版本
- 依赖工具包:优化工具箱,统计与机器学习工具箱
文件说明
主程序文件作为整个标定过程的调度核心,其主要功能包括:初始化系统参数与标定模式,读取并预处理来自机器人控制器和相机的外参矩阵数据,调用分离式标定算法依次求解手眼关系的旋转与平移参数,最终对求解结果进行整合与精度验证,并将标定矩阵输出给用户。