一种是 “look then action"模式,即利用视觉传感器获取环境信息,确定机器人运动目标的位置,继而确定机器人运动轨迹及运动过程中各个关节变量序列,再控制机器人运动。视觉传感器获取信息和机器人运动在时间上是分开的,与机器人离线编程相似,机器人在开始运动前已经确定运动轨迹,因此这种模式对视觉传感器和机器人控制器的响应速度要求不高,但无法根据环境变化实现实时控制,而且为了提高视觉传感器的测量精度,机器人和视觉传感器的各个环节都需要**标定。
另一种是“look and action”模式,视觉传感器获取目标位置和机器人运动是同时进行的,即“边走边看”。这种模式能感知环境的实时变化,实现视觉信息的实时反馈,因此也称为“视觉伺服”.视觉伺服对视觉传感器和机器人控制器的响应速度要求很高,因为机器人的运动轨迹是运动过程中逐渐确定的,需要在短时间内获取目标位置信息,并转换为机器人的关节变量实现运动控制。
依照不同的准则,视觉伺服系统可以如下分类:
1)根据关节变量的控制方式,分为动态“look and move”和“Direct visual servoing'(直接视觉伺服)方式。前者根据视觉信息确定机器人控制器输入量,由其内部控制各个关节变量的变化。后者的关节变量由视觉伺服控制器确定,不需要通过工具末端反求关节变量,减少了控制环节。
2)根据视觉系统获取的信号形式,分为基于位置的视觉伺服(PBVC) 和基于图像的视觉伺服。 前者反馈的是目标位置的三维坐标信息,并以此推算机器人工具的位姿信息,作为机器人控制器的输入量。后者反馈的是图像的特征,根据图像特征的变化量推算机器人工具的位姿变化,从而实现机器人控制。
3)根据相机的安装形式,可以分为“eye in hand"和“eyeto hand”形式。前者相机固定在机器人工具上,通过机器人可以控制相机的运动。后者相机固定在工作空间中,是静止不动的,这种方式测量精度与机器人的运动精度无关,但观察不灵活,容易被遮挡。
4)根据相机的数量可以分为:单目视觉、双目视觉和多目视觉。
5)根据相机的观察范围可以分为EOL和ECL系统。前者相机只能观察到目标,后者能观察到机器人工具和目标,同时对机器人和目标物体进行测量。
利用双目立体视觉可以获取整个轨迹的空间位置,能在机器人运动前对跟踪轨迹进行整体规划,但信息的获取只有一次,在跟踪过程中无法对环境和跟踪对象的变化作出调整,无法实现实时的轨迹跟踪。利用单目视觉可以基于图像位置偏差进行机器人运动修正,能实现实时跟踪,但单个相机无法获得完整的空间信息只能对跟踪机器人轨迹进行纠偏。利用线结构光三角测量,可以获得跟踪对象的完整空间信息,实现实时的轨迹跟踪,但是对于视觉系统的实时性要求较高。