微波EDA网,见证研发工程师的成长!
首页 > 应用设计 > 机器人技术 > 视频融合在遥操作机器人系统中的应用

视频融合在遥操作机器人系统中的应用

时间:11-24 来源:互联网 点击:
2.2 仿真机器人模型绘制

采用3DSMAX建立MOTOMAN机器人三维仿真机器人模型后,采用Deep Explortation转换软件转换成VC代码,在VC的工程设置中加入OPENGL的链接库,建立工程并调用转化的仿真机器人代码。在创建、装入、相乘模型变换和投影变换矩阵时都用到堆栈操作,一般来说,矩阵堆栈常用于构造具有继承性的模型,即由一些简单目标构成的复杂模型。MOTOMAN机器人仿真模型中,复杂的机械手臂是由多个简单的长方体依据继承关系构成的,而这种继承关系由矩阵堆栈顺序决定。机械手臂、关节、底座均按照实际机器人的比例进行相应缩放。规定好了底座的坐标系后,其他关节、手臂则根据自身的立体尺寸就能计算出坐标位置进行绘制。本机器人模型由3层支撑底座、4个旋转关节、1个横梁、1个竖柱、手爪及其他一些零部件构成,仿真机器人模型如图4(a)所示。它的继承性表现在当末端执行器手爪运动时(如垂直上升),首先是关节3向上启动,然后关节2向手爪方向转动,接着是关节1微转,整个机器人垂直平移,如此进行下去,整个机器人协调配合保持末端执行器(手爪)垂直上升。三维模型在OPENGL中的显示流程是:世界坐标系中的三维物体经三维几何变换后投影并进行三维裁剪及视口变换,最后在屏幕坐标系中显示图形。



2.3 视频融合及控制实现

仿真机器人底座视点坐标系确定后,视频机器人根据仿真机器人的大小进行缩放绘制,使底座同仿真机器人底座在一个坐标位置。视频中机器人的其他部分同底座一样进行相应的映射,因此,初始时刻视频和仿真模型的关节、视角位置是基本重合的。视频融合界面通过VC控件SLIDER调节视频透明度,操作者根据实际情况选择清晰度,也可以将反馈视频设置成完全透明(此时只能看到模型而看不到视频)。本仿真机器人在OpenGL三维编程中实现3DSMAX数据模型的程序控制。3DSMAX是一种简便快捷的建模软件,比同类软件进一步完善了建模功能,更侧重于复杂模型的建模,可以很容易地用C++和OpenGL结合实现图形学算法,再把本算法作为插件嵌入3DSMAX环境中,而不用考虑物体模型的生成和处理的复杂代码,利用3DSMAX的渲染计时器可以方便地检验所编算法的效率和效果[12]。在仿真机器人制作时应遵循一个原则:在能够保证视觉效果的前提下,尽量采用比较简单的模型,而且若能够用参数化方法构建的对象尽量用参数化方法构建。同时,在模型创作过程中,对模型进行分割、独立建模,以利于进行操作和考察。仿真机器人视频融合前后对比如图4所示。控制程序实现仿真模型控制,控制过程是:按下相应操作按钮,2个线程同时运行,1个线程将控制指令传送到仿真模型使虚拟机器人运动,另1个线程将控制命令通过网络传输送到服务器控制真实MOTOMAN机器人完成一致作业。在仿真模型和视频融合界面中,模型走过的轨迹在程序中用红线标定(为方便观察者,红色轨迹线采用10个像素的粗实线绘制),反馈视频随后跟踪此轨迹运行,操作者观察视频中机器人的运行情况并判断运行是否达标及决策下一步。

该视频融合方法应用于遥操作机器人系统中,能够使控制者准确判断机器人作业精准度,同时将传统的遥操作机器人视频监控及仿真预测相结合,提出将视频融合应用于遥操作机器人技术中。实验结果表明,这种方法对于精准度要求高的机器人系统非常实用,将来可以将该视频融合方法拓展在抢险救灾、灾情调查、工程运行、水利监测、城市调查中,除了能对现场完成监测录像、图像传输等功能外,还可以比较预测与实际的差异。

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top