一种机器人智能仿真测试方法

文档序号:6307667阅读:282来源:国知局
一种机器人智能仿真测试方法
【专利摘要】本发明属于智能信息【技术领域】,具体涉及一种机器人智能仿真测试方法。本发明的方法采用视觉图像仿真器生成包含视觉背景和目标的仿真视觉图像;采用跟踪算法仿真器获取仿真视觉图像中的目标,并实时输出目标脱靶量;机器人仿真器根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并实现实时跟踪功能;撤去视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试。本发明解决了现有技术难以满足大规模机器人测试要求的技术问题,取得了测试效率高、测试稳定性好、测试精度高的有益效果。
【专利说明】 一种机器人智能仿真测试方法

【技术领域】
[0001]本发明属于智能信息【技术领域】,具体涉及一种机器人智能仿真测试方法。

【背景技术】
[0002]随着科学技术信息化、智能化的发展,机器人技术得到了国内外学者的广泛关注,且呈现出规模越来越大、复杂度越来越高的发展态势。通过对机器人进行测试,能够发现设备中隐藏的问题和设计缺陷,是保障机器人质量和可靠性的重要手段。
[0003]传统的机器人测试手段主要采用人工实验测试的方式,存在测试效率低、测试稳定性差、测试精度低等缺点,难以满足大规模机器人的测试要求。\


【发明内容】

[0004]本发明需要解决的技术问题为:现有机器人测试系统测试效率低、测试稳定性差、测试精度低,难以满足大规模机器人的测试要求。
[0005]本发明的技术方案如下所述:
[0006]一种机器人智能仿真测试方法,包括以下步骤:
[0007]步骤1:通过参数配置计算机初始化参数;
[0008]步骤2:将初始化后的参数传输至视觉图像仿真器;
[0009]步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像;
[0010]步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量;
[0011]步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功倉泛;
[0012]步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤I设置的系统稳定阈值范围内;
[0013]步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试:若脱靶量小于等于系统稳定阈值,则机器人合格;否则,机器人不合格。
[0014]作为优选方案:步骤3包括以下步骤:
[0015]步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像;
[0016]步骤3.2:对需要跟踪的目标进行建模仿真
[0017]步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像。
[0018]作为优选方案:步骤3.2包括以下步骤:
[0019]步骤3.2.1:对目标外形、实时空间位置及反射系数进行三维建模;
[0020]步骤3.3.2:对三维建模后的目标表面划分计算网格;
[0021]步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中;
[0022]步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度;
[0023]步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计笪
ο
[0024]本发明的有益效果为:
[0025](I)本发明的一种机器人智能仿真测试方法,将计算机技术、机械技术、信号处理技术、传感器技术等相关理论和技术相结合,能够显著提高测试效率、稳定性和精度,能够满足大规模视觉跟踪机器人的测试要求;
[0026](2)本发明的一种机器人智能仿真测试方法,能够根据不同应用设计不同测试场景和流程,测试目的指向性强;
[0027](3)本发明的一种机器人智能仿真测试方法,通过精确的定时与触发时钟,能够实现系统同步;
[0028](4)本发明的一种机器人智能仿真测试方法,实现了视觉跟踪机器人的智能检测与及时反馈,测试人员能够及时掌握系统运作状况和存在问题,有效提高工作效率,可以广泛应用于农业、工业、交通、国防等领域。

【专利附图】

【附图说明】
[0029]图1为本发明的一种机器人智能仿真测试方法设备布局图。

【具体实施方式】
[0030]下面结合附图和实施例对本发明的一种机器人智能仿真测试方法进行详细说明。
[0031]本发明涉及到的一种机器人的功能及工作原理:
[0032]该机器人为一种基于视觉的目标跟踪机器人,主要功能为:对设定的运动目标进行监视跟踪,并实时输出目标在视觉传感器(如相机)中的实时位置。该机器人主要包含了机器人初始参数配置模块、机器人执行机构(如机械臂)、目标检测跟踪模块和视觉传感器。工作原理:首先对机器人各参数进行初始化配置,视觉传感器拍摄到运动目标后通过目标检测跟踪模块从拍摄的图像中找出需跟踪目标并输出目标在图像中的实时位置(即脱靶量),机器人执行机构接收脱靶量后根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制模块实现跟踪功能。
[0033]如图1所示,实现本实施例方法的机器人智能仿真测试系统,包括参数配置计算机、视觉仿真器、跟踪算法仿真器和机器人仿真器:参数配置计算机于仿真测试初始时刻进行参数配置;视觉仿真器仿真出机器人拍摄到的视觉图像;跟踪算法仿真器对视觉仿真器输出的仿真视觉图像进行智能识别并输出目标在仿真图像中的位置,即目标脱靶量;机器人仿真器根据机器人当前状态和目标脱靶量规划机器人的跟踪任务,并将机器人仿真器执行跟踪任务后的新状态反馈至视觉仿真器。所述机器人的状态,是指机器人各关节的转动角度状态。
[0034]所述参数配置计算机主要对视觉仿真器的分辨率和视场角、机器人仿真器的ro控制参数和系统稳定阈值等参数进行配置。
[0035]所述视觉仿真器包括视觉背景仿真模块和目标仿真模块:视觉背景仿真模块根据机器人当前状态及背景环境仿真出当前机器人的视觉传感器能够拍摄到的环境背景图像;目标仿真模块根据机器人当前状态和目标的形状、当前空间位置及光学特性仿真出目标图像;环境背景图像和目标图像采用现有技术相融合,形成仿真视觉图像。
[0036]所述跟踪算法仿真器采用卡尔曼滤波算法,能够对机动目标进行有效监视及跟足示O
[0037]所述机器人仿真器包括机器人运动仿真模块和控制仿真模块:机器人运动仿真模块用于模拟机器人机械机构的运动状态;控制仿真模块用于接收机器人目标状态并结合其当前状态后输出行进路线等控制策略。其中,机器人目标状态是指设置在机器人上的视觉传感器指向被跟踪目标时,机器人各机械关节的转动角度状态;机器人当前状态是指机器人当前时刻各关节的转动角度状态。
[0038]本实施例的一种机器人智能仿真测试方法,通过以下步骤进行测试:
[0039]步骤1:通过参数配置计算机初始化参数。
[0040]步骤2:将初始化后的参数传输至视觉图像仿真器。
[0041]步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像。
[0042]步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像。
[0043]步骤3.2:对需要跟踪的目标进行建模仿真
[0044]步骤3.2.1:对目标外形、实时空间位置及反射系数等参数进行三维建模;
[0045]步骤3.2.2:对三维建模后的目标表面划分计算网格;
[0046]步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中;
[0047]步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度;
[0048]步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计笪
ο
[0049]步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像。
[0050]步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量。
[0051]步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功倉泛。
[0052]步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤I设置的系统稳定阈值范围内;
[0053]步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以半实物半仿真的方式完成视觉跟踪机器人的测试:若脱靶量小于等于系统稳定阈值,则机器人合格;否则,机器人不合格。
[0054]以上具体实施例仅用于举例说明本发明的结构和流程,本领域技术人员在本发明的构思下可以做出多种变形和变化,这些变形和变化均包括在本发明的保护范围之内。
【权利要求】
1.一种机器人智能仿真测试方法,其特征在于:包括以下步骤: 步骤1:通过参数配置计算机初始化参数; 步骤2:将初始化后的参数传输至视觉图像仿真器; 步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像; 步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量; 步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功能;步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤I设置的系统稳定阈值范围内; 步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试:若脱靶量小于等于系统稳定阈值,则机器人合格;否则,机器人不合格。
2.根据权利要求1所述的一种机器人智能仿真测试方法,其特征在于: 步骤3包括以下步骤: 步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像; 步骤3.2:对需要跟踪的目标进行建模仿真 步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像。
3.根据权利要求2所述的一种机器人智能仿真测试方法,其特征在于: 步骤3.2包括以下步骤: 步骤3.2.1:对目标外形、实时空间位置及反射系数进行三维建模; 步骤3.3.2:对三维建模后的目标表面划分计算网格; 步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中; 步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度; 步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计算。
【文档编号】G05B17/02GK104199314SQ201410468357
【公开日】2014年12月10日 申请日期:2014年9月15日 优先权日:2014年9月15日
【发明者】庄家煜, 许世卫, 李哲敏, 王东杰, 张超, 陈威, 李干琼, 张玉梅, 张永恩 申请人:中国农业科学院农业信息研究所
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1