为了正常的体验网站,请在浏览器设置里面开启Javascript功能!

基于视觉的移动机器人自定位问题(核心、)

2012-06-15 8页 pdf 856KB 13阅读

用户头像

is_127986

暂无简介

举报
基于视觉的移动机器人自定位问题(核心、) 第 40 卷增刊 1 中南大学学报(自然科学版) Vol.40 Suppl.1 2009 年 9 月 Journal of Central South University (Science and Technology) Sep. 2009 基于视觉的移动机器人自定位问题 卢惠民,张 辉,郑志强 (国防科技大学 机电工程与自动化学院,湖南 长沙...
基于视觉的移动机器人自定位问题(核心、)
第 40 卷增刊 1 中南大学学报(自然科学版) Vol.40 Suppl.1 2009 年 9 月 Journal of Central South University (Science and Technology) Sep. 2009 基于视觉的移动机器人自定位问题 卢惠民,张 辉,郑志强 (国防科技大学 机电工程与自动化学院,湖南 长沙,410073) 摘 要:自定位是移动机器人实现导航、运动规划等自主能力的基础。首先介绍基于视觉的移动机器人自定位方 法的分类,然后介绍按照所使用的不同视觉特征信息进行的分类,并详细介绍近 10 年来移动机器人视觉自定位 方法的主要研究进展,最后讨论其未来的研究方向。 关键词:视觉;移动机器人;自定位;视觉特征 中图分类号:TP24 文献标识码:A 文章编号:1672−7207(2009)S1−0127−08 A review of vision-based mobile robot’s self-localization LU Hui-min, ZHANG Hui, ZHENG Zhi-qiang (College of Mechatronics and Automation, National University of Defense Technology, Changsha 410073, China) Abstract: The self-localization is the basis of mobile robot’s autonomous ability such as navigation and motion planning. Firstly, the classification of vision-based mobile robot’s self-localization was introduced, and then the main research progresses on robot’s visual self-localization in the past ten years according to the classification based on different visual features. Finally, the future research trends were also proposed. Key words: vision; mobile robot; self-localization; visual features 自主移动机器人只有知道自己在哪里,以及如何 从一个位置到达另一位置后,才能够有目的运动,从 而有效地完成特定的任务。因此,自主移动机器人导 航技术需要回答 3 个问题[1]:“我在哪里(Where am I)?”,“我要去哪里(Where am I going) ?”和“我怎样 到达那里(How do I get there)?”。而机器人的自定位就 是要解决第 1 个问题。自定位(Self-localization)是研究 在无法直接获得机器人精确的定位信息时(例如没有 GPS、差分 GPS 等传感器),机器人如何根据其自身携 带传感器获得的环境感知信息和导航地图估计自己在 环境中的位置和方向。因此,机器人自定位是移动机 器人实现导航、运动规划等自主能力的基础。 视觉系统相对于其他的机器人导航定位用传感器 而言,能够提供最丰富的感知信息,同时也是一种被 动的传感器,也具有最接近人类的环境感知方式。科 学研究和统计明:人类从外界获得的信息大约有 75%来自视觉系统 [2]。因此,基于视觉的机器人自 定位问题吸引了全世界大量研究人员的参与,也取 得了大量的研究成果。本文作者在深入分析近 10 年来 针对该问题的典型研究成果的基础上,首先对基于视 觉的移动机器人自定位方法进行分类,然后根据所使 用的视觉特征信息进行分类,详细介绍移动机器人 视觉定位方面的最新研究进展,最后讨论其未来的 研究方向。 1 基于视觉的移动机器人自定位分类 机器人地图可以通过环境中的直线段、弧线、角、 边等几何形状信息或者门、柱子、人工地标等环境地 收稿日期:2009−06−09;修回日期:2009−07−10 通信作者:卢惠民(1980−),男,福建南平人,博士研究生,从事机器人视觉、图像处理和足球机器人研究;电话:0731-84576455;E-mail: lhmnew@nudt.edu.cn 中南大学学报(自然科学版) 第 40 卷 128 标特征来构建精确的几何地图,也可以利用环境地标 特征、机器人位于相应位姿时所获得视觉图像的外观 特征等来构建拓扑地图。机器人还可结合使用二者构 建分层的混合地图。因此,根据地图表示方式,机器 人视觉自定位可分为几何(Geometric)定位 [3]、拓扑 (Topological)定位[4]以及混合(Hybrid)定位[5]。其中几何 定位要求尽可能精确地获得机器人的自定位值,而拓 扑定位则只要给出一个更抽象的定位即可,如“我在 咖啡屋里”等,混合定位则是构建分层地图既实现拓 扑定位又实现几何定位。 根据是否具有初始定位信息,机器人视觉自定位 又可分为全局(Global)自定位 [6−7]和局部(Local)自定 位[8](或者定位跟踪)。当机器人没有任何初始或者先验 的定位信息时即为前者。一种典型的情况即为机器人 绑架问题(Robot kidnapping problem)。当机器人具有初 始的定位值或者先验的定位信息时即为局部自定位或 者定位跟踪问题。 根据所使用的视觉传感器的不同,机器人视觉自 定位又可分为基于单目透视成像摄像机[9]、双目立体 视觉[10]、三目立体视觉[11]、全向视觉[12]、全向立体视 觉[13]等视觉系统的机器人自定位。 根据应用环境的不同,机器人视觉自定位可分为 室内结构化环境如 RoboCup、FIRA 足球机器人比赛 环境下的定位[14−15]、一般室内环境如办公室环境下的 定位[7]和室外环境如一般的市区环境下的定位[16]等。 从定位算法具体的信息处理手段或者计算方法上 看,机器人视觉自定位包括基于图像检索思想的匹配 定位[17]、基于几何三角关系的三角定位[18]、将机器人 自定位问题看成是一个优化问题使用优化算法求 解[3, 19],以及现在最常用的处理执行、感知不确定性 的基于概率的 Bayes 滤波框架方法[20]如 Markov 定 位[21]、Kalman 滤波定位[22]、Monte Carlo 定位(粒子滤 波)[15]等,当然还有那些结合使用这些手段的方法。 根据机器人定位使用的视觉特征信息的不同,基 于视觉的移动机器人自定位主要可分为 3 种:基于地 标特征的自定位方法、基于图像外观(Appearance)特征 的自定位方法以及最近出现的基于地点识别(Place recognition)(识别走廊、办公室、厨房等地点)的自定 位方法。本文作者将按照这种分类详细介绍近 10 年来 移动机器人视觉自定位方面的研究进展。 2 基于地标特征的机器人视觉自定 位方法 机器人视觉自定位中使用的地标又可分为人工地 标和自然地标。机器人视觉传感器要求能够检测和识 别出这些地标,再通过这些地标在环境地图中的位置 信息推出机器人在环境地图中的位姿。 2.1 基于人工地标的机器人视觉自定位 人工地标是由人类设计并布置在环境中的,往往 具有颜色、形状、纹理等视觉特征上较为明显的惟一 性,能够通过计算机视觉较为容易地识别出来。该方 法需要人为地改变机器人的工作环境,因此,甚至可 以认为不是真正意义上的机器人自主导航定位。 RoboCup 中型组、四腿组、类人组等足球机器人 比赛环境为室内结构化环境,机器人通过视觉系统识 别比赛场地中的高度颜色编码化的球门、立柱、场地 标志线等人工地标,并结合使用三角定位[18]、粒子滤 波[15, 23]、匹配优化[3, 19]等手段实现足球机器人在场地 上的几何自定位,其定位精度越来越高,如 RoboCup 中型组国际强队的机器人的位置定位误差已经能够控 制在几厘米以内。其中特别值得一提的是匹配优化定 位方法,该方法将机器人观测到的特征点与环境地图 中的特征信息做匹配,定义误差函数,并寻找机器人 自定位的最优解,是一种高效率和高精度的定位跟踪 算法。 文献[24−25]选用的地标为红外主动地标,机器人 使用加装了滤光片的全向视觉系统来检测地标,并结 合三角定位方法实现自定位。文献[26−27]中的机器人 视觉系统通过检测人工设计并布置的条形码、MR Code 等标志物实现其在室内环境中的自定位。 2.2 基于自然地标的机器人视觉自定位 自然地标是环境中自然存在的,不是人类为了机 器人定位而特别设计安置的那些较为明显的标志物, 如室内办公室环境中的门、桌子、墙角、柱子等。该 方法不需要人为地改变机器人的工作环境,但是对机 器人视觉的模式识别能力有较高的要求。 文献[28]使用基于学习训练的颜色分割方法提取 图像中的感兴趣区域,进而结合使用遗传算法和神经 网络分类器搜索、分类并识别出室内办公室环境下的 各种地标如门上的标牌等,实现机器人高层的拓扑导 航,但该文没有处理机器人定位问题。文献[29]通过 单目视觉和超声传感器来搜索和识别办公室环境中各 房间门牌号以实现机器人的全局定位与导航。文献 [13]使用一种新颖的全向立体视觉设备检测室内环境 中的柱子,通过三角定位实现机器人的自定位。文献 [30]提出一种无需手动调节阈值的自适应边缘检测算 法,用于室内环境下的走廊直线提取,并实现机器人 增刊 1 卢惠民,等:基于视觉的移动机器人自定位问题 129 自定位。文献[8]则是通过构建分层的几何-拓扑环境 地图,使用全向视觉系统检测室内环境中的边墙、门 等地标直线点特征,并将这些特征点与地图中的相应 直线进行匹配寻优进而实现机器人的定位跟踪。 3 基于图像外观特征的机器人视觉 自定位方法 将机器人位于环境中不同位置时所获取的图像的 外观特征保存在一个训练数据库中,机器人在线运行 的时候将实时获得图像的外观特征与数据库中的内容 进行检索匹配,即可实现基于图像外观特征的机器人 视觉自定位。其实图像的外观特征也可以看成是一种 广义上的地标特征。这种基于图像检索匹配思想的定 位方法也可以结合其他的定位方法如匹配优化算法、 粒子滤波等以获得更加鲁棒、精确的定位结果。 基于图像外观特征的机器人视觉自定位方法可分 为 3 种:基于全局外观特征的定位方法、基于局部外 观特征的定位方法和 2 种外观特征结合使用的定位方 法。 3.1 基于全局外观特征的机器人视觉自定位方法 全局外观特征是一种针对图像整体特性的描述方 法,如基于 Fourier 变换、小波变换的特征、基于 PCA 的特征、灰度 /彩色统计直方图特征、积分不变量 (Integral Invariants)等。相比较局部外观特征,全局外 观特征的计算速度更快,且图像之间的特征匹配效率 也更高,但对光线条件的变化和出现遮挡的情况比较 敏感,因此,鲁棒性和精度相对较差。 文献[31]提出使用图像彩色统计直方图的方法来 实现移动机器人的拓扑定位,由于颜色统计直方图没 有考虑像素之间的关系即缺少像素间的空间信息,2 幅内容完全不同的图像却可能有类似的颜色统计直方 图,因此,该定位方法较为容易发生定位错误的情况。 文献[32]则通过颜色、边缘密度、梯度幅值、纹理等 图像特征的不同组合来获得多维的统计直方图,进而 通过直方图匹配获得机器人的拓扑定位。与使用单一 特征的方法相比,该方法能够获得更高的定位成功率, 但同时也需要更多的计算时间。 文献[33]使用 PCA 方法提取全景图像的全局外观 特征,并结合 Markov 定位方法实现机器人自定位, 同时还研究了为了实现好的定位,多少特征和哪些特 征是必要的。文献[34]为实现在光线条件变化剧烈或 者机器人定位失效等情况下的鲁棒的机器人自定位, 使用如下 2 种手段来改进现有的基于外观特征的机器 人视觉自定位方法:一是使用基于信息熵的方法进行 机器人的视觉主动感知以获得最大的信息量,二是使 用立体视觉的深度图信息,使用 PCA 方法并结合 EM 算法来提取对光线的变化更不敏感的全局外观特征。 文献[35−42]也分别使用 Fourier 变换、PCA 方法和小 波 PCA 方法等来提取图像的全局外观特征用于机器 人自定位。 文献[16, 43]分别使用 WGII(加权网格积分不变 量)和WGOH(加权梯度方向直方图)这2种全局视觉特 征并结合粒子滤波实现室外环境下的机器人自定位。 文献[44]则受指纹识别的原理启发,通过提取全景图 像的指纹序列来表征机器人所在位置的惟一性,并使 用最小能量序列匹配算法实现指纹序列在数据库中的 检索匹配以实现机器人的自定位。 文献[17, 45]结合基于图像全局外观特征的图像 检索技术和粒子滤波定位方法实现机器人在办公室环 境下的机器人自定位。该方法使用的全局特征为通过 每个像素的邻域计算的直方图,是一种积分不变量, 具有对平移和尺度的不变性。该视觉特征由于考虑了 每个像素的邻域信息,因此,能够提供更好的图像检 索和定位结果。 3.2 基于局部外观特征的机器人视觉定位方法 局部外观特征是描述图像局部点或者局部区域的 显著性的方法,如 Harris 角点、SUSAN 角点、 SIFT(Scale invariant feature transform)及各种改进的 SIFT 特征、SURF(Speeded up robust features)特征、 KLT(Kanade-Lucas-Tomasi)特征等。局部外观特征提 取算法通常包括特征检测子(Detector)和特征描述子 (Descriptor) 2 部分。相比较全局外观特征,局部外观 特征往往具有更强大的区分能力,而且对遮挡等情况 具有更好的鲁棒性,同时好的局部外观特征能够对旋 转、平移、尺度、甚至一定程度的光照条件具有不变 性。 文献[46]提出使用三目立体视觉快速检测和跟踪 未知环境中的改进 Harris 角点特征,以获得机器人的 位移信息,实现视觉里程计,进而完成机器人的定位。 文献[47]使用 KLT 视觉特征来实现微小机器人自定位 和创建拓扑地图,该视觉特征为角点特征或者强边缘 上的特征点。文献[48−49]使用 Haar 小波分解来提取 全景图像中的视觉显著点,再提取构造其邻域像素, 中南大学学报(自然科学版) 第 40 卷 130 最后计算特征描述子(思想类似于 SIFT),通过使用 KD-tree 实现该视觉特征的快速全局匹配和局部匹配, 并结合使用 Monte Carlo 定位方法实现机器人自定位。 文献[5]则通过提取全景图像的 SURF特征来实现机器 人的混合分层定位即拓扑定位和几何定位。 自从 SIFT 算法由 Lowe 于 1999 年提出[50]并于 2004 年完善总结[51]后,SIFT 及各种改进 SIFT 算法就 成为最流行的图像局部外观特征的提取算法。文献 [11, 52−55]提取三目立体视觉系统所获得图像各自的 SIFT 特征,通过 SIFT 特征实现立体匹配、前后帧匹 配,进而求得视觉里程计信息以实现机器人的全局定 位和跟踪定位,并使用 SIFT 特征构建环境地图,其 中机器人的全局定位使用 SIFT 特征匹配检索的方法, 并比较了 Hough 变换匹配算法和 RANSAC 匹配算法, 得出结论为 RANSAC 算法能得到更好的匹配定位结 果。文献[10]通过提取双目立体视觉图像的 SIFT 特征 作为地标来实现机器人在室内环境下的视觉 SLAM。 文献[56]使用一种融合单目视觉图像的SIFT特征和红 外扫描仪信息的粒子滤波定位算法来实现机器人在室 内环境下的自定位。在该方法中,当前图像和数据库 图像的 SIFT 特征匹配完成后,使用至少 3 个匹配点 对来计算仿射变换,求出数据库图像中的目标中心点 在当前图像中的位置,进而求出该目标在机器人体坐 标系中的方向,该目标的距离信息则使用红外扫描仪 在该方向下的扫描值。 文献[4, 57]分别比较了使用SIFT特征与梯度方向 统计图、规范化颜色直方图等全局外观特征和平均平 方偏差相关度、方差规范化相关度等其他局部外观特 征的机器人视觉自定位性能,结论是 SIFT 特征具有 更好的显著性和区分能力,能够获得更好的定位精度 和鲁棒性。 文 献 [58] 将 the Maximally Stable External Regions(MSER)、Hessian-Affine、Harris-Affine 这 3 种特征检测子与 SIFT 和 GLOH 这 2 种特征描述子进 行不同的组合提取图像局部特征,并比较在不同环境 下使用不同特征的定位性能。文献[59]使用仿射不变 Harris角点特征检测子和SIFT特征描述子来提取图像 局部特征,并使用 KD-tree 来标记、匹配和分组视觉 地图数据库,提高相似图像的检索速度。 文献[7]使用迭代 SIFT 算法提取图像局部特征实 现机器人在室内环境的全局检索匹配定位。由于迭代 SIFT 可以控制所提取特征点的个数,所以,该方法可 以控制图像特征提取的时间以提高定位算法的实时 性。文献[60]使用该迭代 SIFT 算法提取全景图像的 SIFT 特征,并结合粒子滤波定位算法来实现机器人鲁 棒的自定位。文献[61]则结合改进的 SIFT 特征和粒子 滤波实现机器人在室内环境下的自定位,并在实验中 考虑将机器人视觉系统部分遮挡和使用在几个月内的 不同时间的图像(环境发生较大变化,如光线、房间里 的布置等)等情况,验证了定位算法的鲁棒性。 其他基于改进的 SIFT 特征的机器人自定位方法 还包括:文献[62]使用改进的自适应 SIFT,结合粒子 滤波方法并根据环境地图的混淆性(离线评价)来主动 选择机器人动作以实现机器人更好的自定位;文献 [63]在机器人检索匹配定位中增加一个特征组匹配 层,使用 SIFT 特征组匹配方法来使特征提取和匹配 更加鲁棒,以获得更好的定位结果。 3.3 全局和局部外观特征结合使用的机器人视觉自 定位方法 由于全局外观特征和局部外观特征各有其缺点, 因此,有研究者考虑结合使用这 2 种特征来实现既实 时又能保证一定精度的机器人定位。 文献[64]结合SIFT特征和积分不变量来提取尺度 空间下的图像直方图全局视觉特征用于机器人的全局 定位,该方法相比积分不变量特征具有更好的显著性, 能够获得更好的定位结果,其显著性虽然比 SIFT 特 征差,定位精度也稍低,但是计算时间大大缩短,只 需其 1/20。文献[65]仍然结合 SIFT 和积分不变量,只 是改为提取图像局部特征用于机器人定位。文献 [66] 则提出同时使用全局和局部图像外观特征并结合粒子 滤波实现机器人在室外环境下的混合视觉自定位,该 方法在大部分情况下使用WGOH和WGII全局特征获 得实时自定位,而在当自定位比较困难的情况下如光 线变化剧烈等,使用提取匹配速度更慢但更精确鲁棒 的 SIFT 局部特征。在实际定位过程中机器人根据粒 子滤波中的粒子云分布情况来判断是否处于定位比较 困难的状况以选择使用相应的图像外观特征。 4 基于地点识别的机器人视觉自定 位方法 近年来随着图像处理、理解技术和模式识别等相 关领域的研究进展,基于视觉的地点或者场景识别吸 引了越来越多研究人员的兴趣,并取得了不少研究成 增刊 1 卢惠民,等:基于视觉的移动机器人自定位问题 131 果[67−71]。基于地点或者场景识别的机器人视觉自定位 也随之出现。这种机器人自定位方法使用的视觉特征 信息是人类能够直接理解的高层语义信息如“门口”、 “走廊”、“厨房”等,往往实现的是一种全局的拓扑 定位。因此,基于地点识别的机器人视觉自定位非常 适合于机器人路径规划、人机交互等应用场合。 文献[72]使用多通道 Gabor 滤波器提取场景图像 的全局纹理特征,并使用支持向量机来分类识别室内、 走廊、门厅等场景,进而实现机器人的逻辑定位。文 献[73]提出用于机器人自定位的基于视觉的鲁棒的地 点识别,使用 Harris 角点特征检测子和 SIFT 特征描 述子提取局部外观特征,并使用支持向量机作为分类 器实现基于局部外观特征的地点识别,建立了一个在 欧洲境内 3 个不同实验室使用机器人的全向视觉和透 视成像摄像机所采集的图像序列组成的数据库,用于 地点识别和机器人定位算法的评估比较。 5 未来研究方向的展望 根据本文前面内容的描述,基于视觉的移动机器 人自定位问题研究已经取得了大量的研究成果,如室 内结构化环境下的机器人视觉自定位问题已经基本得 到了很好地解决,但是在其他的复杂环境下如高度动 态的一般室内环境甚至是大范围的室外环境等,基于 视觉的机器人自定位算法还不能真正地实用,还有很 多问题需要进一步深入研究。本文作者认为如下研究 方向应该作为研究人员下一步研究的重点: 1) 由于计算机没有人的强大的模式识别能力,但 是具有强大的数值计算能力,在复杂的非结构化环境 中,机器人往往很难识别自然地标。因此目前基于视 觉的移动机器人自定位研究中更多的使用基于图像外 观特征的检索匹配定位方法。由于局部外观特征相比 较全局外观特征,其显著性和区分能力更强,因此, 能够获得更精确和鲁棒的定位结果,但是局部外观特 征如 SIFT 等的提取、匹配算法计算量还是过大,很 难实现实时的机器人自定位。所以,设计更加鲁棒的 图像外观特征的快速提取及匹配算法仍然是很有意义 的研究工作。 2) 在自然光线条件下特别是室外环境中,如何使 计算机视觉的图像获取及图像处理和理解具有恒常性 仍然是计算机视觉领域中极具挑战性的问题之一,因 此,如何使机器人的视觉自定位算法特别是视觉特征 的提取算法能够自适应于光线条件的动态变化也是很 值得进一步研究的问题。 3) 目前的机器人自定位算法所使用的环境地图 往往是静态的,而这在很多实际环境中是很难成立的。 目前,基于图像外观特征检索匹配的视觉自定位方法 主要是通过尽可能的提取鲁棒的外观特征以使自定位 不受遮挡、环境动态变化等因素的影响,但是静态的 地图迟早会过时,因此,如何在机器人自定位算法的 框架里加入对环境地图的动态更新,甚至学习添加新 的没见过的地标、特征等也是需要进一步研究的问题。 4) 目前,机器人视觉自定位方法中使用的视觉外 观特征无论是全局外观特征还是局部外观特征,往往 是人类难以直接理解的,这与人类认知环境和实现定 位的工作方式是不相符的。因此,如何更多地借鉴目 前目标识别和模式识别中大量已有的研究成果,可靠 地提取出人类可以理解的语义层次上的目标、地点、 场景等或者其他视觉特征并用于自定位也是机器人视 觉自定位的发展趋势。 6 结 论 本文在深入研究近十年来机器人视觉自定位问题 研究成果的基础上,首先给出了机器人视觉自定位的 各种分类,然后根据所使用视觉特征信息不同进行的 分类,分别从基于地标特征的机器人自定位、基于图 像外观特征的机器人自定位和基于地点识别的机器人 自定位 3 方面详细介绍了机器人视觉自定位问题研究 中取得的主要最新进展,最后给出了对未来的研究方 向的展望。 参考文献: [1] Leonard J J, Durrant H F, Cox I J. Dynamic map building for an autonomous mobile robot[J]. International Journal of Robotics Research, 1992, 11(4): 286−298. [2] 章毓晋. 图像处理和分析[M]. 北京: 清华大学出版社, 1999. ZHANG Yu-jin. Image processing and analysis[M]. Beijing: Tsinghua University Press, 1999. [3] Lauer M, Lange S, Riedmiller M. Calculating the perfect match: An efficient and accurate approach for robot self-localization [C]//RoboCup 2005: Robot Soccer World Cup IX. Berlin/ Heidelerg: Springer, 2006: 142−153. [4] Andreasson H, Duckett T. Topological localization for mobile 中南大学学报(自然科学版) 第 40 卷 132 robots using omni-directional vision and local features[C]//Proc of the 5th IFAC Symposium on Intelligent Autonomous Vehicles (IAV). 2004. [5] Murillo A C, Guerrero J J, Sagues C. SURF features for efficient robot localization with omnidirectional images[C]//Proc of 2007 IEEE ICRA. 2007: 3901−3907. [6] 房 芳, 马旭东, 戴先中. 基于霍夫空间模型匹配的移动机 器人全局定位方法[J]. 机器人, 2005, 27(1): 35−40. FANG Fang, MA Xu-dong, DAI Xian-zhong. Mobile robot global localization based on model matching in Hough space[J]. Robot, 2005, 27(1): 35−40. [7] Tamimi H, Zell A. Global robot localization using iterative scale invariant feature transform[C]//Proc of 36th International Symposium Robotics (ISR 2005). 2005. [8] 王 珂, 王 伟, 庄 严, 等. 基于几何-拓扑广域三维地图 和全向视觉的移动机器人自定位 [J]. 自动化学报 , 2008, 34(11): 1369−1378. WANG Ke, WANG Wei, ZHUANG Yan, et al. Omnidirectional vision-based self-localization by using large-scale metric-topological 3D map[J]. Acta Automatica Sinica, 2008, 34(11): 1369−1378. [9] 厉茂海, 洪炳镕, 罗荣华, 等. 基于单目视觉的移动机器人全 局定位[J]. 机器人, 2007, 29(2): 140−144. LI Mao-hai, HONG Bing-rong, LUO Rong-hua, et al. Monocular-vision-based mobile robot global localization[J]. Robot, 2007, 29(2): 140−144. [10] Jaime V M, Weizhen Z, Gamini D. Towards vision based navigation in large indoor environments[C]//Proc of 2006 IEEE/RSJ IROS. 2006: 2096−2102. [11] Se S, Lowe D, Little J. Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks[J]. The International Journal of Robotics Research, 2002, 21(8): 735−758. [12] 卢惠民, 刘 斐, 郑志强. 一种新的用于足球机器人的全向 视觉系统[J]. 中国图象图形学报, 2007, 12(7): 1243−1248. LU Hui-min, LIU Fei, ZHENG Zhi-qiang. A novel omni-vision system for soccer robots[J]. Journal of Image and Graphics, 2007, 12(7): 1243−1248. [13] Eino J, Takashi T, Takiguchi J, et al. Self-positioning with an omni-directional stereo system[C]//Proc of 2003 IEEE ICRA. 2003: 899−904. [14] 朱 莹, 洪炳镕, 王燕清. 基于 CBL 的双目视觉自主机器人 定位[J]. 哈尔滨工业大学学报, 2004, 36(7): 896−898. ZHU Ying, HONG Bing-rong, WANG Yan-qing. CBL-based robot localization using binocular vision[J]. Journal of Harbin Institute of Technology, 2004, 36(7): 896−898. [15] Heinemann P, Haase J, Zell A. A novel approach to efficient Monte Carlo localization in RoboCup[C]//RoboCup 2006: Robot Soccer World Cup X. Berlin/Heidelberg: Springer, 2007: 322−329. [16] Weiss C, Masselli A, Tamimi H, et al. Fast outdoor robot localization using integral invariants[C]//Proc of the 5th International Conference on Computer Vision Systems. 2007. [17] Wolf J, Burgard W, Burkhardt H. Using an image retrieval system for vision-based mobile robot localization[C]//Image and Video Retrieval. Berlin/Heidelberg: Springer, 2002: 108−119. [18] 刘 伟. RoboCup 中型组机器人全景视觉系统设计与实现[D]. 长沙: 国防科学技术大学, 2004. LIU Wei. The design and realization of the omni-vision system for RoboCup middle size league robot[D]. Changsha: National University of Defense Technology, 2004. [19] von Hundelshausen F, Schreiber M, Wiesel F, et al. MATRIX: A force field pattern matching method for mobile robots[R]. Berlin: FU-Berlin, 2003. [20] Thrun S, Burgard W, Fox D. Probabilistic robotics[M]. Cambridge: MIT Press, 2005. [21] Roland S, Nourbakhsh I R. Introduction to autonomous mobile robots[M]. Cambridge: Massachusetts Institute of Technology Press, 2006. [22] 王景川, 陈卫东, 曹其新. 基于全景视觉与里程计的移动机 器人自定位方法研究[J]. 机器人, 2005, 27(1): 41−45. WANG Jing-chuan, CHEN Wei-dong, CAO Qi-xin. Omni-vision and odometer based self-localization for mobile robot[J]. Robot, 2005, 27(1): 41−45. [23] Merke A, Welker S, Riedmiller M. Line based robot localization under natural light conditions[C]//ECAI 2004 Workshop on Agents in Dynamic and Real Time Environments. 2004. [24] 董再励, 郝颖明, 朱 枫. 一种基于视觉的移动机器人定位 系统[J]. 中国图象图形学报, 2000, 5(8): 688−692. DONG Zai-li, HAO Ying-ming, ZHU Feng. A based vision localization system for autonomous robots[J]. Journal of Image and Graphics, 2000, 5(8): 688−692. [25] 孟 凯, 孙茂相, 孙金根. 基于主动路标的全方位移动机器 人定位系统[J]. 沈阳工业大学学报, 2000, 22(2): 148−151. MENG Kai, SUN Mao-xiang, SUN Jin-gen. New positioning system for robot based on active road mark[J]. Journal of Shenyang University of Technology, 2000, 22(2): 148−151. [26] Jorg K, Gattung T, Weber J. Supporting mobile robot localization by visual bar code recognition[C]//Proc of IASTED International Conference on Robotics and Applications. 1999. [27] Zheng R, Yuan K. MR code for indoor robot self-localization[C]//7th World Congress on Intelligent Control and Automation. IEEE, 2008: 7449−7454. [28] Mata M, Armingol J M, de la Escalera, et al. Using learned visual landmarks for intelligent topological navigation of mobile robots[C]//Proc of 2003 IEEE ICRA. 2003: 1324−1329. 增刊 1 卢惠民,等:基于视觉的移动机器人自定位问题 133 [29] 李 磊, 朱铭琳, 杨国胜, 等. 基于门牌号识别的移动机器人 全局自定位方法研究[J]. 高技术通讯, 2003(8): 71−76. LI Lei, ZHU Min-lin, YANG Guo-sheng, et al. Research on the global self-localization based on the doorplate recognition for mobile robot[J]. High Technology Letters, 2003(8): 71−76. [30] Wangheon L, Dongsu K, Inso K. Automatic edge detection method for the mobile robot application[C]//Proc of 2003 IEEE/RSJ IROS. 2003: 2730−2735. [31] Ulrich I, Nourbakhsh I. Appearance-based place recognition for topological localization[C]//Proc of 2000 IEEE ICRA. 2000: 1023−1029. [32] ZHOU Chao, WEI Yu-cheng, TAN Tie-niu. Mobile robot self-localization based on global visual appearance features[C]//Proc of 2003 IEEE ICRA. 2003: 1271−1276. [33] Kröse B J, Vlassis N, Bunschoten R, et al. A probabilistic model for appearance-based robot localization[J]. Image and Vision Computing, 2001, 19(6): 381−391. [34] Porta J M, Verbeek J J, Kröse B J. Active appearance-based robot localization using stereo vision[J]. Autonomous Robots, 2005, 18(1): 59−80. [35] Menegatti E, Zoccarato M, Pagello E, et al. Image-based Monte Carlo localization with omnidirectional images[J]. Robotics and Autonomous Systems, 2004, 48(1): 17−30. [36] Pajdla T. Robot localization using shift invariant representation of panoramic images[R]. Prague: Center for Machine Perception, Czech Technical University, 1998. [37] Steinbauer G, Bischof H. Illumination insensitive robot self-localization using panoramic eigenspaces[C]//RoboCup 2004: Robot Soccer World Cup VIII. Berlin/Heidelberg: Springer, 2005: 84−96. [38] Friedrich H, Dederscheck D, Krajsek K, et al. View-based robot localization using spherical harmonics: Concept and first experimental results[C]//Pattern Recognition. Berlin/Heidelberg: Springer, 2007: 21−31. [39] Jogan M, Leonardis A. Robust localization using an omnidirectional appearance-based subspace model of environment[J]. Robotics and Autonomous Systems, 2003, 45(1): 51−72. [40] Jogan M, Leonardis A, Wildenauer H, et al. Mobile robot localization under varying illumination[C]//Proc of 16th International Conference on Pattern Recognition. IEEE, 2002: 741−744. [41] Tamimi H, Weiss C, Zell A. Appearance-based robot localization using wavelets-PCA[C]//Autonome Mobile Systeme 2007. Berlin/Heidelberg: Springer, 2008: 36−42. [42] 马建光, 贾云得. 一种基于全向摄像机的移动机器人定位方 法[J]. 北京理工大学学报, 2003, 23(3): 317−321. MA Jian-guang, JIA Yun-de. An omnidirectional camera based localization for a mobile robot[J]. Transactions of Beijing Institute of Technology, 2003, 23(3): 317−321. [43] Weiss A M C, Zell A. Fast vision-based localization for outdoor robots using a combination of global image features[C]//Proc of the 6th Symposium on Intelligent Autonomous Vehicles (IAV 2007). 2007. [44] Lamon P, Nourbakhsh I, Jensen B, et al. Deriving and matching image fingerprint sequences for mobile robot localization[C]//Proc of 2001 IEEE ICRA. 2001: 1609−1614. [45] Wolf J, Burgard W, Burkhardt H. Robust vision-based localization by combining an image-retrieval system with Monte Carlo localization[J]. IEEE Transactions on Robotics, 2005, 21(2): 208−216. [46] Saeedi P, Lowe D G, Lawrence P D. 3D localization and tracking in unknown environments[C]//Proc of 2003 IEEE ICRA. 2003: 1297−1303. [47] Rybski P E, Zacharias F, Lett J F. Using visual features to build topological maps of indoor environments[C]//Proc of 2003 IEEE ICRA. 2003: 850−855. [48] Mana S, Chee W L, Marcelo H A. Omnidirectional image matching for vision-based robot localization[C]//Proc of 2006 IEEE International Conference on Mechatronics. IEEE, 2006: 17−22. [49] Saedan M, Lim C, Ang M M Jr. Vision-based localization using a central catadioptric vision system[C]//Experimental Robotics. Berlin/Heidelberg: Springer, 2008: 397−406. [50] Lowe D G. Object recognition from local scale-invariant features[C]//Proc of 1999 IEEE ICCV. IEEE, 1999: 1150−1157. [51] Lowe
/
本文档为【基于视觉的移动机器人自定位问题(核心、)】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。 本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。 网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。

历史搜索

    清空历史搜索