【CNMO新闻】及时定位与地图绘制(SLAM)是一项被广泛研究、需要在追踪目标位置的同时更新环境地图的计算问题。廉价且无处不在的深度传感器以及出色的算法已经在一定程度上缓解了该问题,但即便是最先进的视觉系统也不是完美的:匀称和重复出现的图形样式有时会导致系统绘制出错误的地图,而前面提到的传感器往往会生成规模庞大却不实用的数据。
这也是为什么研究者们希望用WiFi数据作为以上机制的补充。一篇最新发表的论文介绍了一种泛用性更强的、将无线数据融合进视觉SLAM算法的方法,从而实现提高地图绘制精确性并缩小搭载硬件体积的目的。
WiFi
论文作者写道:“大多数机器人和移动设备都能收到WiFi信号而WiFi接入点在城市环境中无处不在,WiFi和视觉感应是彼此的补充,在该项目中,我们设法找到一种泛用性更强的方法来将WiFi数据融合进视觉SLAM算法中,从而缓解系统的感知混淆以及较高的计算难度。”
研究者开发的系统将摄像头中的视觉架构和对应的WiFi特征结合在一起,每移动三到四米,机器人或者移动设备就会收集WiFi集群的特征信息并将其同视觉架构结合起来。拥有与代表特征相似的WiFi群集能在当前视觉架构下帮助系统建立起空间临近度的认知。最后,现有的视觉架构会被分配给正确的WiFi群集。
研究者们用自己的技术开发了三种单独的开源视觉SLAM系统:RGBD-SLAM、RTAB-Map和ORB-SLAM,并在测试中使用安装在Turtlebot机器人上的微软Kinect感应器来收集各种参数。分析显示绘图准确性平均提升了11%,四种算法的计算时间也减少了15%到25%,并且同FABMAP WiFi增强SLAM系统相比这些算法拥有能与之相媲美甚至更好的表现。
当然该项目也有提升的空间,研究者们指出WiFi信号强度受环境因素影响较大,除此之外,他们还透露系统的表现同环境内WiFi接入点的数量也有较大关系,新的方法需要至少40个接入点才能较好地工作。研究者们相信,只要稍加改进,他们提出的新方法不仅可以证明自己在机器人领域的可用性,而且在AR头设方面也大有可为。