多视图立体方法使用基于事件的全向成像-SLAM应用
击上方“机器视觉”,选择“置顶/星标公众号”
干货下载/合作:添加微信好友“5834434”(必须备注“机器视觉:学校/公司+研究方向”,否则无法通过验证),获取机器视觉资料
韩国科学技术研究院机械工程系视觉智能实验室(韩国大田; www.kaist.ac.kr/kr)开发了一种新的多视角立体方法,称为EOMVS,它使用全向事件摄像机来重建具有宽视场的3D场景。
基于事件的图像传感器仅记录像素强度的变化。根据研究人员的说法,基于事件的相机的这种独特性质使得基于RGB帧的图像(包括全向图像)的传统计算机视觉算法无法应用。因此,研究人员需要一种独特的算法来处理基于事件的图像,并使其能够用于同步定位和映射(SLAM)或视觉里程(VO)应用。
为了创建一个用于实验的真实数据集,研究人员使用了来自iniVation(瑞士苏黎世; www.inivation.com)具有640×480分辨率。使用C接口适配器将Entaniya(www.entaniya.co.jp)鱼眼M12镜头连接到事件摄像机,使摄像机的视场角高达180°。由NaturalPoint开发的OptiTrack系统(美国俄勒冈州科瓦利斯; www.naturalpoint.com)已获取相机的姿势信息。
首先,研究人员使用一种累积方法创建了一种新的基于事件的相机校准技术,该方法定义了每个事件像素值和衰减函数的贡献程度。该技术可抑制可能转换为图像噪声的事件。
接下来,他们创建了一种方法,允许通过基于事件的全向图像进行深度估计。为每个参考视点(RV)构建视差空间图像(DSI),即体素网格。从房车上可以看到,该网格从附近的视点跟踪2D事件的投影光线进入3D空间。
具有最大光线交集的体素被认为最有可能占据场景中的3D点。高斯阈值从灰度图像创建二进制图像,创建了关于这些 3D 点位置的置信度图。置信图构成了半密集深度图和随附的3D点云的基础,这些三维点云叠加在原始全向图像上。
图像处理在一台采用英特尔(美国加利福尼亚州圣克拉拉; www.intel.com)酷睿 i7-10700 @ 2.90 GHz 8 核 CPU 处理器。针对使用Blender 3D图形软件创建的合成室内RGB和事件数据集进行测试,然后使用真实世界的图像进行测试。来自Ouster的OSI-128 3D LiDAR单元(美国加利福尼亚州旧金山; www.ouster.com)获得地面真实深度图,以便与EOMVS方法创建的深度图进行比较。
相对误差在4.7%至9.6%之间,视场从145°增加到180°。研究人员现在计划为全向事件摄像机开发一种VO算法,以与EOMVS方法相结合,从而实现基于全向事件摄像机的SLAM应用。
热门文章推荐:点击直接进入相关文章:
004:Facebook 开源计算机视觉系统,从像素水平理解图像(附论文及代码)
009:从洗衣妹到谷歌首席科学家,她靠孤独改变了人工智能界!
019:机器人控制系统相关知识大汇集
020:机器人的工作原理,史上最详细的解析!
021:光源选型知识点
022:这才是机械手,这才是自动化,你那算什么?
023:摄像机和镜头的基础知识
024:物联网产业链全景图(附另13大电子行业全景图,必收藏)
025:日本到底强大到什么地步?让人窒息!看后一夜未眠
026:德国机械用行动惊艳全世界:无敌是多么寂寞