一种基于语义信息辅助的无人机视觉/惯性融合定位方法

云脑智库 2022-09-03 00:01

本文引用格式


吕品, 何容, 赖际舟, 等. 一种基于语义信息辅助的无人机视觉/惯性融合定位方法[J]. 导航定位与授时, 2022, 9(4): 60-69.


一种基于语义信息辅助的无人机视觉/惯性融合定位方法


吕 品,何 容,赖际舟,杨子寒,袁 诚

(南京航空航天大学自动化学院, 南京 211106)


摘 要:视觉传感器在无人机室内定位中发挥着重要作用。传统基于特征点的视觉里程计算法通过底层亮度关系进行描述匹配,抗干扰能力不足,会出现匹配错误甚至失败的情况,导航系统的精度及鲁棒性有待提升。由于室内环境存在丰富的语义信息,提出了一种基于语义信息辅助的无人机视觉/惯性融合定位方法。首先,将室内语义信息进行因子建模,并与传统的视觉里程计方法进行融合;然后,基于惯性预积分方法,在因子图优化中添加惯性约束,以进一步提高无人机在动态复杂环境下的定位精度和鲁棒性;最后,通过无人机室内飞行试验对算法的定位精度进行了分析。试验结果表明,相较于传统的视觉里程计算法,该方法具有更高的精度和鲁棒性。


关键词:视觉/惯性定位;语义信息;因子图优化;无人机



作者简介吕品(1987-),男,副教授,主要从事惯性导航与多源信息融合导航方面的研究。

基金项目:国家自然科学基金(61973160);装备重大基础研究项目(51405-02B02)。

收稿日期:2022-03-20

修订日期:2022-05-10

中图分类号:V249.32

文献标志码:A

文章编号:2095-8110(2022)04-0060-10

doi:10.19306/j.cnki.2095-8110.2022.04.007 




0 引言

无人机凭借其成本低、体积小及机动灵活等特点,在军事和民事领域都有广泛的应用。目前,随着无人机智能化、微型化的发展,其应用领域也从室外逐渐向室内拓展[1]。无人机常用的导航定位方案是全球卫星导航系统(Global Navigation Satellite System,GNSS)和惯性导航系统(Inertial Navigation System,INS)的组合导航方案,其中GNSS是决定其定位精度的关键性因素。与室外环境不同,无人机在室内场景中运行时,由于建筑物的遮挡[2],GNSS信号会严重衰减甚至完全消失,传统的GNSS/INS导航方法将无法提供持续可靠的导航定位信息。

同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)是常用的室内导航方法,根据传感器的不同,可以分为视觉SLAM[3-4]和激光雷达SLAM[5]。视觉传感器能够获取环境的纹理、颜色与特征信息,利用视觉特征能够构建出稀疏或稠密的特征地图,无需先验信息就能完成自身位置的解算。而且,视觉传感器具有体积小、质量小及感知信息丰富等优点。因此,为了解决室内场景下无人机的自主飞行问题,越来越多的研究人员将视觉传感器应用于无人机室内自主导航定位。根据利用图像信息的不同,视觉SLAM中的前端里程计算法又可以被分为基于直接法的里程计(SVO[6]、DSO[7])和基于间接法的里程计(ORB-SLAM2[8]、ORB-SLAM3[9])。直接法直接利用图像的灰度信息进行帧间匹配以及运动估计,而间接法通过先提取出图像的特征,利用特征的匹配和跟踪进行相机的位姿解算。间接法使用的特征描述受光照影响较小,与直接法相比具有更好的鲁棒性。

传统的间接法视觉里程计(Visual Odometry,VO)算法多提取环境中的低级视觉几何特征,然后通过集束调整(Bundle Adjustment,BA)最小化重投影或光度误差。基于点、线特征的VO通过底层亮度关系进行描述匹配,抗干扰能力不足,会出现匹配错误甚至失败的情况。除了点、线这些环境中的低级特征,含有语义信息的物体也是环境重要的组成部分。提取环境中的物体并进行相应的语义信息映射,可以极大地提高无人机对环境的理解能力以及人机交互的智能性。此外,环境中的物体特征还可以提供额外的语义和几何约束,以提高相机位姿估计的精度。文献[10]提出了一种将语义信息整合到视觉SLAM系统中的方法,该方法利用语义信息在特征匹配环节进行外点的剔除,同时利用因子图进行位姿的优化求解,在动态环境中该方法比传统算法具有更好的鲁棒性。文献[11]提出了一种物体级别的SLAM算法,该方法基于Kinect fusion[12],使用MASK RCNN[13]对图像进行实例分割,建立每个物体的截断符号距离函数,实现物体级别的跟踪、重建以及回环。文献[14]提出了一种面向特定类别对象的SLAM方法,通过目标识别建立相机与对象之间的观测约束,并通过图优化方法进行优化求解。目前,在语义辅助的视觉SLAM定位方法中,语义信息的使用具有多种形式,尚未形成统一的方法和架构。

虽然利用语义信息可以对传统的VO算法进行辅助的位姿优化,但语义的获取仍然依赖视觉传感器,而单一的传感器由于感知维度的匮乏,难以满足无人机在室内复杂环境下的鲁棒定位要求。惯性传感器具有完全自主的优点,对短时间内的相对运动估计精度较高,但长时间的递推估计会产生较大的累积误差。将视觉与惯性测量单元(Inertial Measure-ment Unit,IMU)信息进行融合[15-17],综合利用多维量测信息,充分利用数据的冗余及互补,弥补单个传感器的固有缺陷,可以提高系统导航定位的精度和鲁棒性。

由此可知,单独基于特征点的VO由于单一传感器以及低维特征的限制,在特征点稀疏、机动特性较大等挑战性室内场景运行时,难以满足无人机的智能自主导航定位需求。针对该问题,本文提出了一种基于语义信息辅助的无人机视觉/惯性融合定位方法。创新点主要包括:1)针对传统VO算法提取低级几何特征抗干扰能力不足的问题,根据室内环境的特点,通过提取环境中的平面语义信息,并辅助VO系统进行位姿优化,提高位姿估计的精度及鲁棒性;2)针对单一视觉传感器感知维度匮乏、易受外界干扰的问题,将视觉传感器和惯性传感器信息进行融合,以提高整个定位系统的精度、鲁棒性和可靠性。




1 基于平面语义信息辅助的视觉/惯性融合定位方案设计

基于平面语义信息辅助的视觉/惯性融合定位方案以传统的VO为基础,辅助增加语义信息以及惯性信息的融合利用,从而提升传统基于特征点的视觉VO导航定位精度。如图1所示,其可以被分为前端处理与后端融合优化两个部分,每一个部分都可以被分为传统视觉VO、语义融合和惯性融合3个子处理模块。在图1中,传统视觉VO部分用蓝色进行标注,语义部分用橙色进行标注,惯性部分用绿色进行标注。本文在传统视觉VO的基础上,首先实现语义信息的提取和融合;然后在语义辅助的VO的基础上,实现惯性信息的预处理与融合;最终实现语义信息辅助的视觉/惯性融合定位方案。



图1 基于平面语义信息辅助的视觉/惯性融合定位方案框架
Fig.1 Framework of plane semantic information aided visual/inertial fusion positioning


在语义信息的融合方面,通过提取的语义平面对环境中的语义信息进行特征表示,并建立对应的数据关联方法。在惯性融合方面,利用惯性预积分技术,获取两视觉关键帧之间的惯性信息约束。通过对语义特征以及惯性预积分的因子图建模,构建融合语义信息和惯性信息的VO因子图架构,实现语义和惯性对VO的辅助优化。




2 基于平面语义信息辅助的VO算法

语义信息通常需要与一些具体的特征相结合,为其提供相应的概念与约束,才能与传统的VO融合,辅助提高位姿优化精度。本文将语义信息与平面特征相结合,构建出语义平面,作为视觉VO额外的高维特征,为传统的VO增添除特征点之外的环境观测与约束。而后,对语义平面特征进行因子建模,构建相应的因子图优化方案,通过对传统视觉VO的因子图结构进行扩充与改善,以提高无人机的导航定位精度。

语义信息辅助的改进VO与传统VO因子图融合框架对比如图2所示。在图2中,圆圈表示因子图的优化节点,节点间的连线表示两节点之间存在相应的约束关系,这些约束关系通过连线上的方块进行表示;Ti表示第i关键帧时刻相机的位姿,pi表示构建的第i个传统特征点,li表示构建的第i个语义平面特征;橙色方框表示语义平面观测约束,黑色方框表示VO得到的帧间相对位姿约束,灰色方框表示传统特征点的观测约束。



(a)传统VO因子图结构




(b)语义信息辅助的改进VO因子图结构

图2 改进VO与传统VO因子图融合框架对比

Fig.2 Comparison of factor graph fusion framework between improved VO and traditional VO


传统VO由于只提取低维的点特征,因此其构建的因子图模型中只包含特征点与相机位姿节点,且构建的约束只包括二者之间的观测约束,其结构如图2(a)所示。本文在传统VO的基础上实现了语义信息辅助的VO因子图结构,如图2(b)所示。在传统算法的基础上,本文首先根据VO量测,增添帧间相对位姿约束因子,为相邻两关键帧之间提供直接的相对位姿约束,而后通过语义平面的特征提取及数据关联,获取关键帧与语义平面特征之间的观测约束,并进行相应的因子构建。



2.1 语义平面特征构建及数据关联

在语义信息的提取上,为了实现对感兴趣语义对象的快速精确检测,本文采用基于卷积神经网络的视觉检测方法,实现对RGB图像语义对象的实时检测,获取室内感兴趣语义对象的二维BBOX。在点云分割及平面拟合方面,本文基于深度图像点云的结构化特性,在获取的语义对象二维BBOX内,使用基于连通域的点云分割与平面拟合方法,进行点云分割及平面拟合,获取感兴趣语义对象的三维平面。结合语义信息的提取及平面分割结果,可以构建具有语义属性的三维平面。通过上述过程,可以获取语义物体表面所在平面参数、平面类型、所属物体类别,利用这些属性以及三维几何空间信息,可以构建丰富的语义平面特征。

在室内场景中,本文关注的语义对象中的表平面通常为水平或垂直向。因此,在语义平面提取过程中,本文也对平面分割结果进行筛选,并构建语义平面特征。


2.1.1 平面筛选

首先,根据提取的所有平面的质心和法线,判断平面,如式(1)


(1)

其中,np为提取的平面法线;ng为已知的地平面法线。如果npng的差值dhor小于设定的水平面法线差阈值thor,则以np为法线的平面被标记水平面;而如果大于设定阈值thor,则检查平面是否为垂直平面。同样,设置垂直面法线差阈值tvert。若平面为一垂直平面,则其法向量将与本文设置的标准水平面法向垂直,即二者点积为0。由此,可以通过点积的方式计算平面法线与垂直平面法线的差值,如式(2)

dvert=np·ng

(2)

如果dvert小于设定的阈值tvert,以np为法线的平面被标记垂直平面。


2.1.2 语义平面特征构建

由上述流程步骤,可以获取平面的多种信息:语义类别、形心、法线方向、平面类别(垂直/水平平面)。由此构建语义平面特征,如式(3)


(3)

其中,sp为平面形心;sn为平面法线参数;so为平面类别标签(水平/垂直);sc为平面语义类别标签,其取决于平面所对应的语义对象类别。


2.1.3 语义特征关联

本文通过维护语义特征图的方式实现语义特征间的关联,将当前帧的语义平面与地图中的语义路标进行匹配,并求取它们之间的运动关系。为了提高运算效率,本文在地图中使用世界坐标系表示特征的位置,通过计算就可以直接得到相机在世界坐标系下的变换

通过平面分割及语义特征构建,可以得到如式(4)所示的语义平面

Si={Szi,Sni,Soi,Sci}

(4)

其中,对于Si,其所有位置相关特征项均以相机系为参考系。

算法中第一个接收到的语义对象不用经过数据关联,直接映射为第一个语义路标,将其表示为Li

Li={lzi,lni,lσi,loi,lci}

(5)

其中,对于Lilzilni表示在世界坐标系下的语义路标质心及法向。其可利用SziSni通过坐标变换求得,具体公式如式(6)


(6)

其中,xr表示当前相机在世界坐标系的位置;表示从相机坐标系到世界坐标系的旋转矩阵。lσi表示语义路标位置估计的不确定性,其初始值根据平面中包含的点云数目进行设定。与点云较多的语义对象相比,点云较少的语义对象估计出的语义路标形心位置及法线方向的不确定性更高,对应的lσi也更大。

完成初始语义路标设置后,通过以下3个步骤实现每帧检测语义平面Sk与语义路标图之间的数据关联:

1)首先,将从帧中提取的语义平面与语义路标进行类别及平面类型的匹配。匹配成功后,计算语义平面的点云个数及区域面积。本文为点云数据及语义平面面积分别设置了最小阈值:tpta,用于删除由于检测边界框不完全适合语义对象导致的质心坐标存在偏差的语义平面。经过上述检测,匹配成功的语义平面才能进行后续匹配,否则匹配失败。

2)而后,利用坐标变换,将语义平面的法线方向由相机坐标系转换到世界坐标系下,得到lnk,将其与语义路标的法向lni进行匹配。若lnklni间的偏差小于设定的阈值tn,则认为语义平面与路标法向一致,进入后续的坐标关联,否则匹配失败。

3)通过上述两步骤,将语义平面的形心由相机坐标系转换到世界坐标系下,计算语义平面形心与其相匹配的路标形心的马氏距离,若大于设定的阈值,则将检测到的语义对象映射为新的语义路标lj,否则语义对象与当前的语义路标li相匹配。

利用语义平面特征构建及数据关联,可以得到补充的相机关键帧位姿帧间约束。


2.2 基于语义信息辅助的位姿非线性优化方法

本文所提方法的优化函数可以表示为

(7)

其中,Semantic部分代表语义路标观测的残差;eSi,k表示相机某帧观测到的语义路标位置误差;VO部分代表VO中相对位姿的观测残差;ρ(·)代表鲁棒核函数;Σ-1表示各误差量对应的信息矩阵,其为协方差矩阵的逆;VO的协方差矩阵与视觉相机标定后的重投影误差相关,语义残差的协方差矩阵与语义路标的不确定性lσi相关。式中,ij分别指第ij图像帧,k表示第k个语义路标。对于构建的残差模型,本文中设定的优化状态变量为相机的位姿以及语义特征的位置,分别用Tl表示。

对于语义路标观测误差,如式(8)


(8)

其中,为语义路标在相机坐标系下的位置观测;Wlzk为待优化变量,分别表示相机在第i帧的位姿以及路标Lk在世界系的位置。

对于VO位姿观测残差,如式(9)

(9)

其中,为VO在第i帧相对于第j帧的相对位姿观测;为待优化变量。

采用L-M优化算法对优化代价函数进行优化求解,即可实现状态量的优化,即实现对相机位姿以及语义路标位置的同时优化。



3 基于惯性预积分的语义视觉/惯性融合算法

通过语义信息的提取与融合,可以提升传统VO算法的定位精度。然而,语义信息和点特征都利用视觉传感器进行提取,都属于视觉特征。在实际应用场景中,由于无人机的快速运动及角度的快速转变,视觉信息通常会受到一定的限制。在大机动情况下,基于视觉的位置解算很可能会存在较大的偏差。与视觉传感器不同,IMU是一种完全自主的导航传感器,其不依赖对外界环境的感知,与视觉传感器进行融合,可以得到更鲁棒的导航系统。

本文基于IMU预积分[18],建立相邻两图像帧之间的运动约束,利用该约束对相机位姿估计状态量进行辅助优化。本文构建的语义视觉/惯性融合系统框图如图3所示。IMU预积分在视觉关键帧之间进行,得到的是两关键帧之间的惯性预积分约束,在构建好约束之后,与语义VO联合进行优化量的优化求解。



图3 语义视觉/惯性里程计系统框图
Fig.3 Frame diagram of semantic visual/inertial odometry system


结合IMU预积分,同时考虑IMU及VO、语义残差的后端优化函数如式(10)所示


(10)

其中,第三项为新增添的IMU预积分估计残差;eIij为IMU预积分误差;为IMU残差对应的信息矩阵,其为IMU预积分协方差矩阵的逆。

融合惯性信息后,第i时刻的系统状态变量为


(11)

其中,(Ri,pi)∈R6为相机位姿;Ri采用李代数so(3)的形式表示;viR3表示相机在世界坐标系下的速度; 别为IMU的加速度计与陀螺仪的零偏。

式(10)中,IMU预积分误差eIij的具体表示如式(12)所示


(12)

中,分别为姿态预积分、速度预积分、位置预积分的计算值;g表示导航坐标系下的重力;Δtiji时刻与j时刻之间的时间差。

采用L-M优化算法对式(10)进行优化求解,得到系统状态变量的最优估计。



4 试验测试与分析


4.1 试验设置

为了验证本文所提方法的性能,开展了TUM-RGBD数据集[19]试验和实际的无人机飞行验证试验,通过与传统VO方法定位精度的对比分析,验证了本文所提方法的可靠性和精度。


4.2 TUM-RGBD数据集试验与分析

TUM数据集包括不同场景的室内序列,用于评估视觉里程计的性能,其提供了RGB-D传感器在环境中的真实运动轨迹及采集到的RGB图像与深度图像。RGB-D传感器使用的是微软的kinect,采用结构光进行深度信息的获取,能够提供分辨率较高较为精细的深度图。RGB图像分辨率为640dpi×480dpi,频率为30Hz;深度图像分辨率为320dpi×240dpi,频率为30Hz。

本文选取TUM数据集中含有语义路标的室内场景Freiburg2 xyz视频序列进行验证,将所提的平面语义信息辅助VO算法与传统VO方法进行对比分析。在试验数据中,出现的典型语义对象为椅子、屏幕、书以及键盘等,本文算法能检测出这些典型的语义对象,并按需求将其设置为语义路标。Freiburg2 xyz视频序列场景如图4所示。



图4 Freiburg2 xyz视频序列场景图
Fig.4 Scene image of Freiburg2 xyz video sequence


在该数据集视频序列中,相机动态沿着xyz轴做平移和旋转运动。在相机的视野范围内,始终存在两个语义对象,一个电视监视器和一个键盘。在试验过程中,这两个语义对象在语义信息辅助的视觉VO中被检测出,并作为语义路标添加进因子图优化框架中,协助传统的基于特征点的VO进行辅助的位姿优化。图5显示了语义信息辅助的视觉里程计解算出的相机运动轨迹以及所构建的语义平面对象。其中,红色垂直向平面为对数据集中“电脑屏幕(TVmonitor)”的语义平面,紫色水平向平面为对数据集中“键盘(Keyboard)”的语义平面。



图5 语义信息辅助的VO定位及构图结果
Fig.5 Semantic information aide VO positioning
and mapping results


图6所示为TUM数据集试验轨迹对比图,绿线代表无语义信息辅助的RGB-D VO解算结果,红线代表语义信息辅助下的RGB-D VO结果,蓝线代表真值,蓝色圆圈所在处为相机的初始位置。由图6可以看出,使用语义信息辅助的视觉里程计解算得到的相机轨迹与真值间的偏移量更小,与传统的RGB-D视觉里程计相比具有更好的定位精度。图7所示为TUM数据集试验三轴位置误差对比图。从图7可以看出,经语义信息融合后,相机的三轴位置误差在一定程度上都有所修正。



图6 TUM数据集试验轨迹对比图
Fig.6 Trajectories comparison diagram of TUM dataset experiment



图7 TUM数据集试验三轴位置误差对比图
Fig.7 Comparison diagram of three-axis position error
in TUM dataset experiment


图8所示为传统VO与本文所提语义信息辅助VO的误差统计箱线图。从图8可以看出,在统计意义上,改进算法的误差不管是从数值还是从误差范围的分布上,与传统算法相比都有更好的表现。表1对比了传统VO与本文所提语义信息辅助VO的定位误差,可以看出,本文所提的语义信息辅助的VO方法具有更好的精度。



图8 TUM数据集试验位置误差箱线对比图
Fig.8 Comparison diagram of position error box-plot of
TUM dataset experiment


表1 TUM数据集试验定位误差统计

Tab.1 Positioning error of TUM dataset experiment




4.3 无人机试验与分析

为了进一步验证本文所提方法的有效性,利用无人机平台进行实际试验验证,通过运动捕捉系统获取无人机的基准位置信息,其定位精度可达毫米级。飞行试验硬件平台如图9所示,选用的无人机为大疆创新(DJI)的Matrix 100四轴飞行器;视觉传感器型号为Intel RealSense D435i,可以同时获取RGB及深度图像信息;惯性传感器为Intel RealSense D435i自带的IMU,其型号为博世BMI055;机载计算机为DJI Manifold。



图9 飞行试验硬件平台
Fig.9 UAV flight experiment hardware platform


试验场景如图10所示,在本次飞行试验室内场景中出现的典型语义对象主要为椅子、电脑屏幕等。为了验证语义信息的辅助效果以及惯性融合对定位结果的优化程度,检验整体的改进算法的性能,本次试验在场景中采集了多组测试数据,对无人机定位系统的整体性能精度及误差特性进行评估。在测试过程中,无人机围绕着语义对象进行无规律地平移以及旋转运动,试验中同时还设置了大范围转角等机动性较强的无人机飞行轨迹,以保证对算法的鲁棒性进行验证。在运动过程中,无人机始终保持视野范围内有语义对象的存在,每组数据无人机的运动过程持续约3min。试验过程中,无人机始终控制在动捕系统的追踪范围内。



图10 无人机飞行试验场景
Fig.10 Scene image of UAV flight experiment


选取一组试验数据进行无人机轨迹绘制及定位误差分析。图11显示了在语义信息与惯性的辅助下,算法的相机运动轨迹解算结果以及构建的语义平面对象。其中,红色平面为对数据集中“电脑屏幕(TVmonitor)”的语义平面,绿色平面为对数据集中“椅子(chair)”的语义平面。



图11 语义信息辅助的视觉/惯性融合定位及构图结果
Fig.11 Semantic information aide visual/inertial fusion
positioning and mapping results


为了体现本文所提方法的改进效果,利用传统VO与本文算法的解算结果进行导航结果绘制,并将其与运动捕捉系统提供的参考基准轨迹进行对比,可以得到如图12所示的无人机轨迹对比图。其中蓝色为运动捕捉系统获取的无人机的真实飞行轨迹,红色为本文所提方法得到的无人机轨迹,绿色为传统VO算法得到的无人机轨迹,蓝色圆圈为试验中设置的无人机运动的起点。由图12可以看出,本文改进算法解算的无人机位置轨迹与真值的偏移量更小,相比之下,传统VO算法具有更大的定位偏差。在试验过程中,观测到同一语义对象的关键帧之间形成了十分紧密的共视关系,为位姿优化提供了一个全局约束。因此,在本次试验中,改进算法轨迹相对于无人机的真实轨迹漂移较少。在一些设置的转弯处,无人机机动性较大,传统VO算法在该处出现了较大的漂移,而本文算法通过惯性信息的辅助,在该处精度有所提升。



图12 无人机室内定位试验轨迹对比图
Fig.12 Trajectories comparison diagram of UAV indoor positioning experiment



图13 无人机室内定位试验三轴位置误差对比图
Fig.13 Comparison diagram of three-axis position error in UAV indoor positioning experiment



图14 无人机室内定位试验位置误差箱线对比图
Fig.14 Comparison diagram of position error box-plot of UAV indoor positioning experiment

图13和图14所示分别为无人机飞行试验中的三轴位置误差对比图以及位置误差箱线对比图。图13更直观地显示了各算法的三维位置误差随时间的变化。从图13可以看出,经过语义信息辅助以及IMU融合的视觉里程计导航误差总体更小。从图14可以看出,在飞行过程中改进算法相对传统VO算法保持了更优的精度。

为了更加客观地评价本文算法的有效性,本文对采集的共三组试验数据的定位结果进行了定量统计,表2所示为定位误差统计结果。表2中包含了传统VO以及本文所提的改进惯性语义融合VO的三轴位置误差以及总定位误差,其中总定位误差由对三轴位置误差的平方和开根号求得,对应表中的位置误差项。


表2 无人机飞行试验位置误差统计

Tab.2 Positioning error of UAV flight experiment



从表2可以看出,在无人机室内定位试验中,与传统视觉VO相比,本文所提算法具有更小的三轴定位误差以及总定位误差,总体定位精度相较于传统VO算法提高了约40.0%。因此,本文所提方法具有更高的定位精度和鲁棒性。



5 结论

针对传统VO算法抗干扰能力不足、定位精度及鲁棒性差的问题,本文提出了一种基于语义信息辅助的无人机视觉/惯性融合定位方法。该方法将语义平面表述为语义路标,利用VO信息构建位姿-语义路标图,并通过非线性优化进行位姿的优化求解。为了弥补单一传感器的不足,本文通过IMU预积分技术进一步融合了惯性传感器信息。通过实际的无人机飞行试验对所提方法进行了验证,以运动捕捉系统获取的定位结果为基准参考,结果表明,所提方法能够有效提高传统视觉里程计的定位精度。


参考文献(略)

(扫码查看完整版)

编辑:Livia

审核:Shirley

云脑智库 努力是一种生活态度,与年龄无关!专注搬运、分享、发表雷达、卫通、通信、化合物半导体等技术应用、行业调研、前沿技术探索!专注相控阵、太赫兹、微波光子、光学等前沿技术学习、分享
评论
  • 全球领先的光学解决方案供应商艾迈斯欧司朗(SIX:AMS)近日宣布,与汽车技术领先者法雷奥合作,采用创新的开放系统协议(OSP)技术,旨在改变汽车内饰照明方式,革新汽车行业座舱照明理念。结合艾迈斯欧司朗开创性的OSIRE® E3731i智能LED和法雷奥的动态环境照明系统,两家公司将为车辆内饰设计和功能设立一套全新标准。汽车内饰照明的作用日益凸显,座舱设计的主流趋势应满足终端用户的需求:即易于使用、个性化,并能提供符合用户生活方式的清晰信息。因此,动态环境照明带来了众多新机遇。智能LED的应用已
    艾迈斯欧司朗 2025-01-15 19:00 49浏览
  • 数字隔离芯片是现代电气工程师在进行电路设计时所必须考虑的一种电子元件,主要用于保护低压控制电路中敏感电子设备的稳定运行与操作人员的人身安全。其不仅能隔离两个或多个高低压回路之间的电气联系,还能防止漏电流、共模噪声与浪涌等干扰信号的传播,有效增强电路间信号传输的抗干扰能力,同时提升电子系统的电磁兼容性与通信稳定性。容耦隔离芯片的典型应用原理图值得一提的是,在电子电路中引入隔离措施会带来传输延迟、功耗增加、成本增加与尺寸增加等问题,而数字隔离芯片的目标就是尽可能消除这些不利影响,同时满足安全法规的要
    华普微HOPERF 2025-01-15 09:48 119浏览
  • 实用性高值得收藏!! (时源芯微)时源专注于EMC整改与服务,配备完整器件 TVS全称Transient Voltage Suppre,亦称TVS管、瞬态抑制二极管等,有单向和双向之分。单向TVS 一般应用于直流供电电路,双向TVS 应用于电压交变的电路。在直流电路的应用中,TVS被并联接入电路中。在电路处于正常运行状态时,TVS会保持截止状态,从而不对电路的正常工作产生任何影响。然而,一旦电路中出现异常的过电压,并且这个电压达到TVS的击穿阈值时,TVS的状态就会
    时源芯微 2025-01-16 14:23 70浏览
  • 近期,智能家居领域Matter标准的制定者,全球最具影响力的科技联盟之一,连接标准联盟(Connectivity Standards Alliance,简称CSA)“利好”频出,不仅为智能家居领域的设备制造商们提供了更为快速便捷的Matter认证流程,而且苹果、三星与谷歌等智能家居平台厂商都表示会接纳CSA的Matter认证体系,并计划将其整合至各自的“Works with”项目中。那么,在本轮“利好”背景下,智能家居的设备制造商们该如何捉住机会,“掘金”万亿市场呢?重认证快通道计划,为家居设备
    华普微HOPERF 2025-01-16 10:22 69浏览
  • 晶台光耦KL817和KL3053在小家电产品(如微波炉等)辅助电源中的广泛应用。具备小功率、高性能、高度集成以及低待机功耗的特点,同时支持宽输入电压范围。▲光耦在实物应用中的产品图其一次侧集成了交流电压过零检测与信号输出功能,该功能产生的过零信号可用于精确控制继电器、可控硅等器件的过零开关动作,从而有效减小开关应力,显著提升器件的使用寿命。通过高度的集成化和先进的控制技术,该电源大幅减少了所需的外围器件数量,不仅降低了系统成本和体积,还进一步增强了整体的可靠性。▲电路示意图该电路的过零检测信号由
    晶台光耦 2025-01-16 10:12 40浏览
  • 百佳泰特为您整理2025年1月各大Logo的最新规格信息,本月有更新信息的logo有HDMI、Wi-Fi、Bluetooth、DisplayHDR、ClearMR、Intel EVO。HDMI®▶ 2025年1月6日,HDMI Forum, Inc. 宣布即将发布HDMI规范2.2版本。新规范将支持更高的分辨率和刷新率,并提供更多高质量选项。更快的96Gbps 带宽可满足数据密集型沉浸式和虚拟应用对传输的要求,如 AR/VR/MR、空间现实和光场显示,以及各种商业应用,如大型数字标牌、医疗成像和
    百佳泰测试实验室 2025-01-16 15:41 50浏览
  • 一个易用且轻量化的UI可以大大提高用户的使用效率和满意度——通过快速启动、直观操作和及时反馈,帮助用户快速上手并高效完成任务;轻量化设计则可以减少资源占用,提升启动和运行速度,增强产品竞争力。LVGL(Light and Versatile Graphics Library)是一个免费开源的图形库,专为嵌入式系统设计。它以轻量级、高效和易于使用而著称,支持多种屏幕分辨率和硬件配置,并提供了丰富的GUI组件,能够帮助开发者轻松构建出美观且功能强大的用户界面。近期,飞凌嵌入式为基于NXP i.MX9
    飞凌嵌入式 2025-01-16 13:15 58浏览
  • 电竞鼠标应用环境与客户需求电竞行业近年来发展迅速,「鼠标延迟」已成为决定游戏体验与比赛结果的关键因素。从技术角度来看,传统鼠标的延迟大约为20毫秒,入门级电竞鼠标通常为5毫秒,而高阶电竞鼠标的延迟可降低至仅2毫秒。这些差异看似微小,但在竞技激烈的游戏中,尤其在对反应和速度要求极高的场景中,每一毫秒的优化都可能带来致胜的优势。电竞比赛的普及促使玩家更加渴望降低鼠标延迟以提升竞技表现。他们希望通过精确的测试,了解不同操作系统与设定对延迟的具体影响,并寻求最佳配置方案来获得竞技优势。这样的需求推动市场
    百佳泰测试实验室 2025-01-16 15:45 55浏览
  • 食物浪费已成为全球亟待解决的严峻挑战,并对环境和经济造成了重大影响。最新统计数据显示,全球高达三分之一的粮食在生产过程中损失或被无谓浪费,这不仅导致了资源消耗,还加剧了温室气体排放,并带来了巨大经济损失。全球领先的光学解决方案供应商艾迈斯欧司朗(SIX:AMS)近日宣布,艾迈斯欧司朗基于AS7341多光谱传感器开发的创新应用来解决食物浪费这一全球性难题。其多光谱传感解决方案为农业与食品行业带来深远变革,该技术通过精确判定最佳收获时机,提升质量控制水平,并在整个供应链中有效减少浪费。 在2024
    艾迈斯欧司朗 2025-01-14 18:45 96浏览
  • 随着智慧科技的快速发展,智能显示器的生态圈应用变得越来越丰富多元,智能显示器不仅仅是传统的显示设备,透过结合人工智能(AI)和语音助理,它还可以成为家庭、办公室和商业环境中的核心互动接口。提供多元且个性化的服务,如智能家居控制、影音串流拨放、实时信息显示等,极大提升了使用体验。此外,智能家居系统的整合能力也不容小觑,透过智能装置之间的无缝连接,形成了强大的多元应用生态圈。企业也利用智能显示器进行会议展示和多方远程合作,大大提高效率和互动性。Smart Display Ecosystem示意图,作
    百佳泰测试实验室 2025-01-16 15:37 42浏览
  • 故障现象 一辆2007款法拉利599 GTB车,搭载6.0 L V12自然吸气发动机(图1),累计行驶里程约为6万km。该车因发动机故障灯异常点亮进厂检修。 图1 发动机的布置 故障诊断接车后试车,发动机怠速轻微抖动,发动机故障灯长亮。用故障检测仪检测,发现发动机控制单元(NCM)中存储有故障代码“P0300 多缸失火”“P0309 气缸9失火”“P0307 气缸7失火”,初步判断发动机存在失火故障。考虑到该车使用年数较长,决定先使用虹科Pico汽车示波器进行相对压缩测试,以
    虹科Pico汽车示波器 2025-01-15 17:30 43浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦