1年,1000公里:牛津RobotCar数据集

原创 智能汽车开发者平台 2022-11-07 17:10
摘要


我们提出了一个具有挑战性的新数据集,用于自动驾驶:牛津RobotCar数据集。在2014年5月至2015年12月期间,我们使用牛津RobotCar平台,即一辆自主的日产LEAF,平均每周两次遍历牛津市中心的路线。这形成了超过1000公里的驾驶记录,从安装在车辆上的6个摄像头收集了近2000万张图像,以及激光雷达、GPS和INS的地面实况。数据是在所有天气条件下收集的,包括大雨、夜晚、阳光直射和下雪。在一年的时间里,道路和建筑工程大大改变了从数据收集开始到结束的部分路线。通过在一年的时间里频繁遍历同一路线,我们能够研究在真实世界的动态城市环境中对自动驾驶车辆的长期定位和测绘。完整的数据集可在以下网站下载:http://robotcar-dataset.robots.ox.ac.uk


I.简介

自动驾驶汽车的研究非常依赖于大量的真实世界数据,用于算法的开发、测试和验证,然后才能在公共道路上部署。按照计算机视觉界的基准驱动方法,一些基于视觉的自动驾驶数据集已经发布,包括[1]、[2]、[3]、[4]、[5],特别是[6]中的KITTI数据集和[7]中最近的Cityscapes数据集。

这些数据集主要关注自动驾驶的算法能力的发展:如[8]、[9]中的运动估计,[10]、[11]中的立体重建,[12]、[13]中的行人和车辆检测以及[14]、[15]中的语义分类。然而,这些数据集并没有解决长期自动驾驶带来的许多挑战:主要是像[16]、[17]那样,在同一环境中,在明显不同的条件下进行定位,以及像[18]、[19]那样,在存在结构变化的情况下进行制图。

在本文中,我们提出了一个专注于长期自动驾驶的大规模数据集。我们通过在一年内反复遍历英国牛津市中心的一条路线,收集了超过20TB的图像、激光雷达和GPS数据,形成了超过1000公里的驾驶记录。收集到的数据的三维可视化样本显示在图1中。

通过在长时间内不同条件下驾驶同一条路线,我们可以捕捉到由于光照、天气、动态物体、季节性影响和建筑等因素造成的场景外观和结构的大范围变化。与所有传感器的原始记录一起,我们提供了一整套内在和外在的传感器校准,以及用于访问和操作原始传感器数据的MATLAB开发工具。

图1. 牛津RobotCar数据集用于长期的道路车辆自动驾驶。Data 在一年多的时间里,使用RobotCar平台在英国牛津市中心反复穿越约10公里的路线,收集了大量的数据。这导致了对同一路线的100多次遍历,捕捉到了一个动态城市环境在很长一段时间内的外观和结构的巨大变化。收集到的图像、激光雷达和GPS数据使人们能够对自动驾驶车辆的长期制图和定位进行研究,这里显示的数据集中的不同区域建立的3D地图样本。

通过向研究人员提供这一大规模数据集,我们希望能够加速未来移动机器人和自动驾驶汽车的长期自主研究。


II.RobotCar平台

数据是使用牛津RobotCar平台收集的,这是一辆日产LEAF自动驾驶汽车,如图2所示。

RobotCar安装了以下传感器:

1 x Point Grey Bumblebee XB3 (BBX3-13S2C-38)三视立体相机,1280 × 960 × 3,16Hz,1/3" Sony ICX445 CCD,全局快门,3.8mm镜头,66  HFoV,12/24厘米基线

• 3 x Point Grey Grasshopper2 (GS2-FW-14S5C-C) 单眼相机, 1024 × 1024, 11.1Hz,2/3” Sony

图2. RobotCar平台(顶部)和传感器位置图。坐标框架显示了安装在车辆上的每个传感器的原点和方向,惯例是:X-前(红色),Y-右(绿色),Z-下(蓝色)。所列的测量值以厘米为近似值;开发工具包括所有传感器的精确SE(3)外校准。

ICX285 CCD, 全局快门, 2.67mm 鱼眼镜头 (Sunex DSL315B-650-F2.3), 180◦ HFoV

• 2 x SICK LMS-151 2D 激光雷达,270◦ 视场角, 50Hz, 50m 范围, 0.5◦分辨率

• 1 x SICK LD-MRS 3D 激光雷达,85◦ HFoV, 3.2◦ VFoV, 4平面, 12.5Hz, 50m 范围, 0.125◦ 分辨率

• 1 x NovAtel SPAN-CPT ALIGN 惯性和GPS导航系统, 6轴, 50Hz, GPS/GLONASS,双天线

车辆上的传感器的位置如图2所示。车辆上的所有传感器都是用一台运行Ubuntu Linux的电脑记录的,该电脑有两个八核英特尔至强E5-2670处理器,96GB四通道DDR3内存和一个由八个512GB固态硬盘组成的RAID 0(条带)阵列,总容量为4TB。所有的传感器驱动和记录过程都是内部开发的,以提供准确的同步和记录数据的时间戳。

两个LMS-151二维激光雷达传感器都以 "推扫式 "配置安装,以便在车辆前进过程中提供对周围环境的扫描。通过将这些扫描与全局或局部姿态源相结合,形成一个精确的环境三维重建,如图1所示;

图3. 10公里的主要数据收集路线显示了GPS接收和INS质量的变化。大多数数据集表现出良好的GPS接收(左边),以绿色显示。在一些地方,GPS接收不良导致INS解决方案的漂移(中间,红色),尽管原始GPS测量(青色)仍然可用。偶尔,接收的缺失会在很大一部分路线上造成明显的定位误差(右图)。

通过将这些扫描与全局或局部姿态源相结合,形成一个精确的环境三维重建,如图1所示;

MATLAB开发工具中提供了生成三维点云的软件。LD-MRS传感器被安装在朝前的配置中,以探测车辆前方的障碍物。

Bumblebee XB3和三个Grasshopper2相机的组合提供了车辆周围场景的360度视觉监控。三台Grasshopper2相机使用Point Grey为共享火线800总线1的相机提供的自动方法进行同步,产生11.1Hz的平均帧率。BumblebeeXB3相机是以16Hz的最大帧率记录的。

为BumblebeeXB3开发了一个定制的自动曝光控制器,以提供地面和周围建筑物的良好曝光图像,而不对天空或车辆的前面进行正确曝光。然而,由于软件自动曝光控制的反应较慢,这偶尔会导致帧的过度曝光。Grasshopper2使用了相关的硬件区域自动曝光控制器来提供良好曝光的图像。

III.数据采集


数据收集的时间跨度为2014年5月6日至2015年12月13日,包含了英国牛津市中心的1010.46公里的驾驶记录。在整个数据收集期间,车辆是手动驾驶的;没有使用自动驾驶功能。
收集到的数据总的未经压缩的大小为23.15TB。主要的数据收集路线,如图3所示,在一年的时间里遍历了超过100次。图4展示了从同一地点拍摄的不同遍历的图像的蒙太奇,说明了外观随时间变化的范围。表一列出了整个一年的数据集的汇总统计。
数次遍历是为了捕捉各种条件,包括行人、自行车和车辆交通,小雨和大雨,太阳直射,下雪,以及黎明、黄昏和夜晚。
为了减少相机镜头和激光雷达窗户上的灰尘和湿气,每次遍历前都要用超细纤维布清洁它们。每个条件的标签已被添加到每个遍历中,遍历可以按标签分组,以便于收集某个特定条件。图5展示了不同的条件标签和每个标签的遍历次数。

图4. 2014年5月至2015年12月期间对同一地点进行的100多次遍历的蒙太奇,说明了在各种条件下外观的巨大变化。除了短期的照明和天气变化外,由于季节性变化造成的长期变化也很明显。注意蓝色标志在道路左肩的排列。

图5. 不同条件标签下的遍历次数。一些环境因素影响了路线,包括光照和外观的变化,道路工程和施工造成的绕行,以及影响GPS接收的大气条件。可以按标签对穿越进行分类,以方便下载和调查特定的环境条件。

图6说明了由于不同的条件,从单一地点看外观的变化。
由于道路工程和交通状况的变化,不可能每次遍历都沿着确切的路线走。在某些路段,在数据收集期间,有重大的结构变化。图7说明了2014年底一个十字路口因重新开发而发生的结构变化。
如图3所示,在数据收集过程中,GPS接收的质量和融合的INS解决方案的准确性有很大的不同。
我们提供由SPAN-CPT报告的附加质量信息(卫星数、定位误差、融合状态),以帮助使用GPS+惯性数据。然而,我们不建议直接将其作为基准定位和测绘算法的 "地面实况",特别是在使用间隔数月的多次遍历时。
A.传感器校准
我们为每个传感器提供一整套校准数据,用于多传感器融合和三维重建。图2展示了RobotCar平台上传感器的外在配置。所有的传感器驱动程序都使用了[20]的TICSync库,以确保不同通信总线上的不同传感器之间的亚毫秒级的时钟校准。为每个传感器提供内在和外在的校准,具体如下:

图6. 数据收集过程中捕捉到的驾驶条件的变化说明。由于照明(阳光直射、阴天、夜晚)、天气(雨、雪)和其他道路使用者(车辆、行人、自行车)的遮挡,场景的外观发生了明显的变化。

1.内在:对于BumblebeeXB3图像,开发套件中提供了两套校准查询表:一个是12厘米窄基线配置,由中间和右边的图像组成,另一个是24厘米宽基线配置,由左边和右边的图像组成。

如果只下载数据集的一部分,必须注意为窄基线或宽基线立体图选择正确的图像配置。Bumblebee XB3查询表中的数值是由Point Grey提供的,作为工厂校准的一部分。

对于Grasshopper2图像,为每个相机提供了一个未失真查找表,使用[21]的OCamCalib工具箱获得的校准模型生成。然而,鱼眼图像的透视不失真往往导致高度不均匀的图像,不同的鱼眼失真模型往往更适合于不同的应用。

因此,我们还提供了一个棋盘式序列的原始图像,作为OCamCalib工具箱校准的输入。

2.外在:对于每个激光雷达扫描仪,初始的校准估计是由[22]中描述的相机-激光雷达校准过程提供的。对于二维激光雷达扫描仪,校准估计值采用[23]中描述的在线校准方法进行完善,使用从Bumblebee XB3获得的视觉测距作为相对姿势源。

从GPS+惯性传感器到BumblebeeXB3的校准是使用[23]的修改版计算的,使用来自惯性传感器的轨迹作为相对姿势源来构建三维激光雷达网格。

图7. 环境的结构变化随时间推移。原来的十字路口(左上)经过几个月的重新开发,导致施工期间的交通改道(右上,左下)。最终的十字路口(右下)有一个完全不同的道路布局,用一个环形交叉口代替了交通灯。

使用二维激光雷达扫描建立的点云对LD-MRS进行校准,使用的方法见文献[24]。所有的外部因素都是由MATLAB开发工具提供的。

传感器的终身校准是一个具有挑战性的问题,涉及到长期定位和测绘。虽然我们用上述方法提供了我们对外在因素的最佳估计,但我们不能保证它们对特定的遍历是准确的。我们鼓励研究在线校准的人员使用我们的外部参数作为传感器校准参数长期估计的初始猜测。

B.数据格式

为了便于分配,我们将数据集划分为单独的路线,每条路线对应于一个单一的遍历。为了减少下载文件的大小,我们将每个遍历进一步划分为几块,每块对应于路线的大约6分钟的片段。在一个遍历中,来自不同传感器的数据块会在时间上重叠(例如,左侧立体声数据块2与LD-MRS数据块2覆盖同一时间段);然而,不同遍历之间的数据块并不对应。

每个块都被打包成一个tar档案,以便向下加载;档案中的文件夹结构如图8所示。任何tar文件的大小都不应该超过5GB。希望所有的tar档案都在同一个目录下解压:这将在下载多个块和/或遍历时保留图8中的文件夹结构。

每块档案还包含.timestamps文件中所有传感器时间戳的完整列表,以及标签.csv文件中的条件标签列表,如图5所示。时间戳文件包含ASCII格式的数据,每一行都对应于单个图像或激光雷达扫描的UNIX时间戳和块ID。

图8. 单个数据集的目录布局。当从多个遍历中下载多个tar档案时,将它们全部解压在同一个目录中,将保留文件夹结构。

我们已经将内部记录格式的传感器数据转换为标准的数据格式,以便于携带。每个数据类型的格式如下:

1.图像:所有的图像都以无损压缩的PNG文件2形式存储,采用未校正的8位原始Bayer格式。这些文件的结构为 //.png,其中

对于Bumblebee XB3图像是立体声,对于Grasshopper2图像是单声道,对于Bumblebee XB3图像是左、中、右中的任意一个,对于Grasshopper2相机是左、后、右,是捕获的UNIX时间戳,以微秒计算。Bumblebee XB3图像的左上角4个像素的Bayer图案是GBRG,而Grasshopper2图像是RGGB。原始Bayer图像可以使用MATLAB demosaic函数、OpenCV cvtColor函数或类似的方法转换为RGB。在下面的 "开发工具 "一节中,将对图像失真和校正进行解释。

2.二维激光雷达扫描:每次扫描的二维激光雷达返回值都以双精度浮点值的形式存储在一个二进制文件中,类似于[6]中的Velodyne扫描格式。 

图9. 从左到右:原始Bayer图像(以PNG格式提供),去马赛克的彩色图像,以及来自(顶部)Bumblebee XB3和(底部)Grasshopper2相机的矫正透视图像。开发工具中提供了用于解马赛克和校正扭曲的MATLAB函数。

类似于[6]中的Velodyne扫描格式。 文件结构为/.bin,其中为lms front或lms rear。每个二维扫描由541个(x,y,R)的三元体组成,其中x,y是激光雷达回波相对于传感器的二维直角坐标(米),R是测量的红外反射率值。

在将点投射到直角坐标中时,没有对车辆的运动进行修正;这可以通过根据激光的15ms旋转周期为每个点插入一个时间戳来选择性地执行。 对于一个文件名为.bin的扫描,索引为0的(x, y, R)三元体收集在,索引为540的三元体收集在+15e3。

3.3D激光雷达扫描: 来自LD-MRS的三维激光雷达返回值以与二维激光雷达扫描相同的打包双精度浮点二进制格式存储。这些文件的结构为ldmrs/.bin。每个三维扫描由(x,y,z)的三元体组成,这是激光雷达回波相对于传感器的三维直角坐标(单位:米)。LD-MRS不提供激光雷达返回的红外反射率值。

4.GPS+惯性: SPAN-CPT的GPS和惯性传感器数据以ASCII格式的csv文件提供。提供了两个单独的文件:gps.csv和ins.csv。GPS .csv包含5Hz时GPS的纬度(度)、经度(度)、高度(m)和不确定度(m)的解决方案,ins.csv包含融合的GPS+惯性解决方案,包括3D UTM位置(m)、速度(m/s)、姿态(度)和50Hz时的解决方案状态。

5.视觉定位法(VO): GPS+惯性解决方案中的局部误差(由于卫星信号的丢失或重新获取)会导致使用该传感器作为姿势源构建的局部地图的不连续性。对一些应用来说,一个平滑的局部姿势源,不一定是全局精确的,是比较好的,例如图10所示的局部三维点云构建。

我们使用我们在[25]中描述的视觉测绘系统处理了全套Bumblebee XB3宽基线立体图像,并提供姿态估计作为参考的局部姿态源。 文件vo.csv包含相对姿态解决方案,由源帧和目的帧的时间戳,以及与两帧相关的SE(3)相对姿态的六向量欧拉参数化(x, y, z, α, β, γ)组成。

我们的视觉测绘解决方案在数百米范围内是准确的(适合于建立本地的三维点云),但在更大的范围内会有漂移,而且也会受到场景和曝光水平的影响;我们只把它作为一个参考,而不是作为一个地面真实的相对姿势系统。

图10. 使用(上)INS姿势和(下)本地VO姿势产生的本地三维点云,由所包含的开发工具产生。在GPS接收不佳的地方,INS的姿势解决方案存在不连续,导致本地三维点云被破坏。视觉测距法提供了一个平滑的本地姿势估计,但在较大的距离上会有漂移。


IV.开发工具


我们提供了一套简单的MATLAB开发工具,以便对数据集的访问和操作。提供的MATLAB工具包括加载和显示图像和LIDAR扫描的简单功能,以及更高级的功能,包括从推扫2D扫描生成3D点云,以及将3D点云投影到相机图像。图11展示了开发工具的使用示例。

A.图像去马赛克和去失真

函数LoadImage.m从指定的目录和指定的时间戳读取原始Bayer图像,并返回一个MATLAB格式的RGB彩色图像。该函数还可以接受一个可选的查找表参数(由函数ReadCameraModel.m提供),然后将使用不失真查找表对图像进行校正。图9显示了原始Bayer、RGB和校正图像的例子。函数PlayImages.m将产生一个来自指定目录的可用图像的动画,如图11(a)所示。 

B.三维点云生成
函数BuildPointcloud.m将来自INS的6DoF轨迹与二维激光雷达扫描结合起来,产生一个局部的三维点云,如图11(b)所示。由此产生的点云使用激光雷达反射率信息进行着色,突出显示车道标记和其他反射物体。点云的大小可以用开始时间戳和结束时间戳参数来控制。
C.点云投射到图像上

函数ProjectLaserIntoCamera.m将上述两个工具结合在一起,如下所示:LoadImage.m用于从指定的方向和指定的时间戳检索和解构原始图像,然后BuildPointcloud.m用于在图像捕获时在车辆周围生成本地三维点云。然后,三维点云利用相机的内在因素被探测到二维相机图像,产生如图11(c)所示的结果。


V.经验教训


在收集、存储和处理从RobotCar收集到的数据的过程中,我们学到了很多宝贵的经验,我们在这里总结一下,以供其他尝试类似大规模数据收集的人员参考:

1.仅记录原始数据:对于每个传感器,我们确保只有通过电线收到的原始数据包和准确的主机时间戳被记录到磁盘上;我们不进行任何解析、压缩或过滤(例如 Bayer解马赛克)。

我们还启用了所有传感器的所有可选的日志信息(如状态信息)。这可以最大限度地提高数据的效用,这可能只有在收集后的几个月或几年才会显现出来,并最大限度地减少预处理的 "自营销 "决定。

例如,像[26]那样依赖于测光误差的方法或像[27]那样依赖于精确测色的方法受到图像压缩和Bayer解嵌的强烈影响;通过直接从相机中记录原始数据包,我们最大限度地减少了对未来研究的限制。

2.使用向前兼容的格式:在收集多年的数据时,不可避免地会出现软件错误并被修复,而操作数据的工具的功能也会随着时间的推移而改进。因此,重要的是,数据是以向前兼容的二进制格式记录的,不与特定的软件版本相联系。

在内部,我们使用谷歌Protocol Buffers3来管理我们的数据格式;这使我们能够改变或扩展消息定义,使用代码生成器访问多种语言的消息数据,并保持与旧软件版本的二进制兼容。

3.分开记录的数据和处理的数据:在处理和操作数据时,产生相关的元数据(如索引文件、激光雷达点云、视觉测距结果)往往是有用的。

然而,产生这种元数据的工具会在很长一段时间内发生变化和改进,重要的是,经过处理的日志与原始记录保持区别。在实践中,我们在数据服务器上维护两个日志目录;一个只读目录,只有安装了RobotCar的计算机可以上传到该目录,还有一个读写目录,镜像记录的数据并允许用户添加元数据。

因此,如果其中一个元数据工具被升级,在删除或替换所有以前由该工具生成的元数据时,不会有丢失记录的原始数据的风险。

图11. MATLAB开发工具的样本。(a)所有车载摄像机的图像解压缩和回放,(b)从推扫式激光雷达和INS姿态生成三维点云,(c)利用已知的外在因素和内在因素将三维点云投影到二维摄像机图像中。



VI.总结和未来工作


我们提出了牛津RobotCar数据集,这是一个新的大规模数据集,专注于车辆的长期自动驾驶。随着这个数据集的发布,我们打算挑战目前的长期定位和测绘方法,并促成研究自动驾驶车辆和移动机器人的终身学习。

在不久的将来,我们希望提供类似于KITTI基准套件4的基准服务,为研究人员提供机会,使用共同的地面实况和评价标准公开比较长期的定位和测绘方法。

我们也鼓励研究人员从本文提出的数据中开发他们自己的特定应用基准,例如使用[28]的开放源码结构自运动或[29]的优化包,我们将努力支持这些基准。


参考文献:

[1]P. Dolla´r, C. Wojek, B. Schiele, and P. Perona, “Pedestrian detection: A benchmark,” in Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conferenceon. IEEE, 2009, pp. 304–311.

[2]G. J. Brostow, J. Fauqueur, and R. Cipolla, “Semantic object classes in video: A high-definition ground truth database,” Pattern Recognition Letters, vol. 30, no. 2, pp. 88–97, 2009.

[3]G. Pandey,J. R. McBride, and R. M. Eustice, “Ford campus vision and LIDAR data set,” The International Journal of Robotics Research, vol. 30, no. 13, pp. 1543–1552, 2011.

[4]D. Pfeiffer,  S. Gehrig,  and  N. Schneider,  “Exploiting  the  power  of stereo confidences,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2013, pp. 297–304.

[5] J.-L. Blanco-Claraco, F.-A´ . Moreno-Duen˜as, and J. Gonza´lez-Jime´nez, “The Ma´laga urban dataset: High-rate stereo and LiDAR in a realistic urban scenario,” The International Journal of  Robotics Research,  vol. 33, no. 2, pp. 207–214,2014.

[6]A. Geiger, P. Lenz, C. Stiller, and R. Urtasun, “Vision meets robotics: The KITTI dataset,” International Journal of Robotics Research (IJRR), 2013.

[7]M. Cordts, M. Omran, S. Ramos, T. Rehfeld, M. Enzweiler, R. Benen- son, U. Franke, S. Roth, and B. Schiele, “The Cityscapes dataset for semantic urban scene understanding,” in Proc. of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.

[8]D. Niste´r, O. Naroditsky, and J. Bergen, Visual odometry for ground vehicle applications,” Journal of Field Robotics, vol. 23, no. 1, pp. 3–20, 2006.

[9]A. Geiger, J. Ziegler, and C. Stiller, “Stereoscan: Dense 3D recon- struction in real-time,” in Intelligent Vehicles Symposium (IV), 2011IEEE. IEEE, 2011, pp. 963–968.

[10] H. Hirschmuller, “Accurate and efficient stereo processing by semi- global matching and mutual information,” in 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), vol. 2. IEEE, 2005, pp. 807–814.

[11] A. Geiger, M. Roser, and R. Urtasun, “Efficient large-scale stereo matching,” in Asian conference on computer vision. Springer, 2010, pp. 25–38.

[12] P. Viola, M. J. Jones, and D. Snow, “Detecting pedestrians using patterns of motion and appearance,” International Journalof Computer Vision, vol. 63, no. 2, pp. 153–161, 2005.

[13] R. Benenson, M. Omran, J. Hosang, and B. Schiele, “Ten years of pedestrian detection, what have we learned?” in European Conference on Computer Vision. Springer, 2014, pp. 613–627.

[14] I. Posner, M. Cummins, and P. Newman, “Fast probabilistic labeling of city maps,” in Proceedings of Robotics: Science and Systems IV, Zurich, Switzerland, June 2008.

[15] J. Long, E. Shelhamer, and T. Darrell, “Fully convolutional networks for semantic segmentation,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp. 3431–3440.

[16] C. McManus, B. Upcroft, and P. Newman, “Learning place-dependant features for long-term vision-based localisation,” Autonomous Robots,Special issue on Robotics Science and Systems 2014, pp. 1–25, 2015.

[17] C. Linegar, W. Churchill, and P. Newman, “Made to measure:Bespoke

landmarks for 24-hour, all-weather localisation with a camera,” in Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), Stockholm, Sweden, May 2016.

[18]G. D. Tipaldi, D. Meyer-Delius, and W. Burgard, “Lifelong localiza- tion in changing environments,” The International Journal of Robotics Research, vol. 32, no. 14, pp. 1662–1678,2013.

[19]W. Maddern, G. Pascoe, and P. Newman, “Leveraging experience for large-scale LIDAR localisation in  changing  cities,” in  Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), Seattle, WA, USA, May 2015.

[20]A. Harrison and P. Newman, “TICSync: Knowing when things hap- pened,” in Robotics and Automation (ICRA), 2011 IEEE International Conference on. IEEE, 2011, pp. 356–363.

[21]D. Scaramuzza, A. Martinelli, and R. Siegwart, “A toolbox for easily calibrating omnidirectional cameras,” in 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2006, pp. 5695– 5701.

[22]A.Kassir and T. Peynot,“Reliable automatic camera-laser calibration,” in Proceedings of the 2010 Australasian Conference on Robotics & Automation. ARAA, 2010.

[23]G. Pascoe, W. Maddern, and P. Newman, “Direct visual localisation and calibration for road vehicles in changing city environments,” in IEEE International Conference on Computer Vision: Workshop on Computer Vision for Road Scene Understanding and AutonomousDriving, Santiago, Chile, December2015.

[24]W. Maddern, A. Harrison, and P. Newman, “Lost in translation (and rotation): Fast extrinsic calibration for 2D and 3D LIDARs,”in Proc. IEEE International Conference on Robotics and Automation (ICRA), Minnesota, USA, May 2012.

[25]W. Churchill, “Experience based navigation: Theory, practice and implementation,” Ph.D. dissertation, University of Oxford, Oxford, United Kingdom, 2012.

[26]J. Engel, T. Scho¨ps, and D. Cremers, “LSD-SLAM: Large-scale direct monocular SLAM,” in European Conference on ComputerVision. Springer, 2014, pp. 834–849.

[27] W. Maddern, A. Stewart, C. McManus, B. Upcroft, W. Churchill, and

P. Newman, “Illumination invariant imaging: Applications in robust vision-based localisation, mapping and classification for autonomous vehicles,” in Proceedings of the Visual Place Recognition in Changing Environments Workshop, IEEE International Conference on Robotics and Automation (ICRA), Hong Kong, China, vol. 2, 2014, p. 3.

[28] J. L. Scho¨nberger and J.-M. Frahm, “Structure-from-motion revisited,in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.

[29]S. Agarwal, K. Mierle, and Others, “Ceres solver,” http://ceres-solver. org, 2012.


END

分享不易,恳请点个【👍】和【在看】

智能汽车开发者平台 分享汽车最新前言技术解读,行业分析,与授权行业资料分享平台。
评论 (0)
  • 2025年全球人形机器人产业迎来爆发式增长,政策与资本双重推力下,谷歌旗下波士顿动力、比亚迪等跨国企业与本土龙头争相入局,产业基金与风险投资持续加码。仅2025年上半年,中国机器人领域就完成42笔战略融资,累计金额突破45亿元,沪深两市机器人指数年内涨幅达68%,印证了资本市场对智能终端革命的强烈预期。值得关注的是,国家发展改革委联合工信部发布《人形机器人创新发展行动计划》,明确将仿生感知系统、AI决策中枢等十大核心技术纳入"十四五"国家重大专项,并设立500亿元产业引导基金。技术突破方面,本土
    电子资讯报 2025-04-27 17:08 250浏览
  • 贞光科技代理品牌紫光国芯的车规级LPDDR4内存正成为智能驾驶舱的核心选择。在汽车电子国产化浪潮中,其产品以宽温域稳定工作能力、优异电磁兼容性和超长使用寿命赢得市场认可。紫光国芯不仅确保供应链安全可控,还提供专业本地技术支持。面向未来,紫光国芯正研发LPDDR5车规级产品,将以更高带宽、更低功耗支持汽车智能化发展。随着智能网联汽车的迅猛发展,智能驾驶舱作为人机交互的核心载体,对处理器和存储器的性能与可靠性提出了更高要求。在汽车电子国产化浪潮中,贞光科技代理品牌紫光国芯的车规级LPDDR4内存凭借
    贞光科技 2025-04-28 16:52 120浏览
  • 随着电子元器件的快速发展,导致各种常见的贴片电阻元器件也越来越小,给我们分辨也就变得越来越难,下面就由smt贴片加工厂_安徽英特丽就来告诉大家如何分辨的SMT贴片元器件。先来看看贴片电感和贴片电容的区分:(1)看颜色(黑色)——一般黑色都是贴片电感。贴片电容只有勇于精密设备中的贴片钽电容才是黑色的,其他普通贴片电容基本都不是黑色的。(2)看型号标码——贴片电感以L开头,贴片电容以C开头。从外形是圆形初步判断应为电感,测量两端电阻为零点几欧,则为电感。(3)检测——贴片电感一般阻值小,更没有“充放
    贴片加工小安 2025-04-29 14:59 82浏览
  • 在CAN总线分析软件领域,当CANoe不再是唯一选择时,虹科PCAN-Explorer 6软件成为了一个有竞争力的解决方案。在现代工业控制和汽车领域,CAN总线分析软件的重要性不言而喻。随着技术的进步和市场需求的多样化,单一的解决方案已无法满足所有用户的需求。正是在这样的背景下,虹科PCAN-Explorer 6软件以其独特的模块化设计和灵活的功能扩展,为CAN总线分析领域带来了新的选择和可能性。本文将深入探讨虹科PCAN-Explorer 6软件如何以其创新的模块化插件策略,提供定制化的功能选
    虹科汽车智能互联 2025-04-28 16:00 108浏览
  •  探针台的维护直接影响其测试精度与使用寿命,需结合日常清洁、环境控制、定期校准等多维度操作,具体方法如下:一、日常清洁与保养1.‌表面清洁‌l 使用无尘布或软布擦拭探针台表面,避免残留清洁剂或硬物划伤精密部件。l 探针头清洁需用非腐蚀性溶剂(如异丙醇)擦拭,检查是否弯曲或损坏。2.‌光部件维护‌l 镜头、观察窗等光学部件用镜头纸蘸取wu水jiu精从中心向外轻擦,操作时远离火源并保持通风。3.‌内部防尘‌l 使用后及时吹扫灰尘,防止污染物进入机械滑
    锦正茂科技 2025-04-28 11:45 84浏览
  • 4月22日下午,备受瞩目的飞凌嵌入式「2025嵌入式及边缘AI技术论坛」在深圳深铁皇冠假日酒店盛大举行,此次活动邀请到了200余位嵌入式技术领域的技术专家、企业代表和工程师用户,共享嵌入式及边缘AI技术的盛宴!1、精彩纷呈的展区产品及方案展区是本场活动的第一场重头戏,从硬件产品到软件系统,从企业级应用到高校教学应用,都吸引了现场来宾的驻足观看和交流讨论。全产品矩阵展区展示了飞凌嵌入式丰富的产品线,从嵌入式板卡到工控机,从进口芯片平台到全国产平台,无不体现出飞凌嵌入式在嵌入式主控设备研发设计方面的
    飞凌嵌入式 2025-04-28 14:43 107浏览
  • 在电子电路设计和调试中,晶振为电路提供稳定的时钟信号。我们可能会遇到晶振有电压,但不起振,从而导致整个电路无法正常工作的情况。今天凯擎小妹聊一下可能的原因和解决方案。1. 误区解析在硬件调试中,许多工程师在测量晶振时发现两端都有电压,例如1.6V,但没有明显的压差,第一反应可能是怀疑短路。晶振电路本质上是一个交流振荡电路。当晶振未起振时,两端会静止在一个中间电位,通常接近电源电压的一半。万用表测得的是稳定的直流电压,因此没有压差。这种情况一般是:晶振没起振,并不是短路。2. 如何判断真
    koan-xtal 2025-04-28 05:09 136浏览
  • 探针台作为高精度测试设备,在光电行业的关键器件研发、性能测试及量产质量控制中发挥核心作用,主要涵盖以下应用场景与技术特性:一、光电元件性能测试1.‌光电器件基础参数测量‌l 用于LED、光电探测器、激光器等元件的电流-电压(I-V)特性、光功率、响应速度等参数测试,支撑光通信、显示技术的器件选型与性能优化。l 支持高频信号测试(如40GHz以上射频参数),满足高速光调制器、光子集成电路(PIC)的带宽与信号完整性验证需求。2.‌光响应特性分析‌l 通过电光转换效率测
    锦正茂科技 2025-04-27 13:19 123浏览
  • 探针台作为半导体制造与测试的核心设备,通过精密定位与多环境适配能力,支撑芯片研发、生产及验证全流程。以下是其关键应用领域与技术特性:一、核心功能支撑1.‌电性能测试与分析‌l 在晶圆切割前,探针台直接接触芯片电极,测量阈值电压、漏电流、跨导等200余项参数,用于评估良品率及优化工艺设计。l 支持单晶体管I-V曲线测量,定位栅极氧化层厚度偏差(精度达0.2nm),为器件性能分析提供数据基础。2.‌纳米级定位与测量‌l 定位精度达±0.1μm,满足5nm及以下制程芯片的
    锦正茂科技 2025-04-27 13:09 151浏览
  • 一、智能家居的痛点与创新机遇随着城市化进程加速,现代家庭正面临两大核心挑战:情感陪伴缺失:超60%的双职工家庭存在“亲子陪伴真空期”,儿童独自居家场景增加;操作复杂度攀升:智能设备功能迭代导致用户学习成本陡增,超40%用户因操作困难放弃高阶功能。而WTR096-16S录音语音芯片方案,通过“语音交互+智能录音”双核驱动,不仅解决设备易用性问题,更构建起家庭成员间的全天候情感纽带。二、WTR096-16S方案的核心技术突破1. 高保真语音交互系统动态情绪语音库:支持8种语气模板(温柔提醒/紧急告警
    广州唯创电子 2025-04-28 09:24 150浏览
  •     今天,纯电动汽车大跃进牵引着对汽车电气低压的需求,新需求是48V。车要更轻,料要堆满。车身电子系统(电子座舱)从分布改成集中(域控),电气上就是要把“比12V系统更多的能量,送到比12V系统数量更少的ECU去”,所以,电源必须提高电压,缩小线径。另一方面,用比传统12V,24V更高的电压,有利于让电感类元件(螺线管,电机)用更细的铜线,缩小体积去替代传统机械,扩大整车电气化的边界。在电缆、认证行业60V标准之下,48V是一个合理的电压。有关汽车电气低压,另见协议标准第
    电子知识打边炉 2025-04-27 16:24 242浏览
  •  集成电路封装测试是确保芯片性能与可靠性的核心环节,主要包括‌晶圆级测试(CP测试)‌和‌封装后测试(FT测试)‌两大阶段,流程如下:一、晶圆级测试(CP测试)1.‌测试目的‌:在晶圆切割前筛选出功能缺陷或性能不达标的晶粒(Die),避免后续封装环节的资源浪费,显著降低制造成本。2.‌核心设备与操作‌l ‌探针台(Prober)‌:通过高精度移动平台将探针与晶粒的Pad jing准接触,实现电气连接。l ‌ATE测试机‌:提供测试电源、信号输入及功能向量,接收晶粒反
    锦正茂科技 2025-04-27 13:37 198浏览
  • 晶振在使用过程中可能会受到污染,导致性能下降。可是污染物是怎么进入晶振内部的?如何检测晶振内部污染物?我可不可以使用超声波清洗?今天KOAN凯擎小妹将逐一解答。1. 污染物来源a. 制造过程:生产环境不洁净或封装密封不严,可能导致灰尘和杂质进入晶振。b. 使用环境:高湿度、温度变化、化学物质和机械应力可能导致污染物渗入。c. 储存不当:不良的储存环境和不合适的包装材料可能引发化学物质迁移。建议储存湿度维持相对湿度在30%至75%的范围内,有助于避免湿度对晶振的不利影响。避免雨淋或阳光直射。d.
    koan-xtal 2025-04-28 06:11 108浏览
我要评论
0
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦