自动驾驶汽车下雨场景下视觉里程计方法评估

智驾最前沿 2023-09-27 08:01
--关注、星标、回复“智驾干货”--
↓↓免费领取:超多份自动驾驶行业干货↓↓
后台回复:原稿2,即可获取:本文英文版pdf文件

随着自动驾驶的需求不断增加,需要具备在恶劣天气条件下同样有效运行的强大导航系统。视觉里程计是用于这些导航系统的一种技术,它利用车载摄像头的输入来估计车辆的位置和运动。

欢迎关注「智驾最前沿」微信视频号

然而在恶劣的天气条件下,如大雨、雪或雾,视觉里程计的准确性可能会受到严重影响。在本文评估了一系列视觉里程计方法,包括基于我们的 DROID-SLAM 的启发式方法。
具体而言,这些算法在晴朗和雨天的城市驾驶数据上进行了测试,以评估它们的稳健性。我们编制了一个包括来自不同城市的各种雨天条件的数据集。
其中包括牛津机器人车数据集、慕尼黑的4Seasons数据集以及新加坡收集的数据集。使用绝对轨迹误差(ATE)评估了不同的视觉里程计算法,包括单目和双目摄像头配置。
我们的评估表明,深度与光流视觉里程计(DF-VO)算法在短距离(<500m)内的单目配置下表现良好,而我们提出的基于DROID-SLAM的启发式方法在长期定位方面相对表现良好的双目配置下表现良好。这两种算法在所有雨天条件下都表现出色。

主要贡献
本文评估了一系列不同的视觉里程计算法,包括我们基于DROID-SLAM的启发式方法 ,用于雨中的城市驾驶。目标是找到在多雨天气中表现相对良好的视觉里程计算法,以实现稳健的定位。整合了可用的开源雨天数据集,并将它们与雨天数据集合并,以创建一个全面的数据集套件进行评估。
开源数据集包括牛津机器人车和4Seasons数据集。我们的数据集是在新加坡收集的,而牛津机器人车和4Seasons数据集分别来自牛津和慕尼黑。因此研究中使用的综合数据集包含了来自气候和地理位置不同的城市的各种道路和雨天条件。
图1展示了这三个数据集的示例图像。

图1. 来自三个数据集的示例图
分析了各种方法的优点和局限性,并提供了未来研究方向的见解,以提高这些情景下基于视觉里程计的算法的稳健性和可靠性。我们的贡献包括:
(a)对现有视觉里程计算法在晴朗和雨天条件下的全面评估;
(b)对不同视觉里程计算法在雨天条件下的优点和局限性的分析。

内容概述
选择了七种开源算法在晴天和雨天条件下进行评估,选择这七种算法是为了覆盖不同类型的VO方法。
这里简要介绍了每种算法的实现,并强调了受雨水影响的设计部分。特别是将考虑特征提取和匹配策略以及处理失败的方法。
A. 直接稀疏视觉里程计(DSO)
DSO是一种经典的单目方法,使用关键帧执行相机姿态和3D世界模型的联合优化。它在三个数据集上进行了测试:TUM monoVO、EuroC MAV 和ICL-NUIM 数据集,并且表现出了稳健的准确定位结果。
DSO能够处理低纹理环境,使用其新颖的特征选择策略,并具有多种检测异常值或跟踪失败的方法。DSO用于特征选择的策略在寻找图像中特征的均匀分布和每个特征的独特性之间进行权衡。
DSO采用异常值检测,其中具有超过阈值的误差的匹配点被丢弃。阈值取决于图像的中值残差,考虑到图像质量较低的部分,允许具有较高误差的匹配通过阈值。
这在雨天条件下很常见,图像质量会随机变化,需要自适应阈值来考虑图像质量的变化。当当前帧的光度误差超过前一帧的误差的两倍时,被视为跟踪失败,算法会尝试恢复定位。
这允许在图像质量改善时恢复算法,但会以失去质量差的部分的定位为代价。这样的设计对于传感器融合方法可能是有利的,其中每个传感器能够确定何时发生了故障,但不适用于雨天条件下的纯VO。
B. 半直接视觉里程计
SVO是一种经典的混合直接和间接方法,允许单目和立体配置。它旨在在微型空中飞行器(MAVs)上的机载计算机上实现精度和速度的良好平衡,并在TUM RGB-D、EuroC MAV和ICL-NUIM数据集上进行了测试。在EuroC和ICL-NUIM数据集上,其性能与DSO相似。 
SVO使用更强大的深度预测模型以最小化异常值的影响。它还使用仿射照明模型来处理较长时间范围内的光照变化。异常值和光照变化更有可能在雨天条件下发生,这样的设计可以提高雨天中的定位精度。SVO的立体设置改善了深度预测,并有望提高较长路径的定位精度。
C. CNN-SVO
CNN-SVO 是一种混合学习和经典方法,它通过卷积神经网络实现了对单幅图像深度的预测,从而改进了SVO。这个网络将贝叶斯深度滤波器初始化为均值和方差,而不是一个大范围的不确定值,因此滤波器能够更快地收敛到真实深度值,从而提高了鲁棒性和运动估计。
因此,与专为MAV设计的SVO相比,CNN-SVO在自动驾驶应用中表现明显更好。CNN-SVO使用与SVO相同的特征提取和匹配策略。
D. Depth and Flow for Visual Odometry (DF-VO) 
DF-VO 是一种基于学习的直接单目视觉里程计方法,它使用混合的稠密和稀疏特征。它使用深度学习模型进行光流和深度预测,同时使用经典方法进行姿态估计和尺度恢复。
DF-VO还考虑了一些极端情况,当找到的特征不足时,会使用恒定速度运动模型来替代跟踪。这在雨天情况下非常有用,因为图像的过度曝光通常只发生在短时间内,比如转弯或通过道路上没有阴影的区域。
E. TartanVO 
TartanVO是一种基于学习的、间接的、单目方法,它使用密集特征。它被设计成具有泛化能力,无需对其进行微调即可在未见过的数据集上表现良好。它在TartanAir数据集上进行了训练,这是一个全天候的无人机数据集,并在城市驾驶和航空数据集上进行了测试。
它不具备特征提取和匹配策略,因为它同时使用深度学习模型进行光流和姿态预测。它也不会检测到定位失败或离群值。这可能导致它对雨天造成的极端失真比较敏感,尽管它是在全天候数据上训练的。
F. ORB-SLAM3 
ORB-SLAM3是一种传统的、间接的VSLAM方法,它使用稀疏特征,支持单目和立体设置。它使用了ORB特征,这些特征检测速度快,对噪声具有抗性。ORB-SLAM3在EuRoC数据集上进行了测试。在单目摄像头配置中,它平均优于DSO和SVO,而在立体设置中,它优于SVO。
ORB-SLAM3还旨在将发现的特征均匀分布在图像上,其中图像被分成一个网格来搜索角点特征。还使用了一个阈值来找到每个单元格内的最佳特征,如果找到的特征不足,就会降低这个阈值。这样的设计确保了即使在质量较差的图像上也能找到足够的特征,但牺牲了特征的质量。
通过使用方向一致性测试以及在计算单应性和基本矩阵时的RANSAC过程来检测离群值。当找不到足够的对应关系时,跟踪也会停止。因此,在雨天条件下,图像遭受大量失真时,该算法将停止定位并执行重新定位。
G. DROID-SLAM 
DROID-SLAM是一种基于学习的、间接的VSLAM方法,它使用稠密特征,支持单目和立体摄像头设置。它是在TartanAir数据集上进行训练的,这是一个全天候的合成无人机数据集。
DROID-SLAM用于预测每个像素的光流和置信度分数的光流模型。在捆绑调整优化步骤中使用了每个像素匹配,并由置信度分数加权,从而最大化了使用的信息。
这种设计确保了即使图像受损,跟踪也不会丢失,因为置信度值会防止错误匹配恶化姿态估计。但是,这取决于模型对置信度预测的准确性,如果对质量较差的匹配给予高置信度,将导致姿态估计中的错误。
DROID-SLAM不会检测跟踪是否失败,因此在极端条件下,无法找到匹配时,可能会导致定位不准确。
H. 基于DROID-SLAM的启发式方法
这是提出了一种DROID-SLAM算法的变种,以包含额外的地图信息和启发式方法,用于检测和改进雨天条件下立体摄像头设置下的定位不准确性。地图信息可以轻松从任何在线路由服务中获取,用于提供一个保守的全局参考路径(CGRP)以提高定位精度。
这些启发式方法旨在根据图像模糊度动态修改关键帧选择标准。模糊度越高,应该采取更多的关键帧,以减少模糊引起的不准确性。这样的设计提高了定位的鲁棒性和精度。

实验
对于每个评估的算法,我们实现了由各自的开源代码库提供的默认配置参数,包括每种方法的独特参数以及图像预处理步骤。仅修改了相机的内部参数以匹配来自每个数据集的图像数据。
对于基于学习的方法,模型也保持原样,没有进行微调或额外的训练。需要注意的是,有些方法是为航空设计的,因此默认配置可能不适用于城市驾驶背景。对于每个数据集,使用了立体摄像机设置的左图像进行单目评估,并在输入VO方法之前对图像进行了去畸变处理。
每个序列的地面真值被插值,以使每个地面真值姿态对应于每个图像帧。还进行了清理以删除任何错误点。对于Oxford Robotcar数据集,选择了一个稍后的起始点,其中车辆已经在主要道路上,以使其与其他两个数据集的起始点一致。

图2. 比较来自Oxford Robotcar数据集的1序列的相同场景的模糊值
单目视觉里程计在长距离上无法很好地定位,当评估整个路线时,所有方法以及数据集的ATE都很高。为了在不同雨天的不同模糊值之间进行有意义的比较,我们评估了每个数据序列的前500米,并在表I中报告了结果。

我们还对所有数据集使用了立体摄像头设置,以评估晴天和雨天的长期定位,并在表II中呈现了其结果。

图3:DF-VO与SVO的输出轨迹在Oxford Robotcar数据集的05-29序列的整个路线上进行了比较

图4:TartanVO在Oxford Robotcar数据集的10-29序列的前500米上的评估输出。红线显示了视频中车辆不移动的路段

总结
本文对各种视觉里程计(VO)方法进行了在晴天和雨天数据集上的评估。我们发现采用深度预测模型的VO方法能够在雨天序列中保持一致的尺度。双目视觉能够提供尺度信息,但需要额外的地图信息才能在长期定位中表现良好。
经典方法在雨天往往容易失效,不建议在雨天条件下使用,除非与其他传感器配对以进行传感器融合方法。在所有单眼方法中,没有一种方法在三个数据集中表现很好的效果。
然而在Oxford Robotcar数据集的前500米中,DF-VO表现始终出色,可以用于雨天短期局部的传感器融合方法。对于更长的数据集定位,可以考虑使用立体视觉的方法。
参考文献
[1] Kshitiz Garg and Shree K. Nayar. Vision and Rain. InternationalJournal of Computer Vision, 75(1):3–27, July 2007.
[2] Bj¨orn Ulfwi. Adherent Raindrop Detection.
[3] Chris H. Bahnsen and Thomas B. Moeslund. Rain Removal in Traffic Surveillance: Does it Matter? IEEE Transactions on Intelligent Transportation Systems, 20(8):2802–2819, August 2019.
[4] Yu Xiang Tan, Malika Meghjani, and Marcel Bartholomeus Prasetyo. Localization with Anticipation for Autonomous Urban Driving in Rain, June 2023. arXiv:2306.09134 [cs].
[5] Will Maddern, Geoffrey Pascoe, Chris Linegar, and Paul Newman. 1 year, 1000 km: The Oxford RobotCar dataset. The International Journal of Robotics Research, 36(1):3–15, January 2017.
[6] Patrick Wenzel, Rui Wang, Nan Yang, Qing Cheng, Qadeer Khan, Lukasvon Stumberg, Niclas Zeller, and Daniel Cremers. 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous Driving, October 2020. arXiv:2009.06364 [cs].
[7] Yuxiao Zhang, Alexander Carballo, Hanting Yang, and Kazuya Takeda.Autonomous Driving in Adverse Weather Conditions: A Survey, December 2021. arXiv:2112.08936 [cs].
[8] Ziyang Hong, Yvan Petillot, and Sen Wang. RadarSLAM: Radar based Large-Scale SLAM in All Weathers. In 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 5164–5170, October 2020. ISSN: 2153-0866.
[9] Teddy Ort, Igor Gilitschenski, and Daniela Rus. Autonomous Navigation in Inclement Weather Based on a Localizing Ground Penetrating Radar. IEEE Robotics and Automation Letters, 5(2):3267–3274, April 2020. Conference Name: IEEE Robotics and Automation Letters.
[10] Dan Barnes and Ingmar Posner. Under the Radar: Learning to Predict Robust Keypoints for Odometry Estimation and Metric Localisation in Radar. In 2020 IEEE International Conference on Robotics and Automation (ICRA), pages 9484–9490, May 2020. ISSN: 2577-087X.
[11] Carlos Campos, Richard Elvira, Juan J. G´omez Rodr´ıguez, Jos´e M. M.Montiel, and Juan D. Tard´os. ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM. IEEE Transactions on Robotics, 37(6):1874–1890, December 2021. arXiv: 2007.11898.
[12] Lukas von Stumberg, Vladyslav Usenko, and Daniel Cremers. Direct Sparse Visual-Inertial Odometry using Dynamic Marginalization. In 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 2510–2517, May 2018. arXiv:1804.05625 [cs].
[13] D´aniel Kiss-Ill´es, Cristina Barrado, and Esther Salam´ı. GPS-SLAM:An Augmentation of the ORB-SLAM Algorithm.Sensors (Basel,Switzerland), 19(22):4973, November 2019.
[14] Marcus A. Brubaker, Andreas Geiger, and Raquel Urtasun. Map-Based Probabilistic Visual Self-Localization. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(4):652–665, April 2016.
[15] Jerome Revaud, Philippe Weinzaepfel, C´esar De Souza, Noe Pion, Gabriela Csurka, Yohann Cabon, and Martin Humenberger. R2D2: Repeatable and Reliable Detector and Descriptor. arXiv:1906.06195 [cs], June 2019. arXiv: 1906.06195.
[16] Mihai Dusmanu, Ignacio Rocco, Tomas Pajdla, Marc Pollefeys, Josef Sivic, Akihiko Torii, and Torsten Sattler. D2-Net: A Trainable CNN for Joint Description and Detection of Local Features. In 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pages 8084–8093, Long Beach, CA, USA, June 2019. IEEE.
[17] Huaiyuan Yu, Haijiang Zhu, and Fengrong Huang. Visual Simultaneous Localization and Mapping (SLAM) Based on Blurred Image Detection. Journal of Intelligent & Robotic Systems, 103(1):12, September 2021.
[18] Horia Porav, Will Maddern, and Paul Newman. Adversarial Training for Adverse Conditions: Robust Metric Localisation Using Appearance Transfer. In 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 1011–1018, May 2018. ISSN: 2577-087X.
[19] Khalid Yousif, Alireza Bab-Hadiashar, and Reza Hoseinnezhad. An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics. Intelligent Industrial Systems, 1(4):289–311, December 2015.
[20] Iman Abaspur Kazerouni, Luke Fitzgerald, Gerard Dooly, and Daniel Toal. A survey of state-of-the-art on visual SLAM. Expert Systems with Applications, 205:117734, November 2022.
[21] Lucas R. Agostinho, Nuno M. Ricardo, Maria I. Pereira, Antoine Hiolle, and Andry M. Pinto. A Practical Survey on Visual Odometry for Autonomous Driving in Challenging Scenarios and Conditions. IEEE Access, 10:72182–72205, 2022.
[22] Jakob Engel, Vladlen Koltun, and Daniel Cremers. Direct Sparse Odometry, October 2016. arXiv:1607.02565 [cs].
[23] Huangying Zhan, Chamara Saroj Weerasekera, Jia-Wang Bian, Ravi Garg, and Ian Reid. DF-VO: What Should Be Learnt for Visual Odometry?, March 2021. arXiv:2103.00933 [cs].
[24] Jakob Engel, Thomas Schops, and Daniel Cremers. LSD-SLAM: Large Scale Direct Monocular SLAM. In David Fleet, Tomas Pajdla, Bernt Schiele, and Tinne Tuytelaars, editors, Computer Vision – ECCV 2014, volume 8690, pages 834–849. Springer International Publishing, Cham, 2014. Series Title: Lecture Notes in Computer Science.
[25] Zachary Teed and Jia Deng. DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras. In Advances in Neural Information Processing Systems, volume 34, pages 16558–16569. Curran Associates, Inc,2021.
[26] Wenshan Wang, Yaoyu Hu, and Sebastian Scherer. TartanVO: A Generalizable Learning-based VO, October 2020. arXiv:2011.00359[cs].
[27] Fabian Schenk and Friedrich Fraundorfer. Robust edge-based visual odometry using machine-learned edges. In 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1297–1304, September 2017. ISSN: 2153-0866.
[28] Ruben Gomez-Ojeda and Javier Gonzalez-Jimenez. Robust stereo visual odometry through a probabilistic combination of points and line  segments. In 2016 IEEE International Conference on Robotics and Automation (ICRA), pages 2521–2526, May 2016.
[29] Christian Forster, Matia Pizzoli, and Davide Scaramuzza. SVO: Fast semi-direct monocular visual odometry. In 2014 IEEE International Conference on Robotics and Automation (ICRA), pages 15–22, May 2014. ISSN: 1050-4729.
[30] Shing Yan Loo, Ali Jahani Amiri, Syamsiah Mashohor, Sai Hong Tang and Hong Zhang. CNN-SVO: Improving the Mapping in Semi-Direct Visual Odometry Using Single-Image Depth Prediction, October 2018.arXiv:1810.01011 [cs].
[31] Michael Burri, Janosch Nikolic, Pascal Gohl, Thomas Schneider, Joern Rehder, Sammy Omari, Markus W Achtelik, and Roland Siegwart. The EuRoC micro aerial vehicle datasets. The International Journal of Robotics Research, 35(10):1157–1163, September 2016.
[32] Ankur Handa, Thomas Whelan, John McDonald, and Andrew J. Davison. A benchmark for RGB-D visual odometry, 3D reconstruction and SLAM. In 2014 IEEE International Conference on Robotics and Automation (ICRA), pages 1524–1531, May 2014. ISSN: 1050-4729.
[33] Christian Forster, Zichao Zhang, Michael Gassner, Manuel Werlberger, and Davide Scaramuzza. SVO: Semidirect Visual Odometry for Monocular and Multicamera Systems. IEEE Transactions on Robotics, 33(2):249–265, April 2017. Conference Name: IEEE Transactions on Robotics.
[34] J¨urgen Sturm, Nikolas Engelhard, Felix Endres, Wolfram Burgard, and Daniel Cremers. A benchmark for the evaluation of RGB-D SLAM systems. In 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, pages 573–580, October 2012. ISSN: 2153-0866.
[35] Edward Rosten and Tom Drummond. Machine Learning for High Speed Corner Detection. In Aleˇs Leonardis, Horst Bischof, and Axel Pinz, editors, Computer Vision – ECCV 2006, volume 3951, pages 430– 443. Springer Berlin Heidelberg, Berlin, Heidelberg, 2006. Series Title: Lecture Notes in Computer Science.
[36] A. Geiger, P. Lenz, and R. Urtasun. Are we ready for autonomous driving? The KITTI vision benchmark suite. In 2012 IEEE Conference on Computer Vision and Pattern Recognition, pages 3354–3361, Providence, RI, June 2012. IEEE.
[37] Raul Mur-Artal, J. M. M. Montiel, and Juan D. Tardos. ORB-SLAM: a Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, 31(5):1147–1163, October 2015. arXiv: 1502.00956.
[38] Wenshan Wang, Delong Zhu, Xiangwei Wang, Yaoyu Hu, Yuheng Qiu, Chen Wang, Yafei Hu, Ashish Kapoor, and Sebastian Scherer. TartanAir: A Dataset to Push the Limits of Visual SLAM, August 2020. arXiv:2003.14338 [cs].
[39] Ethan Rublee, Vincent Rabaud, Kurt Konolige, and Gary Bradski. ORB: An efficient alternative to SIFT or SURF. In 2011 International Conference on Computer Vision, pages 2564–2571, November 2011. ISSN: 2380-7504.
[40] Will Maddern, Geoffrey Pascoe, Matthew Gadd, Dan Barnes, Brian  Yeomans, and Paul Newman. Real-time Kinematic Ground Truth for the Oxford RobotCar Dataset. page 3.
[41] Hanghang Tong, Mingjing Li, Hongjiang Zhang, and Changshui Zhang. Blur detection for digital images using wavelet transform. In 2004 IEEE International Conference on Multimedia and Expo (ICME) (IEEE Cat. No.04TH8763), pages 17–20, Taipei, Taiwan, 2004. IEEE.
[42] Zichao Zhang, Christian Forster, and Davide Scaramuzza. Active exposure control for robust visual odometry in HDR environments. In 2017 IEEE International Conference on Robotics and Automation (ICRA), pages 3894–3901, May 2017.
[43] Jiatian Wu, Degang Yang, Qinrui Yan, and Shixin Li. Stereo-dso. url=https://github.com/JiatianWu/stereo-dso, 2018.
[44] Rui Wang, Martin Schw¨orer, and Daniel Cremers. Stereo DSO: Large Scale Direct Sparse Visual Odometry with Stereo Cameras, August 2017. arXiv:1708.07878 [cs].
[45] J¨urgen Sturm, Nikolas Engelhard, Felix Endres, Wolfram Burgard, and Daniel Cremers. A benchmark for the evaluation of RGB-D SLAM systems. In 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, pages 573–580, October 2012. ISSN: 2153-0866.

转载自点云PCL,文中观点仅供分享交流,不代表本公众号立场,如涉及版权等问题,请您告知,我们将及时处理。

-- END --

智驾最前沿 「智驾最前沿」深耕自动驾驶领域技术、资讯等信息,解读行业现状、紧盯行业发展、挖掘行业前沿,致力于助力自动驾驶发展与落地!公众号:智驾最前沿
评论 (0)
  • 文/郭楚妤编辑/cc孙聪颖‍不久前,中国发展高层论坛 2025 年年会(CDF)刚刚落下帷幕。本次年会围绕 “全面释放发展动能,共促全球经济稳定增长” 这一主题,吸引了全球各界目光,众多重磅嘉宾的出席与发言成为舆论焦点。其中,韩国三星集团会长李在镕时隔两年的访华之行,更是引发广泛热议。一直以来,李在镕给外界的印象是不苟言笑。然而,在论坛开幕前一天,李在镕却意外打破固有形象。3 月 22 日,李在镕与高通公司总裁安蒙一同现身北京小米汽车工厂。小米方面极为重视此次会面,CEO 雷军亲自接待,小米副董
    华尔街科技眼 2025-04-01 19:39 209浏览
  • 在智能交互设备快速发展的今天,语音芯片作为人机交互的核心组件,其性能直接影响用户体验与产品竞争力。WT588F02B-8S语音芯片,凭借其静态功耗<5μA的卓越低功耗特性,成为物联网、智能家居、工业自动化等领域的理想选择,为设备赋予“听得懂、说得清”的智能化能力。一、核心优势:低功耗与高性能的完美结合超低待机功耗WT588F02B-8S在休眠模式下待机电流仅为5μA以下,显著延长了电池供电设备的续航能力。例如,在电子锁、气体检测仪等需长期待机的场景中,用户无需频繁更换电池,降低了维护成本。灵活的
    广州唯创电子 2025-04-02 08:34 152浏览
  • 文/Leon编辑/cc孙聪颖‍步入 2025 年,国家进一步加大促消费、扩内需的政策力度,家电国补政策将持续贯穿全年。这一利好举措,为行业发展注入强劲的增长动力。(详情见:2025:消费提振要靠国补还是“看不见的手”?)但与此同时,也对家电企业在战略规划、产品打造以及市场营销等多个维度,提出了更为严苛的要求。在刚刚落幕的中国家电及消费电子博览会(AWE)上,家电行业的竞争呈现出胶着的态势,各大品牌为在激烈的市场竞争中脱颖而出,纷纷加大产品研发投入,积极推出新产品,试图提升产品附加值与市场竞争力。
    华尔街科技眼 2025-04-01 19:49 210浏览
  • 探针本身不需要对焦。探针的工作原理是通过接触被测物体表面来传递电信号,其精度和使用效果取决于探针的材质、形状以及与检测设备的匹配度,而非对焦操作。一、探针的工作原理探针是检测设备中的重要部件,常用于电子显微镜、坐标测量机等精密仪器中。其工作原理主要是通过接触被测物体的表面,将接触点的位置信息或电信号传递给检测设备,从而实现对物体表面形貌、尺寸或电性能等参数的测量。在这个过程中,探针的精度和稳定性对测量结果具有至关重要的影响。二、探针的操作要求在使用探针进行测量时,需要确保探针与被测物体表面的良好
    锦正茂科技 2025-04-02 10:41 71浏览
  • 随着汽车向智能化、场景化加速演进,智能座舱已成为人车交互的核心承载。从驾驶员注意力监测到儿童遗留检测,从乘员识别到安全带状态判断,座舱内的每一次行为都蕴含着巨大的安全与体验价值。然而,这些感知系统要在多样驾驶行为、复杂座舱布局和极端光照条件下持续稳定运行,传统的真实数据采集方式已难以支撑其开发迭代需求。智能座舱的技术演进,正由“采集驱动”转向“仿真驱动”。一、智能座舱仿真的挑战与突破图1:座舱实例图智能座舱中的AI系统,不仅需要理解驾驶员的行为和状态,还要同时感知乘员、儿童、宠物乃至环境中的潜在
    康谋 2025-04-02 10:23 98浏览
  • 北京贞光科技有限公司作为紫光同芯授权代理商,专注于为客户提供车规级安全芯片的硬件供应与软件SDK一站式解决方案,同时配备专业技术团队,为选型及定制需求提供现场指导与支持。随着新能源汽车渗透率突破40%(中汽协2024数据),智能驾驶向L3+快速演进,车规级MCU正迎来技术范式变革。作为汽车电子系统的"神经中枢",通过AEC-Q100 Grade 1认证的MCU芯片需在-40℃~150℃极端温度下保持μs级响应精度,同时满足ISO 26262 ASIL-D功能安全要求。在集中式
    贞光科技 2025-04-02 14:50 128浏览
  • 退火炉,作为热处理设备的一种,广泛应用于各种金属材料的退火处理。那么,退火炉究竟是干嘛用的呢?一、退火炉的主要用途退火炉主要用于金属材料(如钢、铁、铜等)的热处理,通过退火工艺改善材料的机械性能,消除内应力和组织缺陷,提高材料的塑性和韧性。退火过程中,材料被加热到一定温度后保持一段时间,然后以适当的速度冷却,以达到改善材料性能的目的。二、退火炉的工作原理退火炉通过电热元件(如电阻丝、硅碳棒等)或燃气燃烧器加热炉膛,使炉内温度达到所需的退火温度。在退火过程中,炉内的温度、加热速度和冷却速度都可以根
    锦正茂科技 2025-04-02 10:13 73浏览
  • REACH和RoHS欧盟两项重要的环保法规有什么区别?适用范围有哪些?如何办理?REACH和RoHS是欧盟两项重要的环保法规,主要区别如下:一、核心定义与目标RoHS全称为《关于限制在电子电器设备中使用某些有害成分的指令》,旨在限制电子电器产品中的铅(Pb)、汞(Hg)、镉(Cd)、六价铬(Cr6+)、多溴联苯(PBBs)和多溴二苯醚(PBDEs)共6种物质,通过限制特定材料使用保障健康和环境安全REACH全称为《化学品的注册、评估、授权和限制》,覆盖欧盟市场所有化学品(食品和药品除外),通过登
    张工13144450251 2025-03-31 21:18 145浏览
  • 据先科电子官方信息,其产品包装标签将于2024年5月1日进行全面升级。作为电子元器件行业资讯平台,大鱼芯城为您梳理本次变更的核心内容及影响:一、标签变更核心要点标签整合与环保优化变更前:卷盘、内盒及外箱需分别粘贴2张标签(含独立环保标识)。变更后:环保标识(RoHS/HAF/PbF)整合至单张标签,减少重复贴标流程。标签尺寸调整卷盘/内盒标签:尺寸由5030mm升级至**8040mm**,信息展示更清晰。外箱标签:尺寸统一为8040mm(原7040mm),提升一致性。关键信息新增新增LOT批次编
    大鱼芯城 2025-04-01 15:02 202浏览
  • 引言随着物联网和智能设备的快速发展,语音交互技术逐渐成为提升用户体验的核心功能之一。在此背景下,WT588E02B-8S语音芯片,凭借其创新的远程更新(OTA)功能、灵活定制能力及高集成度设计,成为智能设备语音方案的优选。本文将从技术特性、远程更新机制及典型应用场景三方面,解析该芯片的技术优势与实际应用价值。一、WT588E02B-8S语音芯片的核心技术特性高性能硬件架构WT588E02B-8S采用16位DSP内核,内部振荡频率达32MHz,支持16位PWM/DAC输出,可直接驱动8Ω/0.5W
    广州唯创电子 2025-04-01 08:38 166浏览
  • 引言在语音芯片设计中,输出电路的设计直接影响音频质量与系统稳定性。WT588系列语音芯片(如WT588F02B、WT588F02A/04A/08A等),因其高集成度与灵活性被广泛应用于智能设备。然而,不同型号在硬件设计上存在关键差异,尤其是DAC加功放输出电路的配置要求。本文将从硬件架构、电路设计要点及选型建议三方面,解析WT588F02B与F02A/04A/08A的核心区别,帮助开发者高效完成产品设计。一、核心硬件差异对比WT588F02B与F02A/04A/08A系列芯片均支持PWM直推喇叭
    广州唯创电子 2025-04-01 08:53 193浏览
  • 职场之路并非一帆风顺,从初入职场的新人成长为团队中不可或缺的骨干,背后需要经历一系列内在的蜕变。许多人误以为只需努力工作便能顺利晋升,其实核心在于思维方式的更新。走出舒适区、打破旧有框架,正是让自己与众不同的重要法宝。在这条道路上,你不只需要扎实的技能,更需要敏锐的观察力、不断自省的精神和前瞻的格局。今天,就来聊聊那改变命运的三大思维转变,让你在职场上稳步前行。工作初期,总会遇到各式各样的难题。最初,我们习惯于围绕手头任务来制定计划,专注于眼前的目标。然而,职场的竞争从来不是单打独斗,而是团队协
    优思学院 2025-04-01 17:29 200浏览
  • 提到“质量”这两个字,我们不会忘记那些奠定基础的大师们:休哈特、戴明、朱兰、克劳士比、费根堡姆、石川馨、田口玄一……正是他们的思想和实践,构筑了现代质量管理的核心体系,也深远影响了无数企业和管理者。今天,就让我们一同致敬这些质量管理的先驱!(最近流行『吉卜力风格』AI插图,我们也来玩玩用『吉卜力风格』重绘质量大师画象)1. 休哈特:统计质量控制的奠基者沃尔特·A·休哈特,美国工程师、统计学家,被誉为“统计质量控制之父”。1924年,他提出世界上第一张控制图,并于1931年出版《产品制造质量的经济
    优思学院 2025-04-01 14:02 149浏览
我要评论
0
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦