自动驾驶汽车下雨场景下视觉里程计方法评估

智驾最前沿 2023-09-27 08:01
--关注、星标、回复“智驾干货”--
↓↓免费领取:超多份自动驾驶行业干货↓↓
后台回复:原稿2,即可获取:本文英文版pdf文件

随着自动驾驶的需求不断增加,需要具备在恶劣天气条件下同样有效运行的强大导航系统。视觉里程计是用于这些导航系统的一种技术,它利用车载摄像头的输入来估计车辆的位置和运动。

欢迎关注「智驾最前沿」微信视频号

然而在恶劣的天气条件下,如大雨、雪或雾,视觉里程计的准确性可能会受到严重影响。在本文评估了一系列视觉里程计方法,包括基于我们的 DROID-SLAM 的启发式方法。
具体而言,这些算法在晴朗和雨天的城市驾驶数据上进行了测试,以评估它们的稳健性。我们编制了一个包括来自不同城市的各种雨天条件的数据集。
其中包括牛津机器人车数据集、慕尼黑的4Seasons数据集以及新加坡收集的数据集。使用绝对轨迹误差(ATE)评估了不同的视觉里程计算法,包括单目和双目摄像头配置。
我们的评估表明,深度与光流视觉里程计(DF-VO)算法在短距离(<500m)内的单目配置下表现良好,而我们提出的基于DROID-SLAM的启发式方法在长期定位方面相对表现良好的双目配置下表现良好。这两种算法在所有雨天条件下都表现出色。

主要贡献
本文评估了一系列不同的视觉里程计算法,包括我们基于DROID-SLAM的启发式方法 ,用于雨中的城市驾驶。目标是找到在多雨天气中表现相对良好的视觉里程计算法,以实现稳健的定位。整合了可用的开源雨天数据集,并将它们与雨天数据集合并,以创建一个全面的数据集套件进行评估。
开源数据集包括牛津机器人车和4Seasons数据集。我们的数据集是在新加坡收集的,而牛津机器人车和4Seasons数据集分别来自牛津和慕尼黑。因此研究中使用的综合数据集包含了来自气候和地理位置不同的城市的各种道路和雨天条件。
图1展示了这三个数据集的示例图像。

图1. 来自三个数据集的示例图
分析了各种方法的优点和局限性,并提供了未来研究方向的见解,以提高这些情景下基于视觉里程计的算法的稳健性和可靠性。我们的贡献包括:
(a)对现有视觉里程计算法在晴朗和雨天条件下的全面评估;
(b)对不同视觉里程计算法在雨天条件下的优点和局限性的分析。

内容概述
选择了七种开源算法在晴天和雨天条件下进行评估,选择这七种算法是为了覆盖不同类型的VO方法。
这里简要介绍了每种算法的实现,并强调了受雨水影响的设计部分。特别是将考虑特征提取和匹配策略以及处理失败的方法。
A. 直接稀疏视觉里程计(DSO)
DSO是一种经典的单目方法,使用关键帧执行相机姿态和3D世界模型的联合优化。它在三个数据集上进行了测试:TUM monoVO、EuroC MAV 和ICL-NUIM 数据集,并且表现出了稳健的准确定位结果。
DSO能够处理低纹理环境,使用其新颖的特征选择策略,并具有多种检测异常值或跟踪失败的方法。DSO用于特征选择的策略在寻找图像中特征的均匀分布和每个特征的独特性之间进行权衡。
DSO采用异常值检测,其中具有超过阈值的误差的匹配点被丢弃。阈值取决于图像的中值残差,考虑到图像质量较低的部分,允许具有较高误差的匹配通过阈值。
这在雨天条件下很常见,图像质量会随机变化,需要自适应阈值来考虑图像质量的变化。当当前帧的光度误差超过前一帧的误差的两倍时,被视为跟踪失败,算法会尝试恢复定位。
这允许在图像质量改善时恢复算法,但会以失去质量差的部分的定位为代价。这样的设计对于传感器融合方法可能是有利的,其中每个传感器能够确定何时发生了故障,但不适用于雨天条件下的纯VO。
B. 半直接视觉里程计
SVO是一种经典的混合直接和间接方法,允许单目和立体配置。它旨在在微型空中飞行器(MAVs)上的机载计算机上实现精度和速度的良好平衡,并在TUM RGB-D、EuroC MAV和ICL-NUIM数据集上进行了测试。在EuroC和ICL-NUIM数据集上,其性能与DSO相似。 
SVO使用更强大的深度预测模型以最小化异常值的影响。它还使用仿射照明模型来处理较长时间范围内的光照变化。异常值和光照变化更有可能在雨天条件下发生,这样的设计可以提高雨天中的定位精度。SVO的立体设置改善了深度预测,并有望提高较长路径的定位精度。
C. CNN-SVO
CNN-SVO 是一种混合学习和经典方法,它通过卷积神经网络实现了对单幅图像深度的预测,从而改进了SVO。这个网络将贝叶斯深度滤波器初始化为均值和方差,而不是一个大范围的不确定值,因此滤波器能够更快地收敛到真实深度值,从而提高了鲁棒性和运动估计。
因此,与专为MAV设计的SVO相比,CNN-SVO在自动驾驶应用中表现明显更好。CNN-SVO使用与SVO相同的特征提取和匹配策略。
D. Depth and Flow for Visual Odometry (DF-VO) 
DF-VO 是一种基于学习的直接单目视觉里程计方法,它使用混合的稠密和稀疏特征。它使用深度学习模型进行光流和深度预测,同时使用经典方法进行姿态估计和尺度恢复。
DF-VO还考虑了一些极端情况,当找到的特征不足时,会使用恒定速度运动模型来替代跟踪。这在雨天情况下非常有用,因为图像的过度曝光通常只发生在短时间内,比如转弯或通过道路上没有阴影的区域。
E. TartanVO 
TartanVO是一种基于学习的、间接的、单目方法,它使用密集特征。它被设计成具有泛化能力,无需对其进行微调即可在未见过的数据集上表现良好。它在TartanAir数据集上进行了训练,这是一个全天候的无人机数据集,并在城市驾驶和航空数据集上进行了测试。
它不具备特征提取和匹配策略,因为它同时使用深度学习模型进行光流和姿态预测。它也不会检测到定位失败或离群值。这可能导致它对雨天造成的极端失真比较敏感,尽管它是在全天候数据上训练的。
F. ORB-SLAM3 
ORB-SLAM3是一种传统的、间接的VSLAM方法,它使用稀疏特征,支持单目和立体设置。它使用了ORB特征,这些特征检测速度快,对噪声具有抗性。ORB-SLAM3在EuRoC数据集上进行了测试。在单目摄像头配置中,它平均优于DSO和SVO,而在立体设置中,它优于SVO。
ORB-SLAM3还旨在将发现的特征均匀分布在图像上,其中图像被分成一个网格来搜索角点特征。还使用了一个阈值来找到每个单元格内的最佳特征,如果找到的特征不足,就会降低这个阈值。这样的设计确保了即使在质量较差的图像上也能找到足够的特征,但牺牲了特征的质量。
通过使用方向一致性测试以及在计算单应性和基本矩阵时的RANSAC过程来检测离群值。当找不到足够的对应关系时,跟踪也会停止。因此,在雨天条件下,图像遭受大量失真时,该算法将停止定位并执行重新定位。
G. DROID-SLAM 
DROID-SLAM是一种基于学习的、间接的VSLAM方法,它使用稠密特征,支持单目和立体摄像头设置。它是在TartanAir数据集上进行训练的,这是一个全天候的合成无人机数据集。
DROID-SLAM用于预测每个像素的光流和置信度分数的光流模型。在捆绑调整优化步骤中使用了每个像素匹配,并由置信度分数加权,从而最大化了使用的信息。
这种设计确保了即使图像受损,跟踪也不会丢失,因为置信度值会防止错误匹配恶化姿态估计。但是,这取决于模型对置信度预测的准确性,如果对质量较差的匹配给予高置信度,将导致姿态估计中的错误。
DROID-SLAM不会检测跟踪是否失败,因此在极端条件下,无法找到匹配时,可能会导致定位不准确。
H. 基于DROID-SLAM的启发式方法
这是提出了一种DROID-SLAM算法的变种,以包含额外的地图信息和启发式方法,用于检测和改进雨天条件下立体摄像头设置下的定位不准确性。地图信息可以轻松从任何在线路由服务中获取,用于提供一个保守的全局参考路径(CGRP)以提高定位精度。
这些启发式方法旨在根据图像模糊度动态修改关键帧选择标准。模糊度越高,应该采取更多的关键帧,以减少模糊引起的不准确性。这样的设计提高了定位的鲁棒性和精度。

实验
对于每个评估的算法,我们实现了由各自的开源代码库提供的默认配置参数,包括每种方法的独特参数以及图像预处理步骤。仅修改了相机的内部参数以匹配来自每个数据集的图像数据。
对于基于学习的方法,模型也保持原样,没有进行微调或额外的训练。需要注意的是,有些方法是为航空设计的,因此默认配置可能不适用于城市驾驶背景。对于每个数据集,使用了立体摄像机设置的左图像进行单目评估,并在输入VO方法之前对图像进行了去畸变处理。
每个序列的地面真值被插值,以使每个地面真值姿态对应于每个图像帧。还进行了清理以删除任何错误点。对于Oxford Robotcar数据集,选择了一个稍后的起始点,其中车辆已经在主要道路上,以使其与其他两个数据集的起始点一致。

图2. 比较来自Oxford Robotcar数据集的1序列的相同场景的模糊值
单目视觉里程计在长距离上无法很好地定位,当评估整个路线时,所有方法以及数据集的ATE都很高。为了在不同雨天的不同模糊值之间进行有意义的比较,我们评估了每个数据序列的前500米,并在表I中报告了结果。

我们还对所有数据集使用了立体摄像头设置,以评估晴天和雨天的长期定位,并在表II中呈现了其结果。

图3:DF-VO与SVO的输出轨迹在Oxford Robotcar数据集的05-29序列的整个路线上进行了比较

图4:TartanVO在Oxford Robotcar数据集的10-29序列的前500米上的评估输出。红线显示了视频中车辆不移动的路段

总结
本文对各种视觉里程计(VO)方法进行了在晴天和雨天数据集上的评估。我们发现采用深度预测模型的VO方法能够在雨天序列中保持一致的尺度。双目视觉能够提供尺度信息,但需要额外的地图信息才能在长期定位中表现良好。
经典方法在雨天往往容易失效,不建议在雨天条件下使用,除非与其他传感器配对以进行传感器融合方法。在所有单眼方法中,没有一种方法在三个数据集中表现很好的效果。
然而在Oxford Robotcar数据集的前500米中,DF-VO表现始终出色,可以用于雨天短期局部的传感器融合方法。对于更长的数据集定位,可以考虑使用立体视觉的方法。
参考文献
[1] Kshitiz Garg and Shree K. Nayar. Vision and Rain. InternationalJournal of Computer Vision, 75(1):3–27, July 2007.
[2] Bj¨orn Ulfwi. Adherent Raindrop Detection.
[3] Chris H. Bahnsen and Thomas B. Moeslund. Rain Removal in Traffic Surveillance: Does it Matter? IEEE Transactions on Intelligent Transportation Systems, 20(8):2802–2819, August 2019.
[4] Yu Xiang Tan, Malika Meghjani, and Marcel Bartholomeus Prasetyo. Localization with Anticipation for Autonomous Urban Driving in Rain, June 2023. arXiv:2306.09134 [cs].
[5] Will Maddern, Geoffrey Pascoe, Chris Linegar, and Paul Newman. 1 year, 1000 km: The Oxford RobotCar dataset. The International Journal of Robotics Research, 36(1):3–15, January 2017.
[6] Patrick Wenzel, Rui Wang, Nan Yang, Qing Cheng, Qadeer Khan, Lukasvon Stumberg, Niclas Zeller, and Daniel Cremers. 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous Driving, October 2020. arXiv:2009.06364 [cs].
[7] Yuxiao Zhang, Alexander Carballo, Hanting Yang, and Kazuya Takeda.Autonomous Driving in Adverse Weather Conditions: A Survey, December 2021. arXiv:2112.08936 [cs].
[8] Ziyang Hong, Yvan Petillot, and Sen Wang. RadarSLAM: Radar based Large-Scale SLAM in All Weathers. In 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 5164–5170, October 2020. ISSN: 2153-0866.
[9] Teddy Ort, Igor Gilitschenski, and Daniela Rus. Autonomous Navigation in Inclement Weather Based on a Localizing Ground Penetrating Radar. IEEE Robotics and Automation Letters, 5(2):3267–3274, April 2020. Conference Name: IEEE Robotics and Automation Letters.
[10] Dan Barnes and Ingmar Posner. Under the Radar: Learning to Predict Robust Keypoints for Odometry Estimation and Metric Localisation in Radar. In 2020 IEEE International Conference on Robotics and Automation (ICRA), pages 9484–9490, May 2020. ISSN: 2577-087X.
[11] Carlos Campos, Richard Elvira, Juan J. G´omez Rodr´ıguez, Jos´e M. M.Montiel, and Juan D. Tard´os. ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM. IEEE Transactions on Robotics, 37(6):1874–1890, December 2021. arXiv: 2007.11898.
[12] Lukas von Stumberg, Vladyslav Usenko, and Daniel Cremers. Direct Sparse Visual-Inertial Odometry using Dynamic Marginalization. In 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 2510–2517, May 2018. arXiv:1804.05625 [cs].
[13] D´aniel Kiss-Ill´es, Cristina Barrado, and Esther Salam´ı. GPS-SLAM:An Augmentation of the ORB-SLAM Algorithm.Sensors (Basel,Switzerland), 19(22):4973, November 2019.
[14] Marcus A. Brubaker, Andreas Geiger, and Raquel Urtasun. Map-Based Probabilistic Visual Self-Localization. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(4):652–665, April 2016.
[15] Jerome Revaud, Philippe Weinzaepfel, C´esar De Souza, Noe Pion, Gabriela Csurka, Yohann Cabon, and Martin Humenberger. R2D2: Repeatable and Reliable Detector and Descriptor. arXiv:1906.06195 [cs], June 2019. arXiv: 1906.06195.
[16] Mihai Dusmanu, Ignacio Rocco, Tomas Pajdla, Marc Pollefeys, Josef Sivic, Akihiko Torii, and Torsten Sattler. D2-Net: A Trainable CNN for Joint Description and Detection of Local Features. In 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pages 8084–8093, Long Beach, CA, USA, June 2019. IEEE.
[17] Huaiyuan Yu, Haijiang Zhu, and Fengrong Huang. Visual Simultaneous Localization and Mapping (SLAM) Based on Blurred Image Detection. Journal of Intelligent & Robotic Systems, 103(1):12, September 2021.
[18] Horia Porav, Will Maddern, and Paul Newman. Adversarial Training for Adverse Conditions: Robust Metric Localisation Using Appearance Transfer. In 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 1011–1018, May 2018. ISSN: 2577-087X.
[19] Khalid Yousif, Alireza Bab-Hadiashar, and Reza Hoseinnezhad. An Overview to Visual Odometry and Visual SLAM: Applications to Mobile Robotics. Intelligent Industrial Systems, 1(4):289–311, December 2015.
[20] Iman Abaspur Kazerouni, Luke Fitzgerald, Gerard Dooly, and Daniel Toal. A survey of state-of-the-art on visual SLAM. Expert Systems with Applications, 205:117734, November 2022.
[21] Lucas R. Agostinho, Nuno M. Ricardo, Maria I. Pereira, Antoine Hiolle, and Andry M. Pinto. A Practical Survey on Visual Odometry for Autonomous Driving in Challenging Scenarios and Conditions. IEEE Access, 10:72182–72205, 2022.
[22] Jakob Engel, Vladlen Koltun, and Daniel Cremers. Direct Sparse Odometry, October 2016. arXiv:1607.02565 [cs].
[23] Huangying Zhan, Chamara Saroj Weerasekera, Jia-Wang Bian, Ravi Garg, and Ian Reid. DF-VO: What Should Be Learnt for Visual Odometry?, March 2021. arXiv:2103.00933 [cs].
[24] Jakob Engel, Thomas Schops, and Daniel Cremers. LSD-SLAM: Large Scale Direct Monocular SLAM. In David Fleet, Tomas Pajdla, Bernt Schiele, and Tinne Tuytelaars, editors, Computer Vision – ECCV 2014, volume 8690, pages 834–849. Springer International Publishing, Cham, 2014. Series Title: Lecture Notes in Computer Science.
[25] Zachary Teed and Jia Deng. DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras. In Advances in Neural Information Processing Systems, volume 34, pages 16558–16569. Curran Associates, Inc,2021.
[26] Wenshan Wang, Yaoyu Hu, and Sebastian Scherer. TartanVO: A Generalizable Learning-based VO, October 2020. arXiv:2011.00359[cs].
[27] Fabian Schenk and Friedrich Fraundorfer. Robust edge-based visual odometry using machine-learned edges. In 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1297–1304, September 2017. ISSN: 2153-0866.
[28] Ruben Gomez-Ojeda and Javier Gonzalez-Jimenez. Robust stereo visual odometry through a probabilistic combination of points and line  segments. In 2016 IEEE International Conference on Robotics and Automation (ICRA), pages 2521–2526, May 2016.
[29] Christian Forster, Matia Pizzoli, and Davide Scaramuzza. SVO: Fast semi-direct monocular visual odometry. In 2014 IEEE International Conference on Robotics and Automation (ICRA), pages 15–22, May 2014. ISSN: 1050-4729.
[30] Shing Yan Loo, Ali Jahani Amiri, Syamsiah Mashohor, Sai Hong Tang and Hong Zhang. CNN-SVO: Improving the Mapping in Semi-Direct Visual Odometry Using Single-Image Depth Prediction, October 2018.arXiv:1810.01011 [cs].
[31] Michael Burri, Janosch Nikolic, Pascal Gohl, Thomas Schneider, Joern Rehder, Sammy Omari, Markus W Achtelik, and Roland Siegwart. The EuRoC micro aerial vehicle datasets. The International Journal of Robotics Research, 35(10):1157–1163, September 2016.
[32] Ankur Handa, Thomas Whelan, John McDonald, and Andrew J. Davison. A benchmark for RGB-D visual odometry, 3D reconstruction and SLAM. In 2014 IEEE International Conference on Robotics and Automation (ICRA), pages 1524–1531, May 2014. ISSN: 1050-4729.
[33] Christian Forster, Zichao Zhang, Michael Gassner, Manuel Werlberger, and Davide Scaramuzza. SVO: Semidirect Visual Odometry for Monocular and Multicamera Systems. IEEE Transactions on Robotics, 33(2):249–265, April 2017. Conference Name: IEEE Transactions on Robotics.
[34] J¨urgen Sturm, Nikolas Engelhard, Felix Endres, Wolfram Burgard, and Daniel Cremers. A benchmark for the evaluation of RGB-D SLAM systems. In 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, pages 573–580, October 2012. ISSN: 2153-0866.
[35] Edward Rosten and Tom Drummond. Machine Learning for High Speed Corner Detection. In Aleˇs Leonardis, Horst Bischof, and Axel Pinz, editors, Computer Vision – ECCV 2006, volume 3951, pages 430– 443. Springer Berlin Heidelberg, Berlin, Heidelberg, 2006. Series Title: Lecture Notes in Computer Science.
[36] A. Geiger, P. Lenz, and R. Urtasun. Are we ready for autonomous driving? The KITTI vision benchmark suite. In 2012 IEEE Conference on Computer Vision and Pattern Recognition, pages 3354–3361, Providence, RI, June 2012. IEEE.
[37] Raul Mur-Artal, J. M. M. Montiel, and Juan D. Tardos. ORB-SLAM: a Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, 31(5):1147–1163, October 2015. arXiv: 1502.00956.
[38] Wenshan Wang, Delong Zhu, Xiangwei Wang, Yaoyu Hu, Yuheng Qiu, Chen Wang, Yafei Hu, Ashish Kapoor, and Sebastian Scherer. TartanAir: A Dataset to Push the Limits of Visual SLAM, August 2020. arXiv:2003.14338 [cs].
[39] Ethan Rublee, Vincent Rabaud, Kurt Konolige, and Gary Bradski. ORB: An efficient alternative to SIFT or SURF. In 2011 International Conference on Computer Vision, pages 2564–2571, November 2011. ISSN: 2380-7504.
[40] Will Maddern, Geoffrey Pascoe, Matthew Gadd, Dan Barnes, Brian  Yeomans, and Paul Newman. Real-time Kinematic Ground Truth for the Oxford RobotCar Dataset. page 3.
[41] Hanghang Tong, Mingjing Li, Hongjiang Zhang, and Changshui Zhang. Blur detection for digital images using wavelet transform. In 2004 IEEE International Conference on Multimedia and Expo (ICME) (IEEE Cat. No.04TH8763), pages 17–20, Taipei, Taiwan, 2004. IEEE.
[42] Zichao Zhang, Christian Forster, and Davide Scaramuzza. Active exposure control for robust visual odometry in HDR environments. In 2017 IEEE International Conference on Robotics and Automation (ICRA), pages 3894–3901, May 2017.
[43] Jiatian Wu, Degang Yang, Qinrui Yan, and Shixin Li. Stereo-dso. url=https://github.com/JiatianWu/stereo-dso, 2018.
[44] Rui Wang, Martin Schw¨orer, and Daniel Cremers. Stereo DSO: Large Scale Direct Sparse Visual Odometry with Stereo Cameras, August 2017. arXiv:1708.07878 [cs].
[45] J¨urgen Sturm, Nikolas Engelhard, Felix Endres, Wolfram Burgard, and Daniel Cremers. A benchmark for the evaluation of RGB-D SLAM systems. In 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, pages 573–580, October 2012. ISSN: 2153-0866.

转载自点云PCL,文中观点仅供分享交流,不代表本公众号立场,如涉及版权等问题,请您告知,我们将及时处理。

-- END --

智驾最前沿 「智驾最前沿」深耕自动驾驶领域技术、资讯等信息,解读行业现状、紧盯行业发展、挖掘行业前沿,致力于助力自动驾驶发展与落地!公众号:智驾最前沿
评论
  • DeepSeek自成立之初就散发着大胆创新的气息。明明核心开发团队只有一百多人,却能以惊人的效率实现许多大厂望尘莫及的技术成果,原因不仅在于资金或硬件,而是在于扁平架构携手塑造的蜂窝创新生态。创办人梁文锋多次强调,与其与大厂竞争一时的人才风潮,不如全力培养自家的优质员工,形成不可替代的内部生态。正因这样,他对DeepSeek内部人才体系有着一套别具一格的见解。他十分重视中式教育价值,因而DeepSeek团队几乎清一色都是中国式学霸。许多人来自北大清华,或者在各种数据比赛中多次获奖,可谓百里挑一。
    优思学院 2025-03-13 12:15 47浏览
  • 在海洋监测领域,基于无人艇能够实现高效、实时、自动化的海洋数据采集,从而为海洋环境保护、资源开发等提供有力支持。其中,无人艇的控制算法训练往往需要大量高质量的数据支持。然而,海洋数据采集也面临数据噪声和误差、数据融合与协同和复杂海洋环境适应等诸多挑战,制约着无人艇技术的发展。针对这些挑战,我们探索并推出一套基于多传感器融合的海洋数据采集系统,能够高效地采集和处理海洋环境中的多维度数据,为无人艇的自主航行和控制算法训练提供高质量的数据支持。一、方案架构无人艇要在复杂海上环境中实现自主导航,尤其是完
    康谋 2025-03-13 09:53 44浏览
  • 在追求更快、更稳的无线通信路上,传统射频架构深陷带宽-功耗-成本的“不可能三角”:带宽每翻倍,系统复杂度与功耗增幅远超线性增长。传统方案通过“分立式功放+多级变频链路+JESD204B 接口”的组合试图平衡性能与成本,却难以满足实时性严苛的超大规模 MIMO 通信等场景需求。在此背景下,AXW49 射频开发板以“直采+异构”重构射频范式:基于 AMD Zynq UltraScale+™ RFSoC Gen3XCZU49DR 芯片的 16 通道 14 位 2.5GSPS ADC 与 16
    ALINX 2025-03-13 09:27 32浏览
  • 文/Leon编辑/cc孙聪颖作为全球AI领域的黑马,DeepSeek成功搅乱了中国AI大模型市场的格局。科技大厂们选择合作,接入其模型疯抢用户;而AI独角兽们则陷入两难境地,上演了“Do Or Die”的抉择。其中,有着“大模型六小虎”之称的六家AI独角兽公司(智谱AI、百川智能、月之暗面、MiniMax、阶跃星辰及零一万物),纷纷开始转型:2025年伊始,李开复的零一万物宣布转型,不再追逐超大模型,而是聚焦AI商业化应用;紧接着,消息称百川智能放弃B端金融市场,聚焦AI医疗;月之暗面开始削减K
    华尔街科技眼 2025-03-12 17:37 145浏览
  • 北京时间3月11日,国内领先的二手消费电子产品交易和服务平台万物新生(爱回收)集团(纽交所股票代码:RERE)发布2024财年第四季度和全年业绩报告。财报显示,2024年第四季度万物新生集团总收入48.5亿元,超出业绩指引,同比增长25.2%。单季non-GAAP经营利润1.3亿元(non-GAAP口径,即经调整口径,均不含员工股权激励费用、无形资产摊销及因收购产生的递延成本,下同),并汇报创历史新高的GAAP净利润7742万元,同比增长近27倍。总览全年,万物新生总收入同比增长25.9%达到1
    华尔街科技眼 2025-03-13 12:23 47浏览
  • 曾经听过一个“隐形经理”的故事:有家公司,新人进来后,会惊讶地发现老板几乎从不在办公室。可大家依旧各司其职,还能在关键时刻自发协作,把项目完成得滴水不漏。新员工起初以为老板是“放羊式”管理,结果去茶水间和老员工聊过才发现,这位看似“隐形”的管理者其实“无处不在”,他提前铺好了企业文化、制度和激励机制,让一切运行自如。我的观点很简单:管理者的最高境界就是——“无为而治”。也就是说,你的存在感不需要每天都凸显,但你的思路、愿景、机制早已渗透到组织血液里。为什么呢?因为真正高明的管理,不在于事必躬亲,
    优思学院 2025-03-12 18:24 81浏览
  • 本文介绍OpenHarmony4.1系统开发板,出现打不开WiFi和蓝牙的问题排查和解决方法。触觉智能Purple Pi OH鸿蒙开发板演示,搭载了瑞芯微RK3566四核处理器,1TOPS算力NPU;Laval鸿蒙社区推荐并通过了开源鸿蒙XTS认证,成功适配OpenHarmony3.2、4.0、4.1、5.0 Release系统,SDK源码全开放!WiFi打不开缺少WiFi固件在WiFi打不开时我们可以通过使用串口工具查看WiFi打印信息:这条log主要说明了打开固件文件失败,说明了在/vend
    Industio_触觉智能 2025-03-12 14:32 53浏览
  • 2025年,科技浪潮汹涌澎湃的当下,智能数字化变革正进行得如火如荼,从去年二季度开始,触觉智能RK3562核心板上市以来,受到了火爆的关注,上百家客户选用了此方案,也获得了众多的好评与认可,为客户的降本增效提供了广阔的空间。随着原厂的更新,功能也迎来了一波重大的更新,无论是商业级(RK3562)还是工业级(RK3562J),都可支持NPU和2×CAN,不再二选一。我们触觉智能做了一个艰难又大胆的决定,为大家带来两大重磅福利,请继续往下看~福利一:RK3562核心板149元特惠再续,支持2×CAN
    Industio_触觉智能 2025-03-12 14:45 26浏览
  •        随着人工智能算力集群的爆发式增长,以及5.5G/6G通信技术的演进,网络数据传输速率的需求正以每年30%的速度递增。万兆以太网(10G Base-T)作为支撑下一代数据中心、高端交换机的核心组件,其性能直接决定了网络设备的稳定性与效率。然而,万兆网络变压器的技术门槛极高:回波损耗需低于-20dB(比千兆产品严格30%),耐压值需突破1500V(传统产品仅为1000V),且需在高频信号下抑制电磁干扰。全球仅有6家企业具备规模化量产能力,而美信科
    中科领创 2025-03-13 11:24 40浏览
  • 引言汽车行业正经历一场巨变。随着电动汽车、高级驾驶辅助系统(ADAS)和自动驾驶技术的普及,电子元件面临的要求从未如此严格。在这些复杂系统的核心,存在着一个看似简单却至关重要的元件——精密电阻。贞光科技代理品牌光颉科技的电阻选型过程,特别是在精度要求高达 0.01% 的薄膜和厚膜技术之间的选择,已成为全球汽车工程师的关键决策点。当几毫欧姆的差异可能影响传感器的灵敏度或控制系统的精确性时,选择正确的电阻不仅仅是满足规格的问题——它关系到车辆在极端条件下的安全性、可靠性和性能。在这份全面指南中,我们
    贞光科技 2025-03-12 17:25 92浏览
  • 本文介绍Android系统主板应用配置默认获取管理所有文件权限方法,基于触觉智能SBC3588行业主板演示,搭载了瑞芯微RK3588芯片,八核处理器,6T高算力NPU;音视频接口、通信接口等各类接口一应俱全,支持安卓Android、Linux、开源鸿蒙OpenHarmony、银河麒麟Kylin等操作系统。配置前提在配置前,建议先将应用配置成系统应用,不然配置后系统每次重启后都会弹窗提示是否获取权限。应用配置成系统应用,可参考以下链接方法:瑞芯微开发板/主板Android系统APK签名文件使用方法
    Industio_触觉智能 2025-03-12 14:34 54浏览
  • 文/杜杰编辑/cc孙聪颖‍主打影像功能的小米15 Ultra手机,成为2025开年的第一款旗舰机型。从发布节奏上来看,小米历代Ultra机型,几乎都选择在开年发布,远远早于其他厂商秋季主力机型的发布时间。这毫无疑问会掀起“Ultra旗舰大战”,今年影像手机将再次被卷上新高度。无意臆断小米是否有意“领跑”一场“军备竞赛”,但各种复杂的情绪难以掩盖。岁岁年年机不同,但将2-3年内记忆中那些关于旗舰机的发布会拼凑起来,会发现,包括小米在内,旗舰机的革新点,除了摄影参数的不同,似乎没什么明显变化。贵为旗
    华尔街科技眼 2025-03-13 12:30 60浏览
  • 一、行业背景与需求痛点智能电子指纹锁作为智能家居的核心入口,近年来市场规模持续增长,用户对产品的功能性、安全性和设计紧凑性提出更高要求:极致空间利用率:锁体内部PCB空间有限,需高度集成化设计。语音交互需求:操作引导(如指纹识别状态、低电量提醒)、安全告警(防撬、试错报警)等语音反馈。智能化扩展能力:集成传感器以增强安全性(如温度监测、防撬检测)和用户体验。成本与可靠性平衡:在复杂环境下确保低功耗、高稳定性,同时控制硬件成本。WTV380-P(QFN32)语音芯片凭借4mm×4mm超小封装、多传
    广州唯创电子 2025-03-13 09:24 41浏览
  • 一、行业背景与用户需求随着健康消费升级,智能眼部按摩仪逐渐成为缓解眼疲劳、改善睡眠的热门产品。用户对这类设备的需求不再局限于基础按摩功能,而是追求更智能化、人性化的体验,例如:语音交互:实时反馈按摩模式、操作提示、安全提醒。环境感知:通过传感器检测佩戴状态、温度、压力等,提升安全性与舒适度。低功耗长续航:适应便携场景,延长设备使用时间。高性价比方案:在控制成本的同时实现功能多样化。针对这些需求,WTV380-8S语音芯片凭借其高性能、多传感器扩展能力及超高性价比,成为眼部按摩仪智能化升级的理想选
    广州唯创电子 2025-03-13 09:26 33浏览
  • 前言在快速迭代的科技浪潮中,汽车电子技术的飞速发展不仅重塑了行业的面貌,也对测试工具提出了更高的挑战与要求。作为汽车电子测试领域的先锋,TPT软件始终致力于为用户提供高效、精准、可靠的测试解决方案。新思科技出品的TPT软件迎来了又一次重大更新,最新版本TPT 2024.12将进一步满足汽车行业日益增长的测试需求,推动汽车电子技术的持续革新。基于当前汽车客户的实际需求与痛点,结合最新的技术趋势,对TPT软件进行了全面的优化与升级。从模型故障注入测试到服务器函数替代C代码函数,从更准确的需求链接到P
    北汇信息 2025-03-13 14:43 40浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦