高级驾驶辅助系统中的人工本体感觉反射警告,以应对未被注意的后方交通

原创 智能汽车开发者平台 2022-07-31 11:44


摘要


汽车事故的一个常见原因是在变道时忽略自驾车的近距离交通情况。司机,尤其是年轻司机在左转或右转时经常忽视后视镜。据推测,在瞬间决定的情况下,司机的疏忽导致了事故的发生或及时的反应阻止了事故的发生。我们可以利用神经信号数据在司机行动开始前捕捉其意图。同时,我们可以利用光学传感器建立对车辆周围环境的感知,主要是接近我们车辆的后方交通的感知。对预期行动的预测与对周围环境的感知融合在一起,可以产生一个瞬时信号,可以填补司机对周围环境的无知。T本研究探讨了使用肌电图 (EMG) 信号来预测驾驶员的意图以及自动驾驶系统 (ADS) 的感知构建堆栈在构建高级驾驶辅助系统 (ADAS) 中的作用。肌电信号被分为左转和右转动作。使用摄像头和激光雷达的车道检测和物体检测算法来检测从后面接近的车辆。在行动开始前发出的警告可以通知司机并可能使她免于致命事故。使用神经信号提前预测行动是对基于摄像头、雷达和激光雷达的ADAS系统的一种新的补充。此外,该研究通过旨在对在线和离线 EMG 数据进行分类的实验证明了所提出的想法在智能交通中的有效性。此外,报告了在真实世界环境中的实验,包括计算时间和传达给司机的警告的延迟。


1 引言

"当急救车在路上飞快地经过我们身边处理一起车祸时,我们不禁打了个寒颤。当我们在新闻中听到一起交通事故时,我们的心漏了一拍。" – Tedros Adhanom Ghebreyesus. 道路安全是联合国可持续发展目标(SDG)中的一个项目,并在2015年设定了一个目标,即到2020年将交通伤亡人数减少50%。然而,根据世界卫生组织 (WHO) 的报告,该百分比增加了 8% (1; 2)。考虑在驾驶过程中强调交通的滋扰值的情况(图 1):我们的标记司机在一辆灰色的汽车里,一辆蓝色的汽车在右车道上以每小时60公里(kph)的速度从后面接近。我们的汽车接近静止,长 5 米(家用汽车的平均长度)。

图1: 一个驾驶场景显示了汽车里的司机的复杂处境,信息框里有绿色阴影和地图。一辆蓝色的汽车在右车道上以60公里的速度从后面驶来。我们的司机需要关注校车、骑自行车的人、斑马线、交通,还有很多东西,然后开车。

如果我们的司机不看后视镜就决定向右变道,从她的错误中恢复过来的时间余地有多大?如果我们能预测到她打算右转的动作,那么与蓝色汽车的最小距离是多少,才能使她免于发生事故?假设蓝车以60公里/小时的速度在一秒钟内行驶了17米,在转折点处,我们有 1 秒钟的时间在后面的汽车与自我车辆接触之前警告我们的驾驶员这种情况。如果一个系统需要500毫秒(ms)来预测她的预期行动,并且系统识别出蓝色汽车,它就会提醒司机注意她的错误。她可能会从错误中恢复过来,并避免可能发生的事故。

人类开车时往往注意力不集中、注意力分散、思想杂乱无章,并受到有意识思维的影响(图 1)。然而,驾驶过程中的认知需要来自相关传感器的不间断的、最新的和未切割的信号,这些信号可能随着注意力的分散而波动。自主车辆(AVs)的多起碰撞事件假设,在紧急情况下,分心的司机瞬间接管车辆并不成功。大量的事故损失是由侧扫和追尾交通碰撞造成的。司机,尤其是新司机,经常忘记看后视镜,或依赖预知信息,进行变道和转动方向盘的操作。不可避免的是,随着经验的积累,司机在某些紧急情况下会有一些技巧,比如在不看后视镜的情况下左转或右转时,避开从左边或右边车道驶来的车辆。这些反应是与对驾驶情况的某种感知相关的肢体的熟练运动。反射作用通常被认为可以将人类从许多意外的情况中拯救出来,但驾驶员的行为是由运动区域发起的自愿行为,其反馈来自前运动区域和前额区域处理的感觉信息。如果在没有从周围收集到的最新信息的情况下执行动作,可能会出现不希望的情况。辅助系统通过收集电机信号作为系统的感觉输入并以触觉反馈响应来充当人工反射,可以中和不专心的司机出现意外的情况。

先进的驾驶辅助系统(ADAS)是现代消费者车辆不可或缺的一部分。虽然自动驾驶汽车被认为即将在城市交通中投入商业使用,但从谨慎的角度来看,接受它们还有些遥远。乘客对机器有所保留,最近的一项调查(3)显示,随着自动驾驶水平的提高,人们对自动驾驶汽车的接受程度也在下降。ADAS 是一种安全且可接受的替代品,可能有助于减少意外情况、事故和碰撞。传统的ADAS设计有来自摄像头、超声波传感器、雷达的输入,它们通常监测驾驶和驾驶员的状况。驾驶条件包括交通、车道、红绿灯、标志牌和高清晰度地图。驾驶员的状况包括疲劳、瞌睡、注意力和意识。这些条件大多是在检测到某种行动、活动和迹象后观察到的,主要是被动的方法。本研究探讨了在预计出现危急情况时,使用积极主动的方法来警告司机。这种积极主动的方法使用肌电图(EMG)信号来预测司机的预期行动,并随后阻止意外的情况。

最近的神经科学研究调查了从行动规划到启动某种运动动作的神经元的时间。(4;5)研究了大脑对一个预定行动的早期意识,并报告了高达0.5s(秒)的事先意识。在后来的研究中,该时间被报告为大约10s(6;7)。

还有其他的理论,说明在后来的研究中报告的关于事先已知的大脑对运动动作行动的时间延长背后的其他原因(8)。然而,对于这项研究来说,替代理论也支持实验设置,因为司机对驾驶车辆的活动是有意识的。假设,在自动驾驶软件(ADS)的感知构建算法和简单的启发式条件下,预先提示司机的预期动作,就可以警告司机,让他有所察觉。

这项研究以神经科学和ADS的发现为前提,结合本体感觉(人类)和外在感觉信号来开发ADAS。本研究的命题表明,当与ADS中的感知构建技术相结合时,对驾驶员预期动作的准确预测能够有效地向驾驶员在关键和意外情况下发出警告。例如,侧扫和追尾碰撞经常造成致命的事故,是由于司机在转动方向盘时忽略了后方的交通情况。在这项工作中,使用传统的支持向量机(SVM)从连续的肌电数据流中预测驾驶员的预期动作。利用摄像机和激光雷达数据计算自驾车对周围环境的感知。摄像头图像用于检测后视镜中的车道和车辆。激光雷达用一个后视摄像机校准,用于测量尾随车辆的精确距离。本研究提倡将所提出的ADAS应用于智能交通和安全车辆。本文的其余部分组织如下:第2节介绍了相关文献,第3节详细介绍了拟议框架的每个模块所采用的技术。第四节讨论实验细节和结果,第五节给出结论。


2 文献综述

在人工智能(AI)的概念中,自动驾驶被视为一种典型的应用,以及构建完全自动驾驶汽车的各种功能是充满活力的研究领域。ADAS是汽车工程师协会(SAE) ADS标准中经常被引用的二级标准。如今,汽车都配备了基本的安全功能:车道偏离警告、前方碰撞警告和盲点检测。新的汽车更上一层楼,提供车道居中辅助系统、后方交叉警报和实验性的自动泊车系统。本研究介绍了利用生物线索进行动作预测的方法来设计一种可作为人工反射的ADAS。在接下来的章节中,将对相关文献进行概述。

2.1. 我们真的能预测意图吗?

标题提出了一个相关的问题,即提出的ADAS受益于驾驶员预期行为的预测。本研究的命题指向ADAS的计算设计和框架,并介绍了使用神经科学进展了解驾驶员意图的文献。

(8)详述决策和选择的自由,并将支持论点和反驳论点的研究并列。赞成该论点的实验表明,在人类实际实现决定之前,大脑至少提前0.5秒知道(4;5)。随后,通过新的实验和脑活动图谱技术(功能性磁共振成像- fMRI),该周期被报道为长达10秒(7;6)。然而,(9)将远端意图与近端意图进行了分类(10):前者是对后期活动的规划,后者是行动计划。它避开了(4)建议的近端动作的周期。

(a) 运动电信号起源于大脑皮层的运动区,并在神经通路上支配神经(未画出解剖学上的精确数据),如青色所示,并通过支配肌肉来执行动作。两个可穿戴的EMG设备捕捉信号。

(b) 可穿戴EMG设备用两种敷料进行测试。上图:每个上臂上有一个设备。下图:每只手臂上有两个设备。

图2:  肌电图可穿戴设备的神经通路和穿戴方法

(11)通过脑电图(EEG)信号来预测决策的实验来支持上述主张,并报告了脑电图信号对两种决策没有区别:移动和不移动。然而,讨论的是无意识的决策和准备电位(RP),这是在脑电图中观察到的肢体行动的先行信号(12)。

然而,这项研究的前提是有效的,因为司机参与的是有限的驾驶行为,有意识的决定(RP)将被调查,以预测预期的行动。

2.2. 神经通路

携带运动信号的神经从大脑传到上肢,再从脊柱传到上肢。臂丛神经携带运动信号到手臂,它在脊柱中的颈椎C1-C8段和胸椎T1段(椎体)离开脊柱(椎体)。图2(a)中的卡通图(不是以解剖学的精度绘制的)描述了将运动信号从大脑的运动区带到四肢进行精细运动的神经路径。臂丛神经分支为内侧神经、尺侧神经和桡侧神经。桡神经向肌肉运动发出信号,使手、肘部、腕部和手指抬起。内侧神经支配前臂和手,而尺侧神经也刺激前臂和手。这项研究使用了包裹在手臂上的EMG可穿戴设备,并捕捉到三根神经的电刺激。在本研究和解剖学文献中对解剖学的讨论做了简要的介绍详见文献(13;14;15;16)。

2.3. 传感器

传感器具有频率(采集)、分辨率、噪声、绝对或相对测量等特性。外部感知传感器转换由外界刺激引起的感觉,如人类的嗅觉、听觉和视觉,这类似于在机器中使用相机、激光雷达和声纳绘制周围环境的地图。本体感知传感器对人体的不同部位提供有意识的感知,类似于测量机器人的状态、轮子的位置和速度。本研究通过调整本体感知传感器的定义,揭示驾驶员的状态。EEG通常用于捕捉驾驶员大脑活动中产生的电脉冲,(17)中给出了用于此目的的EEG传感器的详细综述。然而,一篇详细的综述讨论了深度学习算法在脑电图数据的各种应用(18)。肌电图是另一种最近在ADAS中用于上肢活动受限的人(19)和行人避免碰撞(20)的传感方法。

(21)详细介绍了用于ADAS和ADS的体外感应技术。它反映了传感器的能力和挑战,并可能有助于选择正确的传感器来进一步推进所提出的想法,如基于事件的视觉传感器可能有助于减少关键的处理时间。它还命名了驾驶员注意力模型,但没有提供ADAS中用于该目的的传感器。(22)扩展了关于各种传感器在ADS和ADAS中的效用的讨论,主要侧重于它们在各种苛刻情况下的性能和限制。

2.4. 感知

ADAS通过模仿专家在特定情况下的反应来帮助人类驾驶员,它依赖于外部感知传感器输入的感知。

(a) 在转动方向盘的过程中,从每只手臂上的单个设备获得的肌电图数据显示出难以识别的图形。

(b) 佩戴在单臂上的两个设备的肌电图数据显示,在转动方向盘的动作过程中,数据更加可分离。

图3:  两种不同敷料的可穿戴EMG设备的信号差异


3 方法篇

该框架由四个独立但同步的数据采集和预测模块组成。第一个模块进行肌电数据采集和驾驶员预期动作预测。第二个模块是车道检测模块,它使用安装在车辆背面的摄像头的图像进行后视。第三是一个物体检测系统,它也使用后视摄像头的图像。第四是距离估计模块,估计从后面接近自驾车的物体的距离。图4中的框图描述了四个模块之间的信息流。每个模块的细节在以下小节中给出,而算法1给出了本研究中采用的简明方法。

算法1 人工本体反射预警ADAS   

3.1. 使用肌电图进行预期动作检测(ADE)

肌电图传感器是用来捕捉和记录肌肉活动对神经刺激的反应。

传感器附着在人体肌肉表面以检测神经肌肉活动。从表面上看,肌肉的运动启动了特定的手势和动作,对肌电信号的早期收集提供了对预期动作的敏锐猜测。在这项研究中,肌电图分类模块预测了驾驶员预期的方向盘向右或向左转动的肌肉运动。驾驶员佩戴两种不同的肌电信号表面装置(图2(b)):一种每个手臂上有一个设备,另一种每个手臂上有两个设备。在第一次修整中,信号是粗糙和微弱的(图3(a)),而在第二次修整中,捕捉到了更多的可区分信号(图3(b))。每台设备都有16个传感器,这些传感器绕在手臂上,每个传感器由另外两个滤除噪声的传感器补充。本研究中使用的可穿戴式肌电带采样频率为200Hz。假设驾驶员在驾驶时双手都放在方向盘上。这两个设备在蓝牙通信通道上向边缘设备同步发送信号。边缘设备使用快速机器学习算法预测司机的预期行动。本研究用传统的SVM进行实验。VM的训练是通过两个不同的选项进行的:首先,对每个司机进行在线培训,因为这不是一份繁琐乏味的工作,每个司机都有自己的肌电图特征。第二,从不同的司机那里收集数据,并使用预先训练好的SVM来预测司机的意图行动。SVMs可以快速训练,在线更新,并且不需要丰富的数据,这是最先进的技术所需要的。在驾驶过程中,EMG数据是一个连续的信号流(x1 , x2 , ...xN),它被输入到ADE模块,一个固定的信号流(xt-n, ..., xt)被用来预测动作。在时间实例t,在时间t-1捕获的信号xt-(n-1)被删除,xt被附加到预测中。预测的行动被传递给控制模块,该模块将信息与平行运行的感知模块的结果相融合,并就交通状况向司机提出建议。本研究的一个基本想法是提前预测动作,而用所使用的仪器进行定量测试可能是不靠谱的,因为所报道的肌肉神经支配和动作开始的延迟是很低的。第4.5.4节讨论了一种替代性评估。据称,这是一项试点研究,并主张为具体任务开发准确和功能性的EMG传感器,并提供合格的结果评估工具。

3.2. 车道检测

车道检测是ADAS和ADS任务中一个具有广泛针对性的挑战,通常使用相机图像进行检测。早期使用传统的图像处理进行检测,后期使用深度学习技术进行检测。后者产生了数据集的收集,有各种成像条件下的综合数据集可用。然而,标记数据集中的车道标注仅适用于前视,而在本研究中,ADAS使用了后视。用前视带注释的数据集训练的模型对于后视图像的准确性相对较低。在本研究中,同样的模型被用于对后视镜图像中的车道进行预测,充分满足了识别各自车道上尾随车辆的目的。车道检测信息分别与车辆检测与目标检测模块并行计算。

本文简要讨论了一种数据扩充技术,以实现从前视图自动标注后视图。车道标注在从前视摄像头拍摄的连续驾驶视频中采样的图像帧中,经过一定帧数后由后视摄像头捕捉到相同的视图。可以采用CV中的常规特征匹配技术来计算转换参数。转换参数可以用来以一种自我监督的方式将前视图注释投影到后视图注释。具有自监督学习的深度学习技术可以通过计算映射的外部参数来应用。

3.3. 物体检测和距离计算

人类驾驶者进行非自主的感觉-运动数据融合来控制车辆。来自不同视角的典型物体检测,据称包括尾随车辆在变道前非自主地使用后视镜和侧视镜。这种检测往往与车辆的主动控制并行,而车辆的主动控制可能会被忽略或被其他思想和行动的存在所掩盖。这项研究调查了使用最先进的深度学习技术对后视图像进行物体检测的情况。后视摄像头用于检测从后面接近的物体。用一般车辆图像训练的模型足以满足这项研究,因为目标检测数据集被扩大,以适应后视镜图像的感知变化。

使用激光雷达计算接近车辆的距离。用后视摄像头标定激光雷达,将图像中的检测结果映射到激光雷达点云数据。激光雷达给出了跟踪车辆的精确距离。点云数据中的目标检测方便,但本研究考虑了点云数据中较远的目标分辨率降低的问题。另一种选择是使用单目深度估计并从图像中提取距离信息,从而抵消昂贵的激光雷达传感器的计算延迟成本。

3.4. 信息融合

人类的本能反应在特定情况下表现出非凡的技能,瞬间的反应有利于实现所需目标。这种反射通常在距离较近的地方建立感觉-运动反应。在驱动运动神经元的情况下,参与的是体细胞神经系统和传感器,距离执行器很远。此外,有意识的运动是针对视觉和听觉传感器所建立的特定感知而规划的。从视觉(前视、侧视、后视镜)、听觉和体感信号中不断收集信息,并将这些信息融合起来,形成对周围环境的感知。

融合的信息提示了未来的行动,下面关于拟议的数据融合模块的讨论受到了神经科学的启发。

来自物体检测和车道检测的检测数据被融合,以识别尾随车辆的车道,并发现紧邻的左、右和后续车道的车辆为充电车辆。融合激光雷达-相机变换,采集充电车辆的距离,并对关键车辆进行距离阈值标记。ADE模块检测到的意图行动与关键车辆的信息相融合,如果检测到意图行动与关键车辆发生碰撞,就会对司机进行提示。图4中的信息流描述了经过处理的感觉信息和人工触觉反应的流动和融合阶段。


4 实验

测试所提出的框架的实验是用SAE-2级实验车模型进行的。图5为本研究中使用的带有标记传感器的车辆。车辆安装有一个32通道激光雷达,两个摄像头(前视和后视)和一个用于感知建立的雷达。该车配备了一个定制设计的计算机器,用于视觉和点云数据处理。在这项研究中使用的肌电传感器是两个可穿戴的Myo包裹,每只手臂一个。每个可穿戴设备有16个传感器,安装在圆形的条带上,每个条带有两个传感器。

4.1. 计算环境

实验的计算装置如图4所示。摄像机图像和激光雷达点云数据被传输到配备了Nvidia GTX1070 GPU的计算机上。实验是在ADS计算堆栈上进行的,它使用机器人操作系统(ROS)作为数据融合的中间件。ROS在一个发布者和用户的通信框架上运行,支持ADAS的拟议工作流程的并行计算需求。肌电图信号是在一个使用1.3GHz处理器和2GB内存的边缘设备上采集的,肌电图数据通过蓝牙传输。Myo臂带以200赫兹的频率记录信号。关于EMG臂带包括ThalmicLabs臂带的详细说明见(40)。同一边缘设备运行SVM来预测预期的行动。该设备还运行一个ROS节点,与运行ROS主程序的主计算机通过局域网相连。将预期的动作和肌电信号数据发布在边缘设备上,该设备被运行在计算机上的信息融合模块订阅。肌电图数据也被公布在一个单独的频道上,以避免预测结果的沟通延迟。这些数据有助于检查和分析用于预测的信号。

4.2. 数据采集

在提出的框架中,有三个模块需要一个数据集用于其学习算法。 

图4: 系统框图显示了不同的模块。肌电信号通过蓝牙传输到边缘设备,边缘设备运行分类算法,当系统检测到预警信号时,驾驶员身上的红线显示本体感知触觉信号。计算系统运行两个深度学习网络(绿色用于目标检测,蓝色用于车道检测),点云数据的匹配算法,以及包括边缘设备数据在内的所有模块的数据融合。

首先,目标检测数据集使用Mscoco数据集(42)对尾随车辆进行检测。Mscoco对象检测是一个包含80个标记对象类别的综合数据集。车道检测模块使用TUSimple2dataset,它为车道检测提供了一个标记的数据集。ADE在本研究中使用了用Myo可穿戴设备收集的EMG信号数据集进行实验。

4.3. 肌电图数据集

本研究收集的肌电图数据集使用的是可穿戴的Myo设备,由三个不同的驾驶员佩戴,执行两种不同的动作,第三种被定义为无转向。行动是向右转,向左转,第三步无转向。在这项试点研究中,假设驾驶员在实验过程中是双手驾驶,双手放在方向盘上。在静止的车辆上,只需要转动方向盘就可以采集数据。这两个可穿戴传感器连接到一个边缘设备,数据通过蓝牙进行通信。

每个设备从Myo设备的8个传感器中给出64个读数(窗口大小w),并将所有传感器和设备的信号值连接起来,形成一个样本。数据被手工标记为三个类别进行训练。数据值被标准化并在-10到10之间缩放。这三个类别被标记为0,1,2,分别代表左转、右转、不转。

两个可穿戴设备同步传输在边缘设备上采集的数据,并作为单独的手臂动作存储在边缘设备上。两个设备的同步是一个微妙的部分,它由软件提供的MyoConnect开发库支持。同步与时间戳交叉验证。在另一项实验中,每个手臂上都包裹着两个可穿戴设备(图2(b)),每个手臂的数据分别收集,并将四个设备的数据串联起来模拟单个动作。对于每个司机,收集所有三个类别的约100(±6)个样本,并采用60比40的训练-测试比例。在第二种方法中,数据是在实验开始前对个别司机进行在线收集。 

图5: 用于实验的车辆安装有传感器和计算机器。前面安装的激光雷达用于密集点云数据实验。实验中使用的相机安装在后面,用于捕捉后视镜。

数据的生成过程与此类似,只是数据不被存储,而是将每个动作的N个窗口大小(w=64)的样本实时输入到学习算法中。该装置的细节在第4.1节中给出。

4.4. 车道探测和物体探测

第3节中讨论的车道检测模块使用经过训练的ANN超快车道检测(43)算法,用于检测后视摄像头图像中的车道。为了进行推断,图像的大小被调整为416x416,然后再调整为原始大小用于显示。该算法使用一个深度神经网络,该网络从上下文的角度将一个视图划分为一个网格。特征是从图像中提取的,网格是用特定的行锚生成的。图像的网格结构为车道检测提供了快速的计算速度,因为与使用整个图像像素的竞争方法相比,网格包含空间上更粗的数据点。车道检测算法的实时性达到每秒300帧(fps),符合本研究的要求。目标检测模块使用最先进的ANN Yolo3(29)。Yolo3以23ms (60fps)的速度快速检测图像中的对象,是建议实验的最佳选择。Yolo3使用53个卷积层,卷积核大小为3×3和1×1,并使用k-mean聚类法进行绑定盒锚。关于进一步的细节,感兴趣的用户请参考原稿(29)。点云数据使用欧几里得聚类算法进行过滤,以确定目标,并使用校准将其映射到来自摄像机的图像上。它给出了图像中检测到的物体的准确距离。

图6: (a)两名驾驶员现场训练和测试的误差条。(b)两位司机在现场训练后的准确度百分比

4.5. 结果

4.5.1. 肌电图分类的离线准确性

这项研究的主要重点是预测司机的意图行动,并利用生物体验对驾驶员产生警告。如第4.3节所述,使用两种不同用途的可穿戴传感器,将三个司机的EMG信号分为三类。通过驾驶员佩戴的肌电可穿戴设备,手按方向盘进行三个动作,测试肌电分类的准确性。在这个实验中,车辆是静止的。在本节中,根据训练和测试数据,计划用两种不同的变化进行实验。首先,为每个驾驶员准备单独的训练数据,并对同一驾驶员进行测试。每个司机的训练和测试的比例是60比40(关于EMG数据集的细节在4.3中讨论)。其次,为所有司机生成一个单一的训练数据集,并为所有司机组合测试数据集。表1给出了两个实验的结果。对司机意图的正确预测在分子中,分母给出了一个已执行动作的总样本数。随着我们增加使用的EMG设备的数量,准确性也会增加。四个设备的数据是通过在每个手臂上佩戴两个设备分别收集的,并在以后将数据串联起来用于训练和测试。我们还注意到,与针对个人的训练和测试相比,泛化在预测中造成的误差更大。正如第4.5.2节中的一个实验所阐述的那样,针对个人的测试不会降低提议的想法的有效性。报告的预测结果在分子大于分母的单元格中,它表明在数据收集中偏向于有标题的类。

4.5.2. 肌电图在线分类

另一个实验旨在测试该系统对新驾驶员的现场效果。训练数据在驾驶员驾驶时采集,以最小样本数训练SVM,并将学习到的参数用于瞬时测试。使用相同的肌电图设备,每个手臂上有一个单一的设备,每个设备的w是64。这些样本从两个设备连接起来,用于训练和预测。训练数据集由6个示例组成,被认为足以产生良好的预测,因为系统是针对个人进行测试的。图6为两个驾驶员的样本和预测精度图。示例数量按比例增加了训练时间,但改善了预测结果。实验表明,整个训练过程的最小滋扰值可能会根据常规环境下的实际经验而变化。

表1 三个驱动器的EMG信号分类

4.5.3. 警示生成

一个完整的框架在为车辆准备的设置中进行测试(称为SDV)。该测试是在一个主要的四车道的校园双向交通道路上进行的。该车在限行道路上以每小时20公里的速度连续行驶5分钟。尾随车辆由一名团队成员驾驶,该成员在SDV中与团队保持持续的沟通。实验过程中,尾车保持安全距离(30 -50m)。SDV的司机戴着肌电图设备和摄像头激光雷达使用ADS进行校准。肌电信号连续传输,其中一个例子的w值为64。连续的信号流被附加到一个队列中,生成一个样本,将最远的信号剥离出来,并附加一个最近的信号,以便用连续的信号流进行预测。按照4.5.2节的方法训练SVM,并将预测结果传递给ADS。

ADS从捕捉汽车后视图的摄像头捕获数据流。数据流被传递给车道检测和目标检测算法。本实验采用FLIR Blackfly-S相机进行后视镜拍摄,帧率为522fps。另一个实验使用罗技c930网络摄像头后视摄像头,帧率为30fps。车道检测和目标检测实时工作,超过30帧/秒。实验使用了Velodyne HDL-32E激光雷达,它提供了一个360◦的视场(FOV),每分钟最大旋转1200次(RPM),为我们提供了20fps,并覆盖80m-100m的距离。实验中的激光雷达设置也使用了120◦的后视范围,600RPM,将频率降低到10fps。ADS中的校准,提供了在后视镜中检测到的车辆的距离。

图7显示了ADS中所有模块的结果,左边的窗口显示了检测到的尾随车辆。左侧底部分别显示了一张带有车道检测的图像。在点云数据的右侧可以看到经过校准的车辆三维检测,它还显示了与车辆的距离。图7右上角显示了预测意图的分类和标记的边界框。通过对话框和可穿戴式肌电设备的振动产生警告。在点云数据中可以看到,在系统产生警告时,我们的车辆是略微向左的。

4.5.4.  她能从错误中恢复过来吗?

考虑到其他模块的实时计算,本研究的一个相关结果是预测预期动作的计算时间。预期的运动动作检测与肌肉的运动起始竞争。通常使用运动相关皮层电位(MRCP)来研究延迟(44),而在实验装置中使用肌电图来检测起始运动(45)。此外,还可以探索电化学延迟(ECD)和机电延迟(EMD),以评估使用肌电图进行预期动作检测与初始运动之间的差异。这项研究试验了在ADAS中使用EMG进行运动意向检测的效用,并且不能从讨论的技术中受益,使用(45)中给出的方法检测确切的延迟。因此,本研究依靠拟议框架中每个模块的计算时间来回答相关问题。

本研究的计算如下:肌电可穿戴设备与边缘设备使用蓝牙设备连接,最坏情况下低能量蓝牙传输时延为46ms(46)。预测肌电的计算时间为0.55ms(±0;1)边缘设备到计算机器的通信是在千兆网络上,这是微不足道的。它不增加最终结果传输到我们的计算机器的延迟,并需要100ms(±10)。计算机器实时计算车道检测、目标检测和激光雷达到相机的映射。所有计算都是并行执行的,一个简单的控制逻辑将所有模块的结果累加起来,并在不到2ms的时间内生成一个警告。这种警告会向边缘设备发送信号,然后向肌电图穿戴设备发送振动命令,以警告司机。总的来说,整个传输过程的往返时间不到200ms。如果我们回到我们的例子中,如果下面的车辆以60km / h的速度行驶,并且距离我们的车辆17米,系统有500毫秒的时间来预测并警告司机。测试系统的计算时间远远小于推测的时间。然而,先导系统使用从上肢捕获的肌电图信号来预测意图。在系统开始其预测时,运动动作已经启动,但距离超过50米的车辆可以为驾驶员提供缓冲,以便从可能导致意外情况的动作中恢复过来。

图7: 完整的信号描述和经过处理的计算结果。左侧为后视镜摄像头捕捉到的图像数据,对图像进行车道检测和物体检测。右图底部是点云数据,顶部是肌电图数据。左上方的图像显示了融合后的结果,包括车道和目标检测以及激光雷达测量的距离。肌电数据中的红色三角形表示连续的肌电信号流中的意图预测。

(41)的相关研究在模拟环境下评估了肌电导向转向控制界面的后期运动误差,并测试了三种类似的场景。然而,目标的对比使得选择横向力矩误差进行公平比较具有挑战性。而(20)在模拟游戏环境中使用EMG Myo波段对行人避碰进行时间分析。直接比较避免碰撞的反应时间是不可能的,但尽管如此,所提出的策略的反应时间一般都比较快。此外,拟议的研究在真实环境中进行了测试,所设计的实验在真实情况下具有真实的计算响应时间。我们计划在未来的研究中引入标准的定性和定量的评价指标进行比较。


5 实验

这项工作提出了一项试点研究,旨在评估生物神经激活对高级驾驶辅助系统(ADAS)的效用。肌电图(EMG)被用来预测司机手臂向左或向右方向转动方向盘的预期动作。预测信息与图像中的物体检测和激光雷达点云数据相结合,并反馈给控制逻辑。该算法使用后视摄像头图像和激光雷达点云数据来检测后续车辆、其位置以及与自驾车的距离。结果表明,所提出的系统产生的警告可以及时提醒司机,让他从运动开始时恢复过来,并以触觉反应来模仿本体感觉反射。该系统使用一个简单的EMG可穿戴设备作为输入,并使用传统的SVM来预测预定动作。它可以被扩展到设计一个具有脑电图和最先进的机器学习算法的特定应用系统。此外,可以将特定任务的EMG传感器设计成更靠近脊柱的佩戴方式,以便更早地感知电刺激并提前预测。另一个前景是使用脑电图同样的目的,这将使它更接近实际的要求,并将赢得更多的时间计算和产生警告。

参考文献:
[1]  W. H. Organization, Global status report on road safety 2015.   World Health Organization, 2015.
[2]  ——, Global status report on road safety 2018.  World Health Organization, 2018.
[3]  C. Hewitt, I. Politis, T. Amanatidis, and A. Sarkar,“Assessing public
perception of self-driving cars: The autonomous vehicle acceptance model,”in Proceedings of the 24th International Conference on Intelligent User Interfaces, ser. IUI ’19.    New York, NY, USA: Association for Computing Machinery, 2019, p. 518–527. [Online]. Available: Assessing public perception of self-driving cars | Proceedings of the 24th International Conference on Intelligent User Interfaces
[4]  B. Libet, E. W. Wright, and C. A. Gleason, Readiness-Potentials
Preceding  Unrestricted spontaneous vs. Pre-Planned Voluntary Acts.   Boston, MA: Birkhäuser Boston, 1993, pp. 229–242. [Online]. Available: Readiness-Potentials Preceding Unrestricted’ spontaneous’ vs. Pre-Planned Voluntary Acts | SpringerLink
[5]  B.   Libet,   C.   A.   Gleason,   E.   W.   Wright,   and   D. K. Pearl,   Time   of   Conscious   Intention   to  Act   in   Relation   to Onset of  Cerebral Activity  (Readiness-Potential).    Boston, MA: Birkhäuser  Boston,   1993,  pp.  249–268.   [Online].  Available:
Time of Conscious Intention to Act in Relation to Onset of Cerebral Activity (Readiness-Potential) | SpringerLink
[6]  C. Soon, M. Brass, H.-J. Heinze, and J.-D. Haynes,“Unconscious de-
terminants of free decisions in the human brain,”Nature neuroscience, vol. 11, pp. 543–5, 06 2008.
[7]  J.-D.  Haynes,  Beyond  Libet:  Long-Term  Prediction   of  Free
Choicesfrom Neuroimaging Signals.   Berlin, Heidelberg: Springer Berlin   Heidelberg,   2011,   pp.   161– 174.   [Online].   Available:
Beyond Libet: Long-Term Prediction of Free Choices from Neuroimaging Signals | SpringerLink
[8]  H. Liljenström, “Consciousness, decision making, and volition: free-
dom beyond chance and necessity,”Theory in Biosciences, May 2021. [Online]. Available: Consciousness, decision making, and volition: freedom beyond chance and necessity | SpringerLink
[9]  A. Mele, Chapter 4 Free Will and Neuroscience: Decision Times
and the Point of No Return.   Leiden, The Netherlands: Brill, 2019, pp. 83 – 96. [Online]. Available: https://brill.com/view/book/edcoll/ 9789004409965/BP000007.xml
[10]  ——, Springs of Action: Understanding Intentional Behavior.  Oxford
University Press, 1992.
[11]  J. Trevena and J. Miller, “Brain preparation before a voluntary
action:   Evidence   against   unconscious   movement   initiation,” Consciousness  and  Cognition,  vol.   19,  no.   1,  pp.  447–456,  2010. [Online]. Available: https://www.sciencedirect.com/science/  article/pii/S1053810009001135
[12]  E. Travers, N. Khalighinejad, A. Schurger, and P. Haggard, “Do
readiness potentials happen all the time?”NeuroImage, vol. 206, p. 116286, 2020. [Online]. Available: https://www.sciencedirect.com/ science/article/pii/S1053811919308778
[13]  D. L. Felten, “Preface,”in Netter’s Atlas of Neuroscience (Third
Edition), third edition ed., D. L. Felten, M. K. O’Banion, and M. S. Maida, Eds.  Philadelphia: Elsevier, 2016. [Online]. Available:https:// www.sciencedirect.com/science/article/pii/B9780323265119000230
[14]  J. Martin, H. Radzyner, and M. Leonard, Neuroanatomy: Text andAtlas,
ser. Ovid ebook collection.   McGraw-Hill Companies,Incorporated,
2003.
[15]  G. Thibodeau and K. Patton, Anatomy & Physiology.  Elsevier Science
Health Science, 2015.
[16]  K. Van De Graaff and S. Fox, Concepts of Human Anatomy  Physiology.   WCB/McGraw-Hill, 1999.
[17]  C. Zhang and A. Eskandarian,“A survey and tutorial of EEG-based brain monitoring for driver state analysis,”IEEE/CAA Journal of Automatica Sinica, vol. 8, no. 7, pp. 1222– 1242, 2021.
[18]  Y. Roy, H. Banville, I. Albuquerque, A. Gramfort, T. H. Falk, and J. Faubert,“Deep learning-based electroencephalography analysis: a systematic review,”Journal of Neural Engineering, vol. 16, no. 5, aug
2019. [Online]. Available: ShieldSquare Captcha
[19]  J. Abril, O. Rivera Rincon, O. Avilés Sánchez, and M. Mauledoux, “Driver assistance system for people with reduced mobility in upper limb through electromyography signals,”12 2019.
[20]  E. J. C. Nacpil, Z. Wang, Z. Yan, T. Kaizuka, and K. Nakano,“Surface electromyography-controlled pedestrian collision avoidance: A driving simulator study,”IEEE Sensors Journal, vol. 21, no. 12, pp. 13 877– 13 885, 2021.
[21]  E. Marti, M. A. de Miguel, F. Garcia, and J. Perez,“A review of sensor
technologies for perception in automated driving,”IEEE Intelligent Transportation Systems Magazine, vol. 11, no. 4, pp. 94– 108, 2019.
[22]  D.  J.  Yeong,  G.  Velasco-Hernandez,  J.  Barry,  and  J.  Walsh,
“Sensor  and  sensor  fusion  technology  in  autonomous  vehicles: A  review,”Sensors,  vol.  21,  no.  6,  2021.  [Online].  Available:
Sensors | Free Full-Text | Sensor and Sensor Fusion Technology in Autonomous Vehicles: A Review
[23]  E.   Khatab,   A.   Onsy,   M.   Varley,   and   A.   Abouelfarag,
“Vulnerable objects detection for autonomous driving: A review,” Integration, vol. 78, pp. 36–48, 2021. [Online]. Available: https:  //www.sciencedirect.com/science/article/pii/S0167926021000055
[24]  D. Dai, Z. Chen, P. Bao, and J. Wang,“A review of 3d object
detection  for  autonomous  driving  of  electric  vehicles,”  World Electric Vehicle Journal, vol. 12, no. 3, 2021. [Online]. Available:
WEVJ | Free Full-Text | A Review of 3D Object Detection for Autonomous Driving of Electric Vehicles
[25]  F. Yu, H. Chen, X. Wang, W. Xian, Y. Chen, F. Liu, V. Madhavan,
and T. Darrell,“Bdd100k: A diverse driving dataset for heterogeneous multitask learning,”in IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 2020.
[26]  P. Sun, H. Kretzschmar, X. Dotiwalla, A. Chouard, V. Patnaik, P. Tsui, J. Guo, Y. Zhou, Y. Chai, B. Caine et al., “Scalability in perception for autonomous driving: Waymo open dataset,”in Proceedings of the
IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020, pp. 2446–2454.
[27]  W. Zheng, W. Tang, L. Jiang, and C.-W. Fu,“Se-ssd: Self-ensembling
single-stage object detector from point cloud,”in CVPR, 2021, pp. 14 494– 14 503.
[28]  Y. Wang, B. Yang, R. Hu, M. Liang, and R. Urtasun,“PLUME: efficient
3d object detection from stereo images,”CoRR, vol. abs/2101.06594, 2021. [Online]. Available: https://arxiv.org/abs/2101.06594
[29]  J. Redmon and A. Farhadi,“Yolo9000: Better, faster, stronger,”in
2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, pp. 6517–6525.
[30]  T. Lin, P. Goyal, R. Girshick, K. He, and P. Dollar,“Focal loss for
dense object detection,”IEEE Transactions on Pattern Analysis I& Machine Intelligence, vol. 42, no. 02, pp. 318–327, feb 2020.
[31]  H.-B. Kang,“Various approaches for driver and driving behavior
monitoring: A review,”in 2013 IEEE International Conference on Computer Vision Workshops, 2013, pp. 616–623.
[32]  A.  Halin,  J.  G.  Verly,  and  M.  Van  Droogenbroeck,  “Survey
and   synthesis   of   state   of   the   art   in   driver   monitoring,” Sensors,  vol.  21,  no.   16,   2021.   [Online].  Available:  https:  //www.mdpi.com/1424-8220/21/16/5558
[33]  N. Moslemi, M. Soryani, and R. Azmi, “Computer vision-based
recognition  of  driver  distraction:  A  review,”Concurrency  and Computation: Practice and Experience, vol. n/a, no. n/a, p. e6475. [Online]. Available: https://onlinelibrary.wiley.com/doi/abs/10.1002/ cpe.6475
[34]  G. Salzillo, C. Natale, G. B. Fioccola, and E. Landolfi,“Evaluation
of driver drowsiness based on real-time face analysis,”in 2020 IEEE International Conference on Systems, Man, and Cybernetics (SMC), 2020, pp. 328–335.

[35]  N. Taherifard, M. Simsek, C. Lascelles, and B. Kantarci,“Attention-based event characterization for scarce vehicular sensing data,”IEEE Open Journal of Vehicular Technology, vol. 1, pp. 317–330, 2020.

[36]  Y. Cui and D. Wu, “EEG-based driver drowsiness estimation using convolutional neural networks,”in Neural Information Processing,D. Liu, S. Xie, Y. Li, D. Zhao, and E.-S. M. El-Alfy, Eds. Cham:Springer International Publishing, 2017, pp. 822–832.
[37]  Y. Cui, Y. Xu, and D. Wu, “EEG-based driver drowsiness estimation using feature weighted episodic training,”IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. 27, no. 11, pp. 2263–2273, 2019.
[38]  H. Wang, X. Liu, H. Hu, F. Wan, T. Li, L. Gao, A. Bezerianos, Y. Sun, and T.-P. Jung, “Dynamic reorganization of functional connectivity unmasks fatigue related performance declines in simulated driving,”
IEEE Transactions on Neural Systems and Rehabilitation Engineering,vol. 28, no. 8, pp. 1790– 1799, 2020.
[39]  Y. Xing, C. Lv, and D. Cao,“Advanced driver intention inference,”in Advanced Driver Intention Inference, Y. Xing, C. Lv, and D. Cao,Eds.   Elsevier, 2020, pp. 1–247. [Online].  Available: https://www.sciencedirect.com/science/article/pii/B9780128191132000014
[40]  P. Visconti, F. Gaetani, G. Zappatore, and P. Primiceri,“Technical features and functionalities of myo armband: An overview on related literature and advanced applications of myoelectric armbands mainly
focused on arm prostheses,”International Journal on Smart Sensing and Intelligent Systems, vol. 11, pp. 1–25, 06 2018.
[41]  E. J. C. Nacpil, R. Zheng, T. Kaizuka, and K. Nakano,“A surface electromyography controlled steering assistance interface,”Journal oIntelligent and Connected Vehicles, vol. 2, no. 1, pp. 1– 13, Jan 2019.
[Online]. Available: A surface electromyography controlled steering assistance interface | Emerald Insight
[42]  T.-Y. Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Dollár, and C. L. Zitnick, “Microsoft coco: Common objects in context,”in Computer Vision  ECCV 2014, D. Fleet, T. Pajdla, B. Schiele, and T. Tuytelaars, Eds.    Cham: Springer International Publishing, 2014, pp. 740–755.
[43]  Z. Qin, H. Wang, and X. Li, “Ultra fast structure-aware deep lane detection,”in Computer Vision  ECCV 2020, A. Vedaldi, H. Bischof, T. Brox, and J.-M. Frahm, Eds. Cham: Springer International Publishing, 2020, pp. 276–291.
[44]  R. Xu, N. Jiang, C. Lin, N. Mrachacz-Kersting, K. Dremstrup, and D. Farina, “Enhanced low-latency detection of motor intention from EEG for closed-loop brain-computer interface applications,”IEEE Transactions on Biomedical Engineering, vol. 61, no. 2, pp. 288–296, 2014.
[45]  D. Liu, W. Chen, Z. Pei, and J. Wang, “Detection of lower-limb
movement intention from EEG signals,”in 2017 12th IEEE Conference
on Industrial Electronics and Applications (ICIEA), 2017, pp. 84–89.
[46]  R.   Rondon,   M.   Gidlund,   and   K.   Landernas,   “Evaluating bluetooth  low  energy  suitability  for  time-critical  industrial  iot applications,”International Journal of Wireless Information Networks,vol.  24,  no.  3,  pp.  278–290,  Sep  2017.  [Online].  Available:
Evaluating Bluetooth Low Energy Suitability for Time-Critical Industrial IoT Applications | SpringerLink
END

分享不易,恳请点个【👍】和【在看】

智能汽车开发者平台 分享汽车最新前言技术解读,行业分析,与授权行业资料分享平台。
评论 (0)
  • 在全球电子产业面临供应链波动、技术迭代和市场需求变化等多重挑战的背景下,安博电子始终秉持“让合作伙伴赢得更多一点”的核心理念,致力于打造稳健、高效、可持续的全球供应链体系。依托覆盖供应商管理、品质检测、智能交付的全链路品控体系,安博电子不仅能确保电子元器件的高可靠性与一致性,更以高透明的供应链管理模式,助力客户降低风险、提升运营效率,推动行业标准升级,与全球合作伙伴共同塑造更具前瞻性的产业生态。动态优选机制:构建纯净供应链生态安博电子将供应商管理视为供应链安全的根基。打造动态优选管控体系,以严格
    电子资讯报 2025-04-07 17:06 95浏览
  • 医疗影像设备(如CT、MRI、超声诊断仪等)对PCB的精度、可靠性和信号完整性要求极高。这类设备需要处理微伏级信号、高频数据传输,同时需通过严格的EMC/EMI测试。制造此类PCB需从材料选择、层叠设计、工艺控制等多维度优化。以下是关键技术与经验分享。 1. 材料选择:高频与生物兼容性优先医疗影像设备PCB常采用 Rogers RO4000系列 或 Isola FR4高速材料,以降低介电损耗并保证信号稳定性。例如,捷多邦在客户案例中曾为某超声探头厂商推荐 Rogers RO4350B
    捷多邦 2025-04-07 10:22 117浏览
  •   工业自动化领域电磁兼容与接地系统深度剖析   一、电磁兼容(EMC)基础认知   定义及关键意义   电磁兼容性(EMC),指的是设备或者系统在既定的电磁环境里,不但能按预期功能正常运转,而且不会对周边其他设备或系统造成难以承受的电磁干扰。在工业自动化不断发展的当下,大功率电机、变频器等设备被大量应用,现场总线、工业网络等技术也日益普及,致使工业自动化系统所处的电磁环境变得愈发复杂,电磁兼容(EMC)问题也越发严峻。   ​电磁兼容三大核心要素   屏蔽:屏蔽旨在切断电磁波的传播路
    北京华盛恒辉软件开发 2025-04-07 22:55 216浏览
  • 在人工智能技术飞速发展的今天,语音交互正以颠覆性的方式重塑我们的生活体验。WTK6900系列语音识别芯片凭借其离线高性能、抗噪远场识别、毫秒级响应的核心优势,为智能家居领域注入全新活力。以智能风扇为起点,我们开启一场“解放双手”的科技革命,让每一缕凉风都随“声”而至。一、核心技术:精准识别,无惧环境挑战自适应降噪,听懂你的每一句话WTK6900系列芯片搭载前沿信号处理技术,通过自适应降噪算法,可智能过滤环境噪声干扰。无论是家中电视声、户外虫鸣声,还是厨房烹饪的嘈杂声,芯片均能精准提取有效指令,识
    广州唯创电子 2025-04-08 08:40 174浏览
  • 文/Leon编辑/cc孙聪颖‍转手绢、跳舞、骑车、后空翻,就在宇树、智元等独角兽企业率领“机器人大军”入侵短视频时,却有资本和科技大佬向此产业泼了一盆冷水。金沙江创投管理合伙人朱啸虎近日突然对人形机器人发难,他表示“最近几个月正在批量退出人形机器人公司”。“只是买回去做研究的,或者买回去做展示的,这种都不是我们意义上的商业化,谁会花十几万买一个机器人去干这些活?”朱啸虎吐槽。不过,朱啸虎的观点很快就遭到驳斥,众擎机器人的创始人、董事长赵同阳回怼道:“(朱啸虎)甚至问出了人形机器人在这个阶段有什么
    华尔街科技眼 2025-04-07 19:24 150浏览
  • 在追求环境质量升级与产业效能突破的当下,温湿度控制正成为横跨多个行业领域的核心命题。作为环境参数中的关键指标,温湿度的精准调控不仅承载着人们对舒适人居环境的期待,更深度关联着工业生产、科研实验及仓储物流等场景的运营效率与安全标准。从应用场景上看,智能家居领域要求温湿度系统实现与人体节律的协同调节,半导体洁净车间要求控制温湿度范围及其波动以保障良品率,而现代化仓储物流体系则依赖温湿度的实时监测预防各种产品的腐损与锈化。温湿度传感器作为实现温湿度监测的关键元器件,其重要性正在各行各业中凸显而出。温湿
    华普微HOPERF 2025-04-07 10:05 152浏览
  •   卫星图像智能测绘系统:地理空间数据处理的创新引擎   卫星图像智能测绘系统作为融合卫星遥感、地理信息系统(GIS)、人工智能(AI)以及大数据分析等前沿技术的综合性平台,致力于达成高精度、高效率的地理空间数据采集、处理与应用目标。借助自动化、智能化的技术路径,该系统为国土资源管理、城市规划、灾害监测、环境保护等诸多领域输送关键数据支撑。   应用案例   目前,已有多个卫星图像智能测绘系统在实际应用中取得了显著成效。例如,北京华盛恒辉北京五木恒润卫星图像智能测绘系统。这些成功案例为卫星
    华盛恒辉l58ll334744 2025-04-08 16:19 69浏览
  •     根据 IEC术语,瞬态过电压是指持续时间几个毫秒及以下的过高电压,通常是以高阻尼(快速衰减)形式出现,波形可以是振荡的,也可以是非振荡的。    瞬态过电压的成因和机理,IEC 60664-1给出了以下四种:    1. 自然放电,最典型的例子是雷击,感应到电力线路上,并通过电网配电系统传输,抵达用户端;        2. 电网中非特定感性负载通断。例如热处理工厂、机加工工厂对
    电子知识打边炉 2025-04-07 22:59 136浏览
  •   卫星图像智能测绘系统全面解析   一、系统概述   卫星图像智能测绘系统是基于卫星遥感技术、图像处理算法与人工智能(AI)技术的综合应用平台,旨在实现高精度、高效率的地理空间数据获取、处理与分析。该系统通过融合多源卫星数据(如光学、雷达、高光谱等),结合AI驱动的智能算法,实现自动化、智能化的测绘流程,广泛应用于城市规划、自然资源调查、灾害监测等领域。   应用案例   目前,已有多个卫星图像智能测绘系统在实际应用中取得了显著成效。例如,北京华盛恒辉和北京五木恒润卫星图像智能测绘系统
    华盛恒辉l58ll334744 2025-04-08 15:04 72浏览
  • 在万物互联时代,智能化安防需求持续升级,传统报警系统已难以满足实时性、可靠性与安全性并重的要求。WT2003H-16S低功耗语音芯片方案,以4G实时音频传输、超低功耗设计、端云加密交互为核心,重新定义智能报警设备的性能边界,为家庭、工业、公共安防等领域提供高效、稳定的安全守护。一、技术内核:五大核心突破,构建全场景安防基座1. 双模音频传输,灵活应对复杂场景实时音频流传输:内置高灵敏度MIC,支持环境音实时采集,通过4G模块直接上传至云端服务器,响应速度低至毫秒级,适用于火灾警报、紧急呼救等需即
    广州唯创电子 2025-04-08 08:59 141浏览
  • HDMI从2.1版本开始采用FRL传输模式,和2.0及之前的版本不同。两者在物理层信号上有所区别,这就需要在一些2.1版本的电路设计上增加匹配电路,使得2.1版本的电路能够向下兼容2.0及之前版本。2.1版本的信号特性下面截取自2.1版本规范定义,可以看到2.1版本支持直流耦合和交流耦合,其共模电压和AVCC相关,信号摆幅在400mV-1200mV2.0及之前版本的信号特性HDMI2.0及之前版本采用TMDS信号物理层,其结构和参数如下:兼容设计根据以上规范定义,可以看出TMDS信号的共模电压范
    durid 2025-04-08 19:01 138浏览
  •     在研究Corona现象时发现:临界电压与介电材料表面的清洁程度有关。表面越清洁的介电材料,临界电压越高;表面污染物越多的地方,越容易“爬电”。关于Corona现象,另见基础理论第007篇。    这里说的“污染物”,定义为——可能影响介电强度或表面电阻率的固体、液体或气体(电离气体)的任何情况。    IEC 60664-1 (对应GB/T 16935.1-2023) 定义了 Pollution Degree,中文术语是“污染等
    电子知识打边炉 2025-04-07 22:06 98浏览
  • 贞光科技作为三星电机车规电容代理商,针对电动汽车领域日益复杂的电容选型难题,提供全方位一站式解决方案。面对高温稳定性、高可靠性、高纹波电流和小型化等严苛要求,三星车规电容凭借完整产品矩阵和卓越技术优势,完美满足BMS、电机控制器和OBC等核心系统需求。无论技术选型、供应链保障、样品测试还是成本优化,贞光科技助力客户在电动汽车产业高速发展中占据技术先机。在电动汽车技术高速发展的今天,作为汽车电子系统中不可或缺的关键元器件,电容的选型已成为困扰许多工程师和采购人员的难题。如何在众多参数和型号中找到最
    贞光科技 2025-04-07 17:06 69浏览
  • 曾几何时,汽车之家可是汽车资讯平台领域响当当的“扛把子”。2005 年成立之初,它就像一位贴心的汽车小助手,一下子就抓住了大家的心。它不仅吸引了海量用户,更是成为汽车厂商和经销商眼中的“香饽饽”,广告投放、合作推广不断,营收和利润一路高歌猛进,2013年成功在纽交所上市,风光无限。2021年更是在香港二次上市,达到了发展的巅峰,当年3月15日上市首日,港股股价一度高达184.6港元,市值可观。然而,如今的汽车之家却陷入了困境,业务下滑明显。业务增长瓶颈从近年来汽车之家公布的财报数据来看,情况不容
    用户1742991715177 2025-04-07 21:48 113浏览
  • 及时生产 JIT(Just In Time)的起源JIT 起源于 20 世纪 70 年代爆发的全球石油危机和由此引发的自然资源短缺,这对仰赖进口原物料发展经济的日本冲击最大。当时日本的生产企业为了增强竞争力、提高产品利润,在原物料成本难以降低的情况下,只能从生产和流通过程中寻找利润源,降低库存、库存和运输等方面的生产性费用。根据这种思想,日本丰田汽车公司创立的一种具有特色的现代化生产方式,即 JIT,并由此取得了意想不到的成果。由于它不断地用于汽车生产,随后被越来越多的许多行业和企业所采用,为日
    优思学院 2025-04-07 11:56 113浏览
我要评论
0
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦