大家好!
最近在优化引擎代码,在优化的过程中发现一个很奇怪的问题,一个简单的对象,存放在std::vector<> v中,如果v定义的时候为每个元素指定初值,那么后面对v中每个元素的写就飞快;相反的,如果v定义的时候,不指定初始值,那么后面对v中元素写操作的时候,就花费大约前一种2-3倍的时间。
今天,借助此文,分享下原因的排查过程。
为了能够快速说明问题,直接上代码吧,如下:
#include
#include
#include
#include
int const num = 1000000000;
struct AdItem
{
AdItem() {}
AdItem(int x, int y, int z)
{
x_ = x; y_ = y; z_ = z;
}
int x_;
int y_;
int z_;
};
void time_report(const std::function<void()> &f1, const std::function<void()> &f2) {
auto start = std::chrono::high_resolution_clock::now();
f1();
auto end = std::chrono::high_resolution_clock::now();
std::cout << "allocation done in " << std::chrono::duration_cast<std::chrono::milliseconds>(end - start).count() << "ms" << std::endl;
start = std::chrono::high_resolution_clock::now();
f2();
end = std::chrono::high_resolution_clock::now();
std::cout << "assignment done in " << std::chrono::duration_cast<std::chrono::milliseconds>(end - start).count() << "ms" << std::endl;
}
void uninitialized_performance() {
std::vectorv;
time_report([&v]() { v.reserve(num); },
[&v]() {
for (int i = 0; i < num; ++i) {
v[i] = {i + 2, i + 4, i + 6};
} });
}
void initialized_performance() {
std::vectorv;
time_report([&v]() { v.assign(num, AdItem{0, 0, 0}); },
[&v]() {
for (int i = 0; i < num; ++i) {
v[i] = {i + 2, i + 4, i + 6};
} });
}
int main()
{
uninitialized_performance();
initialized_performance();
return 0;
}
程序输出如下:
allocation done in 0ms
assignment done in 59ms
allocation done in 46ms
assignment done in 27ms
无论使用-g -O2 -O3
都是一样的效果,执行多次结果仍然一样。
CPU缓存(CPU Cache)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。
在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。
看到结果以后,第一反应是CPU Cache导致,因为占用的内存大小一样,所以怀疑在第二次访问的时候,因为CPU Cache中已经有缓存,所以直接使用。
为了确认是否是因为CPU Cache而导致的性能差异,所以将测试分成两个独立的程序进行,即分别执行uninitialized_performance()
和initialized_performance()
函数,结果与之前的一致,所以排除CPU Cache的原因。
perf是用来进行软件性能分析的工具,可以利用PMU、tracepoint和内核中的特殊计数器来进行性能统计,用来分析内核和应用程序的性能。
使用perf stat uninitialized_performance
结果如下:
Performance counter stats for 'uninitialized_performance':
47.923956 task-clock (msec) # 0.985 CPUs utilized
6 context-switches # 0.125 K/sec
0 cpu-migrations # 0.000 K/sec
1,007 page-faults # 0.021 M/sec
99,354,240 cycles # 2.073 GHz (83.33%)
72,689,011 stalled-cycles-frontend # 73.16% frontend cycles idle (83.46%)
48,738,086 stalled-cycles-backend # 49.05% backend cycles idle (66.66%)
98,377,529 instructions # 0.99 insn per cycle
# 0.74 stalled cycles per insn (83.32%)
11,399,060 branches # 237.857 M/sec (83.39%)
19,617 branch-misses # 0.17% of all branches (83.16%)
使用perf stat initialized_performance
结果如下:
76.092443 task-clock (msec) # 0.991 CPUs utilized
6 context-switches # 0.079 K/sec
0 cpu-migrations # 0.000 K/sec
1,007 page-faults # 0.013 M/sec
157,742,162 cycles # 2.073 GHz (82.94%)
110,940,710 stalled-cycles-frontend # 70.33% frontend cycles idle (82.96%)
72,531,622 stalled-cycles-backend # 45.98% backend cycles idle (65.92%)
178,142,743 instructions # 1.13 insn per cycle
# 0.62 stalled cycles per insn (82.99%)
31,488,875 branches # 413.824 M/sec (84.01%)
24,309 branch-misses # 0.08% of all branches (84.17%)
因为perf只能得到整个程序执行期间的变化,而我们实际上需要的是核心部分,看来通过perf得到有用的信息,只能另寻他法。
截止到现在,上述方案都没能解答本次问题的疑问,只能祭出屠龙刀,看源码了。
未初始化版
调用信息如下:
-> std::vectorstd::allocator >::vector
--> std::vectorstd::allocator >::_M_default_initialize
---> std::__uninitialized_default_n_aunsigned long, AdItem>
----> std::__uninitialized_default_nunsigned long>
-----> std::__uninitialized_default_n_1<false>::__uninit_default_nunsigned long>
------> std::_Construct(std::__addressof(*__cur))
初始化版
调用信息如下:
-> std::vector >::vector
--> std::vector >::_M_fill_initialize
---> std::__uninitialized_fill_n_a
----> std::uninitialized_fill_n
-----> std::__uninitialized_fill_n<false>::__uninit_fill_n
------> std::_Construct(std::__addressof(*__cur), __x)
从上述函数调用信息可以看出,初始化版本和都调用了std::_Construct函数,而该函数通过其名称就能看到,是调用了构造函数对内存块进行构造(底层是用placement new
实现),得不到我们有用的信息。
下面我们从汇编角度来看下(为了篇幅,去掉了无关紧要的部分以及相同的部分)。
未初始化版本:
uninitialized_performance():
mov QWORD PTR [rsp+104], OFFSET FLAT:std::_Function_handler::_M_invoke(std::_Any_data const&)
mov QWORD PTR [rsp+80], rax
mov QWORD PTR [rsp+96], OFFSET FLAT:std::_Function_base::_Base_manager::_M_manager(std::_Any_data&, std::_Any_data const&, std::_Manager_operation)
mov QWORD PTR [rsp+48], rax
mov QWORD PTR [rsp+72], OFFSET FLAT:std::_Function_handler::_M_invoke(std::_Any_data const&)
mov QWORD PTR [rsp+64], OFFSET FLAT:std::_Function_base::_Base_manager::_M_manager(std::_Any_data&, std::_Any_data const&, std::_Manager_operation)
初始化版本:
initialized_performance():
mov QWORD PTR [rsp+64], rsp
mov QWORD PTR [rsp+88], OFFSET FLAT:std::_Function_handler::_M_invoke(std::_Any_data const&)
mov QWORD PTR [rsp+80], OFFSET FLAT:std::_Function_base::_Base_manager::_M_manager(std::_Any_data&, std::_Any_data const&, std::_Manager_operation)
mov QWORD PTR [rsp+32], rsp
mov QWORD PTR [rsp+56], OFFSET FLAT:std::_Function_handler::_M_invoke(std::_Any_data const&)
mov QWORD PTR [rsp+48], OFFSET FLAT:std::_Function_base::_Base_manager::_M_manager(std::_Any_data&, std::_Any_data const&, std::_Manager_operation)
从上述汇编结果没看到有什么区别,所以排除了语言层面的区别了,尝试从其它方面进行分析。
既然源码和汇编都看不出来区别,那么只能从另外一个方向来进行考虑,那就是内存分配
,有没有可能虽然是都调用了new进行内存分配,但是实际上并没有分配呢?
记得之前看过一些文章,说是操作系统有个lazy allocation(延迟分配)
机制,即用户调用API进行内存分配的时候,操作系统并不会直接分配给用户这么多内存,而是直到用户真的访问了申请的page时产生一个page falut,然后将这个page真的分配给用户,并重新执行产生page fault的语句。
我们使用以下例子进行验证:
#include
struct X {
int x_[1 << 24];
};
int main() {
auto x = new X;
sleep(100);
return 0;
}
然后通过htop -p xxx
命令查看信息,如下:
然后,我们尝试将代码进行修改如下:
#include
#include
struct X {
int x_[1 << 24];
};
int main() {
auto x = new X;
memset(x->x_, 0, sizeof(x->x_)); // 增加了该句,仅仅为了访问
sleep(100);
return 0;
}
如下所示:
通过上述htop的输出信息的RES
块可以看出,第二次调用分配了足够的虚拟内存,这就验证了我们这次的结论,即使使用了new,在真正使用之前是没有被真正的分配虚拟内存
。
Lazy allocation simply means not allocating a resource until it is actually needed. This is common with singleton objects, but strictly speaking, any time a resource is allocated as late as possible, you have an example of lazy allocation.
By delaying allocation of a resource until you actually need it, you can decrease startup time, and even eliminate the allocation entirely if you never actually use the object. In contrast, you could pre-allocate a resource you expect to need later, which can make later execution more efficient at the expense of startup time, and also avoids the possibility of the allocation failing later in program execution.
现在,我们从lazy allocation
角度来分析该问题。对于未初始化的vector,该vector申请了一大块内存,operator new只是返回了虚拟地址(此时并未将物理地址与其关联),当具体访问数据(for循环)的时候,操作系统才会将虚拟地址与物理地址进行关联。而在构造时给初值,算是访问大块连续逻辑空间,操作系统会将虚拟地址与物理地址相关联,这样在后面访问的时候,因为已经访问了一次了,所以会很快。
在源码一节中,我们提到未初始化版本和初始化版本最终分别调用了std::_Construct(std::__addressof(*__cur))
和_Construct(std::__addressof(*__cur), __x)
,下面是其具体实现。
未初始化版本:
template<typename _T1, typename... _Args>
inline void
_Construct(_T1* __p, _Args&&... __args) {
::new(static_cast<void*>(__p)) _T1(std::forward<_Args>(__args)...);
}
初始化版本如下:
inline void
_Construct(_T1* __p, const _T2& __value) {
::new(static_cast<void*>(__p)) _T1(__value);
}
std::_Construct是在std::vector<>定义中进行调用的,也就是说都访问了对应的地址,但是为什么区别这么大呢?后面,对示例代码进行了修改:
AdItem() {
x_ = 0; y_ = 0; z_ = 0;
}
AdItem() = default;
修改之后,再次编译,运行,未初始化版本和初始化版本的性能结果基本一致,进一步验证了我们的猜想 lazy allocation
引起的性能差异。结语
开发过程,就是一个
不断采坑
的过程,从一个坑到另一个坑,技术才能成长。好了,今天的文章就到这,我们下期见!
免责声明: 该内容由专栏作者授权发布或作者转载,目的在于传递更多信息,并不代表本网赞同其观点,本站亦不保证或承诺内容真实性等。若内容或图片侵犯您的权益,请及时联系本站删除。侵权投诉联系: nick.zong@aspencore.com!评论
Supernode与艾迈斯欧司朗携手,通过Belago红外LED实现精准扫地机器人避障;得益于Belago出色的红外补光功能,使扫地机器人能够大大提升其识别物体的能力,实现精准避障;Belago点阵照明器采用迷你封装,兼容标准无铅回流工艺,适用于各种3D传感平台,包括移动设备、物联网设备和机器人。全球领先的光学解决方案供应商艾迈斯欧司朗(瑞士证券交易所股票代码:AMS)近日宣布,与国内领先的多行业三维视觉方案提供商超节点创新科技(Supernode)双方联合推出采用艾迈斯欧司朗先进Belago红 随着工业自动化和智能化的发展,电机控制系统正向更高精度、更快响应和更高稳定性的方向发展。高速光耦作为一种电气隔离与信号传输的核心器件,在现代电机控制中扮演着至关重要的角色。本文将详细介绍高速光耦在电机控制中的应用优势及其在实际工控系统中的重要性。高速光耦的基本原理及优势高速光耦是一种光电耦合器件,通过光信号传递电信号,实现输入输出端的电气隔离。这种隔离可以有效保护电路免受高压、电流浪涌等干扰。相比传统的光耦,高速光耦具备更快的响应速度,通常可以达到几百纳秒到几微秒级别的传输延迟。电气隔离:高速光 不卖关子先说感受,真本书真是相见恨晚啊。字面意思,见到太晚了,我刚毕业或者刚做电子行业就应该接触到这本书的。我自己跌跌撞撞那么多年走了多少弯路,掉过多少坑,都是血泪史啊,要是提前能看到这本书很多弯路很多坑都是可以避免的,可惜这本书是今年出的,羡慕现在的年轻人能有这么丰富完善的资料可以学习,想当年我纯靠百度和论坛搜索、求助啊,连个正经师傅都没有,从软件安装到一步一布操作纯靠自己瞎摸索,然后就是搜索各种教程视频,说出来都是泪啊。 & 汽车行业的变革正愈演愈烈,由交通工具到“第三生活空间”。业内逐渐凝聚共识:汽车的下半场在于智能化。而智能化的核心在于集成先进的传感器,以实现高等级的智能驾驶乃至自动驾驶,以及更个性、舒适、交互体验更优的智能座舱。毕马威中国《聚焦电动化下半场 智能座舱白皮书》数据指出,2026年中国智能座舱市场规模将达到2127亿元,5年复合增长率超过17%。2022年到2026年,智能座舱渗透率将从59%上升至82%。近日,在SENSOR CHINA与琻捷电子联合举办的“汽车传感系列交流会-智能传感专场”上,艾 百佳泰特为您整理2024年12月各大Logo的最新规格信息。——————————USB▶ 百佳泰获授权进行 USB Active Cable 认证。▶ 所有符合 USB PD 3.2 标准的产品都有资格获得USB-IF 认证——————————Bluetooth®▶ Remote UPF Testing针对所有低功耗音频(LE Audio)和网格(Mesh)规范的远程互操作性测试已开放,蓝牙会员可使用该测试,这是随时测试产品的又一绝佳途径。——————————PCI Express▶ 2025年 //```c #include "..\..\comm\AI8051U.h" // 包含头文件,定义了硬件寄存器和常量 #include "stdio.h" // 标准输入输出库 #include "intrins.h" &n 光耦合器,也称为光隔离器,是用于电气隔离和信号传输的多功能组件。其应用之一是测量电路中的电压。本文介绍了如何利用光耦合器进行电压测量,阐明了其操作和实际用途。使用光耦合器进行电压测量的工作原理使用光耦合器进行电压测量依赖于其在通过光传输信号的同时隔离输入和输出电路的能力。该过程包括:连接到电压源光耦合器连接在电压源上。输入电压施加到光耦合器的LED,LED发出的光与施加的电压成比例。光电二极管响应LED发出的光由输出侧的光电二极管或光电晶体管检测。随着LED亮度的变化,光电二极管的电阻相应减小, 汽车驾驶员监控系统又称DMS,是一种集中在车辆中的技术,用于实时跟踪和评估驾驶员状态及驾驶行为。随着汽车产业智能化转型,整合AI技术的DMS逐渐成为主流,AI模型通过大量数据进行持续训练,使得驾驶监控更加高效和精准。 驾驶员监测系统主要通过传感器、摄像头收集驾驶员的面部图像,定位头部姿势、人脸特征及行为特征,并通过各种异常驾驶行为检测模型运算来识别驾驶员的当前状态。如果出现任何异常驾驶行为(如疲劳,分心,抽烟,接打电话,无安全带等),将发出声音及视觉警报。此外,驾驶员的行为数据会被记录 国产数字隔离器已成为现代电子产品中的关键部件,以增强的性能和可靠性取代了传统的光耦合器。这些隔离器广泛应用于医疗设备、汽车电子、工业自动化和其他需要强大信号隔离的领域。准确测试这些设备是确保其质量和性能的基本步骤。如何测试数字隔离器测试数字隔离器需要精度和正确的工具集来评估其在各种条件下的功能和性能。以下设备对于这项任务至关重要:示波器:用于可视化信号波形并测量时序特性,如传播延迟、上升时间和下降时间。允许验证输入输出信号的完整性。频谱分析仪:测量电磁干扰(EMI)和其他频域特性。有助于识别信号 ALINX 正式发布 AMD Virtex UltraScale+ 系列 FPGA PCIe 3.0 综合开发平台 AXVU13P!这款搭载 AMD 16nm 工艺 XCVU13P 芯片的高性能开发验证平台,凭借卓越的计算能力和灵活的扩展性,专为应对复杂应用场景和高带宽需求而设计,助力技术开发者加速产品创新与部署。随着 5G、人工智能和高性能计算等领域的迅猛发展,各行业对计算能力、灵活性和高速数据传输的需求持续攀升。FPGA 凭借其高度可编程性和实时并行处理能力,已成为解决行业痛点的关 光耦固态继电器(SSR)作为现代电子控制系统中不可或缺的关键组件,正逐步取代传统机械继电器。通过利用光耦合技术,SSR不仅能够提供更高的可靠性,还能适应更加复杂和严苛的应用环境。在本文中,我们将深入探讨光耦固态继电器的工作原理、优势、挑战以及未来发展趋势。光耦固态继电器:如何工作并打破传统继电器的局限?光耦固态继电器通过光电隔离技术,实现输入信号与负载之间的电气隔离。其工作原理包括三个关键步骤:光激活:LED接收输入电流并发出与其成比例的光信号。光传输:光电传感器(如光电二极管或光电晶体管)接收 耳机虽看似一个简单的设备,但不仅只是听音乐功能,它已经成为日常生活和专业领域中不可或缺的一部分。从个人娱乐到专业录音,再到公共和私人通讯,耳机的使用无处不在。使用高质量的耳机不仅可以提供优良的声音体验,还能在长时间使用中保护使用者听力健康。耳机产品的质量,除了验证产品是否符合法规标准,也能透过全面性的测试和认证过程,确保耳机在各方面:从音质到耐用性,再到用户舒适度,都能达到或超越行业标准。这不仅保护了消费者的投资,也提升了该公司在整个行业的产品质量和信誉!客户面临到的各种困难一家耳机制造商想要透