作为一个射频工程师,测试是不可避免的一项工作。射频设计,只有通过实际测试,各项指标满足要求,才算完成。
可是,不知道大家在测试过程中,发现测试出的结果与理论不符的时候,有没有考虑过,这可能不是你本身设计的问题,而是仪器的问题呢?
我第一次碰到这个问题,是刚参加工作的时候。当时,领导让设计一P1dB压缩高一点的放大器。具体要求多少,脑袋里已经没有记忆了。不过还依稀记得,当时末级放大器选的是avago的MGA81563,百度了一下,datasheet中标称的1dB压缩点为14dBm左右(那可能当时要求的是12~13dBm)。当时用矢网测试放大器的P1dB点,发现怎么测(反复校准矢网),都达不到指标,可是datasheet中的1dB压缩点明明是能达到要求的呀。
最后都怀疑,是不是器件手册作假呀。后来的事实以及后…后来的例子都证明,国外大厂家的器件手册上的指标都是可以复现的。最后,歪打正着,在放大器输出端加了一个衰减器,再测,发现矢网指示的指标,还是10dBm左右。这才想到,可能是矢网本身的非线性不好。换了一台矢网,发现测试值和器件手册上一模一样。
所以,测试过程中,一定要提防仪器给咱们设置的陷阱。因为仪器本身也是接收机和发射机,比如信号源本质为一发射机,频谱仪为接收机,而矢网就是收发一体机。他们所使用的器件,就像我前面文章提到的,不可能是全理想器件。它有噪声,也有非线性,也可能有杂散。所以,我们在测试过程中,需要排除仪器本身的影响。
而这些影响,主要就是从噪声、非线性、杂散这几方面去考虑。举几个栗子:
例1:比如说你的接收机,设计时增益比较小,30dB左右。然后你用频谱仪去测试你射频端的灵敏度,你可能会发现,灵敏度怎么比理论值差这么多呀?这个时候,你要关注什么呢?
你需要看一下,频谱仪的输入衰减器有没有打开。你会发现,如果你把衰减器设置为0dB,你的灵敏度好一些了。如果再把频谱仪的预放打开的话,灵敏度会更好一些。为啥呢?这是因为频谱仪本身也有噪声系数呀,衰减器值设置的越大,频谱仪的噪声系数也就越大呀。
例2:比如你测试邻信道选择性的时候,你又发现,测试值和理论值怎么不符呀?
这个时候,你就要考虑是不是信号源本身的相噪比较差呀,然后和本振相混,进入带内。或者,你运气更差一点,你那信号源竟然刚刚好在你偏移的频点有一杂散。虽然概率比较小,但也是有可能的。
例3:比如你测试你的发射机的时候,发现,天哪,怎么有这么多小杂散?关掉发射机的电,发现还是有这么多杂散。
后来发现,是频谱仪本身的bug,当它的RBW和VBW打到一定的值时,就满屏幕地出现等间隔的小杂散。虽然是某R某S家的频谱仪,可是还是避免不了出现了小杂散。
还有还有......
所以,测试时,出现和理论不符的测试结果时,先考虑是不是仪器的问题。毕竟,排除仪器问题,比排查设计问题,要简单很多了。
长按下图识别二维码关注加油射频工程师