官方淘宝店 易迪拓培训 旧站入口
首页 > 无线通信 > 通信技术学习讨论 > 请教一个关A/D转换位数对系统性能影响的问题

请教一个关A/D转换位数对系统性能影响的问题

12-12
在一个通信系统中,如果采用了中频数字化技术,在发端和收端分别采用D/A和A/D对中频信号进行数模和模数变换,但是数字化的比特位数的选择对系统性能是有影响的。
主要是有量化噪声的影响。
不知道大家研究过比特位数对整个通信系统信噪比,误码率的影响么?

比特位数对通信系统性能的影响主要体现在量化误差,对于OFDM这样的系统——时域信号动态范围很大,还体现在削波导致的谐波影响。一般来讲,过采样率越大,每个采样点要求的比特数就越小。 为了计算比特数对性能的影响,首先要计算量化误差的功率谱,而不是总的误差,因为如果是过采样的话,在过采样之后还有滤波,滤波会滤除一部分信号带外的量化误差。 一般说来,只要量化误差的功率比系统噪声的功率小3dB以上,几乎对系统性能不造成影响。也就是说,如果接收信号的信噪比本来就很小,就没有必要采用太高精度的ADC。

还得考虑信号的动态范围。动态范围大就得精度高一点。

能不能具体谈一下在建模仿真时如何对量化误差进行建模?
希望能够有一个直观的误码率性能---量化bit 位数的关系图

最好是根据实际的物理过程搭建一个仿真系统来研究量化误差对系统性能的影响,这样可以理解得更深刻一些。如果首先就进行数学建模来仿真,建模的错误可能会误导你。根据实际的物理过程来仿真并不难。首先,产生一定带宽的信号,例如OFDM时域信号,然后,对时域信号进行过采样和量化,再进行滤波和下采样,然后解调OFDM信号,恢复被调制的信号,比较BER。 就可以画出在不同过采样率条件下,不同的量化比特对应的BER。做完上述事情,有了感性认识之后,分析BER图,找出规律,得出结论。之后,再从数学上分析一下,根据仿真规律建立适合的数学模型。最后,比较你的数学模型跟仿真结果是否一致。如果一致的话,说明你的模型很可能是正确的。

Top