GSM标准中误码率为什么是RBER
这主要是关系到如何评判的问题.
可能RBER更接近用户的感受吧.
这块比较感觉也定义的比较混乱
W-CDMA和TD-SCDMA使用的就是BER
而CDMA2000用的是FER
反映接收性能,应该是不包括其它处理后的吧,也就是原始未经处理的信号去评估才能体现出接收性能吧。正如我们测试的是二类比特的误码率,而不是已经处理后的一类的误码率。
我的理解是:
如果仅仅是想确认RF的接收性能,BER更能反映
但是如果从整个接收系统出发看,RBER更能体现接收系统的性能(它不仅包括了RF的接收性能,在此基础上还体现了解码器对错帧的处理)
不好意思,这个理解错误,可能RBER更能反映接收机性能吧,它反映的是手机实际解调最小信号的能力,而BER计算也包含删除的帧在内,手机解调信号跟这些删除的帧无关吧,个人猜想,还请扶正
RBER,残余误比特率,定义为在那些没有被声明为被删除帧中的误比特率。即在那些检测为“好”的帧中错误比特的数目与“好”帧中传输的总比特数之比。
我觉得:RBER与BER测试时都会是环回吧,发射和接收及损耗都是一样的吧。只是RBER是在好帧中定义来计算的,BER是在总的接收比特中算的。只是弄不明白为什么在好帧中计算出的误码率也就是RBER更能反映接收机的性能 ?
对不起大家,我的理解能力有点差.
小编可以将BFI/FER/RBER联系起来看。
我的观点:
BFI是测试手机是否可以正确判别bad frame,这个跟硬件基本没有关系。
FER/RBER是测试接收机性能的两个指标,两个加起来也可以反映接收机性能。而且符合GSM系统的处理流程,BFI被标为1的坏帧是直接删除的。
RBER是接收到的错误的比特/接收的总比特,BER是接收到的错误比特/发射的总比特,如果用BER的话,仪器发送一定比特,但是到手机的话会先从仪器传输出去,再经过同轴线,这会有损耗,实际到手机的信号并没有仪器实际发射的多,测试不准确,灵敏度定义的是以手机实际接收到的最小信号满足一定的误码率为准;
所以如果仪器发射100dbm,线损为1dbm,那这个线损你补多少都无意义,因为你的误码率是一定的,线损是一定的,发射的也是一定的,这样测试肯定不准了,随着实际的线损而变化的,用RBER可以用补偿线损而取消线损的影响
我可能没有表达清楚我的问题。我们测试灵敏度时会将菜单打到比特率测试项,然后逐渐减小下行电平,误比特率会逐渐增大,当增大到一定时,我们会把此时的下行电平称为灵敏度,比如GSM测试时我们的标准是RBER小于2.0%时的的接收电平。我想问的是为什么用的是RBER ,而不是用BER,BER是总的应该更能反应接收机的性能呀 ?
感觉楼上没有回答小编的问题。
小编想法很奇怪。
一般比较感兴趣的是cell power小到什么程度,还能正常解调。
如果固定cell power测试BER,灵敏度-105dBm和-110dBm的手机,cell power=-102dbm是RBER都是0,就没有区别了。
RBER使用擦除,所以RBER体现的是整个系统的性能,而BER体现的前端的性能,最终测试是看整个系统的性能,所以看RBER,不知道这样解释是不是清楚些
楼上的知道给解释下吧。
大家还得多看看GSM协议啊,呵呵
坏帧如果直接删除,肯定会丢失信息,但是系统会冲传的。不过语音通信中就会出现断续了。
坏帧不去做纠错处理吗?那直接删除里面的信息怎么办 ?不丢失信息吗 ?
RBER是好帧中的误码比好帧中的码数,系统咋检测到坏帧会删除,所以整个系统的误码率测试就用了RBER。
实时的通信应该不支持重传吧,我是说数据业务支持,比如GPRS和EDGE,语音通信坏帧多通话质量就下降嘛,比如断续啊,噪声啊。
gsm也有重新传的机制,那个test mode a其实就是模拟的重传机制,b是不重传的。
GSM语音记着好像没重传机制吧。
那灵敏度为什么用RBER而不用BER呢
相关文章:
- 手机比特误码率(BER)测试原理(05-08)
- 请问GSM天线误码率标准2.44%是怎么来的?(05-08)
- GSM 谐波滤波器(05-08)
- GSM,DCS PVT图fail的问题(05-08)
- help:GSM带外杂散820M雨量不足。(05-08)
- 咨询一下gsm手机大家看到的器件布局情况?(05-08)