问一下基站和用户SINR要求区别有多大?
.77
从LTE的灵敏度指标看:
在协议里,先说终端(36-101),为了保证统一性,都以20MHz带宽为参考,在不同的频带内大致有三个:-91dBm、-92dBm和-94dBm;
对于基站(36-104),对于不同的资源分配,分别为:-106.8dBm(6RB)、-103.0dBm(15RB)和-101.5dBm(25RB)。
对于终端而言,参考灵敏度主要看带内基底噪声,因此对于相同的带宽灵敏度基本一致,略微的差别原因是个别频带内干扰比较多等原因,以20MHz为例,目前基本上以-94dBm为基准;
对于基站而言,由于带宽都是20MHz,因此参考灵敏度主要看资源分配,以-101.5dBm为基准。
因此差别大概为:-94dBm-(-101.5dBm)=7.5dB。
个人观点,仅供参考。
谢谢,能通过数字量化的考虑这些问题比空对空的想要好多了。
那是不是可以大概地认为,如果终端接收到的信号比基站收到的信号强7.5dB,就可以达到同样的接收效果,比如说解码后的误码率等。
.77
.77
其实3GPP协议的提出,就是根据各个厂商实际性能,互相博弈而定义的
每家厂商用的算法不同,硬件等各方面也不同,所以会导致一些差异,比如在TD-SCDMA,协议上定义的是-108dBm,中国移动曾经要求-109dBm,而诺基亚就要求参考方案能达到-110dBm。
而从-108dBm的算法公式推导的过程也能看出,都是基于理论极限然后在好几个节点给了裕量的:
the reference sensitivity level (RSL)is
PNoise + Noise Figure (NF) + Îor/Ioc Limit - Own_Code_Power + Implementaion_Margin
= -113dBm + 9dB +1.2dB - 7dB + 2dB
= -107.7dBm.
个人感觉这7.5dB应该是个中间值吧,为了兼顾大部分厂商,而且是针对LTE的
而对于不同的标准应该也不同
仅供参考,呵呵
相关文章:
- 请问有关多用户检测的仿真用matlab行不?(05-08)
- 多用户检测中怎样处理多径问题?(05-08)
- <<NS用户手册>>中文版(05-08)
- 多用户仿真Eb/N0的问题(05-08)
- 请问wcdma系统下行大约可同时支持几个用户?(05-08)
- 慢衰落和多用户分集?(05-08)