官方淘宝店 易迪拓培训 旧站入口
首页 > 无线通信 > 通信技术学习讨论 > 问一下RLS算法的smoothing问题。

问一下RLS算法的smoothing问题。

12-29
比如在OFDM系统中,接受信号和发送信号的关系是
y(m)=C(m)X(m)+w(m)
这里,m是time index,C(m)是要估计的channel impulse response vector
w(m)是高斯白噪声。系统的多普勒频移是fd,可以很高。
通常在time domain中用RLS算法估计第n时刻的C(n)是
min sigma [y(m)-C(m)X(m)]^2 lambda^{n-m}
sigma中的m从0到n。lambda是forgetting factor,小于1.
如果引入smoothing算法的话,估计n时刻的C(n)是
min sigma [y(m)-C(m)X(m)]^2 lambda^{abs(n-m)}
m从0到整个Packet的结尾。
现在的simulation 结果是用了smoothing反而效果变差了。
确实比较想不通。那位能解释一下?
再说一下packet的结果。有4个pilot symbol,加上10个data symbol。
后面的data symbol的估计值是通过decision directed方式得到的。

想知道一下哪些参数会影响smoothing的结果
比如fd,还有就是后面的data symbol的估计准确性等等。

首先说说为什么要用所谓的smoothing
用了一定会效果好?

用更多的样本可以让估计更准确

对于时变系统而言,如果两点间的间隔过长,其相关性也会变得很小。这样的点加进来只会对tracking造成干扰——所以更多的样本未必保证更准确的估计。对于快变系统而言,memory的长度太大会造成tracking性能的降低。
这种情况下,你可以试试缩小遗忘因子(等效于缩短memory的长度)。如果不是很在乎复杂度的话,可以试试Kalman filtering或者sliding-window RLS,都可能比exponentially weighted RLS的效果要好。

学习ing....

Top