待解决问题
请教一个信号衰减的问题
离问题结束还有0天0小时 |
提问者:killzone
|
提问时间:2013-12-28 14:05
最近查阅了一些资料,上面说基站的发射功率 有5w~40w
数据来源:Total BS TX power (Ptotal) 43dBm – 1.25, 5MHz carrier, 46dBm - 10MHz carrier (3rd Generation Partnership Project (3GPP), “3GPP TR 25.814 3GPP TSG RAN Physical Layer Aspects For Evolved UTRA, v7.1.0,” 2006.)
但我仿真时发现,在大尺度衰落下,
Pr dBm=Pt dBm + K dB − 10γ*log10(d/d0)
Pr是接受信号功率, Pt是发送信号功率。
K是跟天线和信道有关的常数,这里取-31.54db。γ是常数,取3.71。
d0是参考距离,这里取1.
d是发送到接受的距离。
比如,如果d = 100 或者 d = 200米的时候,接受到的功率分别衰减了-105db和-116db..
如果发送功率是10w,这时候接收到的功率就只有 3.1623e-11w了。 我仿真里面设定的热噪声为1mw。。。SNR小到用不了。。
请问下各位前辈,我这里面哪里理解错了吗?是发射功率不会这么小?还是我噪声设大了?
谢谢各位了
谢谢您的帮助。
我去标准里(LTE: 3GPP TR 36.931 version 9.0.0 Release 9)找到了类似的描述:
White noise power density -174 dBm/Hz
然后每一个RB有150Khz.
所以我算了下,换算过来,噪声功率约是-121dbm.
确实跟原来参考论文里假设的1mw热噪声不是一个量级的
不过很奇怪,这是IEEE的论文啊,不应该犯这种错啊...
再次谢谢您的帮助。
另外,祝您新年愉快~
回答时间:2013-12-29 17:22