一个天线问题探讨
假设有一发射天线和一接收天线相同,增益为4dBi,将两天线最大增益方向校正后相互对准并置于天线远场区边缘。用信号源给发射天线馈一20dBm信号,接收天线接一频谱仪,按照理论(不要考虑空间损耗)计算频谱仪应接收到28dBm信号。问题来了,天线实际为无源器件不可能放大信号,但是信号确实放大了,能量难道不守恒了?
DBI是个比值相对于理想的全方向性天线
天线怎么可能效率会有百分之百呢 都是有能量丢失的。
不能简单的+4dB这样算.
很想知道楼上姑娘是哪里人
你把dBi 和dB搞混了啦;而且增益是一个函数,在一个球面上这个点是4dBi,另一个点就未必是4dBi了呀,还要考虑在有效面积上的增益的积分[/COLOR],不能简单叠加的哇
小编一定没有参与过任何天线的测试或实验。你出的这个问题在不加任何有源模块时是永远不可能出现的。
你所说的网络覆盖或者射频链路预算的计算方式是在做上下行链路平衡的时候才可以。为什么?因为在此时上下行链路损耗可以考虑成一个固定值,同时从平衡式中去除的。
问题是实际上做网络覆盖或者射频链路预算的时候就是这样算得,不然天线增益岂不是没有意义了?
说不定是你的仰慕者
要跨省追逃吗?我跑得可快了~
DBI是相对一个标准的全向天线来定义的,4DBI只是说能量压缩到天线的某个方向上了,也就是说其实不是能量不守恒,只是把能量压缩或者集中到了某个方向了,类似凸透镜一样的
仰慕仰慕的
LZ明显不了解DBI是啥子意思
我的天哪!这是什么探讨?
无线电波发射能像激光那样,不考虑空间损耗,发多少就能收多少。
无线电波发射为球面发射,0dBi增益天线发射在10米外0dBi增益天线收,收到的信号减少了50db。
网络覆盖或者射频链路预算时要减去空间损耗。理想状态下,能量以球面扩散,算出目标距离对应的球面面积,算出接收天线的端口面积,就可以求得理想状态下的空间损耗。实际基站网络覆盖似乎更复杂一点,因为靠近地表面的电磁波损耗与半径的三次方成正比。具体不知道了。
增益在此时就体现出其价值了,增益为10dBi,那就表示在同样距离下,比理想点源辐射的效果要好10dB。
小编的问题藐视很简单,实际还是挺有深度的,不去看书是很难分析出漏洞的。
这其实是雷达方程(链路计算)骗了我们,Po=Pi(λ/4πR)的平方*Gf*Gr
Pi为发射天线的输入功率,Gf为发射天线增益,Gr为接收天线增益,R为两个天线之间的距离,λ为发射信号波长。
按照这个公式,如果Gf和Gr增益足够大。那么就有可能出现Po>Pi的现象。这显然违背能量守恒。问题出在哪里呢?
其实这个公式是有附加条件的,那就是两个天线必须达到各自的远场区。那么此时的λ/4πR肯定较小,且Gf和Gr也要求是远场,此时才具有实际意义。
总的来说,这个公式要求两天线距离较远方可。