AFC如何调整频率
2、AFC怎么实现的调控,是通过控制PLL的VCO的控制电压吗?AFC是PLL的VCO的V吗?
3、手机怎么知道频率不准了,比如手机要发射一个中心频率为900M的信号,由于系统或外界因素影响,但实际发射的信号是900.1M的,那手机就不能与基站通信了,手机会自动调整频率。问题是手机又没有频率测试功能,他怎么知道频率不对了,是基站测试后告诉手机的吗?说你比应该发射的高了0.1M,然后手机根据校准时的相关信息,补偿DAC转换成AFC去控制VCO吗?如果是这样的话,那手机频率本身就不准了,它都不能正确解调BS的下行信号了,基站怎么告诉它?
33333333333333333
3、手机怎么知道频率不准了,比如手机要发射一个中心频率为900M的信号,由于系统或外界因素影响,但实际发射的信号是900.1M的,那手机就不能与基站通信了,手机会自动调整频率。问题是手机又没有频率测试功能,他怎么知道频率不对了,是基站测试后告诉手机的吗?说你比应该发射的高了0.1M,然后手机根据校准时的相关信息,补偿DAC转换成AFC去控制VCO吗?如果是这样的话,那手机频率本身就不准了,它都不能正确解调BS的下行信号了,基站怎么告诉它
-> 是基站告诉手机去调整频率的。
当手机受到外界干扰导致频率不准,除了能看到频率误差变大以外,同样也会引起接收质量的下降,这时手机自动切换到其他的备用信道上,这时会重新调整频率。如果当前只有一个信道,同时又由于外界干扰导致频率不准,那就只有一种可能了,掉话...
不过手机对频率都会有一个tracking的机制,只要频率不是一个非常大的突变,一般都可以把频率拉回来的。
在测频率误差的时候,可以看到频率误差一会在正的一会在负的,这就是手机在实时的调整频率,使手机的频率误差始终在零附近。如果你突然用手去按住晶体,让晶体输出频率产生一个跳变,那基本上就会出现掉话的现象了。
嗯,看了下有关TC的结构图,是调整的26M的,在crystal与PLL间有个调整电路,Vafc就是调 整那儿的。IQ都是基带信号了,26M及通过PLL输出的本振都是高频信号,检测IQ信号应该不能知道频差吧。
从结构框图上来看,VAFC调整的是晶振的输出频率,我们用的压控型的晶体,调整的就是这个电压,是PLL之前的部分。至于手机与基站通讯怎么调整频率,那么我想的是基站会通过一些控制信道控制手机的通讯信道, 那么手机通过检测IQ信号,就很容易知道自己的频率跟这个信道的频率差多少了。
这个去看看基本的原理就知道了!
你说的这个基本不可能,gsm一个信道才200khz,1mhz的偏差手机早就掉线了。
但是在几百hz还是有可能,我们hw的指标是0.1ppm,900mhz才90hz频差允许,如果超过1khz我觉得就直接掉线,根本不可能调频到制定频率。
这个这个……
比如RX crrrier 比RX LO高了100K,那基站怎么识别出多的这个100K是100K,也就是说它要有频率识别功能才能知道这个是100K呀。
看不出这个差值与FCB有什么直接联系?存在线性关系吗?
这个我知道,比如基站要求你发射900M的,但是由于手机存在误差,他实际发射的是901M的,但是手机还是把它当然了900M,那肯定会通过频率调整来调到900M。我想问的是谁测试到的你实际发射的频率是901M,比要求发射的频率多了1M,你要调整减少1M到要求的900M。就是说谁有频率测试功能,测试到了实际发射的频率是901M,比需要发射的频率多了1M ?是基站吗 ?
我的了解:FCB由全0序列(signle tone at 66.7K offset from carrier )和训练序列组成.
Rx 频率误差,实际上是Rx LO与Rx carrier之间的差别,解调FCB以后DSP可以算出来的。至于为什么可以算,你自己想一下。
gsm是品分和时分复用,这个接入频率是有基站告诉手机它允许你占用这个频率才可以的,基站可是服务器啊。
你手机调整afc只不过是调整自己的收发频率到基站的同步ch上。
FCB的内容是什么?手机都不知道现在实际发射的频率是多少,那它调整有什么意义吗?就是怎么知道手机现在实际发射的频率是多少?是谁测到的,手机还是基站?不知道实际发射的多少,那怎么计算相对于基站发射的频率误差呢?
基站只是会发FCB,FCB的内容是固定的,手机接收FCB可以计算使用当前AFC时Rx本振相对于基站发射的频率误差,根据该频率误差调整AFC,使LO与基站的频率误差相等。
至于为什么发射的频率误差为什么不是0,我想可能有两个因素:
1.可能Rx 虽然有AFC机制,但是由于一些不理想的因素,不能将Rx频率误差完全消除。这只是个人想法,实际没有办法看到Rx的频率误差,了解到不了那个深度。
2.Tx与Rx可能会有一定的差异,所以即使Rx频率误差为0,Tx却不一定为0。比较典型的就是MT6139/MT6140需要校准TRx AFC offset.
thanks,那还相当于是基站测到的频差,然后告诉的手机?
还有一个,既然调整了频差,那为什么还一直存在有频差?(与综测仪连接后可以看到一直存在频差)
基站会通过FCCH发FCB(frequency correction burst),手机会接收并计算出Rx的频率误差,然后再通过AFC校准结果(截点/斜率描述的那根直线)计算应该调整的AFC电压大小。AFC tracking启动的条件好像是手机Rx SNR和Rx power等参数差到一定程度(具体机制不清楚),并不是一致tracking。Tx应该是用的与Rx一样的AFC(MTK之前transceiver需要校准Tx AFC offset,则需要在Rx AFC DAC基础上加上Tx AFC offset在给Tx 用)。
AFC电压是通过控制晶振电路里变容二极管电容从而改变晶振谐振频率,进而改变本振参考频率,即改变了Rx的频率
我们测试tch时还不是有频差,那这个频差手机会用afc去调整,问题是手机没有测试频率的功能,怎么知道有了误差有多大的误差?
一般都会地直存在频差,那afc是一直在调整吗?
基站的校正都是对于BCCH广播信道,而我们测试的是TCH是语音信道。
发射的频率误差是指我们pa工作后,调制到相应信道所产生的差异,这个基准就是bcch的判断首先准确。所以出现频差的原因是由于我们的芯片调制过程,并非bcch对准基站就ok了。
同求同求
基站会对手机发射频率校正吗?
如果校正的话,那为什么还会存在频差呢,,,比如经常令人头疼的频差超标问题。
嗯,这个是。不过AFC调整是一直在调吗,比如现在在频差一直存在但很小,那AFC还会去调整吗?如果一直调的话,不是很浪费系统资源?
是基站有相关的设定吗?比如基站检测到你的频差超过了某个值,比如50HZ,基站告诉你超了50HZ,然后手机就去根据自己的相关设定调整吗?而小于50HZ的频差基站不去理会?
这个是这样,不过那个我只是举个例子
想了一下,没想出来,求答案
小编所说的那种情况是不存在的,即便真发生,那么结果就是一个,手机掉线。我们做手机时候都会做一件事就是手机校准,AFC校准的目的就是要是频率误差控制在0.01PPM之内。用一个校准好的手机来解释下小编提的问题。以发射为例,当手机需要在TX信道上发射900M的载波时候,手机发射机会在混频器内通过LO和发射中频信号通过上变频来合成900M。假定发射中频信号是某一个值A,那么发射LO就是900减去这个A值,得到B值,接下来手机就要控制频率合成器的程控分频器N合成这个频率B,直到合成的B值在混频器内产生的发射频率在0.01PPM时才会发射。在频率合成器内是有PLL的,其作用就是锁死频率,是其非常精准。而AFC是控制晶振内部变容二极管的的容值,动态微调26M,其作用就是使26M的振荡达到最优。
学习了啊
同十二楼有感
这个讨论过很多.看看我写的
AFC自动频率控制, 现在用的VC-TCXO 13/26M, 通信过程中目的是实时调整VC-TCXO 频率,使手机和基站频率保持一致,比如<0.1PPM.手机收发的频率基准都是VC-TCXO,所以目的也是VC-TCXO频偏<0.1PPM. VC-TCXO通过电压控制,一般是一个DAC数模输出控制VC-TCXO的调整电压,比如DAC12 BIT. 那输出范围是0-(2^12-1).
AFC校准的目的 一是给一个初始的DAC值,另外是算出斜率也就是多少DAC 频率变化1HZ. HZ/DAC .初始的DAC值是开机后 AFC如果偏的太大就无法调整过来了. 斜率的目的是基带算出此时频偏多少,然后根据频偏调整DAC./
22222222222222222, 22222222222222222
基本3楼的说对了,AFC校准,可以从两个方面来定义。
一个就是晶体导致的频率误差。这个可以由工厂校准AFC来完成。有的人认为这个是AFC,其实校的是晶振。
另外一种就是和网络同步的AFC。基本就是由于网络环境,频偏会受影响,会不停让手机去调整它的频率。这个在FCB和TCH上都要做的,包括邻信道BCCH。这个由rx的数据,rms ,quality 来决定,有一定的算法,这个由设计算法的人决定。频率更新的制度也是设计算法的人来决定。多少桢更新一次,在什么情况作怎样的更新。有时候通信协议工程师会来设计这部分算法。
高通平台从来没遇到过频率校准有问题的时候