1.5 一次技术的革命——从1G到2G
自从1979年日本运营商NTT推出第一个商用蜂窝网络,1G快速取代了移动无线电话系统(如MTS、IMTS等)成为被广泛使用的移动电话系统。
相比移动无线电话系统的“大区制”部署,蜂窝网络采用了发射功率更小、覆盖面积更小的“小区制”部署方式,如图1-18所示。正因为蜂窝通信是为“小区制”部署而生的,因此,“大区制”部署的一些问题也被蜂窝通信“完美”地解决。
图1-18 蜂窝网络和频率复用
首先,小发射功率更容易利用频谱复用技术来实现容量的大幅提升和干扰的降低,解决了移动无线电话系统的最大商用问题。如图1-18所示,假设频段F (等于F1+F2+F3)可容纳63个通信信道,若采用“大区制”部署,则整个椭圆形区域内共可容纳63人同时通话。若将F频段分成3个子频段(F1、F2和F3),每个子频段均支持21人通话。在同样的覆盖区域内使用“小区制”部署,将一个大区频率复用[也可称为空分复用(SDM)]分裂为9个小区,则容量提升9倍。因为采用了频率复用,相邻小区的频率被错开,避免了强烈小区间干扰的出现。
其次,由于蜂窝通信采用了更小的发射功率,覆盖范围较小,虽然带来了较大的覆盖成本,但也同时降低了手机的成本,以及对手机发射功率的要求,为手机小型化奠定了基础。此外,单基站更小的覆盖范围更有利于实现更精细的覆盖,避免大范围覆盖因为遮挡而出现覆盖盲区,从而为用户提供更好的服务。
正是蜂窝通信的这些优势,使得1G自出现后便迅速实现全面商用。但因为当时并未出现全球性的技术标准化组织,因此,各个国家和地区往往各自为阵,制定各自的技术标准。1G的商用情况如表1-1所示。
表1-1 1G的商用情况
续表
当然,无论这些技术标准的名字如何,但从核心技术和指标来看,都一脉相承。
1G属于模拟通信系统,即利用时间上连续变化的模拟信号进行信息传输的通信系统。也就是说,我们传输的信息(如声音、图像等)输入变换器(如送话器、光电管)后,变换器输出连续的模拟电信号,而这个电信号的频率或振幅随输入信息的变化而变化。到了接收端,由用户设备将模拟电信号还原成非电信号(声音、图像)送至用户。此外,1G采用的都是频分多址(FDMA),也就是系统将总带宽分隔成多个正交的信道,每个用户通话时独立占用一个信道,用不同的频率来区分和承载不同用户。
1G相对移动无线电话系统的另外一个特征是采用了蜂窝技术,较小的覆盖范围使基站和手机侧的发射功率更小。比如1G AMPS的基站发射功率为45W,手机发射功率为3W,它相比IMTS系统基站100W~250W和移动台25W的发射功率来说,大幅度降低。这使得1G终端相比0G终端可以做得更小,待机时间更长。1996年3月,摩托罗拉推出世界上第一款翻盖手机——StarTAC3000,如图1-19所示,它同时也是当时最轻、最小的手机,其整机重量仅为103g。
图1-19 世界上第一款翻盖手机——StarTAC3000
不得不说,1G为人们打开了一扇通往新时代的大门,让我们第一次实现了自由的通信,但这并不代表1G就是完美的。
首先,1G采用的是频分多址技术,为了实现多个用户间互不干扰的双工通信,每个用户都需要独立占用两个信道。以AMPS为例,每个用户需要占用两个总带宽为60kHz的频谱资源。其中416个信道在824MHz~849MHz的范围内,用于从移动站到基站的传输(上行信道);416个信道在869MHz~894MHz的范围内,用于从基站到移动站的传输(下行信道)。另外,为了实现频率复用避免干扰,每个基站只能使用这些信道的不同子集来提供服务。因此,1G提供的容量无法满足商用后期快速增长的用户需求。
其次,1G是模拟通信系统,模拟信号同原信号在波形上几乎“一模一样”,似乎应该达到很好的传输效果,然而事实恰恰相反,1G的语音通话效果并非想象中那么好,这是因为信号在传输过程中要经过许多处理,这难免要产生一些干扰。这些干扰很容易引起信号失真,也会带来一些噪声。失真和噪声会随着传送距离的增加而积累起来,严重影响通信质量。
最后,1G有安全性问题。1G基本上没有采用什么安全技术,用户信息以明文方式进行通信,这使在无线链路中窃听非常容易(虽然NMT在后续增加了模拟加扰技术,但其加密效果仍然不尽如人意)。移动用户的身份鉴别过程也非常简单,把移动终端的电子序列号(ESN)和由网络分配的移动识别号(MIN)一起用明文方式传输给网络,只要两者相符就可建立呼叫。因此,只要截取ESN和MIN就可以“克隆”移动电话。20世纪90年代,“克隆”技术为运营商带来了数百万美元的损失,一度成为1G“不可接受”的缺陷。
此外,1G时代并没有出现通信国际标准化组织,因此1G技术只有“国家标准”而没有“国际标准”,这使得国际漫游成为一个突出的问题,如NMT等虽然可实现少数国家间的漫游,但可支持范围极为有限。
虽然我们现在看1G无论是技术还是设计都显得落伍,但它的出现确实将人们带入了一个新的时代。1G从20世纪80年代被引入,直到21世纪初才逐渐退出人们的视野,为人们服务了几十年。
正是1G的诸多“不完美”引发了移动通信技术的再一次革命——第二代移动通信技术(2G)。
引发这一次革命的关键因素仍是容量。
1.5.1 从模拟通信到数字通信
模拟通信的技术特征使1G信号的传输必须在时域上保持连续性,因此必须使用频率来区分不同用户,沿用这个思路,增加系统容量就势必需要成比例地增加频谱资源。这条路已经走不通了,毕竟,频谱资源也不是“天上掉下的馅饼”。
那怎么办呢?答案是:数字化。
1.数字化的第1个挑战:如何将连续信号离散化
“将连续信号离散化”是指将一个时间和幅度都连续的模拟信号转化为离散时间信号,这样采样出来的离散值可以完全重建出原来的连续信号。
解决连续信号离散化问题的理论基础是“采样定理”,它搭建起从模拟信号到数字信号之间的桥梁。
提到“采样定理”,不得不提到瑞典裔美国物理学家哈里·奈奎斯特。1928年4月,奈奎斯特在发表的论文“Certain Topics in Telegraph Transmission Theory”(《电报传输理论的若干问题》)中提出了与采样定理相关的问题,他证明了“一个带宽为B的系统可以发送最多2B个独立的脉冲”。不过他没有直接处理连续信号采样及重建的问题。1933年苏联科学家弗拉基米尔·科捷尼科夫首次用公式严格地表述了这一定理。1948年信息论的创始人克劳德·艾尔伍德·香农对这一定理加以明确说明并正式作为定理引用。因此,“采样定律”被称为“奈奎斯特采样定理”或“香农采样定理”。其中,采样定理的时域表述如下。
“当时间信号函数f(t)的最高频率分量为fMax时,f(t)的值可由一系列采样间隔小于或等于1/(2fMax)的采样值来确定,即采样点的重复频率f≥2fMax。”
2.数字化的第2个挑战:如何将“离散时间信号”转化为“有限离散近似值”
奈奎斯特采样定理完成了从“连续时间信号”到“离散时间信号”的转化,但此时采样获得的离散时间信号的幅度取值仍然是连续的(无限多个可能值)。因此,接下来的一个问题是,如何将离散时间信号映射到一个较小的有限取值集合,也就是利用“舍入”操作和“截断”操作将“时间离散但幅度连续”的采样值转化为一个“时间离散且幅度也离散”的有限离散近似值。
量化信号最简单的方法是用最接近原始模拟信号振幅的有限离散值来表示,如图1- 20所示,黑色实线为原始模拟信号(连续时间信号),黑圆点为量化信号(离散时间信号),虚线是原始信号与重建信号之间的量化误差。
图1-20 量化和量化误差
量化精度是指可以将模拟信号分成多少个等级,量化精度越高,所采集到的信号与原始信号越近似。量化精度由量化级或量化位数来表示,量化位数指要区分所有量化级所需要的二进制数,量化级数M=2n,n为量化位数。不同的量化精度可获得最终量化不同的“分辨率”,如图1-21所示。
图1-21 4级(2位)和8级(3位)量化分辨率
3.数字化的第3个挑战:如何将量化获得的“有限离散近似值”转化为比特流
将“有限离散近似值”转化为比特流的过程就是编码,即将图像、音频等模拟信号采样、量化后的“有限离散近似值”转化为比特流。对于音频数据而言,常用的编码方式有PCM编码、WAV编码、MP3编码等。这里需要说明的是,在日常生活中,我们往往称PCM编码的音频是“无损格式”的。这里的“无损格式”并非技术意义上的绝对无损,因为从模拟信号到数字信号的采样和量化原理看,无论如何都无法做到真正意义上的无损。而所谓约定俗成的无损编码,是指PCM代表了数字音频中最佳的保真水准(CD、DVD采用的编码格式),并不意味着PCM就能够确保信号绝对保真。
图1-22给出了采样、量化、编码3个过程,这3个过程可以顺利地将一个模拟信号转化为数字信号,即比特流。
图1-22 采样、量化和编码过程
随着模拟信号成功地转化为数字信号,通信系统也会随之从模拟通信系统变为数字通信系统。因为在20世纪90年代,通信系统传输的大多数信号还是模拟信号,比如声音、图像,因此,如图1-23所示,我们首先需要将模拟信号通过模数转换器转化为数字信号,通过信道传输到接收端后,再将数字信号转化为模拟信号。看到这里,可能有心的读者就会产生疑问:为什么非要将模拟信号转化成数字信号进行传输呢?转来转去比较麻烦,而且模拟信号的采样、量化也会导致信息的丢失,是否得不偿失?这样做有什么好处?
图1-23 数字通信模型
1.5.2 GSM的横空出世
前面提到,1G商用后驱动技术发展最重要的推动力就是容量,那么将模拟信号数字化后对容量的提升又有什么帮助呢?
将模拟信号转变为数字信号后,时域连续的模拟信号变成了时域离散的比特流,这样就可以通过将一个信道(载频)时域划分成多个片段,每个片段发送不同用户的比特流来实现在时域上的用户复用,如图1-24所示,进而实现系统容量的大幅提升。这个在时域上实现多用户复用的技术就是时分多址(TDMA),它就是2G时代的核心技术之一。TDMA最终推动了2G中的全球移动通信系统(GSM)的出现。
图1-24 1G的FDMA和2G的TDMA
GSM是由欧洲电信标准组织(ETSI)制定的2G标准。
1983年欧洲邮政和电信会议(CEPT)成立了GSM委员会并开始制定基于数字蜂窝语音通信的欧洲标准。1987年,来自13个欧洲国家的代表在哥本哈根签署了一份谅解备忘录,用于在整个欧洲开发和部署通用蜂窝电话系统,并通过了欧盟规则,使GSM成为强制性标准。这个备忘录最终造就了全球第一个统一的、开放的、强制性的、基于标准的通信网络。1987年2月,第一个GSM规范由CEPT制定完成,该规范随后在1989年由CEPT交由ETSI继续维护。2000年,ETSI又将GSM的演进维护工作全权交给刚成立的标准化组织3GPP管理。
不得不说,GSM是一个伟大的技术产品。从1991年12月首次在芬兰部署到2011年,GSM标准已经占据80%的移动通信市场份额,在超过212个国家和地区为超过20亿人提供服务,这使GSM技术在众多2G标准中成为应用最广、使用人数最多的2G标准。
1.5.3 CDMA的由来
了解通信发展史的读者可能会问,2G中除了GSM外,还有码分多址(CDMA)技术,那CDMA技术又是如何发展而来的呢?
从无线电被应用到通信技术以来,人们对无线电的认识和利用都首先从频域开始。因而频谱资源也就顺理成章地成为一种重要的战略资源。在大多数国家,频谱资源由国家机构统一管理和分配,这就意味着频谱的使用并不能随心所欲。因此,移动通信技术从1G的FDMA向2G的TDMA发展。虽然TDMA技术的引入确实使网络容量相比FDMA有了大幅度的提升,但相比正迅速崛起的移动通信市场而言,TDMA带来的容量提升还远远不够。
在这种技术背景下,探索新的提升网络容量的方法变得迫在眉睫。CDMA的起源问题我们暂且不谈,而CDMA进入移动通信领域,在很大程度上归功于美国电气工程师、商人欧文·雅各布斯。
1985年7月,雅各布斯等其他6位联合创始人在美国圣地亚哥成立了一家科技公司,公司因“Quality Communications”(高质量通信)而命名为“高通”(Qualcomm)。雅各布斯凭借其早期参与的有关跳频和卫星保密通信的经验,开展蜂窝CDMA技术的研究和推动,并于1986年10月申请了第一个CDMA专利(US4901307A)。正是因为该专利,高通公司在CDMA领域的绝对垄断地位得以建立。当然,每一个新技术、新概念从出现到被接受都必须要经历一些“磨难”。蜂窝CDMA技术的出现,并未迅速获得其他通信业巨头的支持。1989年11月,高通公司在圣地亚哥进行了一次CDMA的测试演示,这次演示证明了CDMA技术相比模拟AMPS技术,系统容量提高了10倍(理论容量是AMPS的40倍)。最终,CDMA凭借其高系统容量和高质量的语音表现,在北美获得了这场CDMA与TDMA标准之争的最终胜利。1993年,美国无线电信和互联网协会(CTIA)决定用CDMA技术作为北美数字蜂窝标准(IS-95A标准,也被称为CdmaOne),CDMA技术正式成为2G家族中的一员。
1995年第一个商用的CDMA网络在中国香港地区建成,截至1997年,CDMA网络已经拥有了57%的美国市场,到2007年高通公司的CDMA技术(含后期演进)已应用于超过105个国家/地区,而高通公司也因此成为移动通信行业的“另一极”。
说了这么多,那CDMA到底为何物?它凭什么具有和TDMA分庭抗礼的能力?
CDMA技术是以扩频通信为基础发展而来的一种多址技术。扩频简单来说就是频谱扩展,它起源于第二次世界大战时期的美国军方。当时由于窄带通信的信号带宽只有几十千赫兹,因此干扰窄带通信只需要使用一个具有相同发射频率且功率足够大的发射机就可以实现。CDMA技术的思路就是通过特殊的码型处理,把信号能量扩展到一个很宽的频带上,使之湮灭在噪声中。而在接收端只能通过相同的码型才能恢复信号(整个过程就像加密、解密一样)。由于信号湮灭在噪声里,敌方很难侦测到,因此,这种技术早期在军事领域被广泛应用。
CDMA的基本原理简单说就是利用彼此间没有相关性的正交序列对多用户的有用信号进行“加密”。因为加密的序列相互正交,所以经过加密的多个用户的数据也相互正交(相互不影响)。在接收端,用户用自己的加密序列可以完全解密出自己的有用信号,而如果用其他加密序列进行解密,则会因为所有加密序列之间是正交的,接收信号最终为0。
首先,让我们来看看什么是正交。图1-25给出了两个相互正交的序列,分别是{1,1,-1,-1}、{1,-1,-1,1},正交有一个特征,就是序列相乘的结果加起来等于0,也就是(1×1)+1×(-1)+(-1)×(-1)+(-1×1)=1-1+1-1=0。
图1- 25 正交序列
接下来,我们再来看看“加密”这个过程。其实这里的“加密”就是用“加密序列”和有用信号进行按位的异或运算。而CDMA的“加密”过程,还顺带增加一个“扩频”的效果,即使用比有用信号频率高的“加密序列”进行加密实现扩频的效果,而这里的“加密序列”就是扩频码。
CDMA的数据加密和解密过程如图1-26所示。
图1-26 CDMA的数据加密和解密过程
首先,假设待传输给用户1的用户比特是一个低频信号{1,-1}。扩频码的速率是用户比特的8倍,因此将扩频8倍。对用户比特和扩频码进行异或(XOR)操作(异或操作规则是1 XOR 1=0;1 XOR 0=1;0 XOR 1=1;0 XOR 0=0,也就是“不同”为1,“同”为0),则获得扩频(加密)后的发射信号;假设信道为理想信道(误码率为0),则用户1接收到的信号等于发射信号;用户1使用网络分配的解扩频码(解密码)进行解扩频操作(这个解扩频码其实就是基站侧的扩频码),同样是异或操作。最终可以顺利还原出用户1的数据比特{1,0}。
有读者可能会问,无线电是广播式的,每个用户都能收到在一定范围内基站发射的信号,那么,发送给用户1的信息如果被其他用户收到后会被怎么处理呢,是否会产生干扰?
这里不得不提前面讲的扩频码之间的正交性。这就是我们接下来要探讨的过程——干扰消除。
如图1-27所示,基站侧将低频比特流{1,0}发送给用户1,使用分配给用户1的扩频码W1加密完成发送;此时用户2“不幸”接收到了该比特流,他尝试用基站分配给自己的解扩频码W2进行解扩频,当然,同样进行按位异或操作,将高频的数据恢复成低频数据。在低频信号的两个码元内进行积分,结果为0。这样的结果也就代表如果用户收到发给其他用户的数据,因为扩频码的正交性,干扰都可以被过滤。这种设计精妙而完美。
图1-27 CDMA的干扰消除过程
从技术角度看,由AMPS技术演进而来的数字AMPS(D-AMPS)、日本的小灵通(个人手持电话系统,PHS)、欧洲的CT2(由CT1发展而来)、日本的个人数字蜂窝(PDC)等技术标准都可以被称作2G,但真正得到广泛应用并获得成功的只有GSM和基于CDMA技术的CdmaOne(IS-95)。也正是CDMA的精妙设计和优异性能,使CdmaOne后来居上,与GSM“平分秋色”!
现在看来,无论是GSM还是CDMA,相比1G的AMPS、NMT都实现了性能的极大提升,那么,又是什么推动了技术的下一次演进呢?