什么是QPI总线
利用双向串联点对点传输,它可提供与FSB相近的Latency,可让软件及操作系统管理,并且针对部份Streams(Threading、ISOC、LT/VT)及out of order requests作出了优化,单向最高速度暂定为6.4GT/s,双向最高速合共10.8GT/s,相比AMD采用的Hyper-Transport 3.0的速度更高。
QPI最大的改进是采用单条点对点模式下,QPI的输出传输能力非常惊人,在4.8至6.4GT/s之间。一个连接的每个方向的位宽可以是5、10、20bit。因此每一个方向的QPI全宽度链接可以提供12至16BG/s的带宽,那么每一个QPI链接的带宽为24至32GB/s。(不过,这仍是逊色于AMD的Hypertransport3---单条连接最大传输带宽可以达到45GB/s,但我们相信未来英特尔仍会对QPI进行进一步提速改进。)在早期的Nehalem处理器中,Intel预计使用20bit的链接位宽,大约能提供25.6GB/s的数据传输能力。这个数字是Intel在上一季IDF中公布的。举例来说,在X48芯片组中,FSB的速度为1600MHz,这是目前为止规格最高的FSB总线了。不过最初的QPI总线具备25.6GB/s的吞吐量,这个值相当于1600MHz FSB带宽的2倍。
此外,QPI另一个亮点就是支持多条系统总线连接,Intel称之为multi-FSB。系统总线将会被分成多条连接,并且频率不再是单一固定的,也无须如以前那样还要再经过FSB进行连接。根据系统各个子系统对数据吞吐量的需求,每条系统总线连接的速度也可不同,这种特性无疑要比AMD目前的Hypertransport总线更具弹性。
例如,针对服务器的Nehalem处理器将拥有至少4组QPI传输,可至少组成包括4枚处理器的4路高端服务器系统(也就是16枚运算内核至少32线程并行运作)。而且在多处理器作业下,每颗处理器可以互相传送资料,并不需经过芯片组,从而大幅提升整体系统性能。随着未来Nehalem架构的处理器集成内存控制器、PCI-E 2.0图形接口乃至图形核心,QPI架构的优势将进一步发挥出来。
为了降低QPI总线的延迟,Intel打算在4路处理器以上的系统中使用一种叫做粘贴缓存的技术。它主要是倚靠更大容量的二级高速缓存来存储南桥和北桥的数据,使处理器不必反复通过QPI总线来读取南北桥信息。同时,为了更高提升数据处理效率,英特尔还将在处理器内部集成内存控制器(IMC)。QPI和IMC结合,可以让Intel更轻松地扩展多路系统和高性能计算(HPC)应用,而Intel现有的处理器架构更关注于指令执行引擎和缓存架构,以便在单线程应用中提高性能,导致双路服务器平台性能受限,也无法在对内存带宽需求甚高的HPC中发挥作用。对于第一代采用QPI总线的Nehalem Xeon来说,集成了3通道的DDR3内存控制器,这样在搭配DDR3 1066的情况下,每个处理器自己就能得到25.6GB/s的内存带宽,大概是现在Tigerton系统的5倍,并且这个带宽数量随着处理器插座的增长而增长,对于四插座系统,总的带宽将增长到恐怖的102.4GB/s。强大的内存性能将保证即使每个插座上边采用8核心的处理器,内存带宽也不会成为性能发挥的瓶颈。需要说明的是在QPI中,对于四路系统来说,任何两个处理器之间都可以直接通信,这样,一个处理器可以很方便的访问到其他处理器控制的内存,这可以大大提升效率。另外,由于在QPI系统下不同处理器可以直接通信,同步缓存称为很方便的事情,再也不用通过北桥的内存读写来进行了。
结语:
随着QPI的正式推出,英特尔主导的QPI及AMD的HT 两大未来总线系统将会正面冲突。为了让多核心的系统更高效的工作,我们相信今后的芯片组会更加复杂,多条系统总线连接才是今后系统总线发展的王道。需要说明的是,英特尔在季秋IDF是已经在展示了可以工作的、首个采用QPI互联架构的Nehalem平台。我们有理由相信,QPI将冲破内存性能带来的樊篱,实现性能的新飞跃。
QPI总线inte 相关文章:
- Windows CE 进程、线程和内存管理(11-09)
- RedHatLinux新手入门教程(5)(11-12)
- uClinux介绍(11-09)
- openwebmailV1.60安装教学(11-12)
- Linux嵌入式系统开发平台选型探讨(11-09)
- Windows CE 进程、线程和内存管理(二)(11-09)