处理器速度如何提升推动40GbE向前发展?
现在行业正处于40 GbE网络升级过程中。到目前为止,早期应用主要集中在云计算和大型服务提供商、企业、教育和政府数据中心,但是将来肯定会有广泛的应用。正如以前一样,每一个以太网标准都是由于IT技术发展的需求推动的,在一些小型数据中心和网络主干网中,持续的改进一定需要40 GbE的支持。
服务器CPU处理速度的提升,加上支持多处理器核心的芯片出现,都会不断地提升服务器的计算能力。此外,虚拟化加大了服务器实际可用功能的碎片化。这些因素可以提升各个服务器的网络流量传输。结果,最新安装的服务器已经配置了10 GbE接口,而不是现在服务器常见的1 GbE接口。
现在已经有40 GbE服务器和工作站接口,但是它们还没有广泛应用。目前的应用仅限于研究机构或其他一些处理超大数据集的机构。
网络流量和应用架构产生的附带效应
不断膨胀的服务器流量会给整个网络产生附带效应。安装带有10 GbE接口的服务器意味着接入层交换机的接口也必须升级到10 GbE.然后,连接核心网络及其它聚合设备的上行链路还必须升级到40 GbE,有一些甚至会升级到100 GbE网络。
此外,应用结构变化和虚拟化也要求增加数据中心内各个机架之间的网络容量。过去,一个服务器通常只能处理一个应用程序的执行。在这种情况下,最终用户和应用数据流之间的流量将通过网络主干网,进入数据中心核心网络,然后再到达应用程序所在的服务器。机架之间的流量需求并不大。
现在,应用程序通常包含多个组件。每一个组件可以运行在数据中心的任意一台服务器上,所以组件之间的流量通常会机架之间传输,从而需要提高数据中心内部的带宽。当网络升级到支持这种流量之后,就需要使用40 GbE链路支持当前和未来的需求。
虚拟化和大数据增加了网络流量流的压力
同时,虚拟化也会产生额外的负载。虚拟机(VM)可以从一台过载服务器快速切换到另一台负载较小的服务器。目标服务器可能位于不同的机架上,所以移动虚拟机需要将整个镜像传输通过聚合层,甚至有可能通过核心网络。假设在开始移动之前,虚拟机中运行的应用组件位于同一个机架,在开始传输之后,它们可能会转移到不同的机架上。
大数据也会增加压力。例如,Hadoop等技术会将处理负载分割到多个虚拟机上,其中每一个虚拟机都有一部分数据。在每一个周期完成之后,产生的数据会通过网络传输到其他位置进行处理和优化。数据总量、数据对于网络的负载及通过网络重复移动虚拟机,都需要给网络增加更高容量的链路,这个过程就需要将网络升级到40 GbE.
如果想要更多证据,那么可以考虑一下通过802.11n、802.11ac或4G网络连接的无数智能手机和平板电脑。这些设备可能产生超高的数据容量。所有数据都必须通过主干网而进入数据中心。因此,大型园区、企业和政府网络都开始升级到40 GbE,甚至100 GbE网络。
聚合网络也会增加负载
过去,网络与存储数据是通过独立的网络传输。光纤通道以太网(FCoE)的发展减少了维护两个网络的成本——以及两个网络的独立布线和交换机。FCoE使存储数据可以与以太网共享网络流量。直接将以前通过独立网络传输的流量组合在一起,一定需要更高容量的网络,但是存储流量有更高的要求。
存储数据要求使用无损耗网络,但是以太网却采用尽力而为的数据包传输方式。最新开发的拥塞控制、带宽管理和流量优化级划分的IEEE标准将会给存储数据分配专用的网络容量,保证没有任何数据丢失。给存储提供专用带宽,会减少网络数据的可用数量,这会进一步增加整体容量的需求。
升级过程仍处于早期
尽管带宽需求增长了,但是40 GbE的升级进度也受制于一个现实问题:必须更换现有布线才能支持更高的速度。组织不应该直接更换布线,而应该小心谨慎,增加更多的连接去支持流量增长需求,即使他们已经开始做一些部署100 GbE网络的基础工作。
同时,40 GbE部署将继续。正如以前10 MbE网络已经满足要求,后来机架服务器之间的1 GbE连接又更换为10 GbE,接下来肯定就是40 GbE升级。
- 基于B/S模式的远程医疗实时会诊方案(03-09)
- 云时代下如何应对虚拟化带来的“尴尬”(02-04)
- 阿里巴巴将大量采用ARM处理器 Intel怎么办?(11-14)
- 基于精简TCP/IP协议栈的信息家电网络服务器(02-11)
- CAN协议的错帧漏检率推导及改进过程简介(02-22)
- DCS系统中动态数据服务器如何设置?(02-20)