微波EDA网,见证研发工程师的成长!
首页 > 通信和网络 > 通信网络业界新闻 > 为什么下一代网络基础设施需要智能芯片

为什么下一代网络基础设施需要智能芯片

时间:09-25 来源:3721RD 点击:

LSI公司高级副总裁兼网络解决方案事业部总经理吉姆·安德逊(Jim Anderson)在美国《网络世界》网站上撰文指出,考虑到数据通信流量的爆炸式增长,摩尔定律不足以跟上更快的网络速度需求的步伐。因此,需要更智能的芯片和软件方法。

加快移动和数据中心网络速度的最佳方法之一是把通用处理器与智能芯片加速器引擎结合在一起,大幅度优化字节优先次序的方式,优化网络性能和基于云的服务。

这个行业面临的基本挑战之一是数据流差距:网络和存储容量需求每年增长30%至50%与IT预算每年增长5%至7%之间的差距。基于云的服务应用的增长和数据存储的消费正在推动网络与云之间的数据通讯量成倍增长。由于数据流量的增长远远超过支持它的基础设施的建设的增长,网络经营者面临很大的压力以找到更智能的方法来改善性能。

云数据中心是采用现有的技术建立的,到目前为止通过蛮力成功地改善了性能。所谓蛮力就是增加服务器、交换机、处理器内核和内存等硬件。然而,这种方法成本高并且没有持续性,增加了硬件成本和占地面积以及冷却和电源需求,并且远远不能解决网络延迟的问题。

以智能芯片的方式增加智能可以优化处理在移动网络和数据中心网络上传送的数据包。特别是智能芯片能够让下一代网络理解数据的临界性,然后以优化的方式操作、按优先次序排列数据和路由数据,从而减少整个流量和加快传送重要的数字信息,如用于语音和视频的实时数据。

智能网络

日益采用多内核的通用处理器在网络基础设施中广泛应用。这些处理器驱动交换机和路由器、防火墙和负载均衡器、广域网加速器和VPN(虚拟专用网)网关。然而,这些系统都不够快,跟不上自己的数据流的速度。其基本原因是:通用处理器旨在专门用于以计算为中心的服务器级工作量,不是为处理在目前的和下一代基础设施中以网络为中心的工作量优化的。

然而,智能芯片能加快实时工作量的吞吐量,如高性能数据包处理,同时保证不断变化的通讯流量需求的不变的性能。

智能芯片一般配置通用处理器的多个内核并且配置用于通讯网络功能的多个加速引擎,如用于深度数据包检测的包分类功能、安全处理和流量管理等网络功能。一些加速引擎足够强大,可以完成从通用处理器卸载的专用数据包处理任务,使它能够完全在快速通道加速器中完成交换、路由和其它网络任务,极大地改善网络性能。卸载计算密集型工作量以加快为特定工作量优化的加速引擎。这种做法可以提供通用处理器的每瓦性能的巨大优势。

客户化的智能芯片可以是想要通过集成自己的优化建立独特的竞争优势的网络设备厂商很好的选择。例如,厂商专有的、差异化的智能资产可以集成到芯片中,提供领先于通用处理器的优势,包括用于优化的基带处理、深度数据包检测和流量管理。这种水平的集成需要网络设备和半导体厂商之间的密切协作。

未来的数据中心网络需要速度更快和更平坦,因此,比以前更智能。在虚拟化的大型数据中心中要克服的关键挑战之一是控制台的伸缩性。要实现云规模的数据中心,控制台需要按比例地增加或者缩小。采用传统的按比例增加的方法,要部署额外的或者更强大的计算引擎、加速引擎或者同时部署这两种设备帮助提高网络控制台的性能。

在新兴的按比例缩小的架构中,如软件定义的网络,控制台与数据平面是分开的,并且一般是在标准的服务器上运行。在按比例增加或者减少的架构中,把通用处理器与专用硬件加速引擎结合在一起的智能多核通讯处理器能够显著改善控制台性能。数据包处理和流量管理等某些功能通常可以卸载到配置线路卡的通用通讯处理器。

虽然发布这个控制和数据平面的效率仍然是一个公开的问题,但是,明显的事情是软件定义的网络需要智能芯片提供其承诺的伸缩性性能。

智能存储

存储方面的智能芯片还有助于消除数据流差距。存储I/O的瓶颈存在于传统硬盘盘片和执行器臂以及从硬盘介质传送数据的速度限制之中,正如证据显示的那样,内存(100纳秒)和一流硬盘(10毫秒)之间的I/O(输入/输出)延迟相差5个数量级。

另一个限制是传统的缓存系统能够支持的内存数量(按GB衡量)只是一个硬盘容量(按TB衡量)的很小一部分。这两个产品没有提供改善性能的空间,只是在缓存设备中增加了若干GB的DRAM内存或者更多的转速更快的硬盘。

另一方面,以NAND闪存方式提供的固态存储能够特别有效地消除这个瓶颈,在与硬盘容量相当的情况下提供类似于内存的高速I/O。在这方面,智能芯片提供高级的损耗调整(wear-leveling)、无用单元收集和独特的减少数据的技术以改善闪

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top