微波EDA网,见证研发工程师的成长!
首页 > 测试测量 > 测试测量技术文库 > 论大型计算机平台虚拟化的局限性

论大型计算机平台虚拟化的局限性

时间:01-23 来源:互联网 点击:

的工作量的正常化并不能提供这个正确的答案。

这个问题并不仅仅是大型计算机遇到的问题。许多虚拟化技术都受到这样的问题的影晌,有的是由于没有适当的基淮,有的是这种标准刚刚出现。在许多情况下,需要一种灵活的基准单独地根据工作量的具体个性和与其相适应的目标平台的性能实现工作量的正常化。

  1、处理器正常化和基准

虽然构成工作量在大型计算机上运行的理论是复杂的,获得这个答案的实际方法是很简单的。通过使用代表指定工作量个性的源系统和目标系统相对性能的多个基准,有可能进行一次单项的分析,用一个步骤优化使用多个源/目标组合。然后,每一个源工作量能够根据独特的个性单独实现正常化,目标端点(大型计算机分区)根据合理地淮确预测的利用率填补这个工作容量。虽然这种方法的好处是巨大的,但是,这个挑战变成了确定每一个源工作量的确切的个性是什么。幸运的是有一些关键的指标能够用来把不同类型的活动分开。

  2、I/O分析

虽然大型计算机平台的实力之一是其I/O性能,但是,分析源工作量的I/O特点仍是很重要的。在任何整合情况下,把能够促进平衡利用资源的工作量结合在一起是很理想的。因此,I/O局限性应该使用处理器和其它指标进行并行分析,以便提供一个优化利用目标资源的平衡的结果。

  3、内存分析

当确定一个系统中能够虚拟化多少了应用程序的时候,内存通常是一个决定性的因素。不过,这种分析比较复杂,因为一个应用程序真正的内存需求并不是由系统上使用的物理内存决定的。使用测量的内存使用率来确定什么能够适合目标的要求将提供一个稳妥的答案。但是,它需要使用的内存将超过实际的需求。

所有这些局限性最终必须都要在一起进行分析以便确定实施虚拟化的优化方法。当针对一系列源服务器和目标服务器考虑这些局限性的时候,这个分析就变成了一个三维的优化问题。

把应用程序工作量整合到一个大型计算机平台上是许多叮环境中要考虑的一个伟大的战略。通过恰当地*估要进行整合的应用程序的适应性,这些整合提供的结果以及这个解决方案的拥有总成本,有可能发现一些重大的机会来简化IT基础设施、提高弹性,减少耗电量并且最终减少为这些工作量提供的服务的相关成本。

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top