专业新闻

中国IDC圈8月11日报道:采用虚拟化战略的企业需要保证有重要任务的IT系统和应用程序的可管理性和自动化。企业还需要建立一些程序使他们最大限度地获得整合到虚拟化平台的好处并且缓解虚拟化的潜在风险。没有这样做将影响到项目的成功和降低虚拟化战略的价值。

 

  急剧上涨的能源成本,要从固定的数据中心占地面积获得额外的IT回报以及对于环境问题的担心已经使虚拟化从一个商品工具转变成为在许多机构的IT战略中的一个中心角色。

 

  虚拟化的历史可以追溯到70年代。当时,大型计算机可以进行虚拟地分区以便托管多个客户机。虚拟化已经证明是安装合和设置新的操作系统、升级现有的系统和向软件开发人员提供隔离测试的沙箱等活动的一个理想环境。在虚拟化在21世纪的应用中,历史再一次重复了自己过去:虚拟化通常是在大多数企业的数据中心内部开始的。IT运营和应用程序开发团队很快认识到,他们能够的得到额外的灵活性,不需要购买额外的硬件为特别的处理需求服务或者用于软件测试。

 

  随着虚拟化从商品向主要角色的转变,虚拟化规划方面也发生了相应的转变,就是要保证企业所有的IT层完全一致以便在新的虚拟化环境中实施任务。除了保证在每一次配置新的虚拟机的时候基本的IT基础设施组件都在位之外,企业应用程序以及运营流程和程序也必须要完全建立起来以提供最终用户用来做自己的工作的全套的服务。

 

  分析转移到大型计算机的工作量

 

  可以使用分区、监视程序、容器和其它方法使许多工作量在一个统一的平台上共存。考虑到平台类别的相对优点和弱点,当在这些平台之间实施整合的时候,需要做大量的工作。这些工作包括理解哪些应用程序将在大型计算机上运行,哪些应用程序通过转移能够获得最大的好处,在过渡之后这些应用程序看起来将是什么样子。实际上,更重要的是理解这种过渡的细微差别,特别是当整个目标是把风险减小到最低限度的同时优化这种好处的时候。

 

  通过建模控制它们的局限性,可以描绘一个达到最终目标的路线图,同时在这个过程中将不偏离方向。这些局限性可以分为以下三类:

 

  1、技术局限性:什么东西能够集成在一起。

 

  2、业务和流程的局限性:什么东西应该集成在一起。

 

  3、工作量分析:什么东西能够相互适合。

 

  技术局限性分析

 

  技术局限性分析一般处理硬件与软件组件之间的兼容性和密切关系的问题。什么能够在什么上运行,什么与什么对话,等等。对于大型计算机来说,这个步骤关系到哪些应用程序能够在大型计算机上运行,什么能够从这个转移中得到最大的好处,应该如何组织这些应用程序才能够优化地利用这些好处。

 

  硬件和软件兼容性

 

  除了理解哪些应用程序能够相互对话和哪些应用程序相互之间有密切的关系之外,理解应用程序及其应用如何驱动中间件软件的行为也是很重要的。同样,任何跨平台的过渡都必须考虑到源系统使用的特殊硬件是否很难一起转移,如令牌环、传真和USB设备。如果这些硬件中的任何东西影响这个应用程序在大型计算机环境中的设置,在整合的候选名单中就应该取消这个硬件。

 

  网络连接能力和延迟

 

  一个应用程序的空间拓扑位置中的任何改变都可能引起通信延迟的改变,从而影响到应用程序的性能。如果这些变化在错误的地方引起延迟,如在应用服务器与数据库之间引起延时,性能就会受到不利的影响。因此,开始采用其数据库已经在大型计算机中的目标应用程序是一个很好的战略。

 

  应用程序连接性能

 

  不要仅寻找已经与大型计算机对话的应用程序,机构应该寻找相互对话的应用程序。通过整合到同一个系统,这些应用程序通过促进不会对网络产生任何影响的“对话”来实现巨大的好处。不过,需要提醒的是,这种策略有时候能够绕过重要的网络安全控制措施,因此要认真处理崩溃的应用层和通信路径的问题。

 

  业务和流程局限性分析

 

  由于管理规定、内部政策或者其它现实世界的整合,这些局限性帮助机构从技术的角度确定什么能做什么不能做。

 

  面向流程的局限性

 

  生产IT环境的适当的功能通常依靠严密的流程控制。变化冻结、维护窗口和其它控制措施必要要尊重。IT环境的任何转变必须要考虑到已经制定的规则。

 

  这对于大型计算机整合是一个好消息,因为大型计算机过去的流程非常严格,这种流程目前仅在数据中心使用。

 

  遵守安全和管理规定

 

  为了保护知识产权和其它敏感的信息,许多环境隔离数据类型,并且相应地使用安全和接入控制政策。企业应该避免可能引起安全漏洞的虚拟化情况。即使这台大型计算机的安全模型支持反应分布式环境的政策,设法采用不跨越安全区和可能引起潜在的管理或者安全问题的更简单的方法也许更可行。

 

  一般业务和局限性

 

  机构通常不愿意在各个部门之间共享基础设施,部分原因是缺乏能够实现跨部门托管的chargeback(退款)模式。可能对虚拟化产生影响的另一个问题是运行环境。把生产环境与非生产环境结合到一个共享

 

  工作量分析

 

  分析大型计算机虚拟化的最具有挑战性的问题之一是适当地实现系统虚拟化方式的正常化。因为数据中心出现的多重工作量个性和平台的各种不同的特点,得到正确的答案并不是一件很容易的事。处理器使用率必须要适当地实现正常化,必须要考虑到I/O速率,内存使用率和环境转换,以保证准确的结果。

 

  要解决这个问题,许多发表的测试基准取消了工作量的高带宽和高同步化部分。因此,有必要创建一个能够准确地捕捉不同平台种类相对优点的特殊的测试基准。换句话说,使用标准的整数基准实现中型计算机和大型计算机平台之间的工作量的正常化并不能提供这个正确的答案。

 

  这个问题并不仅仅是大型计算机遇到的问题。许多虚拟化技术都受到这样的问题的影响,有的是由于没有适当的基准,有的是这种标准刚刚出现。在许多情况下,需要一种灵活的基准单独地根据工作量的具体个性和与其相适应的目标平台的性能实现工作量的正常化。

 

  处理器正常化和基准

 

  最然构成工作量在大型计算机上运行的东西的理论是复杂的,获得这个答案的实际方法是很简单的。通过使用代表指定工作量个性的源系统和目标系统相对性能的多个基准,有可能进行一次单项的分析,用一个步骤优化使用多个源/目标组合。然后,每一个源工作量能够根据独特的个性单独实现正常化,目标端点(大型计算机分区)根据合理地准确预测的利用率填补这个工作容量。虽然这种方法的好处是巨大的,但是,这个挑战变成了确定每一个源工作量的确切的个性是什么。幸运的是有一些关键的指标能够用来把不同类型的活动分开。

 

  I/O分析

 

  虽然大型计算机平台的实力之一是其I/O性能,但是,分析源工作量的I/O特点仍是很重要的。在任何整合情况下,把能够促进平衡利用资源的工作量结合在一起是很理想的。因此,I/O局限性应该使用处理器和其它指标进行并行分析,以便提供一个优化利用目标资源的平衡的结果。

 

  内存分析

 

  当确定一个系统中能够虚拟化多少了应用程序的时候,内存通常是一个决定性的因素。不过,这种分析比较复杂,因为一个应用程序真正的内存需求并不是由系统上使用的物理内存决定的。使用测量的内存使用率来确定什么能够适合目标的要求将提供一个稳妥的答案。但是,它需要使用的内存将超过实际的需求。

  结论

 

  所有这些局限性最终必须都要在一起进行分析以便确定实施虚拟化的优化方法。当针对一系列源服务器和目标服务器考虑这些局限性的时候,这个分析就变成了一个三维的优化问题。

 

  把应用程序工作量整合到一个大型计算机平台上是许多IT环境中要考虑的一个伟大的战略。通过恰当地评估要进行整合的应用程序的适应性、这些整合提供的结果以及这个解决方案的拥有总成本,有可能发现一些重大的机会来简化IT基础设施、提高弹性、减少耗电量并且最终减少为这些工作量提供的服务的相关成本。

 

  不用掸掉老的IT运营书上的尘土并且对它进行更新以支持一个虚拟化的战略,企业需要认识到把知识和经验嵌入到自动化流程中不仅简化虚拟领域的管理和控制,而且还能保证在适当的时候和环境中做出聪明的决策。自动化的方法意味着改善吞吐量、提高准确性、减少错误和降低风险。通过采用技术分析资源利用率和迅速做出反应、在虚拟化环境中配置额外的资源等方法把这些技术应用与工作中会提高生产率和吞吐量。