全面推进新一代数据中心

本文作者:admin       点击: 2011-07-07 00:00
前言:

创新与变革
在过去,条条道路通数据中心。
企业数据中心作为网络、存储和计算服务的配置点,应位于关键任务功能区域的中心,原因很简单:为成千上万的用户提供大规模、集中化服务的成本如此之高,只能通过物理配置所需资源的方法进行管理。
如今,所有这一切已经发生了改变。随着对运作效率、可持续业务操作、动态业务多元化和成本竞争力的要求不断增长,尽管数据中心的角色与过去相差无几,但其发挥作用的方式却在快速地演进发展。
数据中心将经历三个演进发展阶段。首先是计算基板的演进,具体包括服务器的虚拟化和通过虚拟机的实时移植来移动负载和应用。其次是存储基板的演进,如存储资源的全局化和虚拟化以及存储区域网络 (SAN) 和网络附加存储 (NAS) 的功能性融合。最后,在第三个阶段,我们发现有必要进行底层网络基板的演进。
要实现这三个阶段的变革并获得优势,网络基板的演进必须与计算域和存储域的变革同步。企业数据中心必须找到可有效增强营运效率、存储容量和处理速度,同时降低成本的途径。新一代数据中心可满足所有这些需求,而且可提供用以确保其长期关联性的增长和扩展特性。
优化网络基板
当数据中心首次被设计出来时,其目的旨在为大量用户提供访问数量相对较少的通用应用的途径。这些应用基于简单的命令—响应交互模型之上,可处理基于文本的数据。
其结果是,底层网络的设计相对初级,而且依靠传统服务提供商或企业通常使用的第 2 层(交换)和第 3 层(路由)设备。但是,对于当今的媒体密集型流量而言,这种架构的局限性迅速体现出来,不仅会导致可用传输资源和交换资源的利用效率低下,还会给虚拟机的移动性造成不良影响,而这种移动性功能对于多样化、动态提供的应用和服务的可用性来说至关重要。这种差强人意的网络架构会增加数据中心的 CAPEX、 OPEX 和功耗,所有这些都违背了新一代数据中心的设计宗旨。

统一结构
当今,部署在数据中心服务器机架上的典型服务器都配有 2 个或者 3 个高功耗适配器,用以连接网络(以太网)、存储(光纤通道)和集群(InfiniBand 或者专有互联)3 个完全不同的结构中。这 3 种结构的互连要求差异很大:网络互连能够容忍数据包丢失和高时延;存储互连需保证无数据包丢失,而集群互连则需要以最低的时迟协助进程间通信。这些截然不同的结构导致了“网络蔓延”现象的出现,即数以万计的线缆通过成百上千的网络交换机、路由器和应用设备,将成千上万的服务器和存储设备连接在一起。所有这些必然会导致功耗与冷却成本的增加,以及管理这些结构所需的 CAPEX 和 OPEX 成本的增长。
10G 以太网的出现,加之行业为满足存储和集群互联需求而对以太网协议进行的关键扩展,将使现有结构融合为基于以太网的统一整合型网络结构。这种结构将提供对其所支持的存储和处理资源的无缝访问。从纯物理资源的角度来看,由于该结构将适配器、线缆和交换机等资源进行了整合,因而可以降低新一代数据中心的营运成本和用电成本。
扁平网络
当今的数据中心网络采用的是针对企业网和服务提供商网络开发的传统 L2 和 L3 网络设备(交换机和路由器)。这种传统设备无法为满足新一代数据中心的严格要求而进行全面扩展。控制协议的可扩展性问题导致资源利用效率低下(链路、交换机、网络)、L2 VLAN 和 L3 子网等限制性拓扑结构,以及严重超额的层级架构,这一切都会严重限制虚拟机的移动性,以及随之而来的移动工作负载和动态提供应用的能力。这些问题会在网络性能和功耗方面导致不尽人意的结果,并会对计算和存储虚拟化所需的关键优化工作造成干扰。
在过去几年里,我们看到专用于 L2 和 L3 以太网交换的商用芯片的出现。这些交换芯片可满足新一代数据中心的独特要求,并提供多路负载均衡、主动拥塞管理和可扩展结构拓扑等增强性能,从而能够在链路、交换机和网络层面上显著改善资源的利用效率。
控制层协议的复杂性和专有实施将被可扩展的全新开放式控制协议管理栈所取代,该管理栈甚至可与数据层完全分离。控制层的可扩展性能够扩展出数以万计的节点,从而实现贯穿整个数据中心的、无缝与实时的虚拟机迁移。
所有这些数据层和控制层的增强功能都将促成跨整个数据中心的大型、扁平 L2网络结构的诞生。数据中心网络基板的“扁平化”可实现将数据中心网络彻底商品化进而从根本上改变数据中心的经济性。
边缘的分布式智能
与常规 L2 / L3 交换设备相似,数据中心的各种“智能化”设备(负载均衡器、安全设备、应用加速器等)也采用可纵向扩展架构,现已成为严重的可扩展性瓶颈。这些设备会在网络中造成阻塞点,并进一步限制在整个数据中心内实现虚拟机的无缝实时移植这一最终目标的实现。
诸如负载均衡器、应用加速器和安全设备(认证、加密、访问控制、入侵防御等)等解决方案也需要适应虚拟数据中心架构。它们必须能够支持移动用户、移动虚拟机和动态网络配置。数据中心将不再使用专有的封闭式可纵向扩展硬件实施方案,而是通过在大型扁平网络的边缘标准服务器上运行软件来部署这些解决方案,这样就能以极低的成本实现智能化的横向扩展。
能源匹配网络
传统的网络设备没能充分考虑到能源感知或能源匹配问题。即便是行业领先的交换机和路由器在低利用率下运行时也会消耗接近峰值的功率。在网络层面,数据中心运营商无法通过其网络的子网来路由流量,也就无法在数据中心服务利用率较低的时候对能耗进行优化。
新一代数据中心要求在器件、电路、组件、板件、系统、软件以及网络管理等各个层面都实现能源感知和匹配设计。这些技术可显著减少功耗以及相应的冷却成本,使数据中心运营商可对整个数据中心的能耗优化进行控制并将其与数据中心服务的使用情况相匹配。
 
新一代数据中心网络
新一代数据中心网络将采用“扁平的一体化环保型”结构。它不仅将阻止大规模的“蔓延”,并可降低因管理彼此独立的网络、存储和集群结构所带来的成本,而且还将采用商品化的、能源匹配型交换机,构建可扩展出数以万计节点的大型扁平拓扑,从而实现无缝的虚拟机移动性。
最为重要的是,其可将控制权交给数据中心运营商,以使其能够应用基于策略的流量路由和智能化,并管理总体能耗。结果将实现网络基板的商品化,这不仅会大幅度降低采购成本,亦可在“技术食物链”的更高层面推动创新。
新一代数据中心的实践操作范例
这种新型数据中心网络理念的部署实例之一就是微软的 Monsoon。Monsoon 是一种网状架构,使用低成本的 L2 设备。其可通过修改在控制层执行的源路由以及执行数据层上的多路径路由来实现可扩展性。这种模型采用斯坦福大学开发的 Valiant Load Balancing 技术,能够跨越广域主干网建立逻辑型全网状拓扑,使用不超过 2 个跳转就能把数据从源头路由至目的地。通过采用简单的负载均衡技术,其可将负载分布到整个网络上,从而获得任意网络拓扑的支持。
在另一个例子中,亚马逊的弹性计算云 (Elastic Compute Cloud) 及其固有的弹性负载均衡技术都能够自动将传输进入的流量分配到多个亚马逊 EC2 实例的逻辑层次 (logical appearance) 上。传输进入的流量可被分配到位于单个或多个可用域上的多个 EC2 实例中。Elastic Compute Cloud 进程可根据所进入应用流量的多少自动扩展,并可检测“非健康”的负载均衡实例,一旦检测到,EC2 将不再把流量路由到这些实例,而是将流量重新分配到那些工作正常的实例。
最近的范例就是斯坦福大学的 OpenFlow 项目。该项目的设计目的是为商用以太网交换机、路由器和无线接入点增加一个功能集。OpenFlow 是一种可提供标准化“API”的开放式标准,便于研究人员在无需要求厂商暴露其网络设备的专有技术的情况下在网络上运行实验。它是一种非常出色的协议,体现在其充分利用并继承了原有技术的优点。在传统的网络架构中,数据包转发和高级路由决策一般发生在同一网络设备中,而采用 OpenFlow,这些功能将被分开。虽然路由决策被转移到单独的服务器上,但数据路径仍然保留在交换机上。这样做可实现分布式的“任务量划分”并改善数据处理效率。
新一代数据中心的未来
那么,这一切对于数据中心的演进以及可从新一代数据中心的发展中受益的人来说,意义何在呢?
首先必须认识到:环境在三方面的演进发展是对不断变化的市场需求的响应。计算基板的演进包括服务器的虚拟化和移动虚拟机的推出,发生在第一个阶段且大致已经完成。下一步是存储资源的全局化和虚拟化,即 SAN 和 NAS 的功能性融合。最后一个阶段仍然在进行当中,是网络基板的演进,也是另外 2 个阶段所依靠的关键。
随着网络从多网络的层级模型向集成度更高的、单层单网络模型演进,我们将看到由数据中心资源集中化的持续性优势所带来的运营成本和能耗成本的下降。同时,我们将更加依赖包括以太网光纤通道 (FCoE) 和传统高速(千兆位和万兆位)以太网在内的连接技术,以满足富媒体内容不断增长的需求。
最终,随着这种模型落地生根,并成为数据中心资源连接的标准,我们将看到一系列优势的显现。这些优势包括:
• 能够无缝、有效地部署和管理基于云的服务和应用
• 通过将以太网作为主要的存储访问方式所产生的规模经济
• 由于网络运营效率的提升,以及网络和存储资源间时延的降低,网络性能将得到大幅度提升
• 可支持基于 Web 的服务、面向服务的架构模型和 Web 2.0 应用环境
• 在今后几年中扩大对移动性的支持,实现针对大部分内容的最终目标的支持
• 能效的提升不但可以降低成本,而且更为环保。
新一代数据中心既不是一种选项,也不是停留在纸面的理论,而是一种现实。它业已面世且正在不断发展。