数据中心虚拟化技术权威指南

978-7-115-38232-0
作者: 【巴西】Gustavo A. A. Santana
译者: 张其光袁强薛润忠
编辑: 赵轩

图书目录:

详情

本书系统介绍了思科服务器虚拟化技术及其使用要素、虚拟化环境规范、虚拟化的好处,以及整个虚拟化生态系统,并结合思科Nexus, UCS, MDS等要素,通过完整的案例演示了构建和管理一个虚拟化项目的流程和技术细节。

图书摘要

版权信息

书名:数据中心虚拟化技术权威指南

ISBN:978-7-115-38232-0

本书由人民邮电出版社发行数字版。版权所有,侵权必究。

您购买的人民邮电出版社电子书仅供您个人使用,未经授权,不得以任何方式复制和传播本书内容。

我们愿意相信读者具有这样的良知和觉悟,与我们共同保护知识产权。

如果购买者有侵权行为,我们可能对该用户实施包括但不限于关闭该帐号等维权措施,并可能追究法律责任。

• 著    [巴西] Gustavo A. A. Santana

  译    张其光  袁  强  薛润忠

  责任编辑  赵 轩

• 人民邮电出版社出版发行  北京市丰台区成寿寺路11号

  邮编 100164  电子邮件 315@ptpress.com.cn

  网址 http://www.ptpress.com.cn

• 读者服务热线:(010)81055410

  反盗版热线:(010)81055315

Data Center Virtualization Fundamentals (ISBN:9781587143243)

Copyright@2013 Cisco Systems, Inc. Authorized translation from the English language edition published by Cisco Press. All rights reserved.

本书中文简体字版由美国Cisco Press授权人民邮电出版社出版。未经出版者书面许可,对本书任何部分不得以任何方式复制或抄袭。

版权所有,侵权必究


数据中心权威专家Gustavo A. A. Santana深入研究了数据中心端到端虚拟化解决方案 中的所有组件,包括网络、存储、服务器、操作系统、应用优化和安全性。本书并没 有把重点放在单个产品或技术上,而是探索了以产品能力作为交互式设计工具,这些 工具可以整合和集成到其他解决方案之中,如VMware vSphere等。

在本书中,您将学习如何在数据中心新建、扩容以及改造项目中,去定义和实现高效 的体系架构。这样,无需购买不必要的基础设施,就可以实现灵活的应用配置,并能 够为云计算以及IT-as-a-service等新方案奠定坚实的基础。


Gustavo A. A. Santana,CCIE#8806,思科技术方案架构师,致力于企业和服务提供商的数据中心项目的开发和部署,涉足数据中心所需的多项技术领域融合,如网络、应用优化、存储以及服务器。

Gustavo 在数据中心行业拥有超过 15 年的工作经验。在巴西,他领导和协调一支专业的思科工程师团队。作为教育促进技术发展的信仰者,作者还致力于 IT 专业人才的技术培养和开发,为客户、合作伙伴和战略联盟组织培养了许多专业技术人才。

除了持有两个 CCIE 证书(路由交换和存储网络)之外,Gustavo 也是 VMware 认证专家(VCP)和SNIA 认证存储网络专家(SCSN-E)。他拥有巴西航空技术学院(ITA-Brazil)计算机工程的学士学位,并获得了巴西 FGV 大学战略 IT 管理的 MBA 学位(FGV-Brazil),还经常作为思科和数据中心业界活动的演讲者。

Gustavo 的个人博客是 http://gustavoaasantana.net,用于分享并讨论数据中心虚拟化技术相关的话题。


Maurilio Gorito,CCIE,Riverbed 科技学院的认证经理,领导着Riverbed科技的认证计划。此前,他曾管理思科 CCIE 路由与交换认证的计划,并且他也是持有3个CCIE证书的思科认证互联网络专家。Maurilio 在 IT 领域拥有 25 年的经验以及超过 20 年的教育、测试和评估相结合的实践经验。Maurilio 撰写过一本书籍以及许多书面文章,并为思科出版社审查了若干技术书籍。Maurilio 持有巴西 Centro Universitario Geraldo Di Biasi 学府的教育教学以及数学学士学位。Maurilio 现任职于性能测试委员会(PTC) 的董事会。

Krishna Arji,思科公司的高级经理。在这个职位上,他负责思科服务交付相关的技术研发。Krishna 曾在思科服务技术团队的多个职位就职。他当前的工作是执行思科 BYOD 服务产品的交付。过去,他参与了云计算规划、设计和实施服务的交付,并在技术评估和开发上担当了关键角色。在他的领导下,他的团队开发了多项技术来实现客户的基础设施评估(包括:路由、交换、数据中心、安全和 WLAN)。他的专业领域包括网络、软件设计和开发以及数据中心技术,如虚拟化。Krishna 拥有电子和通信工程学士学位,并取得了企业软件技术学科的硕士学位。目前,他正攻读加州大学伯克利分校哈斯商学院 MBA 学位。他有一个关于“存储区域网络的自动评估”的专利,等待 USPTO(美国专利商标局)的通知(序号为 13/115,141)。


将本书献给我的妻子和真挚的爱情,Carlene,她的无私奉献和无条件支持对于本书的创作是至关重要的。还有我可爱的女儿,Carolina,是她的好奇心不断激励着我向前迈进。

我也将这本书献给我的父母,Honorio 和 Cleia,是他们教育了我:只有无所畏惧和谦虚,才能学到知识。

最后,本书还献给致力于传授知识和经验的每一个人。


创作本书的过程,可以说是一段“孤独的旅程”。当然,如果没有亲戚、朋友和专家们的支持,无数寂寞的写作时间也会是徒劳无功的,这里我要向他们致谢。

首先,我要感谢我的妹妹 Raquel 和兄弟 André,感谢他们在我这本书的写作过程中所给予的支持。

我也想对我的朋友以及值得信赖的顾问 Alexandre M.S. P. Moraes 表达我的感谢,因为从本书写作的早期阶段起,他就分享了许多宝贵的意见和见解。

非常感谢 Andrey Lee 提供的第 1 章和第 17 章的精彩插图。

衷心感谢Paulo Quinta、Fernanda Spinardi和Marcelo Ehalt 帮助协调我的本职工作和写作。

感谢本书的技术审稿人Maurilio Gorito和Krishna Arji所给予的积极贡献以及专注于目标读者群,使得本书的创作更加高效。

感谢巴西数据中心的老虎团队,他们一直作为我最喜欢的“智囊团”为我提供了最佳实践和经验交流。

我还要感谢两位非常有才华的导师,Dan Murray 和 Fabricio Grimaldi。

我也很感谢那些贡献设备的人:Shane Hudson 和 Bilal El-Ayi(来自 GoldLabs),Ohad Richberg(和他的神奇CPOC以色列团队),François Tallet和Mark Allen(来自思科企业核心业务部),以及 Hugo Marques。

感谢 Pearson 产品团队所有同事,尤其是 Ellie Bru 和 Seth Kerney,是他们帮我创作了本书的最终版本。

特别感谢 Mary Beth Ray 和 Anand Sundaram,感谢你们所支持的数据中心独特构思和不同的方法。


随着互联网经济的快速发展和信息技术的爆炸,数据中心正在发挥着举足轻重的作用,并成为当今 IT 界最令人兴奋的领域之一。随着虚拟化和云计算的加速发展,这种趋势还在继续,并且数据中心解决方案变得更高效和更具扩展性。更确切地说,采用虚拟化技术的组织看到更大的回报和更多的活力来应对不断增长的经济需求。

数据中心虚拟化是一个渐进的过程,开始于多年前的大型机机房之中,并在最近几年出现了疯狂增长。更重要的是,它在架构角度上倡导的脱离物理边界的束缚,已在各个技术领域产生效益。

然而,由于这些环境的复杂性不断增长,这对数据中心专业人士的知识广度提出了挑战,他们必须具备多个不同领域的知识,如网络、存储、服务器、操作系统、应用和安全性。

本书内容非常全面,它包含了所有这些领域的知识,介绍了数据中心环境中的虚拟化技术。本书并没有采用其他书籍所使用基于产品的方法,而是从方案架构的角度提供了理论概念、配置说明以及每个虚拟化技术的真实设计。本书可作为那些想要了解当今数据中心技术状态的学生和专业人士的一本入门书籍。作者认为,虚拟化技术是实现这一壮举的最佳途径,因为在学习这些技术之前,必须清楚地认识到数据中心环境所面临的物理挑战。

一谈及虚拟化,就有许多误解,人们会立刻在虚拟服务器环境中想到它。然而,数据中心中的虚拟化并不局限于单一的技术领域。本书将重点介绍数据中心中主流的虚拟化技术,并作为一个整体揭示它们在这些环境中的影响和适用性。它鼓励读者摆脱技术的束缚,并认识到每个决策均可能会影响到其他数据中心团队。步入云时代,从业人员需要有很强的数据中心理论基础,而这正是本书所带来的。

作者 Gustavo A. A. Santana 是一位具备多年丰富经验的技术专家,并在这些技术领域的集成上做出了出色的工作。他已经展现了他的技能和技术手段,能够采用独特的方法将最复杂的和最深奥的技术信息转化为简单的、容易理解的材料。读者一定会欣赏这本书。

最后,对于那些想要追求思科数据中心认证的读者来说,这本书也将会是一份重要的参考和有价值的读物。我深信,通过阅读本书,读者必将在认证准备过程中获得丰富的知识和动手操作经验。如果您正在寻找有关虚拟化的真正的全面指南,本书就是最好的选择!

Yusuf Bhaiji

高级经理,专家认证(CCIE、CCDE、CCAR)

Learning@Cisco

“If you can’t explain it simply,you don’t understand it well enough.”

——Albert Einstein

“如果你没法简单地解释它,说明你还不够了解它。”

——阿尔伯特·爱因斯坦


张其光,博士,ITIL专家,CCIE#11333 R&S/Security(已获得超过10年),现任思科服务部支持经理,持有VMware及Linux等多项专业证书。从事互联网行业超过16年,先后指导并参与了中国各大运营商、互联网公司的骨干网络/城域网络/业务支撑网、数据中心、虚拟化/云平台等多个项目的设计、规划、建设以及运营支持,是IT网界理论付诸于实践的先驱和积极倡导者。目前感兴趣和正在探索的领域有:云计算的业务应用、基于大数据的软体智能、家庭物联网的标准化。

袁强,CCIE#30025,思科中国高级服务部团队的网络咨询工程师,主要负责基于思科网络产品来帮助客户构建和优化思科网络解决方案,有10年以上的网络行业经验。先后参与了中国移动、东方有线、阿里巴巴、腾讯等国内顶尖的运营商和互联网企业的网络和数据中心建设,对数据中心和虚拟化技术的产品如Nexus交换机、ASR9k路由器和UCS服务器有着深刻的理解和丰富地部署、实施和优化经验。

薛润忠,现就职于某外企运营商部门,担任资深技术工程师、高级网络顾问职务,持有CCNP,NCSA,VCP,VTSP等证书。具有20多年网络和通信行业经验,先后了参与中国移动、中国联通、中国工商银行等多个客户的核心网络建设和交付,目前研究的重点是核心通信网络和数据中心架构。


“我对学习数据中心技术很感兴趣,应该如何开始呢?”

自从我第一次听到这个问题,我见过很多 IT 专业人士,面对令人晕头转向的数据中心新技术开发,变得不堪重负。从我的角度来看,这种挫折主要是由于试图去理解这个问题,却没有被正确地引入到有关这些复杂的环境的最根本的概念和定义。而这些观点一直是我给他们建议的基础。

然而,随着岁月的流逝,我发现回答这个问题变得更复杂。可以理解的是,这些专业人士的背景也被要求日益多样化,主要是因为数据中心技术在不同的知识领域不断地融合,如网络、存储、应用、服务器、布线以及其他,等等。而令我懊恼的是,我不得不承认,要创建一个对这些技术有效的介绍,将会是一项越来越难完成的任务。

在开发了许多学习方法和定制化培训后,我决定写一本书来挑战自己,这本书将涵盖先进的数据中心技术和它们所依赖的核心概念。从一开始,这些庞杂技术细节让我意识到我是多么接近这个任务,就像编写甲壳虫乐队传记一样。而且这一确切想法启发了我去遵循最佳音乐出版的步骤:我不得不使用一个统一的主题,它可以为这些技术的陈述提供一个坚实的支柱。这对我而言是相当容易的,我的结论是,虚拟化是这个主题。

如今,虚拟化通过以下的技术深深植根于数据中心设备之中,这些技术有:虚拟内存、虚拟网关、VLAN、VRF、虚拟环境、VDC、vPC、VNTag、VPLS、OTV、虚拟的 LUN、VSAN、IVR、NPV、 FCoE、虚拟机、服务配置文件、虚拟联网、虚拟网络服务,等等。所有这些成功的技术都有一个共同的特点: 它们都是用来提供资源优化的。正因如此,学习上述技术为解决以下问题提供了机会。

虚拟化还改变了数据中心环境中的人力配置。从“现实的链条”获得了解放,技术团队能够简化操作任务,并加快新 IT 模式的采用,比如云计算。有了这样一个中心主题,就只剩下一个问题了——如何处理它。

本书通过对主要的基础设施虚拟化技术的系统检查,循序渐进地介绍了创新的数据中心技术。书中还特意介绍了基本概念和定义,这也是那些从事现代数据中心设计的专业人士所要求的。

由于主要集中在3个主要的数据中心基础设施领域(网络、存储和服务器),本书既不拘泥于某个单一的产品,也不是作为配置指南。相反,它充分利用了广泛的思科数据中心产品组合(其他来自于思科生态系统合作伙伴和联盟的解决方案)来分析每项虚拟化技术的行为,并提供虚拟化数据中心的架构视角。

除了提供这些领域发展的技术解释外,本书还将通过一系列与以下相关联的主题,探讨每一项虚拟化技术:

我坚信,设计和部署必须是互补的过程。因此,本书含有实际的配置案例,这是专门创建用以说明每项虚拟化技术及其在数据中心设计中的适用性。尽管如此,我也包含了一些不常用的拓扑结构,目的是要特别强化本书一直探讨的概念。

本书提供了针对数据中心虚拟化技术的深入探讨(从概念到实施),适合初学者和经验丰富的 IT 专业人士来阅读。

随着互联网带来的信息爆炸,在 21 世纪,教育必须始终为非结构化数据的随机堆积提出替代方案。因此,我特意采用建构主义者的学习理论原则(如系统的分析和概念合成)在整本书中讲述内容。虽然每个章节可以不按照顺序去阅读,但书中所设计的排列是为了提供解释的逻辑顺序,为读者带来一个更受益的学习体验。

尽管博客和微博会发布并提供及时信息更新,本书旨在提供完整的知识体系,并协调章节之间的秩序和关联。

第 1 ~ 17 章以及附录覆盖了以下主题。



坦白地说,虚拟化就是欺骗。

即使我们拒绝相信它,但制假、造假以及伪装正在像创作和创意一样成为我们生活的一部分。事实上,整个艺术和科学专门致力于对感知的操纵。

然而,随着个人计算机的普及,“虚拟化”这个广泛使用的术语已经脱离了其技术本身,成为一种共同语言、流行文化和理念。自20世纪90年代互联网热潮的早期,任何与Web相关的活动均被称为“虚拟”,这已然成为了一种完完全全的老生常谈(或只是懒于写出来)。然而,通过菲利浦•狄克的科幻小说、让•鲍德里亚的后现代主义研究,以及最近的电影(如《黑客帝国》和《盗梦空间》)的影响,模拟现实的概念依然使得我们当前这个谙熟技术的社会为之入迷。

根据牛津英语词典解释,在计算领域范畴内,虚拟是指“物理上并不存在,而是通过软件实现并呈现出来的做法”。因此,相同情况下,可以这样说,一个虚拟元素是某个元素的一种特定的抽象。

抽象或考虑事物独立于其组织或属性的过程,天然就存在于信息技术(Information Technology,IT)之中。实际上,计算机科学中的许多领域都是建立在抽象层之上的。

计算机数据本身就是一个抽象的实体,这是因为它可以代表着任何东西,从家用电器到日常生活。对计算机系统而言,符号和表征是日常操作的原始数据。但作为用户,我们必须添加一个额外的抽象层,来正确解读这些数据的含义。

如果抽象的概念在IT中是如此常见,那又如何解释为什么最近几年人们对虚拟化技术越来越痴迷呢?这种虚拟化趋势在数据中心的硬件核心更是如此。自2005年以来,虚拟化早就深深根植于这些环境的战略发展之中,并且这种痴迷还在持续增长:在2012年国际数据公司(International Data Corporation,IDC)所做的一项调查中,几乎40%的首席信息官(Chief Information Officers,CIO)已经将虚拟化作为他们首要考虑的问题。

因此,这些基础设施都遭到虚拟服务器、虚拟网络、虚拟存储、虚拟设备和其他“虚拟技术”的逆袭,正如这些技术承诺的一样,减少了对现实的束缚。广义而言,这些技术设计为数据中心环境带来了以下好处:

考虑到操作运营方面占据了数据中心的绝大部分开支,虚拟化技术被期望能以魔幻的方式工作,在无需对系统以及流程进行全面改造情况下,方便快捷地实现上述好处。

然而,虚拟化可能会带来如下所述的一些问题:

本书旨在通过对一组统称为“数据中心虚拟化”的技术分析,来回答这些问题。其主要目的是解释如何以及为什么这些技术在数据中心的发展以及架构大变迁中发挥了重大的作用。

数据中心是这样的一个特殊设施,它被设想用来为一个或多个组织安置、管理和支持那些被认为至关重要的计算资源。一个特别复杂的架构、一个典型的数据中心包含:特殊建筑结构、电源备份结构、冷却系统、专用室(例如入口和电信接入)、设备机柜、结构化布线、网络设备、存储系统、服务器、主机、应用软件、物理安全系统、监控中心,以及许多其他支持系统。所有这些资源及其相互关系均由专门人员(本地或远程)管理。

图 1-1 描述了数据中心物理视图和它的一些主要组件。

图1-1 数据中心

图 1-1 描绘了一个单一数据中心机房的情况,而现实世界中的模块数据中心可包括多个类似的跨越不同楼层或建筑物的机房环境。除了大小不同之外,数据中心也可以根据其所支持系统的关键程度,在其基础设施的鲁棒性上发生变化。

为了实现利润的增长,业务对 IT 的依赖越来越强烈,数据中心毫无疑问在过去的十年间已经成为大家关注的焦点。对于公司而言,正如人们预期的一样,所有的数据中心组件正协调工作,以保障以下商业应用具备足够的服务等级协议(Service-Level Agreement,SLA):商业智能(Business Intelligence,BI)、客户关系管理(Customer Relationship Management,CRM)、数据仓库(Data Warehouse,DW)、电子商务、企业资源规划(Enterprise Resource Planning,ERP)、供应链管理(Supply Chain Management,SCM)和其他诸多系统。

不是所有的数据中心都是公司自有的。事实上,数据中心的操作复杂性也促使多家公司已将其系统安置于所指定的运营商数据中心之内。

在过去六十年间,我们看见数据中心在特征以及用途上都发生了很大变化,演绎了同一时期计算机系统所经历的变革。然而,重要的是,我们发现这些演进已经不同程度地发生于世界各地的各个行业。

图1-2直观地概览了数据中心的演变情况。

图1-2 数据中心演变阶段

您可以将数据中心 1.0 阶段视为一份“艺术许可协议”,因为这些设施被简单地称为计算机室。自 20 世纪 50 年代以来机房空间均被用来安装大型系统,这些通常是由 IBM 和其他厂商设计的又大、又特殊的装置,需要更多空间来更好地放置它们的中央处理单元(Central Processing Units,CPU)和外围设备(存储设备、终端、打印机,等等)。

基于庞大的软件体系结构,这些集中的系统需要一个 IT 上更严密的控制,并由此获得较高的资源利用率。

20世纪80年代,随着“客户端 - 服务器”应用模型被越来越多地采用,数据中心 2.0 阶段开始形成。借助个人计算机(Personal Computer,PC)的普及,应用环境开始从大型机向更小的“服务器”平台迁移,并且通过安装在 PC 机上的客户端应用程序来实现访问。

随着 20 世纪 90 年代互联网热潮兴起,计算机资源再次被聚集到互联网数据中心,那时往往需要改造不再使用的大型计算机房。互联网和基于 Web 的应用的发展产生惊涛骇浪,加强了服务器向正确设计的数据中心进一步集中。

就性能预测和软件模块化而言,客户端 - 服务器的模式被纳入到应用协议层之中,在这里每一层都表征了部署专用服务器来执行特定的功能。一个分层应用架构的最有名的例子就是三层模型,其中包括:呈现、应用(或业务逻辑)和数据库服务器。

提示:

 

三层应用模型将在第4章中进一步细化。

随着这些设施的局限性日益突出,数据中心进入了3.0阶段。在 20 世纪末以及21世纪初,数据中心的空间和功耗不断趋于饱和,而扩容和部署新设施显然是一个昂贵的解决方案。

矛盾的是,当时 IT 部门发现,数据中心的资源利用率低得令人尴尬。举个例子,2005 年思科IT 的一份研究报告指出:当时服务器和网络设备平均利用率只占其能力的 20%。离散的网络、服务器以及存储资源带来的烟囱式的应用是造成这种局面的根本原因。

为了提高资源的利用率以及促进操作简单化,这个阶段所具备的优化特点是对一系列数据中心项目改造。所有这些举措,大多数均由基础设施合并项目所组成,通过合并项目,实现了一个公司内对大量设备组件、流程甚至基础设施的简化和标准化。

同时,基于先进虚拟化技术的项目也开始得到部署总之,它们的目标是:

在一些技术刊物中,只注重纯技术方面的分析,人为因素往往被忽视。虽然这也许是一个可以理解的方法,但是它隐藏了对以下问题的一系列解释:“为什么随着时间的推移,技术 A 替换了技术 B ?”

在我看来,忽视“被称为智人的 IT 组件”智能性,是对数据中心这类极其复杂环境的研究所不能承受的。因此在本书中,您将会看到多次提及人力资源对数据中心设计和部署的影响。即使这有时会受到质疑,但这些决策确实揭露了许多理论和现实之间相当有趣的关联。

数据中心操作人员通过分为高度专业化的技术支持团队,如服务器、存储、网络、应用、布线、 设施,以及其他,等等。随着数据中心的发展,这些团队可以进一步划分,一直到公司的首席执行官(Chief Executive Officer,CEO)可能是两个不同团队的唯一掌管人。

图 1-3 描述了一个真实的数据中心的组织结构,说明了前面提到的的情况。

图1-3 数据中心组织

注意:

 

这些架构可以根据组织的个体特性以及每个行业的特点而发生很大变化。

在图 1-3 中,您可以看到数据中心技术是如何在不同的决策领域进行分布的,这里表征为首席信息官(Chief Information Officer,CIO)、首席财务官(Chief Financial Officer,CFO)和首席安全官(Chief Security Officer,CSO)。

然而,数据中心解决方案或许并不像图1-3所示的那样独立工作。事实上,它们是相互依存的。例如:

在数据中心“万物互联”的环境中,一个团队的单独决定可能会损害整个设施。因此,在整合数据中心如何演变过程中,强烈推荐站在端到端角度去考虑。

数据中心架构是这样的一套指令,由它驱动着所有数据中心设施的设计。如果一个数据中心是一座城市的话,数据中心的架构师就相当于城市规划师,按照附近的街道容量(网络)以及公共停车位的数量(存储)来统筹部署建筑(服务器)。同样的专业人员还必须能够处理“社区”之间的差异性,就像大型机和低端服务器一样。

为了避免整个设施被多年前的决定所“绑架”,数据中心架构在未来技术的演进上应该有一个清晰的愿景。所以,它必须清晰地看到不同技术的生命周期。虽然每个周期的持续时间的变化在很大程度上取决于多个因素,如行业和地理。下面所列为我在职业生涯中所发现的各技术平均生命周期。

尽管很少有人羡慕这份工作,但我相信数据中心架构师对于任何组织的 IT 战略而言均是一个关键的职位。考虑到一些数据中心项目可以花费数十亿美元,这种专业职能可以作为一个公司商业目标和 IT 预算之间的主要纽带。

理解数据中心不同技术之间的关系也会影响融合解决方案的发展。因此,一些企业采用数据中心支持图来迎合这些“灰色”领域知识的增长。

本书的主要目标之一就是正确描述那些所谓数据中心虚拟化趋势的技术特征。在最初的研究过程中,通过切身体会,我遇到过各种对虚拟化的单一解答或仅仅单方面的定义,例如:

尽管一开始有点令人失望,但从技术的角度来看,很容易认识到虚拟化必须放置在一定环境里才具备意义。虚拟化一词本身就是一个通用术语,可以包罗万象,从社会网络到模拟现实。

此外,“真正虚拟化”这一术语对我而言似乎总是一个矛盾。

为了给数据中心虚拟化技术提出一个统一的定义,我决定先分析其关联性。作为对这些言论观察的直接结果,请允许我介绍一些历史上的虚拟化技术,以便更好地说明这种常见行为,而它们在现代的虚拟化解决方案中仍然存在。

存储可以被定义为按照若干时间间隔来保留计算所使用数据的能力。从一开始起,计算机至少部署两个级别的存储。

在20世纪 50 年代,主内存通过磁核直接部署,而辅助内存则是基于磁鼓旋转方式实现。那时,程序员在编写代码时,需要努力使它不会超过主内存大小。有时候,他们不得不使用一个特定的策略将数据转移到辅助内存之中,从而释放主内存空间以满足程序中更多数据的处理。

1959 年,曼彻斯特大学的阿特拉斯团队发明了一种自动机制,解除了程序员对上述存储分配的烦恼。正如其他任何好主意一样,虚拟内存只是基于一个简单的概念:使用辅助内存作为主内存的扩展。

图 1-4 展示了这种虚拟化技术。

图1-4 虚拟内存

使用虚拟内存,计算机的 CPU 可以直接访问虚拟内存的一个地址,无需知道它位于主内存或者辅助内存。在这项技术中,虚拟化机制必须执行下列操作:

(1)将虚拟内存地址转化为主内存或辅助内存的位置;

(2)在这两个存储设备之间转换数据;

(3)选择哪些数据将被合理放置在更快的主内存之中。

采用这种做法,一个仿真的主内存呈现给了 CPU,这带来了内存扩展的优势并且增强了程序代码的复用性。

虚拟内存是最新计算机操作系统(如微软 Windows 和 Linux)的一个重要组成部分。常用的虚拟内存方法被称之为分页,这项技术中,被称为页面的同类数据块就是从辅助内存中重新获得的,实现了非连续数据存储。虚拟内存的原理同样适用于“高速缓冲存储器”的创建。

提示:

 

计算机存储和内存技术将会分别在第 9 章以及第 13 章予以更多、更详细的探讨。

1972 年,与新的一代的处理器(System/370)一起,IBM官方同时发布了大型机虚拟化解决方案。这个概念是建立在对大型机体系结构进行仿真的基础上,允许一个操作系统被透明地运行在一个虚拟机(Virtual Machine,VM)之上。

图 1-5 进一步说明了这种虚拟化技术的基本概念。

图1-5 大型机虚拟化

如图1-5所示,VM/370 操作系统包含一个叫做控制程序(Control Program,CP)的软件组件,也可以称之为超级监督者(hypervisor)。这个软件负责虚拟机的创建、资源共享、设备管理、虚拟存储管理和其他传统的操作系统任务。在这种情况下,每个大型机用户可以通过与会话监控系统(Conversational Monitor System,CMS) 交互,来实现自己的专用处理器仿真。

对于 IBM 而言,当时每一个新处理器发布时,客户总会面临操作系统迁移问题,而虚拟机为此迁移提供了一个解决方案。毕竟,使用这种虚拟化,一台独立的大型机可以同时安装不同版本的操作系统(包括另一个 CP 实例)。

自大型机虚拟化形成以后,这方面虚拟化的努力实际上开始于 8 年前的一种替代方案,称为分时共享技术,其目的也是将昂贵的大型机资源分配给不同用户。总之,分时共享通过挂起当前用户的作业,并在内存中保存其用户状态,然后加载另一个用户状态的方式,为每个用户提供了一个平等的大型机资源的时间片。

分时共享机制可以被认为是一个“陈旧的”虚拟化技术,因为每个用户均会错误地认为他完全控制另外的计算机。然而,与虚拟机截然不同的是,所有用户共享相同的操作系统,不存在不平等的、 不适当的资源分配情况,也不会处于相同的故障域之中。

这两个概念对当前计算机系统界也是非常重要的。如今,分时共享已是多任务操作系统中的基石,虚拟机则是数据中心 3.0 阶段的旗舰技术。

在TCP/IP网络架构中,一台主机通常使用一个路由器接口作为其默认网关来将数据包转发到另一个 IP 子网。尽管在一个局域网(Local-Area Network,LAN)中可以部署多台路由器,然而绝大多数的TCP/IP 协议栈只允许为每个主机定义一个默认网关。

上述情况暴露了这种体系下与生俱来的一个单点故障,当含有主机所定义网关 IP 地址的那台路由器产生故障时,流量将会中断。

为了克服这种限制,思科公司在 1998 年创建了一个被称为热备份路由器协议(Hot Standby Router Protocol,HSRP)的解决方案(图 1-6)。

如图1-6所示,HSRP 通过以下过程来提供默认网关的冗余性:

图1-6 热备份路由器协议

1998 年,HSRP 获得了互联网工程任务组(Internet Engineering Task Force,IETF)的批准,包含在信息注释请求(Request for Comments,RFC)2281 之中。尽管它激发了其他类似的协议,如虚拟路由器冗余协议(Virtual Router Redundancy Protocol,VRRP)以及网关负载均衡协议(Gateway Load Balancing Protocol,GLBP),但 HSRP 依然以两个版本方式——HSRP v1 和 v2——广泛部署于数据中心和校园网络。

通过前一节介绍的虚拟化技术(虚拟内存、大型机虚拟化以及 HSRP),您可以看到以下相似之处。

因此,以使用数据中心基础设施技术为背景,这本书将采用以下的定义: “虚拟化是 IT 资源的透明仿真,为其消费者带来物理形态中无法获得的好处”。正如您将在本书后续的章节中看到,虚拟机基本上可以提供两种不同风格的仿真。

另一方面,从单一地址的变更到一个全新逻辑结构的建造,透明在这些技术中有很大差异。同样,受益的范围也是非常多样化的,有时甚至包括原先并没有计划的附带优势。

根据现有虚拟化的定义,更容易在相同的群集下归类数据中心基础设施技术。所以,下面的时间表通过一系列的里程碑描述了这个群集的进化对数据中心现状的影响。

注意:

 

这个时间轴不是数据中心虚拟化技术的一个详尽清单。它只是说明了随着时间的推移基础设施虚拟化的发展,以及与本书内容显著相关的技术。

虽然正式的定义有助于理解技术之间的相似点,但对某单一技术的分析要求关注它们的不同之处。基于这个意图,本书提出了一个分类系统,旨在协助分析各种虚拟化技术。

在古希腊,分类法的字面意思是“一种布置方法”。通俗而言,分类法为一组元素内的变化和关联提供了一个高层次的视野。

毫无疑问,最著名的分类法是生物学,它基于科学观察到的生物特性,为生物体定义了层次化分组。在现代生物分类法中,每个层次组均给定一个排名,如(从最一般的到最具体的)域(Domain)、界(Kingdom)、门(Phylum)、纲(Class)、目(Order)、科(Family)、属(Genus)以及种(Species)。

因为每个组均可被分割为子组,直到一个物种被完全归类,所以,生物分类法图形上可以以树状形式表示。图 1-7 通过一个当前被认可的“生命之树”小子集举例说明了生物分类机制。

为了简单起见,图 1-7 只是描述了 4 个级别(域、界、门、纲)。从真核生物域(多细胞生物) 以及动物界(动物),展现了如下的 3 个门。

此外,图 1-7 说明了来自 3 个不同门的动物(鸭、蝴蝶和涡虫)。

除了由分类定义的类型之外,物种可以被进一步按照其他的信息来分类,如地理分布、大小、识别特征和生命周期等。这种分类模型反映出来的特征正如本书所研究的并应用于数据中心虚拟化技术的分组。

图1-7 生物分类的例子

从此,每个虚拟化“物种”将会按照以下特征进行分类:

此刻,我相信您已经清楚了仿真的含义(通过它,IT 资源将通过虚拟化而生成)以及优势(虚拟化的好处)。因此,在后续的章节中将接着讨论虚拟化的其他功能特征。

尽管与生物圈相比虚拟化技术在种类变化上远远不及,但我们的分类系统也可以从层次化分类中受益。在虚拟化技术中,第一层将被简单称为分类和将涉及的物理组件数量和逻辑组件数量之间的比例。

如图 1-8 所示为 3 种类型的虚拟化技术。

在池化虚拟技术中,几个物理组件会同时工作从而组建一个单独的逻辑实体,这些逻辑实体与原来的实体分享其特征。如图 1-8 所示,动物世界里的一个类比是一群鸭子,它们按照更加符合空气动力学的“V”形队伍飞行,增加了效率和单一个体的范围(巧合的是,字母“V”也存在于大多数虚拟化技术的命名之中)。

池化技术可以进一步分为两个子类。

根据前面章节(“数据中心虚拟化起源”)中的例子所解释,虚拟内存就可以归类为采用异构子类所实现的池化虚拟技术(因为虚拟内存是由两个不同的存储设备所组成,它们是主内存和辅助内存)。

图1-8 虚拟化类型

根据定义,在抽象虚拟化技术中,为了创建一个逻辑实体,仿真不会增加或减少物理组件的数量。在这些技术中,一个物理资源创建一个单独的虚拟组件来提供不同的特征,以实现设备或用户交互。如图 1-8 所示,以 Caligomennon(猫头鹰蝶)所使用的模仿为例说明了这些技术,而这些技术也被用作防御其猎食者的一种机制。

关于书中所分析到的全部虚拟化技术,我发现了以下两个抽象子类。

按照这种分类法,HSRP 使用了地址重映射子类的方式,部署一个抽象虚拟化。

注意:

 

尽管多个路由器接口可以作为同一 HSRP 组的一部分,但常见的情况是,一个组内只能有一个活动 IP。然而,以这种分类法,可认为 GLBP(多个网关之间部署负载平衡)是一种池化虚拟技术。

最后,分区虚拟化技术的特点是采用独立的逻辑分区来模拟物理资源的特点。尽管有点粗略,但图 1-8 中,涡虫类从原始标本中创造了完美的生命副本,其演示了动物界中的镜像行为。

本书分类学将分区技术划分为以下两个类型。

回顾前面章节中所讨论的内容,“大型机虚拟化”,IBM 虚拟机毫无疑问符合这个分区虚拟化类型,并且属于资源分配型。

与虚拟化技术相关的一大风险是:仿真可以被盲目地接受。我常常见到工程师在虚拟化技术上非常自信,以至于他们已经完全忘记了在设计时考虑其局限性。

为了避免灾难性的情况,强烈建议读者清楚地了解每个虚拟化技术的可扩展性,如:

正如动物物种可以定位于一个单独的地理区域,虚拟化技术也可以放置在一个“技术领域”。这些抽象的位置在前面章节中已被简单提到。

在过去的 30 年里,数据中心基础设施虚拟化解决方案附属于 3 个基本领域:服务器、存储和网络。“定位”一个虚拟化技术到这 3 个领域中的其一,会进一步指定可能与它们有直接交互的运营团队。

对于本书中所探讨的虚拟化技术,图 1-9 说明了其技术定位。

图1-9 技术领域和虚拟化技术

就像生物物种不知道虚幻的界限一样,图 1-9 描绘的大量技术可能属于一个以上的技术领域。最近的趋势反映出,为了达到操作简化和资源优化的目的,技术整合已经在数据中心中实现。

注意:

 

尽管应用虚拟化技术(如Java虚拟机JVM和SAP Netweaver景观虚拟化管理LVM)也可以在我们的分类系统提供另一个领域,但它们超出了本书的范围。如图 1-9 所示,本书的重点是针对基础设施的虚拟化技术。

这一分类系统往前更进一步,可以对每个技术领域内进行子分区内定义。因此,子分区将准确地指明在单一技术领域最常用的组件中,“哪里”正在被执行虚拟化。例如,存储虚拟化可以在以下位置执行。

在服务器技术中,虚拟化肯定会发生在计算机系统内部。然而在这些设备内,有多个组件可以被有效地部署虚拟化。

提示:

 

服务器的虚拟化将在第 13 章详细讨论。

一般来说,网络虚拟化是在网络设备上执行的(尽管在本书中对于这个陈述有显著例外)。尽管如此,这些虚拟化技术可以分布在网络平面之中,它代表着网络设备中不同的功能组件。

网络虚拟化技术可以聚合、创建或分割一个(或更多)如下平面。

图 1-10 描绘了本书所包含用于虚拟化技术的分类领域和分区。

图1-10 数据中心虚拟化技术的领域和分区

注意:

 

本书将只采用网络平面来为存储网络技术建立分区。这是因为从存储的角度来看,它们显然与分区互连相对应。此外,为了简单起见,统一计算系统(Unified Computing System,UCS)服务配置文件将被归类为服务器虚拟化技术。

下面我将示范这个分类系统是如何开展实际工作的(后文简称为虚拟化分类)。在表 1-1 中,我将使用它来对前一章节“数据中心虚拟化起源”中所描述的技术进行分组。

表1-1 根据虚拟化分类学进行虚拟化技术分类

虚拟化分类

虚拟内存

大型机虚拟化

HSRP

虚拟对象

主内存

大型机

路由器接口IP地址

类型

池化

分区

抽象

子类型

异构

资源分配

地址重映射

可扩展性

取决于实现1

取决于硬件可用性以及软件版本1

255组,每组中包含一台活动路由器以及一台备份路由器2

技术领域

存储和服务器

服务器

网络

子领域

主机(存储)硬件或操作系统(服务器)

操作系统

数据平面

优势

内存扩展和代码的可重用性

资源优化和软件兼容性

默认网关高可用性

1阿特拉斯计算机的虚拟内存最初是由16000字的主内存和96000字的辅助存储所组成。

2这些值是参考HSRP v1版本给出的。

显然,这个分类系统并不是对虚拟化技术进行分类唯一的途径。本书中主要是用来对一个技术进行分析之前,为其提供快速的可视化。

然而,作为对这个特别系统的辩护,让我指出一个事实:自瑞典植物学家 Carl Linneaeus在1735 年提出了第一个动物和植物科学分类方法,生物分类领域便陷入了没完没了的讨论和不断修正之中。因此,就像他们所分类的生命形式一样,分类法才能不断发展。希望本书提出的这一点能代表朝向更好地理解 IT 的演变迈出一小步,或者至少是一个有趣独到的见解……

在本章中,您了解到了以下几点。

Arregoces,Mauricio and Portolani,Maurizio. Data Center Fundamentals. Cisco Press,2003.

Baudrillard,Jean. Simulacra and Simulation. University of Michigan Press,1995.

Virtualization Tops CIO Priorities in 2012,www.informationweek.com/storage/virtualization/virtualization-tops-cio-priorities-in-20/232400150

Cisco on Cisco Data Center Case Study :How Cisco IT Achieves Consolidation and Standardization in the Data Center,www.cisco.com/web/about/ciscoitatwork/downloads/ciscoitatwork/pdf/Cisco_IT_Case_Study_Service_Oriented_Data_Center.pdf

Virtualization Basics,www.vmware.com/virtualization/what-is-virtualization.html

Networked Storage Virtualization,www.emc.com/collateral/software/white-papers/h1533-networked- storage-virtualization-ldv.pdf

Network Virtualization-Access Control Design Guide,www.cisco.com/en/US/docs/solutions/

Enterprise/Network_Virtualization/AccContr.html

Denning,Dr. Peter J. Before Memory Was Virtual . George Mason University,1996,http ://

cs.gmu.edu/cne/pjd/PUBS/bvm.pdf

Cisco Hot Standby Router Protocol,www.ietf.org/rfc/rfc2281.txt

Yoon,Carol K. Naming Nature :The Clash Between Instinct and Science . W.W.Norton & Company,2009.


本章节将讲述以太网协议的发展,设计数据中心以太网络的时候需要考虑的最重要因素,以及虚拟化如何在这些项目实施中克服常见的局限性。本章包含以下几个主题。

数据中心网络的主要目标是将服务器数据传输至客户端和其他服务器。很明显,数据中心是为提供数据服务而建设的,网络可以精确地定义设备的真实效率。

为了与今天数据中心环境的可靠性和成长性相配,数据库中心网络必须包含以下特征。

由于简单、廉价和可拓展性,以太网是今天应用最普遍的数据链接协议。事实上,可以毫不夸张地断言,每个数据中心机房的设备上至少有一个以太网口。而以太网接口包括了从 10Mbit/s 到100Gbit/s,这明显地体现了此协议的发展速度。

和互联网协议(Internet Protocol,IP)合作,以太网形成了数据中心网络的基础。此外,两个协议实际上都决定了过去的30年中拓扑和最优的应用如何配置。他们的局限性也驱动了技术革新,在网络虚拟化技术上得到了体现。几年来,这些帮助数据中心网络实现它的必要价值。

这一章节将集中介绍改变数据中心网络革新的主要需求和设计方案,以及在这些环境中网络虚拟化的主要动力。

以太网,以luminiferous aether 的名字命名,是一种无处不在的传输媒介,曾被认为是光信号传播的介质,于 1973 年在施乐帕洛阿尔托研究中心(Xerox Palo Alto Research Center,PARC)被构想出来。

以太网的创造者是 Robert Metcalfe 和 Dave Boggs,在 1980 年以太网脱离了实验室,在 DEC,Intel,当然也包括 Xerox 的驱动下投入了商业运用。后来,以太网协议被定义为一种让 1024 个基站使用同轴电缆以 10Mbit/s 的速率进行相互通信的网络协议。

在原版说明书中,以太网的主要目标是简单、低耗、通用、地址可变、公平、发展、高速、低延迟、稳定、可维护和分层结构。最后一个目标可以认为是以太网寿命如此之长的主要原因。协议的系统构成被分为数据链路层和物理层两部分,这将与介质相关的同轴电缆部分和与数据帧相关的部分分离开来。所以,以太网可以在自由采用新电缆和传输速率的同时保持完全一样的二层特性,例如,大小可变的帧结构,载波侦听多址访问的冲突检测技术(Carrier Sense Multiple Access Collision Detect,CSMA/CD),最大努力交付和错误检测机制。

在 1983 年,IEEE 批准了以太网的 IEEE 802.3 标准。此标准以 DIX(DEC、Intel 和 Xerox 3家公司的首字母缩写)的第 2 版本为基础,自此之后协议的传输速率不断发展,从 10Mbps(Ethenet) 至 100Mbps(Fast Ethernet)、1Gbps(Gigabit Ethernet)、10Gbps(Gigabit Ethernet)、40Gbps(40Gigabit Ethernet),甚至是 100Gbps(100 Gigabit Ethernet)。

为了描述每个物理层的特性,IEEE 创造了一种基于 3 个特性的命名方式:数字代表以 Mbps 为单位的数据传输速率,BASE 代表使用了基带信号传输,最后用一到两个字母指明所用的介质。在此方法中 10BASE-T 代表以太网基带传输速率为 10Mbps,使用双绞线进行传输。

注意:

 

除了速率的提升之外,以太网的发展也有很多工作花在了从帧交换的角度优化吞吐量上面。特别是在 20 世纪 90 年代引入的以太网交换和全双工技术,将以太网从一个冲突多发的架构转化为了高性能环境。

在以太网发展过程中,以太网的数据帧在各种各样的介质上传输过,包括无线技术甚至是带刺铁丝网。但是,服务器网络总是依赖于标准的线缆技术,包括同轴电缆、双绞电缆、光纤和最近的直连双同轴电缆。

无论是过去的或是最新的标准,仔细观察这些物理层标准有助于解释数据中心网络发展的潜在
趋势。

作为第一个标准的以太网介质,同轴电缆使用和金属屏蔽线分层的铜芯线传输数据,电缆外层被一个外部塑料罩进一步保护。

基于同轴电缆有两种不同的以太网物理层标准。

图 2-1 说明了同轴电缆线的内部结构和 10GBASE5 和 10GBASE2 的一些物理零件。在这两个标准中,在电缆两端都需要有电阻(终结器)防止信号的反射和通信损失。由于这些实行上的困难和20世纪 90 年代双绞电缆的广泛使用,同轴电缆在以太网中被认为是一种老旧的技术。虽然如此,它们仍然存在于无线电设备、有线电视分布系统和资深工程师的梦靥中。

一种在园区网和数据中心网络中都非常流行的以太网介质,双绞电缆源自于电话布线系统(实际上,它的专利拥有者就是电话之父——贝尔)。

一个双绞电缆系统是几个导体对集合,每一对都构成一个单独电路。成对的线缆相互缠绕来减少来自外部的电磁干扰(Electromagnetic Interference,EMI),包括临近双绞电缆的交叉干扰。

双绞电缆有以下两种。

图2-1 同轴电缆和以太网零件

一个双绞电缆系统通常在交换机和服务器接口采用 8 线 RJ-45 的连接器。图 2-2 描绘出了两种基本双绞电缆和 RJ-45 连接器。

图2-2 双绞电缆类型和RJ-45连接器

美国国家标准协会和电信行业协会 ANSI/TIA-568 标准详述了双绞电缆布线,除了提供综合的结构化布线原则,这些标准还依据抗干扰的性能和弱点规定了双绞电缆系统的分类。

表 2-1 详述了 ANSI/TIA-568 双绞电缆分类和支持它们的物理层标准。

表2-1 ANSI/TIA-568双绞电缆种类

名称

类型

以太网物理层1

3类线

UTP

10BASE-T 和 10BASE-T4

5类线

UTP

100BASE-TX 和 1000BASE-T

超5类线

UTP

100BASE-TX 和 1000BASE-T,10GBASE-T(55m)

6类线

UTP

10GBASE-T (55m)

6类线

STP

10GBASE-T

增强型6类线

UTP 或 STP

10GBASE-T

7类线

STP

10GBASE-T

若不作另外说明,最大距离为100m。

光纤是以二氧化硅或塑料为原料的介质,能够通过光传递信息。光纤由纤芯和包裹它的包层组成,由于它们的折射系数不同,光一进入包层就会被反射回纤芯。因此,当光进入光纤后,就被限制在纤芯内,并在包层和纤芯的边界处来回反射,沿着光纤传播。

目前制造出售的主流光纤可以分为以下两种。

图 2-3 生动地展示了光在单模和多模光纤中传播的不同。

图2-3 光传播比较

IEEE 引用了国际标准化组织和国际电工委员会 ISO/IEC 11801 光纤说明书当作以太网光通信的参考。此标准依据单位距离的传输速率将多模光纤分成 4 类(OM1、OM2、OM3 和 OM4)。OM3 和 OM4 是目前在数据中心使用最多的多模光纤,因为在相同的数据速率下它们的传输距离更长。

ISO/IEC 11801 和 24702 将单模光纤归为两类(OS1 和 OS2),随着距离衰减减小,性能则会提高。

以太网通过光纤传输的特性和对应的物理层标准如表 2-2 所示。

表2-2 光纤的以太网标准

数据传输速率

类型

物理层

最大距离1

10 Mbit/s

MMF

10BASE-F

2000m

100 Mbit/s

MMF

100BASE-FX

2000m

1 Gbit/s

MMF

1000BASE-SX

550m

1000BASE-LX

550m

1 Gbit/s

SMF

1000BASE-LX

5km

1000BASE-EX

40km

1000BASE-ZX

70km

10 Gbit/s

MMF

10GBASE-SR

400m

10GBASE-LX4

300m

10GBASE-LRM

220m

10 Gbit/s

SMF

10GBASE-LR

10km

10GBASE-ER

40km

10GBASE-ZR

80km

10GBASE-LX4

10km

40 Gbit/s

MMF

40GBASE-SR4

125m

40 Gbit/s

SMF

40GBASE-LR4

10km

100 Gbit/s

MMF

100GBASE-SR10

125m

100 Gbit/s

SMF

100GBASE-LR4

10km

100GBASE-ER4

40km

1OM4是多模光纤,OS2是单模光纤。

一个光纤系统由一或多对光纤组成,每个以太网设备收发信号使用不同的光纤。所有的以太网物理层使用一对光纤,除了 40GBASE-SR4 和 100GBASE-SR4 使用 4 对和 10 对多模光纤。

对于以太网来说,每种光纤的最大距离说明:多模光纤一般用来连接数据中心同一个机房内的设备;而单模光纤则用来连接不同的机房,甚至不同的数据中心。

和双同轴电缆一样,直连双同轴电缆与同轴电缆非常相似,只是多了一根铜导线芯。两根铜芯都被绝缘层保护起来,在一堆铜芯外面再覆盖金属导体。和双绞电缆类似,两根线芯互相缠绕来削弱外部干扰。

双同轴电缆原本由 IBM 制造出来用于短距离连接,它提供了一种划算的方式将临近机架的以太网设备相连。这些电缆通常应用在交换机或服务器的收发机房。

直连 10G 以太网双同轴电缆有增强光学收发器(Enhanced Small Form Factor Pluggable,SPF+)兼容连接器,而 40G 以太网使用增强四通道SFP收发器(Enhanced Quad Small Form Factor Pluggable,QSPF+)连接器。双同轴电缆对于这两个速率均有两个种类。

双同轴线由于很高的性价比在数据机房很受欢迎。表 2-3 详细显示了与其他介质相比双同轴电缆在 10G 以太网传输时的特性。

表2-3 10G以太网特性

技术

最大距离(m)

功率1 (W)

延迟(ms)

无源型双同轴线

5

0.1

0.1

优化型双同轴线

10

0.5

0.1

10GBASE-T

100

2.52~6.5

1.52~2.5

10GBASE-SR

400

1

0.1

1每边。

2近距模式(达30m)。

双同轴电缆还有一个额外的优势,其低误比特率(10E18)比 IEEE10G 以太网要求的误比特率(10E12)小很多。

注意:

 

尽管 2004 年 IEEE 802.3ak 第一次在双同轴电缆上使用 10G 以太网,但这一继任的方案是以无限带宽的双同轴电缆为基础。目前在 10G 以太网使用的双同轴电缆是以 SFF-8431 和 8461 为标准。

自以太网建立以来,其发展主要是为了努力保持不同运行商之间的标准完全通用,这个目标是以太网协议保证普遍性和优于其他体系,例如令牌网。

尽管以太网标准化进程有公平分享政策,对其时间轴的研究仍是一个评定过去 30 年网络工业趋势的好方法。图 2-4 以 Mbit/s为单位展示了以太网数据速率在不同介质(同轴电缆、双绞电缆和双同轴电缆)上的发展。

图2-4 以太网标准数据速率和线缆技术

从图中我们可以观察得出以下趋势。

由于光收发器的花费较高,光纤在早期用在交换机之间这种需求高传输速率的的场合。而服务器接入这样的大数量连接需要依靠低成本升级到更快的传输速率,因而双绞线和双同轴线对于这些连接是最受欢迎的。

一般来说,数据中心网络可以认为是从园区网络专门演变而来的。实际上,直到 20 世纪 90 年代晚期,公司将服务器和用户终端连接到相同网络结构并不罕见。

图 2-5 描绘出了一个我和几个客户共同见证的网络设计方案。

图2-5 平行演化

如图 2-5 左侧所示,此公司遵循了20世纪 90 年代园区网设计的三层结构(核心 - 汇聚 - 接入),其内部服务器直接连接到了园区核心。而后,关键服务器与这些交换机这样相连,也是有理由的,因为他们通常都被高度使用而放在园区网络的中心。

然而,随着服务器的不断增加和它们对公司的重要性不断提高,设计好的网络也需要不断发展。图 2-5 的右边代表在 2010 年左右客户网络的状态。在此设计方案中,一个单独的三层网络结构被设计用来连接公司服务器。尽管两个结构都会使用相似的网络设备(以太网交换机),但它们的布置和配置肯定会满足不同的需求。

不只是一个找茬游戏,桌面和服务器连通的区别可以总结为以下几点。

核心 - 汇聚 - 接入分层的数据中心网络结构浓缩了多年的网络集成经验,起源于第一个互联网服务供应商(Internet Service Providers,ISP)。由于这种分层方法增强了网络的模块性、灵活性和恢复能力,因此在多数据中心项目中已成功应用。

在此结构中,每个交换层计划为不同的通信情景提供不同的网络功能。例如,核心层为数据中心进出口通信提供传送能力。利用专属的路由特性,在密集的数据中心网络中,核心交换机提供一个可升级、灵活、能复原的结构来为多对汇聚交换机建立连接。

汇聚层原本是设计用来作为服务器 IP 子网的汇聚点,通常作为它们的默认网关和多对接入交换机间通信链路。因此,汇聚层也被认为是接入有状态网络服务的中心点,例如防火墙和服务器负载均衡器。

注意:

 

有状态网络设备根据有如 TCP 这样的协议确定的网络状态作出发送决定。相反,无状态设备仅仅根据一个包或者帧内部信息处理它们。

接入层包含的交换机必须和服务器物理相连。由于这一层处理数量最多的端口,因此它的配置通常目标是简化改善管理。由于这个原因,接入交换机通常致力于同一子网服务器直接的通信。这一设计方案决定改善了服务器间任何通信交换类型(单播、组播和广播)。

显然,核心 - 汇聚 - 接入模型并没有在地球上每一个数据中心网络中得到应用。然而,它为一些特殊环境的需求提供了一个综合的指导。例如,小数据中心也许会将核心和汇聚层压缩为一层,甚至使用园区核心交换机连接一些汇聚模块。

而服务提供商大型的数据中心可以仅在核心交换机使用路由,以便在每个服务器上出现所有的IP 子网,无论它们属于哪个汇聚模块。

设计一个数据中心网络时,网络专业人员必须考虑相关领域的因素。例如,设计必须考虑到数据中心的增长率(服务器、交换机端口、客户的数量或任何其他参数)来避免网络拓扑成为网络环境拓展的瓶颈。

应用带宽需求也是数据中心网络设计的一个重要方面。通常来说,网络专业人士会超额接受这些需求,并将其转换成更多相关元件(例如端口和交换机模块)。在通信系统中,多种元素共享公共资源,超额率是指每个用户分配到的资源和每个用户潜在能够消耗的最大资源的比值。

在数据中心网络中,超额基本是指每一层交换机可以有效提供给下游设备多少带宽。例如,如果一个接入层交换机有 32 个 10 千兆以太网服务器端口和 8 个千兆上行 10 千兆以太网接口,那么它对上行服务器流量有 4∶1 的超额率。

通过测试和微调,可以发现在每个应用程序环境支持的超额率并确定最佳的网络设计方案,以满足程序当前和未来的需求。

业务相关的决定也会影响到数据中心网络的设计,如故障范围的大小。因此,如果一个组织根本无法承受同时失去多个应用环境,那么每个 IP 子网的服务器和汇聚接入交换机的数量将不仅仅是一个技术决定的问题。

应用弹性是影响数据中心网络设计最重要的因素之一,因为它要求应用和网络现有机制的完美和谐,例如:

最后,数据中心网络的设计者应该知道在不同情况下不同因素的优先级,因为对一个因素有利会潜在对另一个有害。一个经典的例子就是汇聚层和接入层之间的连接拓扑。

图 2-6 描述了传统交换机使用的 4 种冗余设计方法。

图2-6 接入汇聚连接方案

提示:

 

汇聚层交换机上的虚线分隔开了这些设备上的交换(2层)和路由(3层)接口。

图 2-6 中的方案可分为环状和无环拓扑结构,取决于它们阻止连接损失的机制,例如生成树协议(Spanning Tree Protocol,STP)。

由于其确定性和灵活性,环状三角拓扑无疑是数据中心网络中部署最为广泛的。在本拓扑中,接入汇聚层的超额率保持不变,以防止上行链路或汇聚交换机出现故障。但是,STP 协议并没有允许所有上行链路投入使用。

相比较而言,环状矩形拓扑增加了接入层交换机的密度,因为每个接入层交换机只需要一条连接接入汇聚层(此情况在 STP 可以通过强制阻断接入交换机之间的连接来实现)。

此设计方案一个潜在缺陷是,当一个汇聚服务器或上行链路发生故障后,到汇聚层的通信超额率会翻倍。

在一个无环 U 形拓扑中,由于没有环状结构,所以没有链路被阻断,但是仍然推荐使用 STP 协议伪装连接错误。在环装矩形拓扑中,此设计方案允许每个汇聚对接入更多接入层交换机并最优化的利用上行链路。但是,无环 U 形拓扑每个 2 层范围只使用一对接入交换机(不然则会形成环路)。另外,任意一台交换机发生故障都会使整个汇聚层间 2 层通信停止(包括首跳冗余性协议 (First Hop Redundancy Protocols,FHRP) 的 hello 包)。

除了分享无环 U 形拓扑的所有优势,无环反向 U 形拓扑在一个 2 层范围内允许加入超过两台接入交换机。但是此拓扑的上行链路和汇聚层故障很复杂,因为服务器流量会产生“黑洞”。

在决定使用哪种拓扑时,需要设计师仔细权衡数据中心网络中最重要的因素。我觉得这不是个轻松的工作。

注意:

 

我会在下面几个章节讨论生成树协议以及它的延伸,在第 3 章“网络虚拟化谦逊的起点”和第 6 章“生成树欺骗”中,您将了解到一些网络虚拟化技术是专门设计用来从多设计方案中得到优点、规避缺点的。

选择一个正确的逻辑拓扑并不是数据中心网络设计的结束。网络设备和服务器的物理构造确实影响这些结构的效果。图 2-7 作为例证展示了两种流行的数据中心针对机架可安装服务器的物理接入设计方案。

图2-7 服务器连接模型

顶架式(Top-of-Rack,ToR)和列端式(End-of-Row,EoR)的设计代表了接入服务器和交换机是如何互连的。它们对整个中心的线缆系统有直接影响。

顶架式(ToR)的设计是基于内机架式服务器和小交换机之间的布线,可以将服务器安装在一个机架中。而这些设计方案减少了布线,优化了网络设备的使用空间,从而让网络团队可以去管理更多数量的设备(每个机架两台设备,如图 2-7 所示)。

另一方面,列端式(EoR)设计是基于服务器直接的机架间布线和高密度成列安装的交换机作为服务器机架。相比较而言,列端式减少了网络设备数量并优化了设备端口的效用,但是其在活动地板下或者电缆槽内有大量的水平线缆。

如果您问“哪个更好呢?”,那么正确的回答是模糊的“看情况”。实际上,最好的设计方案选择是根据每个机架的服务器数量、连接速率、预算和运行复杂度而定。

注意:

 

我会更详细地讨论顶架式和列端式设计方案(和它们的变体)。第 7 章“带阵列扩展器的虚拟化机箱”会展现一种能让用户享受到两种技术方案优点的虚拟化技术。

此标准是 2005 年由电信行业协会的 TR-42 工程委员会发表,EIA/TIA-942 电信数据中心基础设施标准为数据中心的设计和安装提供了非常有用的指导方针。

协议以灵活性、可拓展性、可靠性和数据中心项目的空间管理为目标,规定了一个数据中心的分等级的可靠性分类,并阐述了重要的环境问题。

特别的,ANSI/TIA-942-2005 也提供了线缆布置和空间布局的最佳实例。有关这些主题,标准定义以下空间和结构化布缆元素。

ANSI/TIA-942-2005 标准推荐在骨干线缆上使用分层星形拓扑,在不同区域使用交叉连接(允许非星形配置,但水平分布区之间不能有连接)。标准同时提倡将主要分布区放置在数据中心的地理几何中心来最小化布线距离。

水平布缆也同样推荐使用星形拓扑,但是不强制使用交叉连接。对于水平线缆和骨干线缆,标准建议的最大距离是双绞电缆 90m,光纤 300m。

图 2-8 展示了如何标准地规划一个数据中心网络。

图 2-8 同样描绘出了用传统的三层结构放置交换机的方式,可以设想核心和列端式汇聚交换机都可以放置在主要分布区,以接入数据中心的其他区域。列端式接入交换机通常放置在水平分布区而水平线缆则对应部署在设备分布区。列端式设备分布区的以太网水平电缆可以是双绞电缆或者光纤(当然,根据服务器接入速率,功率资源和预算而定)。

顶架式的汇聚层交换机可以放置于平行分布区域,因为接入交换机会占用设备分布区域的机架。在这些设计方案中,骨干和水平线缆(在设备分布区和水平分布区之间)为了作出有远见的线缆投资,都预先采用了光纤。而机架内部的线缆由于混杂的特性能够更快地适应服务器环境。

这些 ANSI/TIA-942-2005 中的数据中心通信基础设施标准的内容,是在经过电信行业协会(www. tiaonline.org)书面允许之后重现的。所有的标准都有可能被修订,鼓励大家检查任何标准变化,并应用可能发布的最新标准版本。

图2-8 数据中心典型拓扑和以太网设备的放置

网络虚拟化技术可以集合两种矛盾设计的优点,从而可以使得它们的缺点最小化。通过“网络技术的虚拟化”,您会看到一些巧妙的、解决不同问题的技术。

数据中心网络整合是一个明确的趋势,考虑到任何网络都在改善目标连接,这是一个常识性的问题,那就是多个物理网络是花费更高,通信基本设施难以构架和管理。

在统一数据中心网络中,资源(如端口和传输容量)可以实现最大化利用。然而,网络分区有很强的推动力,如不同的安全区域和多租户技术的实现。

虚拟化可以通过逻辑分区技术把这两个概念综合在一起,如图 2-9 所示。

图2-9 网络划分

如图 2-9 所示,3 个不同的物理网络被合并在一个基础设施中并分割成虚拟区域。数据中心网络资源可以使用不同的虚拟技术通过不同的特点来部署虚拟分区。接下来的章节将讨论这些特殊的
技术。

生成树协议(Spanning Tree Protocol,STP)设计用以避免以太网网络环路的一个网络标准。然而阻止环路的方式是基于端口阻塞,这导致网络资源不能充分利用,并产生一个相当具有挑战性的实施计划。

网络虚拟化创造了将物理连接和设备转化成更为简单的逻辑实体的可能性,促进了资源的利用并减少了设计的复杂性。这些包括如下技术。

这些虚拟技术将会在第 6 章中详细介绍。

阵列扩展器(Fabric Extender,FEX)是一种依靠父交换机工作的网络设备。然而,它们是一种能够利用架顶式和列端式物理层接入的优点的虚拟分布机架的远程线卡。

交换矩阵的虚拟化部署将在第 7 章讨论。

网络的虚拟化同样也能够被用于通过多协议标签交换( Multiprotocol Lable Switching,MPLS) 或 IP 网络连接第二层网络。摒弃昂贵的光纤物理连接,利用虚拟化技术,如 MPLS 上的以太网服务(Ethernet over MPLS,EoMPLS)、虚拟专用局域网服务(Virtual Private LAN Service,VPLS) 和层叠传输虚拟化(Overlay Transport Virtualization,OTV)来模仿以太网网络组件,使工作负载在服务器集群和数据中心站点迁移。

这些仿真技术,还有第二层网络其他方面的拓展,将会在第 8 章“两个数据中心的传说”中详细介绍。

在本章中,您了解到了以下这些内容。

Moreno,Victor. Reddy,Kumar. Network Virtualization. Cisco Press,2006.

IEEE Standards Association,445 Hoes Lane,Piscataway,NJ 08854-4141 USA

http ://standards.ieee.org

Telecommunications Industry Association(TIA),1320 N. Courthouse Road,Suite200,Arlington,VA 22201 USA, www.tiaonline.org


相关图书

运营商数据中心网络架构与技术
运营商数据中心网络架构与技术
国之重器出版工程 金融数据中心网络架构与技术
国之重器出版工程 金融数据中心网络架构与技术
Linux虚拟化数据中心实战
Linux虚拟化数据中心实战
软件定义数据中心:Windows Server SDDC技术与实践
软件定义数据中心:Windows Server SDDC技术与实践
CCNA学习指南:数据中心(640-911)
CCNA学习指南:数据中心(640-911)
策略驱动型数据中心——ACI技术详解
策略驱动型数据中心——ACI技术详解

相关文章

相关课程