VMware vSAN超融合企业应用实战

978-7-115-52870-4
作者: 王春海
译者:
编辑: 王峰松

图书目录:

详情

《VMware vSAN超融合企业应用实战》以vSphere 6.7.0 U2为例介绍VMware vSphere虚拟化产品与VMware超融合技术vSAN的内容,包括产品选型、安装配置、运行维护、迁移升级等4个阶段的内容。 本书采用循序渐进的编写方法,介绍了大量先进的虚拟化应用技术,步骤清晰、讲解细致,非常易于读者学习和快速掌握。 本书既可供虚拟机技术爱好者、信息中心技术人员、企业和网站的网络管理员、计算机安装及维护人员、软件测试和开发人员、高校师生等参考,也可作为培训机构的教学用书。

图书摘要

版权信息

书名:VMware vSAN超融合企业应用实战

本书由人民邮电出版社发行数字版。版权所有,侵权必究。

您购买的人民邮电出版社电子书仅供您个人使用,未经授权,不得以任何方式复制和传播本书内容。

我们愿意相信读者具有这样的良知和觉悟,与我们共同保护知识产权。

如果购买者有侵权行为,我们可能对该用户实施包括但不限于关闭该帐号等维权措施,并可能追究法律责任。

著    王春海

责任编辑 王峰松

人民邮电出版社出版发行  北京市丰台区成寿寺路11号

邮编 100164  电子邮件 315@ptpress.com.cn

网址 http://www.ptpress.com.cn

读者服务热线:(010)81055410

反盗版热线:(010)81055315

本书以vSphere 6.7.0 U2为例介绍VMware vSphere虚拟化产品与VMware超融合技术vSAN的内容,包括产品选型、安装配置、运行维护、迁移升级等4个阶段的内容。

本书采用循序渐进的编写方法,介绍了大量先进的虚拟化应用技术,步骤清晰、讲解细致,非常易于读者学习和快速掌握。本书既可供虚拟机技术爱好者、信息中心技术人员、企业和网站的网络管理员、计算机安装及维护人员、软件测试和开发人员、高校师生等参考,也可作为培训机构的教学用书。

VMware vSAN是一个优秀的产品,该产品与VMware ESXi紧密结合并集成在VMware ESXi Hypervisor中,可以将服务器本地存储硬盘通过网络组成共享的软件分布式存储,具有安装配置简单、性能优秀、管理维护方便等一系列优点,适合VMware vSphere虚拟化数据中心使用。VMware vSAN具有以往高端存储才支持的存储镜像、存储双活技术,VMware vSAN还支持存储的在线扩容与收缩,是一个可以进行分布式扩展或收敛的软件存储产品。本书以VMware vSAN所支持的特有功能为基础,介绍适合于中小型企业的双机双热备系统,适用于大中型企业的标准vSAN群集与基于vSAN延伸群集的双活数据中心的组建。

一个完整的虚拟化项目应该包括产品选型、安装配置、运行维护、迁移升级4个阶段,各阶段主要内容如下。

(1)产品选型阶段。在这个阶段,根据用户的需求、现状、预算、场地等情况,为用户选择合适的软、硬件产品。软件包括虚拟化软件、备份与运维管理软件,硬件包括服务器(品牌、CPU、内存、硬盘、网卡等)、网络设备(交换机、路由器、网络安全设备、存储等)。这一阶段通常持续数周或数月时间。

(2)安装配置阶段。当软、硬件产品到位之后,根据企业的现状进行物理与逻辑的规划。所谓物理的规划包括网络机柜以及服务器与网络设备的排列与摆放、服务器各端口与网络设备的连接关系,以及交换机、路由器、防火墙等网络设备各端口的划分,这些都要一一规划到位。逻辑的规划是指网络流量与IP地址的规划,包括为ESXi与vCenter Server管理分配单独的IP地址段,为vSAN管理流量、vCenter Server HA流量、FT流量、vMotion流量规划单独的VLAN等。在规划之后需要安装ESXi、vCenter Server、vSAN等,之后还要进行虚拟化环境配置,这包括虚拟交换机配置,添加端口组、准备模板、在虚拟机中安装操作系统等基础操作。这一阶段一般在2~5个工作日内完成。

(3)运行维护阶段。该阶段又分以下几个阶段。

初期——在虚拟化环境安装配置完成后的初期,需要将当前环境中(要迁移的)物理机迁移到虚拟机中运行,不适合迁移或不需要迁移的应用,按照1:1的比例创建对应的虚拟机。这一阶段视需要迁移的物理机类型及数据量可能持续几天或数十天不等。通常情况下,在实施物理机到虚拟机迁移的时候,在吉比特网络环境中,每小时可以迁移约100GB的数据。

备份——等所有系统都迁移到虚拟化环境之后,需要对重要的虚拟机进行备份。可以根据不同的需求创建不同的备份策略。在运维开始后,对于备份任务,应该每个月进行一次恢复操作,以便验证备份是否可用。

运维检查——项目交接之后,管理员应该定期对整体环境进行检查,这包括每天登录运维平台检查状况、每周至少一次去服务器前查看硬件设备是否有警报等。可以通过安装运维软件提高运维管理水平。

补丁安装——vSphere官网每月定期发布补丁,管理员可以登录https://my.vmware.com网站检查并下载补丁,并视情况决定是否进行安装。对于纯内网的vSphere环境,一般不需进行安装。只有在有重大的安全补丁或者需要新的功能时才需要安装。

(4)迁移升级阶段。一个虚拟化环境在设计的时候,一般能满足当前企业3~5年的需求,产品的设计寿命一般不超过5年。在第6年开始就需要进行迁移升级,此时需要采购新的服务器,将现有的虚拟化环境及虚拟机迁移到新的服务器及新的网络环境中,旧的服务器及对应的网络设备下架。

从上述介绍可以看到,组建与维护vSphere数据中心是一个综合、系统的工程,这需要对服务器的配置与服务器数量、存储的性能与容量,以及接口、网络交换机等方面进行合理的选择。

vSphere数据中心构成的三要素包括服务器、存储、网络。其中,服务器与网络这些年变化不大,主要是存储的选择。在vSphere 6.0及其之前版本,传统的vSphere数据中心普遍采用共享存储,一般优先选择FC接口,其次是SAS及基于网络的iSCSI接口。在vSphere 6.0推出后,还可以使用普通的x86服务器基于服务器本地硬盘通过网络组成的vSAN存储。

简单来说,一名虚拟化系统工程师,除了要了解硬件产品的参数、报价外,还要根据用户的需求,为用户进行合理的选型。并且在硬件到位之后,要进行项目的实施(安装、配置等),在项目完成之后,要将项目移交给用户,并对用户进行简单的培训。在整个项目正常运行的生命周期(一般的服务器虚拟化等产品为4~6年)内,能让项目稳定、安全、可靠地运行,并且在运行过程中,能解决用户遇到的大多数问题,并能对系统故障进行分析、判断、定位与解决。

本书面向虚拟化系统集成工程师,对使用vSAN的VMware虚拟化数据中心的规划、硬件选型、常用服务器RAID配置进行了介绍,并对VMware虚拟化产品的安装、从物理机到虚拟机的迁移、虚拟化环境中虚拟机的备份与恢复、vSphere的运维管理等内容进行了介绍。本书一共12章,各章内容介绍如下。

第1章,VMware虚拟化基础知识。介绍了vSAN基础知识、vSAN功能与主要特点,以及vSAN不同版本的功能差异等内容。

第2章,vSphere虚拟化数据中心产品选型。介绍了服务器、存储、交换机的选型,以及用于vSAN主机的产品选型,还介绍了vSphere版本与客户端的选择、ESXi引导设备的选择等内容。

第3章,安装VMware ESXi 6.7。介绍了vSphere产品与版本、在VMware Workstation虚拟机中安装ESXi系统、在普通PC中安装ESXi系统、定制RTL8111网卡驱动程序到ESXi安装程序中等内容。还介绍了ESXi控制台设置、修改管理员密码、配置管理网络、恢复系统配置等内容。

第4章,vSAN项目中RAID卡与交换机配置。本章以联想x3650 M5、联想x3850 X6、H3C 6900等服务器为例介绍了用于vSAN的RAID配置,以华为S5700、S6720系列交换机为例介绍了用于vSAN项目中交换机堆叠、MTU配置等内容。

第5章,单台主机组建vSAN。介绍了在只有一台主机的情况下,通过强制置备方式部署vCenter Server Appliance并同时配置vSAN群集的内容。本章还介绍了vCenter Server首要配置、安装VMware虚拟机远程控制台、在虚拟机中安装操作系统、从模板中置备虚拟机等内容。

第6章,组建标准vSAN群集。这是本书的重点内容,介绍了生产环境中标准vSAN延伸群集的安装配置、分布式交换机、启用vSAN群集、向标准vSAN群集中添加磁盘组等内容。重点介绍了虚拟机存储策略、为生产环境配置业务虚拟机、vCenter Server Appliance的备份与恢复、vSAN日常检查与维护、vCenter Server权限管理、重新安装vSAN群集中的ESXi主机等内容。

第7章,从物理机迁移到虚拟机。介绍了在实施虚拟化的过程中如何配置虚拟化主机、如何从物理机迁移到虚拟机(使用vCenter Converter)。还介绍了在使用Converter迁移物理机失败后,使用Veritas System Recovery的备份与恢复功能实现从物理机迁移到虚拟机的操作内容。

第8章,虚拟机备份与恢复。这也是本书的重点内容,介绍了使用Veeam Backup & Replication备份与恢复虚拟机、虚拟机复制与灾难恢复等内容。还介绍了使用Veeam Backup & Replication处理故障的操作内容。

第9章,使用vSAN延伸群集组建双机热备系统。介绍了使用1台管理与见证主机、2台节点主机组成虚拟化双机热备系统,在虚拟化层实现双机双热备的系统。

第10章,使用vSAN延伸群集组建双活数据中心。介绍了基于vSAN延伸群集组成双活数据中心的内容。还介绍了vSAN双活数据中心网络规划、为双活数据中心虚拟机配置PFTT与SFTT策略等内容,最后通过实验对vSAN双活数据中心进行了验证。

第11章,企业虚拟化应用案例记录。介绍了4个标准vSAN群集、1个2节点直连vSAN延伸群集的应用案例。这里面有使用1 Gbit/s网络的高校vSAN群集案例,也有企业环境中10 Gbit/s网络的vSAN群集案例,也有全闪存架构的vSAN案例,还有Horizon虚拟桌面、基于2节点直连vSAN延伸群集组成的双机热备系统的应用案例。

第12章,vSphere升级与维护。介绍了VMware vSphere产品的升级以及部分vSphere或vSAN的故障与解决方法,还介绍了常用的vSphere esxcli命令。

尽管撰写本书时,我们精心设计了每个场景、案例,已经考虑到一些相关企业的共性问题,但就像天下没有完全相同的两个人一样,每个企业都有自己的特点,都有自己的需求。所以,这些案例可能并不能完全适合你的企业,在实际应用时需要根据企业的情况进行变动。

作者写书的时候,都会尽自己最大的努力来完成,但有些技术问题,尤其是比较难的问题,落实到书面上的时候,读者阅读时看一遍可能会看不懂,这需要多思考多实践。

本书作者王春海,1993年开始学习计算机,1995年开始从事网络方面的工作。曾经主持过河北省国家税务局和地方税务局、石家庄市铁路分局的广域网(全省范围)组网工作,近几年一直从事政府部门等单位的网络升级、改造与维护工作,经验丰富,在多年的工作中,解决过许多疑难问题。

从2000年最初的VMware Workstation 1.0到现在的VMware Workstation 15.0,从VMware GSX Server 1到VMware GSX Server 3、VMware Server、VMware ESX Server再到VMware ESXi 6.7,作者亲历过每个产品的各个版本的使用。作者从2004年即开始使用并部署VMware Server(VMware GSX Server)、VMware ESXi(VMware ESX Server),已经为许多地方政府、企业成功部署并应用至今。

早在2003年,作者即编写并出版了虚拟机方面的图书专著《虚拟机配置与应用(完全手册)》,近期出版的图书有《VMware vSphere 6.5企业运维实战》《深入学习VMware vSphere 6》,分别介绍了vSphere 6.5与vSphere 6.0的内容,有需要的读者可以选用。

此外,作者还熟悉Microsoft系列虚拟机、虚拟化技术,熟悉Windows操作系统,熟悉Microsoft的Exchange、ISA、OCS、MOSS等服务器产品。同时,作者是2009年度Microsoft Management Infrastructure方向的MVP(微软最有价值专家),2010—2011年度Microsoft Forefront(ISA Server)方向的MVP,2012—2015年度Virtual Machine方向的MVP,2016—2018年度 Cloud and Datacenter Management方向的MVP。

由于作者水平有限,并且本书涉及的系统与知识点很多,尽管作者力求完善,但仍难免有不妥和疏漏之处,诚恳地期望广大读者和各位专家不吝指教。作者的电子邮箱为wangchunhai@ wangchunhai.cn,个人QQ为2634258162,个人博客为http://blog.51cto.com/wangchunhai。

如果读者遇到了问题,可以通过网络搜索作者的名字,再加上问题的关键字,一般能找到作者写的相关文章。例如,在百度网站上搜索“王春海 DNS”“王春海 多出口”等关键字可以找到作者写的相关文章。

如果需要相关视频,读者可以浏览http://edu.51cto.com/lecturer/user_id-225186.html。购买本书的读者可以7折优惠购买相关视频,请直接通过QQ联系作者获得优惠券。

最后,谢谢大家,感谢每一位读者!你们的认可是作者写作的最大的动力!

王春海

2019年9月

本书由异步社区出品,社区(https://www.epubit.com/)为您提供相关资源和后续服务。

本书提供如下资源:

要获得以上配套资源,请在异步社区本书页面中单击,跳转到下载界面,按提示进行操作即可。注意:为保证购书读者的权益,该操作会给出相关提示,要求输入提取码进行验证。

作者和编辑尽最大努力来确保书中内容的准确性,但难免会存在疏漏。欢迎您将发现的问题反馈给我们,帮助我们提升图书的质量。

当您发现错误时,请登录异步社区,按书名搜索,进入本书页面,单击“提交勘误”,输入勘误信息,单击“提交”按钮即可,如下图所示。本书的作者和编辑会对您提交的勘误进行审核,确认并接受后,您将获赠异步社区的100积分。积分可用于在异步社区兑换优惠券、样书或奖品。

我们的联系邮箱是contact@epubit.com.cn。

如果您对本书有任何疑问或建议,请您发邮件给我们,并请在邮件标题中注明本书书名,以便我们更高效地做出反馈。

如果您有兴趣出版图书、录制教学视频,或者参与图书翻译、技术审校等工作,可以发邮件给我们;有意出版图书的作者也可以到异步社区在线提交投稿(直接访问www.epubit.com/selfpublish/submission即可)。

如果您是学校、培训机构或企业用户,想批量购买本书或异步社区出版的其他图书,也可以发邮件给我们。

如果您在网上发现有针对异步社区出品图书的各种形式的盗版行为,包括对图书全部或部分内容的非授权传播,请您将怀疑有侵权行为的链接发邮件给我们。您的这一举动是对作者权益的保护,也是我们持续为您提供有价值的内容的动力之源。

“异步社区”是人民邮电出版社旗下IT专业图书社区,致力于出版精品IT技术图书和相关学习产品,为作译者提供优质出版服务。异步社区创办于2015年8月,提供大量精品IT技术图书和电子书,以及高品质技术文章和视频课程。更多详情请访问异步社区官网https://www.epubit.com。

“异步图书”是由异步社区编辑团队策划出版的精品IT专业图书的品牌,依托于人民邮电出版社近30年的计算机图书出版积累和专业编辑团队,相关图书在封面上印有异步图书的LOGO。异步图书的出版领域包括软件开发、大数据、AI、测试、前端、网络技术等。

异步社区

微信服务号

企业和事业单位的信息化建设,随着业务数量的增加以及数据的增长,经过了传统数据中心、虚拟化数据中心到云数据中心的历程。了解数据中心的变化对学习理解vSAN有比较重要的意义。本章先从数据中心的演进开始介绍,然后介绍虚拟化与vSAN的相关知识。

任何企业的信息化建议都是从无到有、从小到大、从简单到复杂,与之对应的是设备的增加、网络规模的扩大。对于管理人员来说,无论是设备的数量,还是从运维的角度来看,所有的一切都在发生着变化。

企业的应用初期可能只有一两个业务系统,例如OA(办公自动化系统)、门户网站,后来随着企业信息化程度的提升,可能会增加HR(人力资源管理系统)、财务管理系统、ERP(企业资源计划管理系统)、MES(制造执行系统)、知识管理系统、物流管理系统,如果某个业务系统访问量较大,在服务器前端还会增加负载均衡设备等。

在开始规划实施这些信息化系统的时候,大多数企业都是将应用安装在物理服务器中,一般情况下一台服务器“跑”一个应用,例如OA安装在一台服务器中,门户网站安装在一台服务器中,ERP安装在一台服务器中。在后期如果企业的服务器负载重,一个应用可能会配“一组”服务器,这一组服务器包括数据库服务器、应用服务器、备份服务器,应用服务器可能会配至少两台,再在两台应用服务器前配置一个负载均衡设备。

这样经过几年的信息化建设,再看企业的数据中心机房,可能有好几个机柜,每个机柜里面少到三四台,多到七八台的服务器。图1-1-1是某企业数据中心机房的一组机柜。

图1-1-1 某企业数据中心机房服务器机柜

传统的数据中心机房的主要特点是“专机专用”,每台服务器只跑一个业务,一般服务器也没有备份服务器。如果某台服务器出现故障导致服务器不能使用,在服务器修好之前业务系统是停止的,只能等待服务器修好之后才能继续使用。在传统的数据中心中,管理员可以明确地知道,哪个业务系统运行在哪个机柜的哪台服务器中。这些服务器因为运行的业务单一,所以服务器配置较低,例如一些服务器配置了1个型号为E5-2603的CPU、16GB内存、3块300GB的硬盘做RAID-5。即使服务器配置很低,但由于业务单一,所以服务器工作时CPU的利用率普遍都在3%~5%,内存使用率在40%以下,硬盘使用空间一般不到一半,这实际造成了很大的资源浪费。表1-1-1是某企业服务器资源使用记录清单(记录时间:2018年12月,10—11时。表中“操作系统”一列为服务器所安装的Windows Server操作系统的版本号)。

表1-1-1 某企业服务器资源使用记录清单

序号

操作系统

设备型号

CPU型号

内存/GB

硬盘配置

CPU使用率

已用内存/GB

已用硬盘空间/GB

1

2008 R2

IBM x3650 M4

E5-2620

32

6块300GB

1%

5.83

129.30

2

2008 R2

IBM x3850 X5

E7-4820

64

4块300GB

2%

21.20

770.20

3

2008 R2

IBM x3650 M4

E5-2620

32

4块300GB

5%

4.31

84.95

4

2003 R2

IBM x3650 M4

E5-2620

8

4块600GB

1%

2.90

17.11

5

2008 R2

Dell R430

E5-2603

16

4块HDD

1%

13.40

81.00

6

2008 R2

IBM x3850 X5

E7-4820

64

4块300GB

1%

14.00

467.80

7

2008 R2

IBM x3850 X5

E7-4820

64

3块1TB

1%

8.61

1344.70

8

2008 R2

IBM x3850 X5

E7-4820

64

4块300GB

1%

38.60

383.20

9

2008 R2

IBM x3850 X5

E7-4820

32

4块300GB

1%

22.80

157.70

10

2012

IBM x3650 M4

E7-4820

32

3块300GB

2%

7.94

156.99

11

2003 R2

IBM x3650 M4

E5-2650

32

4块600GB

4%

5.87

764.63

12

2008 R2

IBM x3850 X5

E7-4820

64

4块300GB

1%

14.20

28.99

13

2008 R2

IBM x3850 X5

E7-4820

64

4块300GB

1%

6.09

97.10

14

2003

IBM x3650 M4

E7-4807

8

6块146GB

1%

5.20

288.90

15

2003

IBM x3800

Xeon MP

4

4块730GB

1%

1.48

35.86

16

2008 R2

RH5885 V3(4U)

E7-4830 V4

32

6块300GB

1%

5.40

299.10

17

2008 R2

RH5885 V3

E7-4830 V4

32

2块600GB

1%

6.04

47.94

18

2008 R2

RH5885 V3

E7-4830 V4

64

2块600GB

1%

42.50

200.36

19

2008 R2

RH5885 V3

E7-4830 V4

32

8块1.2TB

1%

4.15

51.44

20

2008 R2

RH5885 V3

E7-4830 V4

32

8块1.2TB

1%

6.30

41.85

21

2008 R2

RH5885 V3

E7-4830 V4

32

2块600GB

1%

4.26

42.25

22

2008 R2

RH5885 V3

E7-4830 V4

32

2块600GB

1%

4.22

41.67

23

2008 R2

RH5885 V3

E7-4830 V4

64

6块600GB

1%

8.44

882.77

24

2012

NF8460M3(4U)

E7-4820

64

3块300GB

1%

3.50

25.26

25

2012

NF8460M3(4U)

E7-4820

64

3块300GB

1%

4.00

46.05

26

2012

NF5270M3(1U)

E5-2650

64

3块300GB

1%

4.00

18.08

27

2012

NF5270M3

E5-2650

64

3块300GB

1%

3.50

19.42

28

2012

NF5270M3

E5-2650

64

3块300GB

1%

4.00

22.47

29

2012

NF5270M3

E5-2650

64

3块300GB

1%

3.70

22.36

30

2012

NF5270M3

E5-2650

64

3块300GB

1%

3.90

22.07

31

2012

NF5270M3

E5-2650

64

3块300GB

1%

5.10

23.86

32

2012

IBM x3850 X6

E7-4809

32

4块600GB

1%

2.09

16.19

33

2012

IBM x3850 X6

E7-4809

32

4块600GB

1%

2.60

18.34

34

2003

IBM x3650 M2

Xeon X5570

4

1块146GB

1%

1.20

174.30

35

2003

IBM x3650 M3

E5507

4

3块146GB

1%

1.72

228.16

36

2008 R2

IBM x3850 X5

E7-4820

4

5块300GB

1%

0.99

928.80

37

2003

Dell R420

E5-2403

32

2块600GB

1%

7.94

6688.52

38

2003

IBM x3650 M3

E5507

4

3块300GB

1%

1.60

204.40

39

2003

IBM x3650 M3

E5507

4

3块300GB

1%

1.72

189.80

40

2003

IBM x3650 M4

E5-2650

32

5块300GB

1%

5.87

720.00

41

2003

IBM x3650 M4

E5-2650

32

5块300GB

1%

6.08

252.00

42

2003

IBM x3850 X5

E7-4820

32

5块300GB

1%

1.92

240.00

合计

 

 

 

1624

 

 

319.17

16275.89

该企业还有3台存储服务器,总配置空间约22TB,实际使用2.75TB。从表1-1-1可以看出,该企业现在使用了42台服务器,一共配置了1624GB内存,内存合计使用约320GB,硬盘合计使用约16TB,加上存储服务器使用的2.75TB,实际使用约18.75TB。大多数服务器的CPU使用率在1%~3%,内存使用率在20%以内,硬盘使用空间在50%以下。从资源配置来看,整个系统负载较轻,浪费比较严重。

如果使用传统的模式,随着企业信息化程度的继续增加,企业新上业务系统,以及对现有业务系统进行升级,还需要继续配置新的服务器。使用虚拟化技术可以减少物理服务器数量,提高服务器、存储的利用率。

传统数据中心的优点和缺点一样明显。优点是:服务器分工明确,业务单一。管理员明确知道哪个业务运行在哪一台服务器上,如果业务系统出现问题,可以直接定位所在的服务器并进行查找。大多数服务器之间没有关联,一般情况下,某台服务器出现故障不会影响到其他的服务器。缺点是:没有冗余。如果某台服务器由于硬件问题导致服务器无法运行,在服务器修好之前,业务系统无法上线提供服务,除非有同型号冷备服务器,但这样势必给企业增加运营成本。所以现在越来越多的传统数据中心被采用虚拟化技术的数据中心代替。单一业务应用中物理主机CPU、内存使用率较小是服务器虚拟化的基础。

虚拟化的三要素是计算、存储、网络。计算是指CPU与内存资源;存储是指虚拟机保存在何种位置,通常保存在服务器本身(称为本地存储),与服务器通过光纤、SAS线或网线连接的共享存储(称为共享存储),vSAN存储(使用服务器本地硬盘通过以太网组成的分布式软件共享存储,后文会详细介绍);网络包括管理虚拟化主机的管理网络、用于虚拟机对外提供服务的虚拟机流量网络以及虚拟化环境中其他应用的网络(例如vMotion、FT、置备流量、vSAN等)。

在服务器虚拟化应用的初期,服务器配置多块硬盘,使用RAID-5、RAID-10、RAID-50或其他RAID方式配置硬盘,主机安装Windows或Linux操作系统,再在操作系统中安装虚拟机软件,例如VMware GSX Server或VMware Workstation,在一台物理主机上提供多台虚拟机,这是最初的服务器虚拟化方式。在这种情况下,一台主机可以作为多台主机对外提供服务,减少了物理服务器的数量,为企业节省了资金。

随着企业虚拟化技术的发展,VMware推出了vMotion技术,在使用共享存储的前提下,正在运行的虚拟机可以在很短的时间内(一般在几十秒到1、2分钟之内)从一台主机迁移到另一台主机,迁移期间应用不中断,这保证了业务系统运行的连续性。从此之后,在虚拟化环境中使用多台主机加共享存储成为主流。

VMware在vMotion的基础上推出了Storage vMotion技术,使用该技术,虚拟机在运行的前提下,可以将虚拟机及虚拟机数据从一台主机的存储迁移到另一台主机的另一个存储。在迁移期间应用不中断、数据不丢失。但这种存储迁移的时间较长,只是在系统迁移或维护期间进行此类操作,大多数情况下还是使用vMotion技术将虚拟机在不同主机之间进行迁移。

在实施虚拟化的过程中,要根据企业的需求、预算等实际情况,为企业选择适合的方案。例如企业规模较小,采用单台服务器即可满足需求的情况下,使用一台服务器、使用服务器本地硬盘实施虚拟化;对于中小企业,当虚拟机数量在10~30台时,可以采用2~3台主机、1台共享存储实施虚拟化;对于较大企业,当虚拟机数量在50台以上,并且对存储的性能、容量要求较高时,推荐使用vSAN架构实施虚拟化。下面分别介绍使用共享存储的服务器虚拟化和使用vSAN存储的服务器虚拟化。

组建VMware虚拟化数据中心有两种主流架构。一种是使用共享存储的传统架构,如图1-3-1所示;另一种是基于vSAN无共享存储的架构(超融合架构),如图1-3-2所示。

图1-3-1 使用共享存储传统架构

简单来说,在传统的vSphere数据中心组成中,物理主机不配置硬盘(从存储划分LUN启动)或配置较小容量的硬盘,或者每台服务器配置一个2GB左右的U盘或SD卡用来安装

图1-3-2 使用vSAN存储的超融合架构

ESXi系统,虚拟机则保存在共享存储(这也是vMotion、DRS、DPM的基础)中。传统数据中心的共享存储很容易成为一个“单点故障”及一个“速度瓶颈”节点,为了避免从物理主机到存储连接(包括存储本身)出现故障,一般从物理主机到存储、存储本身都具备冗余,无单点故障点或单点连接点。这表现在以下方面。

(1)每台存储配置2个控制器,每个控制器有2个或更多的接口,同一控制器的2个不同接口分别连接2台独立的交换机(FC交换机或SAS交换机)。

(2)每台服务器配置2块HBA接口卡(或2端口的HBA接口卡),每块HBA接口卡连接1台单独的存储交换机。

(3)存储磁盘采用RAID-5、RAID-6、RAID-10或RAID-50等磁盘冗余技术,并且在存储插槽中还有全局热备磁盘,当磁盘阵列中出现故障磁盘时,使用热备磁盘代替故障磁盘。

(4)为了进一步提高可靠性,还可以配置2个存储,使用存储厂商提供的存储同步复制或镜像技术,实现存储的完全复制。

为了解决“速度瓶颈”问题,一般存储采用8 Gbit/s或16 Gbit/s的FC接口、6 Gbit/s或12 Gbit/s的SAS接口。也有提供10 Gbit/s iSCSI接口的网络存储,但在大多数传统的vSphere数据中心中,一般采用光纤存储。在小规模的应用中,可以不采用光纤存储交换机,而是将存储与服务器直接相连,当需要扩充更多主机时,可以添加光纤存储交换机。

在超融合架构(vSAN架构)中不配备共享存储,采用服务器本地硬盘组成“磁盘组”。磁盘组中的磁盘以RAID-0、RAID-5、RAID-6的方式保存数据,服务器之间通过网络实现类似RAID-10、RAID-50、RAID-60的整体效果。多台服务器的多个磁盘组共同组成可以在服务器之间“共享”的vSAN存储。每台虚拟机都被保存在某台主机的1个或多个磁盘组中,并且至少有1个完整的副本保存在其他主机的1个或多个磁盘组中,每台虚拟机在不同主机的磁盘组中的数据是使用“vSAN流量”的VMkernel进行同步的,vSAN架构中使用的vSAN流量推荐采用10 Gbit/s网络。

在vSAN架构中,每台虚拟主机可以提供1~5个磁盘组,每个磁盘组至少1块SSD用作缓存磁盘,1块HDD或1块SSD用作容量磁盘。推荐每台主机不少于2个磁盘组,每组1块SSD、4~7块HDD或SSD。通过软件定义、网络组成的vSAN共享存储,整体效果相当于RAID-10、RAID-5、RAID-6或RAID-50、RAID-60。

从图1-3-1与图1-3-2可以看出,无论是使用传统架构的数据中心还是使用vSAN架构的数据中心,用于虚拟机流量的“网络交换机”可以采用同一个标准进行选择。

物理主机的选择,在传统架构中,可以不考虑或少考虑本机磁盘的数量;如果采用vSAN架构,则尽可能选择支持较多盘位的服务器。物理主机的CPU、内存、本地网卡(网络适配器)等其他配置,选择方式相同。

传统架构中需要为物理主机配置FC或SAS HBA接口卡,并配置FC或SAS存储交换机;vSAN架构中需要为物理主机配置10 Gbit/s以太网网卡,并且配置10 Gbit/s以太网交换机。

无论是在传统架构还是在vSAN架构中,对RAID卡的要求都比较低。前者是因为采用共享存储(虚拟机保存在共享存储,不保存在服务器本地硬盘),不需要为服务器配置过多磁盘,所以就不需要RAID-5等方式的支持,最多需要2块磁盘配置RAID-1用于安装VMware ESXi系统;而在vSAN架构中,VMware ESXi Hypervisor直接控制每块磁盘,不再需要RAID卡。如果服务器已经配置RAID卡,则需要将每块磁盘配置为直通模式(有的RAID卡支持,例如Dell H730)或配置为RAID-0(不支持磁盘直通的RAID卡)。

关于传统共享存储与vSAN存储架构的虚拟化环境产品选型将在后文介绍。

VMware vSAN是VMware对ESXi主机本地存储设备(包括SSD与HDD)空间进行集中管理的一种方式或一种新的技术。通常情况下,服务器的本地硬盘只能由服务器本身的操作系统直接使用,如果要将服务器本地硬盘空间分配给其他主机使用,那么需要通过网络共享方式分配给其他主机使用。

对于Windows主机来说,将服务器本地硬盘分配给其他主机使用,可以通过共享文件夹、FTP、iSCSI等服务方式为其他主机提供空间服务。

对于Linux主机来说,将服务器本地硬盘分配给其他主机使用,可以通过FTP、NFS服务等方式为其他主机提供空间服务。

如果主机是VMware ESXi系统,在vSAN之前,ESXi主机上的本地硬盘只能供ESXi主机使用,不能为其他ESXi主机提供空间服务(在ESXi主机中创建虚拟机,再在虚拟机中配置成FTP、iSCSI服务,再通过网络给其他ESXi主机提供iSCSI服务的方式不算)。

上面介绍的Windows主机或Linux主机提供的FTP或共享文件夹服务,只能是应用层面的服务,并不是系统层面的服务。

传统的共享存储为其他主机提供存储空间时,提供的都是系统层面的服务,这些共享存储提供的空间,在主机或服务器没有安装操作系统、没有进入操作系统界面之前就已经被识别。这些共享存储提供的空间可以用于操作系统的安装与启动。

应用层面的服务必须在进入操作系统之后,并且通过一个应用程序才能访问使用其他服务器提供的文件或磁盘空间的服务。

VMware vSAN提供的是系统层面的服务,vSAN已经内嵌于ESXi内核或者说与ESXi的内核集成。

VMware vSAN将多台ESXi主机组成群集,同时群集中提供vSAN存储,同一群集中的ESXi主机可以使用vSAN存储,vSAN存储由提供vSAN群集服务的主机本地存储空间组成,vSAN群集的架构如图1-5-1所示。

图1-5-1 vSAN群集的架构

在图1-5-1中画出了4台ESXi主机的vSAN群集架构组成。每台ESXi主机配置1块SSD、2块HDD,每台ESXi主机配置4端口1 Gbit/s网卡、2端口10 Gbit/s网卡,其中4端口1 Gbit/s网卡分别用于ESXi主机的管理、虚拟机的流量,2端口10 Gbit/s网卡用于vSAN流量。vSAN群集有如下特点(截止到本书完成时,vSAN的最新版本是6.7,本章以vSAN 6.7为例进行说明)。

(1)vSAN支持混合架构与全闪存架构。混合架构中组成vSAN的服务器的每个磁盘组包括1块SSD以及至少1块、最多不超过7块的HDD。全闪存架构中组成vSAN的服务器的每个磁盘组都由SSD组成。无论混合架构还是全闪存架构,组成vSAN的每台服务器节点最多支持5个磁盘组,每个磁盘组有1块SSD用于缓存,有1~7块HDD(或SSD)用于存储容量。

(2)混合架构中SSD充当分布式读写缓存时,并不用于永久保存数据。每个磁盘组只支持1块SSD作为缓存磁盘,其中70%的SSD容量用于“读”缓存,30%用于“写”缓存。

在全闪存架构中,SSD充当分布式缓存时,并不用于永久保存数据。每个磁盘组只支持1块SSD作为缓存层,由于全闪存架构的存储容量也用固态硬盘实现,所以读性能不是瓶颈,缓存层100%的SSD容量用于“写”缓存。

(3)每个vSAN群集最大支持64台主机,每台vSAN ESXi主机最多支持5个磁盘组。

(4)在vSAN架构中,虚拟机保存在vSAN存储中,其占用的空间依赖“虚拟机存储策略”中的参数“允许的故障数(FTT)”。允许的故障数可选数值是1、2、3。在混合架构中,允许的故障数为1时(这是默认的虚拟机存储策略),虚拟机(虚拟机配置文件VMX、虚拟机硬盘VMDK)除了具有2个完全相同的副本外,还有1个“见证文件”。见证文件占用的空间较小。

在混合架构中,虚拟机保存在vSAN存储中,整体效果相当于RAID-10。

在全闪存架构中,整体效果相当于RAID-10、RAID-5、RAID-6或RAID-50、RAID-60,这取决于配置的虚拟硬盘大小以及选择的虚拟机存储策略。

(5)在当前版本中,对于用作缓存的SSD磁盘,最多使用600GB的空间。但考虑到SSD的使用寿命与P/E(完全擦除)次数有关,采用较大容量的SSD,其总体使用寿命要比同型号容量更小的SSD更长。例如,同样型号的SSD,800GB的使用寿命会高于600GB的使用寿命。虽然vSAN最多使用600GB,但这600GB的空间对于SSD磁盘来说,不同的时间对应的存储区域是不同的。

(6)在vSAN架构中,要达到允许的故障数,与提供vSAN存储容量的主机数量有关(如表1-5-1所示),关系如下。

提供vSAN存储容量的主机数量⩾允许的故障数×2+1

表1-5-1 允许的故障数与主机数量的关系(适合全闪存与混合架构)

允许的故障数

主机最小数量

推荐的主机数量

相当于RAID级别

0

1

1

RAID-0

1

3

4

RAID-1、RAID-10

2

5

6

RAID-1、RAID-10

3

7

8

RAID-1、RAID-10

在全闪存架构中,如果采用RAID-5/6方式,则允许的故障数可以选择1或2,此时主机最小数量、推荐的主机数量如表1-5-2所示。

表1-5-2 全闪存架构中允许的故障数与主机数量的关系

允许的故障数

主机最小数量

推荐的主机数量

相当于RAID级别

1

4

5

RAID-5、RAID-50

2

6

7

RAID-6、RAID-60

在实际的生产环境中,考虑到冗余、维护,要实现“允许的故障数”,推荐的主机数量是“主机最小数量”加1。

(7)vSAN使用服务器直连存储,使用标准的x86的服务器,不需要使用特殊硬件或者专用的网卡或专用的芯片。它所使用的服务器、硬盘、网络,都是标准的配件。

(8)存储动态扩容:vSAN架构具有良好的横向扩展与纵向扩展能力。纵向扩展是在一个配置好的vSAN群集中(已经有虚拟机正常运行),向现有主机的磁盘组中添加容量磁盘的方式,或通过向主机添加磁盘组(同时添加SSD与HDD)对vSAN进行“扩容”。在vSAN存储扩容的过程中,整个业务系统不需要关停。横向扩展是通过向现有vSAN群集添加节点主机的方式对vSAN进行扩容。扩容的过程中,业务系统不停止。

(9)存储收缩能力:除了具备扩展能力外,vSAN群集同样支持在线收缩。在vSAN群集节点计算资源(CPU与内存)足够、存储资源足够的前提下,可以从vSAN群集中移除不用的ESXi主机节点,也可以从某些ESXi主机移除磁盘组或者移除磁盘组中的1个或多个HDD。

(10)总体来说,vSAN具有良好的扩展性与存储性。虚拟机硬盘在主机存储中相当于RAID-0方式存储(RAID-0具有良好的读写性能),跨主机做RAID-1(对于混合架构)或RAID-5、RAID-6(对于全闪存架构)来实现数据的冗余,整体效果相当于RAID-10、RAID-50或RAID-60。

(11)因为vSAN存储本身就有数据冗余(如混合架构的RAID-10、RAID-5/6),通过vSAN延伸群集技术,可以很容易实现双活的数据中心;也可以组建最小的2节点直连vSAN延伸群集,实现2节点双机热备系统。

(12)在同一个vSAN群集中,不需要每个主机都提供存储容量,可以有不提供磁盘容量的ESXi主机,使用其他主机提供的vSAN空间。但在一个标准vSAN群集中,建议至少有4台主机提供容量。

从VMware vSAN组成的软件存储的总体效果来看,虚拟机数据在本地以RAID-0方式保存,跨服务器以RAID-1方式保存,整体效果相当于RAID-10。对于全闪存架构来说,整体效果相当于RAID-50或RAID-60。vSAN的数据保存效果又优于RAID-1、RAID-5。简单来说,以某台虚拟机使用默认存储策略为例,虚拟机的数据会在“服务器1”保存1份,在“服务器2”保存1份,在“服务器3”保存1份见证文件。即任意1台虚拟机,其数据是保存在3台服务器中的。只有当3台服务器中的任意2台在线时,数据才是完整的。这种数据保存方式可以称为“2.1”方式。


说明

下面将通过查看已经配置好vSAN群集的环境中虚拟机硬盘保存方式,查看验证这些知识点。


VMware vSAN有两种配置方式,一种是混合架构,另一种是全闪存架构。在混合架构中,数据容错方式(即允许的故障数)可以在1、2、3之中选择,此时存储效果相当于RAID-1或RAID-10。

(1)容错方式为1(vSAN默认存储策略)时,在“监控→vSAN→虚拟对象”中选中一台虚拟机,查看虚拟机硬盘文件,此时在“物理磁盘放置”处显示数据有2个副本、1个见证文件(如图1-6-1所示),然后查看虚拟机交换对象看到有2个副本、1个见证文件,如图1-6-2所示。

图1-6-1 查看虚拟机硬盘文件

图1-6-2 查看虚拟机交换对象

(2)容错方式为2时,数据有3个副本、2个见证文件,此时至少需要5台主机。在“虚拟对象”中选中一台FTT为2的虚拟机,查看虚拟机硬盘文件,此时看到有3个副本、2个见证文件,如图1-6-3所示。

图1-6-3 当FTT = 2时,VMDK有3个副本、2个见证文件

(3)容错方式为3时,数据有4个副本,3个见证文件,至少需要7台主机。每台虚拟机硬盘有4个副本、3个见证文件(见图1-6-4)。查看虚拟机主目录,此时4台主机之间组成RAID-1,每台主机内是RAID-0(见图1-6-5),另外3台主机各有1个见证文件。

图1-6-4 查看VMDK文件

图1-6-5 查看虚拟机主目录

全闪存架构中,除了可以和混合架构一样,使用RAID-10的方式保存(数据容错方式可以选择1、2、3)外,还可以以RAID-5或RAID-6的方式存储,此时数据容错方式可以选择1、2。

(1)在全闪存架构中,虚拟机存储策略选择RAID-5/6、容错方式为1时,相当于RAID-5,至少需要4台主机。在“虚拟对象”中选中一台虚拟机存储策略为RAID-5的虚拟机,查看虚拟机硬盘文件,可以看到有4个组件(见图1-6-6),查看虚拟机主目录也看到有4个组件,如图1-6-7所示。

图1-6-6 查看VMDK文件

图1-6-7 查看虚拟机主目录

(2)在全闪存架构中,虚拟机存储策略选择RAID-5/6、容错方式为2时,相当于RAID-6,至少需要6台主机。在“虚拟对象”中选中虚拟机存储策略为RAID-6的虚拟机,查看虚拟机硬盘文件,此时看到有6个组件,并且显示为RAID-6,如图1-6-8所示。查看虚拟机主目录也可看到有6个组件,以RAID-6方式分散在6台主机上,如图1-6-9所示。

图1-6-8 查看虚拟机硬盘文件

图1-6-9 查看虚拟机主目录

在混合架构中,虚拟机整体存储效果相当于RAID-10;在全闪存架构中,虚拟机整体效果相当于RAID-5、RAID-6或RAID-50、RAID-60,具体哪种效果,除了取决于虚拟机使用的存储策略外还要看虚拟机硬盘的大小。当虚拟硬盘(VMDK文件)小于等于255GB时不进行拆分,当虚拟硬盘大于255GB时会被拆分。当虚拟硬盘进行拆分时,拆分后的文件保存在不同的磁盘或不同的主机中时,同一个VMDK的不同组件相当于RAID-0,同一个VMDK的不同副本则相当于RAID-1。

(1)如图1-6-10所示,这是RAID-10的组成。此时虚拟机的虚拟硬盘有2个副本,每个副本以RAID-0的方式保存在不同的主机或同一主机的多个不同的磁盘中;2个副本以RAID-1(镜像)的方式实现。

图1-6-10 RAID-10

(2)当虚拟机存储策略为RAID-5/6,允许的故障数为1(相当于RAID-5)。虚拟机的虚拟硬盘分成4份,其中3份为数据,1份为检验文件(数据与检验文件大小相同),相当于4块硬盘配置为RAID-5。当虚拟硬盘大于255GB时开始拆分,拆分之后相当于RAID-0。简单来说,在默认情况下,当配置为RAID-5/6(允许的故障数为1)时,虚拟机硬盘大于255×3 = 765GB时开始拆分,如图1-6-11所示。

图1-6-11 RAID-50

(3)在图1-6-12中,虚拟机存储策略为RAID-5/6,允许的故障数为2(相当于RAID-6)。虚拟机的虚拟硬盘分成6份,其中4份为数据,2份为检验文件(数据与检验文件大小相同),相当于6块硬盘配置为RAID-6。当虚拟硬盘大于255GB时开始拆分,拆分之后相当于RAID-0。简单来说,在默认情况下,当配置为RAID-5/6(允许的故障数为2)时,虚拟机硬盘大于255×4=1020GB时开始拆分。

图1-6-12 RAID-60


说明

vSAN最大组件的大小可以通过修改主机“高级系统设置”中的“VSAN.ClomMaxComponent SizeGB”参数来更改,其默认值为255,最小为180,最大为255,如图1-6-13所示。在组成vSAN主机磁盘组中容量磁盘小于300GB时,可以将这个参数改为180。


图1-6-13 VSAN.ClomMaxComponentSizeGB参数

在vSAN全闪存架构中采用纠删码(Erasure Coding)提高存储利用率,它类似跨服务器做RAID-5或RAID-6。vSAN可以在VMDK的颗粒度上实现Erasure Coding,也可在虚拟机存储策略里设置。

原来FTT=1时(最大允许的故障数为1,即2个副本),需要跨服务器做数据镜像,类似RAID-1,存储利用率较低,不超过50%。

当FTT=1,同时又设置成纠删码模式时,这就意味着跨服务器做RAID-5,校验数据为1份。它要求至少有4台主机,并不是要求4的倍数,而是4台或更多主机,如图1-6-14所示。以往FTT=1时,存储容量的开销是数据的2倍,现在只需要1.33倍的开销。举例来说,以往20GB数据在FTT=1时消耗40GB空间,采用RAID-5的纠删码模式后,消耗约为27GB。

图1-6-14 vSAN中的RAID-5效果

当FTT=2,同时又设置成纠删码模式时,这就意味着跨服务器做RAID-6,校验数据为2份。它要求至少有6台主机,如图1-6-15所示。以往FTT=2时,存储容量的开销是数据的3倍,现在只需要1.5倍的开销。举例来说,以往20GB数据在FTT=2时消耗60GB空间,采用RAID-6的纠删码模式后,消耗约为30GB。这样在确保更高的高可用性的基础上,存储利用率得到大幅提升。

图1-6-15 vSAN中的RAID-6效果

vSAN使用x86服务器的本地硬盘做vSAN群集的一部分容量(磁盘RAID-0),用本地固态硬盘提供读写缓存,实现较高的性能,通过10 Gbit/s网络,以分布式RAID-1的方式,实现了数据的安全性。简单来说,vSAN总体效果在混合架构中相当于RAID-10,在全闪存架构中相当于RAID-5、RAID-6或RAID-50、RAID-60。

标准的vSAN群集最少由3台主机组成,最多64台主机。在标准vSAN群集中,根据虚拟机的存储策略不同,任何一台虚拟机都会保存在至少3台主机、最多7台主机中。例如,在一个由10台主机组成的vSAN环境中,使用默认的虚拟机存储策略,其中任意一台主机出现故障,或者其中任意一台主机的一块或多块磁盘的故障,都不会对现有业务造成影响。如图 1-7-1 所示,某企业使用10台主机组成一个vSAN环境,使用默认的虚拟机存储策略,物理主机称为M1~M10,每台主机上分散运行不同的业务虚拟机。假设M1主机出现故障,原来运行在M1主机上的虚拟机会在其他主机重新注册、重新启动。因为M1出现故障,所以M1的磁盘组不能访问,这些磁盘组保存着其他虚拟机的一部分数据。如果在 1 小时内 M1能恢复,原来分散到其他主机的虚拟机会陆续迁移到M1主机运行;如果超过1小时时间,原来保存在M1主机上的数据会在其他主机“重建”,重建的数据来源于其他主机(相当于RAID磁盘陈列中,移除了损坏磁盘,添加了新的磁盘,新的磁盘会使用现存的磁盘数据进行同步)。

图1-7-1 10台主机组成的vSAN环境

大多数的中小企业虚拟化环境,一般是由4~8台主机组成。当超过10台主机时,这些主机会放在不同的机架中,这时就需要考虑一个问题,如何避免“机架级”故障?如图1-7-2所示,12台主机组成vSAN环境(当然也可以由更多主机组成,在此只是举例)。如果其中一个机架断电或网络与其他机架断开,这个机架中主机上运行的虚拟机,有可能在其他主机没有数据副本,这样虚拟机将不能在其他机架的主机中重新启动。

图1-7-2 12台主机组成vSAN环境

vSAN引入“故障域”可以解决“机架级”故障。在一个vSAN群集中,至少定义3个故障域(一般定义4个故障域),每个故障域包含一个机架中的所有ESXi主机。同一台虚拟机(使用默认虚拟机存储策略)的2份副本、1份见证文件会保存在不同的故障域。

(1)至少定义3个故障域,每个故障域可能包含一个或多个主机。定义故障域必须确认可能代表潜在故障域的物理硬件构造,如单个计算机柜。

(2)如果可以,请使用至少4个故障域。使用3个故障域时,不允许使用特定撤出模式,vSAN也无法在故障发生后重新保护数据。在这种情况下,需要一个使用3个故障域配置时无法提供的备用容量故障域来重新构建。

(3)如果启用故障域,vSAN将根据故障域而不是单个主机应用活动虚拟机存储策略。

“故障域”可以解决同一机房不同机架中服务器的问题(即解决“机架级”故障)。如果你有更高的需求,例如需要跨园区、不同的楼,或者同一个城市而距离受限制的园区,可以使用vSAN延伸群集,通过延伸群集跨两个地址位置(或站点)扩展数据存储,如图1-7-3所示。

图1-7-3 延伸群集示意

延伸群集由2个数据站点、1个见证站点组成。2个数据站点均匀分布着数量相同的ESXi主机,每个数据站点最少1台主机,最多15台主机;见证站点只有1台主机(或运行在主机中的1台见证虚拟机)。

在延伸群集架构中,所有站点都配置为vSAN故障域。1个站点可以认为是1个故障域。最多支持3个站点(2个数据站点、1个见证站点)。

用于描述vSAN延伸群集配置的命名规则是X+Y+Z,其中X表示数据站点A中ESXi主机的数量,Y表示数据站点B中ESXi主机的数量,Z表示站点C中见证主机的数量。数据站点是指部署了虚拟机的站点,见证站点不放置虚拟机。

vSAN延伸群集中的最小主机数量为3。在此配置中,站点A包含1台ESXi主机,站点B包含1台ESXi主机,站点C(即见证站点)包含1台见证主机。此配置的vSAN命名规则为1+1+1。

vSAN延伸群集中的较小容量配置是3+3+1,即站点A、站点B各有3台主机,站点C有1台主机。虽然2+2+1也支持,但2+2+1被认为是较不安全的站点。为了获得较好的性能和数据安全性,推荐最少采用4+4+1的配置。

vSAN延伸群集中的最大主机数量为31。此时,站点A包含15台ESXi主机,站点B包含15台ESXi主机,站点C包含1台见证主机,因此,主机数量总共为31台。它的优点是可以有效避免“灾难”、允许有计划的维护,但见证节点也降低了系统的性能,增加了数据中心的成本,这是以冗余换安全的一种做法。此配置的vSAN命名规则为15+15+1。

在vSAN延伸群集中,任何配置都只有1台见证主机。对于需要管理多个延伸群集的部署,每个群集必须具有自己唯一的见证主机。见证主机不在vSAN群集中。

对于在vSAN延伸群集中部署的虚拟机,它在站点A上有一个数据副本,在站点B上有一个数据副本,而见证组件则放置在站点C中的见证主机上。

如果整个站点发生故障,环境中仍会有一个完整的虚拟机数据副本以及超过50%的组件可供使用。这使得虚拟机仍可在vSAN数据存储上使用。如果虚拟机需要在另一个数据站点中重新启动,vSphere HA将处理这项任务。

vSAN延伸集群相当于一个vSAN集群横跨两个不同的站点,每个站点是一个故障域。与其他存储硬件的双活方案类似,两个数据站点之间的往返延时小于5ms(距离一般在100km以内),另外还需要一个充当仲裁的见证(Witness)存放在不同于两个数据站点之外的第三个站点上。“见证节点”不一定是安装为ESXi的物理服务器,也可以运行在第三个站点的一个ESXi虚拟机上,或者可以运行在公有云上,如国内的天翼混合云,或者AWS、Azure、阿里云等。如图1-7-4所示,Witness所在站点(C)与数据站点(A或B)之间的网络要求较为宽松,往返延时在200ms以内,带宽超过100Mbit/s即可。

图1-7-4 vSAN延伸群集与见证节点


说明

为了减少单独为见证节点安装一台ESXi虚拟机或物理机所增加的许可问题,VMware准备好了安装有ESXi并且预先设置好序列号的虚拟机。


与其他外置磁盘阵列的双活方案(如EMC VPLEX,Dell Compel lent Live Volume等)类似,延伸群集对于网络的要求比较苛刻,两个站点之间数据同步要求高带宽低延迟,vSAN也要求5ms以内的延时。

使用vSAN延伸群集,主要有2种应用。

(1)双机热备系统。vSAN延伸群集中的最小主机数量为3。在此配置中,站点A包含1台ESXi主机,站点B包含1台ESXi主机,站点C包含1台见证主机。此配置的vSAN命名规则为1+1+1。在这种情况下,使用2台高配置的ESXi主机(用作数据,提供业务虚拟机)、1台低配置的主机(用作见证)组成双机热备系统。任何一台主机故障都不会让业务中断。

例如:2台高配置主机,每台主机配置1个CPU、128 GB内存、1块120GB SSD安装系统、1块400GB PCIe固态硬盘用作缓存磁盘、5块1.2TB的磁盘用作容量磁盘、2端口10 Gbit/s网卡、4端口1 Gbit/s网卡。见证主机配置1个CPU、32GB内存、1块240GB的固态硬盘安装系统并提供见证虚拟机。此3台主机组成的双机热备系统,可以同时提供10~20台虚拟机(每台虚拟机配置8GB内存、2~4个vCPU)。

(2)双活数据中心。使用vSAN延伸群集可以组成“双活”数据中心(可以参看图1-7-3)。双活数据中心既可以在园区内组建,也可以跨不同城市组建。例如,在一个大型的企业园区,在不同的厂区、楼层,依次设置数据站点和见证站点。使用vSAN延伸群集组成双活数据中心时,推荐每个数据站点至少4台主机。

vSAN 6.1开始支持包括Oracle RAC(Real Application Cluster)和Windows Server故障转移群集(Windows Server Failover Clustering,WSFC),如图1-7-5所示。借助于vSAN的特性,使Oracle RAC、Windows Server故障转移群集的用户能够拥有更高性能、可在线扩展、更高可靠性的存储。

图1-7-5 支持RAC及WSFC

尽管vSAN与传统存储具有很多相同特性,但它们的整体行为和功能仍然有所不同。例如,vSAN可以管理ESXi主机,且只能与ESXi主机配合使用。一个vSAN实例仅支持一个群集。vSAN和传统存储还存在下列主要区别。

(1)vSAN不需要外部网络存储来远程存储虚拟机文件,例如光纤通道(FC)或存储区域网络(SAN)。

(2)使用传统存储,存储管理员可以在不同的存储系统上预先分配存储空间。vSAN会自动将ESXi主机的本地物理存储资源转化为单个存储池,这些池可以根据服务质量要求划分并分配到虚拟机和应用程序。

(3)vSAN没有基于LUN或NFS共享的传统存储卷概念。

(4)iSCSI和FCP等标准存储协议不适用于vSAN。

(5)vSAN与vSphere高度集成。与传统存储相比,vSAN不需要专用的插件或存储控制台。可以使用vSphere Web Client部署、管理和监控vSAN。

(6)不需要专门的存储管理员来管理vSAN,vSphere管理员即可管理vSAN环境。

(7)使用vSAN,在部署新虚拟机时将自动分配虚拟机存储策略。可以根据需要动态更改存储策略。

vSAN的许可分成标准、高级、企业三个级别,如表1-7-1所示,高级版支持全闪存、去重和删除以及纠删码,企业版支持双活和QoS(IOPS限制)。

表1-7-1 不同vSAN版本功能对比

标准版

高级版

企业版

概述

混合式超融合部署

全闪存超融合部署

站点可用性和服务质量控制

许可证授权

按CPU数量或VDI桌面数量

按CPU数量或VDI桌面数量

按CPU数量或VDI桌面数量

基于存储策略的管理

读/写SSD缓存

分布式RAID(RAID-1)

vSAN快照和克隆

机架感知

复制(RPO为5min)

软件检验和

全闪存支持

数据块访问(iSCSI)

服务质量(QoS-IOPS限制)

嵌入式重复数据消除和压缩(仅限全闪存)

纠删码(RAID-5/6,仅限全闪存)

具有本地故障保护能力的延伸群集

静态数据加密

本节通过共享存储与vSAN数据存储方式对比,让大家理解与感受传统架构下共享存储与基于软件存储的vSAN架构的优点。

假设某存储设备配置了24块900GB的2.5英寸SAS磁盘(见图1-7-6),这24块磁盘以RAID-50的方式保存(每6块磁盘组成RAID-5,4组再以RAID-0的方式组成),划分RAID-50之后,实际可以使用的空间是5 × 900 × 4 = 18000GB。

图1-7-6 某台配置了24块磁盘的存储

假设主机A需要100GB的空间,那么存储为主机划分这100GB的空间时,每块硬盘划分5GB的空间,组成100GB的空间。

在主机A上使用这100GB空间分区、格式化,假设为这100GB空间分配盘符为E盘,在E盘保存了多个文件,那么每个文件都会使用所有的24块磁盘,即使一个只占用数KB空间的小文件。当主机A要处理保存在E盘上的文件时,每处理一个文件,基本上都要同时读写存储中的所有24块磁盘。

如果有更多的主机或虚拟机需要从存储分配空间,存储分配给每台计算机的空间,都是从24块磁盘均衡划分的。对应计算机中的每个文件,也都是保存在这24块磁盘中。

当多台主机连接共享存储使用的时候,处理任何一个单独的文件,都要同时读写24块磁盘。

如果同时连接存储的主机和虚拟机数量较少时,这种方式的效率比较高,因为任何一个单独的文件都能很快的得到响应。但如果主机和虚拟机数量较多时,主机和存储的接口、存储本身处理的速度可能都是瓶颈。简单来说,10台物理服务器(每台服务器上有10台虚拟机)使用共享存储,合计100台虚拟机,那么每块磁盘都对应100台虚拟机。

存储最初是为单一应用、单一用户提供服务的。如果存储为多台主机,每台主机有多台虚拟机提供服务,每台虚拟机读写的时候都要访问存储中的所有磁盘。虚拟机达到一定的数量时,从主机到存储的接口,还有存储的磁盘都会到达上限。

下面看一下vSAN磁盘数据保存方式。有一个由3台主机组成的vSAN群集,每台主机配置了3个磁盘组,每个磁盘组有1块800GB的SSD、5块1.2TB的HDD,图1-7-7是单台主机的磁盘组。

图1-7-7 单台主机的磁盘组

一共3台主机,每台主机有15块磁盘,磁盘的名称和序号可以用HDD0至HDD14排列。下面看虚拟机数据在vSAN中的保存方式。


说明

下列说的是保存的一种可能,在实际中数据也可能在其他磁盘。


虚拟机1:使用主机1的HDD0保存一份数据、使用主机2的HDD1保存一份相同的数据(两者之间是RAID-1的关系),在主机3的HDD2创建见证文件。

虚拟机2:使用主机2的HDD2保存一份数据、使用主机3的HDD5保存一份相同的数据(两者之间是RAID-1的关系),在主机1的HDD7创建见证文件。

对于虚拟机硬盘较大的虚拟机,例如虚拟机11,数据保存方式如下。

使用主机1的HDD0、HDD1、HDD2、HDD3、HDD10、HDD15(RAID-0)保存一份数据,在主机2的HDD0、HDD1、HDD2、HDD3、HDD10、HDD15(RAID-0)保存另一份数据。使用主机3的HDD0创建见证文件。

在此可以了解到vSAN是根据文件来保存数据的,任何一台虚拟机的数据是保存在不同主机的不同磁盘上的。普通的存储,例如图1-7-6中的24块磁盘组成了4组RAID-5,允许每一组坏一块磁盘,数据不丢失,如果一组坏两个磁盘,那么数据就不全了,注意是所有的数据都不全了。

vSAN架构,以默认的虚拟机存储策略(FTT = 1,允许的故障数为1)保存数据时,数据保存在3台主机上,每台主机选择其中的一块磁盘,其中2块磁盘的数据是冗余的,第3块磁盘的数据是见证文件。除非是3台主机同时坏2块,或者是保存这台虚拟机的不同主机的数据磁盘同时坏了,才会丢失数据。

例如,某vSAN主机由4台主机组成,每台主机2个磁盘组,每个磁盘组1块SSD、5块HDD。虚拟机使用每台主机中的1块或多块磁盘。对于某一台虚拟机来说,该虚拟机的数据一般情况下只使用有限的磁盘,并不使用所有的磁盘,只有超大的虚拟磁盘,最多同时使用12块磁盘。当多台虚拟机同时运行,共同使用所有的磁盘。如果这个4节点上一共运行了100台虚拟机,那么每台虚拟机的数据保存需要用到3块磁盘计算,40块磁盘存储,基本上1块磁盘对应3台虚拟机。

对比计算,当虚拟机数量较多时,vSAN架构的执行效率会更高一些;当虚拟机数量较少时,共享存储性能会更高一些。

下面简要介绍vSAN各版本的功能。vSAN各版本与ESXi各版本的对应关系如表1-8-1所示。

表1-8-1 vSAN各版本与ESXi各版本对应关系

发行日期

ESXi版本

vSAN版本

vSAN磁盘格式

vSAN文件名(版本号)

vSAN主要功能

2014/3/25

5.5

1.0

1.0

VMware-VMvisor-Installer-5.5.0.update01-1623387.x86_64.iso

群集节点32,相当于RAID-1、RAID-10

2015/3/12

6.0.0

6.0

1.0

VMware-VMvisor-Installer-6.0.0-2494585.x86_64.iso 

群集节点64

2015/9/10

6.0 U1

6.1

2.0

VMware-VMvisor-Installer-6.0.0.update01-3029758.x86_64.iso

延伸群集,支持虚拟机容错(FT) 包括性能和快照的改进

2016/3/15

6.0 U2

6.2

3.0

VMware-VMvisor-Installer-6.0.0.update02-3620759.x86_64.iso 

嵌入式重复数据消除和压缩(仅限全闪存)、纠删码RAID- 5/6(仅限全闪存)

2016/11/15

6.5.0

6.5

4.0

VMware-VMvisor-Installer-6.5.0-4564106.x86_64.iso

iSCSI目标服务 具有见证流量分离功能的双节点直接连接 PowerCLI支持 512e驱动器支持

2017/4/18

6.5.0d

6.6

5.0

VMware-VMvisor-Installer-201704001-5310538.x86_64.iso 

单播、加密、更改见证主机

2018/4/17

6.7.0

6.7

6.0

VMware-VMvisor-Installer-6.7.0-8169922.x86_64.iso

4Kn驱动器支持、针对延伸群集实现见证流量分离、针对延伸群集实现高效站点间重新同步

2018/10/16

6.7.0 U1

7.0

VMware-VMvisor-Installer-6.7.0.update01-10302608.x86_64.iso

引导式群集创建和扩展、混合MTU实现见证流量分离、维护模式增强功能

2019/4/11

6.7.0 U2

7.0

VMware-VMvisor-Installer-6.7.0.update02-13006603.x86_64.iso

2019/8/20

6.7.0 U3

10.0

VMware-VMvisor-Installer-6.7.0.update03-14320388.x86_64.iso

vSAN性能增强,增强了容量监控、重新同步监控;并行重新同步;vCenter与ESXi向前兼容


说明

(1)vSAN 6.5之前,VMware称为Virtual SAN。从6.6版本(ESXi 6.5.0d)开始,Virtual SAN命名为vSAN。

(2)不支持从ESXi 6.0 U3升级到ESXi 6.5.0;不支持从ESXi 6.5 U2升级到ESXi 6.7。

(3)可以支持从ESXi 6.0.0、ESXi 6.5.0、ESXi 6.7.0各个子版本升级到ESXi 6.7.0 U1、ESXi 6.7.0 U2、ESXi 6.7.0 U3。


VMware Virtual SAN 6.0在2015年3月12日发布,其内部版本号为2494585。

Virtual SAN 6.0引入了许多新功能和增强功能。以下是Virtual SAN 6.0的主要增强功能。

(1)新磁盘格式:Virtual SAN 6.0支持基于Virsto技术的新磁盘虚拟文件格式2.0。Virsto技术是基于日志的文件系统,可为每个Virtual SAN群集提供高度可扩展的快照和克隆管理支持。

(2)混合和全闪存配置:Virtual SAN 6.0支持混合和全闪存群集。

(3)故障域:Virtual SAN群集跨越数据中心内多个机架或刀片服务器机箱时,Virtual SAN 6.0支持配置故障域以保护主机免于机架或机箱故障。

(4)主动再平衡:在6.0版本中,Virtual SAN能够触发再平衡操作,以便利用新添加的群集存储容量。

(5)JBOD:Virtual SAN 6.0支持JBOD存储,以便在刀片服务器环境中使用。

(6)磁盘可维护性:Virtual SAN提供从vSphere Web Client启用/禁用定位器LED的功能,以识别故障期间存储设备的位置。

(7)设备或磁盘组撤出:删除设备或磁盘组时,Virtual SAN能够撤出设备或磁盘组中的数据。

VMware Virtual SAN 6.1在2015年9月10日发布,其内部版本号为3029758。

Virtual SAN 6.1引入了以下新功能和增强功能。

(1)延伸群集:Virtual SAN 6.1支持跨两个地理位置的延伸群集以保护数据免受站点故障或网络连接丢失影响。

(2)VMware Virtual SAN Witness Appliance 6.1是打包为虚拟设备的虚拟见证主机。它充当配置为Virtual SAN延伸群集的见证主机的ESXi主机。从VMware Virtual SAN官方网站即可下载Virtual SAN Witness Appliance 6.1 OVA。

(3)混合和全闪存配置。Virtual SAN 6.1支持混合和全闪存群集。要配置全闪存群集,可单击Virtual SAN“磁盘管理”(“管理→设置”)下的“创建新磁盘组”,然后选择闪存作为容量类型。声明磁盘组时,可以选择闪存设备同时用于容量和缓存。

(4)改进升级过程。支持直接从Virtual SAN 5.5和Virtual SAN 6.0升级到Virtual SAN 6.1。

(5)Virtual SAN 6.1包括集成的运行状况服务,该服务可监控群集运行状况并诊断和修复Virtual SAN群集的问题。Virtual SAN运行状况服务提供了多项有关硬件兼容性、网络配置和运行、高级配置选项、存储设备运行状况以及Virtual SAN对象运行状况的检查。如果运行状况服务检测到任何运行状况问题,将触发vCenter事件和警报。要查看Virtual SAN群集的运行状况检查,应单击“监控→Virtual SAN→运行状况”。

(6)Virtual SAN可监控固态驱动器和磁盘驱动器运行状况,并通过卸载不正常的设备主动将其隔离。检测到Virtual SAN磁盘逐渐失效后将隔离该设备,避免受影响的主机和整个Virtual SAN群集之间产生拥堵。无论何时在主机中检测到不正常设备都会从每台主机生成警报,如果自动卸载不正常设备将生成事件。

VMware Virtual SAN 6.2在2016年3月15日发布,其ISO内部版本号为3620759。

Virtual SAN 6.2引入了以下新功能和增强功能。

(1)去重复和压缩。Virtual SAN 6.2提供去重复和压缩功能,可以消除重复的数据。此技术可以减少满足要求所需的总存储空间。在Virtual SAN群集上启用去重复和压缩功能后,特定磁盘组中冗余的数据副本将减少为单个副本。在全闪存群集中,可以在群集范围内设置去重复和压缩。

(2)RAID 5和RAID 6擦除编码。Virtual SAN 6.2支持RAID 5和RAID 6擦除编码,进而减少了保护数据所需的存储空间。在全闪存群集中,RAID 5和RAID 6可用作虚拟机的策略属性。用户可以在至少4个容错域的群集中使用RAID 5,在至少6个容错域的群集中使用RAID 6。

(3)软件校验和。Virtual SAN 6.2在混合和全闪存群集中支持基于软件的校验和。默认情况下,在Virtual SAN群集中所有对象都启用软件校验和策略属性。

(4)新的磁盘上格式。Virtual SAN 6.2支持通过vSphere Web Client升级到新的磁盘上虚拟文件格式3.0。此文件系统可为Virtual SAN群集中的新功能提供支持。磁盘上格式版本3.0基于内部4K块大小技术,此技术可以提高效率。但是,如果客户机操作系统I/O不是4K对齐,则会导致性能降低。

(5)IOPS限制。Virtual SAN支持IOPS限制,可以对指定对象的每秒I/O(读/写)操作数进行限制。读/写操作数达到IOPS限制时,这些操作将延迟,直到当前秒到期。IOPS限制是一个策略属性,可以应用于任何Virtual SAN对象,包括VMDK、命名空间等。

(6)IPv6。Virtual SAN支持IPv4或IPv6寻址。

(7)空间报告。Virtual SAN 6.2“容量”监控显示有关Virtual SAN数据存储的信息,包括已用空间和可用空间,同时按不同对象类型或数据类型提供容量使用情况细目。

(8)运行状况服务。Virtual SAN 6.2包含新的运行状况检查,可帮助监控群集,以诊断并修复群集问题。如果Virtual SAN运行状况服务检测到运行状况问题,则会触发vCenter事件和警报。

(9)性能服务。Virtual SAN 6.2包含性能服务监控,可以提供群集级别、主机级别、虚拟机级别以及磁盘级别的统计信息。性能服务收集并分析性能统计信息,并以图表格式显示这些数据。用户可以使用性能图表管理工作负载并确定问题的根本原因。

(10)直写式内存缓存。Virtual SAN 6.2使用驻留在主机上的直写式读取缓存以提高虚拟机性能。此缓存算法可减少读取I/O延迟、Virtual SAN CPU和网络使用量。

VMware Virtual SAN 6.5在2016年11月15日发布,其ISO内部版本号为4564106。

Virtual SAN 6.5引入了以下新功能和增强功能。

(1)iSCSI目标服务。借助Virtual SAN iSCSI目标服务,Virtual SAN群集外部的物理工作负载可以访问Virtual SAN数据存储。远程主机上的iSCSI启动器可以将块级数据传输到Virtual SAN群集存储设备上的iSCSI目标。

(2)具有见证流量分离功能的双节点直接连接。Virtual SAN 6.5支持通过备用VMkernel接口与延伸群集配置中的见证主机通信。此支持可以将见证流量与Virtual SAN数据流量分离,而无须从Virtual SAN网络路由到见证主机。在某些延伸群集和双节点配置中,可以简化见证主机的连接。在双节点配置中,可以针对Virtual SAN数据流量建立一个或多个节点到节点的直接连接,而无须使用高速交换机。在延伸群集配置中,支持为见证流量使用备用VMkernel接口,但前提是该备用VMkernel接口与Virtual SAN数据流量所用的接口连接到同一物理交换机。

(3)PowerCLI支持。VMware vSphere PowerCLI添加了针对Virtual SAN的命令行脚本支持,可以帮助自动完成配置和管理任务。vSphere PowerCLI为vSphere API提供Windows PowerShell接口。PowerCLI包含用于管理Virtual SAN组件的cmdlet。

(4)512e驱动器支持。Virtual SAN 6.5支持512e硬盘驱动器(HDD),该驱动器物理扇区大小为4096字节,但逻辑扇区大小模拟了512字节的扇区大小。

VMware vSAN 6.6在2017年4月18日发布,其ISO内部版本为5310538。从这个版本开始,VMware将原来的“Virtual SAN”命名为“vSAN”。VMware Virtual SAN (vSAN) 6.6引入了以下新功能和增强功能。

(1)单播。在vSAN 6.6及更高版本中,支持vSAN群集的物理交换机不需要多播。如果vSAN群集中的部分主机运行早期版本的软件,则仍需要多播网络。

(2)加密。vSAN支持对vSAN数据存储进行静态数据加密。启用加密时,vSAN会对群集中的每个磁盘组逐一进行重新格式化。vSAN加密需要在vCenter Server和密钥管理服务器(KMS)之间建立可信连接。KMS必须支持密钥管理互操作协议(KMIP)1.1标准。

(3)通过本地故障保护实现增强的延伸群集可用性。可以在延伸群集中的单个站点内为虚拟机对象提供本地故障保护。可以为群集定义允许的故障数主要级别,并为单个站点中的对象定义允许的故障数辅助级别。当一个站点不可用时,vSAN会在可用站点中保持可用性和本地冗余。可以更改延伸群集的见证主机。在“故障域和延伸群集”页面上,单击更改见证主机。

(4)配置帮助和更新。用户可以使用“配置帮助”和“更新”页面检查vSAN群集的配置,并解决任何问题。“配置帮助”可以验证群集组件的配置、解决问题并对问题进行故障排除。配置检查分为几个类别,类似于vSAN运行状况服务中的类别。配置检查涵盖硬件兼容性、网络和vSAN配置选项。“更新”页面可以更新存储控制器固件和驱动程序以满足vSAN要求。

(5)重新同步限制。用户可以限制用于群集重新同步的IOPS。如果重新同步导致群集中的延迟增加或者主机上的重新同步流量太高,则使用此控件。

(6)运行状况服务增强功能。针对加密、群集成员资格、时间偏差、控制器固件、磁盘组、物理磁盘、磁盘平衡等方面的新增和增强的运行状况检查。联机运行状况检查可以监控vSAN群集运行状况并将数据发送给VMware分析后端系统进行高级分析。必须参与客户体验改善计划,才能使用联机运行状况检查。

(7)基于主机的vSAN监控。通过ESXi Host Client可以监控vSAN的运行状况和基本配置。

(8)性能服务增强功能。vSAN性能服务包括网络、重新同步和iSCSI的统计信息。可以选择性能视图中保存的时间范围。每次运行性能查询,vSAN都会保存选定的时间范围。

(9)vSAN与vCenter Server Appliance(简称VCSA)集成。部署vCenter Server Appliance时可以创建一个vSAN群集,然后将该设备托管到群集上。vCenter Server Appliance安装程序可以创建一个从主机声明磁盘的单主机vSAN群集,vCenter Server Appliance部署在该vSAN群集上。

(10)维护模式增强功能。“确认维护模式”对话框提供有关维护活动的指导信息,可以查看每个数据撤出选项的影响。例如,可以检查是否有足够的可用空间来完成选定选项。

(11)重新平衡和修复增强功能。磁盘重新平衡操作更高效。手动重新平衡操作提供更好的进度报告。

(12)磁盘故障处理。如果磁盘出现持续高延迟或拥堵,vSAN会将此设备视为即将“消亡”的磁盘,并撤出磁盘中的数据。vSAN通过撤出或重建数据来处理即将消亡的磁盘。不需要用户操作,除非群集缺少资源或存在无法访问的对象。当vSAN完成数据撤出后,运行状况会显示为DyingDiskEmpty。vSAN不会卸载故障设备。

(13)新的esxcli命令。

VMware vSAN 6.6.1在2017年7月27日发布,其ISO内部版本号为5969303。

vSAN 6.6.1引入了以下新功能和增强功能。

(1)适用于vSAN的vSphere Update Manager内部版本建议。Update Manager可以扫描vSAN群集并建议主机基准,包括更新、修补程序和扩展。它会管理建议的基准、验证vSAN HCL的支持状态并从VMware下载正确的ESXi ISO映像。

(2)vSAN需要Internet访问权限才能生成内部版本建议。如果vSAN群集使用代理连接到Internet,那么vSAN可以生成修补程序升级建议,但不能生成主要升级建议。

(3)性能诊断。性能诊断工具可以分析之前执行的基准测试。它会检测问题、建议修复步骤并提供有助于获得深层次见解的辅助性能图表。性能诊断需要加入客户体验改进计划(CEIP)。

(4)vSAN磁盘上增加了定位符LED支持。现在直通模式的Gen 9 HPE控制器支持定位符LED的vSAN激活。闪烁LED有助于识别和隔离特定驱动器。

VMware vSAN 6.7在2018年4月7日发布,其内部版本号为8169922,vSAN 6.7将vSAN磁盘格式升级到6.0版本。

vSAN 6.7引入了以下新功能和增强功能。

(1)支持4Kn驱动器。vSAN 6.7支持4K Native磁盘驱动器。与512n相比,4Kn驱动器能够提供更高的容量密度。该支持能够使用容量点更高的4Kn驱动器部署存储量较大的配置。

(2)vSphere和vSAN FIPS 140-2验证。vSAN 6.7加密已通过美国联邦信息处理标准(FIPS)140-2验证。通过FIPS验证的软件模块比专用硬件有许多优势,因为这种软件模块可以在通用计算系统上执行,具有可移植性和灵活性。可以在具有数千种外形规格、容量和功能的驱动器中选择使用与HCL兼容的任何一组驱动器配置vSAN主机,同时使用通过FIPS 140-2验证的模块维护数据安全。

(3)HTML界面。基于HTML5的vSphere Client与基于Flex的vSphere Web Client一起随vCenter Server被提供。vSphere Client使用的很多界面术语、拓扑和工作流都与vSphere Web Client相同。用户可以使用新的vSphere Client,也可以继续使用vSphere Web Client。

(4)vCenter Server中的vRealize Operations。vSphere Client包括嵌入式vRealize Operations插件,该插件可提供基本的vSAN和vSphere操作仪表板。要访问仪表板,需要vROps实例,而该插件可帮助用户在环境中轻松部署新实例或指定现有实例。vROps插件不需要任何额外的vROps许可。

(5)支持Windows Server故障转移群集。vSAN 6.7通过在vSAN iSCSI目标服务上构建WSFC目标来支持Windows Server故障转移群集。vSAN iSCSI目标服务支持用于共享磁盘的SCSI-3持久预留和用于WSFC的透明故障切换。WSFC可在物理服务器或虚拟机上运行。

(6)用于延伸群集的智能站点连续性。在首选数据站点和辅助数据站点之间进行分区时,vSAN 6.7将首先智能地确定哪个站点的数据可用性最大,然后自动形成针对见证的仲裁。首选站点具有最新的数据副本之前,辅助站点可以作为活动站点运行。这样可以防止虚拟机迁移到首选站点以及数据读取位置丢失。

(7)针对延伸群集实现见证流量分离。现在,用户可以选择为见证流量配置专用的VMkernel网卡。见证VMkernel网卡不会传输任何数据流量。此功能可以分离见证流量与vSAN数据流量,从而增强数据安全性。当见证网卡的带宽和延迟小于数据网卡时,此功能非常有用。 

(8)针对延伸群集实现高效站点间重新同步。要执行重新构建或修复操作,vSAN 6.7只发送一个副本,然后从该本地副本执行剩余的重新同步,而不是跨站点间链路重新同步所有副本。这样可以减少在延伸群集的站点间传输的数据量。

(9)使用冗余vSAN网络时进行快速故障切换。vSAN 6.7部署多个VMkernel适配器以实现冗余时,其中一个适配器出现故障将导致故障切换到其他VMkernel适配器。在早期版本中,vSAN等待TCP超时后才会将网络流量故障切换到正常运行的VMkernel适配器。

(10)自适应重新同步以动态管理重新同步流量。自适应重新同步通过向重新同步I/O分配专用带宽来加快合规(将某个对象还原到其置备的允许的故障数)的速度。重新同步I/O由vSAN生成,用于将对象重新置于合规状态。确保重新同步I/O最小带宽的同时,如果客户端I/O未争用带宽,则带宽可以动态增加。反之,如果没有重新同步I/O,客户端I/O可以使用额外的带宽。 

(11)整合副本组件。放置期间,由于副本反关联性规则,属于不同副本的组件会放置在不同的故障域中。但是,当群集以较高的容量利用率运行且必须移动或重建对象时,会因为执行维护操作或出现故障导致可用故障域不足。副本整合相比vSAN 6.6中使用的点定位法,是一项改进技术。点定位会重新配置整个RAID树(数据移动量相当大),而副本整合移动最少量的数据即可创建满足副本反关联性要求的故障域。 

(12)针对无共享应用程序推出主机固定存储策略。vSAN主机固定是一种新的存储策略,能够适应下一代、无共享应用程序的vSAN的效率和弹性。使用此策略,vSAN会维护数据的单个副本,并存储正在运行虚拟机的ESXi主机的本地数据块。此策略会作为部署选项提供给Big Data(Hadoop、Spark)、NoSQL和其他在应用程序层维护数据冗余的此类应用程序。vSAN主机固定具有特定要求和准则,要求进行VMware验证以确保正确部署。请务必联系VMware代表以确保在部署此策略前已验证配置。

(13)支持增强型诊断分区(核心转储)。如果设备上有可用空间,vSAN 6.7会自动调整USB/SD介质上的核心转储分区的大小,以便在本地持久保留核心转储和日志。如果没有足够的可用空间或没有引导设备,则不会执行重新分区。

(14)vSAN暂存优化。vSAN 6.7包含的增强功能可以提高将数据从缓存层写入容量层的速度。这些更改将提高虚拟机I/O的性能和重新同步的速度。

(15)交换对象精简配置和策略继承改进。vSAN 6.7中的虚拟机交换文件会继承所有设置的虚拟机存储策略,包括精简配置。在早期版本中,始终对交换文件进行厚置备。

vSAN 6.7是一个需要全面升级到vSphere 6.7的新版本。执行以下任务完成vSAN 6.7的升级。

(1)升级到vCenter Server 6.7。

(2)将主机升级到ESXi 6.7。

(3)将vSAN磁盘格式升级到6.0版本。从磁盘格式5.0版本升级开始,将不执行数据撤出,因为磁盘已重新进行格式化。


注意

不支持从vSphere 6.5 Update 2升级到vSphere 6.7。


VMware vSAN 6.7 U1(vSAN 6.7 Update 1)于2018年10月16日发布,其ISO内部版本号为10302608。vSAN 6.7 U1将vSAN磁盘格式升级到7.0版本。如果是从磁盘格式5.0版本或更高版本升级,则无须执行数据撤出(仅更新元数据)。

vSAN 6.7 Update 1引入了以下新功能和增强功能。

(1)引导式群集创建和扩展。vSAN 6.7 Update 1在vSphere Client中引入了快速入门向导。快速入门工作流可指导用户完成vSAN群集和非vSAN群集的部署过程。该工作流涵盖初始配置的各个方面,如主机、网络和vSphere设置。快速入门还在后续扩展vSAN群集时发挥一定的作用,它支持用户向群集中添加更多主机。

(2)通过VUM提供HBA固件更新。vSAN主机的存储I/O控制器固件现已作为vSphere Update Manager修复工作流的一部分包含在内。此功能以前在名为Configuration Assist的vSAN实用程序中被提供。此外,VUM还支持某些OEM供应商提供的自定义ISO以及无Internet连接的vCenter Server。

(3)维护模式增强功能。现在vSAN会执行数据撤出操作模拟以确定该操作成功还是失败,然后再启动该操作。如果撤出操作失败,vSAN会在任何重新同步活动开始之前停止该操作。此外,用户还可以通过vSphere Client修改组件修复延迟计时器,以便调整此设置。

(4)历史和可用容量报告。vSAN 6.7 Update 1引入了历史容量仪表板,可报告一段时间内的容量使用情况,包括去重率更改历史信息。该版本还包括可用容量估算器,用于根据所选的存储策略查看可用的数据存储容量。

(5)通过剪裁/取消映射提高存储效率。现在vSAN 6.7 Update 1能够完全感知客户机操作系统发送的剪裁/取消映射命令,并回收之前分配的块,将其用作底层vSAN对象内的可用空间。用户可以在自动模式或脱机模式下配置剪裁/取消映射,也可在客户机操作系统中设置模式。

(6)混合MTU实现见证流量分离。现在vSAN支持对见证流量VMkernel接口和vSAN数据网络VMkernel接口使用不同的MTU设置。此功能提高了利用见证流量分离的延伸群集和双节点群集的网络灵活性。

(7)运行状况检查增强功能。存储控制器固件运行状况检查支持多个获批的固件级别,提高了灵活性。用户可以从UI执行静默运行状况检查,可以清除不再需要的不可访问交换对象。所有主机均具有匹配的子网运行状况检查增强功能。 

(8)单播网络性能测试。新增基于单播的主动网络性能测试,可确定群集中的所有主机是否均具有正确的连接并满足建议的带宽。

(9)vCenter Server中的vRealize Operations增强功能。vCenter Server中内置的本机vROps仪表板可显示vSAN延伸群集的智能信息。此外,部署过程还支持分布式虚拟交换机并与vROps 7.0完全兼容。

(10)产品内支持诊断。vSAN 6.7 Update 1引入了产品诊断,可协助VMware全球技术更快地解决客户案例。vCenter Server中的专用性能仪表板以及按需网络诊断测试可减少生成支持包并上传到GSS的需求,从而加快了支持案例的解决速度。此外,运行状况检查历史记录存储在日志文件中,以便支持人员更好地提供技术支持。 

(11)更新了高级设置。vSphere Client提供了一个“高级设置”对话框(“配置→vSAN→服务→高级选项”),可以调整组件修复延迟计时器,还可以启用/禁用精简交换文件和站点读取位置。

VMware vSAN 6.7 U3(vSAN 6.7 Update 3)于2019年8月20日发布,其ISO内部版本号为14320388。

vSAN 6.7 U3将vSAN磁盘格式升级到10.0版本。如果是从磁盘格式5.0版本或更高版本升级,则无须执行数据撤出(仅更新元数据)。

在升级vSAN磁盘格式期间,会执行磁盘组撤出操作。移除磁盘组并升级到磁盘格式10.0版本,再将磁盘组重新添加到群集。对于双节点或三节点群集或容量不足以撤出每个磁盘组的群集,可从vSphere Client选择允许精简冗余。管理员还可以使用以下RVC命令升级磁盘格式:

vsan.ondisk_upgrade --allow-reduced-redundancy。

允许降低冗余性时,虚拟机在升级过程中不受保护,因为此方法不会将数据撤出到群集中的其他主机。该方法会移除各磁盘组,升级磁盘格式,然后将磁盘组重新添加到群集。所有对象仍可用,但冗余性已降低。如果在升级到vSAN 6.7时启用去重和压缩,则可以从vSphere Client选择允许精简冗余。

vSAN 6.7 Update 3引入了以下新功能和增强功能。

(1)vSAN性能增强功能。该版本提高了启用去重的全闪存配置的性能和可用性SLA。延迟敏感型应用程序在可预测I/O延迟和增加顺序I/O吞吐量方面具有更好的性能。缩短了在发生磁盘和节点故障时的重建时间,从而提供更好的可用性SLA。

(2)增强了容量监控。“容量监控”仪表板经过重新设计,改进了整体使用情况的可见性,细分更精细并简化了容量警示。与容量相关的运行状况检查具有更好的可见性和一致性。提供了每个站点、故障域和主机/磁盘组级别的精细容量利用率。

(3)增强了重新同步监控。“重新同步对象”仪表板引入了新逻辑,提高了重新同步完成时间的准确性,还提供了精细的可见性,可查看不同类型的重新同步活动,例如重新平衡或策略合规性。

(4)针对维护模式操作的数据迁移预检查。该版本的vSAN引入了专用仪表板,可针对主机维护模式操作提供深入分析,包括更具描述性的数据迁移活动预检查。在此报告中,可深入了解将主机置于维护模式之前的对象合规性、群集容量和预测的运行状况。

(5)在容量紧张的情况下提高强化效果。该版本新增了对容量使用条件的可靠处理,在群集容量超出建议阈值的情况下,改进了检测、预防和修复性能。

(6)主动重新平衡增强功能。用户可以使用群集范围的配置和阈值设置自动执行所有重新平衡活动。在该版本之前,vSAN运行状况检查发出警示后,将手动启动主动重新平衡。

(7)针对策略更改执行高效的容量处理。该版本的vSAN引入了新逻辑,可减少群集中策略更改临时消耗的空间量。vSAN会小批量处理策略重新同步,从而有效地利用未用空间预留容量并简化用户操作。

(8)磁盘格式转换预检查。所有需要滚动数据撤出的磁盘组格式转换都包括一项后端预检查,从而可在移动任何数据之前准确地确定操作的成败。

(9)并行重新同步。vSAN 6.7 Update 3优化了重新同步行为,可在资源可用时自动对每个重新同步组件运行额外数据流。这种新行为在后台运行,可提供更好的I/O管理和性能以应对工作负载需求。

(10)Windows Server故障转移群集部署在原生vSAN VMDK上。vSAN 6.7 Update 3引入了对SCSI-3 PR的原生支持,使得Windows Server故障转移群集能够作为第一类工作负载直接部署在VMDK上。利用此功能,可以将物理RDM或外部存储协议上的旧版部署迁移到vSAN。

(11)在vSphere Client中启用Support Insight。用户可以启用vSAN Support Insight,以便访问基于CEIP的所有vSAN主动支持和诊断。例如,联机vSAN运行状况检查、性能诊断和解决SR期间增强的支持体验。

(12)vSphere Update Manager(VUM)基准首选项。该版本改进了VUM中的vSAN更新建议体验,允许用户为vSAN群集配置建议的基准,使其保持在当前版本内并仅应用可用的修补程序或更新,或者升级到与群集兼容的最新ESXi版本。

(13)在vSAN数据存储中上传和下载VMDK。该版本增加了在vSAN数据存储中上传和下载VMDK的功能。此功能简化了在容量紧张的情况下保护和恢复虚拟机数据的过程。

(14)vCenter与ESXi向前兼容。vCenter Server可以管理vSAN群集中较新版本的ESXi主机,前提是vCenter及其受管主机具有相同的主要vSphere版本。管理员可以应用关键的ESXi修补程序,而无须将vCenter Server更新到同一版本。

(15)新增性能衡量指标和故障排除实用程序。该版本通过性能服务引入了一个vSAN CPU衡量指标,还新增了一个命令行实用程序(vsantop),可实时查看vSAN的性能统计信息,该实用程序类似于vSphere的esxtop。

(16)vSAN iSCSI目标服务增强功能。vSAN iSCSI目标服务已得到增强,可以在不中断服务的情况下动态调整iSCSI LUN的大小。

(17)Cloud Native Storage。Cloud Native Storage是一种为有状态应用程序提供全面数据管理的解决方案。通过Cloud Native Storage,vSphere持久存储可与Kubernetes集成。使用Cloud Native Storage时,可以为那些能够允许重新启动和中断的有状态容器化应用程序创建持久存储。使用标准Kubernetes卷、持久卷和动态置备基本类型时,Kubernetes编排的有状态容器可以利用vSphere(vSAN、VMFS、NFS)公开的存储。

相关图书

VMware vSphere 7.0虚拟化架构实战指南
VMware vSphere 7.0虚拟化架构实战指南
VMware NSX网络虚拟化入门
VMware NSX网络虚拟化入门
VMware vSphere 6.7虚拟化架构实战指南
VMware vSphere 6.7虚拟化架构实战指南
玩转EVE-NG——带您潜入IT虚拟世界
玩转EVE-NG——带您潜入IT虚拟世界
Hadoop虚拟化
Hadoop虚拟化
VMware vSphere 6.5企业运维实战
VMware vSphere 6.5企业运维实战

相关文章

相关课程