IBM Cloud Docs
虚拟基础架构设计

虚拟基础架构设计

虚拟基础设施层包括 VMware®,用于虚拟化物理基础设施层提供的计算、存储和网络资源:vSphere VMware 和可选的 vSAN™。

虚拟基础设施{: caption="虚拟基础设施虚拟" caption-side="bottom"}

VMware vSphere 设计

vSphere ESXi 配置由以下方面构成:

  • 引导配置
  • 时间同步
  • 主机访问
  • 用户访问权
  • DNS 配置

下表概述了各个方面的规范。 在配置和安装ESXi后,主机将添加到 vCenter,并从那里进行管理。

借助此设计,您可以通过直接控制台用户界面 (DCUI) 和 vSphere Web Client 来访问虚拟主机。 作为最佳实践,安全 Shell (SSH) 和 ESXi Shell 在供应后均已禁用。

默认情况下,只有主机物理机的_根_和_ibmvmadmin_用户可以直接登录。 管理员可以从 Active Directory™添加用户,以允许用户访问主机。 VMware Cloud Foundation for Classic - Automated所有主机都配置为与中央NTP服务器同步。

vSphereESXi 配置
属性 配置参数
ESXi 引导位置

不同的主机配置可能会采用以下方式:

  • 本地磁盘配置为 RAID-1
  • 一对 M.2 启动驱动器采用镜像配置
  • 单个 M.2 启动驱动器
时间同步 使用 IBM Cloud® NTP 服务器
主机访问 支持 DCUI。 SSH 和 ESXi Shell 受支持,但缺省情况下未启用
用户访问权 本地认证和 MSAD
域名解析 使用 DNS,如公共服务设计中所述。
EVC 方式 vSphere 版本支持的最高可用级别。 但是,对于使用 Intel® Cascade Lake 处理器的管理群集,如果 vSphere 版本不支持 Cascade Lake EVC,则不会设置 EVC。

vSphere中包含管理 VMware Cloud Foundation for Classic - Automated的虚拟机(VM)以及用户工作负载的计算资源。

  • 当 VMware Cloud Foundation for Classic - Automated使用 vSAN, 时,初始部署时ESXi主机的最低数量为4。
  • 当 VMware Cloud Foundation for Classic - Automated使用共享文件级或块级存储时,初始部署时ESXi主机的最低数量为3。

在初始部署期间,您最多可以在该群集中部署 20 台 ESXi 主机。 初始部署后,您可以将群集扩展到最多 50 台主机,每次最多递增 20 台主机。

要支持更多用户工作负载,可以采取以下措施来扩展环境:

  • 在现有集群中部署更多的计算主机。
  • 部署更多由同一vCenter 设备管理的集群。
  • 部署新的 VMware Cloud Foundation for Classic - Automated 实例,并配备各自的 vCenter 设备。

VMware vSAN 设计

在此设计中,VMware vSAN 存储用于 VMware Cloud Foundation for Classic - Automated 实例,vSphere提供共享存储。

如下图中所示,vSAN 跨 vSphere 集群内的多个 ESXi 主机聚集本地存储器,并将聚集的存储器作为一个 VM 数据存储进行管理。 在此设计中,计算节点包含用于 ESXi 操作系统 (OS) 和 vSAN 数据存储的本地磁盘驱动器。

不同的主机配置可能有不同的部署方式:

  • 本地磁盘配置为 RAID-1
  • 镜像配置中的一对 M.2 启动硬盘
  • 单个 M.2 启动盘

vSAN concept
vSAN concept

vSAN 采用以下组件:

  • 双磁盘组 vSAN 设计,每个磁盘组包含两个或更多磁盘。 组中最小大小的一个 SSD 或 NVMe 驱动器充当高速缓存层,其余 SSD 充当容量层。
  • 板载 RAID 控制器为每个用于 vSAN 缓存或容量的硬盘配置 RAID 0 阵列。
  • 基于所有存储器创建一个 vSAN 数据存储。

vSAN 的虚拟网络设置

对于此设计,vSAN 流量会在专用私有、VLAN 上的 ESXi 主机之间遍历。 连接到专用网络交换机的两个网络适配器在 vSphere 中配置为 vSphere 分布式交换机 (vDS),两个网络适配器均作为上行链路。 为 vSAN VLAN 配置的专用 vSAN 内核端口组位于 vDS 中。 对专用 vDS 启用了巨型帧 (MTU 9000)。

vSAN 不会跨上行链路对流量进行负载均衡。 因此,一个适配器处于活动状态,而另一个处于待机状态,以支持高可用性。 vSAN 的网络故障转移策略在物理网络端口之间配置为显式故障转移

有关物理 NIC 连接的更多信息,请参阅物理主机 NIC 连接

vSAN 策略设计

启用并配置 vSAN 后,存储策略会配置为定义 VM 存储器特征。 存储器特征为不同 VM 指定不同级别的服务。

此设计中的缺省存储策略容许单个故障。 默认策略配置为擦除编码,容错方法设置为 RAID-5/6 (擦除编码)——容量主要故障级别设置为1。 RAID 5 配置至少需要 4 个主机。

或者,可以选择 RAID 6 配置,其中容错方法设置为 RAID-5/6(擦除编码)-容量主要故障级别设置为 2。 RAID 6 配置至少需要 6 个主机。 重复数据删除压缩通常在默认存储策略中启用,但也可根据需要禁用。

除非在 vSphere 控制台中另外指定,否则实例会使用缺省策略。 当自定义策略配置完成后 vSAN 将在可能的情况下确保其正常运行。 但是,如果无法保证使用此策略,那么无法供应使用该策略的 VM,除非已启用强制供应。

添加新的 ESXi 主机或对 ESXi 主机安装补丁后,必须重新应用存储策略。

vSAN 设置

vSAN 设置是根据在 IBM Cloud 中部署 VMware 解决方案的最佳实践配置的。 vSAN 设置包含 SIOC 设置、显式故障转移设置端口组和磁盘高速缓存设置。

  • SSD缓存策略设置—— 无预读 、直通直接 (NRWTD)
  • 网络 I/O 控制设置
    • 管理 - 20 个共享
    • 虚拟机 - 30 个共享
    • vMotion - 50 个共享
    • vSAN - 100 个共享
  • vSAN 内核端口 ——显式故障转移

NFS 连接的存储器

NFS 服务器 LIF 迁移在使用 NFS v4.1 时可能会导致过长的延迟。 当您使用 NFS 网络附加存储时,此架构规定使用 NFS v3 而不是 NFS v4.1。 每个 vSphere 主机使用其主机名连接到 NFS 存储器。

一个 2 TB NFS 数据存储连接到集群,以供管理组件将其与性能层 4 IOPS/GB 配合使用。 可以将更多数据存储连接到集群以供工作负载使用,实现各种大小和性能层。

此外,此体系结构要求所有主机都为 NFS 存储器所在的子网创建了子网路由。 此子网路由的目的是指示所有 NFS 流量使用此设计指定用于 NFS 流量的端口组、子网和 VLAN。 如果连接了多个 NFS 数据存储,可能需要配置多个路由,因为这些数据存储可能位于不同的远程子网中。

管理虚拟机可以位于 NFS 数据存储上。 这种方法会产生引导问题,因为一些管理机器可能负责DNS服务,而DNS服务用于解析 NFS。 因此,此体系结构指定管理数据存储的至少一个 IP 地址在每个主机上的 /etc/hosts 中进行硬编码。