IBM Cloud Docs
VMware NSX-T 设计

VMware NSX-T 设计

VMware® NSX-T™ 旨在解决具有异构端点和技术堆栈的应用框架和架构问题。 除了 VMware vSphere®,这些环境还可以包括其他虚拟机监控程序、KVM、容器和裸机服务器。 NSX-T旨在跨越软件定义的网络和安全基础设施,而不仅仅是 vSphere。 虽然可以在不需要 vSphere 的情况下部署 NSX-T 组件,但此设计主要关注的是 NSX-T 及其在 vCenter Server vSphere 自动部署中的集成。

从版本 3 开始,NSX-T 可以在 vSphere 虚拟分布式交换机 (VDS) 版本 7.0 上运行。 VMware NSX 和 vSphere 的所有新部署都使用 VDS 上的 NSX-T,不再使用 N-VDS。 从NSX-T 2.4 开始,管理器虚拟机(VM)和控制器虚拟机(VM)的功能被合并。 因此,部署了三个控制器或管理器虚拟机。 如果位于同一子网中,则使用内部网络负载均衡器。 如果位于不同子网上,那么需要外部负载均衡器。

NSX-T 带来了许多高级功能,如防火墙策略、在防火墙策略中加入访客自省功能以及高级网流跟踪。 对这些功能的描述超出了本文档的范围。 在此设计中,NSX-T管理基础设施在初始 vCenter Server®集群部署期间部署。 有关 NSX-T 的更多信息,请参阅 VMware NSX 文档

NSX-T 与 NSX-V

对于 VMware vSphere 网络 NSX (NSX-V),请查看以下具有与 NSX-V 对应对象类似功能的 NSX-T 对象。 此外,还讨论了 vSphere 环境中的局限性和差异。

下表列出了 NSX-T 和 NSX-V 之间的典型对应功能。

NSX-V 和 NSX-T 的相应功能
NSX-V 或 vSphere 本机 NSX-T
NSX 传输专区 传输专区(覆盖或支持 VLAN)
端口组 (VDS) 网段或逻辑交换机
VXLAN(L2 封装) GENEVE(L2 封装)
边缘网关 Tier-0 (T0) 网关[1]
分布式逻辑路由器 Tier-1 (T1) 网关[2]
ESXi 服务器 传输节点(ESXi、KVM、裸机 T0 网关)

通过 NSX-T,您可以使用 Tier-0 (T0) 网关和 Tier-1 (T1) 网关。 虽然在上一节中,它们相当于 NSX-V 边缘服务网关(ESG)和分布式逻辑路由器(DLR),但这并不完全准确。

NSX-T 引入了两个新概念:分布式路由器(DR)和服务路由器(SR)。

NSX-T 分配器和服务路由器
路由器类型 功能
分布式路由器 提供基本的数据包转发和分布式东西向路由功能
跨所有传输节点
在 ESXi 上作为内核模块运行
服务路由器

提供网关服务

  • NAT
  • 负载平衡器
  • 网关防火墙
  • 南北路由
  • VPN
  • DNS 转发
  • DHCP

某些关键的 NSX-T 概念与 NSX-V 功能不对应。 您需要复习以下概念,以便理解 NSX-T 的设计实现。

  • 网关集群是指参与NSX-T虚拟结构的1个或多个虚拟机或物理机。 它们是用于覆盖网络传输专区和支持 VLAN 的传输专区的端点。 网关群集可支持单个 T0 网关实例。
  • T0 网关是一种虚拟路由器实例,但不是虚拟机。 多个 T0 网关实例可以在网关集群中运行,每个实例都有自己的路由表和功能。 在创建 T0 路由器实例之前,网关群集必须存在。
  • 传输专区可以跨不同平台上的端点以及多个 vSphere vCenter 实例。 无需cross-vCenter链接 NSX。 可以排除特定端点中的传输专区。
  • 上行链路故障转移顺序独立于特定逻辑交换机创建,因为它们是以概要文件形式创建为“上行链路概要文件”,并且应用于基于 VLAN 的特定逻辑交换机。 同一 VLAN 可能需要不同的故障转移顺序或物理上行链路负载平衡。 因此,特定 VLAN 的上行链路配置文件可以包含多个具有不同故障切换顺序和负载平衡的 "Teaming "条目。 当您将上行配置文件分配给逻辑交换机时,将选择特定的团队配置文件。
  • 管理器虚拟机和控制器虚拟机功能合并后,部署了三个 NSX-T 管理器虚拟机。 如果位于同一子网中,则使用内部网络负载均衡器。 如果位于不同子网上,那么需要外部负载均衡器。

资源需求

在此设计中,NSX-T控制器管理器虚拟机部署在管理集群上。 此外,每个控制器管理器都会从专用可移植地址块中分配一个 VLAN 支持的 IP 地址。 该地址块指定用于管理组件,并与第 0 节中讨论的 DNS 和 NTP 服务器一起配置。 NSX Manager 安装概要如下表所示。

NSX-T 管理器--控制器规格
属性 规范
NSX管理器或控制器 三个虚拟设备
vCPU 数量 6
内存 24 GB
磁盘 340 GB
磁盘类型 自动精简配置
网络 专用 A

下图显示了NSX经理在这个架构中与其他组成部分的关系。

![NSX-T 管理器网络概述](../../images/nsx-t-3-ra-diagrams-overview-vcs-v7-t3.svg "NSX-T 管理器网络概述NSX-T 管理器网络" caption-side="bottom"}"){: caption="管理器网络概述

部署注意事项

使用 NSX-T v3.x on vSphere VDS 交换机版本 7.0 时,ESXi 主机上不再需要 N-VDS。 当配置为传输节点时,您可以使用 v7 VDS,这将使合并群集成为更优化的设计。

在初始部署后,IBM Cloud® 自动化将在管理集群中部署三个NSX-T Manager虚拟设备。 将从指定用于管理组件的专用 A 可移植子网中为 Controller 分配支持 VLAN 的 IP 地址。 此外,会创建 VM-VM 反亲缘关系规则,以在集群中的各主机之间分隔 Controller。

您必须部署至少包含三个节点的管理集群,以确保管理人员或控制人员的高可用性。 除了管理人员之外,IBM Cloud 自动化还把部署的工作负载集群作为NSX-T传输节点。 ESXi传输节点分配一个VLAN支持的IP地址,该地址来自专用A便携式IP地址范围,该范围由NSX IP池指定,该IP池来自VLAN和子网摘要。 交通节点流量位于未标记的VLAN上,并被分配到私有NSX-T VDS。

根据您选择的 NSX-T 拓扑,您可以将 NSX-T 网关集群部署为一对虚拟机,也可以将其部署为裸机集群节点上的软件。 IBM Cloud 自动化不支持裸机边缘,必须手动部署和配置。 无论群集对是虚拟的还是物理的,上行链路都会配置到 IBM Cloud 专用网络和(如有)公共网络的 VDS 交换机。

下表总结了中等规模环境的要求,这是生产工作负载的推荐起始规模。

NSX-T 组件规范
资源 管理器 x3 边缘服务
集群 x4
中等大小 虚拟设备 虚拟设备
vCPU 数量 6 4
内存 24 GB 8 GB
磁盘 300 GB vSAN 或管理 NFS 200 GB vSAN 或管理 NFS
磁盘类型 自动精简配置 自动精简配置
网络 专用 A 专用 A

分布式交换机设计

该设计使用最小数量的 vDS 交换机。 管理集群中的主机连接到专用网络和(可选的)公共网络。 这些主机均配置有两个分布式虚拟交换机。 两个交换机的使用遵循的是用于将公用和专用网络分隔开的 IBM Cloud 网络实践。 NSX 和 vSphere 的所有新部署都利用了运行 vSphere VDS 交换机版本 7.0 的优势,从而实现了融合的 NSX-T 体系结构。

分布式交换机设计 专用
-T 分布式交换机设计
*

分布式交换机设计 公共
-T 分布式交换机设计
*

如上图所示,公共 VDS *instancename*-*clustername*-public 配置为公共网络连接,公共 VDS *instancename*-*clustername*-private 配置为专用网络连接。 不同类型的流量需要进行分隔,以减少争用和等待时间并提高安全性。

VLAN 用于对物理网络功能进行分段。 此设计使用三个 VLAN:两个用于专用网络流量,一个用于公用网络流量。 下表显示了流量分隔。

VLAN 与流量类型的映射
VLAN 名称 流量类型
VLAN 1 专用 A ESXi 管理、管理、Geneve (TEP)、边缘上行链路
VLAN 2 专用 B vSAN、NFS 和 vMotion
VLAN 3 公用 可用于因特网访问

对于可选的两个主机网关群集,该设计使用两个 VLAN:一个用于专用网络流量,另一个用于公共网络流量。 这种群集类型使用本地磁盘作为数据存储。 因此,您不需要单独的存储流量。 此外,根据设计,NSX-T Geneve(TEP)流量被排除在外。 下表显示了该群集类型 VLAN 之间的流量分隔。

VLAN 与网关流量类型的映射
VLAN 名称 流量类型
VLAN 1 专用传输 专用中转 VLAN、ESXi 管理和 vMotion
VLAN 2 公共传输 公共传输 VLAN

命名约定

部署时使用以下命名约定。 为便于阅读,仅使用具体命名。 例如,instancename-dcname-clustername-tz-edge-private 被称为 tz-edge-private

NSX-T 设计命名规范
描述 命名标准
管理 VM instancename-nsxt-ctrlmgr0
instancename-nsxt-ctrlmgr1
instancename-nsxt-ctrlmgr2
上行链路概要文件 instancename-esxi-private-profile
instancename-esxi-public-profile
instancename-edge-private-profile
instancename-edge-public-profile
instancename-edge-tep-profile
instancename-mgmt-edge-private-profile
instancename-mgmt-edge-public-profile
instancename-mgmt-edge-tep-profile
NIOC 概要文件 instancename-clustername-nioc-private-profile
instancename-clustername-nioc-public-profile
网关群组配置文件 instancename-dcname-clustername-service-edge-cluster-profile
instancename-dcname-clustername-service-edge-cluster-profile
传输专区 instancename-tz-esxi-private
instancename-tz-esxi-public
instancename-tz-vm-overlay
instancename-tz-edge-private
instancename-tz-edge-public
分段 instancename-podname.dcname-customer-t0-172-16-16-0
instancename-podname.dcname-customer-t1-192-168-0-0
instancename-podname.dcname-customer-t1-192-168-1-0
instancename-podname.dcname-customer-to-private
instancename-podname.dcname-customer-to-public
instancename-podname.dcname-service-to-private
instancename-podname.dcname-service-to-public
instancename-clustername-edge-teps
IP 地址池 instancename-clustername-tep-pool
传输节点概要文件 instancename-podname.dcname-clustername-esxi-tpn-profile
第 0 层和第 1 层网关 instancename-podname.dcname-clustername-T0-function(其中 function 包括 servicesworkloadopenshift
instancename-podname.dcname-clustername-T1-function

传输节点

传输节点定义参与虚拟网络光纤网的物理服务器对象或 VM。 查看下表可了解该设计。

NSX-T 传输节点
传输节点类型 上行链路概要文件 IP 分配
ESXi esxi-private-profile
esxi-public-profile
tep-pool
网关集群 edge-private-profile
edge-public-profile
edge-tep-profile
mgmt-edge-private-profile
mgmt-edge-public-profile
mgmt-edge-tep-profile
tep-pool

VNI 池

虚拟网络标识 (VNI) 类似于物理网络的 VLAN。 通过池或标识范围创建逻辑交换机时,会自动创建 VNI。 此设计使用通过 NSX-T 部署的缺省 VNI 池。

分段

NSX-T部分在虚拟环境中再现了切换功能、广播、未知单播、多播(BUM)流量,该虚拟环境与底层硬件分离。

NSX-T 逻辑交换机
分段名称 VLAN 传输区域 上行链路组队策略
edge-teps 缺省 tz-esxi-private TEP - 故障切换命令
service-to-private 缺省 tz-edge-private
service-to-public 缺省 tz-edge-public
customer-to-private 缺省 tz-edge-private
customer-to-public 缺省 tz-edge-public
customer-t0-172-16-16-0 tz-vm-overlay
customer-t1-192-168-0-0 tz-vm-overlay
customer-t1-192-168-1-0 tz-vm-overlay

网关集群

在这种设计中,配置了两个虚拟边缘节点集群,一个用于管理,另一个用于客户工作负载。 每个边缘传输 T0 存在一个 Node 的限制,这意味着单个边缘 Node 群集可支持一个 T0 网关(主动-备用或主动-主动)。

下图显示了 NSX-T 网关群集的功能组件。

客户网关群组拓扑
拓扑* 客户网关群组拓扑* 客户网关
拓扑

网关集群拓扑{: caption="网关集群拓扑网关集群" caption-side="bottom"}

第 0 层逻辑网关

NSX-T Tier-0逻辑网关在逻辑网络和物理网络(南北流量)之间提供网关服务。 在此设计中,两个高可用 T0 网关分别部署在两个独立的 NSX-T 网关群集中,一个用于满足客户需求,另一个用于满足服务或管理需求。 对于客户选择的拓扑结构,更多的服务和产品是可选的,他们使用 T0 服务来满足入站或出站连接需求。 每个 T0 逻辑网关都配置了两个专用上行链路和两个公用上行链路。 此外,VIP 还可分配给公共和专用上行链路。

第 1 层逻辑网关

NSX-T Tier-1 逻辑网关具有下行链路端口,用于连接NSX-T数据中心逻辑交换机,并具有上行链路端口,用于连接NSX-T数据中心 Tier-0 逻辑网关。 它们在为其配置的管理程序内核级别运行,是 NSX-T 网关群集的虚拟路由器实例(vrf)。 在这种设计中,可以创建一个或多个 T1 逻辑网关,以满足客户所选拓扑的需要。

第 1 层到第 0 层的路径公布

为了在连接到逻辑交换机的虚拟机之间提供第3层连接,这些交换机连接到不同的 tier-1 逻辑网关,有必要启用 tier-1 路由通告,使其指向 tier-0。 无需配置第 1 层和第 0 层逻辑路由器之间的路由协议或静态路由。 启用路径公布时,NSX-T 会自动创建静态路由。 对于此设计,任何通过 T1 网关创建的 IBM Cloud® for VMware Solutions 自动化都始终启用路线广告。

预配置的拓扑

工作量 发送至 T1 发送至 T0 网关——虚拟网关集群

NSX-T部署的拓扑虚拟T0边缘
-T部署的拓扑虚拟T0边缘
*

拓扑结构1与NSX-V DLR和边缘网关部署的拓扑结构基本相同。 使用 NSX-T 时,T1 和 T0 之间没有动态路由协议配置。 RFC-1891 IP 地址空间用于工作负载覆盖网络和传输覆盖网络。 将分配客户专用和公共可移植 IP 空间,以供客户使用。 客户指定的 IBM Cloud 专用和公共可移植 IP 空间会分配给 T0,以供客户使用。


  1. T0 网关类似于 ESG。 它提供物理网络和逻辑网络之间的南北连接,支持动态路由(BGP)、ECMP 和状态服务,如防火墙、NAT 和负载平衡。 它还为东西向路由提供分布式服务。 ↩︎

  2. T1 网关与 T0 网关类似,但它通常不包含用于连接物理网络的上行链路。 它的上行链路将其连接到与 T0网关相连的自动管道覆盖区段。 T1 支持静态路由、NAT、负载平衡和 IPsec VPN。 ↩︎