IBM Cloud Docs
VMware NSX-T 設計

VMware NSX-T 設計

VMware NSX-T™ 旨在處理具有異質端點和技術堆疊的應用程式架構和體系結構。 除了 VMware vSphere® 之外,這些環境還可包括其他管理程序、KVM、容器和裸金屬伺服器。 NSX-T 旨在跨平台的軟體定義網路與安全基礎架構,而不僅僅是 vSphere。 雖然可以在不需要 vSphere 的情況下部署 NSX-T 元件,但此設計著重在 NSX-T 上,且其整合主要在 vCenter Server vSphere 自動化部署內。

NSX-T 版本 3 及更新版本可在 vSphere 虛擬分散式交換器 (VDS) 版本 7.0 上執行。 VMware NSX 和 vSphere 的所有新部署都使用 VDS 上的 NSX-T(不使用 N-VDS)。 對於 NSX-T 版本 2.4 及更新版本,管理員虛擬機器與控制器虛擬機器的功能會合併。 因此,部署了三個控制器或管理員虛擬機器。 如果在同一個子網路,它們會使用內部網路負載平衡器。 如果分散在不同的子網路,則需要外部負載平衡器。

NSX-T 帶來許多進階功能,例如防火牆政策、在防火牆政策中納入訪客自省功能,以及進階的網路流追蹤。 說明這些特性不在本文件的範圍內。 在此設計中,NSX-T 管理基礎架構是在初始 vCenter Server® 群集部署期間部署。 如需 NSX-T 的詳細資訊,請參閱 VMware NSX 文件

資源需求

在此設計中,NSX-T 控制器 Manager 虛擬機器部署在管理群集上。 此外,每個控制器管理員都會被指派給私有可攜式位址區塊中的 VLAN 支援 IP 位址。 位址區塊指定用於管理元件,並與第 0 節討論的 DNS 和 NTP 伺服器設定。 NSX Manager 安裝摘要如下表所示。

NSX-T Manager - 控制器規格
屬性 規格
NSX 管理員或控制器 三個虛擬應用裝置
vCPU 數目 6
記憶體 24 GB
磁碟 300 GB
磁碟類型 精簡佈建
NetworkPrivate A 專用 A

下圖顯示 NSX 管理員與此架構中其他元件的位置關係。

NSX-T Manager 網路概觀
NSX-T Manager 網路概觀

部署考量

使用 vSphere VDS 交換器版本 7.0 上的 NSX-T v3.x,ESXi 主機上不再需要 N-VDS。 當配置為傳輸節點時,您可以使用 v7 VDS,這使得整合群集成為更優化的設計。

初始部署後,IBM Cloud® 自動化會在管理群集中部署三個 NSX-T Manager 虛擬裝置。 控制器從指定用於管理元件的 Private A 可攜式子網路指派至 VLAN 支援的 IP 位址。 此外,還會建立 VM-VM 反親緣性規則,以在叢集裡的各主機間區隔控制器。

您必須部署至少有三個節點的管理群集,以確保管理員或控制器的高可用性。 除了管理員之外,IBM Cloud 自動化還會將所部署的工作負載群集準備為 NSX-T 傳輸節點。 ESXi 傳輸節點被指派給來自私有 A 可攜式 IP 位址範圍的 VLAN 支援 IP 位址,該 IP 位址範圍由從 VLAN 和子網路摘要得出的 NSX IP 池範圍指定。 傳輸節點流量位於無標記 VLAN 上,並指定給私有 NSX-T VDS。

根據您選擇的 NSX-T 擴充架構,您可以將 NSX-T 閘道群集部署為一對虛擬機器,或部署為裸金屬群集節點上的軟體。 IBM Cloud 自動化不支援裸金屬邊緣,必須手動部署和設定。 無論群集對是虛擬或實體,上行鏈路都會設定為 IBM Cloud 專用網路和(若有)公用網路的 VDS 交換器。

下表總結了中等規模環境的需求,這是生產工作負載的建議起始規模。

NSX-T 元件規格
資源 經理 x3 邊緣服務
集群 x4
中型 虛擬應用裝置 虛擬應用裝置
vCPU 數目 6 4
記憶體 24 GB 8 GB
磁碟 300 GB vSAN 或管理 NFS 200 GB vSAN 或管理 NFS
磁碟類型 精簡佈建 精簡佈建
網路 專用 A 專用 A

分散式交換器設計

此設計使用最少數目的「vDS 交換器」。 管理群集中的主機連接至專用和(可選)公用網路。 主機已配置兩台分散式虛擬交換器。 兩台交換器的使用遵循區隔公用與專用網路的 IBM Cloud 網路作法。 所有 NSX 和 vSphere 的新部署都利用運行 vSphere VDS 交換器版本 7.0.的優勢,可實現融合的 NSX-T 架構。

分散式交換器設計 私人
NSX-T 分散式交換器設計 私人

分散式交換器設計 公開
NSX-T 分散式交換器設計 公開

如前圖所示,公用 VDS *instancename*-*clustername*-public 設定為公用網路連線,公用 VDS *instancename*-*clustername*-private 設定為專用網路連線。 需要區隔不同類型的資料流量,以降低競用及延遲並提高安全。

VLAN 用來區隔實體網路功能。 此設計使用三個 VLAN:兩個用於專用網路資料流量,一個用於公用網路資料流量。 下表顯示資料流量區隔。

VLAN 對應到流量類型
VLAN 指定 資料流量類型
VLAN 1 專用 A ESXi 管理、管理、Geneve (TEP)、邊緣上行鏈路
VLAN 2 專用 B vSAN、NFS 和 vMotion
VLAN 3 公用 可用於網際網路存取

對於選用的兩個主機閘道群集,此設計使用兩個 VLAN:一個用於私人網路流量,另一個用於公共網路流量。 此叢集類型使用本機磁碟作為資料儲存。 因此,您不需要獨立的儲存流量。 此外,根據設計,NSX-T Geneve (TEP) 流量被排除在外。 下表顯示此群集類型的 VLAN 之間的流量分隔。

VLAN 對應至閘道流量類型
VLAN 指定 資料流量類型
VLAN 1 專用 Transit 私人傳輸 VLAN、ESXi 管理和 vMotion
VLAN 2 公用 Transit 公用傳輸 VLAN

命名慣例

以下命名慣例用於部署。 為了方便閱讀,只使用特定的命名。 例如,instancename-dcname-clustername-tz-edge-private 稱為 tz-edge-private

NSX-T 設計命名慣例
說明 命名標準
管理 VM instancename-nsxt-ctrlmgr0
instancename-nsxt-ctrlmgr1
instancename-nsxt-ctrlmgr2
上行鏈路設定檔 instancename-esxi-private-profile
instancename-esxi-public-profile
instancename-edge-private-profile
instancename-edge-public-profile
instancename-edge-tep-profile
instancename-mgmt-edge-private-profile
instancename-mgmt-edge-public-profile
instancename-mgmt-edge-tep-profile
NIOC 簡介 instancename-clustername-nioc-private-profile
instancename-clustername-nioc-public-profile
閘道群組設定檔 instancename-dcname-clustername-service-edge-cluster-profile
instancename-dcname-clustername-service-edge-cluster-profile
運輸區 instancename-tz-esxi-private
instancename-tz-esxi-public
instancename-tz-vm-overlay
instancename-tz-edge-private
instancename-tz-edge-public
區段 instancename-podname.dcname-customer-t0-172-16-16-0
instancename-podname.dcname-customer-t1-192-168-0-0
instancename-podname.dcname-customer-t1-192-168-1-0
instancename-podname.dcname-customer-to-private
instancename-podname.dcname-customer-to-public
instancename-podname.dcname-service-to-private
instancename-podname.dcname-service-to-public
instancename-clustername-edge-teps
IP 位址池 instancename-clustername-tep-pool
傳輸節點設定檔 instancename-podname.dcname-clustername-esxi-tpn-profile
Tier-0 和 閘道 Tier-1 instancename-podname.dcname-clustername-T0-function (其中 包括,, ) function services workload openshift
instancename-podname.dcname-clustername-T1-function

傳輸節點

傳輸節點定義參與虛擬網路光纖的實體伺服器物件或 VM。 請檢閱下表以瞭解設計。

NSX-T 傳輸節點
傳輸節點類型 上行鏈路設定檔 IP 指派
ESXi esxi-private-profile
esxi-public-profile
tep-pool
閘道叢集 edge-private-profile
edge-public-profile
edge-tep-profile
mgmt-edge-private-profile
mgmt-edge-public-profile
mgmt-edge-tep-profile
tep-pool

VNI 儲存區

「虛擬網路 ID (VNI)」類似於實體網路的 VLAN。 從儲存區或 ID 範圍建立邏輯交換器時,會自動建立它們。 此設計會使用以 NSX-T 部署的預設 VNI 儲存區。

區段

NSX-T 網段可在與底層硬體脫鈎的虛擬環境中,重現交換功能、廣播、未知單播、多播 (BUM) 流量。

NSX-T 邏輯交換器
區段名稱 VLAN 傳輸區域 上行鏈路團隊原則
edge-teps 預設值 tz-esxi-private TEP - 故障移轉順序
service-to-private 預設值 tz-edge-private
service-to-public 預設值 tz-edge-public
customer-to-private 預設值 tz-edge-private
customer-to-public 預設值 tz-edge-public
customer-t0-172-16-16-0 tz-vm-overlay
customer-t1-192-168-0-0 tz-vm-overlay
customer-t1-192-168-1-0 tz-vm-overlay

閘道叢集

在此設計中,配置了兩個虛擬邊緣節點群集,一個用於管理,另一個用於客戶工作負載。 每個 Edge Transport Node 有一個 T0 的限制,也就是說,一個 Edge Node Cluster 只能支援一個 T0 Gateway (在主動-備用或主動-主用狀態下)。

下圖顯示 NSX-T 閘道群集的功能元件。

客戶閘道群集的拓樸
客戶閘道群集的拓樸

閘道群集拓樸
閘道群集拓樸

層級 0 邏輯閘道

NSX-T Tier-0 邏輯閘道提供邏輯與實體網路之間的閘道服務 (用於南北流量)。 在此設計中,兩個高可用性的 T0 閘道部署在兩個獨立的 NSX-T 閘道群集中,一個用於客戶,另一個用於服務或管理需求。 更多的服務和產品是客戶選擇拓樸的選項,他們使用 T0 的服務來滿足入站(inbound)或出站(outbound)的連線需求。 每個 T0 邏輯閘道配置了兩個專用上行鏈路和兩個公用上行鏈路。 此外,VIP 會被指派到公用和專用上行鏈路。

層級 1 邏輯閘道

NSX-T Tier-1 邏輯閘道具有連接至 NSX-T Data Center 邏輯交換器的下行連接埠,以及連接至 NSX-T Data Center Tier-0 邏輯閘道的上行連接埠。 它們在所設定的管理程序核心層級中執行,是 NSX-T 閘道群集的虛擬路由器實體 (vrf)。 在此設計中,可以建立一個或多個 T1 邏輯閘道,以滿足客戶選擇拓樸的需求。

層級 1 至層級 0 路徑公告

若要在連接至不同 tier-1 邏輯閘道的邏輯交換器的虛擬機器之間提供第 3 層連線,就必須啟用 tier-1 路由廣告,朝向 tier-0。 不需要在層級 1 與層級 0 邏輯路由器之間配置遞送通訊協定或靜態路徑。 當您啟用路徑公告時,NSX-T 會自動建立靜態路徑。 在此設計中,任何 IBM Cloud® for VMware Solutions 自動化建立的 T1 閘道都會啟用路由廣告。

預先配置的拓蹼

工作負載 T1 至 T0 閘道 - 虛擬閘道群集

NSX-T 部署的拓樸虛擬 T0 Edge Gateway
NSX-T 部署的拓樸虛擬 T0 Edge Gateway

使用 NSX-T 時,在 T1 與 T0 之間沒有任何動態遞送通訊協定配置。 RFC-1891 IP 位址空間用於工作負載層疊網路和傳輸層疊網路。 會指派客戶專用和公用可攜式 IP 空間,以供客戶使用。 將客戶指定的 IBM Cloud 專用和公用可攜式 IP 空間指派給 T0,以供客戶使用。