IBM Cloud Docs
VMware NSX-T-Design

VMware NSX-T-Design

VMware® NSX-T™ wurde entwickelt, um Anwendungsframeworks und Architekturen zu adressieren, die heterogene Endpunkte und Technologiestacks aufweisen. Zusätzlich zur VMware vSphere® können diese Umgebungen andere Hypervisors, KVM, Container und Bare-Metal-Servers beinhalten. NSX-T ist darauf ausgelegt, eine softwaredefinierte Netzwerk- und Sicherheitsinfrastruktur über andere Plattformen als nur vSphere zu spannen. Obwohl es möglich ist, NSA-T-Komponenten ohne vSphere zu implementieren, konzentriert sich dieses Design auf NSX-T und seine Integration in erster Linie innerhalb einer automatisierten vCenter Server vSphere-Bereitstellung.

Ab Version 3 kann NSX-T auf dem virtuellen verteilten Switch (VDS) vSphere Version 7.0 ausgeführt werden. Alle neuen Bereitstellungen von VMware NSX und vSphere verwenden NSX-T auf VDS, und N-VDS wird nicht mehr verwendet. Ab NSX-T 2.4 werden die Manager-VM und die Controller-VM-Funktionen kombiniert. Als Ergebnis werden drei Controller- oder Manager-VMs bereitgestellt. Wenn sie in demselben Teilnetz verwendet werden, wird von ihnen eine interne Netzlastausgleichsfunktion verwendet. Wenn in verschiedenen Teilnetzen verwendet werden, ist eine externe Lastausgleichsfunktion erforderlich.

NSX-T bietet viele fortschrittliche Funktionen, wie z. B. Firewall-Richtlinien, die Einbeziehung der Gast-Introspektion in Firewall-Richtlinien und eine erweiterte Netflow-Verfolgung. Das Beschreiben dieser Funktionen liegt außerhalb des Geltungsbereichs dieses Dokuments. In diesem Design wird die Managementinfrastruktur von NSX-T während der anfänglichen Bereitstellung des vCenter Server® Clusters implementiert. Weitere Informationen zu NSX-T finden Sie in der VMware NSX-Dokumentation.

NSX-T und NSX-V im Vergleich

Für VMware vSphere Network NSX (NSX-V) überprüfen Sie die folgenden NSX-T-Objekte mit ähnlichen Funktionen wie ihre NSX-V-Gegenstücke. Einschränkungen und Unterschiede innerhalb einer vSphere-Umgebung werden ebenfalls besprochen.

Die folgende Tabelle zeigt die typischen entsprechenden Funktionen zwischen NSX-T und NSX-V.

NSX-V und NSX-T entsprechende Funktionen
NSX-V oder natives vSphere NSX-T
NSX-Transportzone Transportzone (Overlay oder VLAN-gestützt)
**Portgruppen (vDS) ** Segmente oder logischer Switch
VXLAN (L2-Kapselung) GENEVE (L2-Kapselung)
Edge Gateway Tier-0-Gateway (T0)[1]
Distributed Logical Router Tier-1-Gateway (T1)[2]
ESXi-Server Transportknoten (ESXi, KVM, Bare-Metal-T0-Gateway)

Mit NSX-T verfügen Sie über Tier-0-Gateways (T0-Gateways) und Tier-1-Gateways (T1-Gateways). Während sie im vorherigen Abschnitt als Äquivalent zu einem NSX-V Edge Services Gateway (ESG) und einem Distributed Logical Router (DLR) dargestellt wurden, ist dies nicht ganz korrekt.

Für NSX-T werden zwei neue Konzepte eingeführt: Distributed Router (DR) und Service-Router (SR).

NSX-T Verteiler und Service-Router
Routertyp Funktionen
Verteilter Router Bietet grundlegende Paketweiterleitung und verteilte Ost-West-Routing-Funktionen
Erweitert alle Transportknoten
Wir auf ESXi als Kernelmodul ausgeführt
Service-Router

Stellt Gateway-Services bereit

  • NAT
    -Lastausgleichsfunktion
  • Gateway-Firewall
  • Nord-Süd-Routing
  • VPN
  • DNS-Weiterleitung
  • DHCP

Einige wichtige NSX-T-Konzepte entsprechen nicht den NSX-V-Funktionen. Sie müssen die folgenden Konzepte überprüfen, damit Sie die Implementierung des NSX-T-Designs verstehen können.

  • Ein Gateway-Cluster besteht aus einer oder mehreren VMs oder physischen Maschinen, die an einer virtuellen NSX-T-Struktur teilnehmen. Sie sind Endpunkte für die Overlay-Netztransportzonen und VLAN-gestützten Transportzonen. Ein Gateway-Cluster kann eine einzelne T0-Gateway-Instanz unterstützen.
  • Ein T0-Gateway ist eine virtuelle Routerkomponente, aber keine VM. Mehrere T0-Gateway-Instanzen können innerhalb eines Gateway-Clusters ausgeführt werden, wobei jede über eine eigene Routingtabelle und eigene Funktionen verfügt. Ein Gateway-Cluster muss vorhanden sein, bevor Sie eine T0-Routerinstanz erstellen können.
  • Eine Transportzone kann Endpunkte über verschiedene Plattformen hinweg und mehrere vSphere vCenter-Instanzen umfassen. Es ist kein Cross-vCenter-verknüpftes NSX erforderlich. Transportzonen können von bestimmten Endpunkten ausgeschlossen werden.
  • Die Uplink-Failover-Reihenfolge wird unabhängig von einem bestimmten logischen Switch erstellt, da sie in Profilen als "Uplink Profiles" erstellt und auf einen bestimmten logischen Switch angewendet werden, der auf VLAN basiert. Es kann sein, dass ein abweichendes Failover oder ein abweichender Lastausgleich für physische Uplinks für dasselbe VLAN erforderlich wird. Daher kann das Uplink-Profil für ein bestimmtes VLAN mehrere Einträge für "Teaming" mit einer anderen Failover-Reihenfolge und Lastverteilung enthalten. Wenn Sie das Uplink-Profil einem logischen Switch zuordnen, wird das bestimmte Teaming-Profil ausgewählt.
  • Die Manager-VM- und die Controller-VM-Funktion wurden kombiniert, was zur Folge hat, dass drei NSX-T-Manager-VMs bereitgestellt werden. Wenn sie in demselben Teilnetz verwendet werden, wird von ihnen eine interne Netzlastausgleichsfunktion verwendet. Wenn in verschiedenen Teilnetzen verwendet werden, ist eine externe Lastausgleichsfunktion erforderlich.

Ressourcenanforderungen

In diesem Design werden die NSX-T Controller Manager-VMs im Management-Cluster bereitgestellt. Außerdem ist jeder Controller Manager-Instanz eine VLAN–gestützte IP-Adresse aus dem privaten portierbaren Adressblock zugeordnet. Der Adressblock wird für Managementkomponenten bestimmt und mit den DNS- und NTP-Servern konfiguriert, die in Abschnitt 0 beschrieben werden. Eine Zusammenfassung der NSX-Manager-Installation ist in der folgenden Tabelle dargestellt.

NSX-T Manager - Controller-Spezifikationen
Attribut Spezifikation
NSX-Manager oder Controller Drei virtuelle Appliances
Anzahl vCPUs 6
Speicher 24 GB
Disk 300 GB
Plattentyp Thin Provisioning
NetworkPrivate A Private A

In der folgenden Abbildung wird die Anordnung der NSX Manager in Relation zu anderen Komponenten in dieser Architektur dargestellt.

NSX-T Manager
Manager

Überlegungen zur Bereitstellung

Mit NSX-T v3.x auf vSphere VDS-Switch-Version 7.0 ist N-VDS auf den ESXi-Hosts nicht mehr erforderlich. Wenn sie als Transportknoten konfiguriert sind, können Sie nun V7 VDS verwenden, um einen konvergierten Cluster zu einem optimaleren Design zu machen.

Nach der Erstbereitstellung werden von der IBM Cloud®-Automatisierung drei virtuelle NSX-T Manager-Appliances im Management-Cluster bereitgestellt. Jedem der Controller wird eine VLAN-gestützte IP-Adresse aus dem portierbaren Teilnetz "Privat A" zugeordnet, das für Managementkomponenten vorgesehen ist. Außerdem werden VM-VM-Anti-Affinitätsregeln erstellt, damit die Controller unter den Hosts im Cluster separiert werden.

Sie müssen den Management-Cluster mit mindestens drei Knoten implementieren, um eine hohe Verfügbarkeit für die Manager oder Controller sicherzustellen. Zusätzlich zu den Managern bereitet die IBM Cloud-Automatisierung den bereitgestellten Workload-Cluster als NSX-T-Transportknoten vor. Den ESXi-Transportknoten wird eine VLAN-gesicherte IP-Adresse aus dem portablen IP-Adressbereich Private A zugewiesen, der durch einen aus der VLAN- und Teilnetzzusammenfassung abgeleiteten NSX-IP-Pool-Bereich festgelegt ist. Der Verkehr des Verkehrsknotenpunkts befindet sich im nicht gekennzeichneten VLAN und wird dem privaten NSX-T VDS zugewiesen.

Je nach der von Ihnen gewählten NSX-T-Topologie können Sie einen NSX-T-Gateway-Cluster entweder als ein Paar von VMs oder als Software bereitstellen, die auf Bare-Metal-Clusterknoten bereitgestellt wird. Die Bare-Metal-Edges werden von der IBM Cloud-Automation nicht unterstützt und müssen manuell implementiert und konfiguriert werden. Unabhängig davon, ob das Clusterpaar virtuell oder physisch virtuell ist, werden Uplinks für VDS-Switches sowohl für private als auch (falls vorhanden) öffentliche IBM Cloud-Netze konfiguriert.

In der folgenden Tabelle sind die Anforderungen für eine Umgebung mit mittlerer Größe zusammengefasst, was die empfohlene Startgröße für die Auslastung im Produktionsbetrieb darstellt.

Spezifikation der NSX-T-Komponenten
Ressourcen Manager x3 Cluster x4 für Edge-Service
Mittlere Größe Virtuelle Appliance Virtuelle Appliance
Anzahl vCPUs 6 4
Hauptspeicher 24 GB 8 GB
Platte 300 GB vSAN oder Management-NFS 200 GB vSAN oder Management-NFS
Plattentyp Thin Provisioning Thin Provisioning
Netz Private A Private A

Design verteilter Switches

In dem Design wird eine minimale Anzahl von vDS-Switches verwendet. Die Hosts im Management-Cluster sind mit den privaten und (wahlweise) öffentlichen Netzen verbunden. Die Hosts werden mit zwei verteilten virtuellen Switches konfiguriert. Die Verwendung von zwei Switches basiert auf der Praxis im IBM Cloud-Netz, dass öffentliche und private Netze getrennt werden. Alle neuen Implementierungen von NSX und vSphere nutzen die Vorteile des vSphere VDS-Switches Version 7.0, der eine konvergente NSX-T-Architektur ermöglicht.

Verteiltes Switch-Design Privat
Verteiltes Switch-Design

Verteiltes Switch-Design
Verteiltes Switch-Design

Wie in den vorherigen Diagrammen gezeigt, ist das öffentliche vDS *instancename*-*clustername*-public für die öffentliche Netzkonnektivität konfiguriert und die öffentliche vDS-Datei *instancename*-*clustername*-private ist für die private Netzkonnektivität konfiguriert. Die Trennung verschiedener Typen von Datenverkehr ist erforderlich, um Konkurrenzsituationen und Latenzzeiten zu verringern und die Sicherheit zu erhöhen.

VLANs werden zur Segmentierung physischer Netzfunktionen verwendet. In diesem Design werden drei VLANs verwendet: zwei für privaten Netzverkehr und eines für öffentlichen Netzverkehr. In der folgenden Tabelle wird die Trennung des Datenverkehrs dargestellt.

VLAN-Zuordnung zu Verkehrsarten
VLAN Bezeichnung Datenverkehrstyp
VLAN 1 Private A ESXi-Management, Management, Geneve (TEP), Edge-Uplinks
VLAN 2 Private B vSAN, NFS, vMotion
VLAN 3 Öffentliche Für Internetzugriff verfügbar

Für die optionalen zwei Host-Gateway-Cluster werden in diesem Design zwei VLANs verwendet: eines für den privaten Netzverkehr und eines für den öffentlichen Netzverkehr. Dieser Clustertyp verwendet lokale Platten als Datenspeicher. Aus diesem Grund benötigen Sie keinen separaten Speicherdatenverkehr. Außerdem wird gemäß dem Design der Datenverkehr von NSX-T Geneve (TEP) ausgelassen. In der folgenden Tabelle wird die Trennung des Datenverkehrs zwischen VLANs für diesen Clustertyp dargestellt.

VLAN-Zuordnung zu Gateway-Verkehrsarten
VLAN Bezeichnung Datenverkehrstyp
VLAN 1 Private Transit Privates Transit-VLAN, ESXi-Management und vMotion
VLAN 2 Public Transit VLAN mit öffentlichem Transit

Namenskonventionen

Für die Bereitstellung werden die folgenden Namenskonventionen verwendet. Zur Lesbarkeit wird nur die spezifische Benennung verwendet. Beispiel: instancename-dcname-clustername-tz-edge-private wird als tz-edge-private bezeichnet.

NSX-T Design Namenskonvention
Beschreibung Benennungsstandard
Management-VMs instancename-nsxt-ctrlmgr0
instancename-nsxt-ctrlmgr1
instancename-nsxt-ctrlmgr2
Uplink-Profile instancename-esxi-private-profile
instancename-esxi-public-profile
instancename-edge-private-profile
instancename-edge-public-profile
instancename-edge-tep-profile
instancename-mgmt-edge-private-profile
instancename-mgmt-edge-public-profile
instancename-mgmt-edge-tep-profile
NIOC-Profile instancename-clustername-nioc-private-profile
instancename-clustername-nioc-public-profile
Gateway-Cluster-Profile instancename-dcname-clustername-service-edge-cluster-profile
instancename-dcname-clustername-service-edge-cluster-profile
Transportzonen instancename-tz-esxi-private
instancename-tz-esxi-public
instancename-tz-vm-overlay
instancename-tz-edge-private
instancename-tz-edge-public
Segmente instancename-podname.dcname-customer-t0-172-16-16-0
instancename-podname.dcname-customer-t1-192-168-0-0
instancename-podname.dcname-customer-t1-192-168-1-0
instancename-podname.dcname-customer-to-private
instancename-podname.dcname-customer-to-public
instancename-podname.dcname-service-to-private
instancename-podname.dcname-service-to-public
instancename-clustername-edge-teps
IP-Adresspools instancename-clustername-tep-pool
Transportknotenprofile instancename-podname.dcname-clustername-esxi-tpn-profile
Tier-0- und Tier-1-Gateways instancename-podname.dcname-clustername-T0-function (function enthält services, workload, openshift)
instancename-podname.dcname-clustername-T1-function

Transportknoten

Transportknoten definieren die physischen Serverobjekte oder VMs, die an der virtuellen Netzstruktur beteiligt sind. Sehen Sie sich die folgende Tabelle an, um das Design zu verstehen.

NSX-T-Transportknoten
Typ des Transportknotens Uplinkprofil IP-Zuweisung
ESXi esxi-private-profile
esxi-public-profile
tep-pool
Gateway-Cluster edge-private-profile
edge-public-profile
edge-tep-profile
mgmt-edge-private-profile
mgmt-edge-public-profile
mgmt-edge-tep-profile
tep-pool

VNI-Pools

Virtuelle Netz-IDs (VNIs) ähneln VLANs in einem physischen Netz. Sie werden automatisch erstellt, wenn ein logischer Switch aus einem Pool oder einem Bereich von IDs erstellt wird. In diesem Design wird der standardmäßige VNI-Pool verwendet, der mit NSX-T bereitgestellt wird.

Segmente

Ein NSX-T-Segment reproduziert in einer virtuellen Umgebung, die von der zugrunde liegenden Hardware entkoppelt ist, Switchfunktionen und BUM-Datenverkehr (Broadcast, Unknown-Unicast, Multicast).

Logische NSX-T-Switches
Segmentname VLAN Transportzone Uplink-Teaming-Richtlinie
edge-teps Standardwert tz-esxi-private TEP-Funktionsübernahme
service-to-private Standardwert tz-edge-private
service-to-public Standardwert tz-edge-public
customer-to-private Standardwert tz-edge-private
customer-to-public Standardwert tz-edge-public
customer-t0-172-16-16-0 tz-vm-overlay
customer-t1-192-168-0-0 tz-vm-overlay
customer-t1-192-168-1-0 tz-vm-overlay

Gateway-Cluster

In diesem Design werden zwei virtuelle Edge-Knoten-Cluster bereitgestellt, einer für das Management und die andere für Kundenworkloads. Es besteht eine Einschränkung von einem T0 pro Edge-Transportknoten, was bedeutet, dass ein einzelner Edge-Knotencluster ein T0-Gateway unterstützen kann (entweder in aktiv-standby oder aktiv-aktiv).

Die folgenden Abbildungen zeigen die Funktionskomponenten eines NSX-T-Gateway-Clusters.

Topologie für den
für den

Gateway cluster topology
Gateway cluster topology

Logisches Tier-0-Gateway

Ein logisches NSX-Tier-0-Gateway stellt einen Gateway-Service zwischen dem logischen und dem physischen Netz (für Nord-Süd-Datenverkehr) bereit. Bei diesem Entwurf werden zwei hochverfügbare T0-Gateways in zwei separaten NSX-T-Gateway-Clustern eingesetzt, einer für Kunden und einer für Service- oder Verwaltungsanforderungen. Weitere Dienstleistungen und Produkte sind für vom Kunden gewählte Topologien optional und sie nutzen die Dienste T0 für ihre eingehenden oder ausgehenden Konnektivitätsanforderungen. Jedes logische T0-Gateway ist mit zwei Uplinks für private und zwei für öffentliche Verbindungen konfiguriert. Zusätzlich werden VIPs sowohl öffentlichen als auch privaten Uplinks zugewiesen.

Logisches Tier-1-Gateway

Ein logisches Tier-1-NSX-T-Gateway verfügt über Downlink-Ports, um Verbindungen zu logischen NSX-T-Switches in Rechenzentren herzustellen, und über Uplink-Ports, um nur Verbindungen zu logischen Tier-0-NSX-T-Gateways in Rechenzentren herzustellen. Sie werden auf der Kernel-Ebene des Hypervisors ausgeführt, für den sie konfiguriert sind, und sind virtuelle Router-Instanzen (VRF) des NSX-T-Gateway-Clusters. In diesem Entwurf können ein oder mehrere T1 logische Gateways für die Anforderungen der vom Kunden gewählten Topologien erstellt werden.

Routenmitteilung von Tier 1 bis Tier 0

Um Layer-3-Konnektivität zwischen VMs bereitzustellen, die mit logischen Switches verbunden sind, die an verschiedene logische Tier-1-Gateways angeschlossen sind, ist es notwendig, Tier-1-Routenanzeige in Richtung Tier-0 zu aktivieren. Es ist nicht erforderlich, ein Routing-Protokoll oder statische Routen zwischen den logischen Tier-1- und Tier-0-Routen zu konfigurieren. NSX-T erstellt statische Routen automatisch, wenn Sie die Routenmitteilung aktivieren. Bei diesem Design ist die Routenanzeige für alle durch IBM Cloud® for VMware Solutions-Automation erstellten T1-Gateways immer aktiviert.

Vorkonfigurierte Topologien

Workload zu T1 zu T0 Gateway – virtueller Gateway-Cluster

NSX-T bereitgestellte Topologie virtuell T0 Edge
bereitgestellte Topologie virtuell T0 Edge

Topologie 1 ist im Wesentlichen die gleiche Topologie, die mit den NSX-V-DLR- und Edge-Gateways bereitgestellt wird. Bei NSX-T ist keine dynamische Routing-Protokollkonfiguration zwischen T1 und T0 vorhanden. RFC-1891 Der IP-Adressraum wird für das Workload-Overlay-Netz und das Transit-Overlay-Netz verwendet. Dem Kunden wird ein privater und öffentlicher portabler IP-Bereich zugeordnet, der für den Kunden verwendet wird. Ein vom Kunden als bezeichneter privater und öffentlicher portierbarer IBM Cloud-IP-Bereich wird dem T0 zur Verwendung durch den Kunden zugewiesen.


  1. Ein T0-Gateway ähnelt einer ESG. Es bietet Nord-Süd-Konnektivität zwischen physischen und logischen Netzen, unterstützt dynamisches Routing (BGP), ECMP und statusabhängige Services wie eine Firewall, NAT oder einen Lastausgleich. Er stellt außerdem verteilte Services für Ost-West-Routing zur Verfügung. ↩︎

  2. Ein T1-Gateway ist wie ein T0-Gateway, enthält jedoch normalerweise keine Uplinks für die Verbindung zu einem physischen Netzwerk. Sein Uplink stellt eine Verbindung zu einem automatisch angeschlossenen Overlay-Segment mit dem T0-Gateway her. Von einem T1-Gateway werden statische Routen, NAT, Lastenausgleich und IPSec-VPNs unterstützt. ↩︎