IBM Cloud Docs
Design do VMware NSX-T

Design do VMware NSX-T

O VMware® NSX-T™ foi projetado para lidar com arquiteturas e estruturas de aplicativos que contam com terminais heterogêneos e pilhas de tecnologia. Além do VMware vSphere®, esses ambientes podem incluir outros hypervisors, KVMs, contêineres e servidores bare metal. O NSX-T foi projetado para abranger uma infraestrutura de rede e segurança definida por software em outras plataformas que não apenas a vSphere. Embora seja possível implementar componentes do NSX-T sem precisar do vSphere, esse design se concentra no NSX-T e em sua integração principalmente dentro de uma implementação automatizada do vCenter Server vSphere.

A partir da versão 3, o NSX-T pode ser executado na versão vSphere do switch virtual distribuído (VDS) 7.0. Todas as novas implantações do VMware NSX e do vSphere usam o NSX-T no VDS, e o N-VDS não é mais usado. A partir do NSX-T 2.4, as funções de gerenciador e de controlador de VM são combinadas. Como resultado, são implementadas três VMs de controlador ou gerenciador. Se, na mesma sub-rede, elas usarem um balanceador de carga de rede interna. Se em sub-redes diferentes, um balanceador de carga externo será necessário.

O NSX-T traz muitos recursos avançados, como políticas de firewall, inclusão de introspecção de convidados nas políticas de firewall e rastreamento avançado de fluxo de rede. Descrever esses recursos está além do escopo deste documento. Neste projeto, a NSX-T Management Infrastructure é implementada durante a implementação inicial do cluster do vCenter Server®. Para obter mais informações sobre o NSX-T, consulte a VMware NSX.

NSX-T vs. NSX-V

Para VMware vSphere Network NSX (NSX-V), examine os seguintes objetos do NSX-T com funções semelhantes às de suas contrapartes do NSX-V. As limitações e diferenças em um ambiente vSphere também são discutidas.

A tabela a seguir mostra as funções correspondentes típicas entre o NSX-T e o NSX-V.

Funções correspondentes do NSX-V e do NSX-T
NSX-V ou vSphere nativo NSX-T
Zona de transporte do NSX Zona de transporte (sobreposição ou suportado pela VLAN)
**Grupos de portas (vDS) ** Segmentos ou comutador lógico
VXLAN (encapsulamento L2) GENEVE (encapsulamento L2)
Edge Gateway Gateway Tier-0 (T0)[1]
Roteador lógico distribuído Gateway Tier-1 (T1)[2]
Servidor ESXi Nó de transporte (ESXi, KVM, Gateway T0 bare metal)

Com o NSX-T, você tem Gateways Camada 0 (T0) e Gateways Camada 1 (T1). Embora na seção anterior elas sejam mostradas como equivalentes a um gateway de serviços de borda (ESG) do NSX-V e a um roteador lógico distribuído (DLR), isso não é totalmente preciso.

Para o NSX-T, dois novos conceitos são introduzidos: roteador distribuído (DR) e roteador de serviço (SR).

Roteadores de serviço e distribuidores NSX-T
Tipo de roteador Recursos
Roteador distribuído Fornece encaminhamento básico de pacotes e funções de roteamento leste-oeste distribuídas
Abrange todos os nós de transporte
É executado como módulo de kernel no ESXi
Roteador de serviço

Fornece serviços de gateway

  • NAT
  • Balanceador de carga
  • Firewall de gateway
  • Roteamento norte-sul
  • VPN
  • Encaminhamento de DNS
  • DHCP

Alguns conceitos importantes do NSX-T não correspondem às funções do NSX-V. É necessário revisar os conceitos a seguir para entender a implementação de design do NSX-T.

  • Um cluster de gateway é uma ou mais VMs ou máquinas físicas que participam de uma malha virtual do NSX-T. Eles são terminais para as zonas de transporte de rede de sobreposição e as zonas de transporte auxiliadas pela VLAN. Um cluster de gateway pode suportar uma única instância de gateway T0.
  • Um gateway T0 é uma instância de roteador virtual, mas não uma VM. Várias instâncias do gateway T0 podem ser executadas em um cluster de gateway, cada uma com sua própria tabela de roteamento e funções. Um cluster de gateway deve existir antes que você possa criar uma instância do roteador T0.
  • Uma zona de transporte pode abranger os terminais em diferentes plataformas e diversas instâncias do vSphere vCenter. Não é necessário ter um NSX vinculado ao vCenter cruzado. As zonas de transporte podem ser excluídas de terminais específicos.
  • A ordem de failover de uplink é criada independente de um comutador lógico específico, pois ela é criada em perfis como "Perfis de Uplink" e é aplicada a um comutador lógico específico com base na VLAN. É possível precisar de um pedido de failover diferenciado ou balanceamento de carga de uplinks físicos para a mesma VLAN. Portanto, o perfil de uplink para uma VLAN específica pode conter várias entradas para "Teaming" com uma ordem de failover e balanceamento de carga diferentes. Ao designar o perfil de uplink a um comutador lógico, o perfil de equipe específico é escolhido.
  • A VM do gerenciador e a função de VM do controlador são combinadas, o que resulta na implementação de três VMs do NSX-T Manager. Se, na mesma sub-rede, elas usarem um balanceador de carga de rede interna. Se em sub-redes diferentes, um balanceador de carga externo será necessário.

Requisitos de recurso

Neste design, as VMs do Gerenciador de controladores NSX-T são implementadas no cluster de gerenciamento. Além disso, é designado um endereço IP de VLAN apoiado a cada gerenciador de controlador, por meio do bloco de endereço móvel privado. O bloco de endereços é designado para componentes de gerenciamento e configurado com os servidores DNS e NTP, discutidos na seção 0. Um resumo da instalação do NSX Manager é mostrado na tabela a seguir.

NSX-T Manager - especificações do controlador
Atributo Especificação
Gerenciadores ou controladores do NSX Três dispositivos virtuais
Número de vCPUs 6
Memória 24 GB
Disco 300 GB
Tipo de disco Thin provisioned
NetworkPrivate A Privada A

A figura a seguir mostra a colocação dos gerenciadores NSX em relação aos outros componentes nessa arquitetura.

Visão
da rede do NSX-T Manager*Visão geral da rede do NSX-T

Considerações sobre implementação

Com o NSX-T v3.x no switch vSphere VDS versão 7.0, o N-VDS não é mais necessário nos hosts ESXi. Quando configurado como nós de transporte, é possível usar o VDS v7, o que torna o cluster consolidado um design mais ideal.

Após a implementação inicial, a automação do IBM Cloud® implementa três dispositivos virtuais do NSX-T Manager dentro do cluster de gerenciamento. Os controladores são designados com um endereço IP suportado pela VLAN por meio da sub-rede móvel Privada A que é designada para componentes de gerenciamento. Além disso, as regras de antiafinidade VM-VM são criadas, de modo que os controladores sejam separados entre os hosts no cluster.

Deve-se implementar o cluster de gerenciamento com um mínimo de três nós para garantir alta disponibilidade aos gerenciadores ou controladores. Além dos gerentes, a automação do IBM Cloud prepara o cluster de carga de trabalho implementado como nós de transporte NSX-T. Os nós de transporte do ESXi recebem um endereço IP suportado por VLAN do intervalo de endereços IP móveis Private A que é especificado por um conjunto de IPs do NSX com intervalo definido e derivado do resumo da VLAN e da sub-rede. O tráfego do nó de transporte reside na VLAN sem marcação e é atribuído ao NSX-T VDS privado.

Dependendo da topologia do NSX-T escolhida, você pode implantar um cluster de gateway do NSX-T como um par de VMs ou como software implantado em nós de cluster bare metal. Bordas de bare metal não são suportadas pela automação do IBM Cloud e devem ser implementadas e configuradas manualmente. Tanto para pares de clusters virtuais quanto físicos, os uplinks são configurados com relação aos comutadores VDS para redes privadas e públicas (quando presentes) do IBM Cloud.

A tabela a seguir resume os requisitos para um ambiente de tamanho médio, que é o tamanho inicial recomendado para cargas de trabalho de produção.

Especificação do componente NSX-T
Recursos Gerente x3 Cluster de serviços de borda
x4
Tamanho médio Dispositivo Virtual Dispositivo Virtual
Número de vCPUs 6 4
Memória 24 GB 8 GB
Disco vSAN ou NFS de gerenciamento de 300 GB vSAN ou NFS de gerenciamento de 200 GB
Tipo de disco Thin provisioned Thin provisioned
Rede Privada A Privada A

Design do comutador distribuído

O design usa um número mínimo de Comutadores vDS. Os hosts no cluster de gerenciamento são conectados às redes privadas e (opcionalmente) públicas. Os hosts são configurados com dois comutadores virtuais distribuídos. O uso de dois comutadores segue a prática de rede do IBM Cloud que separa as redes pública e privada. Todas as novas implementações do NSX e do vSphere aproveitam a execução do comutador vSphere VDS versão 7.0., que permite uma arquitetura convergida do NSX-T.

Projeto de switch distribuído Privado
Projeto de switch distribuído

Design de switch distribuído
Design de switch distribuído

Conforme mostrado nos diagramas anteriores, o vDS público *instancename*-*clustername*-public é configurado para conectividade de rede pública e o vDS público *instancename*-*clustername*-private é configurado para conectividade de rede privada. A separação de diferentes tipos de tráfego é necessária para reduzir a contenção e a latência e aumentar a segurança.

As VLANs são usadas para segmentar funções de rede física. Esse design usa três VLANs: duas para tráfego de rede privada e uma para tráfego de rede pública. A tabela a seguir mostra a separação de tráfego.

Mapeamento de VLAN para tipos de tráfego
VLAN Designação Tipo de tráfego
VLAN 1 Privada A Gerenciamento de ESXi, gerenciamento, Geneve (TEP), uplinks de borda
VLAN 2 Privada B vSAN, NFS e vMotion
VLAN 3 Público Disponível para acesso à Internet

Para os dois clusters de gateway opcionais do host, esse design usa duas VLANs: uma para o tráfego de rede privada e outra para o tráfego de rede pública. Esse tipo de cluster usa discos locais como armazenamento de dados. Portanto, não é necessário separar o tráfego de armazenamento. Além disso, de acordo com o design, o tráfego do NSX-T Geneve (TEP) é desconsiderado. A tabela a seguir mostra a separação de tráfego entre as VLANs para esse tipo de cluster.

Mapeamento de VLAN para tipos de tráfego de gateway
VLAN Designação Tipo de tráfego
VLAN 1 Trânsito privado VLAN de trânsito privado, gerenciamento do ESXi e vMotion
VLAN 2 Trânsito público VLAN de trânsito público

Convenções de nomenclatura

As convenções de nomenclatura a seguir são usadas para implementação. Para a legibilidade, apenas a nomenclatura específica é usada. Por exemplo, o instancename-dcname-clustername-tz-edge-private é chamado de tz-edge-private.

Convenção de nomenclatura de design do NSX-T
Descrição Padrão de nomenclatura
MVs de gerenciamento instancename-nsxt-ctrlmgr0
instancename-nsxt-ctrlmgr1
instancename-nsxt-ctrlmgr2
Perfis de uplink instancename-esxi-private-profile
instancename-esxi-public-profile
instancename-edge-private-profile
instancename-edge-public-profile
instancename-edge-tep-profile
instancename-mgmt-edge-private-profile
instancename-mgmt-edge-public-profile
instancename-mgmt-edge-tep-profile
Perfis de NIOC instancename-clustername-nioc-private-profile
instancename-clustername-nioc-public-profile
Perfis de cluster de gateway instancename-dcname-clustername-service-edge-cluster-profile
instancename-dcname-clustername-service-edge-cluster-profile
Zonas de transporte instancename-tz-esxi-private
instancename-tz-esxi-public
instancename-tz-vm-overlay
instancename-tz-edge-private
instancename-tz-edge-public
Segmentos instancename-podname.dcname-customer-t0-172-16-16-0
instancename-podname.dcname-customer-t1-192-168-0-0
instancename-podname.dcname-customer-t1-192-168-1-0
instancename-podname.dcname-customer-to-private
instancename-podname.dcname-customer-to-public
instancename-podname.dcname-service-to-private
instancename-podname.dcname-service-to-public
instancename-clustername-edge-teps
Conjuntos de endereços IP instancename-clustername-tep-pool
Transport nodes profiles instancename-podname.dcname-clustername-esxi-tpn-profile
Gateways de Camada 0 e de Camada 1 instancename-podname.dcname-clustername-T0-function (em que function inclui services, workload, openshift)
instancename-podname.dcname-clustername-T1-function

Nós de transporte

Os nós de transporte definem os objetos do servidor físico ou VMs que participam da malha de rede virtual. Revise a tabela a seguir para entender o design.

Nós de transporte do NSX-T
Tipo de nó de transporte Perfil de uplink Designação de IP
ESXi esxi-private-profile
esxi-public-profile
tep-pool
Cluster de gateway edge-private-profile
edge-public-profile
edge-tep-profile
mgmt-edge-private-profile
mgmt-edge-public-profile
mgmt-edge-tep-profile
tep-pool

Conjuntos de VNI

Os Identificadores de rede virtual (VNIs) são semelhantes a VLANs para uma rede física. Eles são criados automaticamente quando um comutador lógico é criado por meio de um conjunto ou intervalo de IDs. Esse design usa o conjunto de VNI padrão que é implementado com o NSX-T.

Segmentos

Um segmento do NSX-T reproduz funções de comutação, transmissão, unicast desconhecido, tráfego multicast (BUM), em um ambiente virtual que é desacoplado do hardware subjacente.

Comutadores lógicos NSX-T
Nome do segmento VLAN Zona de transporte Política de formação de equipe de uplink
edge-teps padrão tz-esxi-private TEP - Ordem de failover
service-to-private padrão tz-edge-private
service-to-public padrão tz-edge-public
customer-to-private padrão tz-edge-private
customer-to-public padrão tz-edge-public
customer-t0-172-16-16-0 tz-vm-overlay
customer-t1-192-168-0-0 tz-vm-overlay
customer-t1-192-168-1-0 tz-vm-overlay

Cluster de gateway

Nesse design, são provisionados dois clusters virtuais de nó de borda, um para o gerenciamento e outro para as cargas de trabalho do cliente. Há uma limitação de um T0 por nó de transporte de borda, o que significa que um único cluster de nó de borda pode oferecer suporte a um gateway T0 (ativo-ativo ou ativo-em espera).

As figuras a seguir mostram os componentes funcionais de um cluster de gateway NSX-T.

Topologia para o cluster de gateway do
para o cluster de gateway do

Gateway cluster topology
Gateway cluster topology

Gateway lógico da Camada 0

Um gateway lógico da Camada 0 do NSX-T fornece um serviço de gateway entre as redes lógicas e físicas (para o tráfego norte-sul). Nesse projeto, dois gateways T0 altamente disponíveis são implantados em dois clusters de gateway NSX-T separados, um para o cliente e outro para serviços ou necessidades de gerenciamento. Mais serviços e produtos são opcionais para as topologias escolhidas pelo cliente e eles usam os serviços T0 para suas necessidades de conectividade de entrada ou saída. Cada gateway lógico T0 é configurado com dois uplinks para privado e dois para público. Além disso, VIPs são designados a uplinks públicos e privados.

Gateway lógico da Camada 1

Um gateway lógico da Camada 1 do NSX-T tem portas de downlink para se conectar aos comutadores lógicos do NSX-T Data Center e portas de uplink para se conectar aos gateways lógicos da Camada 0 do NSX-T Data Center. Eles são executados no nível do kernel do hipervisor para o qual estão configurados e são instâncias de roteador virtual (vrf) do cluster de gateway do NSX-T. Nesse projeto, um ou mais gateways lógicos T1 podem ser criados para atender às necessidades das topologias escolhidas pelo cliente.

Propaganda de rota da Camada 1 para Camada 0

Para fornecer conectividade de Camada 3 entre VMs conectadas a comutadores lógicos que estão conectados a diferentes gateways lógicos de camada 1, é necessário ativar o anúncio de rota de camada 1 para a camada 0. Não é necessário configurar um protocolo de roteamento ou rotas estáticas entre os roteadores lógicos da camada 1 e camada 0. O NSX-T cria rotas estáticas automaticamente quando você ativa a propaganda de rota. Para esse design, o anúncio de rota está sempre ativado para qualquer gateway de T1 criado pela automação do IBM Cloud® for VMware Solutions.

Topologias pré-configuradas

Carga de trabalho para T1 para T0 gateway - cluster de gateway virtual

NSX-T implantado com topologia virtual T0 Edge
implantado com topologia virtual T0 Edge

A topologia 1 é basicamente a mesma topologia que é implementada com os gateways DLR e de Borda do NSX-V. Com o NSX-T, nenhuma configuração de protocolo de roteamento dinâmico entre T1 e T0. O espaço de endereço IP do RFC-1891 é usado para a rede de sobreposição de carga de trabalho e a rede de sobreposição de trânsito. Um espaço de IP móvel privado e público do cliente é designado para o uso do cliente. Um espaço de IP móvel privado e público do IBM Cloud designado pelo cliente é designado ao T0 para uso do cliente.


  1. O gateway T0 é semelhante a um ESG. Ele fornece conectividade norte-sul entre redes físicas e lógicas, suporta roteamento dinâmico (BGP), ECMP e serviços stateful, como Firewall, NAT e Balanceamento de carga. Ele também fornece serviços distribuídos para roteamento leste-oeste. ↩︎

  2. Um gateway T1 é como um gateway T0, mas normalmente não contém uplinks para conexão a uma rede física. Seu uplink conecta-o a um segmento de sobreposição de encanamento automático com o T0 Gateway. Uma T1 suporta rotas estáticas, NAT, balanceamento de carga e VPN de IPSec. ↩︎