IBM Cloud Docs
가상 인프라 디자인

가상 인프라 디자인

가상 인프라 계층에는 VMware vSphere ESXi®, VMware NSX-T™ 및 선택적으로 VMware vSAN™ 등의 실제 인프라 계층에서 제공되는 컴퓨팅, 스토리지 및 네트워크 리소스를 가상화하는 VMware® 소프트웨어 컴포넌트가 포함되어 있습니다.

가상 인프라
인프라 * 가상 인프라

VMware vSphere 디자인

vSphere ESXi 구성은 다음과 같은 측면으로 구성되어 있습니다.

  • 부트 구성
  • 시간 동기화
  • 호스트 액세스
  • 사용자 액세스
  • DNS 구성

다음 표에는 각 측면에 대한 스펙이 개략적으로 설명되어 있습니다. ESXi 구성 및 설치 후 호스트가 VMware vCenter Server®에 추가되며 여기에서 관리됩니다.

이 디자인을 사용하면 DCUI(Direct Console User Interface) 및 vSphere Web Client를 통해 가상 호스트에 액세스할 수 있습니다. SSH(Secure Shell) 및 ESXi Shell은 우수 사례로서 프로비저닝된 후에 사용 안함으로 설정됩니다.

기본적으로 직접 로그인할 수 있는 유일한 사용자는 호스트의 실제 시스템에 대한 rootibmvmadmin 사용자입니다. 관리자는 MSAD(Microsoft® Active Directory™) 도메인에서 사용자를 추가하여 호스트에 대한 사용자 액세스를 사용으로 설정할 수 있습니다. VMware Cloud Foundation for Classic - Automated 모든 호스트는 중앙 NTP 서버와 동기화되도록 구성되어 있습니다.

vSphere ESXi 구성
속성 구성 매개변수
ESXi 부트 위치

다음과 같이 다양한 호스트 구성을 배포할 수 있습니다:

  • RAID-1
    로 구성된 로컬 디스크 * 미러링된 구성의 한 쌍의 M.2 부팅 드라이브
  • 단일 M.2 부팅 드라이브
시간 동기화 IBM Cloud® NTP 서버 사용
호스트 액세스 DCUI 지원. SSH 및 ESXi Shell은 지원되지만 기본적으로 사용으로 설정되지는 않습니다.
사용자 액세스 로컬 인증 및 MSAD
도메인 이름 분석 공통 서비스 디자인에서 설명된 대로 DNS 사용
EVC 모드 vSphere 버전에서 지원하는 가장 높은 모델. 그러나 Intel® Cascade Lake 프로세서가 탑재된 관리 클러스터의 경우, vSphere Cascade Lake EVC가 지원되지 않는 경우 EVC가 설정되지 않습니다.

vSphere VMware Cloud Foundation for Classic - Automated 관리하는 가상 머신(VM)과 사용자 작업 부하를 위한 컴퓨팅 리소스를 수용합니다.

  • VMware Cloud Foundation for Classic - Automated vSAN, 사용하는 경우, 초기 배포 시 ESXi 호스트의 최소 개수는 4개입니다.
  • VMware Cloud Foundation for Classic - Automated 공유 파일 수준 또는 블록 수준 스토리지를 사용하는 경우, 초기 배포 시 ESXi 호스트의 최소 개수는 3개입니다.

초기 배치 중에 이 클러스터에 최대 20개의 ESXi 호스트를 배치할 수 있습니다. 초기 배치 후 한 번에 최대 20개의 호스트를 증분하여 최대 50개의 호스트까지 클러스터를 스케일링할 수 있습니다.

추가 사용자 워크로드를 지원하려면 다음 조치를 수행하여 환경을 스케일링할 수 있습니다.

  • 기존 클러스터에 추가 컴퓨팅 호스트 배치
  • 동일한 vCenter Server Appliance에서 관리하는 추가 클러스터 배치
  • 새로운 VMware Cloud Foundation for Classic - Automated 인스턴스를 자체 vCenter 어플라이언스와 함께 배포합니다.

VMware vSAN 디자인

이 설계에서는 vSAN 스토리지가 VMware Cloud Foundation for Classic - Automated 스턴스에 사용되어 vSphere 공유 스토리지를 제공합니다.

그림 1에서 표시된 대로 vSAN은 vSphere 클러스터 내에서 다중 ESXi 호스트 간의 로컬 스토리지를 집계하며, 집계된 스토리지를 단일 VM 데이터 저장소로서 관리합니다. 이 디자인 내에서 컴퓨팅 노드에는 ESXi 운영 체제(OS) 및 vSAN 데이터 저장소에 대한 로컬 디스크 드라이브가 포함되어 있습니다.

다른 호스트 구성으로 배포할 수 있습니다:

  • RAID-1로 구성된 로컬 디스크
  • 미러링된 구성의 한 쌍의 M.2 부팅 드라이브
  • 단일 M.2 부팅 드라이브

vSAN vSphere 개념
vSAN 개념

vSAN에서는 다음 컴포넌트를 채택합니다.

  • 2-디스크 그룹 vSAN 디자인. 각 디스크 그룹에 두 개 이상의 디스크 포함. 그룹에서 최소 크기의 하나의 SSD 또는 NVMe 드라이브는 캐시 티어로서 제공되며, 나머지 SSD는 용량 티어로서 제공됩니다.
  • 온보드 RAID 제어기는 vSAN 캐시 또는 용량에 사용되는 각 개별 드라이브에 대해 RAID 0 어레이로 구성됩니다.
  • 단일 vSAN 데이터 저장소가 모든 스토리지에서 작성됩니다.

vSAN의 가상 네트워크 설정

이 디자인의 경우, vSAN 트래픽은 전용 사설 VLAN에서 ESXi 호스트 간에 이동합니다. 사설 네트워크 스위치에 연결된 2개의 네트워크 어댑터는 업링크로 두 개 네트워크 어댑터가 포함된 vSphere Distributed Switch(vDS)로 vSphere 내에서 구성됩니다. vSAN VLAN에 대해 구성된 전용 vSAN 커널 포트 그룹은 vDS 내에 상주합니다. 점보 프레임(MTU 9000)은 사설 vDS용으로 사용됩니다.

vSAN은 업링크 간의 트래픽을 로드 밸런싱하지 않습니다. 그 결과, 한 어댑터가 활성화되어 있는 동안 다른 어댑터는 대기 상태가 되어 고가용성을 지원합니다. vSAN에 대한 네트워크 장애 복구 정책은 실제 네트워크 포트 간에 명시적 장애 복구로서 구성됩니다.

실제 NIC 연결에 대한 자세한 정보는 실제 호스트 NIC 연결을 참조하십시오.

vSAN 정책 디자인

vSAN이 사용되어 구성된 경우에는 VM 스토리지 특성을 정의하기 위해 스토리지 정책이 구성됩니다. 스토리지 특성은 서로 다른 VM에 대해 서로 다른 서비스 레벨을 지정합니다.

이 디자인의 기본 스토리지 정책은 단일 장애를 허용합니다. 기본 정책은 erasure 코딩으로 구성되며 장애 허용 방법RAID-5/6(Erasure Coding) - 용량으로 설정하고 장애의 1차 레벨을 1로 설정합니다. RAID 5 구성에서는 최소 4개의 호스트가 필요합니다.

또는 내장애성 방법RAID-5/6(삭제 코딩) - 용량으로 설정되고 기본 장애 레벨이 2로 설정된 RAID 6 구성을 선택할 수도 있습니다. RAID 6 구성에서는 최소 6개의 호스트가 필요합니다. 중복 제거압축은 일반적으로 기본 스토리지 정책에서 사용으로 설정되지만 필요한 경우 사용 안함으로 설정할 수 있습니다.

vSphere 콘솔에서 달리 지정되지 않는 한 인스턴스는 기본 정책을 사용합니다. 사용자 정의 정책이 구성되면 vSAN은 가능한 경우 이를 보장합니다. 그러나 정책을 보장할 수 없는 경우, 프로비저닝을 강제 실행하도록 설정되어 있지 않는 한 정책을 사용하는 VM을 프로비저닝할 수 없습니다.

스토리지 정책은 새 ESXi 호스트 또는 ESXi 호스트의 패치가 추가된 후에 재적용되어야 합니다.

vSAN 설정

vSAN 설정은 IBM Cloud 내에서 VMware Solutions 배치를 위한 우수 사례를 기반으로 구성됩니다. vSAN 설정에는 SIOC 설정, 명시적 장애 복구 설정 포트 그룹 및 디스크 캐시 설정이 포함됩니다.

  • SSD 캐시 정책 설정 - 미리 읽기, 동시 쓰기, 직접 없음(NRWTD)
  • 네트워크 I/O 제어 설정
    • 관리 - 20개 공유
    • 가상 머신 - 30개 공유
    • vMotion - 50개 공유
    • vSAN - 100개 공유
  • vSAN 커널 포트 - 명시적 장애 복구

NFS 연결 스토리지

NFS v4.1 사용 시 NFS 서버 LIF 마이그레이션으로 인해 과도한 대기 시간이 발생할 수 있습니다. NFS 네트워크 연결 스토리지를 사용 중인 경우 이 아키텍처는 NFS v4.1이 아니라 NFS v3을 사용하도록 규정합니다. 각 vSphere 호스트는 해당 호스트 이름을 사용하여 NFS 스토리지에 연결됩니다.

성능 티어가 4IOPS/GB인 관리 컴포넌트에서 사용하도록 하나의 2TB NFS 데이터 저장소가 클러스터에 연결됩니다. 다양한 크기 및 성능 티어의 워크로드용으로 더 많은 데이터 저장소가 연결될 수 있습니다.

또한 이 아키텍처에서는 모든 호스트에 NFS 스토리지가 상주하는 서브넷에 대해 작성된 서브넷 라우트가 있어야 합니다. 이 서브넷 라우트의 목적은 모든 NFS 트래픽에 이 디자인에서 NFS 트래픽용으로 지정된 포트 그룹, 서브넷 및 VLAN을 사용하도록 지시하는 것입니다. 다중 NFS 데이터 저장소가 연결된 경우 해당 데이터 저장소가 여러 원격 서브넷에 있을 수 있으므로 다중 라우트를 구성해야 할 수 있습니다.

관리 VM은 NFS 데이터 스토어에 위치할 수 있습니다. 일부 관리 시스템이 NFS 호스트 이름을 분석하는 데 사용되는 DNS 서비스를 담당할 수 있으므로 이 접근법으로 인해 부트스트랩 문제점이 발생합니다. 따라서 이 아키텍처는 관리 데이터 저장소용 IP 주소 중 하나 이상이 각 호스트의 /etc/hosts에 하드 코딩되도록 지정합니다.