IBM Cloud Docs
Implementando o OpenShift Data Foundation em clusters VPC

Implementando o OpenShift Data Foundation em clusters VPC

O OpenShift Data Foundation é uma solução de armazenamento altamente disponível que pode ser usada para gerenciar o armazenamento persistente de suas cargas de trabalho conteinerizadas em clusters Red Hat® OpenShift® on IBM Cloud®.

A instalação do OpenShift Data Foundation a partir do OperatorHub não é compatível com clusters do IBM Cloud. Para instalar o ODF, conclua as etapas a seguir para implementar o complemento de cluster.

Permissões mínimas necessárias
Administrator Função de acesso de plataforma
Manager função de acesso ao serviço para o cluster em IBM Cloud Kubernetes Service.

O ODF é compatível com clusters de VPC somente privados a partir da versão do cluster 4.16.23_1546_openshift para trabalhadores CoreOS e 4.16.21_1544_openshift para trabalhadores RHEL.

Pré-requisitos

  • Instale ou atualize a CLI.
  • Crie um cluster VPC com pelo menos três nós do trabalhador.
    • Para alta disponibilidade, crie um cluster com pelo menos um nó do trabalhador por zona entre três zonas.
    • Cada nó do trabalhador deve ter um mínimo de 16 CPUs e 64 GB de RAM. Para versões de cluster anteriores a 4.16, certifique-se de que cada uma de suas sub-redes tenha um gateway público conectado.
    • Observação: você pode implantar o OpenShift Data Foundation em 3 nós de trabalho com 16 CPUs e 32 GB de RAM, mas deve manchar os nós de trabalho para executar somente pods ODF. Você não pode executar quaisquer cargas de trabalho adicionais do app ou pods do sistema em seus nós de ODF quando você usar esta configuração.

Opcional: Desativar os operadores padrão

Clusters somente privados: Em clusters somente privados, você deve desativar manualmente os operadores padrão em openshift-marketplace com o seguinte comando para que o ODF funcione corretamente.

oc patch OperatorHub cluster --type json -p '[{"op": "add", "path": "/spec/disableAllDefaultSources", "value": true}]'

Opcional: configurando uma instância de serviço do IBM Cloud Object Storage

Complete as etapas a seguir para criar uma instância do IBM Cloud Object Storage que você pode usar como o armazenamento auxiliar padrão em sua implementação do ODF. Para não configurar o IBM Cloud Object Storage, ignore esta etapa e instale o complemento.

Para configurar o IBM Cloud Object Storage como o armazenamento de backup padrão em seu cluster de armazenamento, crie uma instância do IBM Cloud Object Storage. Em seguida, crie um conjunto de credenciais HMAC e um segredo do Kubernetes que usem suas credenciais HMAC do Object Storage. Se você não especificar as credenciais do IBM Cloud Object Storage durante a instalação, o armazenamento de suporte padrão em seu cluster de armazenamento será criado com os PVs no cluster. É possível configurar armazenamentos auxiliares adicionais após a implementação do ODF, mas não é possível mudar o armazenamento auxiliar padrão.

Acesse o seu Red Hat OpenShift cluster.

  1. Crie um espaço de nomes openshift-storage no seu cluster. Os pods do driver são implementados nesse espaço de nomes. Copie o YAML a seguir e salve-o como os-namespace.yaml na sua máquina local.
    apiVersion: v1
    kind: Namespace
    metadata:
      labels:
        openshift.io/cluster-monitoring: "true"
      name: openshift-storage
    
  2. Crie o espaço de nomes openshift-storage usando o arquivo YAML que você salvou.
    oc create -f os-namespace.yaml
    
  3. Verifique se o namespace foi criado.
    oc get namespaces | grep storage
    
  4. Crie uma instância de serviço do IBM Cloud Object Storage.
    ibmcloud resource service-instance-create noobaa-store cloud-object-storage standard global
    
  5. Crie credenciais HMAC. Anote suas credenciais.
    ibmcloud resource service-key-create cos-cred-rw Writer --instance-name noobaa-store --parameters '{"HMAC": true}'
    
  6. Crie o segredo do Kubernetes chamado ibm-cloud-cos-creds no espaço de nomes openshift-storage que usa suas credenciais de HMAC do Object Storage. Ao executar o comando, especifique seu ID da chave de acesso e a chave de acesso secreta de HMAC do Object Storage. Observe que seu segredo deve ser denominado ibm-cloud-cos-creds.
    oc -n 'openshift-storage' create secret generic 'ibm-cloud-cos-creds' --type=Opaque --from-literal=IBM_COS_ACCESS_KEY_ID=<access_key_id> --from-literal=IBM_COS_SECRET_ACCESS_KEY=<secret_access_key>
    
  7. Verifique se o seu segredo foi criado.
    oc get secrets -A | grep cos
    

Opcional: Configurar a criptografia usando Hyper Protect Crypto Services ou Key Protect

Se você desejar configurar a criptografia, crie uma instância de Hyper Protect Crypto Services ou Key Protect. Em seguida, crie uma chave raiz e um segredo Kubernetes que use suas credenciais Hyper Protect Crypto Services ou Key Protect.

Sua chave de API para Hyper Protect Crypto Services ou Key Protect deve ter as permissões mínimas necessárias a seguir:
Reader
Reader Plus
Se você estiver usando a criptografia em todo o cluster e a criptografia de classe de armazenamento, sua chave de API deverá ter as permissões necessárias a seguir:
Reader
Reader Plus
Writer
  1. Crie uma instância de serviço Hyper Protect Crypto Services ou Key Protect.

  2. Crie uma chave raiz.

  3. Depois de criar a instância e a chave raiz, anote o nome da instância, o ID da instância, o ID da chave raiz e o endpoint público em Hyper Protect Crypto Services ou Key Protect.

  4. Crie um ID de serviço, chave de API e política de acesso que permita o acesso a Hyper Protect Crypto Services e Red Hat OpenShift on IBM Cloud ou Key Protect e Red Hat OpenShift on IBM Cloud. Anote a API que você criou.

  5. Clusters privados: crie um gateway de terminal privado virtual que permita o acesso à sua instância do KMS. Certifique-se de ligar pelo menos um endereço IP de cada sub-rede em seu VPC ao VPE.

Acesse o seu Red Hat OpenShift cluster.

  1. Liste seus namespaces para determinar se você tem um namespace openshift-storage. Se você não tiver um namespace openshift-storage, crie-o.
    oc get namespaces | grep openshift-storage
    
    1. Crie um espaço de nomes openshift-storage no seu cluster. Os pods do driver são implementados nesse espaço de nomes. Copie o YAML a seguir e salve-o como os-namespace.yaml na sua máquina local.
      apiVersion: v1
      kind: Namespace
      metadata:
        labels:
          openshift.io/cluster-monitoring: "true"
        name: openshift-storage
      
    2. Crie o espaço de nomes openshift-storage usando o arquivo YAML que você salvou.
      oc create -f os-namespace.yaml
      
    3. Verifique se o namespace foi criado.
      oc get namespaces | grep storage
      
  2. Codifique o ID de sua chave raiz e a chave de API do ID de serviço que você criou como base64.
    printf "ROOT-KEY-ID" | base64
    
    printf "SERVICE-ID-API-KEY" | base64
    
  3. Crie o segredo do Kubernetes no namespace openshift-storage que usa suas credenciais do Hyper Protect Crypto Services.
    1. Salve o segredo a seguir como um arquivo YAML chamado ibm-hpcs-secret.yaml.
      apiVersion: v1
      data:
        IBM_KP_CUSTOMER_ROOT_KEY: AaAAAaZAAAAy11AAAyAAkaAaQtAAk0AAA2AzY5AjYaaa67aa # your base64 encoded root key ID
        IBM_KP_SERVICE_API_KEY: AAAaaajAAAAAncmAAaaaaAAAAdAAId1AtVjBJRU1aAAaAeTh1aEw=AaaaA # your base64 encoded API
      kind: Secret
      metadata:
        name: ibm-hpcs-secret
        namespace: openshift-storage
      type: Opaque
      
    2. Crie o segredo em seu cluster.
      oc apply -f ibm-hpcs-secret.yaml
      
  4. Verifique se o seu segredo foi criado.
    oc get secrets -A | grep ibm-hpcs-secret
    

Instalando o complemento do OpenShift Data Foundation pelo console

Para instalar o ODF em seu cluster, siga estas etapas.

Antes de ativar o complemento, revise o log de mudanças para obter as informações de versão mais recente. Além disso, revise a referência de parâmetros para entender as opções de instalação.

  1. No console, selecione o cluster em que deseja instalar o complemento.
  2. No cartão do OpenShift Data Foundation, clique em Instalar. O painel ODF Instalar ODF é aberto.
  3. No painel Instalar ODF insira os parâmetros de configuração que deseja usar para a implementação do ODF.
Tipo de faturamento
Essentials ou Advanced como seu plano de faturamento. Para obter mais informações sobre o tipo de faturamento, consulte Suporte de recurso por tipo de faturamento
Classe de armazenamento
Digite a classe de armazenamento que você deseja usar.
  • Para clusters de VPC que usam máquinas virtuais, selecione Provisionamento remoto para provisionar dinamicamente volumes para ODF usando o site Block Storage for VPC.
  • Para clusters de VPC que usam nós de trabalho Bare Metal Servers for VPC, selecione Armazenamento local. Se você quiser descobrir automaticamente os dispositivos de armazenamento disponíveis nos nós de trabalho e usá-los no ODF, selecione Descoberta de disco local.
Nome da classe de armazenamento do OSD
Digite o nome da classe de armazenamento que você deseja usar para provisionar volumes de armazenamento.
  • Para clusters de VPC com Bare Metal Servers for VPC nós de trabalho, selecione localblock.
  • Para clusters de várias zonas, use uma classe de armazenamento com o endereço VolumeBindingMode de WaitForFirstConsumer.
  • Para obter uma lista de classes de armazenamento, consulte a Referência de classe de armazenamento.
Tamanho do pod OSD
Digite o tamanho do volume que você deseja provisionar. Digite pelo menos 512Gi.
Nós do trabalhador
Digite os nomes dos nós de trabalho nos quais você deseja implantar o ODF. É necessário inserir pelo menos 3 nomes de nós do trabalhador. Para encontrar os nomes de seus nós, execute o comando oc get nodes em seu cluster. Node devem ser separados por vírgulas, sem espaços entre os nomes. Por exemplo: 10.240.0.24,10.240.0.26,10.240.0.25. Deixe este campo em branco para implementar o ODF em todos os nós do trabalhador.
Número de discos do OSD necessários
Insira o número de discos OSD (armazenamento de aplicativos) a serem provisionados em cada nó de trabalho.
Ativar criptografia de cluster
Selecione essa opção se quiser criptografar os volumes OSD (criptografia em todo o cluster) usados pelos pods do sistema ODF.
Ativar a criptografia de volume
Selecione essa opção se quiser ativar a criptografia para os volumes de aplicativos (armazenamento de aplicativos).
  • No campo Nome da instância, insira um nome exclusivo para a instância do Hyper Protect Crypto Services ou Key Protect.
  • No campo Tipo de instância, insira o tipo de instância de criptografia
  • No campo Instance ID (ID da instância ), digite o ID da instância Hyper Protect Crypto Services ou Key Protect. Por exemplo: d11a1a43-aa0a-40a3-aaa9-5aaa63147aaa.
  • No campo Secret name (Nome do segredo ), digite o nome do segredo que você criou usando suas credenciais Hyper Protect Crypto Services ou Key Protect. Por exemplo: ibm-hpcs-secret.
  • No campo Base URL, digite o endpoint público da instância Hyper Protect Crypto Services ou Key Protect. Por exemplo: https://api.eu-gb.hs-crypto.cloud.ibm.com:8389.
  • No campo URL do token, digite https://iam.cloud.ibm.com/identity/token.
  1. Após inserir os parâmetros que deseja usar, clique em Instalar

  2. Aguarde alguns minutos até que a implementação do complemento esteja concluída. Quando a implementação estiver concluída, o status do complemento será Normal - Addon Ready.

  3. Verifique sua instalação. Acesse o seu Red Hat OpenShift cluster.

  4. Execute o comando abaixo para verificar se os pods do ODF estão em execução.

    oc get pods -n openshift-storage
    
Próximas etapas
Implemente um aplicativo que usa o ODF.

Instalando o complemento pela CLI

É possível instalar o complemento usando o comando ibmcloud oc cluster addon enable.

  1. Revise a Referência de parâmetro do VPC Ao ativar o add-on, você pode substituir os valores padrão especificando a opção --param "key=value" para cada parâmetro que deseja substituir.

  2. Acesse o seu Red Hat OpenShift cluster.

  3. Liste as versões add-on openshift-data-foundation. Faça uma nota da versão padrão e determine a versão que deseja instalar.

    ibmcloud ks cluster addon versions
    
  4. Antes de ativar o complemento, revise o log de mudanças para obter as informações de versão mais recente. Observe que o complemento suporta as versões de cluster n+1. Por exemplo, você pode implementar a versão 4.10.0 do complemento em um cluster OCP 4.9 ou 4.11. Se você tiver uma versão de cluster diferente da padrão, deverá especificar a opção --version ao ativar o complemento.

  5. Revise as opções do complemento.

    ibmcloud oc cluster addon options --addon openshift-data-foundation --version 4.15.0
    

    Para obter o melhor desempenho, é recomendável incluir a opção resourceProfile especificada como performance. Essa opção ajuda a obter níveis de desempenho aprimorados com base na disponibilidade de recursos durante a implementação. Para obter mais informações sobre a opção resourceProfile, consulte Perfis de desempenho na documentação do Red Hat OpenShift ODF

    Exemplo de opções de add-on para a versão 4.15.0

    Add-on Options
    Option                            Default Value
    osdStorageClassName               ibmc-vpc-block-metro-10iops-tier
    ocsUpgrade                        false
    billingType                       advanced
    autoDiscoverDevices               false
    hpcsBaseUrl                       <Please provide the KMS Base (public) URL>
    taintNodes                        false
    enableNFS                         false
    resourceProfile                   performance
    useCephRBDAsDefaultStorageClass   false
    clusterEncryption                 false
    hpcsEncryption                    false
    hpcsSecretName                    <Please provide the KMS secret name>
    encryptionInTransit               false
    disableNoobaaLB                   false
    osdSize                           512Gi
    numOfOsd                          1
    ignoreNoobaa                      true
    addSingleReplicaPool              false
    prepareForDisasterRecovery        false
    workerPool                        -
    odfDeploy                         true
    osdDevicePaths                    <Please provide IDs of the disks to be used for OSD pods if using local disks or standard classic cluster>
    workerNodes                       all
    hpcsServiceName                   <Please provide the KMS Service instance name>
    hpcsInstanceId                    <Please provide the KMS Service instance ID>
    hpcsTokenUrl                      <Please provide the KMS token URL>
    
  6. Ative o complemento openshift-data-foundation. Se você quiser substituir qualquer um dos parâmetros padrão, especifique a opção --param "key=value" para cada parâmetro que deseja substituir. Para não criar seu cluster de armazenamento ao ativar o complemento, ative o complemento primeiro e crie o cluster de armazenamento mais tarde por meio da criação de um CRD.

    Exemplo de comando para implementar a versão do complemento 4.10 com as configurações padrão do cluster de armazenamento, o perfil de recurso performance e a criptografia com Hyper Protect Crypto Services ativado.

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster-name> --version 4.15.0 --param "odfDeploy=true" --param "resourceProfile=performance" --param "hpcsTokenUrl=https://iam.cloud.ibm.com/identity/token" --param "hpcsEncryption=true" --param "hpcsBaseUrl=<hpcs-instance-public-endpoint>" --param "hpcsInstanceId=<hpcs-instance-id>" --param "hpcsServiceName=<hpcs-instance-name>" --param "hpcsSecretName=<hpcs-secret-name>"
    

    Exemplo de comando para implementar somente o complemento do ODF.

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version> --param "odfDeploy=false"
    

    Exemplo de comando para implementar o ODF e criar um cluster de armazenamento com os parâmetros de configuração padrão.

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version>
    

    Exemplo de comando para implementar o ODF e criar um cluster de armazenamento enquanto se sobrepõe ao parâmetro osdSize.

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version> --param "osdSize=500Gi"
    
  7. Verifique se o complemento está em um estado Ready.

    oc get storagecluster -n openshift-storage
    

    Saída de exemplo:

    NAME                 AGE   PHASE   EXTERNAL   CREATED AT             VERSION
    ocs-storagecluster   53m   Ready              2023-03-10T12:20:52Z   4.11.0
    
  8. Verifique se o pod ibm-ocs-operator-controller-manager-***** está em execução no espaço de nomes kube-system.

    oc get pods -A | grep ibm-ocs-operator-controller-manager
    
  9. Se você ativou o complemento com odfDeploy configurado como false, siga os passos para criar um recurso personalizado do ODF.

Instalando o complemento do Terraform

  1. Crie um arquivo de provedor do Terraform. Salve o arquivo em seu diretório do Terraform Para obter mais informações, consulte a Documentação do provedor do Terraform IBM Cloud

    Arquivo do provedor Terraform de exemplo.

    terraform {
    required_providers {
        ibm = {
        source = "IBM-Cloud/ibm"
        version = "1.53.0"
        }
    }
    }
    
    provider "ibm" {
    region = "us-south"
    ibmcloud_api_key = "<api-key>"
    }
    
  2. Crie um arquivo de configuração do Terraform para o complemento do ODF Salve o arquivo em seu diretório do Terraform

    Arquivo de configuração de exemplo

    ibmcloud_api_key = "" # Enter your API Key
    cluster = "" # Enter the Cluster ID
    region = "us-south" # Enter the region
    
    # For add-on deployment
    odfVersion = "4.12.0"
    
    # For CRD Creation and Management
    autoDiscoverDevices = "false"
    billingType = "advanced"
    clusterEncryption = "false"
    hpcsBaseUrl = null
    hpcsEncryption = "false"
    hpcsInstanceId = null
    hpcsSecretName = null
    hpcsServiceName = null
    hpcsTokenUrl = null
    ignoreNoobaa = "false"
    numOfOsd = "1"
    ocsUpgrade = "false"
    osdDevicePaths = null
    osdSize = "250Gi"
    osdStorageClassName = "ibmc-vpc-block-metro-10iops-tier"
    workerNodes = null
    
  3. Na CLI, navegue para o seu diretório do Terraform

    cd <terraform_directory>
    
  4. Execute os comandos para inicializar e planejar suas ações do Terraform. Revise a saída do plano para assegurar que as ações corretas sejam executadas.

    terraform init
    
    terraform plan
    
  5. Aplique os arquivos do Terraform para criar o cluster Em seguida, navegue para o console do IBM Cloud para verificar se o cluster está fornecendo.

    terraform apply
    

Criando seu recurso customizado do ODF

Para criar um cluster de armazenamento do ODF em seu cluster VPC usando o provisionamento dinâmico dos volumes de armazenamento, crie um recurso customizado para especificar os detalhes do dispositivo de armazenamento.

Para usar uma instância de serviço do IBM Cloud Object Storage como seu armazenamento auxiliar padrão, certifique-se de criar a instância de serviço e o segredo do Kubernetes no cluster. Ao criar o CRD do ODF em seu cluster, o ODF procura um segredo chamado ibm-cloud-cos-creds para configurar o armazenamento de suporte padrão que usa suas credenciais do Object Storage HMAC.

  1. Crie uma definição de recurso customizada chamada OcsCluster. Salve um dos seguintes arquivos de definição de recursos personalizados em seu computador local e edite-o para incluir o nome da classe de armazenamento que você criou anteriormente como os parâmetros monStorageClassName e osdStorageClassName. Para obter mais informações sobre os parâmetros OcsCluster, consulte a referência de parâmetro.

    Exemplo de definição de recurso customizado para instalação de ODF em todos os nós do trabalhador em um cluster 4.8.

    apiVersion: ocs.ibm.io/v1
    kind: OcsCluster
    metadata:
      name: ocscluster-vpc # Kubernetes resource names can't contain capital letters or special characters. Enter a name for your resource that uses only lowercase letters, numbers, `-` or `.`
    spec:
      osdStorageClassName: <osdStorageClassName> # Specify an ODF storage class with a waitForFirstConsumer volume binding mode
      osdSize: <osdSize> # The OSD size is the total storage capacity of your OCS storage cluster. Use at least 250Gi OSDs for production workloads.
      numOfOsd: 1
      billingType: advanced
      ocsUpgrade: false
    

    Exemplo de definição de recurso customizado para instalar o ODF apenas em nós do trabalhador especificados em um cluster 4.8.

    apiVersion: ocs.ibm.io/v1
    kind: OcsCluster
    metadata:
      name: ocscluster-vpc # Kubernetes resource names can't contain capital letters or special characters. Enter a name for your resource that uses only lowercase letters, numbers, `-` or `.`
    spec:
      osdStorageClassName: <osdStorageClassName> # Specify an ODF storage class with a waitForFirstConsumer volume binding mode
      osdSize: <osdSize> # The OSD size is the total storage capacity of your OCS storage cluster. Use at least 250Gi OSDs for production workloads.
      numOfOsd: 1
      billingType: advanced
      ocsUpgrade: false
      workerNodes: # Specify the private IP addresses of the worker nodes where you want to install OCS.
        - <workerNodes> # To get a list worker nodes, run `oc get nodes`.
        - <workerNodes>
        - <workerNodes>
    
  2. Salve o arquivo e crie o recurso customizado OcsCluster para o seu cluster.

    oc create -f <ocs-cluster-filename>.yaml
    
  3. Verifique se seu OcsCluster está em execução.

    oc describe ocscluster ocscluster-vpc
    

    Exemplo de saída

    Name:         ocscluster-vpc
    Namespace:    
    Labels:       <none>
    Annotations:  <none>
    API Version:  ocs.ibm.io/v1
    Kind:         OcsCluster
    Metadata:
        Creation Timestamp:  2021-03-23T20:56:51Z
    Finalizers:
      finalizer.ocs.ibm.io
    Generation:  1
    Managed Fields:
      API Version:  ocs.ibm.io/v1
      Fields Type:  FieldsV1
      fieldsV1:
        f:spec:
          .:
          f:billingType:
          f:monSize:
          f:monStorageClassName:
          f:numOfOsd:
          f:ocsUpgrade:
          f:osdSize:
          f:osdStorageClassName:
      Manager:      oc
      Operation:    Update
      Time:         2021-03-23T20:56:51Z
      API Version:  ocs.ibm.io/v1
      Fields Type:  FieldsV1
      fieldsV1:
        f:metadata:
          f:finalizers:
            .:
            v:"finalizer.ocs.ibm.io":
        f:status:
          .:
          f:storageClusterStatus:
      Manager:         manager
      Operation:       Update
      Time:            2021-04-09T23:12:02Z
    Resource Version:  11372332
    Self Link:         /apis/ocs.ibm.io/v1/ocsclusters/ocscluster-vpc
    UID:               aa11a1a1-111f-aace-afac-1fa1afe1111a
    Spec:
      Billing Type:            hourly
      Mon Size:                20Gi
      Mon Storage Class Name:  ibmc-vpc-block-10iops-tier
      Num Of Osd:              1
      Ocs Upgrade:             false
      Osd Size:                250Gi
      Osd Storage Class Name:  ibmc-vpc-block-10iops-tier
    Status:
      Storage Cluster Status:  
    Events:                    <none>
    
  4. Implemente um aplicativo que usa o ODF.

Ajuste de escala do ODF

É possível ajustar a escala de sua configuração do ODF aumentando a configuração numOfOsd. Ao aumentar o número de OSDs, o ODF provisiona esse número de discos com a mesma capacidade osdSize em GB em cada um dos nós do trabalhador em seu cluster do ODF. No entanto, o armazenamento total que está disponível para seus aplicativos é igual ao osdSize multiplicado pelo numOfOsd.

Ajuste de escala do OpenShift Data Foundation.
Número de nós do trabalhador osdSize inicial numOfOsd Capacidade de armazenamento disponível para aplicativos Armazenamento total de discos provisionados
3 250Gi 1 250Gi 750Gi
3 250Gi 2 500Gi 1500Gi
3 250Gi 3 750Gi 2250Gi
3 250Gi 4 1000Gi 3000Gi

Ajustando a escala por meio do aumento de numOfOsd

Acesse o seu Red Hat OpenShift cluster.

  1. Obtenha o nome de seu recurso customizado OcsCluster.

    oc get ocscluster
    
  2. Salve seu arquivo do YAML do recurso customizado OcsCluster em sua máquina local como ocscluster.yaml.

    oc get ocscluster ocscluster-vpc -o yaml
    
  3. Aumente o parâmetro numOfOsd e reaplique o CRD de ocscluster ao seu cluster.

    oc apply -f ocscluster.yaml
    
  4. Verifique se os OSDs adicionais são criados.

    oc get pv
    

Expandindo o ODF por meio da inclusão de nós do trabalhador no cluster VPC

Para aumentar a capacidade de armazenamento no cluster de armazenamento, inclua nós do trabalhador compatíveis nele.

  1. Expanda o conjunto de trabalhadores do cluster que é usado para o OCS incluindo nós do trabalhador. Certifique-se de que seus nós do trabalhador atendam aos requisitos do ODF. Se o ODF for implementado em todos os nós do trabalhador no cluster, os drivers do ODF serão instalados nos novos nós do trabalhador quando forem incluídos no cluster.

  2. Se você implantou o ODF em um subconjunto de nós de trabalho em seu cluster especificando os parâmetros <workerNodes> privados no recurso personalizado OcsCluster, poderá adicionar o nome do nó dos novos nós de trabalho à implantação do ODF editando a definição do recurso personalizado.

    oc edit ocscluster ocscluster-vpc
    
  3. Salve o arquivo de recursos customizados OcsCluster para reaplicá-lo em seu cluster.

Limitações

Revise as limitações a seguir para a implementação do ODF.

Limite de caracteres de ID do recurso do Kubernetes: os nomes de PVC do Kubernetes devem ter menos de 63 caracteres. Ao implementar o ODF em um cluster VPC multizona e criar o cluster de armazenamento do ODF com uma classe de armazenamento Metro de retain, como ibmc-vpc-block-metro-retain-10iops-tier, ocorre uma falha no conjunto correspondente de dispositivos do ODF criado usando esta classe de armazenamento. Para obter mais informações, consulte Falha na criação do conjunto de dispositivos do ODF devido à limitação de caracteres do Kubernetes.

Referência de classe de armazenamento

Referência de classe de armazenamento do ODF