Implementando o OpenShift Data Foundation em clusters VPC
O OpenShift Data Foundation é uma solução de armazenamento altamente disponível que pode ser usada para gerenciar o armazenamento persistente de suas cargas de trabalho conteinerizadas em clusters Red Hat® OpenShift® on IBM Cloud®.
A instalação do OpenShift Data Foundation a partir do OperatorHub não é compatível com clusters do IBM Cloud. Para instalar o ODF, conclua as etapas a seguir para implementar o complemento de cluster.
- Permissões mínimas necessárias
Administrator
Função de acesso de plataformaManager
função de acesso ao serviço para o cluster em IBM Cloud Kubernetes Service.
O ODF é compatível com clusters de VPC somente privados a partir da versão do cluster 4.16.23_1546_openshift
para trabalhadores CoreOS e 4.16.21_1544_openshift
para trabalhadores RHEL.
Pré-requisitos
- Instale ou atualize a CLI.
- Crie um cluster VPC com pelo menos três nós do trabalhador.
- Para alta disponibilidade, crie um cluster com pelo menos um nó do trabalhador por zona entre três zonas.
- Cada nó do trabalhador deve ter um mínimo de 16 CPUs e 64 GB de RAM. Para versões de cluster anteriores a 4.16, certifique-se de que cada uma de suas sub-redes tenha um gateway público conectado.
- Observação: você pode implantar o OpenShift Data Foundation em 3 nós de trabalho com 16 CPUs e 32 GB de RAM, mas deve manchar os nós de trabalho para executar somente pods ODF. Você não pode executar quaisquer cargas de trabalho adicionais do app ou pods do sistema em seus nós de ODF quando você usar esta configuração.
Opcional: Desativar os operadores padrão
Clusters somente privados: Em clusters somente privados, você deve desativar manualmente os operadores padrão em openshift-marketplace
com o seguinte comando para que o ODF funcione corretamente.
oc patch OperatorHub cluster --type json -p '[{"op": "add", "path": "/spec/disableAllDefaultSources", "value": true}]'
Opcional: configurando uma instância de serviço do IBM Cloud Object Storage
Complete as etapas a seguir para criar uma instância do IBM Cloud Object Storage que você pode usar como o armazenamento auxiliar padrão em sua implementação do ODF. Para não configurar o IBM Cloud Object Storage, ignore esta etapa e instale o complemento.
Para configurar o IBM Cloud Object Storage como o armazenamento de backup padrão em seu cluster de armazenamento, crie uma instância do IBM Cloud Object Storage. Em seguida, crie um conjunto de credenciais HMAC e um segredo do Kubernetes que usem suas credenciais HMAC do Object Storage. Se você não especificar as credenciais do IBM Cloud Object Storage durante a instalação, o armazenamento de suporte padrão em seu cluster de armazenamento será criado com os PVs no cluster. É possível configurar armazenamentos auxiliares adicionais após a implementação do ODF, mas não é possível mudar o armazenamento auxiliar padrão.
Acesse o seu Red Hat OpenShift cluster.
- Crie um espaço de nomes
openshift-storage
no seu cluster. Os pods do driver são implementados nesse espaço de nomes. Copie o YAML a seguir e salve-o comoos-namespace.yaml
na sua máquina local.apiVersion: v1 kind: Namespace metadata: labels: openshift.io/cluster-monitoring: "true" name: openshift-storage
- Crie o espaço de nomes
openshift-storage
usando o arquivo YAML que você salvou.oc create -f os-namespace.yaml
- Verifique se o namespace foi criado.
oc get namespaces | grep storage
- Crie uma instância de serviço do IBM Cloud Object Storage.
ibmcloud resource service-instance-create noobaa-store cloud-object-storage standard global
- Crie credenciais HMAC. Anote suas credenciais.
ibmcloud resource service-key-create cos-cred-rw Writer --instance-name noobaa-store --parameters '{"HMAC": true}'
- Crie o segredo do Kubernetes chamado
ibm-cloud-cos-creds
no espaço de nomesopenshift-storage
que usa suas credenciais de HMAC do Object Storage. Ao executar o comando, especifique seu ID da chave de acesso e a chave de acesso secreta de HMAC do Object Storage. Observe que seu segredo deve ser denominadoibm-cloud-cos-creds
.oc -n 'openshift-storage' create secret generic 'ibm-cloud-cos-creds' --type=Opaque --from-literal=IBM_COS_ACCESS_KEY_ID=<access_key_id> --from-literal=IBM_COS_SECRET_ACCESS_KEY=<secret_access_key>
- Verifique se o seu segredo foi criado.
oc get secrets -A | grep cos
Opcional: Configurar a criptografia usando Hyper Protect Crypto Services ou Key Protect
Se você desejar configurar a criptografia, crie uma instância de Hyper Protect Crypto Services ou Key Protect. Em seguida, crie uma chave raiz e um segredo Kubernetes que use suas credenciais Hyper Protect Crypto Services ou Key Protect.
- Sua chave de API para Hyper Protect Crypto Services ou Key Protect deve ter as permissões mínimas necessárias a seguir:
Reader
Reader Plus
- Se você estiver usando a criptografia em todo o cluster e a criptografia de classe de armazenamento, sua chave de API deverá ter as permissões necessárias a seguir:
Reader
Reader Plus
Writer
-
Crie uma instância de serviço Hyper Protect Crypto Services ou Key Protect.
-
Crie uma chave raiz.
-
Depois de criar a instância e a chave raiz, anote o nome da instância, o ID da instância, o ID da chave raiz e o endpoint público em Hyper Protect Crypto Services ou Key Protect.
-
Crie um ID de serviço, chave de API e política de acesso que permita o acesso a Hyper Protect Crypto Services e Red Hat OpenShift on IBM Cloud ou Key Protect e Red Hat OpenShift on IBM Cloud. Anote a API que você criou.
-
Clusters privados: crie um gateway de terminal privado virtual que permita o acesso à sua instância do KMS. Certifique-se de ligar pelo menos um endereço IP de cada sub-rede em seu VPC ao VPE.
Acesse o seu Red Hat OpenShift cluster.
- Liste seus namespaces para determinar se você tem um namespace
openshift-storage
. Se você não tiver um namespaceopenshift-storage
, crie-o.oc get namespaces | grep openshift-storage
- Crie um espaço de nomes
openshift-storage
no seu cluster. Os pods do driver são implementados nesse espaço de nomes. Copie o YAML a seguir e salve-o comoos-namespace.yaml
na sua máquina local.apiVersion: v1 kind: Namespace metadata: labels: openshift.io/cluster-monitoring: "true" name: openshift-storage
- Crie o espaço de nomes
openshift-storage
usando o arquivo YAML que você salvou.oc create -f os-namespace.yaml
- Verifique se o namespace foi criado.
oc get namespaces | grep storage
- Crie um espaço de nomes
- Codifique o ID de sua chave raiz e a chave de API do ID de serviço que você criou como base64.
printf "ROOT-KEY-ID" | base64
printf "SERVICE-ID-API-KEY" | base64
- Crie o segredo do Kubernetes no namespace
openshift-storage
que usa suas credenciais do Hyper Protect Crypto Services.- Salve o segredo a seguir como um arquivo YAML chamado
ibm-hpcs-secret.yaml
.apiVersion: v1 data: IBM_KP_CUSTOMER_ROOT_KEY: AaAAAaZAAAAy11AAAyAAkaAaQtAAk0AAA2AzY5AjYaaa67aa # your base64 encoded root key ID IBM_KP_SERVICE_API_KEY: AAAaaajAAAAAncmAAaaaaAAAAdAAId1AtVjBJRU1aAAaAeTh1aEw=AaaaA # your base64 encoded API kind: Secret metadata: name: ibm-hpcs-secret namespace: openshift-storage type: Opaque
- Crie o segredo em seu cluster.
oc apply -f ibm-hpcs-secret.yaml
- Salve o segredo a seguir como um arquivo YAML chamado
- Verifique se o seu segredo foi criado.
oc get secrets -A | grep ibm-hpcs-secret
Instalando o complemento do OpenShift Data Foundation pelo console
Para instalar o ODF em seu cluster, siga estas etapas.
Antes de ativar o complemento, revise o log de mudanças para obter as informações de versão mais recente. Além disso, revise a referência de parâmetros para entender as opções de instalação.
- No console, selecione o cluster em que deseja instalar o complemento.
- No cartão do OpenShift Data Foundation, clique em Instalar. O painel ODF Instalar ODF é aberto.
- No painel Instalar ODF insira os parâmetros de configuração que deseja usar para a implementação do ODF.
- Tipo de faturamento
- Essentials ou Advanced como seu plano de faturamento. Para obter mais informações sobre o tipo de faturamento, consulte Suporte de recurso por tipo de faturamento
- Classe de armazenamento
- Digite a classe de armazenamento que você deseja usar.
- Para clusters de VPC que usam máquinas virtuais, selecione Provisionamento remoto para provisionar dinamicamente volumes para ODF usando o site Block Storage for VPC.
- Para clusters de VPC que usam nós de trabalho Bare Metal Servers for VPC, selecione Armazenamento local. Se você quiser descobrir automaticamente os dispositivos de armazenamento disponíveis nos nós de trabalho e usá-los no ODF, selecione Descoberta de disco local.
- Nome da classe de armazenamento do OSD
- Digite o nome da classe de armazenamento que você deseja usar para provisionar volumes de armazenamento.
- Para clusters de VPC com Bare Metal Servers for VPC nós de trabalho, selecione
localblock
. - Para clusters de várias zonas, use uma classe de armazenamento com o endereço
VolumeBindingMode
deWaitForFirstConsumer
. - Para obter uma lista de classes de armazenamento, consulte a Referência de classe de armazenamento.
- Para clusters de VPC com Bare Metal Servers for VPC nós de trabalho, selecione
- Tamanho do pod OSD
- Digite o tamanho do volume que você deseja provisionar. Digite pelo menos 512Gi.
- Nós do trabalhador
- Digite os nomes dos nós de trabalho nos quais você deseja implantar o ODF. É necessário inserir pelo menos 3 nomes de nós do trabalhador. Para encontrar os nomes de seus nós, execute o comando
oc get nodes
em seu cluster. Node devem ser separados por vírgulas, sem espaços entre os nomes. Por exemplo:10.240.0.24,10.240.0.26,10.240.0.25
. Deixe este campo em branco para implementar o ODF em todos os nós do trabalhador. - Número de discos do OSD necessários
- Insira o número de discos OSD (armazenamento de aplicativos) a serem provisionados em cada nó de trabalho.
- Ativar criptografia de cluster
- Selecione essa opção se quiser criptografar os volumes OSD (criptografia em todo o cluster) usados pelos pods do sistema ODF.
- Ativar a criptografia de volume
- Selecione essa opção se quiser ativar a criptografia para os volumes de aplicativos (armazenamento de aplicativos).
- No campo Nome da instância, insira um nome exclusivo para a instância do Hyper Protect Crypto Services ou Key Protect.
- No campo Tipo de instância, insira o tipo de instância de criptografia
- No campo Instance ID (ID da instância ), digite o ID da instância Hyper Protect Crypto Services ou Key Protect. Por exemplo:
d11a1a43-aa0a-40a3-aaa9-5aaa63147aaa
. - No campo Secret name (Nome do segredo ), digite o nome do segredo que você criou usando suas credenciais Hyper Protect Crypto Services ou Key Protect. Por exemplo:
ibm-hpcs-secret
. - No campo Base URL, digite o endpoint público da instância Hyper Protect Crypto Services ou Key Protect. Por exemplo:
https://api.eu-gb.hs-crypto.cloud.ibm.com:8389
. - No campo URL do token, digite
https://iam.cloud.ibm.com/identity/token
.
-
Após inserir os parâmetros que deseja usar, clique em Instalar
-
Aguarde alguns minutos até que a implementação do complemento esteja concluída. Quando a implementação estiver concluída, o status do complemento será
Normal - Addon Ready
. -
Verifique sua instalação. Acesse o seu Red Hat OpenShift cluster.
-
Execute o comando abaixo para verificar se os pods do ODF estão em execução.
oc get pods -n openshift-storage
- Próximas etapas
- Implemente um aplicativo que usa o ODF.
Instalando o complemento pela CLI
É possível instalar o complemento usando o comando ibmcloud oc cluster addon enable
.
-
Revise a Referência de parâmetro do VPC Ao ativar o add-on, você pode substituir os valores padrão especificando a opção
--param "key=value"
para cada parâmetro que deseja substituir. -
Liste as versões add-on
openshift-data-foundation
. Faça uma nota da versão padrão e determine a versão que deseja instalar.ibmcloud ks cluster addon versions
-
Antes de ativar o complemento, revise o log de mudanças para obter as informações de versão mais recente. Observe que o complemento suporta as versões de cluster
n+1
. Por exemplo, você pode implementar a versão4.10.0
do complemento em um cluster OCP4.9
ou4.11
. Se você tiver uma versão de cluster diferente da padrão, deverá especificar a opção--version
ao ativar o complemento. -
Revise as opções do complemento.
ibmcloud oc cluster addon options --addon openshift-data-foundation --version 4.15.0
Para obter o melhor desempenho, é recomendável incluir a opção
resourceProfile
especificada comoperformance
. Essa opção ajuda a obter níveis de desempenho aprimorados com base na disponibilidade de recursos durante a implementação. Para obter mais informações sobre a opçãoresourceProfile
, consulte Perfis de desempenho na documentação do Red Hat OpenShift ODFExemplo de opções de add-on para a versão 4.15.0
Add-on Options Option Default Value osdStorageClassName ibmc-vpc-block-metro-10iops-tier ocsUpgrade false billingType advanced autoDiscoverDevices false hpcsBaseUrl <Please provide the KMS Base (public) URL> taintNodes false enableNFS false resourceProfile performance useCephRBDAsDefaultStorageClass false clusterEncryption false hpcsEncryption false hpcsSecretName <Please provide the KMS secret name> encryptionInTransit false disableNoobaaLB false osdSize 512Gi numOfOsd 1 ignoreNoobaa true addSingleReplicaPool false prepareForDisasterRecovery false workerPool - odfDeploy true osdDevicePaths <Please provide IDs of the disks to be used for OSD pods if using local disks or standard classic cluster> workerNodes all hpcsServiceName <Please provide the KMS Service instance name> hpcsInstanceId <Please provide the KMS Service instance ID> hpcsTokenUrl <Please provide the KMS token URL>
-
Ative o complemento
openshift-data-foundation
. Se você quiser substituir qualquer um dos parâmetros padrão, especifique a opção--param "key=value"
para cada parâmetro que deseja substituir. Para não criar seu cluster de armazenamento ao ativar o complemento, ative o complemento primeiro e crie o cluster de armazenamento mais tarde por meio da criação de um CRD.Exemplo de comando para implementar a versão do complemento 4.10 com as configurações padrão do cluster de armazenamento, o perfil de recurso
performance
e a criptografia com Hyper Protect Crypto Services ativado.ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster-name> --version 4.15.0 --param "odfDeploy=true" --param "resourceProfile=performance" --param "hpcsTokenUrl=https://iam.cloud.ibm.com/identity/token" --param "hpcsEncryption=true" --param "hpcsBaseUrl=<hpcs-instance-public-endpoint>" --param "hpcsInstanceId=<hpcs-instance-id>" --param "hpcsServiceName=<hpcs-instance-name>" --param "hpcsSecretName=<hpcs-secret-name>"
Exemplo de comando para implementar somente o complemento do ODF.
ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version> --param "odfDeploy=false"
Exemplo de comando para implementar o ODF e criar um cluster de armazenamento com os parâmetros de configuração padrão.
ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version>
Exemplo de comando para implementar o ODF e criar um cluster de armazenamento enquanto se sobrepõe ao parâmetro
osdSize
.ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version> --param "osdSize=500Gi"
-
Verifique se o complemento está em um estado
Ready
.oc get storagecluster -n openshift-storage
Saída de exemplo:
NAME AGE PHASE EXTERNAL CREATED AT VERSION ocs-storagecluster 53m Ready 2023-03-10T12:20:52Z 4.11.0
-
Verifique se o pod
ibm-ocs-operator-controller-manager-*****
está em execução no espaço de nomeskube-system
.oc get pods -A | grep ibm-ocs-operator-controller-manager
-
Se você ativou o complemento com
odfDeploy
configurado comofalse
, siga os passos para criar um recurso personalizado do ODF.
Instalando o complemento do Terraform
- Instale a CLI do Terraform e o IBM Cloud plug-in do provedor.
- Certifique-se de ter uma IBM Cloud chave de API.
-
Crie um arquivo de provedor do Terraform. Salve o arquivo em seu diretório do Terraform Para obter mais informações, consulte a Documentação do provedor do Terraform IBM Cloud
Arquivo do provedor Terraform de exemplo.
terraform { required_providers { ibm = { source = "IBM-Cloud/ibm" version = "1.53.0" } } } provider "ibm" { region = "us-south" ibmcloud_api_key = "<api-key>" }
-
Crie um arquivo de configuração do Terraform para o complemento do ODF Salve o arquivo em seu diretório do Terraform
Arquivo de configuração de exemplo
ibmcloud_api_key = "" # Enter your API Key cluster = "" # Enter the Cluster ID region = "us-south" # Enter the region # For add-on deployment odfVersion = "4.12.0" # For CRD Creation and Management autoDiscoverDevices = "false" billingType = "advanced" clusterEncryption = "false" hpcsBaseUrl = null hpcsEncryption = "false" hpcsInstanceId = null hpcsSecretName = null hpcsServiceName = null hpcsTokenUrl = null ignoreNoobaa = "false" numOfOsd = "1" ocsUpgrade = "false" osdDevicePaths = null osdSize = "250Gi" osdStorageClassName = "ibmc-vpc-block-metro-10iops-tier" workerNodes = null
-
Na CLI, navegue para o seu diretório do Terraform
cd <terraform_directory>
-
Execute os comandos para inicializar e planejar suas ações do Terraform. Revise a saída do plano para assegurar que as ações corretas sejam executadas.
terraform init
terraform plan
-
Aplique os arquivos do Terraform para criar o cluster Em seguida, navegue para o console do IBM Cloud para verificar se o cluster está fornecendo.
terraform apply
Criando seu recurso customizado do ODF
Para criar um cluster de armazenamento do ODF em seu cluster VPC usando o provisionamento dinâmico dos volumes de armazenamento, crie um recurso customizado para especificar os detalhes do dispositivo de armazenamento.
Para usar uma instância de serviço do IBM Cloud Object Storage como seu armazenamento auxiliar padrão, certifique-se de criar a instância de serviço e o segredo do Kubernetes no cluster. Ao criar o CRD do ODF em
seu cluster, o ODF procura um segredo chamado ibm-cloud-cos-creds
para configurar o armazenamento de suporte padrão que usa suas credenciais do Object Storage HMAC.
-
Crie uma definição de recurso customizada chamada
OcsCluster
. Salve um dos seguintes arquivos de definição de recursos personalizados em seu computador local e edite-o para incluir o nome da classe de armazenamento que você criou anteriormente como os parâmetrosmonStorageClassName
eosdStorageClassName
. Para obter mais informações sobre os parâmetrosOcsCluster
, consulte a referência de parâmetro.Exemplo de definição de recurso customizado para instalação de ODF em todos os nós do trabalhador em um cluster 4.8.
apiVersion: ocs.ibm.io/v1 kind: OcsCluster metadata: name: ocscluster-vpc # Kubernetes resource names can't contain capital letters or special characters. Enter a name for your resource that uses only lowercase letters, numbers, `-` or `.` spec: osdStorageClassName: <osdStorageClassName> # Specify an ODF storage class with a waitForFirstConsumer volume binding mode osdSize: <osdSize> # The OSD size is the total storage capacity of your OCS storage cluster. Use at least 250Gi OSDs for production workloads. numOfOsd: 1 billingType: advanced ocsUpgrade: false
Exemplo de definição de recurso customizado para instalar o ODF apenas em nós do trabalhador especificados em um cluster 4.8.
apiVersion: ocs.ibm.io/v1 kind: OcsCluster metadata: name: ocscluster-vpc # Kubernetes resource names can't contain capital letters or special characters. Enter a name for your resource that uses only lowercase letters, numbers, `-` or `.` spec: osdStorageClassName: <osdStorageClassName> # Specify an ODF storage class with a waitForFirstConsumer volume binding mode osdSize: <osdSize> # The OSD size is the total storage capacity of your OCS storage cluster. Use at least 250Gi OSDs for production workloads. numOfOsd: 1 billingType: advanced ocsUpgrade: false workerNodes: # Specify the private IP addresses of the worker nodes where you want to install OCS. - <workerNodes> # To get a list worker nodes, run `oc get nodes`. - <workerNodes> - <workerNodes>
-
Salve o arquivo e crie o recurso customizado
OcsCluster
para o seu cluster.oc create -f <ocs-cluster-filename>.yaml
-
Verifique se seu
OcsCluster
está em execução.oc describe ocscluster ocscluster-vpc
Exemplo de saída
Name: ocscluster-vpc Namespace: Labels: <none> Annotations: <none> API Version: ocs.ibm.io/v1 Kind: OcsCluster Metadata: Creation Timestamp: 2021-03-23T20:56:51Z Finalizers: finalizer.ocs.ibm.io Generation: 1 Managed Fields: API Version: ocs.ibm.io/v1 Fields Type: FieldsV1 fieldsV1: f:spec: .: f:billingType: f:monSize: f:monStorageClassName: f:numOfOsd: f:ocsUpgrade: f:osdSize: f:osdStorageClassName: Manager: oc Operation: Update Time: 2021-03-23T20:56:51Z API Version: ocs.ibm.io/v1 Fields Type: FieldsV1 fieldsV1: f:metadata: f:finalizers: .: v:"finalizer.ocs.ibm.io": f:status: .: f:storageClusterStatus: Manager: manager Operation: Update Time: 2021-04-09T23:12:02Z Resource Version: 11372332 Self Link: /apis/ocs.ibm.io/v1/ocsclusters/ocscluster-vpc UID: aa11a1a1-111f-aace-afac-1fa1afe1111a Spec: Billing Type: hourly Mon Size: 20Gi Mon Storage Class Name: ibmc-vpc-block-10iops-tier Num Of Osd: 1 Ocs Upgrade: false Osd Size: 250Gi Osd Storage Class Name: ibmc-vpc-block-10iops-tier Status: Storage Cluster Status: Events: <none>
Ajuste de escala do ODF
É possível ajustar a escala de sua configuração do ODF aumentando a configuração numOfOsd
. Ao aumentar o número de OSDs, o ODF provisiona esse número de discos com a mesma capacidade osdSize
em GB em cada um dos nós
do trabalhador em seu cluster do ODF. No entanto, o armazenamento total que está disponível para seus aplicativos é igual ao osdSize
multiplicado pelo numOfOsd
.
Número de nós do trabalhador | osdSize inicial |
numOfOsd |
Capacidade de armazenamento disponível para aplicativos | Armazenamento total de discos provisionados |
---|---|---|---|---|
3 | 250Gi | 1 | 250Gi | 750Gi |
3 | 250Gi | 2 | 500Gi | 1500Gi |
3 | 250Gi | 3 | 750Gi | 2250Gi |
3 | 250Gi | 4 | 1000Gi | 3000Gi |
Ajustando a escala por meio do aumento de numOfOsd
Acesse o seu Red Hat OpenShift cluster.
-
Obtenha o nome de seu recurso customizado
OcsCluster
.oc get ocscluster
-
Salve seu arquivo do YAML do recurso customizado
OcsCluster
em sua máquina local comoocscluster.yaml
.oc get ocscluster ocscluster-vpc -o yaml
-
Aumente o parâmetro
numOfOsd
e reaplique o CRD deocscluster
ao seu cluster.oc apply -f ocscluster.yaml
-
Verifique se os OSDs adicionais são criados.
oc get pv
Expandindo o ODF por meio da inclusão de nós do trabalhador no cluster VPC
Para aumentar a capacidade de armazenamento no cluster de armazenamento, inclua nós do trabalhador compatíveis nele.
-
Expanda o conjunto de trabalhadores do cluster que é usado para o OCS incluindo nós do trabalhador. Certifique-se de que seus nós do trabalhador atendam aos requisitos do ODF. Se o ODF for implementado em todos os nós do trabalhador no cluster, os drivers do ODF serão instalados nos novos nós do trabalhador quando forem incluídos no cluster.
-
Se você implantou o ODF em um subconjunto de nós de trabalho em seu cluster especificando os parâmetros
<workerNodes>
privados no recurso personalizadoOcsCluster
, poderá adicionar o nome do nó dos novos nós de trabalho à implantação do ODF editando a definição do recurso personalizado.oc edit ocscluster ocscluster-vpc
-
Salve o arquivo de recursos customizados
OcsCluster
para reaplicá-lo em seu cluster.
Limitações
Revise as limitações a seguir para a implementação do ODF.
Limite de caracteres de ID do recurso do Kubernetes: os nomes de PVC do Kubernetes devem ter menos de 63 caracteres. Ao implementar o ODF em um cluster VPC multizona e criar o cluster de armazenamento do ODF com uma classe de
armazenamento Metro de retain
, como ibmc-vpc-block-metro-retain-10iops-tier
, ocorre uma falha no conjunto correspondente de dispositivos do ODF criado usando esta classe de armazenamento. Para obter mais informações,
consulte Falha na criação do conjunto de dispositivos do ODF devido à limitação de caracteres do Kubernetes.