IBM Cloud Docs
Augmenter le volume d' iSCSI s sur CloudLinux 8

Augmenter le volume d' iSCSI s sur CloudLinux 8

Ce didacticiel vous explique comment monter un volume d' IBM Cloud® Block Storage for Classic s sur un serveur équipé du système d'exploitation Linux ( CloudLinux ). Vous allez créer deux connexions entre une interface réseau de votre hôte et deux adresses IP cible de la grappe de stockage.

Si vous utilisez un autre système d'exploitation d' Linux®, reportez-vous à la documentation de votre distribution spécifique et assurez-vous que le multipath prend en charge ALUA pour la priorité des chemins.

Avant de commencer

Si plusieurs hôtes montent le même volume Block Storage for Classic sans être gérés de manière coopérative, vos données risquent d'être endommagées. La corruption de volume peut se produire si des modifications sont apportées au volume par plusieurs hôtes en même temps. Vous avez besoin d'un système de fichiers de disque partagé sensible au cluster pour éviter la perte de données, par exemple Microsoft Cluster Shared Volumes (CSV), Red Hat Global File System (GFS2), VMware® VMFS, etc. Pour plus d'informations, consultez la documentation du système d'exploitation de votre hôte.

Il est recommandé d'exécuter le trafic de stockage sur un réseau local virtuel (VLAN) qui ignore le pare-feu. L'exécution du trafic de stockage via des pare-feux logiciels augmente le temps d'attente et a un impact négatif sur les performances de stockage. Pour plus d'informations sur le routage du trafic de stockage vers sa propre interface VLAN, voir FAQ (Foire aux questions).

Avant de commencer, assurez-vous que l'hôte qui doit accéder au volume d' Block Storage for Classic s est autorisé. Pour plus d'informations, voir Autoriser l'hôte dans la console Autoriser l'hôte depuis la CLI Autoriser l'hôte avec Terraform.

Installez les utilitaires iSCSI et multi-accès.

Assurez-vous que votre système est à jour et qu'il inclut les packages iscsi-initiator-utils et device-mapper-multipath.

  1. Utilisez la commande suivante pour installer les packages.

    yum install iscsi-initiator-utils device-mapper-multipath
    
  2. Démarrez les services.

    chkconfig multipathd on
    
    chkconfig iscsid on
    

Configurez le multi-accès

Vous configurez DM Multipath avec l'utilitaire d' mpathconf, qui crée le fichier de configuration multipath /etc/multipath.conf.

  • Si le fichier /etc/multipath.conf existe, l'utilitaire mpathconf peut le modifier.
  • Si le fichier /etc/multipath.conf n'existe pas, l'utilitaire mpathconf crée le fichier /etc/multipath.conf.
  1. Entrez la commande mpathconf avec l'option --enable.

    # mpathconf --enable --user_friendly_names n
    
  2. Modifiez le fichier /etc/multipath.conf avec la configuration minimale suivante.

    defaults {
    user_friendly_names no
    max_fds max
    flush_on_last_del yes
    queue_without_daemon no
    dev_loss_tmo infinity
    fast_io_fail_tmo 5
    }
    # All data in the following section must be specific to your system.
    blacklist {
    wwid "SAdaptec*"
    devnode "^hd[a-z]"
    devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
    devnode "^cciss.*"
    }
    devices {
    device {
    vendor "NETAPP"
    product "LUN"
    path_grouping_policy group_by_prio
    features "2 pg_init_retries 50"
    no_path_retry queue
    prio "alua"
    path_checker tur
    failback immediate
    path_selector "round-robin 0"
    hardware_handler "1 alua"
    rr_weight uniform
    rr_min_io 128
    }
    

La section des valeurs par défaut initiales du fichier de configuration configure votre système de sorte que les noms des appareils multipoints soient de la forme /dev/mapper/mpath n, où mpath n est le WWID de l'appareil.

  1. Enregistrez le fichier de configuration et quittez l'éditeur, si nécessaire.

  2. Exécutez la commande suivante :

    # systemctl start multipathd.service
    

    Si vous devez modifier le fichier de configuration multipath après avoir démarré le démon multipath, vous devez exécuter la commande « systemctl reload multipathd.service » pour que les modifications soient prises en compte.

Mettez à jour le fichier /etc/iscsi/initiatorname.iscsi

Mettre à jour le fichier d' /etc/iscsi/initiatorname.iscsi s avec l'IQN de la console d' IBM Cloud®. Saisissez la valeur en minuscules.

InitiatorName=<value-from-the-Portal>

Configurer les données d'identification

Modifiez les paramètres suivants dans /etc/iscsi/iscsid.conf en utilisant le nom d'utilisateur et le mot de passe de la console IBM Cloud®. Utilisez des majuscules pour les noms CHAP.

node.session.auth.authmethod = CHAP
node.session.auth.username = <Username-value-from-Portal>
node.session.auth.password = <Password-value-from-Portal>
discovery.sendtargets.auth.authmethod = CHAP
discovery.sendtargets.auth.username = <Username-value-from-Portal>
discovery.sendtargets.auth.password = <Password-value-from-Portal>

Laissez les autres paramètres CHAP commentés. Le stockage IBM Cloud® n'utilise que l'authentification unidirectionnelle. N'activez pas l'authentification CHAP mutuelle.

Reconnaissez le périphérique de stockage et connectez-vous.

L'utilitaire iscsiadm est un outil en ligne de commande qui facilite la découverte et la connexion aux cibles d' iSCSI, ainsi que l'accès et la gestion de la base de données open-iscsi. Lors de cette étape, reconnaissez le périphérique à l'aide de l'adresse IP cible obtenue à partir de la console IBM Cloud® .

  1. Exécutez la reconnaissance sur la grappe iSCSI.

    iscsiadm -m discovery -t sendtargets -p <ip-value-from-IBM-Cloud-console>
    

    Si les informations d'IP et les détails d'accès sont affichés, la reconnaissance est réussie.

  2. Connectez-vous à la grappe iSCSI.

    iscsiadm -m node --login
    

Vérification de la configuration

  1. Validez la création de la session iSCSI.

    iscsiadm -m session -o show
    
  2. Validez l'existance de plusieurs chemins.

    multipath -l
    

    Cette commande affiche les chemins d'accès. S'il est correctement configuré, chaque volume possède un seul groupe, avec un nombre de chemins égal au nombre de sessions d' iSCSI. Il est possible de connecter un volume avec un seul chemin, mais il est important que les connexions soient établies sur les deux chemins pour éviter toute interruption de service.

    Si MPIO n'est pas configuré correctement, votre périphérique de stockage peut se déconnecter et apparaître comme étant hors ligne en cas de panne réseau ou de maintenance par les équipes d'IBM Cloud®. MPIO fournit un niveau supplémentaire de connectivité pendant ces événements et maintient une session établie au volume avec des opérations de lecture/écriture actives.

  3. Répertoriez les tables de partition pour le périphérique connecté.

    fdisk -l | grep /dev/mapper
    

    Par défaut, l'unité de stockage se connecte à /dev/mapper/<wwid>. L'ID WWID est persistant tant que le volume existe. La commande génère une sortie semblable à l'exemple ci-après.

    Disk /dev/mapper/3600a0980383030523424457a4a695266: 73.0 GB, 73023881216 bytes
    

    Dans l'exemple, la chaîne 3600a0980383030523424457a4a695266 est le WWID. Votre application doit utiliser le WWID. Il est également possible d'attribuer des noms plus simples à lire en utilisant les mots clés "user_friendly_names" ou "alias" dans le fichier multipath.conf.

    Le volume est maintenant monté et accessible sur l'hôte. Vous pouvez créer ensuite un système de fichiers.

Création d'un système de fichiers (facultatif)

Procédez comme indiqué ci-après pour créer un système de fichiers sur le volume récemment monté. Un système de fichiers est nécessaire pour permettre à la plupart des applications d'utiliser le volume. Utilisez fdisk pour les unités inférieures à 2 To et parted pour un disque supérieur à 2 To.

Création d'un système de fichiers avec fdisk

  1. Obtenez le nom du disque.

    fdisk -l | grep /dev/mapper
    

    Le nom de disque renvoyé doit être similaire à /dev/mapper/XXX.

  2. Créez une partition sur le disque.

    fdisk /dev/mapper/XXX
    

    XXX représente le nom de disque renvoyé à l'étape 1.

    Faites défiler vers le bas pour trouver les codes de commande répertoriés dans le tableau de commande d' fdisk.

  3. Créez un système de fichiers sur la nouvelle partition.

    fdisk –l /dev/mapper/XXX
    
    • La nouvelle partition est répertoriée avec le disque, de la même manière que XXXp1, suivi de la taille, du type (83) et de l' Linux®.
    • Notez le nom de la partition, car vous en aurez besoin à l'étape suivante. (XXXp1 représente le nom de la partition.)
    • Créez le système de fichiers :
    mkfs.ext3 /dev/mapper/XXXp1
    
  4. Créez un point de montage pour le système de fichiers et montez-le.

    • Créez un nom de partition PerfDisk ou un emplacement où monter le système de fichiers.
    mkdir /PerfDisk
    
    • Montez le stockage avec le nom de partition.
    mount /dev/mapper/XXXp1 /PerfDisk
    
    • Vérifiez que votre nouveau système de fichiers est répertorié.
    df -h
    
  5. Ajoutez le nouveau système de fichiers au fichier /etc/fstab du système pour activer le montage automatique à l'amorçage.

    • Ajoutez la ligne suivante à la fin du fichier /etc/fstab (en utilisant le nom de partition provenant de l'étape 3).
    /dev/mapper/XXXp1    /PerfDisk    ext3    defaults,_netdev    0    1
    

Création d'un système de fichiers avec parted

parted, est préinstallé sur de nombreuses distributions d' Linux®. Cependant, si vous en avez besoin, vous pouvez l'installer en exécutant la commande suivante.

# yum install parted

Pour créer un système de fichiers avec parted, procédez comme suit :

  1. Démarrer l'interpréteur de commandes interactif d' parted.

    parted
    
  2. Créez une partition sur le disque.

    • Sauf indication contraire, parted utilise votre unité principale. L'unité principale est /dev/sda dans la plupart des cas. Basculez vers le disque que vous souhaitez partitionner à l'aide de la commande select. Remplacez XXX par le nom de votre nouveau périphérique.

      select /dev/mapper/XXX
      
    • Exécutez print pour confirmer que vous êtes sur le bon disque.

      print
      
    • Créez une table de partition GPT.

      mklabel gpt
      
    • Parted peut être utilisé pour créer des partitions de disque logiques et primaires, car les procédures sont identiques. Pour créer une partition, parted utilise mkpart. Vous pouvez indiquer des paramètres supplémentaires de type primaire ou logique en fonction du type de partition que vous souhaitez créer. Les unités répertoriées sont exprimées par défaut en mégaoctets (Mo). Pour créer une partition de 10 Go, vous devez commencer à 1 et terminer à 10 000. Vous pouvez également modifier les unités de dimensionnement en téraoctets en saisissant unit TB si vous le souhaitez.

      mkpart
      
    • Quittez parted à l'aide de la commande quit.

      quit
      
  3. Créez un système de fichiers sur la nouvelle partition.

    mkfs.ext3 /dev/mapper/XXXp1
    

    Il est important de sélectionner le bon disque et la bonne partition lorsque vous exécutez cette commande. Vérifiez le résultat en imprimant la table de partition. Dans la colonne du système de fichiers, vous pouvez voir ext3.

  4. Créez un point de montage pour le système de fichiers et montez-le.

    • Créez un nom de partition PerfDisk ou un emplacement où monter le système de fichiers.
    mkdir /PerfDisk
    
    • Montez le stockage avec le nom de partition.
    mount /dev/mapper/XXXp1 /PerfDisk
    
    • Vérifiez que votre nouveau système de fichiers est répertorié.
    df -h
    
  5. Pour activer le montage automatique de l'amorçage om, ajoutez le nouveau système de fichiers au fichier /etc/fstab du système.

    • Ajoutez la ligne suivante à la fin du fichier /etc/fstab (en utilisant le nom de partition provenant de l'étape 3).
    /dev/mapper/XXXp1    /PerfDisk    ext3    defaults,_netdev    0    1
    

Gestion des autorisations d'accès des utilisateurs au contenu du volume monté

En tant qu'administrateur système, vous pouvez gérer l'accès aux données sur le volume monté. Une fois le système de fichiers prêt, vous pouvez affiner le contrôle d'accès en utilisant les commandes chown et chmod pour attribuer des autorisations de lecture, d'écriture et d'exécution à des utilisateurs et des groupes individuels. Pour plus d'informations, consultez la documentation produit d' CloudLinux.

Démontage de volumes Block Storage for Classic

Lorsque vous n'avez plus besoin du volume, démontez-le avant de le supprimer.

  1. Démontez le système de fichiers.
    umount /dev/mapper/XXXp1 /PerfDisk
    
  2. Si vous n'avez pas d'autre volumes dans ce portail cible, vous pouvez vous déconnecter de la cible.
    iscsiadm -m node -t <TARGET NAME> -p <PORTAL IP:PORT> --logout
    
  3. Si vous n'avez pas d'autre volumes dans ce portail cible, supprimez l'enregistrement de portail cible pour empêcher les futures tentatives de connexion.
    iscsiadm -m node -o delete -t <TARGET IQN> -p <PORTAL IP:PORT>