IBM Cloud Docs
Augmenter le volume d' iSCSI s sur Red Hat Enterprise Linux 8

Augmenter le volume d' iSCSI s sur Red Hat Enterprise Linux 8

Ce didacticiel vous explique comment monter un volume d' IBM Cloud® Block Storage for Classic s sur un serveur équipé du système d'exploitation Linux ( Red Hat Enterprise Linux® ). Vous allez créer deux connexions entre une interface réseau de votre hôte et deux adresses IP cible de la grappe de stockage.

Si vous utilisez un autre système d'exploitation Linux ( Linux® ), reportez-vous à la documentation de votre distribution spécifique et assurez-vous que le multipath prend en charge ALUA pour la priorité des chemins.

Avant de commencer

Si plusieurs hôtes montent le même volume Block Storage for Classic sans être gérés de manière coopérative, vos données risquent d'être endommagées. La corruption de volume peut se produire si des modifications sont apportées au volume par plusieurs hôtes en même temps. Vous avez besoin d'un système de fichiers de disque partagé sensible au cluster pour éviter la perte de données, par exemple Microsoft Cluster Shared Volumes (CSV), Red Hat Global File System (GFS2), VMware® VMFS, etc. Pour plus d'informations, consultez la documentation du système d'exploitation de votre hôte.

Il est recommandé d'exécuter le trafic de stockage sur un réseau local virtuel (VLAN) qui ignore le pare-feu. L'exécution du trafic de stockage via des pare-feux logiciels augmente le temps d'attente et a un impact négatif sur les performances de stockage. Pour plus d'informations sur le routage du trafic de stockage vers sa propre interface VLAN, voir FAQ (Foire aux questions).

Avant de commencer, assurez-vous que l'hôte qui doit accéder au volume d' Block Storage for Classic s est autorisé. Pour plus d'informations, voir Autoriser l'hôte dans la console Autoriser l'hôte depuis la CLI Autoriser l'hôte avec Terraform.

Installez les utilitaires iSCSI et multi-accès.

Assurez-vous que votre système est à jour et inclut les paquets iscsi-initiator-utils et device-mapper-multipath. Utilisez la commande suivante pour installer les packages.

sudo dnf -y install iscsi-initiator-utils device-mapper-multipath

Configurez le multi-accès

Vous configurez DM Multipath avec l'utilitaire d' mpathconf, qui crée le fichier de configuration multipath /etc/multipath.conf.

  • Si le fichier /etc/multipath.conf existe, l'utilitaire mpathconf peut le modifier.
  • Si le fichier /etc/multipath.conf n'existe pas, l'utilitaire mpathconf crée le fichier /etc/multipath.conf.

Pour plus d'informations sur l'utilitaire mpathconf, consultez la page de manuel mpathconf(8).

  1. Entrez la commande mpathconf avec l'option --enable.

    # mpathconf --enable --user_friendly_names n
    
  2. Modifiez le fichier /etc/multipath.conf avec la configuration minimale suivante.

    defaults {
    user_friendly_names no
    max_fds max
    flush_on_last_del yes
    queue_without_daemon no
    dev_loss_tmo infinity
    fast_io_fail_tmo 5
    }
    # All data in the following section must be specific to your system.
    blacklist {
    wwid "SAdaptec*"
    devnode "^hd[a-z]"
    devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
    devnode "^cciss.*"
    }
    devices {
    device {
    vendor "NETAPP"
    product "LUN"
    path_grouping_policy group_by_prio
    features "2 pg_init_retries 50"
    no_path_retry queue
    prio "alua"
    path_checker tur
    failback immediate
    path_selector "round-robin 0"
    hardware_handler "1 alua"
    rr_weight uniform
    rr_min_io 128
    }
    }
    

    La section des valeurs par défaut initiales du fichier de configuration configure votre système de sorte que les noms des périphériques multipoints soient de la forme /dev/mapper/mpath n, où mpath n est le WWID du périphérique.

  3. Enregistrez le fichier de configuration et quittez l'éditeur, si nécessaire.

  4. Exécutez la commande suivante.

    systemctl start multipathd.service
    

    Si vous devez modifier le fichier de configuration multipath après avoir démarré le démon multipath, vous devez exécuter la commande « systemctl reload multipathd.service » pour que les modifications soient prises en compte.

    Pour plus d'informations sur l'utilisation de la fonctionnalité Device Mapper Multipath sur RHEL 8, voir Configuration de Device Mapper Multipath.

Mettez à jour le fichier /etc/iscsi/initiatorname.iscsi

Mettre à jour le fichier d' /etc/iscsi/initiatorname.iscsi s avec l'IQN de la console d' IBM Cloud®. Saisissez la valeur en minuscules.

InitiatorName=<value-from-the-Portal>

Configurer les données d'identification

Modifiez les paramètres suivants dans /etc/iscsi/iscsid.conf en utilisant le nom d'utilisateur et le mot de passe de la console IBM Cloud®. Utilisez des majuscules pour les noms CHAP.

node.session.auth.authmethod = CHAP
node.session.auth.username = <Username-value-from-Portal>
node.session.auth.password = <Password-value-from-Portal>
discovery.sendtargets.auth.authmethod = CHAP
discovery.sendtargets.auth.username = <Username-value-from-Portal>
discovery.sendtargets.auth.password = <Password-value-from-Portal>

Laissez les autres paramètres CHAP commentés. Le stockage IBM Cloud® n'utilise que l'authentification unidirectionnelle. N'activez pas l'authentification CHAP mutuelle.

Reconnaissez le périphérique de stockage et connectez-vous.

L'utilitaire iscsiadm est un outil en ligne de commande qui permet de découvrir et de se connecter à des cibles d' iSCSI, ainsi que d'accéder à la base de données open-iscsi et de la gérer. Pour plus d'informations, consultez la page de manuel iscsiadm(8). Lors de cette étape, reconnaissez le périphérique à l'aide de l'adresse IP cible obtenue à partir de la console IBM Cloud® .

  1. Exécutez la reconnaissance sur la grappe iSCSI.

    iscsiadm -m discovery -t sendtargets -p <ip-value-from-IBM-Cloud-console>
    

    Si les informations sur l'adresse IP et les détails d'accès s'affichent, la découverte est réussie.

  2. Connectez-vous à la grappe iSCSI.

    iscsiadm -m node --login
    

Vérification de la configuration

  1. Validez la création de la session iSCSI.

    iscsiadm -m session -o show
    
  2. Validez l'existance de plusieurs chemins.

    multipath -l
    

    Cette commande affiche les chemins d'accès. S'il est correctement configuré, chaque volume possède un seul groupe, avec un nombre de chemins égal au nombre de sessions d' iSCSI. Il est possible de connecter un volume avec un seul chemin, mais il est important que les connexions soient établies sur les deux chemins pour éviter toute interruption de service.

    Si MPIO n'est pas configuré correctement, votre périphérique de stockage peut se déconnecter et apparaître comme étant hors ligne en cas de panne réseau ou de maintenance par les équipes d'IBM Cloud®. MPIO fournit un niveau supplémentaire de connectivité pendant ces événements et maintient une session établie au volume avec des opérations de lecture/écriture actives.

  3. Répertoriez les tables de partition pour le périphérique connecté.

    fdisk -l | grep /dev/mapper
    

    Par défaut, l'unité de stockage se connecte à /dev/mapper/<wwid>. L'ID WWID est persistant tant que le volume existe. La commande génère une sortie semblable à l'exemple ci-après.

    Disk /dev/mapper/3600a0980383030523424457a4a695266: 73.0 GB, 73023881216 bytes
    

    Dans l'exemple, la chaîne 3600a0980383030523424457a4a695266 est le WWID. Votre application doit utiliser le WWID. Il est également possible d'attribuer des noms plus faciles à lire en utilisant les mots-clés « user_friendly_names » ou « alias » dans multipath.conf. Pour plus d'informations, consultez la page de manuel d' multipath.conf.

    Le volume est maintenant monté et accessible sur l'hôte. Vous pouvez créer ensuite un système de fichiers.

Création d'un système de fichiers (facultatif)

Procédez comme indiqué ci-après pour créer un système de fichiers sur le volume récemment monté. Un système de fichiers est nécessaire pour permettre à la plupart des applications d'utiliser le volume. Utilisez fdisk pour les unités inférieures à 2 To et parted pour un disque supérieur à 2 To.

Création d'un système de fichiers avec fdisk

  1. Obtenez le nom du disque.

    fdisk -l | grep /dev/mapper
    

    Le nom de disque renvoyé doit être similaire à /dev/mapper/XXX.

  2. Créez une partition sur le disque.

    fdisk /dev/mapper/XXX
    

    XXX représente le nom de disque renvoyé à l'étape 1.

  3. Créez un système de fichiers sur la nouvelle partition.

    fdisk –l /dev/mapper/XXX
    
    • La nouvelle partition est répertoriée avec le disque, de la même manière que XXXp1, suivi de la taille, Type (83) et Linux®.

    • Notez le nom de la partition, car vous en aurez besoin à l'étape suivante. (XXXp1 représente le nom de la partition.)

    • Créez le système de fichiers :

      mkfs.ext3 /dev/mapper/XXXp1
      
  4. Créez un point de montage pour le système de fichiers et montez-le.

    • Créez un nom de partition PerfDisk ou un emplacement où monter le système de fichiers.

      mkdir /PerfDisk
      
    • Montez le stockage avec le nom de partition.

      mount /dev/mapper/XXXp1 /PerfDisk
      
    • Vérifiez que votre nouveau système de fichiers est répertorié.

      df -h
      
  5. Pour activer le montage automatique de l'amorçage om, ajoutez le nouveau système de fichiers au fichier /etc/fstab du système.

    • Ajoutez la ligne suivante à la fin du fichier /etc/fstab (en utilisant le nom de partition provenant de l'étape 3).
    /dev/mapper/XXXp1    /PerfDisk    ext3    defaults,_netdev    0    1
    

    Pour plus d'informations, voir An introduction to the Linux /etc/fstab file.

Création d'un système de fichiers avec parted

parted, est préinstallé sur de nombreuses distributions d' Linux®. Cependant, si vous en avez besoin, vous pouvez l'installer en exécutant la commande suivante.

# dnf install parted

Pour créer un système de fichiers avec parted, procédez comme suit :

  1. Démarrer l'interpréteur de commandes interactif d' parted.

    parted
    
  2. Créez une partition sur le disque.

    1. Sauf indication contraire, l'utilitaire d' parted s utilise votre disque principal, qui est dans la plupart des cas /dev/sda. Basculez vers le disque que vous souhaitez partitionner à l'aide de la commande select. Remplacez XXX par le nom de votre nouveau périphérique.

      select /dev/mapper/XXX
      
    2. Exécutez print pour confirmer que vous êtes sur le bon disque.

      print
      
    3. Créez une table de partition GPT.

      mklabel gpt
      
    4. Parted peut être utilisé pour créer des partitions de disque logiques et primaires, car les procédures sont identiques. Pour créer une partition, l'utilitaire utilise mkpart. Vous pouvez indiquer des paramètres supplémentaires de type primaire ou logique en fonction du type de partition que vous souhaitez créer.

      mkpart
      

      Les unités répertoriées sont exprimées par défaut en mégaoctets (Mo). Pour créer une partition de 10 Go, vous devez commencer à 1 et terminer à 10 000. Vous pouvez également modifier les unités de dimensionnement en téraoctets en saisissant unit TB si vous le souhaitez.

    5. Quittez parted à l'aide de la commande quit.

      quit
      
  3. Créez un système de fichiers sur la nouvelle partition.

    mkfs.ext3 /dev/mapper/XXXp1
    

    Il est important de sélectionner le bon disque et la bonne partition lorsque vous exécutez cette commande. Vérifiez le résultat en imprimant la table de partition. Dans la colonne du système de fichiers, vous pouvez voir ext3.

  4. Créez un point de montage pour le système de fichiers et montez-le.

    • Créez un nom de partition PerfDisk ou un emplacement où monter le système de fichiers.
    mkdir /PerfDisk
    
    • Montez le stockage avec le nom de partition.
    mount /dev/mapper/XXXp1 /PerfDisk
    
    • Vérifiez que votre nouveau système de fichiers est répertorié.
    df -h
    
  5. Pour activer le montage automatique de l'amorçage om, ajoutez le nouveau système de fichiers au fichier /etc/fstab du système.

    • Ajoutez la ligne suivante à la fin du fichier /etc/fstab (en utilisant le nom de partition provenant de l'étape 3).
    /dev/mapper/XXXp1    /PerfDisk    ext3    defaults,_netdev    0    1
    

    Pour plus d'informations, voir An introduction to the Linux /etc/fstab file.

Gestion des autorisations d'accès des utilisateurs au contenu du volume monté

En tant qu'administrateur système, vous pouvez gérer l'accès aux données sur le volume monté. Une fois le système de fichiers prêt, vous pouvez affiner le contrôle d'accès en utilisant les commandes chown et chmod pour attribuer des autorisations de lecture, d'écriture et d'exécution à des utilisateurs et des groupes individuels. Pour plus d'informations, consultez le tutoriel de Red Hat: Comment gérer les autorisations d' Linux s pour les utilisateurs, les groupes et autres.

Vérification de la configuration MPIO (E-S multi-accès)

Si MPIO n'est pas configuré correctement, votre périphérique de stockage peut se déconnecter et apparaître comme étant hors ligne en cas de panne réseau ou de maintenance par les équipes d'IBM Cloud®. MPIO fournit un niveau supplémentaire de connectivité pendant ces événements et maintient une session établie au volume avec des opérations de lecture/écriture actives.

  • Pour vérifier si le multi-accès détecte les périphériques, affichez la configuration en cours. S'il est configuré correctement, un seul groupe existe pour chaque volume, avec un nombre de chemins égal au nombre de sessions iSCSI.

    multipath -l
    
    root@server:~# multipath -l
    3600a09803830304f3124457a45757067 dm-1 NETAPP,LUN C-Mode
    size=20G features='1 queue_if_no_path' hwhandler='0' wp=rw
    |-+- policy='round-robin 0' prio=-1 status=active
    | `6:0:0:101 sdd 8:48 active ready running
    `-+- policy='round-robin 0' prio=-1 status=enabled
     `- 7:0:0:101 sde 8:64 active ready running
    

    La chaîne 3600a09803830304f3124457a45757067 dans l'exemple est le WWID unique du volume. Chaque volume est identifié par son WWID unique, qui est persistant tant que le volume existe.

  • Confirmez que tous les disques sont présents. Dans une configuration correcte, vous devriez voir deux disques s'afficher dans la sortie avec le même identificateur, ainsi qu'une liste /dev/mapper de la même taille avec le même identificateur. Le périphérique /dev/mapper est celui qui est configuré par le multi-accès.

    fdisk -l | grep Disk
    
    • Exemple de sortie d'une configuration correcte.
    root@server:~# fdisk -l | grep Disk
    Disk /dev/sda: 500.1 GB, 500107862016 bytes Disk identifier: 0x0009170d
    Disk /dev/sdc: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    Disk /dev/sdb: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    Disk /dev/mapper/3600a09803830304f3124457a45757066: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    

    L'identificateur WWID est inclus dans le nom du périphérique créé par le multi-accès. Il est recommandé d'utiliser le WWID dans votre application.

    • Exemple de sortie d'une configuration incorrecte. Il n'existe pas de disque /dev/mapper.
    root@server:~# fdisk -l | grep Disk
    Disk /dev/sda: 500.1 GB, 500107862016 bytes Disk identifier: 0x0009170d
    Disk /dev/sdc: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    Disk /dev/sdb: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    
  • Pour confirmer qu'aucun disque local n'est inclus dans la liste des périphériques multichemin, affichez la configuration actuelle avec le niveau de détail 3. La sortie de la commande suivante affiche les unités et indique également celles qui ont été ajoutées à la liste de blocages.

    multipath -l -v 3 | grep sd <date and time>
    
  • Si un volume est provisionné et attaché alors que le second chemin est en panne, l'hôte peut voir un seul chemin lorsque le scan de découverte est exécuté pour la première fois. Si vous rencontrez ce phénomène rare, consultez la page d'état IBM Cloud® pour voir si un événement ayant une incidence sur la capacité de votre hôte à accéder au stockage est en cours. Si aucun événement n'est signalé, effectuez à nouveau l'analyse de découverte pour vous assurer que tous les chemins d'accès sont correctement détectés. Si un événement est en cours, le stockage peut être attaché avec un seul chemin. Toutefois, il est essentiel que les chemins soient réanalysés une fois l'événement terminé. Si les deux chemins ne sont pas découverts après la nouvelle analyse, créez un dossier d'assistance afin qu'il puisse être correctement étudié.

Démontage de volumes Block Storage for Classic

  1. Démontez le système de fichiers.
    umount /dev/mapper/XXXp1 /PerfDisk
    
  2. Si vous n'avez pas d'autre volumes dans ce portail cible, vous pouvez vous déconnecter de la cible.
    iscsiadm -m node -T <TARGET NAME> -p <PORTAL IP:PORT> --logout
    
  3. Si vous n'avez pas d'autre volumes dans ce portail cible, supprimez l'enregistrement de portail cible pour empêcher les futures tentatives de connexion.
    iscsiadm -m node -o delete -T <TARGET IQN> -p <PORTAL IP:PORT>
    
    Pour plus d'informations, consultez le manuel d' iscsiadm.