Augmenter le volume d' iSCSI s sur CloudLinux 8
Ce didacticiel vous explique comment monter un volume d' IBM Cloud® Block Storage for Classic s sur un serveur équipé du système d'exploitation Linux ( CloudLinux ). Vous allez créer deux connexions entre une interface réseau de votre hôte et deux adresses IP cible de la grappe de stockage.
Si vous utilisez un autre système d'exploitation d' Linux®, reportez-vous à la documentation de votre distribution spécifique et assurez-vous que le multipath prend en charge ALUA pour la priorité des chemins.
Avant de commencer
Si plusieurs hôtes montent le même volume Block Storage for Classic sans être gérés de manière coopérative, vos données risquent d'être endommagées. La corruption de volume peut se produire si des modifications sont apportées au volume par plusieurs hôtes en même temps. Vous avez besoin d'un système de fichiers de disque partagé sensible au cluster pour éviter la perte de données, par exemple Microsoft Cluster Shared Volumes (CSV), Red Hat Global File System (GFS2), VMware® VMFS, etc. Pour plus d'informations, consultez la documentation du système d'exploitation de votre hôte.
Il est recommandé d'exécuter le trafic de stockage sur un réseau local virtuel (VLAN) qui ignore le pare-feu. L'exécution du trafic de stockage via des pare-feux logiciels augmente le temps d'attente et a un impact négatif sur les performances de stockage. Pour plus d'informations sur le routage du trafic de stockage vers sa propre interface VLAN, voir FAQ (Foire aux questions).
Avant de commencer, assurez-vous que l'hôte qui doit accéder au volume d' Block Storage for Classic s est autorisé. Pour plus d'informations, voir Autoriser l'hôte dans la console Autoriser l'hôte depuis la CLI Autoriser l'hôte avec Terraform.
Installez les utilitaires iSCSI et multi-accès.
Assurez-vous que votre système est à jour et qu'il inclut les packages iscsi-initiator-utils
et device-mapper-multipath
.
-
Utilisez la commande suivante pour installer les packages.
yum install iscsi-initiator-utils device-mapper-multipath
-
Démarrez les services.
chkconfig multipathd on
chkconfig iscsid on
Configurez le multi-accès
Vous configurez DM Multipath avec l'utilitaire d' mpathconf
, qui crée le fichier de configuration multipath /etc/multipath.conf
.
- Si le fichier /etc/multipath.conf existe, l'utilitaire mpathconf peut le modifier.
- Si le fichier /etc/multipath.conf n'existe pas, l'utilitaire mpathconf crée le fichier /etc/multipath.conf.
-
Entrez la commande
mpathconf
avec l'option--enable
.# mpathconf --enable --user_friendly_names n
-
Modifiez le fichier
/etc/multipath.conf
avec la configuration minimale suivante.defaults { user_friendly_names no max_fds max flush_on_last_del yes queue_without_daemon no dev_loss_tmo infinity fast_io_fail_tmo 5 } # All data in the following section must be specific to your system. blacklist { wwid "SAdaptec*" devnode "^hd[a-z]" devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*" devnode "^cciss.*" } devices { device { vendor "NETAPP" product "LUN" path_grouping_policy group_by_prio features "2 pg_init_retries 50" no_path_retry queue prio "alua" path_checker tur failback immediate path_selector "round-robin 0" hardware_handler "1 alua" rr_weight uniform rr_min_io 128 }
La section des valeurs par défaut initiales du fichier de configuration configure votre système de sorte que les noms des appareils multipoints soient de la forme /dev/mapper/mpath n
, où mpath n
est le WWID de l'appareil.
-
Enregistrez le fichier de configuration et quittez l'éditeur, si nécessaire.
-
Exécutez la commande suivante :
# systemctl start multipathd.service
Si vous devez modifier le fichier de configuration multipath après avoir démarré le démon multipath, vous devez exécuter la commande «
systemctl reload multipathd.service
» pour que les modifications soient prises en compte.
Mettez à jour le fichier /etc/iscsi/initiatorname.iscsi
Mettre à jour le fichier d' /etc/iscsi/initiatorname.iscsi
s avec l'IQN de la console d' IBM Cloud®. Saisissez la valeur en minuscules.
InitiatorName=<value-from-the-Portal>
Configurer les données d'identification
Modifiez les paramètres suivants dans /etc/iscsi/iscsid.conf
en utilisant le nom d'utilisateur et le mot de passe de la console IBM Cloud®. Utilisez des majuscules pour les noms CHAP.
node.session.auth.authmethod = CHAP
node.session.auth.username = <Username-value-from-Portal>
node.session.auth.password = <Password-value-from-Portal>
discovery.sendtargets.auth.authmethod = CHAP
discovery.sendtargets.auth.username = <Username-value-from-Portal>
discovery.sendtargets.auth.password = <Password-value-from-Portal>
Laissez les autres paramètres CHAP commentés. Le stockage IBM Cloud® n'utilise que l'authentification unidirectionnelle. N'activez pas l'authentification CHAP mutuelle.
Reconnaissez le périphérique de stockage et connectez-vous.
L'utilitaire iscsiadm est un outil en ligne de commande qui facilite la découverte et la connexion aux cibles d' iSCSI, ainsi que l'accès et la gestion de la base de données open-iscsi. Lors de cette étape, reconnaissez le périphérique à l'aide de l'adresse IP cible obtenue à partir de la console IBM Cloud® .
-
Exécutez la reconnaissance sur la grappe iSCSI.
iscsiadm -m discovery -t sendtargets -p <ip-value-from-IBM-Cloud-console>
Si les informations d'IP et les détails d'accès sont affichés, la reconnaissance est réussie.
-
Connectez-vous à la grappe iSCSI.
iscsiadm -m node --login
Vérification de la configuration
-
Validez la création de la session iSCSI.
iscsiadm -m session -o show
-
Validez l'existance de plusieurs chemins.
multipath -l
Cette commande affiche les chemins d'accès. S'il est correctement configuré, chaque volume possède un seul groupe, avec un nombre de chemins égal au nombre de sessions d' iSCSI. Il est possible de connecter un volume avec un seul chemin, mais il est important que les connexions soient établies sur les deux chemins pour éviter toute interruption de service.
Si MPIO n'est pas configuré correctement, votre périphérique de stockage peut se déconnecter et apparaître comme étant hors ligne en cas de panne réseau ou de maintenance par les équipes d'IBM Cloud®. MPIO fournit un niveau supplémentaire de connectivité pendant ces événements et maintient une session établie au volume avec des opérations de lecture/écriture actives.
-
Répertoriez les tables de partition pour le périphérique connecté.
fdisk -l | grep /dev/mapper
Par défaut, l'unité de stockage se connecte à
/dev/mapper/<wwid>
. L'ID WWID est persistant tant que le volume existe. La commande génère une sortie semblable à l'exemple ci-après.Disk /dev/mapper/3600a0980383030523424457a4a695266: 73.0 GB, 73023881216 bytes
Dans l'exemple, la chaîne
3600a0980383030523424457a4a695266
est le WWID. Votre application doit utiliser le WWID. Il est également possible d'attribuer des noms plus simples à lire en utilisant les mots clés "user_friendly_names" ou "alias" dans le fichier multipath.conf.Le volume est maintenant monté et accessible sur l'hôte. Vous pouvez créer ensuite un système de fichiers.
Création d'un système de fichiers (facultatif)
Procédez comme indiqué ci-après pour créer un système de fichiers sur le volume récemment monté. Un système de fichiers est nécessaire pour permettre à la plupart des applications d'utiliser le volume. Utilisez fdisk
pour les unités inférieures à 2 To et parted
pour un disque supérieur à 2 To.
Création d'un système de fichiers avec fdisk
-
Obtenez le nom du disque.
fdisk -l | grep /dev/mapper
Le nom de disque renvoyé doit être similaire à
/dev/mapper/XXX
. -
Créez une partition sur le disque.
fdisk /dev/mapper/XXX
XXX représente le nom de disque renvoyé à l'étape 1.
Faites défiler vers le bas pour trouver les codes de commande répertoriés dans le tableau de commande d'
fdisk
. -
Créez un système de fichiers sur la nouvelle partition.
fdisk –l /dev/mapper/XXX
- La nouvelle partition est répertoriée avec le disque, de la même manière que
XXXp1
, suivi de la taille, du type (83) et de l' Linux®. - Notez le nom de la partition, car vous en aurez besoin à l'étape suivante. (XXXp1 représente le nom de la partition.)
- Créez le système de fichiers :
mkfs.ext3 /dev/mapper/XXXp1
- La nouvelle partition est répertoriée avec le disque, de la même manière que
-
Créez un point de montage pour le système de fichiers et montez-le.
- Créez un nom de partition
PerfDisk
ou un emplacement où monter le système de fichiers.
mkdir /PerfDisk
- Montez le stockage avec le nom de partition.
mount /dev/mapper/XXXp1 /PerfDisk
- Vérifiez que votre nouveau système de fichiers est répertorié.
df -h
- Créez un nom de partition
-
Ajoutez le nouveau système de fichiers au fichier
/etc/fstab
du système pour activer le montage automatique à l'amorçage.- Ajoutez la ligne suivante à la fin du fichier
/etc/fstab
(en utilisant le nom de partition provenant de l'étape 3).
/dev/mapper/XXXp1 /PerfDisk ext3 defaults,_netdev 0 1
- Ajoutez la ligne suivante à la fin du fichier
Création d'un système de fichiers avec parted
parted
, est préinstallé sur de nombreuses distributions d' Linux®. Cependant, si vous en avez besoin, vous pouvez l'installer en exécutant la commande suivante.
# yum install parted
Pour créer un système de fichiers avec parted
, procédez comme suit :
-
Démarrer l'interpréteur de commandes interactif d'
parted
.parted
-
Créez une partition sur le disque.
-
Sauf indication contraire,
parted
utilise votre unité principale. L'unité principale est/dev/sda
dans la plupart des cas. Basculez vers le disque que vous souhaitez partitionner à l'aide de la commande select. Remplacez XXX par le nom de votre nouveau périphérique.select /dev/mapper/XXX
-
Exécutez
print
pour confirmer que vous êtes sur le bon disque.print
-
Créez une table de partition GPT.
mklabel gpt
-
Parted
peut être utilisé pour créer des partitions de disque logiques et primaires, car les procédures sont identiques. Pour créer une partition,parted
utilisemkpart
. Vous pouvez indiquer des paramètres supplémentaires de type primaire ou logique en fonction du type de partition que vous souhaitez créer. Les unités répertoriées sont exprimées par défaut en mégaoctets (Mo). Pour créer une partition de 10 Go, vous devez commencer à 1 et terminer à 10 000. Vous pouvez également modifier les unités de dimensionnement en téraoctets en saisissantunit TB
si vous le souhaitez.mkpart
-
Quittez
parted
à l'aide de la commandequit
.quit
-
-
Créez un système de fichiers sur la nouvelle partition.
mkfs.ext3 /dev/mapper/XXXp1
Il est important de sélectionner le bon disque et la bonne partition lorsque vous exécutez cette commande. Vérifiez le résultat en imprimant la table de partition. Dans la colonne du système de fichiers, vous pouvez voir ext3.
-
Créez un point de montage pour le système de fichiers et montez-le.
- Créez un nom de partition
PerfDisk
ou un emplacement où monter le système de fichiers.
mkdir /PerfDisk
- Montez le stockage avec le nom de partition.
mount /dev/mapper/XXXp1 /PerfDisk
- Vérifiez que votre nouveau système de fichiers est répertorié.
df -h
- Créez un nom de partition
-
Pour activer le montage automatique de l'amorçage om, ajoutez le nouveau système de fichiers au fichier
/etc/fstab
du système.- Ajoutez la ligne suivante à la fin du fichier
/etc/fstab
(en utilisant le nom de partition provenant de l'étape 3).
/dev/mapper/XXXp1 /PerfDisk ext3 defaults,_netdev 0 1
- Ajoutez la ligne suivante à la fin du fichier
Gestion des autorisations d'accès des utilisateurs au contenu du volume monté
En tant qu'administrateur système, vous pouvez gérer l'accès aux données sur le volume monté. Une fois le système de fichiers prêt, vous pouvez affiner le contrôle d'accès en utilisant les commandes chown
et chmod
pour attribuer des autorisations de lecture, d'écriture et d'exécution à des utilisateurs et des groupes individuels. Pour plus d'informations, consultez la documentation produit d' CloudLinux.
Démontage de volumes Block Storage for Classic
Lorsque vous n'avez plus besoin du volume, démontez-le avant de le supprimer.
- Démontez le système de fichiers.
umount /dev/mapper/XXXp1 /PerfDisk
- Si vous n'avez pas d'autre volumes dans ce portail cible, vous pouvez vous déconnecter de la cible.
iscsiadm -m node -t <TARGET NAME> -p <PORTAL IP:PORT> --logout
- Si vous n'avez pas d'autre volumes dans ce portail cible, supprimez l'enregistrement de portail cible pour empêcher les futures tentatives de connexion.
iscsiadm -m node -o delete -t <TARGET IQN> -p <PORTAL IP:PORT>