IBM Cloud Docs
Montare un volume iSCSI su Red Hat Enterprise Linux 8

Montare un volume iSCSI su Red Hat Enterprise Linux 8

Questa esercitazione ti guida attraverso come montare un volume IBM Cloud® Block Storage for Classic su un server con il sistema operativo Red Hat Enterprise Linux® 8. Creerai due connessioni da un'interfaccia di rete del tuo host a due indirizzi IP di destinazione dell'array di archiviazione.

Linux® Se si utilizza un altro sistema operativo Linux, consultare la documentazione della distribuzione specifica e assicurarsi che il multipath supporti ALUA per la priorità del percorso.

Prima di iniziare

Se più host montano lo stesso volume Block Storage for Classic senza essere gestiti in modo cooperativo, i tuoi dati sono a rischio di danneggiamento. Il danneggiamento del volume può verificarsi se vengono apportate modifiche al volume da più host contemporaneamente. È necessario un file system del disco condiviso, che riconosce il cluster, per evitare la perdita di dati come Microsoft Cluster Shared Volumes (CSV), Red Hat Global File System (GFS2), VMware® VMFS e altri. Per ulteriori informazioni, consultare la documentazione del sistema operativo del sistema host.

Consigliamo di eseguire il traffico di archiviazione su una VLAN che ignora il firewall. L'esecuzione del traffico di archiviazione tramite i firewall software aumenta la latenza e ha un impatto negativo sulle prestazioni dell'archiviazione. Per ulteriori informazioni sull'instradamento del traffico di archiviazione all'interfaccia VLAN, vedi le FAQ.

Prima di iniziare, assicurati che il volume Block Storage for Classic sia autorizzato. Per ulteriori informazioni, vedere Autorizzazione dell'host nella console Autorizzazione dell'host dalla CLI Autorizzazione dell'host con Terraform.

Installa i programmi di utilità iSCSI e a più percorsi

Assicurarsi che il sistema sia aggiornato e che includa i pacchetti iscsi-initiator-utils e device-mapper-multipath. Utilizzare il seguente comando per installare i pacchetti.

sudo dnf -y install iscsi-initiator-utils device-mapper-multipath

Impostare il percorso multiplo

Impostare DM Multipath con il programma di utilità mpathconf, che crea il file di configurazione a più percorsi /etc/multipath.conf.

  • Se il file /etc/multipath.conf esiste, il programma di utilità mpathconf può modificarlo.
  • Se il file /etc/multipath.conf non esiste, il programma di utilità mpathconf crea il file /etc/multipath.conf da zero.

Per ulteriori informazioni sul programma di utilità mpathconf, consultare mpathconf(8)man page.

  1. Immettere il comando mpathconf con l'opzione --enable.

    # mpathconf --enable --user_friendly_names n
    
  2. Modificare il file /etc/multipath.conf con la seguente configurazione minima.

    defaults {
    user_friendly_names no
    max_fds max
    flush_on_last_del yes
    queue_without_daemon no
    dev_loss_tmo infinity
    fast_io_fail_tmo 5
    }
    # All data in the following section must be specific to your system.
    blacklist {
    wwid "SAdaptec*"
    devnode "^hd[a-z]"
    devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
    devnode "^cciss.*"
    }
    devices {
    device {
    vendor "NETAPP"
    product "LUN"
    path_grouping_policy group_by_prio
    features "2 pg_init_retries 50"
    no_path_retry queue
    prio "alua"
    path_checker tur
    failback immediate
    path_selector "round-robin 0"
    hardware_handler "1 alua"
    rr_weight uniform
    rr_min_io 128
    }
    }
    

    La sezione dei valori predefiniti iniziali del file di configurazione configura il sistema in modo che i nomi delle periferiche a più percorsi siano nel formato /dev/mapper/mpath n, dove mpath n è il WWID della periferica.

  3. Salvare il file di configurazione e uscire dall'editor, se necessario.

  4. Immetti il seguente comando.

    systemctl start multipathd.service
    

    Se è necessario modificare il file di configurazione a più percorsi dopo aver avviato il daemon a più percorsi, è necessario immettere il comando systemctl reload multipathd.service per rendere effettive le modifiche.

    Per ulteriori informazioni sull'utilizzo della funzione Device Mapper Multipath su RHEL 8, vedi Configurazione del percorso multiplo del mapper del dispositivo.

Aggiornare il file /etc/iscsi/initiatorname.iscsi

Aggiornare il file /etc/iscsi/initiatorname.iscsi con l'IQN dalla console IBM Cloud®. Immetti il valore con lettere minuscole.

InitiatorName=<value-from-the-Portal>

Configura credenziali

Modificare le seguenti impostazioni in /etc/iscsi/iscsid.conf utilizzando il nome utente e la password della console IBM Cloud®. Usa le maiuscole per i nomi CHAP.

node.session.auth.authmethod = CHAP
node.session.auth.username = <Username-value-from-Portal>
node.session.auth.password = <Password-value-from-Portal>
discovery.sendtargets.auth.authmethod = CHAP
discovery.sendtargets.auth.username = <Username-value-from-Portal>
discovery.sendtargets.auth.password = <Password-value-from-Portal>

Lasciare le altre impostazioni CHAP commentate. L'archiviazione IBM Cloud® utilizza solo l'autenticazione unidirezionale. Non abilitare Mutual CHAP.

Rileva il dispositivo di archiviazione e accedi

Il programma di utilità iscsiadm è uno strumento della riga comandi utilizzato per il rilevamento e l'accesso alle destinazioni iSCSI, oltre all'accesso e alla gestione del database open - iscsi. Per ulteriori informazioni, consultare la pagina man iscsiadm(8). In questa fase, scoprire il dispositivo utilizzando l'indirizzo IP di destinazione ottenuto dalla console IBM Cloud®.

  1. Esegui la scoperta rispetto alla matrice dell' iSCSI.

    iscsiadm -m discovery -t sendtargets -p <ip-value-from-IBM-Cloud-console>
    

    Se vengono visualizzate le informazioni sull'indirizzo IP e i dettagli di accesso, il rilevamento ha esito positivo.

  2. Accedi all'array iSCSI.

    iscsiadm -m node --login
    

Verifica della configurazione

  1. Convalidare che sia stata stabilita la sessione iSCSI.

    iscsiadm -m session -o show
    
  2. Convalidare che esistono più percorsi.

    multipath -l
    

    Questo comando riporta i percorsi. Se è configurato correttamente, ogni volume ha un unico gruppo, con un numero di percorsi pari al numero di sessioni di iSCSI. È possibile collegare un volume con un singolo percorso, ma è importante che le connessioni siano stabilite su entrambi i percorsi per evitare l'interruzione del servizio.

    Se MPIO non è configurato correttamente, il tuo dispositivo di archiviazione potrebbe disconnettersi e presentarsi come offline quando si verifica un'interruzione di rete oppure quando i team di IBM Cloud® eseguono la manutenzione. MPIO fornisce un ulteriore livello di connettività durante questi eventi e mantiene una sessione stabilita al volume con operazioni di lettura/scrittura attive.

  3. Elenca le tabelle di partizione per il dispositivo connesso.

    fdisk -l | grep /dev/mapper
    

    Per impostazione predefinita, il dispositivo di archiviazione si collega a /dev/mapper/<wwid>. Il WWID è persistente mentre il volume esiste. Il comando riporta qualcosa di simile al seguente esempio.

    Disk /dev/mapper/3600a0980383030523424457a4a695266: 73.0 GB, 73023881216 bytes
    

    Nell'esempio, la stringa 3600a0980383030523424457a4a695266 è il WWID. L'applicazione deve utilizzare il WWID. È anche possibile assegnare nomi più facili da leggere utilizzando le parole chiave "user_friendly_names" o "alias" in multipath.conf. Per ulteriori informazioni, consultare la pagina man di multipath.conf.

    Il volume è ora montato e accessibile sull'host. Puoi creare un file system successivamente.

Creazione di un file system (facoltativo)

Segui questa procedura per creare un file system sul volume appena montato. Un file system è necessario perché la maggior parte delle applicazioni utilizzi il volume. Utilizza fdisk per le unità inferiori a 2 TB e parted per un disco di dimensioni superiori a 2 TB.

Creazione di un file system con fdisk

  1. Ottieni il nome del disco.

    fdisk -l | grep /dev/mapper
    

    Il nome del disco restituito è simile a /dev/mapper/XXX.

  2. Crea una partizione sul disco.

    fdisk /dev/mapper/XXX
    

    XXX rappresenta il nome del disco restituito nel passo 1.

  3. Crea un file system sulla nuova partizione.

    fdisk –l /dev/mapper/XXX
    
    • La nuova partizione è elencata con il disco, simile a XXXp1, seguito dalla dimensione, dal tipo (83) e dall' Linux®.

    • Prendi nota del nome della partizione; ti serve nel passo successivo. (XXXp1 rappresenta il nome della partizione).

    • Crea il file system:

      mkfs.ext3 /dev/mapper/XXXp1
      
  4. Crea un punto di montaggio per il file system e montalo.

    • Crea un nome partizione PerfDisk oppure dove vuoi montare il file system.

      mkdir /PerfDisk
      
    • Monta la memoria con il nome della partizione.

      mount /dev/mapper/XXXp1 /PerfDisk
      
    • Verifica che vedi elencato il tuo nuovo file system.

      df -h
      
  5. Per abilitare l'avvio automatico dell'om di montaggio, aggiungere il nuovo file system al file /etc/fstab del sistema.

    • Accoda la seguente riga alla fine di /etc/fstab (con il nome partizione dal passo 3).
    /dev/mapper/XXXp1    /PerfDisk    ext3    defaults,_netdev    0    1
    

    Per ulteriori informazioni, consultare il file /etc/fstab An introduction to the Linux.

Creazione di un file system con parted

Linux® Su molte distribuzioni Linux, l' parted, è preinstallato. Tuttavia, se necessario, è possibile installarlo immettendo il seguente comando.

# dnf install parted

Per creare un file system con parted, attieniti alla seguente procedura.

  1. Avviare la shell parted interattiva.

    parted
    
  2. Crea una partizione sul disco.

    1. Se non specificato diversamente, l'utilità " parted " utilizza l'unità primaria, che nella maggior parte dei casi è " /dev/sda ". Passa al disco che vuoi partizionare utilizzando il comando select. Sostituisci XXX con il tuo nuovo nome dispositivo.

      select /dev/mapper/XXX
      
    2. Esegui print per confermare che sei sul disco corretto.

      print
      
    3. Crea una tabella partizioni GPT.

      mklabel gpt
      
    4. Puoi usare Parted per creare partizioni disco primarie e logiche; la procedura prevista è la stessa. Per creare una partizione, l'utility utilizza un mkpart. Puoi dargli dei parametri aggiuntivi come primary oppure logical, a seconda del tipo di partizione che vuoi creare.

      mkpart
      

      Le unità elencate hanno come valore predefinito i megabyte (MB). Per creare una partizione da 10-GB, inizia da 1 e finisci a 10000. Puoi anche modificare le unità di dimensione in terabyte immettendo unit TB, se vuoi.

    5. Esci da parted con quit.

      quit
      
  3. Crea un file system sulla nuova partizione.

    mkfs.ext3 /dev/mapper/XXXp1
    

    È importante selezionare il disco e la partizione corretti quando si esegue questo comando. Verifica il risultato stampando la tabella partizioni. Sotto la colonna del file system, puoi vedere " ext3 ".

  4. Crea un punto di montaggio per il file system e montalo.

    • Crea un nome partizione PerfDisk oppure dove vuoi montare il file system.
    mkdir /PerfDisk
    
    • Monta la memoria con il nome della partizione.
    mount /dev/mapper/XXXp1 /PerfDisk
    
    • Verifica che vedi elencato il tuo nuovo file system.
    df -h
    
  5. Per abilitare l'avvio automatico dell'om di montaggio, aggiungere il nuovo file system al file /etc/fstab del sistema.

    • Accoda la seguente riga alla fine di /etc/fstab (utilizzando il nome partizione dal passo 3).
    /dev/mapper/XXXp1    /PerfDisk    ext3    defaults,_netdev    0    1
    

    Per ulteriori informazioni, consultare il file /etc/fstab An introduction to the Linux.

Gestione delle autorizzazioni utente per il contenuto del volume montato

In qualità di amministratore di sistema, puoi gestire l'accesso ai dati sul volume montato. Dopo che il file system è pronto, è possibile perfezionare il controllo degli accessi utilizzando i comandi chown e chmod per assegnare permessi di lettura, scrittura ed esecuzione a singoli utenti e gruppi. Per ulteriori informazioni, vedere il tutorial di Red Hat: Come gestire le autorizzazioni di Linux per utenti, gruppi e altri.

Verifica della configurazione MPIO

Se MPIO non è configurato correttamente, il tuo dispositivo di archiviazione potrebbe disconnettersi e presentarsi come offline quando si verifica un'interruzione di rete oppure quando i team di IBM Cloud® eseguono la manutenzione. MPIO fornisce un ulteriore livello di connettività durante questi eventi e mantiene una sessione stabilita al volume con operazioni di lettura/scrittura attive.

  • Per controllare se multipath sta rilevando i dispositivi, elenca la configurazione corrente. Se è configurato correttamente, esiste un singolo gruppo per ogni volume, con un numero di percorsi pari al numero di sessioni iSCSI.

    multipath -l
    
    root@server:~# multipath -l
    3600a09803830304f3124457a45757067 dm-1 NETAPP,LUN C-Mode
    size=20G features='1 queue_if_no_path' hwhandler='0' wp=rw
    |-+- policy='round-robin 0' prio=-1 status=active
    | `6:0:0:101 sdd 8:48 active ready running
    `-+- policy='round-robin 0' prio=-1 status=enabled
     `- 7:0:0:101 sde 8:64 active ready running
    

    L' 3600a09803830304f3124457a45757067 e della stringa nell'esempio è l'unico WWID del volume. Ogni volume è identificato dal suo WWID univoco, che rimane invariato finché il volume esiste.

  • Conferma che siano presenti tutti i dischi. In una corretta configurazione, puoi aspettarti di vedere nell'output due dischi con lo stesso identificativo e un elenco /dev/mapper della stessa dimensione con lo stesso identificativo. Il dispositivo /dev/mapper è il solo che viene configurato da multipath.

    fdisk -l | grep Disk
    
    • Output di esempio di una configurazione corretta.
    root@server:~# fdisk -l | grep Disk
    Disk /dev/sda: 500.1 GB, 500107862016 bytes Disk identifier: 0x0009170d
    Disk /dev/sdc: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    Disk /dev/sdb: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    Disk /dev/mapper/3600a09803830304f3124457a45757066: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    

    Il WWID è incluso nel nome del dispositivo creato dal multipath. Si raccomanda l'utilizzo del WWID da parte dell'applicazione.

    • Output di esempio di una configurazione non corretta. Non esiste alcun disco /dev/mapper.
    root@server:~# fdisk -l | grep Disk
    Disk /dev/sda: 500.1 GB, 500107862016 bytes Disk identifier: 0x0009170d
    Disk /dev/sdc: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    Disk /dev/sdb: 21.5 GB, 21474836480 bytes Disk identifier: 0x2b5072d1
    
  • Per confermare che nessun disco locale è incluso nell'elenco dei dispositivi multipath, visualizzare la configurazione corrente con il livello di verbosità 3. L'output del comando seguente visualizza i dispositivi e mostra anche quali sono stati aggiunti alla blocklist.

    multipath -l -v 3 | grep sd <date and time>
    
  • Se un volume viene fornito e collegato mentre il secondo percorso è inattivo, l'host potrebbe vedere un singolo percorso quando la scansione di rilevamento viene eseguita per la prima volta. Se si verifica questo raro fenomeno, controllare IBM Cloud® pagina di stato per verificare se è in corso un evento che influisce sulla capacità dell'host di accedere allo storage. Se non vengono segnalati eventi, eseguire nuovamente la scansione di rilevamento per assicurarsi che tutti i percorsi siano stati rilevati correttamente. Se è in corso un evento, l'archivio può essere collegato con un unico percorso. Tuttavia, è fondamentale ripetere la scansione dei percorsi dopo il completamento dell'evento. Se dopo la nuova scansione non vengono rilevati entrambi i percorsi, creare un caso di supporto in modo che possa essere adeguatamente esaminato.

Smontaggio dei volumi Block Storage for Classic

  1. Smonta il file system.
    umount /dev/mapper/XXXp1 /PerfDisk
    
  2. Se non disponi di altri volumi in quel portale di destinazione, puoi scollegarti dalla destinazione.
    iscsiadm -m node -T <TARGET NAME> -p <PORTAL IP:PORT> --logout
    
  3. Se non disponi di altri volumi in quel portale di destinazione, elimina il record del portale di destinazione per impedire tentativi di login futuri.
    iscsiadm -m node -o delete -T <TARGET IQN> -p <PORTAL IP:PORT>
    
    Per ulteriori informazioni, consultare il manuale dell' iscsiadm.