Befehl „storage“
Verwenden Sie diesen Befehl, um Informationen zu den Speichereinheiten des Servers anzuzeigen und zu konfigurieren (sofern von der Plattform unterstützt), die vom IMM verwaltet werden.
Syntax:
storage [-options]
Option | Beschreibung | Werte |
---|---|---|
-list | Speicherziele auflisten, die durch das IMM verwaltet werden. | controllers|pools|volumes|drives
|
-list storage targets -target target_id | Speicherziele, die vom IMM verwaltet werden, entsprechend ihrer target_id auflisten. | pools|volumes|drives und ctrl[x]|pool[x] Dabei stehen storage targets und target_id für:
|
-list devices | Den Status aller vom IMM verwalteten Datenträger anzeigen. | |
-show target_id | Informationen zum ausgewählten Ziel anzeigen, das vom IMM verwaltet wird. | Dabei steht target_id für ctrl[x]|vol[x]|disk[x]|pool[x]3 |
-show target_id info | Detaillierte Informationen zum ausgewählten Ziel anzeigen, das vom IMM verwaltet wird. | Dabei steht target_id für ctrl[x]|vol[x]|disk[x]|pool[x]3 |
-show target_id firmware3 | Firmwareinformationen zum ausgewählten Ziel anzeigen, das vom IMM verwaltet wird. | Dabei steht target_id für ctrl[x]|disk[x]2 |
-showinfo nvme | Firmware-Informationen des NVMe-Datenträgers anzeigen. | |
-wthre show | Schwellenwert für Auslösen von kritischem Ereignis und Warnung bzgl. der SSD-Lebensdauer anzeigen. | Schwellenwert (1 bis 99) |
-wthre -ct threshold value | Schwellenwert für Auslösen von kritischem Ereignis bzgl. der SSD-Lebensdauer festlegen. | Schwellenwert (1 bis 99) |
-wthre -wt threshold value | Schwellenwert für Auslösen einer Warnung bzgl. der SSD-Lebensdauer festlegen. | Schwellenwert (1 bis 99) Anmerkung Der Schwellenwert für die Warnung muss höher als der Schwellenwert für das kritische Ereignis sein. |
-config ctrl -scanforgn -target target_id3 | Fremde RAID-Konfiguration erkennen. | Dabei steht target_id für ctrl[x]5 |
-config ctrl -imptforgn -target target_id3 | Fremde RAID-Konfiguration importieren. | Dabei steht target_id für ctrl[x]5 |
-config ctrl -clrforgn -target target_id3 | Fremde RAID-Konfiguration löschen. | Dabei steht target_id für ctrl[x]5 |
-config ctrl -clrcfg -target target_id3 | RAID-Konfiguration löschen. | Dabei steht target_id für ctrl[x]5 |
-config ctrl -bootdevice -vd volume -target target_id | Booteinheit nach Datenträger festlegen. | Dabei steht target_id für ctrl[x] und volume für einen Wert in der ersten Spalte der Ausgabe „list volumes“. |
-config ctrl -bootdevice -pd drive -target target_id | Booteinheit nach Laufwerk festlegen. | Dabei steht target_id für ctrl[x] und volume für einen Wert in der ersten Spalte der Ausgabe „list drives“. |
-config ctrl -bootdevice -index index -target target_id | Booteinheit nach Index festlegen. | Dabei steht target_id für ctrl[x] und index für einen Wert in „[]“ ist, der die Ausgabe der „display“-Option ist. |
-config ctrl -bootdevice -display -target target_id | Bootfähige Einheit anzeigen. | |
-config drv -mkoffline -target target_id3 | Laufwerkstatus von online in offline ändern. | Dabei steht target_id für disk[x]5 |
-config drv -mkonline -target target_id3 | Laufwerkstatus von offline in online ändern. | Dabei steht target_id für disk[x]5 |
-config drv -mkmissing -target target_id3 | Offline-Laufwerk als unkonfiguriertes funktionierendes Laufwerk kennzeichnen. | Dabei steht target_id für disk[x]5 |
-config drv -prprm -target target_id3 | Unkonfiguriertes funktionierendes Laufwerk zum Entfernen vorbereiten. | Dabei steht target_id für disk[x]5 |
-config drv -undoprprm -target target_id3 | Vorbereitung eines unkonfigurierten funktionierenden Laufwerks zum Entfernen abbrechen. | Dabei steht target_id für disk[x]5 |
-config drv -mkbad -target target_id3 | Unkonfiguriertes funktionierendes Laufwerk in ein unkonfigurierten nicht funktionierendes Laufwerk ändern. | Dabei steht target_id für disk[x]5 |
-config drv -mkgood -target target_id3 | Unkonfiguriertes nicht funktionierendes Laufwerk in ein unkonfiguriertes funktionierendes Laufwerk ändern oder JBOD-Laufwerk in ein unkonfiguriertes funktionierendes Laufwerk umwandeln. | Dabei steht target_id für disk[x]5 |
-config drv -mkjbod -target target_id3 | „Unkonfiguriert gut“ auf JBOD setzen. | Dabei steht target_id für disk[x]5 |
-config drv -rebuild -target target_id3 | Wiederherstellung des Laufwerks starten. | Dabei steht target_id für disk[x]5 |
-config drv -addhsp -target target_id3 | Das ausgewählte Laufwerk als Ersatz (Hot Spare) einem Controller oder vorhandenen Speicherpools zuweisen. | Dabei steht target_id für disk[x]5 |
-config drv -dedicated pools -target target_id3 | Den ausgewählten Speicherpools ein Laufwerk als dediziertes Hot-Spare zuweisen. | Dabei steht target_id für disk[x]5 |
-config drv -rmhsp -target target_id3 | Hot-Spare-Einheit entfernen. | Dabei steht target_id für disk[x]5 |
-config vol -remove -targettarget_id3 | Einen Datenträger entfernen | Dabei steht target_id für vol[x]5 |
-config vol -set [-N] [-w] [-r ] [-i] [-a] [-d] [-b] -target target_id3 | Eigenschaften eines Datenträgers ändern. |
|
-config vol -add [-R] [-D disk] [-H disk] [-1 hole] [-N] [-w] [-r]3,7 | Erstellen Sie einen Datenträger für einen neuen Speicherpool, wenn das Ziel ein Controller ist. oder Erstellen Sie einen Datenträger mit einem vorhandenen Speicherpool, wenn das Ziel ein Speicherpool ist. |
|
-config vol -add[-i] [-a] [-d] [-f] [-S] [-P] -target target_id3 | Erstellen Sie einen Datenträger für einen neuen Speicherpool, wenn das Ziel ein Controller ist. oder Erstellen Sie einen Datenträger mit einem vorhandenen Speicherpool, wenn das Ziel ein Speicherpool ist. |
|
-config vol -getfreecap [-R] [-D disk] [-H disk] -target target_id3 | Freie Kapazität der Laufwerksgruppe anfordern. |
|
-fgi vol[idx] | Angegebene(n) Datenträger schnell initialisieren. | Dabei steht vol[idx] für vol[id1],vol[id2]:.. |
-help | Befehlssyntax und -optionen anzeigen. | |
Anmerkung
|
Beispiele:
system> storage -config ctrl -clrcfg -target ctrl[0]
ok
system>
system> storage -config ctrl -clrforgn -target ctrl[0]
ok
system>
system> storage -config ctrl -imptforgn -target ctrl[0]
ok
system>
system> storage -config ctrl -scanforgn -target ctrl[0]
Detect 1 foreign configuration(s) on controller ctrl[0]
system>
system> storage -config drv -addhsp -dedicated pool[0-1] -target disk[0-0]
ok
system>
system> storage -config drv -addhsp -target disk[0-0]
ok
system>
system> storage -config drv -mkbad -target disk[0-0]
ok
system>
system> storage -config drv -mkgood -target disk[0-0]
ok
system>
system> storage -config drv -mkmissing -target disk[0-0]
ok
system>
system> storage -config drv -mkoffline -target disk[0-0]
ok
system>
system> storage -config drv -mkonline -target disk[0-0]
ok
system>
system> storage -config drv -prprm -target disk[0-0]
ok
system>
system> storage -config drv -rmhsp -target disk[0-0]
ok
system>
system> storage -config drv -undoprprm -target disk[0-0]
ok
system>
system> storage -config vol -add -1 1 -target pool[0-1]
ok
system>
system> storage -config vol -add -R 1 -D disk[0-0]:disk[0-1] -w 1 -r 2 -i 0 -a 0 -d 0 -f 0 -N LD_volume -S 100000 -P 64K -H disk[0-2] -target ctrl[0]
ok
system>
system> storage -config vol -getfreecap -R 1 -D disk[0-0]:disk[0-1] -H disk[0-2] -target ctrl[0]
The drive group configuration is good with free capacity 500000MB
system>
system> storage -config vol -remove -target vol[0-1]
ok
system>
system> storage -config vol -set -N LD_volume -w 0 -target vol[0-0]
ok
system>
system> storage -list controllers
ctrl[0] ServerRAID M5110e(Slot No. 0)
ctrl[1] ServerRAID M5110f(Slot No. 1)
system>
system> storage -list drives
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage -list pools
pool[0-0] Storage Pool 0
pool[0-1] Storage Pool 1
system>
system> storage -list volumes
vol[0-0] Volume 0
vol[0-1] Volume 1
Vol[0-2] Volume 2
system>
system> storage -list drives -target ctrl[0]
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage -list drives -target pool[0-0]
disk[0-0] Drive 0
disk[0-1] Drive 1
system>
system> storage -list pools -target ctrl[0]
pool[0-0] Storage Pool 0
system>
system> storage -list volumes -target ctrl[0]
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage -list volumes -target pool[0-0]
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage -show ctrl[0] firmware
Total Firmware number: 2
Name: RAID Firmware1
Description: RAID Firmware
Manfacture: IBM
Version: 4.01(3)T
Release Date: 01/05/2013
Name: RAID Firmware2
Description: RAID Firmware
system>
system> storage -show ctrl[0] info
Product Name: ServerRAID M5110e
Firmware Package Version: 23.7.0.1.2
Battery Backup: Installed
Manufacture: IBM
UUID: 1234567890123456
Model Type / Model: 1234AHH
Serial No.: 12345678901
FRU No.: 5005076049CC4
Part No.: LSI2004
Cache Model Status: Unknown
Cache Model Memory Size: 300MB
Cache Model Serial No.: PBKUD0XTA0P04Y
PCI Slot Number: 0
PCI Bus Number: 2
PCI Device Number: 2
PCI Function Number: 10
PCI Device ID: 0x1000
PCI Subsystem Device ID: 0x1413
Ports: 2
Port 1: 12345678901234
Port 2: 12345678901235
Storage Pools: 2
pool[0-0] Storage Pool 0
pool[0-1] Storage Pool 1
Drives: 3
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage -show disk[0-0] firmware
Total Firmware number: 1
Name: Drive
Description:
Manufacture:
Version: BE24
Release Date:
system>
system> storage -show disk[0-0] info
Product Name: ST98394893
State: Online
Slot No.: 0
Disk Type: SATA
Media Type: HHD
Health Status: Normal
Capacity: 100.000GB
Speed: 6.0Gb/s
Current Temperature: 33C
Manufacture: ATA
Device ID: 5
Enclusure ID: 0x00FC
Machine Type:
Model:
Serial No.: 9XKJKL
FRU No.:
Part No.:
system>
system> storage -show pool[0-0]
RAID State: RAID 0
RAID Capacity: 67.000GB (0.000GB free)
Drives: 2
disk[0-0] Drive 0
disk[0-1] Drive 1
Volumes: 2
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage -show pool[0-1] info
RAID State: RAID 1
RAID Capacity: 231.898GB (200.000GB free)
Holes: 2
#1 Free Capacity: 100.000GB
#2 Free Capacity: 100.000GB
Drives: 2
disk[0-1] Drive 1
disk[0-2] Drive 2
Volume: 1
vol[0-1] LD_volume
system>
system> storage -show vol[0-0]
Name: Volume 0
Stripe Size: 64KB
Status: Offline
Capacity: 100.000GB
system>
system> storage -show vol[0-0] info
Name: LD_volume
Status: Optimal
Stripe Size: 64KB
Bootable: Not Bootable
Capacity: 231.898GB
Read Policy: No Read Ahead
Write Policy: Write Through
I/O Policy: Direct I/O
Access Policy: Read Write
Disk Cache Policy: Unchanged
Background Initialization: Enable
system>
Feedback geben