storage 명령
이 명령을 사용하여 IMM에서 관리하는 서버의 스토리지 장치에 대한 정보를 표시하고 구성합니다(플랫폼에서 지원하는 경우).
구문:
storage [-options]
옵션 | 설명 | 값 |
---|---|---|
-list | IMM에서 관리하는 스토리지 대상을 나열합니다. | controllers|pools|volumes|drives
|
-list storage targets -target target_id | target_id에 따라 IMM에서 관리하는 스토리지 대상을 나열합니다. | pools|volumes|drives 및 ctrl[x]|pool[x] 여기서 storage targets 및 target_id는 다음과 같습니다.
|
-list devices | IMM에서 관리하는 모든 디스크의 상태를 표시합니다. | |
-show target_id | IMM에서 관리하는 선택된 대상에 대한 정보를 표시합니다. | 여기서 target_id는 ctrl[x]|vol[x]|disk[x]|pool[x]3 |
-show target_id info | IMM에서 관리하는 선택된 대상에 대한 자세한 정보를 표시합니다. | 여기서 target_id는 ctrl[x]|vol[x]|disk[x]|pool[x]3 |
-show target_id firmware3 | IMM에서 관리하는 선택된 대상에 대한 펌웨어 정보를 표시합니다. | 여기서 target_id는 ctrl[x]|disk[x]2 |
-showinfo nvme | Nvme 디스크의 펌웨어 정보를 표시합니다. | |
-wthre show | 위험 및 경고 SSD 마모 임계값을 표시합니다. | 임계값(1~99) |
-wthre -ct threshold value | SSD 마모 위험 임계값을 설정합니다. | 임계값(1~99) |
-wthre -wt threshold value | SSD 마모 경고 임계값을 설정합니다. | 임계값(1~99) 주 경고 값은 위험 값보다 커야 합니다. |
-config ctrl -scanforgn -target target_id3 | 외부 RAID 구성을 감지합니다. | 여기서 target_id는 ctrl[x]5 |
-config ctrl -imptforgn -target target_id3 | 외부 RAID 구성을 가져옵니다. | 여기서 target_id는 ctrl[x]5 |
-config ctrl -clrforgn -target target_id3 | 외부 RAID 구성을 지웁니다. | 여기서 target_id는 ctrl[x]5 |
-config ctrl -clrcfg -target target_id3 | RAID 구성을 지웁니다. | 여기서 target_id는 ctrl[x]5 |
-config ctrl -bootdevice -vd volume -target target_id | 볼륨별로 부팅 장치를 설정합니다. | 여기서 target_id는 ctrl[x]이고 volume은 'list volumes' 출력의 첫 번째 열에 있는 값입니다. |
-config ctrl -bootdevice -pd drive -target target_id | 드라이브별로 부팅 장치를 설정합니다. | 여기서 target_id는 ctrl[x]이고 drive는 'list drives' 출력의 첫 번째 열에 있는 값입니다. |
-config ctrl -bootdevice -index index -target target_id | 색인별로 부팅 장치를 설정합니다. | 여기서 target_id는 ctrl[x]이고 index는 'display' 옵션의 출력인 "[]"의 값입니다. |
-config ctrl -bootdevice -display -target target_id | 부팅 가능한 장치를 표시합니다. | |
-config drv -mkoffline -target target_id3 | 드라이브 상태를 온라인에서 오프라인으로 변경합니다. | 여기서 target_id는 disk[x]5 |
-config drv -mkonline -target target_id3 | 드라이브 상태를 오프라인에서 온라인으로 변경합니다. | 여기서 target_id는 disk[x]5 |
-config drv -mkmissing -target target_id3 | 오프라인 드라이브를 구성되지 않은 정상 드라이브로 표시합니다. | 여기서 target_id는 disk[x]5 |
-config drv -prprm -target target_id3 | 구성되지 않은 정상 드라이브를 제거할 준비를 합니다. | 여기서 target_id는 disk[x]5 |
-config drv -undoprprm -target target_id3 | 구성되지 않은 정상 드라이브 제거 준비 동작을 취소합니다. | 여기서 target_id는 disk[x]5 |
-config drv -mkbad -target target_id3 | 구성되지 않은 정상 드라이브를 구성되지 않은 잘못된 드라이브로 변경합니다. | 여기서 target_id는 disk[x]5 |
-config drv -mkgood -target target_id3 | 구성되지 않은 잘못된 드라이브를 구성되지 않은 정상 드라이브로 변경합니다. 또는 디스크 묶음을 구성되지 않은 정상 드라이브로 변환합니다. | 여기서 target_id는 disk[x]5 |
-config drv -mkjbod -target target_id3 | 구성되지 않은 양호 상태를 JBOD로 만듭니다. | 여기서 target_id는 disk[x]5 |
-config drv -rebuild -target target_id3 | 드라이브 재구축을 시작합니다. | 여기서 target_id는 disk[x]5 |
-config drv -addhsp -target target_id3 | 선택된 드라이브를 핫 스패어로 1개의 컨트롤러 또는 기존 스토리지 풀에 할당합니다. | 여기서 target_id는 disk[x]5 |
-config drv -dedicated pools -target target_id3 | 드라이브를 선택한 스토리지 풀에 전용 핫 스패어로 할당합니다. | 여기서 target_id는 disk[x]5 |
-config drv -rmhsp -target target_id3 | 핫 스패어를 제거합니다. | 여기서 target_id는 disk[x]5 |
-config vol -remove -targettarget_id3 | 1개의 볼륨을 제거합니다. | 여기서 target_id는 vol[x]5 |
-config vol -set [-N] [-w] [-r ] [-i] [-a] [-d] [-b] -target target_id3 | 볼륨 1개의 속성을 수정합니다. |
|
-config vol -add [-R] [-D disk] [-H disk] [-1 hole] [-N] [-w] [-r]3,7 | 대상이 컨트롤러이면 새 스토리지 풀에 대해 1개의 볼륨을 작성하십시오. 또는 대상이 스토리지 풀이면 기존 스토리지 풀으로 1개의 볼륨을 작성하십시오. |
|
-config vol -add[-i] [-a] [-d] [-f] [-S] [-P] -target target_id3 | 대상이 컨트롤러이면 새 스토리지 풀에 대해 1개의 볼륨을 작성하십시오. 또는 대상이 스토리지 풀이면 기존 스토리지 풀으로 1개의 볼륨을 작성하십시오. |
|
-config vol -getfreecap [-R] [-D disk] [-H disk] -target target_id3 | 드라이브 그룹의 여유 용량을 가져옵니다. |
|
-fgi vol[idx] | 지정된 볼륨 빠른 초기화 | 여기서 vol[idx]는 vol[id1],vol[id2]:.. |
-help | 명령 사용 및 옵션 표시 | |
주
|
예:
system> storage -config ctrl -clrcfg -target ctrl[0]
ok
system>
system> storage -config ctrl -clrforgn -target ctrl[0]
ok
system>
system> storage -config ctrl -imptforgn -target ctrl[0]
ok
system>
system> storage -config ctrl -scanforgn -target ctrl[0]
Detect 1 foreign configuration(s) on controller ctrl[0]
system>
system> storage -config drv -addhsp -dedicated pool[0-1] -target disk[0-0]
ok
system>
system> storage -config drv -addhsp -target disk[0-0]
ok
system>
system> storage -config drv -mkbad -target disk[0-0]
ok
system>
system> storage -config drv -mkgood -target disk[0-0]
ok
system>
system> storage -config drv -mkmissing -target disk[0-0]
ok
system>
system> storage -config drv -mkoffline -target disk[0-0]
ok
system>
system> storage -config drv -mkonline -target disk[0-0]
ok
system>
system> storage -config drv -prprm -target disk[0-0]
ok
system>
system> storage -config drv -rmhsp -target disk[0-0]
ok
system>
system> storage -config drv -undoprprm -target disk[0-0]
ok
system>
system> storage -config vol -add -1 1 -target pool[0-1]
ok
system>
system> storage -config vol -add -R 1 -D disk[0-0]:disk[0-1] -w 1 -r 2 -i 0 -a 0 -d 0 -f 0 -N LD_volume -S 100000 -P 64K -H disk[0-2] -target ctrl[0]
ok
system>
system> storage -config vol -getfreecap -R 1 -D disk[0-0]:disk[0-1] -H disk[0-2] -target ctrl[0]
The drive group configuration is good with free capacity 500000MB
system>
system> storage -config vol -remove -target vol[0-1]
ok
system>
system> storage -config vol -set -N LD_volume -w 0 -target vol[0-0]
ok
system>
system> storage -list controllers
ctrl[0] ServerRAID M5110e(Slot No. 0)
ctrl[1] ServerRAID M5110f(Slot No. 1)
system>
system> storage -list drives
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage -list pools
pool[0-0] Storage Pool 0
pool[0-1] Storage Pool 1
system>
system> storage -list volumes
vol[0-0] Volume 0
vol[0-1] Volume 1
Vol[0-2] Volume 2
system>
system> storage -list drives -target ctrl[0]
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage -list drives -target pool[0-0]
disk[0-0] Drive 0
disk[0-1] Drive 1
system>
system> storage -list pools -target ctrl[0]
pool[0-0] Storage Pool 0
system>
system> storage -list volumes -target ctrl[0]
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage -list volumes -target pool[0-0]
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage -show ctrl[0] firmware
Total Firmware number: 2
Name: RAID Firmware1
Description: RAID Firmware
Manfacture: IBM
Version: 4.01(3)T
Release Date: 01/05/2013
Name: RAID Firmware2
Description: RAID Firmware
system>
system> storage -show ctrl[0] info
Product Name: ServerRAID M5110e
Firmware Package Version: 23.7.0.1.2
Battery Backup: Installed
Manufacture: IBM
UUID: 1234567890123456
Model Type / Model: 1234AHH
Serial No.: 12345678901
FRU No.: 5005076049CC4
Part No.: LSI2004
Cache Model Status: Unknown
Cache Model Memory Size: 300MB
Cache Model Serial No.: PBKUD0XTA0P04Y
PCI Slot Number: 0
PCI Bus Number: 2
PCI Device Number: 2
PCI Function Number: 10
PCI Device ID: 0x1000
PCI Subsystem Device ID: 0x1413
Ports: 2
Port 1: 12345678901234
Port 2: 12345678901235
Storage Pools: 2
pool[0-0] Storage Pool 0
pool[0-1] Storage Pool 1
Drives: 3
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage -show disk[0-0] firmware
Total Firmware number: 1
Name: Drive
Description:
Manufacture:
Version: BE24
Release Date:
system>
system> storage -show disk[0-0] info
Product Name: ST98394893
State: Online
Slot No.: 0
Disk Type: SATA
Media Type: HHD
Health Status: Normal
Capacity: 100.000GB
Speed: 6.0Gb/s
Current Temperature: 33C
Manufacture: ATA
Device ID: 5
Enclusure ID: 0x00FC
Machine Type:
Model:
Serial No.: 9XKJKL
FRU No.:
Part No.:
system>
system> storage -show pool[0-0]
RAID State: RAID 0
RAID Capacity: 67.000GB (0.000GB free)
Drives: 2
disk[0-0] Drive 0
disk[0-1] Drive 1
Volumes: 2
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage -show pool[0-1] info
RAID State: RAID 1
RAID Capacity: 231.898GB (200.000GB free)
Holes: 2
#1 Free Capacity: 100.000GB
#2 Free Capacity: 100.000GB
Drives: 2
disk[0-1] Drive 1
disk[0-2] Drive 2
Volume: 1
vol[0-1] LD_volume
system>
system> storage -show vol[0-0]
Name: Volume 0
Stripe Size: 64KB
Status: Offline
Capacity: 100.000GB
system>
system> storage -show vol[0-0] info
Name: LD_volume
Status: Optimal
Stripe Size: 64KB
Bootable: Not Bootable
Capacity: 231.898GB
Read Policy: No Read Ahead
Write Policy: Write Through
I/O Policy: Direct I/O
Access Policy: Read Write
Disk Cache Policy: Unchanged
Background Initialization: Enable
system>
피드백 보내기