跳至主要内容

storage 指令

使用此指令可顯示和配置(如果平台支援)由 IMM 管理之伺服器儲存裝置的相關資訊。

下表顯示各選項的引數。
表 1. storage 指令.

下表是由多個橫列與三個直欄組成的表格,其中包括各選項、選項描述和選項的相關值。

選項說明
-list列出由 IMM 管理的儲存體目標。controllers|pools|volumes|drives

其中 target 為︰

  • controllers︰列出所支援的 RAID 控制器1
  • pools︰列出與 RAID 控制器相關聯的儲存區1
  • volumes︰列出與 RAID 控制器相關聯的儲存磁區1
  • drives︰列出與 RAID 控制器相關聯的儲存硬碟1
-list -target target_id根據 target_id,列出由 IMM 管理的儲存體目標pools|volumes|drives ctrl[x]|pool[x]

其中 targettarget_id 是:

  • pools ctrl[x]︰根據 target_id,列出與 RAID 控制器相關聯的儲存區1
  • volumes ctrl[x]|pool[x]︰根據 target_id,列出與 RAID 控制器相關聯的儲存磁區1
  • drives ctrl[x]|pool[x]︰根據 target_id,列出與 RAID 控制器相關聯的儲存硬碟1
-list flashdimms列出由 IMM 管理的快閃記憶體 DIMM。 
-list devices顯示由 IMM 管理的所有磁碟和快閃記憶體 DIMM 的狀態。 
-show target_id顯示由 IMM 管理之選定目標的資訊。其中 target_id 為︰

ctrl[x]|vol[x]|disk[x]|pool[x]

|flashdimm[x]

3
-show target_id info顯示由 IMM 管理之選定目標的詳細資訊。其中 target_id 為︰

ctrl[x]|vol[x]|disk[x]|pool[x]

|flashdimm[x]

3
-show target_id firmware3顯示由 IMM 管理之選定目標的韌體資訊。其中 target_id 為︰

ctrl[x]|disk[x]|flashdimm[x]2

-showlog target_id<m:n|all>3顯示由 IMM 管理之選定目標的事件日誌。其中 target_id 為:ctrl[x]4

m:n|all

其中 m:n 是一到事件日誌數目上限

其中 all 是所有事件日誌

-config ctrl -scanforgn -target target_id3偵測外部 RAID 配置。其中 target_id 為:ctrl[x]5
-config ctrl -imptforgn -target target_id3匯入外部 RAID 配置。其中 target_id 為:ctrl[x]5
-config ctrl -clrforgn -target target_id3清除外部 RAID 配置。其中 target_id 為:ctrl[x]5
-config ctrl -clrcfg -target target_id3清除 RAID 配置。其中 target_id 為:ctrl[x]5
-config drv -mkoffline -target target_id3將硬碟狀態從線上變更為離線。其中 target_id 為:disk[x]5
-config drv -mkonline -target target_id3將硬碟狀態從離線變更為線上。其中 target_id 為:disk[x]5
-config drv -mkmissing -target target_id3將離線硬碟標示為未配置的良好硬碟。其中 target_id 為:disk[x]5
-config drv -prprm -target target_id3準備未配置的良好硬碟以進行移除。其中 target_id 為:disk[x]5
-config drv -undoprprm -target target_id3取消準備未配置的良好硬碟以進行移除的作業。其中 target_id 為:disk[x]5
-config drv -mkbad -target target_id3將未配置的良好硬碟變更為未配置的不良硬碟。其中 target_id 為:disk[x]5
-config drv -mkgood -target target_id3將未配置的不良硬碟變更為未配置的良好硬碟。

將集束磁碟 (JBOD) 硬碟轉換成未配置的良好硬碟。

其中 target_id 為:disk[x]5
-config drv -addhsp -[dedicated pools] -target target_id3將選定硬碟指派給一個控制器或現有儲存區,做為緊急備用。其中 target_id 為:disk[x]5
-config drv -rmhsp -target target_id3移除緊急備用。其中 target_id 為:disk[x]5
-config vol -remove -target target_id3移除一個磁區。其中 target_id 為:vol[x]5
-config vol -set [-N] [-w] [-r ] [-i] [-a] [-d] [-b] -target target_id3修改一個磁區的內容。
  • [-N volume_name] 是磁區的名稱
  • [-w <0|1|2>] 是快取寫入原則︰
    • 類型 0 為「直接寫入」原則
    • 類型 1 為「寫回」原則
    • 類型 2 為「以備用電池組件 (BBU) 寫入」原則
  • [-r <0|1|2>] 為快取讀取原則︰
    • 類型 0 為「無預先讀取」原則
    • 類型 1 為「預先讀取」原則
    • 類型 2 為「調適性預先讀取」原則
  • [-i <0|1>] 為快取 I/O 原則︰
    • 類型 0 為「直接 I/O」原則
    • 類型 1 為「快取 I/O」原則
  • [-a <0|2|3>] 為存取原則︰
    • 類型 0 為「讀寫」原則
    • 類型 2 為「唯讀」原則
    • 類型 3 為「已封鎖」原則
  • [-d <0|1|2>] 為磁碟快取原則︰
    • 如果原則未變更,則為類型 0
    • 類型 1 可啟用原則6
    • 類型 2 可停用原則
  • [-b <0|1>] 為背景起始設定:
    • 類型 0 可啟用起始設定
    • 類型 1 可停用起始設定
  • -target_idvol[x]5

-config vol -add<[-R] [-D disk] [-H disk] [-1 hole]> [-N] [-w] [-r]3,7

當目標為控制器時,為新的儲存區建立一個磁區。

當目標為儲存區時,以現有的儲存區來建立一個磁區。

  • [-R <0|1|5|1E|6|10|50|60|00|1ERLQ0|1E0RLQ0>] 此選項可定義 RAID 層次,並且僅用於新的儲存區
  • [-D disk [id11]:disk[id12]:..disk[id21]:disk[id22]:..]此選項可定義硬碟群組(包括跨距),並且僅用於新的儲存區
  • [-H disk [id1]:disk[id2]:..]此選項可定義緊急備用群組,並且僅用於新的儲存區
  • [-1 hole] 此選項可為現有的儲存區定義可用孔空間的索引編號
  • [-N volume_name] 是磁區的名稱
  • [-w <0|1|2>] 是快取寫入原則︰
    • 類型 0 為「直接寫入」原則
    • 類型 1 為「寫回」原則
    • 類型 2 為「以備用電池組件 (BBU) 寫入」原則
  • [-r <0|1|2>] 為快取讀取原則:
    • 類型 0 為「無預先讀取」原則
    • 類型 1 為「預先讀取」原則
    • 類型 2 為「調適性預先讀取」原則
-config vol -add[-i] [-a] [-d] [-f] [-S] [-P] -target target_id3當目標為控制器時,為新的儲存區建立一個磁區。

當目標為儲存區時,以現有的儲存區來建立一個磁區。

  • [-i <0|1>] 為快取 I/O 原則︰
    • 類型 0 為「直接 I/O」原則
    • 類型 1 為「快取 I/O」原則
  • [-a <0|2|3>] 為存取原則︰
    • 類型 0 為「讀寫」原則
    • 類型 2 為「唯讀」原則
    • 類型 3 為「已封鎖」原則
  • [-d <0|1|2>] 為磁碟快取原則︰
    • 如果原則仍未變更,則為類型 0
    • 類型 1 可啟用原則6
    • 類型 2 可停用原則
  • [-f <0/1/2>] 為起始設定的類型:
    • 類型 0 為無起始設定
    • 類型 1 為快速起始設定
    • 類型 2 為完整起始設定
  • [-S volume_size] 是新磁區的大小(以 MB 為單位)
  • [-P strip_size] 為磁區帶大小,例如 128K 或 1M
  • -target target_id 為:
    • ctrl[x](新儲存區)5
    • pool[x](現有儲存區)5
-config vol -getfreecap[-R] [-D disk] [-H disk] -target target_id3取得硬碟群組的可用容量。
  • [-R <0|1|5|1E|6|10|50|60|00|1ERLQ0|1E0RLQ0>] 此選項可定義 RAID 層次,並且僅用於新的儲存區
  • [-D disk [id11]:[id12]:..[id21]:[id22]:..]此選項可定義硬碟群組(包括跨距),並且僅用於新的儲存區
  • [-H disk [id1]:[id2]:..]此選項可定義緊急備用群組,並且僅用於新的儲存區
  • -target target_id 為:
    • ctrl[x]5
-help顯示指令用法和選項 
  1. 只有在 IMM 可存取 RAID 控制器的伺服器上,才支援此指令。
  2. 只會針對相關聯的控制器、磁碟和快閃記憶體 DIMM 顯示韌體資訊。不會針對相關聯的儲存區和磁區顯示韌體資訊。
  3. 由於空間限制,資訊會以數行顯示。
  4. 只有在支援 RAID 日誌的伺服器上,可支援此指令。
  5. 只有在支援 RAID 配置的伺服器上,可支援此指令。
  6. Enable 值不支援 RAID 層次 1 配置。
  7. 以下列出可用選項的部分清單。storage -config vol -add 指令的其餘選項列示如下。
語法:
storage [<em className="ph i">options</em>]
option:
-config <em className="ph i">ctrl|drv|vol</em> -option [<em className="ph i">-options</em>] -target <em className="ph i">target_id</em>
-list <em className="ph i">controllers|pools|<em className="ph i">volumes|drives</em></em>
-list <em className="ph i">pools</em> -target <em className="ph i">ctrl[x]</em>
-list <em className="ph i">volumes</em> -target <em className="ph i">ctrl[x]|pool[x]</em>
-list <em className="ph i">drives</em> -target <em className="ph i">ctrl[x]|pool[x]</em>
-list devices
-list flashdimms
-show <em className="ph i">target_id</em>
-show {<em className="ph i">ctrl[x]|pool[x]|disk[x]|vol[x]|flashdimm[x]</em>} <em className="ph i">info</em>
-show {<em className="ph i">ctrl[x]|disk[x]|flashdimm[x]}</em><em className="ph i">firmware</em>
-showlog <em className="ph i">ctrl[x]</em><em className="ph i">m:n|all</em>
-h <em className="ph i">help</em>
範例:
system> storage
-config ctrl -clrcfg -target ctrl[0]
ok
system>
system> storage
-config ctrl -clrforgn -target ctrl[0]
ok
system>
system> storage
-config ctrl -imptforgn -target ctrl[0]
ok
system>
system> storage
-config ctrl -scanforgn -target ctrl[0]
Detect 1 foreign configuration(s) on controller ctrl[0]
system>
system> storage
-config drv -addhsp -dedicated pool[0-1] -target disk[0-0]
ok
system>
system> storage
-config drv -addhsp -target disk[0-0]
ok
system>
system> storage
-config drv -mkbad -target disk[0-0]
ok
system>
system> storage
-config drv -mkgood -target disk[0-0]
ok
system>
system> storage
-config drv -mkmissing -target disk[0-0]
ok
system>
system> storage
-config drv -mkoffline -target disk[0-0]
ok
system>
system> storage
-config drv -mkonline -target disk[0-0]
ok
system>
system> storage
-config drv -prprm -target disk[0-0]
ok
system>
system> storage
-config drv -rmhsp -target disk[0-0]
ok
system>
system> storage
-config drv -undoprprm -target disk[0-0]
ok
system>
system> storage
-config vol -add -1 1 -target pool[0-1]
ok
system>
system> storage
-config vol -add -R 1 -D disk[0-0]:disk[0-1] -w 1 -r 2 -i 0 -a 0 -d 0 -f 0
-N LD_volume -S 100000 -P 64K -H disk[0-2] -target ctrl[0]
ok
system>
system> storage
-config vol -getfreecap -R 1 -D disk[0-0]:disk[0-1] -H disk[0-2] -target ctrl[0]
The drive group configuration is good with free capacity 500000MB
system>
system> storage
-config vol -remove -target vol[0-1]
ok
system>
system> storage
-config vol -set -N LD_volume -w 0 -target vol[0-0]
ok
system>
system> storage
-list controllers
ctrl[0] ServerRAID M5110e(Slot No. 0)
ctrl[1] ServerRAID M5110f(Slot No. 1)
system>
system> storage
-list drives
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage
-list flashdimms
flashdimm[1] Flash DIMM 1
flashdimm[4] Flash DIMM 4
flashdimm[9] Flash DIMM 9
system>
system> storage
-list pools
pool[0-0] Storage Pool 0
pool[0-1] Storage Pool 1
system>
system> storage
-list volumes
system>storage -list volumes
vol[0-0] Volume 0
vol[0-1] Volume 1
Vol[0-2] Volume 2
system>
system> storage
-list drives -target ctrl[0]
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage
-list drives -target pool[0-0]
disk[0-0] Drive 0
disk[0-1] Drive 1
system>
system> storage
-list pools -target ctrl[0]
pool[0-0] Storage Pool 0
system>
system> storage
-list volumes -target ctrl[0]
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage
-list volumes -target pool[0-0]
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage
-show ctrl[0] firmware
Total Firmware number: 2
Name: RAID Firmware1
Description: RAID Firmware
Manfacture: IBM
Version: 4.01(3)T
Release Date: 01/05/2013
Name: RAID Firmware2
Description: RAID Firmware
system>
system> storage
-show ctrl[0] info
Product Name: ServerRAID M5110e
Firmware Package Version: 23.7.0.1.2
Battery Backup: Installed
Manufacture: IBM
UUID: 1234567890123456
Model Type / Model: 1234AHH
Serial No.: 12345678901
FRU No.: 5005076049CC4
Part No.: LSI2004
Cache Model Status: Unknown
Cache Model Memory Size: 300MB
Cache Model Serial No.: PBKUD0XTA0P04Y
PCI Slot Number: 0
PCI Bus Number: 2
PCI Device Number: 2
PCI Function Number: 10
PCI Device ID: 0x1000
PCI Subsystem Device ID: 0x1413
Ports: 2
Port 1: 12345678901234
Port 2: 12345678901235
Storage Pools: 2
pool[0-0] Storage Pool 0
pool[0-1] Storage Pool 1
Drives: 3
disk[0-0] Drive 0
disk[0-1] Drive 1
disk[0-2] Drive 2
system>
system> storage
-show disk[0-0] firmware
Total Firmware number: 1
Name: Drive
Description:
Manufacture:
Version: BE24
Release Date:
system>
system> storage
-show disk[0-0] info
Product Name: ST98394893
State: Online
Slot No.: 0
Disk Type: SATA
Media Type: HHD
Health Status: Normal
Capacity: 100.000GB
Speed: 6.0Gb/s
Current Temperature: 33C
Manufacture: ATA
Device ID: 5
Enclusure ID: 0x00FC
Machine Type:
Model:
Serial No.: 9XKJKL
FRU No.:
Part No.:
system>
system> storage
-show flashdimm[15]
Name: CPU1 DIMM 15
Health Status: Normal
Operational Status: Online
Capacity(GB): 400GB
Model Type: DDR3
Part Number: 93E40400GGM101PAT
FRU S/N: 44000000
Manuf ID: Diablo Technologies
Temperature: 0C
Warranty Writes: 100%
Write Endurance: 100%
F/W Level: A201.0.0.49152
system>
system> storage
-show pool[0-0]
RAID State: RAID 0
RAID Capacity: 67.000GB (0.000GB free)
Drives: 2
disk[0-0] Drive 0
disk[0-1] Drive 1
Volumes: 2
vol[0-0] Volume 0
vol[0-1] Volume 1
system>
system> storage
-show pool[0-1] info
RAID State: RAID 1
RAID Capacity: 231.898GB (200.000GB free)
Holes: 2
#1 Free Capacity: 100.000GB
#2 Free Capacity: 100.000GB

Drives: 2
disk[0-1] Drive 1
disk[0-2] Drive 2

Volume: 1
vol[0-1] LD_volume
system>
system> storage
-show vol[0-0]
Name: Volume 0
Stripe Size: 64KB
Status: Offline
Capacity: 100.000GB
system>
system> storage
-show vol[0-0] info
Name: LD_volume
Status: Optimal
Stripe Size: 64KB
Bootable: Not Bootable
Capacity: 231.898GB
Read Policy: No Read Ahead
Write Policy: Write Through
I/O Policy: Direct I/O
Access Policy: Read Write
Disk Cache Policy: Unchanged
Background Initialization: Enable
system>