/proc/mdstatファイルでほかに注目しておきたいのが「[2/2] [UU]」の箇所です。これはRAIDアレイの状態を表しています。ここで、前回利用したRAIDを構築・管理する「mdadm」コマンドを使って、md0のsda2を故障状態にします。次のコマンドを実行してみてください。「–fail」が疑似的に故障させるオプションです。
1 |
$ sudo mdadm --manage /dev/md0 --fail /dev/sda2 |
ここで、/proc/mdstatファイルを確認します。
1 2 3 4 5 6 7 8 9 |
$ cat /proc/mdstat Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md1 : active raid1 sdb1[1] sdc1[2](S) sda1[0] 975296 blocks super 1.2 [2/2] [UU] md0 : active raid1 sdb2[1] sda2[0](F) sdc2[2] 166663168 blocks super 1.2 [2/1] [_U] [>....................] recovery = 0.1% (180544/166663168) finish=122.9min speed=22568K/sec bitmap: 1/2 pages [4KB], 65536KB chunk |
「md0 : active raid1 sdb2[1] sda2[0](F) sdc2[2]」の行を見ると、sda2の後ろに「(F)」が表示されています。「(F)」は失敗(Fail)を示し、何らかの原因でその物理ボリュームが読み書きできない状態になっていることを表しています。
その下にあった「[2/2] [UU]」が「[2/1] [_U]」に変わりました。「2/1」は稼働状態にあった二つの物理ボリュームのうち、1台が停止中を示しています。そして「[_U]」の「_」が停止中の物理ボリュームを表しています。デバイスファイル名の後ろに「[0]」や「[1]」の番号がありました。「UU」は、この番号順に並んでいるので、「[0]」が付いたデバイスファイル名の物理ボリュームが停止中であることが分かります。