LinkStationがWindows10からのアクセスで故障(14)~RAID superblock編~ [パソコン]
Windows10からアクセスしているうちに、壊れてしまったLinkStation。
前回はphysical sectorの警告メッセージを無視する所まで書きました。
今回は、いよいよRAID5デバイスの再構築です。
前回、
LinkStationがWindows10からのアクセスで故障(5)~RAID5デグレード編~ [2015/12/17 08:56]
http://fuji35.blog.so-net.ne.jp/2015-12-17
こちらで行ったことの上級編です。
この時は4本のうち3本を認識させ、デグレードモードで復活させました。
ところが、ハードディスクの損傷が大きく、サルベージすることが出来なかったため・・・
物理的に壊れているハードディスクはDisk Copyで新品に移し替える
↓
3本より4本の方が救えるファイルが多いと信じて、4本でRAID5を再起動させる
↓
ファイルシステムチェックをかけて不良セクタを除外させる
↓
フォルダにマウントさせる
↓
データをサルベージする
・・・この流れを目指します。
Disk Copyは終わって、パソコン立ち上げも終わっていますので、RAID5への組み込みです。
まずソフトウェアのインストール
# apt-get -y install mdadm
次に組み込む4本のハードディスクのRAID状態の表示。
これは「superblock」と呼ばれる情報です。
# mdadm --examine /dev/sda6
/dev/sda6:
Magic : a92b4efc
Version : 0.90.00
UUID : 82ca5ba8:77319326:bd54f990:2edf8a42
Creation Time : Sun Jun 21 17:07:49 2009
Raid Level : raid5
Used Dev Size : 968759552 (923.88 GiB 992.01 GB)
Array Size : 2906278656 (2771.64 GiB 2976.03 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Update Time : Sun Dec 27 07:06:56 2015
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 69d8d2ef - correct
Events : 26
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 0 8 6 0 active sync /dev/sda6
0 0 8 6 0 active sync /dev/sda6
1 1 0 0 1 faulty removed
2 2 8 38 2 active sync /dev/sdc6
3 3 8 54 3 active sync /dev/sdd6
# mdadm --examine /dev/sdb6
/dev/sdb6:
Magic : a92b4efc
Version : 0.90.00
UUID : 82ca5ba8:77319326:bd54f990:2edf8a42
Creation Time : Sun Jun 21 17:07:49 2009
Raid Level : raid5
Used Dev Size : 968759552 (923.88 GiB 992.01 GB)
Array Size : 2906278656 (2771.64 GiB 2976.03 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Update Time : Tue Dec 15 19:06:21 2015
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Checksum : 69c9a9a0 - correct
Events : 20
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 22 1 active sync /dev/sdb6
0 0 0 0 0 removed
1 1 8 22 1 active sync /dev/sdb6
2 2 8 38 2 active sync /dev/sdc6
3 3 8 54 3 active sync /dev/sdd6
# mdadm --examine /dev/sdc6
/dev/sdc6:
Magic : a92b4efc
Version : 0.90.00
UUID : 82ca5ba8:77319326:bd54f990:2edf8a42
Creation Time : Sun Jun 21 17:07:49 2009
Raid Level : raid5
Used Dev Size : 968759552 (923.88 GiB 992.01 GB)
Array Size : 2906278656 (2771.64 GiB 2976.03 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Update Time : Sun Dec 27 07:06:56 2015
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 69d8d313 - correct
Events : 26
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 38 2 active sync /dev/sdc6
0 0 8 6 0 active sync /dev/sda6
1 1 0 0 1 faulty removed
2 2 8 38 2 active sync /dev/sdc6
3 3 8 54 3 active sync /dev/sdd6
# mdadm --examine /dev/sdd6
/dev/sdd6:
Magic : a92b4efc
Version : 0.90.00
UUID : 82ca5ba8:77319326:bd54f990:2edf8a42
Creation Time : Sun Jun 21 17:07:49 2009
Raid Level : raid5
Used Dev Size : 968759552 (923.88 GiB 992.01 GB)
Array Size : 2906278656 (2771.64 GiB 2976.03 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Update Time : Sun Dec 27 07:06:56 2015
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 69d8d325 - correct
Events : 26
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 54 3 active sync /dev/sdd6
0 0 8 6 0 active sync /dev/sda6
1 1 0 0 1 faulty removed
2 2 8 38 2 active sync /dev/sdc6
3 3 8 54 3 active sync /dev/sdd6
#
4本のsuperblockの表示結果をよーく見ると、
Events : 26
になっているハードディスクと
Events : 20
になっているハードディスクがいます。
これだと4本が一つのRAID5デバイスに組み込まれません。4本とも同じイベント番号じゃないと行けません。
そこでRAIDのsuperblockを無理矢理書き換える、荒療治を実行します。
この荒療治、実際にやったことのある人は少なく、
http://www.nurs.or.jp/~ogochan/essay/archives/1010
”無理やりのRAID復旧” | おごちゃんの雑文
こちらのページが我々にとっての神ページとなっています。ちなみに、
https://spacewalker.jp/mt/spacewalker/archives/9166
TeraStationのRAID5で2本HDDが壊れた際のデータ復旧 ...
こちらの方も、おごちゃんのプログラムソースの利用者で、詳しく解説されています。
プログラムは使いたい内容に沿って修正する必要があります。
プログラム修正箇所の詳しい解説は、次回、紹介します。
--------------------------
スポンサーリンク
こんな時代だからこそ、
ポイントサイトでお小遣い稼ぎしませんか?
スマートフォン専用のポイント交換サイト!
》》》Point anytime 《《《
■SNSでも登録できる【簡単無料登録】
■お友達が獲得したポイントの一部も還元♪
貯めたポイントは電子マネー等に交換可能!
--------------------------
関連記事:
LinkStationがWindows10からのアクセスで故障(13)~physical sectors編~ [2015/12/30 15:43]
http://fuji35.blog.so-net.ne.jp/2015-12-30
LinkStationがWindows10からのアクセスで故障(12)~EASEUS Disk Copy編~ [2015/12/29 22:56]
http://fuji35.blog.so-net.ne.jp/2015-12-29-1
LinkStationがWindows10からのアクセスで故障(11)~Ubuntu RAID5編~ [2015/12/29 14:11]
http://fuji35.blog.so-net.ne.jp/2015-12-29
LinkStationがWindows10からのアクセスで故障(10)~Ubuntuでtelnet編~ [2015/12/27 23:51]
http://fuji35.blog.so-net.ne.jp/2015-12-27
LinkStationがWindows10からのアクセスで故障(9)~PVconnect/DLNA編~ [2015/12/21 08:34]
http://fuji35.blog.so-net.ne.jp/2015-12-21
LinkStationがWindows10からのアクセスで故障(8)~SATA大増設編~ [2015/12/20 07:11]
http://fuji35.blog.so-net.ne.jp/2015-12-20
LinkStationがWindows10からのアクセスで故障(7)~異常終了編~ [2015/12/19 09:32]
http://fuji35.blog.so-net.ne.jp/2015-12-19
LinkStationがWindows10からのアクセスで故障(6)~samba(ファイル共有)編~ [2015/12/18 05:50]
http://fuji35.blog.so-net.ne.jp/2015-12-18
LinkStationがWindows10からのアクセスで故障(5)~RAID5デグレード編~ [2015/12/17 08:56]
http://fuji35.blog.so-net.ne.jp/2015-12-17
LinkStationがWindows10からのアクセスで故障(4)~telnet化~ [2015/12/16 06:20]
http://fuji35.blog.so-net.ne.jp/2015-12-16
LinkStationがWindows10からのアクセスで故障(3)~ディスクチェック無限地獄編~ [2015/12/15 06:30]
http://fuji35.blog.so-net.ne.jp/2015-12-15
LinkStationがWindows10からのアクセスで故障(2)~ユーザーサポート編~ [2015/12/14 08:43]
http://fuji35.blog.so-net.ne.jp/2015-12-14-1
LinkStationがWindows10からのアクセスで故障(1)~強制EMモード編~ [2015/12/14 07:54]
http://fuji35.blog.so-net.ne.jp/2015-12-14
TeraStation/LinkStationが壊れたらら(2) [2015/11/25 14:40]
http://fuji35.blog.so-net.ne.jp/2015-11-25
TeraStation/LinkStationが壊れたら [2015/11/24 23:25]
http://fuji35.blog.so-net.ne.jp/2015-11-24
前回はphysical sectorの警告メッセージを無視する所まで書きました。
今回は、いよいよRAID5デバイスの再構築です。
前回、
LinkStationがWindows10からのアクセスで故障(5)~RAID5デグレード編~ [2015/12/17 08:56]
http://fuji35.blog.so-net.ne.jp/2015-12-17
こちらで行ったことの上級編です。
この時は4本のうち3本を認識させ、デグレードモードで復活させました。
ところが、ハードディスクの損傷が大きく、サルベージすることが出来なかったため・・・
物理的に壊れているハードディスクはDisk Copyで新品に移し替える
↓
3本より4本の方が救えるファイルが多いと信じて、4本でRAID5を再起動させる
↓
ファイルシステムチェックをかけて不良セクタを除外させる
↓
フォルダにマウントさせる
↓
データをサルベージする
・・・この流れを目指します。
Disk Copyは終わって、パソコン立ち上げも終わっていますので、RAID5への組み込みです。
まずソフトウェアのインストール
# apt-get -y install mdadm
次に組み込む4本のハードディスクのRAID状態の表示。
これは「superblock」と呼ばれる情報です。
# mdadm --examine /dev/sda6
/dev/sda6:
Magic : a92b4efc
Version : 0.90.00
UUID : 82ca5ba8:77319326:bd54f990:2edf8a42
Creation Time : Sun Jun 21 17:07:49 2009
Raid Level : raid5
Used Dev Size : 968759552 (923.88 GiB 992.01 GB)
Array Size : 2906278656 (2771.64 GiB 2976.03 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Update Time : Sun Dec 27 07:06:56 2015
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 69d8d2ef - correct
Events : 26
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 0 8 6 0 active sync /dev/sda6
0 0 8 6 0 active sync /dev/sda6
1 1 0 0 1 faulty removed
2 2 8 38 2 active sync /dev/sdc6
3 3 8 54 3 active sync /dev/sdd6
# mdadm --examine /dev/sdb6
/dev/sdb6:
Magic : a92b4efc
Version : 0.90.00
UUID : 82ca5ba8:77319326:bd54f990:2edf8a42
Creation Time : Sun Jun 21 17:07:49 2009
Raid Level : raid5
Used Dev Size : 968759552 (923.88 GiB 992.01 GB)
Array Size : 2906278656 (2771.64 GiB 2976.03 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Update Time : Tue Dec 15 19:06:21 2015
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Checksum : 69c9a9a0 - correct
Events : 20
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 22 1 active sync /dev/sdb6
0 0 0 0 0 removed
1 1 8 22 1 active sync /dev/sdb6
2 2 8 38 2 active sync /dev/sdc6
3 3 8 54 3 active sync /dev/sdd6
# mdadm --examine /dev/sdc6
/dev/sdc6:
Magic : a92b4efc
Version : 0.90.00
UUID : 82ca5ba8:77319326:bd54f990:2edf8a42
Creation Time : Sun Jun 21 17:07:49 2009
Raid Level : raid5
Used Dev Size : 968759552 (923.88 GiB 992.01 GB)
Array Size : 2906278656 (2771.64 GiB 2976.03 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Update Time : Sun Dec 27 07:06:56 2015
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 69d8d313 - correct
Events : 26
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 38 2 active sync /dev/sdc6
0 0 8 6 0 active sync /dev/sda6
1 1 0 0 1 faulty removed
2 2 8 38 2 active sync /dev/sdc6
3 3 8 54 3 active sync /dev/sdd6
# mdadm --examine /dev/sdd6
/dev/sdd6:
Magic : a92b4efc
Version : 0.90.00
UUID : 82ca5ba8:77319326:bd54f990:2edf8a42
Creation Time : Sun Jun 21 17:07:49 2009
Raid Level : raid5
Used Dev Size : 968759552 (923.88 GiB 992.01 GB)
Array Size : 2906278656 (2771.64 GiB 2976.03 GB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 2
Update Time : Sun Dec 27 07:06:56 2015
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 69d8d325 - correct
Events : 26
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 54 3 active sync /dev/sdd6
0 0 8 6 0 active sync /dev/sda6
1 1 0 0 1 faulty removed
2 2 8 38 2 active sync /dev/sdc6
3 3 8 54 3 active sync /dev/sdd6
#
4本のsuperblockの表示結果をよーく見ると、
Events : 26
になっているハードディスクと
Events : 20
になっているハードディスクがいます。
これだと4本が一つのRAID5デバイスに組み込まれません。4本とも同じイベント番号じゃないと行けません。
そこでRAIDのsuperblockを無理矢理書き換える、荒療治を実行します。
この荒療治、実際にやったことのある人は少なく、
http://www.nurs.or.jp/~ogochan/essay/archives/1010
”無理やりのRAID復旧” | おごちゃんの雑文
こちらのページが我々にとっての神ページとなっています。ちなみに、
https://spacewalker.jp/mt/spacewalker/archives/9166
TeraStationのRAID5で2本HDDが壊れた際のデータ復旧 ...
こちらの方も、おごちゃんのプログラムソースの利用者で、詳しく解説されています。
プログラムは使いたい内容に沿って修正する必要があります。
プログラム修正箇所の詳しい解説は、次回、紹介します。
--------------------------
こんな時代だからこそ、
ポイントサイトでお小遣い稼ぎしませんか?
スマートフォン専用のポイント交換サイト!
》》》
■SNSでも登録できる【簡単無料登録】
■お友達が獲得したポイントの一部も還元♪
貯めたポイントは電子マネー等に交換可能!
関連記事:
LinkStationがWindows10からのアクセスで故障(13)~physical sectors編~ [2015/12/30 15:43]
http://fuji35.blog.so-net.ne.jp/2015-12-30
LinkStationがWindows10からのアクセスで故障(12)~EASEUS Disk Copy編~ [2015/12/29 22:56]
http://fuji35.blog.so-net.ne.jp/2015-12-29-1
LinkStationがWindows10からのアクセスで故障(11)~Ubuntu RAID5編~ [2015/12/29 14:11]
http://fuji35.blog.so-net.ne.jp/2015-12-29
LinkStationがWindows10からのアクセスで故障(10)~Ubuntuでtelnet編~ [2015/12/27 23:51]
http://fuji35.blog.so-net.ne.jp/2015-12-27
LinkStationがWindows10からのアクセスで故障(9)~PVconnect/DLNA編~ [2015/12/21 08:34]
http://fuji35.blog.so-net.ne.jp/2015-12-21
LinkStationがWindows10からのアクセスで故障(8)~SATA大増設編~ [2015/12/20 07:11]
http://fuji35.blog.so-net.ne.jp/2015-12-20
LinkStationがWindows10からのアクセスで故障(7)~異常終了編~ [2015/12/19 09:32]
http://fuji35.blog.so-net.ne.jp/2015-12-19
LinkStationがWindows10からのアクセスで故障(6)~samba(ファイル共有)編~ [2015/12/18 05:50]
http://fuji35.blog.so-net.ne.jp/2015-12-18
LinkStationがWindows10からのアクセスで故障(5)~RAID5デグレード編~ [2015/12/17 08:56]
http://fuji35.blog.so-net.ne.jp/2015-12-17
LinkStationがWindows10からのアクセスで故障(4)~telnet化~ [2015/12/16 06:20]
http://fuji35.blog.so-net.ne.jp/2015-12-16
LinkStationがWindows10からのアクセスで故障(3)~ディスクチェック無限地獄編~ [2015/12/15 06:30]
http://fuji35.blog.so-net.ne.jp/2015-12-15
LinkStationがWindows10からのアクセスで故障(2)~ユーザーサポート編~ [2015/12/14 08:43]
http://fuji35.blog.so-net.ne.jp/2015-12-14-1
LinkStationがWindows10からのアクセスで故障(1)~強制EMモード編~ [2015/12/14 07:54]
http://fuji35.blog.so-net.ne.jp/2015-12-14
TeraStation/LinkStationが壊れたらら(2) [2015/11/25 14:40]
http://fuji35.blog.so-net.ne.jp/2015-11-25
TeraStation/LinkStationが壊れたら [2015/11/24 23:25]
http://fuji35.blog.so-net.ne.jp/2015-11-24
コメント 0