13/10/06 11:15:55.70 L9SWaVQG
>>850
>>454からの流れが参考になりそう
あとraidzap使って解決した事例が前スレ>>64以降にあるけど
>>455によると最近のsuperblockには対応してないっぽい
ちょっと状況は異なるが俺もRAID5を2台飛ばしたことあるけど運良く復旧できた
今回のケースも割と勝算ありそうに見える
焦らず冷静にいった方がいい
852:846
13/10/06 13:11:39.27 Kl4DhMi0
>>851
ありがとうございます。
やっぱり superblock の修正になりますか。
raidzap 作者さんのサイトとソースも見てました。
create はイチかバチかですね。肝が据わったらやってみます。
853:846
13/10/06 13:52:21.93 Kl4DhMi0
>>851
重ね重ねありがとうございます。ホント参考になりました。
wiki mdadm の、Recovering from a loss of RAID superblock あたりにも
記載がありました。
URLリンク(en.wikipedia.org)
最終覚悟が出来たらやってみます。(ヘタレなので、たぶん来週)
854:login:Penguin
13/10/06 16:19:37.73 RzEPiHGH
一番運が良ければ
--run --force 付きのassembleで崩壊状態から復旧できた気がする
855:846
13/10/06 21:58:41.93 Kl4DhMi0
>>854
米ありがとうございます。
以下の事例では、--run --force 付きの assemble で復旧しているようですが
3玉とも Active の必要があるのではないかと思います。
URLリンク(wimax.blog64.fc2.com)
856:login:Penguin
13/10/06 22:29:14.56 9PLvjutT
RAID6で3ロストから普及しとるが
URLリンク(raid.wiki.kernel.org)
857:login:Penguin
13/10/07 01:18:01.95 gHrLvuyS
>>856
リビルド中に2個追加で壊れた状況からの復旧で、
サルベージ出来てるのはリビルドが完了していた部分だけ
858:846
13/10/19 21:59:44.61 FqL+LSkB
結果報告です。
create で、どうにか残りの1玉を RAID に組み込めたのですが
FileSystem が認識出来ない状態でした。
xfs_repair でも復旧せず、Windows で復旧天使XFS RAID対応版 (NAS製品)も
試したのですが、全くファイルを見つけられない状態でした。
3TB で構成していたのも敗因ですかね・・・
残念ながら諦めることにします。
アドバイスありがとうございました。
859:login:Penguin
13/11/11 22:28:05.55 Mqk3Urwo
>>858
すでに手遅れ感満載だけど・・・
1.何が起こったのかを確認する。2台以上逝った場合は逝った順番は重要
2.全ドライブのクローンを作る
3.サルベージ作業開始
逝ったRAIDセットを復旧させたいならこのくらいの慎重さが要るのでは
RAIDアレイに追加する順番を間違えて余計壊したオチのような気もする
#以前にNASの構築で知人のSEに相談したらRAID5は止めておけと言われた
#理由は逝ったときに詰むからだそうだ。素直にRAID10にしておけとアドバイスされた
860:login:Penguin
13/11/11 23:43:05.89 +KEk6sHH
RAID10なんてごちゃごちゃしたのはやめとけ。
RAIDなしでもかまわんから、サーバ二台で相互ミラーしろ。
crontabで自動でな。
金があったらRAID1で相互ミラーだ。
RAIDはバックアップの代わりにはならん。
861:login:Penguin
13/11/12 11:46:59.21 AM4+qcIU
トラブル起こしたときは、RAID5もRAID10も大して変わらないような。
最悪の時に単体でもデータが拾い出せるRAID1が安心だよ。
もちろん別にリモートバックアップも必須。
862:login:Penguin
13/11/13 11:25:47.28 IZ34VZXw
週に一回、RAID1でバックアップ取ってる。
同期用ビットマップ有効にしておけば差分書き出すだけで取れるから高速。
863:login:Penguin
14/01/22 02:13:32.09 5EusCFvJ
すんまそん
質問です
3ware 9650seって2TB以上のHDD対応してますか?
(最新ファームで)
864:login:Penguin
14/01/22 02:41:33.86 oNoNDeUd
>>863
対応してる。
↓のDrive Compatibility List参照
URLリンク(mycusthelp.info)
865:login:Penguin
14/01/25 06:35:25.55 acEylKVH
>>864
ありがとうございます
866:login:Penguin
14/05/08 23:46:17.30 bOr+3GTA
mdの話。USB外付け16台でRAID6組んでるんだけど時々USBが見えなくなって
failureになる時があり、その場合はmdadm -A -fで復活出来ていた。
今日、久しぶりに発症したがいつもの手順でもpossibly out of dateで
assembleできない。困っていたら、アップデートでmdadmがver3.3に
なっているのに気付き3.2.6をmakeしそっちで-A -fしたら無事スタート。
3.3でより安全に寄せたということなのかもしれないが心臓に悪かった。
867:login:Penguin
14/06/23 07:11:19.05 caZUCSXN
USBで組むなんて剛気だなぁ
868:login:Penguin
14/06/23 23:42:38.68 QDtjUhDf
lvmで困っていて助言いただきたいことがあります.
lvmのスレが見つからなかったのですがスレチなら大変申し訳ありません.
○ 状況
4つの3TB-HDDで12TBのLVを組んでいた(各HDDにPVが1つずつ,4PV→1VG→1LV).
HDDの1つが物理障害で認識しなくなった.
残り3つのHDDに入っているデータを救出したい.
○ 解決方法: 次のやり方であっていますか?
* 物理障害HDDをはずして,代わりに空の1つのPVを作ったHDDを指す
* 当VGから,物理障害HDDのPVをVGメンバーからはずす(vgreduce)
* 当VGに,空のPVを追加する(vgextend)
* ここでマウントしてファイルを読めるか試す
なお,正常HDD3つだけで活性化(vgchange -ay --partial)したものは,FSが壊
れててマウントできないと言われました.
869:login:Penguin
14/06/24 02:06:10.79 +Co2UKI2
>>868
> ○ 解決方法: 次のやり方であっていますか?
いいえ。空のHDDを追加してもファイルシステム的には何の意味もないです。
> なお,正常HDD3つだけで活性化(vgchange -ay --partial)したものは,FSが壊
> れててマウントできないと言われました.
その状態でfsckするしかないです。
ファイルシステムがXFSの場合、物理メモリ沢山無いとダメかも
870:login:Penguin
14/06/24 20:01:25.92 JfKjhcDg
>>869
ご親切にどうもありがとうございました!
物理障害のHDDの復旧見込みがなければfsckをかけて
取り出せるものだけでも取り出してみます.
ファイルシステムはext4です.
871:login:Penguin
14/08/11 07:02:11.03 qgb08vBt
ほ
し
ゅ