08/12/27 22:03:41 siPqVhlW
>>444
乙。たぶん他で悩んでた何百人かがこれで救われたな。
447:login:Penguin
08/12/27 22:13:23 yXeo6tkq
>>438
PDCなんて、動いてるときはいいけど、なんかトラブるととたんに最悪に
なるチップだというのに。ご愁傷様。
448:login:Penguin
08/12/29 14:12:36 sawoMW0p
>>447
このスレ(過去スレ含む)見てると、
HW-RAIDはRAIDコントローラのハード的故障の可能性があるが、
SW-RAIDにはそれがないので、信頼性はむしろ高い、てな話が何度か出てたと思うけど、
現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。
つか、OS共倒れになる危険性や、多ポートを利用するために複数のコントローラを
用意しなければならないことを考えると、SATA/PATAに関してはSW-RAIDの方が
ハードウェア的なリスクが高い、というパラドックスすら。
ま、HDD 2台でのRAID 1程度ならばM/Bオンボードのコントローラだけで賄えると思うが。
449:login:Penguin
08/12/29 14:13:19 sawoMW0p
すると、Level 4 以上のSW-RAIDを使うならSCSI使えってことになるんだろうけど、
こうなるとコストの点でのメリットは皆無になるんだよな。
SATAの「まともな」HW-RAIDを選んで買った方がトータルでは安上がりだろう。
(そも、SATAは「まとも」なのか、というのは置いといて)
結局SW-RAIDのメリットって、本当に「構成の柔軟性」だけってことになっちゃうのか?
(信頼性を犠牲にすれば超安上がり可能、というコストパフォーマンス面での柔軟性も含めて)
450:login:Penguin
08/12/29 21:18:25 W2yC0jiU
>>448-449
>現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。
そんなに単純な話じゃないよ
種類の違うリスクだから、足し算引き算みたいな単純な比較には何の意味もないし、
故障の可能性っていう一面だけを見るのもどうかと。
故障の可能性も重要だが、運用コストや復旧の容易さなど
考えないといけないことは沢山ある。
例えばmdでのRAIDなんかは操作にroot権限が必要だけど、HW-RAIDなら
極端な話HDD抜いて入れればOKだから一般オペレータでも対処可能で
実運用での分業をしやすい、とか。
そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。
451:login:Penguin
08/12/29 22:38:14 UoG3grAC
一般オペレーターって具体的にどんな感じかよくわからんが、
「一般」な人たちにマシンのハードディスクを抜いたりさしたりしてほしくないのだが・・・
452:login:Penguin
08/12/30 02:18:12 XDcWQoWA
>>450
> 故障の可能性っていう一面だけを見るのもどうかと。
一面だけを見てるのではなく、それがSW-RAIDのメリットだと言われてたことが
実際にはそうでもないよな、という点を書いただけだが?
> そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。
そういう「運用上の利便性」がHW-RAIDのメリットだというのは
既にさんざん書かれてるんで、誰でも知ってる。
豊富な知識を開陳したいならば、
むしろ、SW-RAIDのメリットは他にないの? というところに答えて欲しいものだ。
453:login:Penguin
08/12/30 04:28:56 bFaePHo0
まーroot持ってる奴は少ない方が安全だろう
少なすぎるのもトラックナンバー的にアレだが
>>452
そーいう態度は周りが話しづらくなるからおまいさんの得にもならんよ
なんか嫌なことでもあったの?
454:login:Penguin
08/12/30 08:59:43 1n4+uaKz
ストライピングは速くなるとは限らないのやつ、まだいたのかよ
455:login:Penguin
08/12/31 02:54:03 dG9Ns93a
ん、実際に速くなるとは限らないけど?
456:login:Penguin
08/12/31 13:46:49 wmBwgOvB
またバカがわいてきたか。
大掃除も終わって暇だからソースを出せと煽ってみる。どうせ出せないだろうけど。
457:login:Penguin
08/12/31 13:57:16 dG9Ns93a
ほれ。
URLリンク(www.runser.jp)
RAID0のストライプ単位よりアクセス単位が大きい場合、
複数のヘッドがシークする必要があるけど、
その場合シークタイムが最悪値に合わせられるのが原因。
特にストライプ単位より小さいランダムアクセスで問題になる。
458:login:Penguin
08/12/31 14:13:29 dG9Ns93a
間違えた。
特にストライプ単位より小さい→特にストライプ幅より小さい
あと、俺は454の言ってる奴とは多分別人。残念。
459:login:Penguin
08/12/31 15:05:32 wmBwgOvB
CPUの性能を比較するのに浮動小数点演算にフォーカスするのと変わらんね。
速くなる場合もある、遅くなる場合もある、なんて一個一個つまんでも無意味。
実際使う場合に全体のパフォーマンスがどうなるかが重要でしょ。
せめてOSの起動時間とかアプリ使用時の速度とか大容量ファイルの入出力とかデータベースのアクセス時間とかで計測しないと。
おれはシステム作ってるがデータベースに関しては完全にスピードアップで議論の余地ないね。
データ容量に対してメモリ容量が少ないときほど効果的。当たり前だけど。
460:login:Penguin
08/12/31 15:45:02 dG9Ns93a
ソース出されて涙目
必死に論点すげ変えようとしても無駄だよ
461:login:Penguin
08/12/31 16:08:42 VoiH1vp1
最近無意味に偉そうな人多いよね
462:login:Penguin
08/12/31 16:22:17 NaughPYZ
>>457
ストライプサイズは大きすぎても小さすぎても駄目という、
当たり前の事が示されたに過ぎないと思うんだが、
リンク先の内容はそれ以上の何か意味があるの?
RAID-0がランダムアクセスに弱いのは常識でしょ?
極端な例を出せば1byteのデータ書き込みはRAID-0でも絶対に速くならない。
463:login:Penguin
08/12/31 16:36:19 wmBwgOvB
>>460
おまえのシステム構成に関する考え方が根本的にずれてるだけ。
来年はもっとがんばれよ。
じゃあ今年おつかれ。
464:login:Penguin
08/12/31 22:17:20 zy8sz8rj
上のほうで話題になってる
SW-RAIDで、ディスク不調になるとシステムごと固まるのって結構痛いよね
RAID専用のLinuxマシン立ち上げてsmbmountかNFS使うしかないのか?
465:429
09/01/01 15:37:19 bpOiYOEo
openSUSE 11.1を試したら、GRUB以外はインストールは出来たのですが、
GRUBのみインストールが出来ません。MBRにもPBRにもインストール
出来ません。
1TB*2 のRAID0です。
フロッピーからsuper grub diskを使っても読み込めませんでした。
/boot以外のファイルは、Ext2Fsdで見てもちゃんとあります。
現在のMBRのブートローダーはMBMです。
出来れば、二段階ブートにしたいのですが、
どうすればいいでしょうか。
466:login:Penguin
09/01/03 23:22:51 t9OrvzZp
あけおめ
>>462
> RAID-0がランダムアクセスに弱いのは常識でしょ?
うん、だから>>455なわけで。
>>463
元の流れにない勝手な俺仮定を持ち出してよく言うw
467:login:Penguin
09/01/04 09:47:01 jNugnejt
ミラーリングの場合、ライト時は二つのディスクに書き込んでいるのはわかるけど、
リード時は、どうなんだろう。
やはり、二つのディスクから読み出しているのかな。あるいは、どっちか片方からなのかな。
468:login:Penguin
09/01/04 14:46:39 U5nW6Zhm
>>467
たしか両方から半分ずつ読み出すようなアルゴリズムになってた気がする
だからWriteは単体時と同じか遅いけど、Readは単体時よりも早いはず
469:login:Penguin
09/01/04 14:48:08 U5nW6Zhm
拡張されてる場合は↑みたい
wikipediaより
本来RAID 1の読み出しは、一つのドライブのみにアクセスし、もう片方は、完全なバックアップドライブである。これを双方から読み出すようアルゴリズムを拡張することで、理論上、単体ディスクの2倍の速度で読み出しを行える。
470:login:Penguin
09/01/04 23:55:36 jNugnejt
>>468 >>469
オンボードのbios_raidじゃあ、いくら最新のgigabyteマザーでも[拡張]ではなさそうだなあ。
でももし「拡張」だったら、ミラーリングでも、raid0の分散高速読み出しの恩恵を受けられるのか。
なんか、読み出しだけだけど得した気分だな。
471:login:Penguin
09/01/05 00:56:01 tYf1sft+
>>467
結論から言うと実装次第。並列読みも可能だし、片方からの場合もある。
mdのmanによると、速くなりそうなときだけ並列読み。
Windowsのミラーリングだと高負荷時のみ並列だったか。
他はそれぞれの説明書読んだり問い合わせすべし。
>>468
また来たか
472:login:Penguin
09/01/05 01:29:27 HmcpyJ9r
>>471
ああそうか、mdデバイスに拠るんだね
勘違いしていました。ハードウェアに「拡張」実装されているんじゃないんだ
ソフトウェアレイドの方が、拡張などがあって、融通が利きそうだと思った
473:login:Penguin
09/01/05 01:48:25 tYf1sft+
>>470
並列読みだしできるRAID1として、シーケンシャルアクセスだと
トラックシーク+回転待ち時間 < データ読みだし時間 じゃないと恩恵は無い。
ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り
474:login:Penguin
09/01/05 03:09:42 HmcpyJ9r
片方のディスクでトラックシーク+回転待ち時間を待ったとして、
それでもデータ読み出し時間で得があれば、並列読み出しraid1がなされるわけか
なるほど。
確かに、連続した収まり方をしたデータの読み出しの場合は片方のディスクを作動させるのは余計に時間がかかるなあ
>ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り しかし、そういう時間を計算して並列読み出しをするか決めるmdシステムはすごいと思う。
納得できました。
しかし、そういう時間の損得を計算して、並列読み出しを決定するmdデバイスってすごい!
475:login:Penguin
09/01/05 11:22:48 HmcpyJ9r
cat /proc/mdstat に何も表示されない場合、
それは、fedora10が、オンボードbios_raidミラーリングをハードウェアraidとして認識しているからでしょうか。
bios上ではraidアレイはfunctionalになっていたし、
インストーラーでも、確かにraid構成を見ることができていました。
dfでは次のように表示されます
/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm
476:login:Penguin
09/01/05 11:35:50 DlvIpe94
>>475
多分なってないよ。それ。dmesg貼ってみれ
477:login:Penguin
09/01/05 15:46:14 DdhiA30p
>>475、それ、BIOSでRAIDサポートしてて、有効にしてるんなら、mdでなく、dmraidが動いてないけ?
# dmraid -s
# dmraid -n
# dmraid -r
とか叩くとなんかでないか?
478:login:Penguin
09/01/05 16:19:36 HmcpyJ9r
>>476
関係ありそうな部分だけ貼ってみます
その1
<略>
ahci 0000:00:11.0: version 3.0
ahci 0000:00:11.0: PCI INT A -> GSI 22 (level, low) -> IRQ 22
ahci 0000:00:11.0: AHCI 0001.0100 32 slots 6 ports 3 Gbps 0x3f impl RAID mode
ahci 0000:00:11.0: flags: 64bit ncq sntf ilck pm led clo pmp pio slum part
<略>
ata1: softreset failed (device not ready)
ata1: failed due to HW bug, retry pmp=0
ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata1.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata1.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata1.00: configured for UDMA/133
ata2: softreset failed (device not ready)
ata2: failed due to HW bug, retry pmp=0
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata2.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata2.00: configured for UDMA/133
479:login:Penguin
09/01/05 16:21:12 HmcpyJ9r
その2
scsi 0:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sda: sda1 sda2
sd 0:0:0:0: [sda] Attached SCSI disk
sd 0:0:0:0: Attached scsi generic sg0 type 0
scsi 1:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdb: sdb1 sdb2
sd 1:0:0:0: [sdb] Attached SCSI disk
sd 1:0:0:0: Attached scsi generic sg1 type 0
480:login:Penguin
09/01/05 16:21:42 HmcpyJ9r
その3
<略>
device-mapper: multipath: version 1.0.5 loaded
EXT3 FS on dm-0, internal journal
kjournald starting. Commit interval 5 seconds
EXT3 FS on sda1, internal journal
EXT3-fs: mounted filesystem with ordered data mode.
Adding 3604472k swap on /dev/mapper/VolGroup00-LogVol01. Priority:-1 extents:1 across:360
4472k
481:login:Penguin
09/01/05 16:24:04 HmcpyJ9r
>>477
それらしきものが、出ました
# dmraid -r
/dev/sdb: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
/dev/sda: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
# dmraid -s
*** Set
name : pdc_cbabhifjd
size : 976642048
stride : 128
type : mirror
status : ok
subsets: 0
devs : 2
spares : 0
482:login:Penguin
09/01/09 13:18:07 +j59FScV
このスレの人たちって、自作板のRAIDカードスレのように自分でインスコ、設定とかやったことあるの?
あっちはLinuxユーザが少なくて情報得るのに苦労してるわ・・
483:login:Penguin
09/01/09 13:22:01 R08Zc+c9
Linuxユーザーは「本物の」RAIDカードしか使わないからじゃないの?
484:login:Penguin
09/01/09 19:09:59 /ZwuDsYt
俺が使ってる3wareなら今じゃドライバは標準で入ってるし、
ユーティリティ類も普通にインストーラで入るし。
kernel2.4のときはドライバはtar玉から入れてたけど
それも特に苦労をした記憶はないな。
少なくとも俺は。
書いてある通りにやれば普通に入った。
まともなメーカーのを使えば、どれでもそんなもんじゃないの?
ソフトウェアRAIDだって、
ちょっと検索すりゃ親切丁寧な解説サイトは
いくらでもあるし。
一体何をそんなに苦労してるんだか知らんけど。
485:login:Penguin
09/01/09 20:26:31 +j59FScV
>>483
本物ってハードウェアRAIDのこと?あのスレの連中はそっちのほうが多いけど。
自分の印象では、ジサカーと違ってLinuxユーザはハードに大金をかけない人が多い気がする。
RAIDもmdraidのミラー程度でささやかにやってるイメージ。
あ、馬鹿にしてるわけじゃないぞw
>>484
標準的な鳥を使う分にはほとんど問題ないけど、変にメーカーがカスタムしたやつだとトラブるときがある。
メーカーに聞いても「そんなの知らん」で終わりなんで、自力でやるしかない。
486:login:Penguin
09/01/09 22:25:36 +wvRjhFl
Windows特有なのが、RAID0で起動を高速化って文化じゃないかな?
それがあるから、フェイクRAIDが大人気。
Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから
結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。
Windowsにmdドライバやmdadmが移植されれば
フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ?
つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win
「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz
487:login:Penguin
09/01/09 23:52:35 Al1IJSIe
mdと、dmってどう違うの?
意図して文字列を逆にしているみたいに思える。
488:login:Penguin
09/01/10 01:48:52 loOCjssc
>>487
md: LinuxのソフトウエアRAIDドライバ
dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ
>>485
本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。
例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。
具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。
個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。
489:486
09/01/10 13:36:09 odJ/+a4Y
>>486
俺も自作初めたばかりの無知な頃にフェイクRAIDで痛い目みたわw
nforce2のraidだったかなぁ・・・raid0速い!って喜んでたわ
>>488
大学の研究室である程度まとまった金でRAID組まされることあんだよね。
研究室の共用サーバにインストールするんだが、何度か面倒な目にあった。
もう全部業者任せにしようかと思うわ・・・
自分でやるならやっぱmdだな
490:login:Penguin
09/01/10 14:22:42 8L5rYSxp
>>486
WindowsにもSoftware RAIDはついてるのに、なぜか活用されてないね。
なんちゃってRAIDなんかよりそっち使えばいいのに・・・
491:login:Penguin
09/01/10 15:34:13 sulqjtr0
ここで言われてる「本物」でお奨めになものってどんなのがあります?
492:login:Penguin
09/01/10 16:15:58 o9R1cT+y
ETERNUS
493:login:Penguin
09/01/10 17:02:57 3dK3csV8
>>486>>490
md4ramって移植版のドライバがある。
ライトバックキャッシュを利かせて使いたいが開発が滞っているみたい。
壊れてもいいデータしか置かないけど2chブラウザのログ置きに最適。
494:login:Penguin
09/01/12 01:59:14 /Son47ik
>>488
>md: LinuxのソフトウエアRAIDドライバ
>dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ
じゃあ、biosraidがdmraidで動作しているからといって、ハードウェア処理されているわけでなく、
結局は、linuxのmdドライバでraidの処理がなされているわけなんだ。
biosraidにプロミスってあったから、これはオンボードでハード処理されて、
linuxには一個のディスクとして見せているんだと勘違いしていました。
495:login:Penguin
09/01/12 04:47:57 nRZhkl6m
Promiseという時点でそもそも
496:login:Penguin
09/01/12 13:44:42 /Son47ik
オンボードの、promiseと刻印されたあのチップは何?
497:login:Penguin
09/01/12 17:33:13 odrqpoZ2
FakeRAIDは、専用のインタフェースチップ使うよ。
URLリンク(itpro.nikkeibp.co.jp)
498:login:Penguin
09/01/12 17:50:42 gg7V03n9
>>496
URLリンク(www.promise.com)
IDE,SATAのインターフェイスを作っている会社。
他にもストレージ関係をやってるのかな?
ハードウエアRAIDの会社のイメージは無いな。
499:login:Penguin
09/01/12 22:04:06 /Son47ik
promiseといえば、raidのイメージが付きまとうのは、
昔、大きなraidのpciカードの黄色い外箱に、promiseと書いてあったからだ。
500: ◆Zsh/ladOX.
09/01/12 22:57:48 HR1zAo8l
sx4000使ってたけど。
悪いイメージは無い。
数年前にPC内の画像を晒した記憶あり。
501:login:Penguin
09/01/13 21:30:47 UzNBMlny
今、debian etchのamd64でHDD2台を使って
ソフトウェアRAIDでミラーリングしています。
技術力の不足から、amd64をあきらめてi386バージョンを
インストールしてやり直そうと考えているんですけど
この場合、RAIDを解除して1台目のディスクにi386をインストールした後に
2台目のディスクからデータをコピーして、改めてミラーリングの設定にする
ということは可能ですか?
502:login:Penguin
09/01/13 22:15:55 UQqV5nIq
degradedになっても良ければ
503:login:Penguin
09/01/13 22:26:17 UzNBMlny
>>502
degradedってのを調べて見ました。
それって、一時的ってことですか?
それとも、i386で改めて新しくRAID1を構成しても
後遺症的なものが残るという意味ですか?
504:login:Penguin
09/01/13 22:37:13 JlH/mAiu
解除もクソもi386インスロースした時点でRAIDの情報消えてるんじゃないの?
505:login:Penguin
09/01/13 22:40:26 UzNBMlny
>>504
インストールするのは、1台目のHDDだから
2台目のドライブは、ケーブル抜いてしまえばいいんじゃないかと考えてたんですが。
インストール後に、ケーブル繋いでマウント・・・ってのは無理なんですか?
506:login:Penguin
09/01/13 22:47:11 JlH/mAiu
あーデーターの移行の方法ね。
普通にマウントしてコピーしてから、mirrorの設定して2台目上書きすればいいと思うよ。
507:login:Penguin
09/01/13 22:50:34 UzNBMlny
>>506
ありがとう。細かな手順調べて、実行してみます。
508:login:Penguin
09/01/14 14:35:19 0aFf9qq6
>>488
>>497
ためになりました。ありがとう。
509:login:Penguin
09/01/15 01:12:00 9+zR18Pi
>>494
dmraidは、つまり、mdのラッパーオブジェクトのようなものだと考えればいいかな。
ただし、>>497 で引用されているように、
dmraidは、biosで管理されているraidの設定情報を使用しているわけか。
だから、ataドライバの読み込みの時点で、代わりにdmraidが使用されて、
そのraid構成が有効化されるのだね。
すなわち、dmraidでは、通常の非アレイディスクのように認識させることも可能なんだ。
この考え方で、
合ってますでしょうか。
510:login:Penguin
09/01/15 14:26:29 knA7Hlz9
BUFFALOのeSATA外付けHDD(RAID1)をLinuxにつないで使っています。
HDDに不具合が生じた場合、それを確認する方法(ツール・アプリ)はないのでしょうか?
511:login:Penguin
09/01/15 14:34:19 Rfu3LZdb
BUFFALOに聞けよw
512:login:Penguin
09/01/16 02:11:08 32Awgl8B
fakeRAID(BIOSraid)で、ミラーリングアレイを構築、そしてFedora7で使用しています。
障害発生時に備えて、試しに、ハードディスクを一つを外してみました。
BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。
device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。
ついに、Kernel Panicで停止しました。
レイドアレイが正常ではないのでそれはそうだろうと思い、
BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。
単体のハードディスクで起動を試みようというわけです。
ブートローダーが動き、カーネルの読み込みが始まります。
しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。
これは意外でした。
自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。
つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。
しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。
教えてください。
513:475
09/01/16 03:08:08 32Awgl8B
475です。
連投ですみません。別件の問があります。
>>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました)
-----------------------------------------------------------------------------
<Fedora10での結果>
/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm
-----------------------------------------------------------------------------
ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、
下記のようになります。
これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、
そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。
fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。
このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。
Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか?
----------------------------------------------------------------------------------------
<Fedora7での結果>
Filesystem 1K-ブロック 使用 使用可 使用% マウント位置
/dev/mapper/VolGroup00-LogVol00
148297964 29496048 111147312 21% /
/dev/mapper/pdc_dacjp1
101086 19396 76471 21% /boot
tmpfs 2032296 0 2032296 0% /dev/shm
514:login:Penguin
09/01/16 03:13:14 rwDT7nUQ
LVMの問題ではなくて?
515:login:Penguin
09/01/18 13:33:02 mOdWiiXB
mdadm使いにくいよー
raidtoolsのほうがバタ臭いけどいい
mdadmで一番むかつくのが良くわからないタイミングで
ディスクがspareにされて、元に戻したいのに戻せない。イライラ
516:login:Penguin
09/01/18 22:48:12 06Dcpdo5
raid6がお亡くなりになった。
HDDというよりSATAカードが死亡したっぽい。
(玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。
今回は玄人志向がお亡くなりになった。)
再起動してカードは復活したみたいなので
(配下のHDDが/devに戻ってきた&badblocksが通った)
HDDをArrayに追加しようとしたが
配下のHDDが全部faulty removedに落ちちゃってて
mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。
このスレの64氏の現象に近い気がするが、
superblock書き換えなどは出来る自信ないので
mdadm -Cで再度Array構築しなおした。
ここんとこバックアップをサボってたから結構痛いわー。
つーかもうSATAカードとかあまり使わないで済むように
ちゃんとしたファイルサーバ組んだ方がいいな。
517:login:Penguin
09/01/19 00:09:08 L7Ubbq6r
カードまたいでRAID5/6組んでたら、カード死亡には対応できんよなぁ。
カード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。
カードを1枚にしてそこに全部ぶら下げればカードが死んでも
全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。
同じ考え方で、台数が必要な場合はSATAカード2枚準備して、
SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、
同じカードのSATAポート群とかカードのRAID機能でRAID5/6を
作ってそれをmdで繋げるとか。
518:login:Penguin
09/01/19 06:19:37 CHw0KQY0
>お亡くなりになる
やめてください、そういう表現。
葬式の臭いがしてくる。
519:login:Penguin
09/01/19 10:43:16 L7Ubbq6r
は?
520:login:Penguin
09/01/19 17:06:36 426uxyHi
カード死んだら葬式みたいなもんだろ…
521:login:Penguin
09/01/19 17:30:39 /o7gcRDM
データさえ生きてりゃ今夜が山状態だろ。
522:login:Penguin
09/01/19 17:38:24 hR5pv9yI
>>515
次に使うまでに
一度「バタ臭い」の意味を調べた方がいいと思う。
523:login:Penguin
09/01/19 19:31:23 AVvVP96W
○バタくさ・い【―臭い】
(形)
〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。
「―・い表現」「―・い顔立ち」
◎きなくさ・い 4 【きな臭い】
(3)なんとなく怪しい。うさんくさい。
「どことなく―・い話」
三省堂提供「大辞林 第二版」より
524:login:Penguin
09/01/19 20:42:12 8LWc0G4T
西洋人は信用するなって事ですね。
525:ライナス
09/01/19 21:21:54 CHw0KQY0
もともこもない
526:login:Penguin
09/01/20 11:04:32 QUoqwrOB
いままで、raid1で十分だと思っていた。
でも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。
そこで、raid5の出番である。
ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。
で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。
ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。
ディスクが安価な今は、冗長な構成でも苦しくないね。
カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの?
カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。
527:login:Penguin
09/01/20 11:39:38 tmOakhLn
復旧可能かどうかはカードの壊れ方次第では。
壊れた結果ムチャクチャなデータを
デタラメに書き込まれたら
どう頑張っても復旧でけんだろう。
カードが壊れやすいかどうかは
これまたカード & 運次第かと。
俺は一度も壊れた経験ないけど。
528:login:Penguin
09/01/20 11:45:10 gBT8fCPT
>>526
日頃の行いが悪いからHDDが壊れる。
529:login:Penguin
09/01/20 13:11:48 jayBGkBw
>>526
なんつーか理解してないな
> ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ
> カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それが>>517
> それから、そもそも先に不良セクタをマークしておいたら、
経時の不良セクタ発生に対処できない
まぁカードが壊れることはそれほど多くない。
業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。
530:login:Penguin
09/01/20 18:33:36 n7Hnf9Lk
516だが再構築の際エラーが出て停止
その後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり
ついにはbadblocksも通らないHDDが出始めた
もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも
と思っていた時
海門のニュースを知った
6台が該当です。
本当にありがとうございました。
531:login:Penguin
09/01/20 18:46:34 AAZq+mqB
RAIDを組むハードディスクは、製品や製造ロットを同じものにしないほうがいい、というのは本当だったか。
530に同情するよ。サーバーが落ちても気は落とすな。
532:login:Penguin
09/01/20 20:46:45 3icForSX
>>531
基本中の基本
RAID1ペア組むときはメーカーから変える
533:login:Penguin
09/01/20 21:20:12 QUoqwrOB
>海門
=sea gate
ファームウェアの不具合の件ですよね
困るよなあ、といいつつ、私も、そのメーカーのディスクでした。
ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。
壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。
534:login:Penguin
09/01/21 11:28:11 KNJKiqg2
以前は同じモデルでも容量がちょっと違っていて、
交換したら容量不足で使えないという悲しいことが
ちょくちょくあったが、
最近は違うメーカーでも問題が起きなくなったので
ありがたい。
535:login:Penguin
09/01/21 12:56:36 1/Cy7HwZ
いつ消えるか分からないメーカーのサービスに期待して全領域使っちゃうのは馬鹿だろ
保証されてるのは例えば500GBなら500,000,000,000Bまで。
536:login:Penguin
09/01/21 13:04:54 xEzc7nEM
ぴったりの500GBのディスクが無ければ、
750GBのディスクを買えばいいのに。
537:login:Penguin
09/01/21 14:35:01 Lxj+eixA
同じモデルって前提だろ
バカか バカなのか
538:login:Penguin
09/01/21 15:07:49 +OFl4BAS
個人でしょぼいRAID5環境を動かしていましたが
ばっちりRAIDカードが壊れたことあります。
というか、フェイクRAIDしか無いカードをmdで使っているのに
RAIDカードと言うのか?とは思います。
玄人志向の4ポートPCI SATAカードでした。
C7のSATA2ポートなM/BでRAID5をやるために使いましたが
一年弱で、4つのうち一つのポートが動作しなくなりました。
予備HDDはあったので、HDDを入れ替えても認識せず
よくよく調べると、カードのほうが死んでいたというオチ。
急場をしのぐために、オンボードのSATAポートとの混在RAID5として
そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換)
今はPCIeの1430SAで、あえてmdドライバー。
ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか?
とりあえず、普通に抜き差しするとダメっぽいのですが…
チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…
539:login:Penguin
09/01/21 15:42:19 C3awCYv6
普通に抜き差しでok。sata_sil24のはずなので対応してる。
多分カーネルが古いのが原因。
540:login:Penguin
09/01/21 15:47:09 xqg3zZth
外す前にこれでHDDの電源を落としておく方が安全
# echo 1 > /sys/block/sdX/device/delete
541:login:Penguin
09/01/21 15:47:43 NpsqSYmx
ロット揃えたほうがパフォーマンス良さそうなのでRaidアレイ組むときは毎回揃えてるけど、
豪快なロット不良見ると怖くなるな。
542:538
09/01/22 02:32:04 9i3fv5RC
>>539,>>540
ありがとうございます。試してみたらできました。
というかオチがあります。
これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか?
たとえば、普通にfdisk -lには出てきます。
HDDを止めて再スピンアップさせることで初期化が行なわれて
現在接続されているHDDの情報に書き換わるという挙動のようです。
で、以前はHDDの停止と再スピンアップなどは行なわなかったために
差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に
ホットプラグが正常になされていないと判断していました orz
#/sys/block/sdX/device/下のファイルについては
#どこ探せば情報が見つかるものでしょうか…
543:login:Penguin
09/01/22 15:19:59 CwsVQNf2
>>541
> ロット揃えたほうがパフォーマンス良さそうなので
意味が分からない
544:login:Penguin
09/01/22 15:31:18 7lkmeW2Z
昔はRAID組むなら同一型番できればロットも揃えようっていう風潮だった。
型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。
その場合ベンチの結果も微妙に変わる。
アクセス速度近い方が効率よさそうじゃん。
当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから
ロットくらいはばらした方が良いって言う人もいたけど。
545:login:Penguin
09/01/22 20:50:46 u0UB26l/
ロットどころかメーカーからばらす。
まぁ結局はRAIDに何を求めるか、なわけだが、
あるのかかどうか分からないパフォーマンス向上を目当てに
同時故障リスクを採る選択は、俺はしないね
546:login:Penguin
09/01/22 21:43:17 xRfSeFjv
>>540
そんな/sysの下の物体の情報って、一体どこで見つけるの?ソース?
俺はいままで
sdparm -C stop /dev/sda
とかしてたよ。
547:login:Penguin
09/01/22 21:57:04 u0UB26l/
>>546
基本はソースだけど、その場合むしろsdparmの方がいいんでは?
/sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる
548:login:Penguin
09/01/23 01:31:55 iL0wYbEo
>>544
昔って何十年前の話?
549:login:Penguin
09/01/23 01:35:42 gP0PPzWy
5年前
550:login:Penguin
09/01/23 03:37:27 93gY8ymT
ディスクアレイはロットは知らんがメーカーと型番くらいは揃ってるな。
メーカーバラバラだったら同じ所からは二度と買わんわw
551:login:Penguin
09/01/23 12:07:20 3M4C0RkK
>>549
俺の周辺の風潮では5年前でも
安全のためにロットは揃えるな
だったが。
ま、地方によって違うんだろうな。
552:login:Penguin
09/01/23 13:08:14 7Cxp47f1
まだDECがあったころ、導入したDECのサーバーは業者が段ボール箱から次々とHDDを
取り出して組み込んでいたから同じロットだったんじゃないかと思うんだが、記憶が確かではない。
それが俺のRAID初体験なのでロットのことまで気が回らなかった。
HDD組み込み済みのRAIDボックスはどうなんだろうか?同一ロットにならないようにしているのかな?
ちなみに自分で組むときは、新しく買ってきたやつと予備としてストックしてあるやつを混ぜて使うようにしている。
553:login:Penguin
09/01/24 04:31:39 ptL5pKyY
>>533
シーゲートのファームウェア不良の件、
ウインドウズ用には、不具合検出用のツールがあるが、
どうしてリナックス用にはないのだろう。
リナックスユーザーは多いだろうに。
それとも、あるんですか?
554:login:Penguin
09/01/24 07:30:04 u99vPwbM
>>553
切捨てられてるんだろう。いつものこと。
555:login:Penguin
09/01/24 13:11:53 Di00Ifqv
検出専用ソフトではなく
CD版のSeatoolsでブートすりゃいいんじゃないかと思うが
556:login:Penguin
09/01/24 21:47:35 ptL5pKyY
ありがとう
557:login:Penguin
09/01/28 00:26:06 ir2fam9u
#mdadm -C /dev/md0 -l5 -n4 /dev/sd[bcde]1
で、cat /proc/mdstatで状態見るとリビルドしてるけど なぜか[UUU_]
はあ?と思ってmdadm -D /dev/md0 してみると
/dev/sde1 がspare rebuildingになって勝手にspare扱いになってる。
意味がわからない。スペアなんか作りたくないし。そんな指定はどこにもしてない。
エスパーレスおながいします。
558:login:Penguin
09/01/28 00:38:08 LK11AqVS
>>557
zero superblockした?
559:login:Penguin
09/01/28 07:15:42 ir2fam9u
>>558
sdb1~sde1 全部にmdadm --zero-superblock してみましたが
変わりませんでした。
こうなるのも謎です。なぜ[4]なのか・・・
>md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]
560:login:Penguin
09/01/28 07:34:42 LK11AqVS
mdの構成対象外でも、システム内に3に相当するsuper-minor番号の
パーティションがあるとそうなるかも…
# mdadm --examine /dev/sdb1
するとどうなります?
561:login:Penguin
09/01/28 07:39:07 ir2fam9u
こうなりました
/dev/sdb1:
~
(長いので省略、多分あまりこの部分は関係なさそうです)
~
Number Major Minor RaidDevice State
this 0 8 17 0 active sync /dev/sdb1
0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty
4 4 8 65 4 spare /dev/sde1
562:login:Penguin
09/01/28 13:57:54 3QasENir
よく分からんけど、
単にhdeが故障してfaultyになっただけなんでわ。
hde交換してみれば?
>>431みたいなこともあるし、
SW-RAIDのハードウェア異常時の表示は
あまり信頼しない方がいい。
563:login:Penguin
09/01/28 13:59:12 3QasENir
なんか変だな。
× あまり信頼しない方がいい。
○ あまり信頼できない。
だね。
564:login:Penguin
09/01/29 01:18:01 PTiNMDCX
>>561
他のデバイスもexamineしてみると、違いから何か分かるかもしれない。
あと新規構築時にはパリティが不整合の状態なのでresyncするのが通常動作。
でもresync時の追加パーティションってspare表示になる仕様だったっけか?
565:login:Penguin
09/01/29 06:27:34 12B6/rA+
mdadmでRAID5を設定してるんですが、RAIDを構成してる各ディスクを
hdparmでスタンバイに移行するように設定しても大丈夫でしょうか?
566:561
09/01/29 07:16:39 WiRmM86x
[UUU_]でリビルド完了を待ったところ[UUUU]になって
sde1[3]になりました。原因はよくわかりません。
567:login:Penguin
09/01/29 19:37:09 PTiNMDCX
>>566
たぶん構築時リビルドだろう
ためしに1台をfaulty removeしてもう一回追加、同じ現象になったら間違いない
568:561
09/01/30 21:48:37 pZmCaYyi
>>567
今回は初めての事象なんですが
Linuxかmdadmがアレイ対象のドライブではないどこかに情報覚えてるってことですよね
それを消せればいいような気がします
569:login:Penguin
09/01/31 21:10:43 INV0scHx
>>568
調べるとしたら設定ファイルとしてはmdadm.conf
場所は/etcとか/etc/mdadmとか
570:login:Penguin
09/02/08 22:42:30 Ey2JVBl4
全国のmdadmファンのじょしこうせいのみなさ~ん
みんな知ってるかなぁ?RAID0ってgrowでボリュームを大きくできないんですよ。
で、当然のごとく、RAID10もできないのですよ。
4wayのRAID5をでかいHDDに差し替えていって、grow機能で
250GBx4から500GBx4に移行したことがあったんだけど…
今回は1TBx4に差し替えつつ500GBパーティションx4の
RAID5とRAID10を作った上で、データを移し
1TBパーティションx4に移行しようとして
いざそこまできてgrowできないことを知ったという orz
こういうのをトホホって言うんだと思った。
まぁ、reiserfsからXFSへの切り替えもあったし
なんとかmissing付きでRAID10を起動したりして片付けた。
将来もっとでかいHDDに移行するときは
それなりの用意をせざるをえないなぁ…
571:login:Penguin
09/02/08 23:27:56 Nj6iWNXA
えらくピンポイントだなw
572:login:Penguin
09/02/09 12:39:22 9FAXyoAI
LVM組み合わせれば
RAID自体のボリューム拡張できなくても
実用上は問題ないんじゃ
573:login:Penguin
09/02/09 12:46:53 Eg6suWBI
>>571,572
えらいおっさん臭いじょしこうせいだな
574:初心者の通りすがり
09/02/16 21:37:32 4jXnyPos
お忙しいところ恐縮ですが、質問があるのですが、
誰かお助けを・・
1、mdadmなどのソフトウェアRAIDで、HDDの不良セクタを自動回避するプログラムは組み込まれているのでしょうか?
それとも、セクタ不良の箇所が出た時点で、HDD交換になってしまうのでしょうか?
2、もし、上記のシステムが組まれている場合、HDDに標準で搭載されている機能として、実際に使用者が確認出来る不良セクタは
ハードディスクの隠れ領域の余裕空間に代替された不良セクタがそれ以上代替出来る空間がなくなって現れる使用(いまどきのHDDはみなそうですよね?)はずですが、
代替のセクタが現れている時点でセクタのゆとりがなくなっているわけで、そのため、そのセクタを不良セクタとして認識する必要があると思います。
しかし、RAIDの場合、すべてのHDDの同じアドレスのセクタを使用不能にする必要(仮に他のHDDのセクタが正常でも、1うのHDDが以上であれば)があると考えられますが、
これらの対応はされているのでしょうか?
3、可能であれば、RAIDとしてアレイに組み込む前に、HDDのセクタチェックをしてから、アレイに組み込めればと思うのですが、
そのようなLinuxプログラムはあるのでしょうか?(ものすごい時間かかるPGのような気がしますが・・)
RAIDその他に関して、初心者で的外れな質問の可能性がありますが、お教えいただければ幸いです。
よろしくお願いします。
575:初心者の通りすがり
09/02/17 01:22:44 FIlRA3Ek
自己レスです。
3、のセクタチェックは、mkfs の -c オプションがその任を担っている事が分かりました。
またbadblocks という同じ機能を持つものも発見しました。ただどうやらRead checkだけのようです。
576:login:Penguin
09/02/17 01:34:14 rlTL3AkS
つ badblocks -w
577:login:Penguin
09/02/17 01:56:17 ljmr48rY
>>574
1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
mdのレイヤだと特になし。FSは実装次第。
SMARTで異常値が出るような状態なら普通は交換処置。
2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
従って
>すべてのHDDの同じアドレスのセクタを使用不能にする必要
はない
3: 上に書いたようにセクタチェックは別のレイヤの仕事。
RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが
578:login:Penguin
09/02/17 02:17:44 IoPZgIsc
rebuild 時に sw RAID1 が壊れたという話をちらほら聞くけど、
これどうなってるの
579:初心者の通りすがり
09/02/17 02:26:38 FIlRA3Ek
お返事ありがとうございます!
> 1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
> mdのレイヤだと特になし。FSは実装次第。
> SMARTで異常値が出るような状態なら普通は交換処置。
なるほど、それではRAIDにおける致命的なHDDの時期というのは、HDDが認識しなくなったような場合だけと
いうことでしょうか?(ここでの質問では適切なHDD交換時期、不良セクタが多くなった場合などを考慮せず、
まったく使えないという状態におけるHDDの交換についての件です)
ここで、疑問なのですがinode領域などのセクタにおいても、RAID 1なり5なりでデータを復旧できる場合には、
問題なく利用できると考えても大丈夫なのでしょうか?
また無学で恐縮なのですが、このSMARTについて少しご教授いただけませんか?
> 2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
> そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
> 従って
> >すべてのHDDの同じアドレスのセクタを使用不能にする必要
> はない
580:初心者の通りすがり
09/02/17 02:28:11 FIlRA3Ek
認識が違っているかもしれませんが・・
このLBAの自動交換は、HDDの代替セクタがある場合そうだと思うのですが、すでに代替
セクタが無い場合、表に見えてしまうと思いますが、mdadmなどはブロックデバイスとして
活動しているということは、LBA(シリンダとセクタから計算されるやつですよね、たしか・・)
を基準に管理されているとなれば、ミラーリングなどで、データをそっくりコピーする仕組みのもの
などは、不良セクタによって、大きな問題になるのではないでしょうか?
よくWEBでも見かけるのは、死んだHDDの代わりにスペアHDDをいれて、Rebuildしている最中に、
不良セクタが発見されて、両方死んでしまったという話も聞きます。
ここでもし、不良セクタ(セクタという言い方が悪いかもしれませんのが、LBA(Logical Block Address)と読み替えていただければ幸いです)
を発見したときに、正常なHDD側のデータを他の未使用セクタに移動させ、不良セクタとして使用不可にして、すべてのセクタの同期を取ることができれば、問題は小さいのではと
考えた次第です。
> 3: 上に書いたようにセクタチェックは別のレイヤの仕事。
> RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
> ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが
すみません、そうですよね・・mkfsではRAID構築後なのでどのような動きになるのか、
ちょっと分かりませんが、RAIDシステムがセクタ不良とか見えなくしてしまいますよね。
ちょっと勘違いをしていました。ということは、HDDをセクタ単位でチェックするして
、不良セクタがあったら故障フラグを立てる機能のものはない感じでしょうか?
こんな遅い時間にお答えいただきすみません。
581:初心者の通りすがり
09/02/17 02:48:36 FIlRA3Ek
SMART分かりました!
URLリンク(hddbancho.co.jp)
なるほど、HDDの持っている情報のことだったんですね。
このページの考え方からすと、代替セクタがなくなったら、HDDは故障と見做すため、
RAIDシステムでは、このような表に出てきたセクタ不良を解決できていない可能性が高いですね。
ただ、ここにもあるように定期的なリフレッシュが無いと唐突なセクタ不良が、代替セクタの有無に関係なく
でるので、やはり本当はRAIDで対応したほうがよい気がします。(役割的に)
もちろん、Googleの研究成果(不良セクタが出始めたら(代替セクタがなくなったら)HDDの寿命が2次曲線的に劣化する)
もあるのでHDDの交換時期については議論が分かれると思いますが、上記の問題はちょっと違う気もします。
582:HDDからSSDへ
09/03/12 09:35:49 yKkrCTUa
SSDを使うようになれば、もうRAIDは必要なくないですか。
583:login:Penguin
09/03/12 10:14:53 sI0gyPRm
必要ないと思うならそれでいいんじゃないの。
584:login:Penguin
09/03/12 11:55:03 nculPVj6
>582
つ冗長化
585:login:Penguin
09/03/12 12:24:21 unsLfwpp
そうだね。
SSDは故障することは
絶対にないから
RAIDなんて不要になるね。
すばらしいことだね。
586:login:Penguin
09/03/12 22:00:05 yKkrCTUa
SSDの書き込み速度はともかく、読み込み速度は、SLCではかなり高速なので、
冗長化のために、RAIDを使うという意味合いも薄れてくるように思える。
これから、SSDの容量も現在のHDD並に増えていくだろうと思う。
RAIDとSSDとの関係は本当にどうなるのだろう。
587:login:Penguin
09/03/12 22:03:50 f8xSmkwI
>>586
冗長化の意味間違って覚えていないか?
588:login:Penguin
09/03/12 22:21:41 yKkrCTUa
あっ、ごめん。
今読み返したら、おかしいって思った。
ssdは壊れないので冗長化する必要はない、と使うべき。
でも、ストライピングのことは日本語でなんていうんだろう。
589:login:Penguin
09/03/12 22:47:16 nculPVj6
へー壊れないの?すごいね
590:login:Penguin
09/03/12 23:17:36 ZcXhWDBc
春だなぁ
591:login:Penguin
09/03/12 23:36:46 xwF18dEu
まだ基幹システムとかではフラッシュメモリのSSDは使われていないからね
あの分野でのSSDといえばDRAMをバックアップ電源で保護しているものだからな
592:login:Penguin
09/03/13 00:18:53 xF/8kpEU
>>591
Acard ANS-9010ですね。わかります。
593:login:Penguin
09/03/13 00:21:33 gAax1MH3
今普及している方のバックアップ電源不要のSSD(SLCタイプ)の寿命は伸びているし、
そもそも、稼動部分がないので、壊れないと考えてもいいんじゃないですかね。
594:login:Penguin
09/03/13 00:24:13 khYqmRB3
.| | | | | | | | | | || | |
.| | | レ | | | | | J || | |
∩___∩ | | | J | | | し || | |
| ノ\ ,_ ヽ .| レ | | レ| || J |
/ ●゛ ● | .J し | | || J
| ∪ ( _●_) ミ .| し J|
彡、 |∪| | .J レ
/ ∩ノ ⊃ ヽ
( \ / _ノ | |
\ " / | |
\ / ̄ ̄ ̄ /
595:login:Penguin
09/03/13 00:31:59 HFjGgXnG
ID:gAax1MH3
596:login:Penguin
09/03/13 00:34:36 gAax1MH3
不良セクタですか?
597:login:Penguin
09/03/13 00:37:05 FglLNM8V
SSDの仕組みの説明だけ読んで
長所短所の説明は読んでいない人っている?
そもそもWindowsだとRAID0がRAIDの中心みたいに考えている人も多いけど
一般的にはRAIDの中心にあるのは、可用性の向上にあるわけで
SSDを用いることで、RAIDが不要になるってことは、かけらほどにも無い要素でしょ?
速度面では、SSDがSATAの速度を満たしたとしても
メモリーバスよりはるかに遅いストレージにストライピングが不要ということは無いし
大容量のものほど割高なストレージの特性からも、ストライピングは有用。
可用性においては、フラッシュメモリーSSDの耐久性は
無限なわけでもなく、加速テスト的な使い方で壊して見せている人もいる。
RAID1,5,10が不要なわけがない。
というか、たとえDRAMだって、壊れることはあるし
SSDの制御基盤レベルの故障だって、理論上はある。
#まじれすかこわるい
598:login:Penguin
09/03/13 00:39:47 E2+gGF86
まじれすかっこいい
599:login:Penguin
09/03/13 00:48:09 gAax1MH3
>>597
私は、リナックスでソフトレイドで、ミラーリングしか使ったことがありません。
SSDでも物理レベルで壊れるんですか。
ということは、SSDでさえもミラーリングが要りますね。
すみません。マジレスありがとうございます。
でもわからない点がいくつか。
可用性とはどういう意味なのでしょうか。耐久性の向上という意味なのでしょうか。
マジで、意味がわかりません。可用という単語を私は日本人なのですが辞書で引きました。
載っていません。直訳してみれば、「用いることができる性質」ということですよね。
専門用語らしいので、どういう意味を一般的に指すのかピンときません。
600:login:Penguin
09/03/13 01:02:52 nEmQi6SY
>>599
「可用性」でぐぐれよ……。最初に答えが出てきてるのに。
つか、RAIDを語るのに可用性を知らんて、議論以前の問題だろ。
あと、SSDが壊れないってどれだけ頭がお花畑ー。
データセンタじゃ、HDDどころか、電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ。
601:login:Penguin
09/03/13 01:17:57 gAax1MH3
>電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ
密封固体コンデンサになったんで、もう、茶色い花が咲くことはないだろうと喜んでいたんですが、
やっぱりこれも甘いですか。
でも、いったいどうして、それらのデバイスは壊れるんでしょうかねえ。
どうして、見たところどうもなっていない電源が壊れているのかわかりません。
どこが物理的に壊れているんでしょう。
ソフトウェアは壊れない。ハードウェアが壊れるんだ。
私のつくったソフトは壊れたことがないですが、ハードウェアが壊れるんで、
放っておくことができなくひどく残念です。
ハードウェアさえ壊れなければ、安泰なのになあ。
(すみません、Windowsと、Linuxが壊れてしまったら私のもだめですよね)
602:login:Penguin
09/03/13 02:45:00 IObRXwbU
gAax1MH3が壊れてる件について
603:login:Penguin
09/03/13 02:56:17 gAax1MH3
ついに、ばれたかー。602は、なかなか鋭いな。
そう、わたしの本体は、ハカセがつくった人工知能プログラム。
だから、低レイヤーのことはアクセスできず何もわからないんだー。
以上の冗談はおいて、おいて、
>>601について、マジレスを希望しています。
604:login:Penguin
09/03/13 04:37:32 B/yX40Kk
ソニータイマーと同じ。
以上
605:login:Penguin
09/03/13 05:41:36 HFjGgXnG
>>602
それをニヨニヨしながら見守るのが今の流れです
606:login:Penguin
09/03/13 07:13:37 gAax1MH3
>ソニータイマー
そういうのもあるんですね。初めて知りました。
でも、たとえば半導体なら、どういう機序で破壊されていくのでしょうかねえ。
タイマーが短い素子ってなんでしょうか。
CPUや、DRAMのタイマーは何がそうしているんでしょうか。内部の細い線の蒸発?
607:login:Penguin
09/03/13 12:09:30 4rdjPXAi
形あるものは、何であれ、いずれは壊れるよ。
こんな当たり前のことを知らないなんて、
リアル小学生か?
608:login:Penguin
09/03/13 15:23:16 HSB+9X6W
SSDでもHDDでもRAIDで雑誌に取り上げられるのはRAID0での性能ばかり
なんでRAID0使う理由があるの?冗長性が無いじゃん
609:login:Penguin
09/03/13 16:13:48 6eQQWDsF
スレが妙な流れなので、清めます。
もっちゃらへっぴ~もけもけさ~
610:login:Penguin
09/03/13 22:55:58 OBlhHJW3
SSDはディスククラッシュはないから、SMARTでの寿命予測の信頼性が
上がって、結果としてRAID0でもOKOKとなる可能性はあるね。それでも
事故時には全部吹っ飛ぶけど、最大の事故要因が潰れるだけでも
従来のRAID0よりははるかに安心できる。
611:login:Penguin
09/03/13 23:34:38 HSB+9X6W
性能を上げたければRAID0+1にすればいいのに
なんで冗長性の無いRAID0にするのか良く分からん
612:login:Penguin
09/03/14 00:18:48 AaTK9Cfj
そこはそれ、RAID10(0+1ではなく1+0)が注目されたのは
HDDの低価格化がより進んだ最近のことだから
まだ、雑誌記事としての啓蒙が進んでいないんじゃないかな。
うちは今年になってから
500GBx4のRAID5を1TBx4のRAID10に切り替えた。
WDのgreenを選んだから、読み出しは500GB(7200rpm)の頃と
比較していないけど、書き込みは速くなって満足してる。
個人的には、動画のCMカット(無再圧縮加工)には
少しでも速いストレージが欲しいと思ったことがある。
Windowsだと、起動速度に執着している人が多いかのように思える。
そういうところにRAID0需要はあるんだと思う。
一基のHDDで大容量を求めるのは、割高でありながら…
故障時のダメージも相対的に大きくなるから
RAIDで複数のHDDをまとめつつ、可用性も高めてウマー
(1TBのRAID10は2TBのRAID1より安上がりって話)
613:login:Penguin
09/03/14 03:04:45 +IDPI/cW
>>611
01なんて普通なら使わないです。
信頼性を考慮すると10が常識。
614:login:Penguin
09/03/14 06:40:18 eu5MmVwN
IBMとかは01しか対応していなかった気がする。
615:login:Penguin
09/03/14 15:38:20 2/177OkX
RAIDの0+1と1+0、10と01はどっちがどっちか定義が無いのでは?
普通はボリュームの故障の確率が低い方の実装にしているのでは?
616:login:Penguin
09/03/14 16:54:41 eu5MmVwN
>>615
正式な定義はないけど、1の0か、0の1か使い分ける人は多い。
可用性が違うからね。
617:login:Penguin
09/03/14 17:18:40 Knf4U3C2
普通は複数のミラーセットに対してストライプするもんじゃないの?
618:login:Penguin
09/03/15 01:26:01 olaDXg82
そうでないメーカーがあるから困る。
619:login:Penguin
09/03/15 08:21:40 Fo/VUGZ3
そうでないパターンって、複数のストライプセットに対してミラーするってことだよな、
それは嫌だな… 例えばどこのメーカ?
620:login:Penguin
09/03/24 04:51:17 Fl6r1xEy
>>610
raidなしでssdだけでも、hddを用いる場合に比べれば、
はるかにましですよね。
621:login:Penguin
09/03/24 06:54:13 GdGyk/Hx
SSDをそれだけ信じる根拠がどこにあるのかな?
加速試験で壊して見せている人はいるわけで
壊れないわけでは無いことはわかっている。
それに対して、SMARTが万全の予測情報を
提供できているか?が鍵だと思います。
"HDDよりはまし"とするためには
もっと実績が積み上げられた後で
やっと言えることだと思います。
HDDにおいてもSMART信者を裏切る結果は
部品の突発故障によるところが大きかったとして
電子部品の突発故障が無いわけではありませんし…
SSDだからといって、設置環境を甘く考えることもできないと思います。
622:login:Penguin
09/03/24 06:59:52 yXjFESP8
>>620
頻度が低かろうが、故障時にサービス停止するんだから全然ましじゃないだろ
623:login:Penguin
09/03/24 20:14:58 VoImn6kH
Linux(CentOS5.2) のソフトウェアRAIDで以下のことができますか?
今ある 1TB HDD のデータを
3台の 1T RAID5 に移動
移動後に RAID5 を4台にマイグレーション
624:login:Penguin
09/03/25 09:41:42 sNgyW6do
>>623
mdadm -C /dev/md0 -l 5 -n 4 /dev/sda{2,3,4} missing
mdadm /dev/md0 -a /dev/sda1
かな。要するに構築時に1台missingという名前でエントリだけ確保して、
後から突っ込んでやればいい。
625:login:Penguin
09/03/25 20:13:36 1HBgtKKu
Tyan の h2000m に sil3124 と sil3132 をさしてますが、
共に UDMA100 で connection?link? を張っているようです。
HDD は UDMA133 capable です。133 にする方法、
ご存知でしたら是非教えてください。
kernel-2.6.27 です。
626:625
09/03/26 00:48:23 s/iQ1Fg+
well known issue のようですね。
じぶんで sata_sil24.c をごにょごにょします。。
627:login:Penguin
09/03/28 18:21:28 xjWJzCpR
320x5→1Tx5に移行中
12時間以上経過してるぉ
628:login:Penguin
09/03/29 06:55:07 caGsjIVd
>>627
Raid5 1TBx4 を 1TBx5 に grow したときは丸一日
かかったかなあ。5400rpm だし遅くて遅くて。
>>624
-C (create) には -f (force) が要るかも。忘れちゃった。
あと /dev/sd[a-c]1 missing とかじゃね?
629:login:Penguin
09/03/29 20:58:56 pjONbMZq
>>628
フォロートン。間違えてた。/dev/sd[a-c]1だね。
まあ機能的にはこんな感じだよってことで後は元質問者ガンガレ。
630:login:Penguin
09/04/03 07:34:17 WOwrcBYH
URLリンク(pc.nikkeibp.co.jp)
こんなシステム作ったときにバックアップってどうするの
同じ構成のシステムでミラーするとか?
631:login:Penguin
09/04/03 08:12:11 xpbRoEEl
ミラーはバックアップじゃないよ
間違えてファイル消したらミラー間同期で全部消えちゃう
普通のRAID装置は筐体に運用とバックアップと複数ボリュームを用意できる
つーかこの記事の著者はバカだろ
RAID5や6は1台、2台の冗長ディスクで理論上は10台でも100台でもRAIDボリューム作れるけど
普通は故障率を減らしたり、縮退時の性能低下を抑えるため
1ボリュームでせいぜい10台ぐらいだよ
632:login:Penguin
09/04/03 08:33:56 tezpleBo
>>630
ディスク台数が多いとRAID6の2台まで故障OK程度ではまったく信頼できないと思うのだが・・・
結局RAIDはRAID1が一番使いやすいような。RAID1+LVMで書き込みも散らせるし。
633:login:Penguin
09/04/03 09:56:06 OmCEVJsy
まぁ個人で作る規模では・・・と言ってるし
バックアップも取ってるみたいだからいいんじゃね?
会社の仕事でこれやられたらたまらんがw
634:login:Penguin
09/04/03 10:41:28 yNfGsC6L
会社だったら普通にまともなRAIDユニット使うだろうな。それならRAID6で24ユニット位は
別に珍しくも何ともない。
635:login:Penguin
09/04/03 14:12:28 xpbRoEEl
まともなベンダーじゃメンバーの台数に制限を設けるよ
24台でRAID6組むにしても 22+2というボリュームは避けるね
普通は 10+2のボリュームを2つ用意して結合するかストライピング
636:login:Penguin
09/04/03 14:20:53 TXPhg+u+
>>630
バックアップ、俺だったら同一構成のマシンもう一台組むかな。
10万ちょっとくらいでできるし、rsyncあたりで同期。
637:login:Penguin
09/04/03 23:06:15 KMrkK/Q+
>>632
激しく同意。いろいろ試したけど、特に小さめのサーバで
汎用性、運用性を取るとRAID1+LVM(+backup)なんだよね。
しかし630は地震に弱そうだなぁ…
638:login:Penguin
09/04/05 13:51:20 zpl00iwc
質問です
URLリンク(comp.ddo.jp)
centosで上のサイトを参考にRAID1を構築したいのですが、
LVM構成環境でも同様にいけるのでしょうか。
またコピーソフトを使用し、パーティションのコピーでも可能ですか?
お手数ですが、ご教示願います。
デバイス Boot Start End Blocks Id System
/dev/sda1 * 1 13 104391 83 Linux
/dev/sda2 14 182401 1465031610 8e Linux LVM
デバイス Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 fd Linux raid 自動検出
/dev/sdb2 14 182401 1465031610 fd Linux raid 自動検出
639:login:Penguin
09/04/05 16:20:38 XMqVMXVw
ちょいと質問させてください。
今のサーバは3wareのRAIDカードを刺して運用しているのですが
サーバの置き換えでPCI-Xスロットが無いM/Bに換えようと思っています。
んで、3wareのRAIDカードを買い換える金は無いので
M/BのSW RAID5にするか、mdadmでRAID5にするか迷っています。
mdadmにするメリットとかってあるのでしょうか?
ネットワーク越しのファイルサーバとして使うので、速度はそこまで
重要視していません。
640:login:Penguin
09/04/05 16:27:54 xPY/iy8j
つか、
むしろM/BのSW RAIDのメリットって何?
と思うけど。
641:639
09/04/05 16:51:29 XMqVMXVw
ごめんなさい。M/BのBIOSでRAIDを組むのは
FakeRAIDという名称なのですね。
>>640
>>98さんが纏めてるように、コマンド打たなくていい。
ってぐらいじゃないかなぁ、と思っています。
642:login:Penguin
09/04/05 17:22:54 ialTtN9O
>637
>630のは容量もだが、速度を稼ぐ目的じゃないの? それならRAID1+0ならともかく、LVMは
目的に合わないと思われ。
>639
M/Bのにしろ、3wareのにしろ、お金がなくて予備のH/Wを用意できないのならmdadmでやってる方が
いいんじゃないかな。CPUパワーはかなり喰うけど、速度を重視しないのなら特に。
643:login:Penguin
09/04/05 20:39:11 Z+OjEuCD
500GBとか1TBのHDDのRAIDってrebuildどれくらいかかるわけ?
丸1日とかかかりそうだけど本当に大丈夫なの?
縮退状態で丸1日ってやばくね?
644:login:Penguin
09/04/05 23:43:50 n2oOwvTn
>>642
なるほど。
目的は推測するしかないけど、確かに元記事は速度すごいだろ的に読めるね
645:login:Penguin
09/04/06 01:58:46 MR94bHSC
>>643
1Tで5時間ぐらいかな
ICH使うのは論外
646:login:Penguin
09/04/11 09:10:29 bo5CTwmV
>>645
> ICH使うのは論外
詳しく。
647:login:Penguin
09/04/19 10:07:29 wrQxf8K5
>>638
亀レスだけど
1 /boot を RAID1 (/dev/md0)にしる
2 VG を作業用 PV に払いだして/dev/md1を作る
3 pvcreate /dev/md1 して戻せば桶
拡張性ならば RAID5 が吉
648:login:Penguin
09/04/21 14:59:51 o1qVLXZy
drbdがここでいいか分からんが教えて。
片肺状態で構築するにはどうしたらいいでつか。
649:login:Penguin
09/04/27 18:30:59 rJwiNuMr
RAID0組もうと思っているんですが
故障しやすくなると知って少し不安なのですが
実際のところどうなのでしょうか?
2~3台で組む予定です
650:login:Penguin
09/04/27 18:34:03 Pc3Uwn5l
故障率が2~3倍になるだけです
651:login:Penguin
09/04/27 18:44:31 f1/NPYvZ
台数が一緒なら、3台のHDDを別々に使おうがRAID 0で組もうが故障率は一緒。
ただ、失うデータがHDDひとつ分で済むか、全部失うかの違いだけ。
652:login:Penguin
09/04/27 22:26:58 VORtme39
その「全部失う」ってのが、アレイとしての故障率の上昇って事だろ
653:login:Penguin
09/04/27 22:33:22 f1/NPYvZ
>652
RAID 0でもRAID 1でも構成する台数によって故障率は同じように上がる。
異なるのはデータロストの確率。基本だよ。
654:login:Penguin
09/04/27 22:35:19 Pc3Uwn5l
>>649のレベルに合わせた回答してやれよww
655:login:Penguin
09/04/27 22:51:56 VORtme39
>>653
そのデータロストの確率ってのとアレイとしての故障率ってのは
どこが違うんだ?よっぽど悔しかったのかもしれんが
656:login:Penguin
09/04/27 23:12:04 QtSElZiO
>>649
1年間での1台の故障率が10%だとすると。
3台のRAID0だと27%くらいになる。
RAID0っていうのは壊れてもかまないから少しでも速くっていう特殊用途か、奇人向け。
普通の壊れると困る人はRAID1かRAID5を選ぶ。
657:login:Penguin
09/04/27 23:40:57 f1/NPYvZ
>655
なんでRAIDを語る時に耐故障性って話が出てくると思ってるんだ?
構成しているHDDが飛んでりゃ、そのアレイは「故障している」って言うんだよ。世間ではね。
そもそもRAIDは故障率を下げる機構ではないんだぞ。
658:login:Penguin
09/04/27 23:57:58 VORtme39
>>657
結局自分では何も語らないし、ただの話題逸らしか。
基本とか世間とか、いつもの荒らし君だね。
ちゃんと体系立てて説明してくれ。そうしたら納得する。
659:login:Penguin
09/04/28 00:09:05 m/CYeeS7
>>657
デグレードしていると言います。
660:login:Penguin
09/04/28 07:29:52 Lv17PKpw
raid1で組んだときに、接続しているハードディスクの
どちらに不具合が生じているか分かりません。
どうやって、見極めますか?
661:login:Penguin
09/04/28 08:56:00 BT3qbNMV
>658
> ちゃんと体系立てて説明してくれ。そうしたら納得する。
別にあなたに納得して貰う必要はない。必要なのは理解することだろ。
情報処理試験の最初の方にも出てくる話なんだから、自分で調べろ。
662:login:Penguin
09/04/28 10:55:11 HfafcQt/
>>661
OK
結局君は分かっていないことが証明された
663:login:Penguin
09/04/28 11:12:19 HfafcQt/
流れを追うのが面倒な人のために解説しておくと、
>RAID0組もうと思っているんですが故障しやすくなると知って少し不安なのですが
↓
> ただ、失うデータがHDDひとつ分で済むか、全部失うかの違いだけ。
↓
> その「全部失う」ってのが、アレイとしての故障率の上昇って事だろ
↓
> RAID 0でもRAID 1でも構成する台数によって故障率は同じように上がる。
途中からアレイとしての故障率の話ってのが確定したのに、ずーっとデバイスの話。
> そのデータロストの確率ってのとアレイとしての故障率ってのはどこが違うんだ?
↓
> なんでRAIDを語る時に耐故障性って話が出てくると思ってるんだ?
> 構成しているHDDが飛んでりゃ、そのアレイは「故障している」って言うんだよ。
質問には答えず、質問を返す。
やっとアレイの故障の話になったと思ったら、当たり前の定義やそもそも論を
振りかざして相手が分かっていないような雰囲気にしようとする。
以下>>658 >>661 辺りを読めば、結局f1/NPYvZは自分では何も説明していない。
>>660
mdレベルで故障が認識されてたら
$ cat /proc/mdstat
に出てくる。
そうでなければsmartctlでテストしたりヘルスステータスを確認とかかなぁ。
664:login:Penguin
09/04/28 11:20:43 3tR1STAF
結論
RAID0使う人は他のRAIDレベル使う人に比べてヴァカが多い
665:login:Penguin
09/04/28 11:26:37 m/CYeeS7
「ハードディスクが壊れてデータを失うのはしょうがない」と思っている人と、
「ハードディスクが壊れてたくらいでデータを失うなんてとんでもない」と
思っている人との違い。
後者の人が求めるソリューションとしてRAIDは生まれたが、前者の人がRAID
というものに興味を持つと何故かRAID0に目が行く。
666:login:Penguin
09/04/28 19:07:20 HfafcQt/
その通りだねぇ
メリットデメリットきちんと検討できれば何をやっても
そうそう問題にはならないのだけれど。
667:login:Penguin
09/04/28 22:31:34 zjwSq6nf
レベルの低い話題はいつまで続くんだ?
668:login:Penguin
09/04/29 01:03:34 AiwhrIEV
単発ID荒らしクンが消えるまで
669:login:Penguin
09/04/29 13:22:08 wsYO6vIH
>663
アレイとしての故障率なんて俺様基準を出してなにを語っているつもりなんだろうな。
いつからRAIDスレってこんなアホが来るようになったんだ。
670:660
09/04/29 14:21:27 TizG24a/
raid1を組んでいます。
エラーになっていて取り替えるときにsda, sdbが
実際のハードディスクのどちらか分かりません。
どうやってどちらのHDDか調べるのでしょうか。
671:login:Penguin
09/04/29 14:36:33 AiwhrIEV
>>670
smartctl -a あたりでドライブのシリアル番号が出るから、
それと実機の表面に書いてあるのを照合する。
ケースに入れたりして見づらくなる場合は、メモしておくなり対策を。
>>669
特徴が>>663が言ってるそのまんまだね。
672:login:Penguin
09/04/30 11:46:54 aZ37y/uJ
>>670
どのデバイス(/dev/sd?)がどのポートに繋がってるのかは
/dev/disk/by-pathを見れば分かるよ。
リンクが張ってある。
つか、
SATAのドライブの場合、/dev/sd?のデバイス名は起動時に繋がってるデバイス次第でデバイス名がずれてしまう
(未接続のポートは飛ばして存在するものだけがaから順に前詰めされて割り振られる)んで、
RAIDで使う場合は /dev/disk/by-path下にあるデバイス名で指定した方がいいと思う。
いろいろと安心。
673:login:Penguin
09/04/30 14:16:11 bMQ/vl6u
誰か >>648 に回答して
674:670
09/04/30 16:21:01 zlL3XbN1
>>671,672
ありがとう!
675:login:Penguin
09/04/30 22:15:32 uX7rBT51
>>673
missing
676:login:Penguin
09/05/04 02:51:31 t65Z7O61
>>674
人間様には把握し辛いが大事なのにはUUID指定してやるのがいいんでは
677:login:Penguin
09/05/04 22:00:58 KCRGJA9J
software RAID1+LVMでフォーマットしたドライブがあります。
その片一方のドライブをUSB経由で別のPCでマウントしたいのですが、
マウントできません。
/dev/sdcでドライブ自体は認識されています。ファイルシステムをうまく
認識できないようですが、どうすれば/dev/sdcへアクセスできますでしょうか。
678:login:Penguin
09/05/04 23:54:14 pV+AMzaA
おとなしくnfsででも使ってれば?
679:login:Penguin
09/05/05 11:37:36 zBjAoobd
>>676
UUIDで指定した場合ドライブ交換しても
そのまま設定いじらずにrebuildできる?
680:login:Penguin
09/05/05 12:06:19 SKBlHzFp
>>676
それだと物理的なドライブを特定できない
681:login:Penguin
09/05/06 01:13:22 oUg9NO+Q
ぜんぜんRAIDと関係ないんだけど
Linuxでblock deviceをSCSI tapeに化けさせる方法ってない?
VTS(Virtual Tape Server)みたいなのをオープンソースでできるといいんだけど・・・
682:login:Penguin
09/05/06 02:09:11 xcd8qE0t
スレ違い
683:677
09/05/06 09:09:26 TSWAO7wk
すみません。
やはりraid1で組んだドライブの片肺は他のPCで中身を見ることは
出来ないのでしょうか。
684:login:Penguin
09/05/06 09:44:48 DkHoxEB5
ふつうは見れるよ。
685:login:Penguin
09/05/06 10:09:36 xcd8qE0t
>>683
最後の方にsuperblockが書き込まれるだけの普通のパーティションだから普通に読めるが、
mdを経由しない場合等でsuperblockのところに書き込むと壊れる
686:login:Penguin
09/05/06 16:21:21 8ZZPhWYr
むしろ問題はLVM関係でおきていない?
687:login:Penguin
09/05/07 15:44:36 LFqnfI5H
CentOS5.3で全てのパーティションをSoftwareRAID10にしたいのですが
インストール時点で選択出来ない為、HDD1からHDD4のうち、HDD1に
インストールした後、mdadmを使ってHDD2とHDD4の二台でRAID10を構築
HDD1のパーティション、各データをmdデバイスにコピー、起動後
HDD1、HDD3をmdデバイスに追加という流れになるのかなと勝手に
想像しているのですが、もっと簡単な方法はあるのでしょうか。
/bootや/の起動パーティションも含めたRAID構築方法があればご教示下さい。
688:login:Penguin
09/05/07 18:24:04 N8WvPmPV
>>687
やったことないけど、インストール時にコンソールに移ってmdadmコマンド叩けばいいんじゃない?
689:login:Penguin
09/05/08 12:48:13 GZ/pWQnU
グラフィカルインストール中に切り替えが可能なのでしょうか?
方法を教えて頂けないでしょうか?
690:login:Penguin
09/05/08 14:14:40 gIDrHRnX
コンソールにはCtrl+Alt+F2で移れるけど、centosのインストーラがraid10.koを持っていないな。
つくづくカスなディストリだ。
691:login:Penguin
09/05/08 15:36:13 GZ/pWQnU
>>690
有り難うございました。
>centosのインストーラがraid10.koを持っていないな。
その様な文献は見かけました。(Debianも同じようです)
URLリンク(hobby.sugio-garden.com)
上記の通りでCentOSでもインストール出来ればいいのですが、そもそも
RAID5同様、RAID10デバイスにgrubや/bootを入れてはいけないのか不安に
なってきました…。(grubは全てのディスクに入れてもいいものか…?)
もう少し情報量があればいいのですが…。orz
692:login:Penguin
09/05/08 15:52:38 gIDrHRnX
>>691
ダメに決まってんじゃん。
693:login:Penguin
09/05/08 16:26:07 GZ/pWQnU
>>692
ぇ、そうなんですか…。ここ数日の努力は一体…。orz
Windows程手軽ではありませんね…。
694:login:Penguin
09/05/08 17:12:04 0CuaNTWB
そもそも /boot をraid10にする必要性を見直そう
695:login:Penguin
09/05/08 18:43:47 GZ/pWQnU
うーん。手軽にシステム復旧できていいかなと思ったんですが…。
起動ディスクがとんだ場合の復旧方法を纏めてあるサイトとかありますか?
696:login:Penguin
09/05/08 18:46:12 12vZl4Iq
/bootだけUSBメモリに入れとく
697:login:Penguin
09/05/08 18:48:09 RNjlyMME
>695
だから、/bootなんて多く見積もっても100MBもあれば十分で、ほとんど書き換えなんてしないんだから、
「『RAID 1』で必要にして十分。RAID 1+0にしてわざわざ耐障害性を落とす需要がないだろう?」
ということだよ。
HDD 4本使って/bootをRAID 10にするくらいなら、2本をミラーで残りをspareにでもしておいた方が
ずっと気が利いているでしょ。
698:login:Penguin
09/05/08 19:01:27 0CuaNTWB
>>695 いや、だからなんでRAID10でなきゃ駄目なのさ。
それに、/boot を software RAIDを組んで、ディスク障害が起きた時に本当にちゃんとboot
するかどうかちゃんと確認したいだろうが、起動しているディスクを意図的に壊すのは結構
大変なので確認そのものがそれなりに難しいよ。
ちなみにうちで、あるメーカー製サーバー機でsoftware RAIDを組んでいた時には、ディスクが故障したと
思われるタイミングでOSがフリーズ、リモートからのIPMIによるリセットや電源再投入でもOSが
起きてこなかった。この時は、BIOSがS.M.A.R.T..エラーのあるディスクを見つけて、起動前に警告画面を
出して止まっていた。結局、このマシンのBIOSでは、S.M.A.R.T.エラーのあるディスクを物理的に
切り離さないと、起動時にキーボード入力待ちにならずにbootさせることができないことがその後判った。
サーバー購入する前にここまで確認するのは結構大変。だから、リモートKVMなどが使えないなら、
手が届かないサーバールームに置くようなマシンの場合、ディスクエラー時の挙動がそれなりに判って
いるハードウェアRAIDボードなりを買ったほうが結局は良いと自分は思う。
699:login:Penguin
09/05/08 19:33:00 9KKZ6BOr
H/W RAIDカードは予備も一緒に買っておかないと不安なのが、個人で使うには
ハードルが高めですな。
まぁ、H/WだろうがS/Wだろうが、初めての機種やディス鳥でのRAIDの設定は
1度は抜いて試してみるってのは鉄則だということですね。
mdadmそのものの設定はOKだと思っても、ubuntuとかさ、起動時にHDDが
こけてるとbusy_boxに落ちるって挙動に設定されているのもあったりするから…。
700:login:Penguin
09/05/09 00:44:21 ZpbYLtpb
最近のdebianはinst時にraid10設定できた(/bootじゃないですよ)が、
ubuntuのserver 8あたりはできんかったと思う。raid5は選択肢にあったと思うので謎だけど。
でまぁ/bootは4本でも6本でも束ねてriad1でいいよ。あとgrubとかinst忘れんようになー
701:login:Penguin
09/05/09 01:17:43 SW2MG53c
皆さん有り難う御座いました。
色々調べてみましたが、せっかく買ったHDD4本は余すことなく使いたいので
仰るとおりRAID1を切って/bootを入れる方向で行こうかと思います。
後は下記サイトなどを参考に頑張ってみたいと思います。
URLリンク(d.hatena.ne.jp)
URLリンク(rewse.jp)
重ねて有り難う御座いました。
702:login:Penguin
09/05/09 06:53:18 g2MAqT6x
>>682
あーやっぱりスレ違いですか
でもおまいらバックアップはどうしてるの?
RAIDではバックアップにはならんよな?
703:login:Penguin
09/05/09 08:26:01 a99IzaMs
スレ違い
704:login:Penguin
09/05/09 08:29:14 50sBA7v3
>>700
debian系はdebootstrapがあるから、デフォルトのインストーラが対応していなくても、どうとでもなる。
705:login:Penguin
09/05/09 08:30:23 50sBA7v3
>>702
pdumpfsでもcronで回しとけ
706:login:Penguin
09/05/13 21:18:57 Dxfkh9+9
ギブアップなので質問させてください
只今ハードRAIDをミラーリングで構築しています
linux dd でRAIDドライバディケットを読み込ませてインストールを進めているのですが
HDDを認識しないです…
ddオプションを使用せずインストールするとHDDを認識するのですが
ドライバが入っていないのでRAID構成が出来ません
windowsでは成功しているのでBIOS設定は間違いないと思います
どなたかお助けください
707:login:Penguin
09/05/13 21:39:30 B0dJX3uS
意味がよく分からなかったので「ドライバディケット」とか
「ddオプション」とかぐぐってみたけど、やっぱり分からなかった。
DDオプション……???
URLリンク(goroumaru-dd-blog.cocolog-nifty.com)
URLリンク(www.volks.co.jp)
708:login:Penguin
09/05/13 21:59:09 DyZoiBpp
>>706
ddってのは何かのインストーラの起動オプションか?
はっきり言って、全く意味が分からない。
ちゃんとした回答を求めているのなら、
・RAIDカードのメーカーと型番
・使用するディストリの名前のバージョン
せめて、それくらいはちゃんと書くべし。
まぁ、エスパーすると本当はハードウェアRAIDじゃないんだろうけどな。
709:login:Penguin
09/05/13 22:05:29 ekdM9VHa
>>706-707
ひょっとして日本語が不自由ではありませんか?
もし英語が得意なら英語でもおk?
710:login:Penguin
09/05/13 22:12:28 lxBosufO
>>709
何処にでもこういうこと言うやついるな。同一人物かね。
711:login:Penguin
09/05/14 05:20:31 m2xQQRsj
>>706
ドライバディスケット、だな。ddってのはインストーラの
起動オプション。redhat系かね。
まぁ実際にはfake raidの類だと思うけど、、、カードの型番は?
ぶっちゃけ小規模運用ならsw-raidが一番現実的だよ。
中規模以上なら替えを揃えた上で、外からは1デバイスに
見えるタイプのhw-raidの方が楽になると思うけど。
712:login:Penguin
09/05/14 10:33:36 Uqibt60q
中規模って具体的にはどれくらいからですか
713:login:Penguin
09/05/14 10:35:20 Ho0hcI6J
まともなH/W RAIDカードを予備も含めて買う予算が組める規模。
714:login:Penguin
09/05/14 10:59:34 Gy1T7uzg
drbdってファイルシステムが何であろうと、
ミラーしてくれますか?
715:707
09/05/14 12:12:20 oJXETyDq
>>709
なんで俺も入ってるんだ?w
716:login:Penguin
09/05/14 12:16:18 RkzUi3vt
>>706です
HP内蔵G5 SATA RAIDです
boot:linux ddでUSBFDDを読み込ませると
sdaで認識されてHDDが読み込めないのでしょうか?
通常のインストール方法ですと
sdaとsdbにHDDを認識するのですがドライバを入れられないので困っています
717:login:Penguin
09/05/14 12:30:41 m2xQQRsj
MCP55でnvRaidだろうから(つまりfakeraid)
インストール時にdmraid動く鳥かどうかだろうな。
718:login:Penguin
09/05/14 12:32:05 E869XGZo
dm使うくらいならmdにしたほうが何倍もいい
719:login:Penguin
09/05/14 12:39:30 //Y2vNfg
どれだけ困っていても
ディストリ名は明かしたくないという
理由は何なのだろう
720:login:Penguin
09/05/14 12:40:36 //Y2vNfg
あ~これか?
URLリンク(h50222.www5.hp.com)
質問するときちゃんと説明できないってことは
書かれてる手順通りにちゃんと実行してるのかどうかも分からんな。
721:login:Penguin
09/05/14 12:51:26 m2xQQRsj
うむ、ドライバ云々以前にmd/dmraidの得失についても検討してないみたいだしねぇ。
サポート外の鳥にドライバ突っ込もうとしてるとかありそうだw
722:login:Penguin
09/05/14 13:01:02 m2xQQRsj
あぁ、310あたりの内蔵だとnvじゃなくてadaptecかなぁ。
まぁ情報不足しすぎて推測にしかならんが
723:login:Penguin
09/05/14 13:23:33 //Y2vNfg
チェックポイント
(1)使ってる機種名とディストリ名&バージョンは?
(2)手元にあるのは使用機種用の使用OS(ディストリ&バージョン)対応のドライバか?
(3)ドライバのイメージは正しい手順でFDに書き込まれているか?
(4)ドライバの読み込みを実行する正しい操作を行っているか?
724:login:Penguin
09/05/30 05:36:24 fl0VPPTI
>>676
> 人間様には把握し辛いが大事なのにはUUID指定してやるのがいいんでは
>>680
> それだと物理的なドライブを特定できない
え?なんで?ハードディスクのUUIDって
ユニークに割り当てられるんじゃないの?
>>679
> UUIDで指定した場合ドライブ交換しても
> そのまま設定いじらずにrebuildできる?
自分はディスク交換時に、必要に応じて
fstab を書き換えてますよ。
725:login:Penguin
09/05/30 07:20:38 at9C0NOr
>>724
HDDはUUIDを持たない。
だいたいUUIDはFSなりRAIDボリュームなりに付くわけで
そこらへん分かってりゃ出てくるはずのない疑問なんだが。
パーティションを切らない運用をすればHDDとUUIDが1:1対応するけど
それはHDDのUUIDとは言わない
726:login:Penguin
09/05/30 10:05:13 fl0VPPTI
>>725
うわ、すまん、誤情報ごめん。
fstab に書いてる UUID は HDD じゃなくて
raid ボリュームに対しての物だった。
ボケた頭で夜中に書くもんじゃないな。
>>680 >>679
というわけで >>724 は無しでお願いします。
727:login:Penguin
09/05/30 13:34:03 2T6aXAyF
>>724
> >>679
> > UUIDで指定した場合ドライブ交換しても
> > そのまま設定いじらずにrebuildできる?
>
> 自分はディスク交換時に、必要に応じて
> fstab を書き換えてますよ。
なんでそんな面倒なことを。
>>672 に書いてある通り、接続してるポートで指定すりゃ
一切設定変えずにrebuildできるぞ。
普通はリムーバブルフレームとかに入れてHDD差し替えだろうから
それが一番楽だと思うが。
728:724
09/05/31 09:32:37 VjFraXIU
>>727
ごめんホントにごめん。
それ単に raid ボリュームのマウントで、
しかも raid 構成してるディスクの入れ替え時に
やるわけではないんだ。
寝ぼけて勘違いして書いちゃっただけw
729:login:Penguin
09/06/18 02:46:39 JtLuBXCI
RAID10だけあればいいだろ、もう。
730:login:Penguin
09/06/18 10:09:55 sFMYZNyt
RAID6+6とかどうすんだよ。
731:login:Penguin
09/06/18 11:43:15 RAyeJNBf
なんだそれ。
4x4で最低16台構成から?
1TBドライブ16台で使える容量は2TBとか
そんな感じ?
732:login:Penguin
09/06/18 12:25:00 mDbyuVWY
RAID66はつおいぞ
733:login:Penguin
09/06/18 15:55:18 LDOJ4AL5
PromiseのATA RAIDカード思い出すな。
734:login:Penguin
09/06/19 16:47:34 AZx2pzna
16台使って容量は4台分にしかならないって…なんか損した気分に
9台も短期間で壊れるとか無い…と信じたいな
735:login:Penguin
09/06/19 21:21:00 oA5n8H4+
RAID10が一番バランスがよい。
RAID1、5、10だけあればいいと思う。
RAID6使うメリットは何?
736:login:Penguin
09/06/19 21:48:48 +6l6RjW1
>>735
「任意の」2台が壊れても平気
10はRAID1を構成する2台が壊れたらアウト
737:login:Penguin
09/06/19 22:37:42 AZx2pzna
RAID50,RAID60までは許せるな
66とか65とかはネタだと信じたい
738:login:Penguin
09/06/19 23:14:30 kIDvbdHb
66や65はともかく61ぐらいは許せるけどな。
739:login:Penguin
09/06/20 12:38:29 CgUZ1PWu
>>735
当たり前のことだが、
何が「一番よい」なのかは使用目的次第だな。
>>736に加えて、構成するドライブ数が増えた時、
および大容量なボリュームが必要な時にもメリットあり。
1TBのドライブ16台で使用可能容量8TBと14TBの差、
4Uのケース/RAID箱だと24台で12TBと22TBの差。
これは大きい。
速度より大容量を望むならとてもデカいメリットだな。
あと、業務の状況に応じて後々容量を増やす必要が予想される場合、
RAID5/6ならば一台ずつ増やせばOKというのも、
運用の柔軟性という点ではデカい。
予算や設置空間が無限に確保できるなら
そんなこと考える必要もないんだろうけど。
740:login:Penguin
09/06/20 12:42:06 CgUZ1PWu
しかし
> RAID1、5、10だけあればいいと思う
1と10はともかく5?
5と6なら普通の人は6を選ぶと思うけど。
RAID5 + spare 1 にするなら
RAID6で spareなしの方がまだ安全だよね?
もちろん 5で spareなしってのは論外だし。
741:login:Penguin
09/06/20 13:02:30 l8BFxcVU
個人用途で4本ぐらいまでならRAID5もありだと思う。
バックアップ別に取ってspareなしとかね。
自分で言っているとおり使用目的次第だろw
742:login:Penguin
09/06/20 14:49:58 Ti9Rd7cZ
>>740
同意。
多少性能落ちるけど RAID5+Spare より RAID6だな
743:login:Penguin
09/06/20 15:01:21 3zenwQct
>>741
RAIDとバックアップは目的が違う。
データを失いたくない前提ならRAID5でも6でもバックアップは取るもんだ。
逆に言えば、バックアップを取らない人は5でも6でも取らんだろうし、
バックアップを取る人なら5でスペアなしという危険な選択肢を敢えて取るとも思えないがw
その意味で>>741の仮定は非現実的だと思う。
744:login:Penguin
09/06/20 17:09:52 1JSai2FT
>741の言ってるバックアップはデータのバックはなくて、機器(HDD)のバックアップだと思うが。
まぁ、RAID 6ならspareが要らないかというとそんなことはないんで。
ここら辺はどこまでリスクを許容するかという話だな。
745:login:Penguin
09/06/21 01:03:00 vyETa8TC
>>744
無理ありすぎ。
機器のバックアップを用意することを「バックアップを取る」とは言わんと思う。
746:login:Penguin
09/06/21 16:54:45 dBCYGf1k
>>743
何につっこんでるのかよくわからない
>バックアップを取る人なら5でスペアなしという危険な選択肢を敢えて取るとも思えないがw
これはたぶん勝手な妄想
747:login:Penguin
09/06/21 17:37:00 ke+JxsXU
ダウンタイムが認められるかどうかとかにもよるけど
ディスク3,4本程度であれば、スペア無しとかあり得るんじゃね?
前提条件無いからこれ以上やっても宗教論みたいになっちゃうかな。
とりあえず選択肢は多ければ多いほど
いろんなパターンに対応できるから、
無理に縛る必要はないんじゃね?
748:login:Penguin
09/06/21 23:26:20 VQh+3f2H
家庭用VTS(Virtual Tape Server)まだぁ?
749:login:Penguin
09/06/22 07:50:38 6OfCVb36
>>748
そういやその昔、VHSテープにデジタルデータを
書き込むとかいう妙なドライブがあったのを思い出した。
750:login:Penguin
09/06/22 12:14:58 xpzci0AC
VHSテープにデジタル録音する装置なら持ってた。
751:login:Penguin
09/06/23 01:45:15 6kMmigiU
>>749
いや、そういうのじゃなくて、3494とかそういうの。
752:login:Penguin
09/07/05 17:24:16 PqNELh2+
>>735
メーカーが発表している比較表だと、耐久性は10>6 になっている。。
読み込みも10のほうが早い
753:login:Penguin
09/07/06 10:51:59 JnhTUdJQ
その発表してる比較表どこかで見れる?
754:login:Penguin
09/07/06 22:56:06 STIaUCHo
耐久性
とは?
755:login:Penguin
09/07/07 01:40:42 PlV+wZp4
>>752
要出展
756:login:Penguin
09/07/07 05:10:49 8uZqbptR
>>755
なぜ展覧会に出したり個展を開かねばならんのだ?
757:login:Penguin
09/07/07 08:51:04 ka5gCiyc
つーか、耐久性ってのがなにを指しているのかわからんが、容量が同等なら通常は
RAID10の方が6より玉の数が増えるから、故障率なら10の方が分が悪いな。
758:login:Penguin
09/07/07 11:57:02 ysfW7eSZ
台数すら考慮しない厨がまた来たか
せいぜい脳内理論をこねくり回してくれ
759:login:Penguin
09/07/07 23:37:03 JIRTze+C
>>757
アホハケーン
760:login:Penguin
09/07/08 00:58:54 fh0Hycs7
やれやれ。またRAIDシステムの故障率と可用性の違いを理解できずに
アホハケーンとかはしゃぐ小僧が沸いてるのか。
もう飽きたよ。
761:login:Penguin
09/07/08 01:26:39 0t67BNmO
ん?
故障率と可用性の違いを理解できてないのは757だよな?
玉の数だけしか考えてないわけだし
762:login:Penguin
09/07/08 03:06:50 BMukzHhe
おまえら、
喧嘩する前に単語の定義を再確認しような。
763:login:Penguin
09/07/08 11:10:52 HCiDv/o/
さて、とうとう玉の数が増えると故障率が下がるという珍説が出てきましたよ。
どう話を繋ぐつもりなのか、>761にワクワク。
764:login:Penguin
09/07/08 11:47:07 chJzRSys
部品の故障率と装置の故障率とごっちゃになってるとかなんとか
765:login:Penguin
09/07/08 12:03:22 44lMCrPK
煽るのが目的の基地外の人は
わざとそのへんをごっちゃにして書いてる模様。
本当に分かってなくてごっちゃになってるのかもしれんけど。
766:login:Penguin
09/07/08 12:26:26 unIowKVf
ずいぶん盛り上がっているようだが、俺に基本的なこと教えてくれ。
RAID0とか5とかで構成されたPCが壊れたときって、
HDDの中身は救いようが無いの?
767:login:Penguin
09/07/08 13:13:31 Zo0dcnWf
>>766
ソフトウェアRAID5で構成されたHDDを、他のマシンに繋ぎ替えても全く問題なく使えてるから
ドライブさえ無事なら何とでもなると思うよ。
ハードウェアRAIDは分からないけど。
768:login:Penguin
09/07/08 13:58:17 Caci2GYb
>>766
そりゃ「PCが壊れたとき」の壊れ方次第だろうとしか言いようがない。
何がどう壊れたのか。
例えば
電源ユニットの電解コンデンサが妊娠して臨終、てな状況と
PC内で何かが爆発してHDDもなんもバラバラ、てな状況と
一括りでどうこう言えるものでもなかろう。
769:login:Penguin
09/07/08 13:59:47 qe9478ZF
>>766のレベルからしたら全滅と同義
770:login:Penguin
09/07/08 14:33:59 MYN3KcvK
ドライブを修理して使うことは稀なので故障率という指標自体が不適切
なのではないか?
また、(Linuxでおうちサーバー派の間では)MTBFを論拠にRAID0は危険
といった指摘も見受けられるが、時系列に分割すると初期故障期間を脱
したドライブは十分な信頼性を持つため、運用上問題になることは少な
いのではないか?
いずれにせよLinuxは迷信渦巻く恐ろしい世界だと痛感した次第である。
771:login:Penguin
09/07/08 14:42:21 MYN3KcvK
私がLinux界に感じる印象は、シックスナインレベルの稼働率を達成(た
だし10PV/day)といったようなチグハグさである。
子供の遊びとしても得るものは少ない。
そんなことより野球しようぜと言いたくなるのである。
772:login:Penguin
09/07/08 21:27:44 O3yCZdx1
HDD復旧専門会社に持ってけば治る鴨よ。
773:login:Penguin
09/07/08 22:32:56 OJvmD9NC
FASのRAID-DPラブ♪
774:login:Penguin
09/07/08 23:14:23 0t67BNmO
んー763みたいな誤読にはもう飽きたんだけどねぇ。
意図的なら荒らしだし、素なら小学校からやり直した方が良い。
>>766
実データと構成情報とコントローラが、各レベルの許容範囲内で残っていれば助かる。
それぞれ、
実データ:HDD内
構成情報:(SW) 大抵HDD内 (HW)ボード上の記憶領域
コントローラ: (SW) 特になし。各HDDを繋いでいるコントローラ (HW)ボード
にある。
あとは>>768の云うように状況次第。
775:766
09/07/09 13:11:53 vjd5NCxf
RAID5のHDDを取り出して、中身を救済したいとき
そのまま他のLinuxPCにつないでマウントできるってことで良い?
HDD自体のダメージは無しとして。
776:login:Penguin
09/07/09 13:17:28 DpwXMNkl
>>775
基本おk
ただしきちんと試して原理を理解しておいたほうが安全
777:login:Penguin
09/07/09 13:21:18 vWAwVJmN
いちおうケースバイケースということになるが、
ほとんどのケースで「できない」。
Linuxのソフトraidはmdadmで設定してやらないとだめでしょ。
その設定をしてやれば、マウントできる「はず」。
raid 1ならそのままマウントできるかな?
778:766
09/07/09 13:53:45 vjd5NCxf
グレーなのね。
ようするに、3年以上前に作ったlinuxのソフトRAID5のPCサーバが壊れてしまったとき
同じ構成のPCなんて間単に作れないだろうから、どうするのかと。
ハードRAIDでもコントローラが違ければNGだよね。
ならば、RAID1で作っておくのがいいってことかね。
779:login:Penguin
09/07/09 14:17:02 wZlOujA6
>>777
それ本当?
普通スーパーブロックにRAID情報が書かれてるはずだから、それを元に
/etc/mdadm.conf を自分で作成するなりすれば問題なく使えるような。
結構前に試したときは、デバイス名が変わったときでさえ構成している
デバイスを全て含めていれば使えた記憶がある。