RAID総合スレッド No.3at LINUX
RAID総合スレッド No.3 - 暇つぶし2ch419:login:Penguin
07/11/18 02:39:12 HcFap/DP
確かに知識というか知恵があれば分かるよなあ…

>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

2 台の HDD でミラーリングしてる場合
両方の HDD から並列に別のデータを読めるから

420:login:Penguin
07/11/18 03:14:37 31wlS8LP
> 2 台の HDD でミラーリングしてる場合
> 両方の HDD から並列に別のデータを読めるから

これぢゃ、こわれててもわかんないんじゃないかな



421:login:Penguin
07/11/18 03:24:33 7DZoPkDC
なぜそんな話に飛躍する?
しかも意味が分からん。
RAID1で1台壊れて読めなくなってどうする?

RAIDの障害はsnmpやメールで通知するんだよ。

422:login:Penguin
07/11/18 05:35:44 HcFap/DP
>>420
セクタ単位のデータ破損を言ってる?
そうだとしたら、どちらにせよ RAID 1 じゃデータは救えんよ
2 台の HDD のセクタが不一致だとして、どちらのセクタが正しいと信じるんだい?

423:login:Penguin
07/11/18 10:15:29 w3f8FT8B
>>417
man md
してから書けよ
Changes are written to all devices in parallel. Data is read from any one device.
The driver attempts to distribute read requests across all devices to maximise performance.

上の方で同時アクセス数云々のベンチがあったが、確かにRAID1でも耐久力有りそうだな


>>420
お前の脳内でRAID1ならどうやって片方が壊れてると判断できるのか教えてくれw それともドライブ3台以上が前提か?
予め言っておくがRAID5でも一致確認してません、よー

424:login:Penguin
07/11/18 10:44:16 KXIawyII
元の >417 がイタイのはおいといて

>422
普通は HDD 内部でエラーチェックで救いきれないという状態になって
バケデータを吐くのでなくエラー通知をしてくるから
どちらを信じればいいかは分かる

そうならなかったとしたら相当運が悪いので
どのみち生きていても仕方ない…


425:login:Penguin
07/11/18 10:56:59 w3f8FT8B
ハードのパリティを信用するかどうかってことで現状は使うハード次第だわな
安価ハードを信頼性向上目的でソフトで多重化チェックすると最低3倍構成になるからペイしないんだろうなぁ

ところで3といえば、3ドライブでRAID10やってみた報告がそろそろ欲しいな。既出?

426:login:Penguin
07/11/18 11:28:10 /HzRs9GI
2台構成だとセクタ単位以下の信頼性は下位層に依存、
それ以上の信頼性がほしい場合は3台構成で自前チェックって感じか。

銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

427:login:Penguin
07/11/18 12:24:10 JtepkghF
下位層でできないことは上位層でやればいい、っていこうとでは?
ということで、ZFSドゾー


428:login:Penguin
07/11/18 16:20:10 HcFap/DP
>銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
>場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

発注先とかソフトウェア部分も多数決な

429:3台
07/11/18 17:54:46 KXIawyII
メルキオール、バルタザール、カスパー…

ごめんなさいごめんなさいごめんなさい

430:login:Penguin
07/11/19 03:13:03 +PzRhB/C
蒸し返すようだけど、ハードウェアRAID(fake raid ではなく)の場合、
RAID 1 にしても、read のときは双方のHDDから読み込みをやっているわけではないと思う。

5年ぐらい前、Escalade 7210 と HGST 180GXP で RAID0 と RAID1 のアレイを組んで
それぞれベンチを図ってみたが、RAID0 と RAID1 で同じ読み込み速度にはならなかった。
URLリンク(members.jcom.home.ne.jp)
URLリンク(members.jcom.home.ne.jp)

md の場合は、>>423 にあるとおり RAID1 の場合は内部で双方のHDDから読み込みをやっている
ようだけどね。

431:login:Penguin
07/11/19 04:36:45 YZqmzVs9
>>427
> 下位層でできないことは上位層でやればいい、っていこうとでは?

それ結局意味ないから。

RAIDは各セクタが完全に読めるか全く読めないかどちらかであることを仮定してる。
通常、パリティはセクタより小さい単位のエラー検出には使われず、セクタ単位の
エラーが検出された後データ再生成に使われる実装になってる。全部かどうかは知らん。
セクタエラーとして検出されないセクタ未満のデータ破損については多数決方式で
エラー訂正する以外になくて、結局、起源の異なる(パリティによる補完関係にない)
セクタが最低3つ必要になる。それは下位層でやろうと上位層でやろうと変わりない。
もちろんZFSなら2台構成のうえで仮想ブロック1つに実ブロックを3つ以上割り当てる
こともできるけど、それじゃRAIDの意味ない。

432:login:Penguin
07/11/19 15:57:45 1xeYiL1w
>>430
実装による。シーケンシャルなread1本時の挙動と、同2本や10本の速度も測ってみると良い。
ついでだからmdでRAID10組むときのnear/far/offsetのあたりも理解しておくとよい>仕組みと読み込み速度
URLリンク(en.wikipedia.org)
URLリンク(en.wikipedia.org)

// 日本語wikipediaは酷いなぁ

433:login:Penguin
07/11/19 19:28:24 LSsBOoW2
>>430
3wareにだってかつてTwinStorという名前で実装していたのがあってな(ry

434:417
07/11/20 14:41:38 WUpQPj2Z
イタイ417だけど
ああ、ここって特定のソフトウェアレイド前提なのね。話通じないはずだ。
定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
本来は片方からしか読まないよ。そういう拡張された実装って部分的にはあるけど
全面的なやつは珍しいかも。
(そのmdって両方読むのね?よく知らんけど。実際はRAID0+1みたいなかんじ?)
だからそういった意味ではRAID1で高速化するってありえないよ。
RAID0かぶせない限りはね。
>>430,432が正解だと思う。
わたしゃ高速化のためにRAID0使用中だよ。リスキーでも倍速w


435:login:Penguin
07/11/20 14:42:39 6fbP/JrB
アイタタタタタタタタw

436:login:Penguin
07/11/20 15:44:28 +5gXhNB9
あたああああああああ

437:login:Penguin
07/11/20 16:12:43 6fbP/JrB
あーあ
そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに
そもそも最初にRAIDを提唱した1988年の論文でも
RAID1でread性能が向上する事が指摘されてるんだよね

438:login:Penguin
07/11/20 16:38:37 0X6vxiqf
>>437
URLリンク(www.eecs.berkeley.edu)
その論文の基となるレポートがこれだけど
確かにRAID1でparallel readに言及してるな.
abstract読めば判るけど,当初のRAIDは可用性向上よりも
性能向上が目的だからな.

>>432にあるWikipedia英語版も読んでみたけど,
RAID1でreadは速くなるって書いてあるじゃん


439:login:Penguin
07/11/20 17:59:10 WUpQPj2Z
>>438
めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
>Many older IDE RAID 1 controllers read only from one disk in the pair,
>so their read performance is always that of a single disk.
>Some older RAID 1 implementations would also read both disks
>simultaneously and compare the data to detect errors.
だとさ。結局実装次第ちゅーこっちゃね。


440:login:Penguin
07/11/20 18:06:26 WUpQPj2Z
つーか、実際にレイド組んでベンチとってみるといいかもね。
ごたくならべてないでさ。そのmdってのが優秀なら問題ないんだろからさ。

441:login:Penguin
07/11/20 18:09:41 6fbP/JrB
見苦しい

442:login:Penguin
07/11/20 18:12:21 WUpQPj2Z
>>441
なんだググっても反論見つからなかったか?w なんつてな。
正直もうどうでもいいな。

443:login:Penguin
07/11/20 19:20:47 MSD+3qt7
なら何も書かなきゃいいのに。
書けば書くほど見苦しくなる。

437に同意。
>そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに

444:login:Penguin
07/11/20 20:45:33 286gsJhP
はいはいプロユースプロユース。

てか本気で見苦しいな。
RAID総合スレに来ておいて、今やコンシューマ向けRAID搭載NASの殆んどを占めるmdを「特定の」やら「知らない」とか言われてもな。
んなもん持ってなくてもRAID語るなら自宅鯖でLINUXでmdくらいはやってて(試していて)当然の話じゃねえの?


445:login:Penguin
07/11/20 21:41:26 hSn6K+RS
>>434
せっかく>>432書いたのに全く読んでない
ものすごく好意的にエスパーしたとしても、単独負荷と並列負荷をわざと曖昧に書いて煽ってるようにしか読めん。
つまり絡みたい気分だったのだろう。そっと放置しておいてやろう、な。

446:login:Penguin
07/11/20 23:37:47 Pk03JSkS
>>434
>定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
>本来は片方からしか読まないよ。

と「本来の RAID 1 は並行読み込みしないと定義されている」とほのめかしておいて
>>438 で論破されたのに

>>439
>めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
> >Many older IDE RAID 1 controllers read only from one disk in the pair,
> >so their read performance is always that of a single disk.
> >Some older RAID 1 implementations would also read both disks
> >simultaneously and compare the data to detect errors.
>だとさ。結局実装次第ちゅーこっちゃね。

と「過去の実装例」で「定義」の議論に対して反論したつもりになって

>>417
>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

での知恵の無さを誤魔化す >>417 = >>440 = >>442 はとてつもなく痛い

447:login:Penguin
07/11/21 00:27:24 PIy6cxhg
このへんで勘弁してあげようよ

448:login:Penguin
07/11/21 01:12:12 YL4Okhmu
417はもう出てこれないに500ペソ

449:login:Penguin
07/11/21 01:21:04 66AMPoKv
過去レスを読んでいれば、このスレが md がメインなこともわかると思うんだが。
ただスレタイに md とも書かれてないし、ハードウェアRAIDを Linux で使う場合の話も
ここでしたいので、その場合はその旨一言触れておいたほうがいいな。

あときりわけが難しいけど、上に乗っかるOSは関係なく、ハードウェアそのものについての話になるなら
自作PC板にいったほうがいい。
ただしこういうストレージカードの場合、ハードウェア / fakeRAID ともにデバイスドライバが密接に絡むので
むずかしいけど。

長文ごめんなさい

450:login:Penguin
07/11/21 01:56:35 PIy6cxhg
前スレまではハードウェアRAIDの話題も結構出てたんだけどね。
このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

まぁ >>417の件はそれとは関係なく、単にナニだっただけなんだけどw

451:login:Penguin
07/11/21 02:39:21 WhtoZStV
ひさびさに痛い奴でした

452:login:Penguin
07/11/22 00:43:36 x2PaICsY
どーでもいい。次。


453:login:Penguin
07/11/22 04:34:50 4v8j5/xa
>>450
そうかなぁ?
アレイ拡張など運用の柔軟性とか、HW-RAIDだと対応が難しい要求を
HW-RAIDに求める奴が出ては諭されしてるだけかと。

454:login:Penguin
07/11/22 05:10:47 b7H+VhqY
Linuxの場合は、HW-RAIDにしたらしたで、
ちゃんとミドルウェアというかユーティリティが対応しているかっていうのは大きな問題でしょ。
ユーティリティなしで済まそうとすると、障害通知とかどうしたらいい?ってことになるからね。


455:login:Penguin
07/11/22 08:46:26 NB0e892q
大きな問題ではあるけど、そんなのベンダが提供してるかしてないかであって
話題になるようなポイントではないのでは?わざわざ高いHW-RAID入れるのに
まともなサポートツールがないもの選ぶことはないし。

456:login:Penguin
07/11/22 12:00:33 e1x8OZuz
>>453
お前HW-RAID使ったことないんだろw

457:login:Penguin
07/11/22 16:43:40 4v8j5/xa
>>456
少なくとも、ここで出てくるHW-RAIDはいわゆる民生用で、
高いHW-RAIDみたいなサポートもユーティリティもないでしょ。

高いの使えばそりゃシームレスでも柔軟性でも出るけど、
そういう話が「ここで」出てたかはかなり疑問。

458:login:Penguin
07/11/22 17:18:20 kotZkAiy
>>457
>>453は過去に一体どんなハードウェアRAID使ってきたのよ。
よほどの大昔か?

少なくともここで最近このスレで出てきた3wareやarecaだったら
「アレイ拡張など」はwebブラウザ経由で簡単にできるぞ。
この価格クラスのものでも、信頼性は十分あるし、普通にRAIDを利用・管理
(故障したドライブの交換やエラー時のメール通知等含め)したり、容量を拡張する
くらいの操作する分にはソフトウェアRAIDよりも「簡単・確実」なのは確かだよ。
RAIDの知識があれば、買ってきてすぐ、ほとんどマニュアル読まずに使える。
仮にOSが落ちてても、通電さえしてりゃrebuildとか勝手に続けてくれるってな
安心感もある。

ソフトウェアRAIDにもハードウェアRAIDにもそれぞれの長所・短所はあるんで、
それぞれ理解して使い分けりゃいいだけの話。
RAIDに求めるものは使用目的によって変わってくるんだから、どちらか一方を
無理矢理否定するこたーない。

459:login:Penguin
07/11/22 17:21:32 kotZkAiy
諭され云々は多分>>384のこと言ってるんだろうけど、>>384が特殊だったのは
CLIでやろうとしたからだよ。あとはファイルシステムの拡張でRAIDとは無関係。
CLIは既にメーカー側でもオマケ扱いで、サポート側もほとんどノウハウないし、
マニュアルの記入ミスが何年も放置されっぱなしだったりしてる。
ほとんど使う人がいないんだから「やってることが特殊」と言われてもしょうがない。

460:login:Penguin
07/11/22 20:16:50 e1x8OZuz
>>457
で、たとえばどんなことがHW-RAIDでできないと思ってるの?
アレイ拡張など、以外に。

461:login:Penguin
07/11/22 20:18:20 Ai+8+9Qs
( ´ー`)y━・~~~

462:login:Penguin
07/11/23 18:35:28 Jp++BsDp
ワロタ
ここお笑いスレ化してるな。

> このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

なんか絵に描いたようなw

463:login:Penguin
07/11/23 19:42:52 GS8px4nS
md の RAID 1 でリード性能を高速化する方法ってないのかな?
方法自体がないなら諦めないといけないけど…

464:login:Penguin
07/11/23 21:43:27 T6tLpng3
お前は何を言ってるんだ

465:login:Penguin
07/11/23 23:38:14 ediOoBUE
だから並列負荷耐性は上がるとmanにも書いてあるだろうに

466:login:Penguin
07/11/23 23:56:04 dksFbx1S
そこの解釈の差が論争の原因だね。man mdだと

> Data is read from any one device.
> The driver attempts to distribute read requests across all devices to maximise performance.

と最初の文が意味深だが、解釈は曖昧。で、ソース見ると

> * Don't change to another disk for sequential reads:

とあるので、おそらく単体のリードはディスク一台分の速度、ただし
別のリードは別のディスクに分散できるのでスループットが台数に
比例して伸びる、なのでは?

467:login:Penguin
07/11/24 01:21:05 NU+60JyU
なるほど。


468:login:Penguin
07/11/24 02:25:30 Rw3nYGM/
>>466
hdparm でリード性能が伸びてないのは
単発リードコマンドになってるってこと?

469:465
07/11/24 02:28:51 lC7phVQh
>The driver attempts to distribute read requests across all devices to maximise performance
複数の読み取り命令を全てのデバイスに割り振って高速化しようとするよ
じゃないの? 単一read時のことは書いてないよ。

470:login:Penguin
07/11/24 03:09:26 /QheRAnN
>Data is read from any one device.
データは一つのデバイスから読まれる。
こっちが単発リードのことをいっているんだろ。


471:login:Penguin
07/11/24 04:35:21 wJBOH4En
なおのこと単発リードが高速化するようには読めんが

472:login:Penguin
07/11/24 11:53:59 /QheRAnN
だから速くならないって言ってるだろw

473:login:Penguin
07/11/24 14:19:03 Rw3nYGM/
状況を整理するよ

hdparm による md の RAID 1 に対するベンチマークで
リード性能が単体 HDD に比べて向上していない
(自分を含めて 2 ~ 3 人が報告)

これは
・hdparm によるベンチマークは単発リードコマンドしか発行していない
・そもそも md の RAID 1 ではリード性能は向上しない
のどちら (あるいは両方?) なんだろう?ということ

474:login:Penguin
07/11/24 14:22:10 1cLiYWi3
同時に複数のファイル(とは限らんが)の読み込み要求があったときには
できる限りドライブを分散させて、パフォーマンスが向上するようにしている。
各ファイル(とは限らんが)のシーケンシャルな読み込みは単一のドライブから。

だね。

475:login:Penguin
07/11/24 14:24:48 /QheRAnN
ふむふむ。

476:login:Penguin
07/11/24 15:12:57 lC7phVQh
>>473
その2択が正しいかどうかは置いといて、hdparmは単発readでしょ。
なんだか話がループしてそうなんだが>>362- は読んだ?

477:login:Penguin
07/11/24 15:36:38 Rw3nYGM/
おお >>367 にそれらしい答えが出てるね

478:login:Penguin
07/11/24 16:16:33 lC7phVQh
チラ裏だが

ディスクベンチっていうと
URLリンク(www.iozone.org)
みたいにパラメータ変えつつやるもんかと。
特にRAIDボードで組んで評価って話でよく挙げられてる単純なベンチは
あれで参考になるんかと思うわけだが、口出すようなことでもないわけで。
単純化指向は良い面もあるしな。tiobenchくらいが結果貼りやすいかもしれん

479:login:Penguin
07/11/29 06:03:49 7uM8bIDi
なんかmdの話ばかりでハードウェアRAIDがスレ違いな話題と化しているようだけど…

それはさておき、なんでLinuxってOpenBSDやNetBSDのRAIDframeのような
kernel & userlandを含めたフレームワークがきちんと整備されていないんだろう?
ドライバがkernelにとりこまれても、各種ユーティリティはRAIDカードベンダまかせで、
それらが使えないディストリビューションの場合は途方に暮れるしかないっていうのは
悲しすぎる。

OpenBSDならBIOSレベルで設定しないといけないもの以外は、基本的にraidctlコマンドで
統一的に使えるのになぁ…

あと、どうでもいい余談だけど、ちょっと前、mdとLVMを組み合わせるのは複雑だなんて
話があったけど、ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に
扱える。

あと、このスレからソフトウェアRAIDの話が撲滅されるというメリットもあるw

480:login:Penguin
07/11/29 10:17:09 krpLIoSe
>>479
>フレームワークがきちんと整備されていないんだろう?
ニーズがないから。
OpenBSDのように遊びでHW-RAID使っている訳では無いから。

481:login:Penguin
07/11/29 10:36:45 r5r946d6
>>479
つ dmraid

>>480
しったか乙

482:login:Penguin
07/11/29 15:45:08 yTYjvc/A
>>481
dmraidって既に
「きちんと整備されてい」るの?

単に知らないから聞いてるんだが。

483:login:Penguin
07/11/29 19:19:21 0m6dyEiu
>>479
お前みたいなのが居るからmd以外の話題が低レベル化するんだよ


484:login:Penguin
07/11/29 19:41:18 3Mr68e1S
>>482
いまだにrcのまんまとはいえ、開発は続いているね。最新版は今年の5月に出た。

>>483
必死だな

485:login:Penguin
07/11/30 00:10:15 revYtBrt
>>479
> ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に扱える。

ニーズがわかってないな。ZFSで全部、じゃシステム部品としての粒度が大きくて、
導入しづらくてたまらん。「これで全部解決」ってのは大抵成功しないよ。

486:login:Penguin
07/11/30 03:03:09 Mn/yUmHF
mdとLVMとの組み合わせだと、機能かぶりまくりで無意味に複雑化する上に
オーバーヘッドだってあるんだから、よほど素性は悪い罠

487:login:Penguin
07/11/30 10:28:41 N6HYB90j
ま、それがLinuxの性

488:login:Penguin
07/11/30 18:30:10 hZ7jSyzu
>>479
上のほうで複雑すぎる、って書いた奴です。

ZFSは見た目は簡単(?)だけど単純ではない。複雑なものを隠して簡単そうに
見せているだけ。なんで、トラブルになったとき対処に必要なアレイ構成とかの
情報も結局ZFSの中に隠されるから対応しづらい。そこが嫌で原則使わないことにしてる。

RaidFrameとLinux mdは、どちらも一長一短だけど、
ニーズにあった自由な組み合わせが必要ならhw-raid/md/LVM/fs等で、
ワンストップで操作できる点やドライバの充実をとるならRaidFrameが有利、
ってところか。

自分以外の視点で考える練習もした方が良いかもね。

489:login:Penguin
07/12/01 08:04:30 gB0tzcfY
>>485
> システム部品としての粒度が大きくて、
> 導入しづらくてたまらん。

これに禿胴する人は多いと思う。

490:login:Penguin
07/12/01 11:45:16 ywEZfGgX
>>486
どこがかぶってるんだ?

491:login:Penguin
07/12/01 11:57:19 s/h51g0g
おちん○ちんの皮

492:login:Penguin
07/12/06 05:13:41 ap4dDKTJ
たまたま、この記事を読んで気になり、
mdによるRaidで整合性検査をしてみようと思ったのですが、
どのようなコマンドがあるのでしょうか?
(ぐぐっても、見つからなかったもので・・・

URLリンク(itpro.nikkeibp.co.jp)

493:login:Penguin
07/12/06 08:53:48 TPTZjUe/
>>492
整合性検査って、consistency check っていうんだよ。
URLリンク(gentoo-wiki.com)

With a modern kernel, >=2.6.16, this command will initiate a data consistency check
and a unreadable block check: reading all blocks, checking them for consistency,
and attempting to rewrite unreadable blocks:

# echo check >> /sys/block/mdX/md/sync_action

You can monitor the progress of the check with:

# watch -n .1 cat /proc/mdstat


494:492
07/12/06 15:26:20 ap4dDKTJ
>>493
ありがとうございます、実験用領域を組んで試してみます。

495:login:Penguin
07/12/06 22:44:34 XmDmS+kB
mdで第一日曜に自動チェックとかいう話ってなんだっけ?

496:login:Penguin
07/12/07 01:00:01 0L1bQ/rX
debianのデフォルトじゃね?

497:login:Penguin
07/12/07 17:07:07 V8m/lKoM
そんなん有るんだ。
ってググってもヒットしないし

498:login:Penguin
07/12/11 21:54:14 EizmHdyt
今、250GB*6本でmdによるRAID5を作っています。
名前はmd0です。

今度500GB*6本でmdによるRAID5を作ろうと思います。
新しく作るRAIDをmd0にして、既存のRAIDをmd1にリネームしたいのですが
リネームの操作が分かりません。

まだHDD買って来てないんで実験できないのですが、要領をご存知の方が
いたら教えてください。

ディストリはCentOS5です。


499:login:Penguin
07/12/11 23:00:07 f5+2aQ7y
1.旧md0を停止して
2.新md0を作成して
3.旧md0をmd1としてアセンブルして
4.好きなとこにマウント

じゃだめヶ?
新HDD買う前に1と3だけ試せる。

500:login:Penguin
07/12/11 23:05:57 f5+2aQ7y
あ、ごめん>>498宛てね。
それと今止めてもいいmdがないので試せなくてスマソ。
多分問題なく出来るとは思うけど。

501:login:Penguin
07/12/12 11:28:43 PJ2mXbUE
>>498
mdadm.confのARRAY行書き換えて再起動でmd0がmd1になるから、改めてmd0をcreate
fstabとか関連のファイルも同時に変更する必要があるんで注意
あと確認は十二分にしたほうがいい

Persistent Superblock内ってアレイのデバイス名(md0)まで
埋め込まれるんだっけ?それともUUIDだけ?

502:498
07/12/12 12:26:42 6F5R6X/A
みなさん、どうもありがとうございます。
まだ実機のmd0をバックアップ取れていないので、virtualpc内にlinux入れて
教えていただいた手段を試してみます。

503:498
07/12/12 13:18:37 6F5R6X/A
CentOS4がインストールされたVirtualPCイメージがあったので、それで試してみました。

○作業前
/dev/md0: 要素 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4

○手順
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 -a -l 5 -n 4 /dev/hdd1 /dev/hdd2 /dev/hdd3 /dev/hdd4
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
# shutdown -r 0

○作業後(再起動後)
[root@centos ~]# cat /proc/mdstat
Personalities : [raid5]
md1 : active raid5 hdb4[3] hdb3[2] hdb2[1] hdb1[0]
29952 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md0 : active raid5 hdd4[3] hdd3[2] hdd2[1] hdd1[0]
60096 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>

無事にmdの名称が変わりました。
今度HDDを買ってきたら、本番マシンで試してみたいと思います。
どうもありがとうございました。

>>501
# mdadm -E /dev/hdb1
をしてみた所、md?の記述はなかったので、HDD要素自体には自分がどのmdに属すのかという
情報は持っていないのかもしれません。
あと、mdadm.confをfindで検索してみましたが、存在しませんでした

504:login:Penguin
07/12/12 15:43:25 kEBRgtVd
>>503
横から失礼。
自分も昨晩レスキュー用のKanotix使って
md*の名前を変更したのだけど、

古い mdadm (1.*.*) だと再構成(assemble)段で
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
 を
# mdadm -A /dev/md1 -a /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
とかやらないと上手く認識しないみたい。
今時のは(2.*.*)で問題ないけど。

505:login:Penguin
07/12/12 15:56:54 PFZrlHwL
>>504
さらに横レスw そうだったのかー。知らなかったよサンクス。
先日上手くいかなかったんでmdadmを1から2にうpしちゃったばかりの俺です。

あ、ついでに、HDD4台とかで台数多いときは
# mdam -A 1/dev/md0 /dev/sd[abcd]1
で省略出来るお。この指定だと間違いにくいんでオヌヌメ。
知ってたらごめん。

506:訂正
07/12/12 15:57:50 PFZrlHwL
○  # mdam -A 1/dev/md0 /dev/sd[abcd]1
×  # mdam -A /dev/md0 /dev/sd[abcd]1

507:498
07/12/12 16:09:33 6F5R6X/A
-aって、「必要ならばデバイスファイルを作る」っていうオプションですよね。
付けなくても動作しましたが、付けるほうが正解な気がします。

508:login:Penguin
07/12/14 01:18:21 XaTc4CNr
>>503
>あと、mdadm.confをfindで検索してみましたが、存在しませんでした

アレイ障害時に管理者にメールを投げる機能、とかの設定保存ファイルがどこかにあると思う。
man mdadm
man mdadm.conf
して出てこないとかなら使ってる鳥が別名にしてるんだろう

509:login:Penguin
07/12/19 17:03:00 bGUYO486
ICH8DHのraidはlinuxでも使えますか?

現在raid1でWindows(XPとVista)を使っていますが、ハードディスクの後ろの方を空けて、そこにlinuxを入れてみたいと思っています。
この場合、raid1ままで使えますでしょうか?ich8,raid,linuxなどでggって見ましたがよく分かりませんでした。よろしくお願いします。


510:login:Penguin
07/12/19 17:07:14 MVsxWy2g
>>509
>>192

511:509
07/12/19 17:31:25 bGUYO486
>>510 ありがとうございます。
mdadmというのが有るのですね。

今回のようにハードディスク前半のWin領域はそのままraid1で、
後半のlinux領域もraid1にしたい時は、
raid1状態にlinuxをインストールするのは無理でしょうか?
RaidのBIOSでハードディスク後半は通常状態に戻し、
片方のハードディスク(の後半)にインストールして、
そのシステムで起動してから、raid1の設定をする、
という感じのなるのでしょうか?
#質問が分かりづらかったらスイマセン。
#そもそもmdadmのraid1の領域から起動することはできない?

512:login:Penguin
07/12/19 17:50:49 UvMw/7fp
mdadmで同期するとメモリーが増え続ける(メモリーリーク)

何が原因だろう・・・

外すと増えない・・・

あぁ、折角Raid組んだのに・・・

513:login:Penguin
07/12/19 23:56:27 dXqKwU0p
>>511
ああまた一番面倒な構成を・・・

LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
後ろ半分だけmdすれば使える。アクセスするのなら、Windows側から見える
RAID構成と整合性を保つため、mdではなくベンダ依存ソフトRAIDドライバが
必要。正直お勧めできない。

ブートはmdの場合は別に問題なくできると思う。

お勧めは100% LinuxかWindowsにして、片方はVMwareとかで動かすことだな・・・
当然RAIDはLinuxもしくはWindowsが標準で持ってる標準のSoftRAIDドライバで、
チップセットの機能は殺して使う。

514:513
07/12/19 23:58:47 dXqKwU0p
> LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
> 後ろ半分だけmdすれば使える。

嘘です。ごめんなさい。チップセットのなんちゃってRAID機能が
どういうディスクレイアウトでHDD記録面使ってるかLinuxから
知りようがないので、「後ろ半分だけmd」は不可能です。

あきらめてベンダのSoftRAIDドライバで頑張るか、もっとベターな
ベンダドライバは捨てて片方は仮想化で稼動がおすすめ。



515:login:Penguin
07/12/20 01:06:41 ah4LLGVs
つかいまどきHDDなんてクソ安いんだから
ひとつのHDD分割してそれぞれRAIDなどと
金払ってわざわざ面倒を買うようなことはやめて
HDDひとつ増設しろ、というのが
全うなアドバイスだと思うが。

わざわざ面倒を買いたいMの人なら
ここで聞かずに、自力でMるべき。
その方が長期間楽しめる。

516:login:Penguin
07/12/20 01:15:18 7Ear3seQ
その話だけど、HDDって最近あんま下がんないよね。
500GBを春先に大量買いしたんだけど、ついこないだ1本追加したらほとんど値段一緒だった。

517:login:Penguin
07/12/20 11:59:43 9JqjcHOR
去年の夏に買った MaxLine Proの500GBは約2.8万円だった。
後継機種(?)の Barracuda ESの500GBは現在約1.6万円で買える。

このクラスは既に十分安くなったのだと思う。
過去の例から見ると、どんな容量でも 1.5万くらいで低下速度がにぶり、
その後ジワジワと1.0万前後まで下がって、消えていくパターンでは。
(最低容量路線 1製品だけは例外としてその後も残す感じ)

現在価格低下中なのは、もっと大きい容量のものだと思う。
URLリンク(www.watch.impress.co.jp)
URLリンク(www.watch.impress.co.jp)

518:login:Penguin
07/12/20 17:11:44 bKOgxsVo
>>513-515
オンボードRAIDでパーティションを切って(複数の)Windowsを入れる場合には全然面倒な事は無いのですが、
その内1つでもLinuxを入れようとすると、とたんに凄く面倒なことになるみたいですね。
その事がハッキリしてよかったです。
Linuxは仮想化で使用する方向で検討します。ありがとうございました。

519:login:Penguin
07/12/20 17:31:46 PCc7T4fL
たぶんすごく勘違いしてる気がするけどまあいっか…

520:login:Penguin
07/12/21 00:27:42 2IO5/NZD
きっと >>518 は微妙に勘違いしてるね。

勘違いしてる場合、>>518 はチップのRAID機能を相変わらず有効にしたまま
ベンダ提供ドライバで使ってるはず。ちゃんと理解してるなら、チップは
ただのインタフェースチップとして使って、RAID自体はWindowsのSoftRAID機能で
実現してるはず(それができるチップなら、だけど)。

なんちゃってRAIDを使うことの面倒(&危険=ボード変えたらあぼん)さと、
Windows/Linuxの双方で共通のディスクレイアウト情報を共有する面倒さの
2つがあることは理解されたのだろうか・・・

521:login:Penguin
07/12/21 08:17:35 vT/e4/3W
>>520
アドバイスはあり難いのですが、Win上の仮想環境でのLinuxの使用が思いのほか快適ですし、
ホストOSがWinなのでオンボードRaidに関しても面倒がありません。
この環境を捨てて、かつWin領域までSoftRAIDで再構成しなおしてまで、
Win/Linuxの切り替えboot環境に移行する気が起きません。悪しからず。

なお、ICHの世代が変わっても下位互換性は確保されているようですし、
M/Bのメーカーが変わってもサウスがICHなら問題ないはずですので、
「ボード変えたらあぼん」は言いすぎかと。

なお、FakeRAIDがSoftRAIDに勝っている点として、
(1)BIOSが起動した時点からRAID機能が使える,
(2)BIOS側の設定だけでRAIDが使えてしまう
と下記では言っています。これが一般に受け入れられる主張かどうかは知りませんが参考まで。
URLリンク(itpro.nikkeibp.co.jp)

522:login:Penguin
07/12/21 10:14:34 BvrFe3Un
結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから
何をチョイスしたところで諦めるしかないわ。

523:login:Penguin
07/12/21 10:48:48 4VlKmS8l
>>521
とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。

BIOSレベルでミラーとか作れるのは便利だと思うけど、
OSからまともに使えない場合はまったく意味がないからなぁ…。
ドライバがまともならFakeも良いだろうね。
Linuxだとその条件が以外に難しいからSW使ってる人も多い。
(dmraidとかだと結構ちゃんと使えます?>使ってる方)

あとBIOSでアレイいじってる間はOS起動しないから
可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。

524:login:Penguin
07/12/21 16:03:13 vT/e4/3W
>>523
可用性という言葉は知りませんでした。

URLリンク(e-words.jp)
可用性、つまりシステムの壊れにくさのこと。
障害の発生しにくさや、障害発生時の修復速度などによって計られる。

> あとBIOSでアレイいじってる間はOS起動しないから
> 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
Intel matrix storage manager というのがあってOS稼動したままRaid1のアレイの復旧も出来るようです。
もちろん復旧中はHDアクセスは非常に重くなったりしますし、
世の中にはもっと可用性の高いシステムもあるのでしょうが、
デスクトップPCの可用性としては、現状で個人的には充分です。
# 可用性が重要視されるであろうサーバー機だったら、
# Win上のLinuxで運用などしませんしw

> (dmraidとかだと結構ちゃんと使えます?>使ってる方)
使ってませんが、ggってみた限りではdmraidの出来はあまり良くないような印象を受けます。
というかlinuxのFakeRaidとSontRaidに関しては、既に>>192で結論が…。

525:login:Penguin
07/12/21 18:40:58 DRFyI6f4
今時OSが起動しない状態でしかリビルド出来ないようなのはねえよ

526:login:Penguin
07/12/24 14:03:23 brxL+xQV
そのせいでリビルド中に何回壊れたことやら。

527:login:Penguin
07/12/24 16:20:29 pkkqmlH/
関係ないだろ馬鹿か?

528:login:Penguin
07/12/27 00:40:51 rLyRK7d3
RAID1,5は可用性をあげる目的と考えた方がいい

故障時に可用性よりデータ保全を最優先する場合、冗長性が無くなった段階で

ジャーナリングログでデータ部分を別ディスクにバックアップしている場合はそのままリビルド

そうじゃない場合リビルドで壊れる可能性を考慮して、

 RAID1の場合一台外してバックアップする
 RAID5の場合全台外してバックアップする

RAID5よりRAID1のリビルドの方が負荷が少ないのでリビルド中にRAID5ほどは壊れない


故障時に可用性とデータ保全を両立させるためにはRAID6なりを用意するのがよい
データ保全を考えるなら2台壊れたら停止させることになるけど。

529:login:Penguin
07/12/27 00:43:25 rLyRK7d3
こっちのほうが全然分かりやすいorz
URLリンク(ja.wikipedia.org)

530:login:Penguin
07/12/27 01:16:49 K2qSwS4Z
>>528
529に書いてあるとおり、データ保全は基本的にバックアップの仕事だね

ただ、バックアップは定期的にとるものであって、アレイが縮退して初めてとるのでは遅いよ。
バックアップの読み出しでアレイが壊れるリスクに対応できない。読み出し成功すれば問題ないんだけど。
ま、数台くらいまでならあまり気にしなくていいリスクなんだけどね。

531:login:Penguin
08/01/05 15:15:32 MAvpolV9
mdadmの話なんですが現在320Gを6台でRAID5組んでる
んですが、少し容量足りなくなってきたんで1Tを2個
追加して

320>|RAID0(1T)
320>|--------→>|
320>|     

320>|RAID0(1T)
320>|--------→>|RAID5(3T)
320>|

1T-------------→>|

1T-------------→>|

こんなの考えてるんですが、mdだけで構築できますかね?
やっぱりLVM使わないとダメ?


532:login:Penguin
08/01/05 15:48:37 gm0qG86Q
上から順番にmd0、md1、md2として。

もし仮に出来たとしても、md0~2まで同時にactiveになるけど
その際md2の要素が1つ欠けているわけで、立ち上げる度に
md2のリビルドが発生しないだろうか?

面白そうだから、実験してみては。

533:login:Penguin
08/01/05 17:02:09 MAvpolV9
アレイの組みあがる順番が問題ですよね。
そのあたりデレィさせることができないかな?...と。

しかし、よく4台のHDDでRAID0+1とかで組んでるという
話聞くんですがあれもこれと似たような話のような気がする。


534:login:Penguin
08/01/07 15:40:04 dghccbSz
Virtual PCでやってみた。
まず64MBのパーテション2個をRAID0にしてその後に
128MBの別のパーテション2個でRAID5組んで見た。
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(384MB)
128MB-------------------→>|
結果>OK
ちゃんとmd0作ってからRAID5作成してくれてるみたい。
fstabで自動的にマウントもできた。
それではと、さらに64MBのraid0パーテション追加してみる
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB)
128MB-------------------→>|
64MB> |raid0(128MB)
64MB> |--------------→>|
追加自体は問題なく、パーテションの拡大もできた。
が、再起動すると最後に追加した方のraid0が外れて
Raid5は3セットで動作してる......orz
どうもログ見て見ると単純にアレイ作成順番で認識
してるようで後ろのraid0も起動後はアレイとして
作成されているが、Raid5構築時認識されてないので
外されてしまったみたい。
なんとか、アレイの起動順番変えられないものか...

535:login:Penguin
08/01/07 16:57:20 /TlGVyIM
>>534
mdadm.confの記述を変えるんじゃダメなの?
アレイのUUID(orデバイス群)とデバイス名(md*)の対応情報が
mdadm.confなんだからそこを書き換える。
予想としてはmd0から順に起動するだろうから、
新しい64MB/raid0をmd1、512MB/raid5をmd2に直せば問題ないと思われ
# 当方debianなんで流儀違ってるかもしれない。

536:login:Penguin
08/01/07 17:31:09 dghccbSz
>>534
テスト環境はdebian etchっす。
漏れもそう思って順番変えてみたんだがmdadm.confの
情報はアレイの構成情報じゃなくてモニタリングする
時の比較情報に使うものみたいで、状況変わらなかった。

そもそも
64MB> |raid0(128MB,md2)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB,md0)
128MB-------------------→>|
64MB> |raid0(128MB,md1)
64MB> |--------------→>|

md2→md0→md1の順番で作成してるんだ。
で、md2とmd0のだけの時は問題なかった。

mdadmのアレイ構成情報はどこに記述されてるんだろ。
mdadm.confって無くても動作するし、どこか別の所に
設定されてるはずなんだが、、、、。

537:login:Penguin
08/01/07 18:14:22 /TlGVyIM
>>536
そうか、力になれなくてすまん
/etc/init.d/mdadm-raidあたりを覗くと、
mdadm --assemble --scanとかやった出力を各行で処理してるんで、
ずっとmdadm.confで制御してると思ってたよ

mdadm.confを読まない場合は、アレイ構成情報はPersistent Superblock
(構成パーティションの最後の方)に入ってるはず。mdadmのオプションで見れる
ただデバイスの起動順までそこに入れる、ってのは非合理なんだよなぁ……

538:login:Penguin
08/01/07 18:25:08 dghccbSz
>>537
すまんできた。

少し考えれば分かることだがraidの構成はinitdの起動スクリプトは
の中にあるんだな。ダイレクトにイメージ開いて編集して構成順番を
md2→md1→md0に書き換えたらOKだった。

initrd.imgを作り直す時にmdadm.confを参考にしてイメージ作り直し
してるみたいね。だから単にmdadm.conf書き換えようが消そうが
raidは構成されるわけだ。

明日、1TB2個買ってきて実機でやってみよ。


539:login:Penguin
08/01/07 18:47:31 /TlGVyIM
>>538
おつ。ちなみにこっちで調べた感じだと、
起動はPersisten Superblock内にあるsuper-minor値の小さい順?な感じ
(後から作った64MB/raid0はsuper-minor値が大きいので、
/dev/md*の数字が小さくても後に起動される)
initrd.img作るときにmdadm.conf読むってのは初耳だなぁ。
あとで調べてみよう。

540:login:Penguin
08/01/07 18:51:45 6LLk5psJ
>>539
grep mdadm.conf /sbin/mkinitrd

541:login:Penguin
08/01/07 18:54:15 /TlGVyIM
>>540
THX

542:login:Penguin
08/01/08 17:53:05 OGlZLqVZ
スワップ領域って同期する必要ってあるの?

543:login:Penguin
08/01/08 21:32:25 kFPjRcz2
なぜ同期を取らなくても良いと思ったのですか?

544:login:Penguin
08/01/09 09:16:36 nJLLxpTq
バックアップする必要性がないと思ったからです

545:login:Penguin
08/01/09 20:10:34 vhzJqQMp
どうも釣りではなく、真面目な質問のようなのでお答えします。

稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。
もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する
HDDが不良になった場合、SWAPパーティションが見えなくなります。
これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。
試したことはありませんが、きっとkernel panic行きでしょう。

SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても
冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。
結果、OSは問題なく稼動することができます。

システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に
RAID内に含むべきです。

システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを
RAID内に含ませなくてもいいでしょう。

こんな所でおけ?

546:login:Penguin
08/01/09 23:10:36 QSyCJota
>>545
解説乙です。

むかし同じ疑問を持って、起動中にスワップパーティションを
削除してみたところKernel Panicになりましたw それ以来、
まともな鯖の構築では必ずスワップのミラーもするようにしてます。

547:login:Penguin
08/01/10 07:10:57 Xl1xx6Km
それミラーとか関係ないお前のミスじゃん

548:542
08/01/10 09:17:31 Y4ukHsPA
>>545
勉強になりました
分かりやすい解説ありがとうございました

549:login:Penguin
08/01/11 05:10:20 pC8cgKoa
>>547
いちいちレスするのもくだらないですが
ミスじゃなくて実験ですよ


550:login:Penguin
08/01/11 10:15:26 bKTO3W/i
>>549
何にでも文句つけたがる年頃なんでしょう。
脱初心者ぐらいの。

551:login:Penguin
08/01/11 10:31:57 1u4+JVGt
そういった輩はしつこいからスルー推奨

552:login:Penguin
08/01/11 17:00:47 oau76v1R
Kernel Panicとか馬鹿じゃねーの

553:login:Penguin
08/01/11 23:06:14 nnTIF6b/
>1
出直して来い!

って、ちょうど1年前・・・


554:login:Penguin
08/01/14 00:42:46 X6gV4HK4
FC6でSATAのHDD*4でソフトのRAID5を組んでNASとして使ってるんですが
ネットワーク上からアクセスできなくなり調べてみたところ4台ともRAIDのアレイからリムーブされていました
再起動してみたところ最初は正常に動いているのですがしばらくするとまた停止してしまいます
この場合4台とも壊れているとは考えにくいのですがどのように確認、リビルドしたらいいでしょうか?

555:login:Penguin
08/01/14 09:04:43 6ov9yz32
>554
SATAケーブルが緩んでいる可能性あるかも
外してみて抜けやすかったら寿命


556:login:Penguin
08/01/14 09:10:28 lY+WgiSQ
/var/log/messages見たら、何かログが残ってるんでは?

557:login:Penguin
08/01/15 12:43:56 eGPzviNd
URLリンク(www.owltech.co.jp)
VIA C7のPadLock ACEでTrueCrypt暗号処理 + RAID5とかすると
かっこよさそうだけど、電源がACアダプタ 120Wでは...

558:login:Penguin
08/01/18 10:32:12 Onzb7zVS
URLリンク(orz.4chan.org)

559:login:Penguin
08/01/18 22:19:59 /N+doRnf
3ware 9500S-4LPを
構成250G×4でRAID5、Debian etchで使用してます
今はまだ余裕がありますが今後容量が少なくなってきたら
オンライン拡張とやらで
例えばRAID5のまま全部500G等に入れ替え容量を増やすことができる物なのでしょうか
よくわからないのでご存じの方教えて下さい。


560:login:Penguin
08/01/18 23:31:10 wp/0tR8X
一台入れ替える→リビルド
これを4回繰り返してドライブを全部入れ替える
その後オンライン拡張で増量。
結構手間&ヒマはかかる。

で、増えた分を別パーティションとするなら問題ないけど
ファイルシステムを拡張(既存のパーティションを大きくする)
となると LVMを使ってない場合にはかなり大変。
LVM未使用の場合、一旦全部バックアップを取って、
ドライブ入れ替え→丸々新しくRAID構成→リストア
の方が断然早いし、楽。

561:login:Penguin
08/01/18 23:42:23 wp/0tR8X
ん? 待てよ。
オンライン拡張ってドライブ単位のみだったか?
マニュアル読んでみたけど、
そもそも使用してるドライブに空きがあるという前提は存在しないから…
確実なことは、サポートに聞いた方がいいと思う。

が、俺だったら、一旦バックアップ取ってゼロかやるな。
ほんの数時間で終わる作業だし。

562:login:Penguin
08/01/19 10:41:26 KPd9mEy8
>>561
ありがとうございます
私もよくわからなかったのがそこなんですよ
ドライブ単位の追加だと空きがない時点で
できないですからね。
新たに4ポート以上の物に交換するか
一からやり直すかですね。


563:login:Penguin
08/01/20 12:30:39 Kq5k1NMa
SCSIでRAID組むと高いんですか?

564:login:Penguin
08/01/20 13:03:30 VSFaVtzp
HDD の値段見てみりゃ大体わかりそうなもんだが...

565:login:Penguin
08/01/20 19:43:13 f+pgQsPW
安いよ。

566:login:Penguin
08/01/20 20:35:48 /mh+B85/
バッファローのTeraStationってLinux md?

567:鯖”管理”者
08/01/20 20:50:05 ZhP37dc/
先生方、ご教授ください。
先日、RAID1のDELLサーバのシステムボードが故障したので、電源を落とした。
交換後、電源投入するもOSが起動不可。レジストリが壊れたみたいなmesage
なぜ、こんな事に??RAID1なら、片方おかしくなっても、読み取り可能ディスク
からREADしにいくのではないんですか?


568:login:Penguin
08/01/20 21:50:07 iSaKK8Ey
>>567

RAIDとて、どのディスクをどのような構成で組み立てるのかの管理情報
がいる。管理情報がBIOSか何かのフラッシュなどに書かれていて、それが
飛んだじゃない? その「レジストリが壊れたみたいなmessage」をここに
書いてみ?


>>566

そうだよ。

569:login:Penguin
08/01/20 21:52:27 VSFaVtzp
RAID だから OS に変なレジストリを書けと言われたら、両方の HDD
に変なレジストリを書き込みにいく。

仕様通りですが何か?

570:login:Penguin
08/01/20 22:27:46 Kq5k1NMa
アドバイスお願いします。
RAID10を組んだサーバを、LinuxでデータベースとNAS(というかファイルサーバ)
として運用したいと考えています。
そこで、このマシンはデータ領域専用としNFSを立てて、別途RDBMS、ファイル共有は
マシン(ML115とかの格安機)を用意してデータをNFSで共有する案を思いついたのですが、
こういうやり方ってどうでしょう? パフォーマンス悪いかな

571:login:Penguin
08/01/20 22:39:57 k9dIsucL
RDBMS (Oracle とか PostgreSQL)とかの本体は別マシンで動かし、データ領域だけファイルサーバをマウントして、そこに表領域とかを置くってこと?
遅いと思うよ。

たてる RDBMS にどれくらいの性能を求めるか、同時アクセス数にもよるけど、RDBMS でアホな SQL を投げると
CPU 100% 持ってかれることもあるし、大量の件数をさまざまなテーブルから取ってくるような SQL だとディスクアクセスをもっていかれる。
おれは開発環境では、DBサーバとファイルサーバは物理的に分けてるよ。


572:login:Penguin
08/01/20 22:47:36 M6/8RitH
DBはクエリをon memoryが基本なんじゃないのか?

573:login:Penguin
08/01/20 22:53:04 k9dIsucL
>>572
理想はそうだけど、更新系のSQLも使うし(そのアプリケーションの性格や、一回に更新するデータ量にもよるけど)、
開発やテスト時だったら、export / import もひんぱんにやることもあるだろうから、いずれにせよ
データ領域を NFS 越しに使うというのは、あまりお勧めできないと思う。

574:login:Penguin
08/01/20 23:50:53 VSFaVtzp
> (データベースの) データをNFSで共有する案を思いついたのですが、

実運用なら、まずありえない...

575:login:Penguin
08/01/21 00:12:27 qM82RYen
自分も最初は工エエェェ(´д`)ェェエエ工って感じだったが、
最近はRACなんかだとNASを共有ディスクとして使う例が増えてきている。
SANなどのブロックアクセスに比べて扱いが簡単になるしね。


576:login:Penguin
08/01/21 01:03:14 /80iiPEb
パフォーマンスが云々より,ロックとか問題ないの?


577:login:Penguin
08/01/21 01:10:59 hxdOAtHc
>>576
だからそれをちゃんと意識してるのがクラスタFSって奴。

578:login:Penguin
08/01/21 02:59:00 RnyPYnCW
OracleとかでNetApp等をファイルサーバにしてNFS越しに使うっていうのは
かなり昔からやられていたことだからなぁ

579:login:Penguin
08/01/21 05:24:08 fkuqhVfb
>>570
どのあたりまで共用したいのかによるだろうけど
iSCSIならそんなに遅くならなかったよ

580:570
08/01/21 09:14:01 ABezklEe
>>570です、みなさんどうも
自宅サーバでの運用でそこまでやるものどうかと思ってるんですよね…

581:login:Penguin
08/01/21 10:37:28 qM82RYen
>>577
それはちょっと意味が違う。
クラスタFSの代わりとしてNFSを使う。
クラスタFSは、複数ノードから直接マウントしてブロックアクセスさせるために使うものだし。


582:login:Penguin
08/01/21 18:46:11 Ml+uIs4Z
RAID10をみくびっていた、これはいいわ。

583:login:Penguin
08/01/21 18:56:42 5oPPsRCb
>>582
mdadm?

584:login:Penguin
08/01/21 19:13:44 psEK2uGZ
たしかに金銭面と実装台数と容量の兼ね合いが問題なければ10が速度も安定性もあって一番いいな
何よりリビルド時の故障率の低いし

585:login:Penguin
08/01/21 22:46:15 d8TwXO3z
漢ならRAID0だろ

586:login:Penguin
08/01/21 23:00:49 hxdOAtHc
>>581
ああロックって普通のNFS上のファイルロックの話だったか。


587:login:Penguin
08/01/22 01:50:08 j1simr6K
>>580
iSCSI簡単だよ
md+LVMにiSCSI target LV用意してMacから使ってるよ。

588:login:Penguin
08/01/22 03:49:38 d+IS9wuL
yes
お手軽なので試してみては?>iSCSI >>570


589:login:Penguin
08/01/22 03:53:10 d6P1Z5B2
>>585
RAID0はRAIDにあらず

590:login:Penguin
08/01/22 10:04:27 ByANW+Kw
そーいう揉める元を言わない方が・・・

591:login:Penguin
08/01/22 10:11:08 +9P7njkg
RAID0使うやつは人間のクズ。

592:login:Penguin
08/01/22 13:10:01 ByANW+Kw
だからさぁ

593:login:Penguin
08/01/22 13:56:21 eslKqOkh
あのさぁ

594:login:Penguin
08/01/22 16:33:32 rk9O7CGm
>>589
事実ではあるが
流れ的に
あえて書くことでもない

ネタニマジレス

595:login:Penguin
08/01/22 18:30:28 mkmfUeTP
デスクトップのシステム用のHDDなんかはストライピングだな
週一回自動で鯖にバックアップ取らせてるし問題ない

596:login:Penguin
08/01/22 19:07:13 l4R+Ipoe
バックアップが日曜だったら土曜日にRAID0が壊れる件

597:login:Penguin
08/01/22 19:15:30 mkmfUeTP
システム用のアレイなんか大して大事なもんないからいいよ
ゲームのセーブデータやブラウザの履歴が古くなるぐらいだし
メールもケータイとデスクトップとノートと鯖に同じものが行くようにしてあるしね
困るのは鯖がRAID5なんだがリビルドはすべて新しいディスクにドライブイメージをコピーしてからするようにしてるんだけどそれでも2台目がコピー中に死ぬ可能性があるということだ

598:login:Penguin
08/01/22 20:27:49 igDhRHFt
RAID6 にすりゃいいじゃん。

599:login:Penguin
08/01/23 23:04:52 H/ZtqkUt
>>595
おお、俺がいる。
うちはバックアップのあとシャットダウンするスクリプト書いて
毎日バックアップだけど。

600:login:Penguin
08/01/24 16:46:17 7c4gJd41
カッコンカッコン…

601:login:Penguin
08/01/24 19:35:26 d7j3JduP
アッー!

602:login:Penguin
08/01/25 03:19:34 eST0kDMC
mdadmでRAID10を構築しようと思ってるんだが、
どのディスクとディスクがミラーリング構成になるか指定ってできないんですかね?
sda1とsdb1でストライピング、hda1とhdb1でストライピング、みたいな形にしたいんですが・・・
レイアウトのnearとかfarとかが関係してそうな感じなんですが、英語がわかんね

このアドレス見たけど全然わからん・・・
URLリンク(en.wikipedia.org)

603:login:Penguin
08/01/25 09:13:14 Ywyn1H84
>>602
--createで並べた順じゃね?
--create /dev/md0 --level=10 /dev/sda1 /dev/hda1/dev/sdb1 /dev/hdb1
これで -n2 のレイアウトでAAが sda1とhda1, BBがsdb1とhdb1

604:login:Penguin
08/01/25 09:15:26 Ywyn1H84
すまん
>これで -n2 のレイアウトでA1,A1が sda1とhda1, A2,A2がsdb1とhdb1



605:login:Penguin
08/01/25 19:21:32 V+xKWgCR
createしてみればすぐわかることで、しかも直後にやり直せる話なので詳しい話が見あたらないのかもね

606:login:Penguin
08/01/25 20:40:45 eST0kDMC
thx、ちとためしてきまっす
ついでに質問、ディスク4本で容量使用率50%の場合、RAID10、RAID5+予備1、RAID6どれがパフォーマンス一番いいんだろ?
ライト、リード、ランダムライト、ランダムリードあたりがどういう順番になるのかなーと

信頼性はRAID6>RAID5+1>RAID10だとは思うんだが・・・

607:login:Penguin
08/01/25 20:51:52 3TQL9c8W
RAID10>RAID6>RAID5
スペアなんて個人で使うなら使ってもあまり意味がないぜ
1台死んでからリビルドするまではアクセスなんてそんなにしない(できない)だろうし
RAID5で壊れたときの対処としては経年的な寿命の場合リビルドする前に同じ台数の新品のドライブを用意して
そこにドライブイメージを写してすべて新しいドライブにしてからリビルドしたほうがリスクは大幅に減る
吸い出した寿命の近い可能性のあるドライブはヤフオクなり祖父やドスパラで処分すれば新品のドライブ代の少しは回収できる

608:login:Penguin
08/01/26 00:05:54 OimhjIZ5
>>607
プライベートといえど漏洩は困るから、
なるべく中古には流さない運用にしてるなぁ
事実上大丈夫なんだろうけど、可能性は摘んでおく

>>606
信頼性=アレイが壊れない確率ってことだとして、4台構成でランダム選択で壊れるとすると、
RAID10 → 1台目の破損では生存(リビルドのリスク有)。2台目の破損時1/3の確率で死亡(リビルドのリスク有)。3台目の破損時100%死亡。
RAID6 → 1台目の破損では生存(リビルドのリスク無)。2台目の破損では生存(リビルドのリスク有)。3台目の破損で100%死亡
RAID5(スペア1) → 1台目の破損では生存(リビルドのリスク有)。リビルド前なら2台目の破損で100%死亡。

って感じになる。詳しくはリビルド時の破損確率とか、本当にランダム破損か、
とかいろいろ確定しないと。あとコントローラ故障は考えてなかったり、
セクタ単位のエラー検出は確実に行われる、という仮定があったり。

609:login:Penguin
08/01/26 02:06:29 VmtKdJVs
>>608
zero-fillしちゃえばFBI等の専門機関でも厳しいみたいだよ
IBMやHITACHIのドライブならIBMのDiskManagerでさらに強力な初期化コマンドがあったと思う

610:login:Penguin
08/01/26 12:43:25 ShBosd97
6台で10Nしようぜ

611:login:Penguin
08/01/26 17:27:02 nkamkNao
合計ディスク台数が4台で、RAID5+1とRAID6を視野に入れてるなら、大概の用途でRAID10だと思うぞ。
パフォーマンスについても、RAID1要素があれば同時readには強くなるがアクセスが1本の場合には速くならん。
RAID10だとmdのfar/nearのあたり読んだらいいが、作り方によってパフォーマンス特性変わる。

612:login:Penguin
08/01/26 17:59:20 bPajQjx1
パフォーマンスの話する割には、md 前提なの?

613:login:Penguin
08/01/26 18:01:03 mwRJnWKL
U320の15krpmなHDD6台でRAID5マジオヌヌメ

614:login:Penguin
08/01/26 18:19:52 OimhjIZ5
>>609
そうなのかー。情報サンクス。
そのあたり情報収集甘かったから、きちんと調べてみる。

615:login:Penguin
08/01/26 21:53:22 nkamkNao
>>612
>>602

616:login:Penguin
08/01/27 15:12:51 T5/DDvID
>>612
最近CPUって速いしマルチコアだからね。

617:login:Penguin
08/01/27 18:52:46 yrfH7ugV
wikiの/near/far/offset必死で読んでみました、ついでに他にも読んでみた
間違ってたら指摘よろ

chunkは構成ドライブに順番
nearが同一chunkを連続何回書き込むかのパラメータ
4ドライブでn2なら2回同じデータが書き込まれる(2台でRAID1のイメージ)
4ドライブでn4なら4回同じデータが書かれる(=4台全てでRAID1)

farがドライブ的に遠い所にデータを書き込む処理を何度やるか。その際chunkの順番を変える
(A1 A2 A3 A4だったのを2回目はA4 A1 A2 A3みたいな)
使い道としては
 ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある
 chunkの順番が変わるため、アレイ内の破損ドライブ許容数が調整可能
 4ドライブでf4なら1台でも生きていればアレイが崩れない?

offsetがfarを近距離でやるのかな?よくわからん

4ドライブ構成に限って言えば
 n2だと通常の1+0、2台目破損時で1/3で読み取り不可
 n2f2だと1台でも生きていれば読み取り可能
 f3は2台まではどの組み合わせでも読み取り可能、3台目破損時100%読み取り不可
 f4は1台でも生きていれば読み取り可能

パフォーマンスはわからん・・・実際試せば良いんだろうが、VM上でやっても意味無さそう

618:login:Penguin
08/01/27 21:25:28 Zwy096+O
fatの使い道ってそんなこと書いてあった? 流し読みだけど、
>This is designed for rarely-written data; writes are slower because they are scattered, but the first 1/f of each drive is a standard RAID-0 array. Thus you can get striping performance on a mirrored set of only 2 disks.
だから、場所が分散されて遅くなるのでカキコが希なデータ向けだが、各ドライブのfar数分の1の領域はRAID0化されるから例えば2ドライブのミラーリングでもs-readはストライピングの速度期待できるよ
という話じゃないけ。offsetだと場所が遠くなりすぎないのでwriteペナルティは軽減されると。台数分の0相当のread得られるんなら10ユーザは積極的にoffset使えばいいんじゃないかね。

>ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある
read err出たらそのドライブごと切り離しそうなもんだがなー
どっからが推測か書いといてw

冗長性の話は実験した方がいいと思うのと、容量1/2未満になるのはどうかと思うわけで、たぶんあまりテストされてないよ。offsetだけでいいんじゃないかね

619:login:Penguin
08/01/28 00:21:35 Bd7bwdVe
ああごめんごめん
シリンダうんぬんは推測で、他はググってるときにどっかでみたんだが・・・
どこだったかまではちょっとわからん

速度は分からんが、ひとまず冗長性だけVMで試してみます

620:login:Penguin
08/01/30 12:49:19 6dHf0JHT
すみません質問させてください。

IODATAのNAS、HDL-GTでHDD4台-RAID5で構成していたんですが、
今日起動しなくなってLED全部が赤点灯状態になり、
データを救いたくてあれこれやってみているところです。

WEB設定画面には入って見てみると、
「RAID崩壊」「ハードディスクのシステムの内容が一致していない」
と出ています。

そこでKNOPPIX機に繋いでmdadmアセンブルモードしようとしましたが、
--uuid指定では「uuidが無い」、/dev/sd[abcd]6指定だと「superblockが無い」と蹴られます。

例のリコンストラクタで取ったイメージファイルにxfsrepair -f してみましたが、
これはエラーで途中で終了してしまいました。
イメージではなく直接ディスクに貼り付けてみても同じです。

ぼくのかわいそうなオツムではこのあたりまでしか思いつくところもなく手詰まりとなっている次第です。
どっか間違ってる部分とか他にやってみることとかありましたらご指摘お願いします。

621:login:Penguin
08/01/30 14:15:06 gOhDQINq
自分は使ったこと無いので基本事項の確認のみ。
的外れかもだけど。

> /dev/sd[abcd]6

HDL-GTのmdはパーティション6番目使うのが普通なの?

622:login:Penguin
08/01/30 16:28:35 p8UdA4TA
今更こっそり>393にレスしてみる。
44GBを30GBにするのに15時間かかった。まぁ
|sda1(16GB)|sda2(44GB)| なのを
|sda1(16GB)|sda2(30GB)|free(14GB)| にして
|sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから
|sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。

なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので
たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。

623:login:Penguin
08/01/30 16:29:18 p8UdA4TA
今更こっそり>393にレスしてみる。GParted使用。
44GBを30GBにするのに15時間かかった。まぁ
|sda1(16GB)|sda2(44GB)| なのを
|sda1(16GB)|sda2(30GB)|free(14GB)| にして
|sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから
|sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。

なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので
たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。

624:login:Penguin
08/01/30 16:30:02 p8UdA4TA
ぬああああああああああああ二重送信してしまった

ちんこ切ってくる

625:login:Penguin
08/01/30 18:05:47 PeD2J8tS
>>621
> > /dev/sd[abcd]6
> HDL-GTのmdはパーティション6番目使うのが普通なの?

はい、

sda1 204MB
sda2 400MB
sda3 1GB
sda4(拡張)
├sda5 518MB
└sda6 230GB ←ここがRAID5でXFS

このようになっています。
他のパーティーションはRAID1で組まれててext3だったりします。

626:login:Penguin
08/01/30 21:32:01 wxcklNQA
なんか妙にパーティションをたくさん切られてるよね。

普通のmdとは違う実装方法をしていたら、手が出せないよねえ。

627:login:Penguin
08/01/30 22:06:13 wxcklNQA
とりあえず
# mdadm -E /dev/sda6
で状態は見れるんでしょうか?

628:login:Penguin
08/01/30 23:34:24 x5QwYMj+
mdのoffsetとnear試しました(冗長性)

ディスクは全部4台構成(全て2G)

mdadm --create /dev/md0 --level=raid10 --layout=n2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
md0のサイズは4G、利用可能率50%
sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし
sdb、sdcをVMから見えなくする→アレイ崩れる
sdb、sddをVMから見えなくする→問題なし
sdb、sdeをVMから見えなくする→問題なし
sdc、sddをVMから見えなくする→問題なし
sdc、sdeをVMから見えなくする→問題なし
sdd、sdeをVMから見えなくする→アレイ崩れる
結果:1台障害は100%問題なし、2台目障害は1/3の確率でアウト
  やっぱり1台目と2台目、3台目と4台目でRAID1だったようです
wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・)
1 1 2 2
3 3 4 4
5 5 6 6
7 7 8 8

629:login:Penguin
08/01/30 23:37:26 x5QwYMj+
mdadm --create /dev/md0 --level=raid10 --layout=o2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
md0のサイズは4G、利用可能率50%
sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし
sdb、sdcをVMから見えなくする→アレイ崩れる
sdb、sddをVMから見えなくする→問題なし
sdb、sdeをVMから見えなくする→問題なしに見えたが、re-addで無限ループになってアウト
sdc、sddをVMから見えなくする→アレイ崩れる
sdc、sdeをVMから見えなくする→問題なし
sdd、sdeをVMから見えなくする→アレイ崩れる
結果:sdb、sdeをアレイ崩れとしたら1台障害は100%問題なし、2台目障害は2/3の確率でアウト
 どうも不安定な気がする。sdb、sde意外にもsdcsdeあたりでも変になって再構築してます・・・
wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・)
1 2 3 4
4 1 2 3
5 6 7 8
8 5 6 7


n3とo3もやりたかったんだが、アレイ構築の最後でVMがハング。うちのバージョンが古いせいかも
推定としてはn3とo3両方2台障害でも100%大丈夫なんだがなあ

o2を使う場合は実環境で事前テストしてください、今回の印象だとどーにも動作怪しい
パフォーマンス差についてもさっぱり。レイアウトから想像すると、o2のほうがn2より早そうな予感がするかなーってところ

630:login:Penguin
08/01/31 12:23:09 SwZ0bbCA
>>627
レスありがとうございます。

全てのディスクで、
mdadm: No superblock detected on /dev/sd*
と出ます。

631:login:Penguin
08/01/31 17:05:31 KV+A+s93
超基本的な質問があるんだけど

2台でハードウエアRAID1組んでて1台が壊れた場合、
残った1台も取り出してSATA→USBケーブルか何かつないで普通にアクセスできる?

632:login:Penguin
08/01/31 17:11:08 KSncdjll
できる
けどHDDがPATAだと無理

633:login:Penguin
08/01/31 17:16:31 KV+A+s93
うほ!即効ありがとう。

じゃSATA使ってる
URLリンク(buffalo.jp)
とかなら大丈夫なのか。。買うかな。


634:login:Penguin
08/01/31 19:21:58 jIoJh5GZ
>>630
う~ん。。。
正直なところダメだこりゃ、と言いたい。

パーティション情報は残っているのにRAIDの情報だけが消去されるってのはおかしな話よね。
壊れているんじゃなくて、何かが誤動作してRAID情報だけを消してしまったのかな?
素直に一度メーカーに問い合わせてみた方がいいかも。

635:login:Penguin
08/02/01 00:10:42 skbei6UK
3wareもしくはその他でハードウェアRAIDが組めるインタフェースカード
安価でおすすめのものを教えてもらえませんか?
動作環境はCentOSでRAID10で運用したいです

636:login:Penguin
08/02/01 01:28:03 r8ITSzIN
>>630 >>634
古い LInux 使ってて /dev/sd** のはずが、 /dev/hd** になってたりして。

637:login:Penguin
08/02/01 10:11:44 gycrWFaA
> けどHDDがPATAだと無理
なぜ?
SATAとPATAって運用上はデバイス名が違うだけだと思っていたのですが…
だとするといまPATAでミラーしてるけど万一を考えてSATAで組み直した方が良いのかな?

638:login:Penguin
08/02/01 10:15:09 EV/CxyDO
PATAにSATA→USBケーブルは使えないな確かに

639:login:Penguin
08/02/01 10:18:14 dBBUm++4
自宅マシンでミラーリングとかお前ら余裕あるなー。
俺はRAID5で精一杯だよ。

640:login:Penguin
08/02/01 11:29:09 r8ITSzIN
>>637
インターフェースが何でもソフトウェアraidなら問題ないよ。
DVD-RAMでやった人もいるくらいなんだから。
ただし、認識タイミングの違いでraid自動認識がこけることがある。

641:login:Penguin
08/02/01 13:11:43 3oRMUEgb
>>635
「安価」っていくら位を想定してるの?
3wareがOKってことは10万以下とか?

642:login:Penguin
08/02/01 13:12:39 GwcDPWoT
>>641
アンカーつけて教えてくださいの意味w

643:login:Penguin
08/02/01 14:43:27 UDB5KdfE
>>639
RAID5組むくらいなら普通に4台マウントさせて
2台分バックアップ用にしたほうがまだマシ。
コエーぞ5は。

644:login:Penguin
08/02/01 14:51:08 3oRMUEgb
何がどう怖いのか詳しくplz

645:login:Penguin
08/02/01 14:51:41 qDeRbLmC
>>643
バックアップはバックアップとして別に用意するでしょ。

646:login:Penguin
08/02/01 15:07:40 myloF96k
もしかして、RAIDがバックアップ装置の代わりになると思ってると思ってるヤツがLinux板に居るの?

647:login:Penguin
08/02/01 15:09:46 N4C2bCGe
>>644

一台死ぬ→raid5だから平気さ(w。
入れ替えてリビルドする→生き残りの全てが高負荷状態に。
raidの仲間はたいてい同じロットの同じ製品。一台が死ぬころ
にはみんな寿命が近くても不思議ではない。
生き残りのうちの一台が……
全滅orz。

ってことが起こりやすい。っていうか割と起きる。

リビルド時に負荷がかかるのが、生き残りのうちの片割れな、
10の方がそういった意味では安心。

648:login:Penguin
08/02/01 15:10:28 3oRMUEgb
怖いかどうかはともかく、大容量のドライブがここまで安くなってしまうと、
台数が増えるほど有利になる RAID5 の価値が低下してるのは確かだね。
同じ750GB 4台なら 3台でRAID5 + 1台 spare より
RAID1 + 0 の方が速度も安心感もあって使える容量は同じ 1.5TBだもんね。

RAID5が有利になるのは 5台以上で構成する場合だろうけど、
個人の利用ではそんなに容量デカくする必要ない人が多いだろうし。
まぁ今現在なら 500GB×5 で RAID5 + spare という選択肢の方が安いのは確かだけど、
750GBのだってすぐに安くなるだろうし。
物理的な台数は少ない方が故障発生率も下がるし。

649:login:Penguin
08/02/01 15:13:50 N4C2bCGe
>>647
訂正。

>>644
上にスクロールしてみろ。

650:635
08/02/01 15:15:13 skbei6UK
>>641
やっぱり10万くらいになってしまいますか
安価とはいえ、5万以内には収めたいと思っているんですが、ちゃんとしたハードウェアRAIDで1+0を組んでみたいと思っているので、
10万ほどなら予算を用意したいと思います。

651:login:Penguin
08/02/01 15:15:42 3oRMUEgb
>>647
「割と」起きる?
俺は一度も経験したことないな~。
3wareのハードウェアRAID5構成のPCが
4台24時間稼働してるけど。

もっとも、ハードディスクをまとめて買うときは
最低でも最低2軒以上で分けて購入してるけどね。

652:login:Penguin
08/02/01 15:16:39 3oRMUEgb
ありゃ「最低」一つ消し忘れw

653:login:Penguin
08/02/01 15:17:53 myloF96k
>>650
とりあえず、誤爆を謝罪してこい

654:login:Penguin
08/02/01 15:18:44 3oRMUEgb
>>650
いや、なってしまいますか、ではなく、
予算とかスペック(必要なポート数など)とか分からんと
誰にも答えられないよ、と。

655:login:Penguin
08/02/01 15:21:22 r8ITSzIN
>643
リビルドの速度制限しとけば、それほどでも無いと思うがなあ。

656:login:Penguin
08/02/01 15:21:49 N4C2bCGe
>>651
幸運なだけかと思ったら、

> もっとも、ハードディスクをまとめて買うときは
> 最低でも最低2軒以上で分けて購入してるけどね。

しっかり気をつかっていらっしゃるのですね。
見習います。

657:login:Penguin
08/02/01 15:24:43 r8ITSzIN
>648
4台でraid5なら2台容量1台スペアより
普通に3台容量の構成にするだろjk。

658:login:Penguin
08/02/01 15:26:30 3oRMUEgb
>>656
あと、これは当然のことながら、RAIDでは「サーバー向け」のドライブしか使わない。
以前なら Maxtor の MaxLineシリーズ。
最近は Seagate の Barracuda ESシリーズ。

「4台」のうち、一番古くから動いてる PCは 丸5年くらい稼働させてるけど、
rebuild中のトラブルでデータを失ったことは一度もない。

659:login:Penguin
08/02/01 15:27:47 3oRMUEgb
>>657
それこそ危険極まりないと思うけど。
RAID使ってる意味がほとんど意味がないような。

660:login:Penguin
08/02/01 15:28:14 3oRMUEgb
あ~~~またダブった!!!
落ち着け > 俺

661:login:Penguin
08/02/01 15:39:25 r8ITSzIN
>659
一台死んでも余裕があるよ。リビルドのリスクに関しては >655

662:login:Penguin
08/02/01 15:46:24 3oRMUEgb
俺が気にしてるのは rebuild ではなく、 degraded のリスクなんだけどね。
ドライブが故障したとき、「即座」に次のドライブが入手できるか分からんので。
要するに、故障した時点でスペアのドライブを買ってくるか、予め買っておくかの違いだよね。
ケチケチしないで、一台くらい余分に買っておこうよ。せっかくRAID使うんだったら。

ドライブの大容量・低価格化時代でのRAID5の一番のメリットは、
容量不足になったとき、柔軟に容量増加が可能である、ということだと思う。
後で容量が不足する可能性があるならば、
スタート時点には無駄と思える「4台でRAID5 + spare」にも意味がある訳で。
(後で5台、6台と増やすことを前提に)

663:login:Penguin
08/02/01 15:48:48 o1JkhWu7
>>662
なんでそれをRAIDのフレームワークでやらにゃならんの?
lvmがあるのに。

664:login:Penguin
08/02/01 15:50:41 3oRMUEgb
RAIDとLVMは用途が全然違うんだけど?
当然RAID上にLVMですよ。
でないと「柔軟に容量変更」できないじゃん。

665:login:Penguin
08/02/01 15:58:45 r8ITSzIN
>662
自分は500Gディスクなら十進数の500Gを狙ってfdiskで毎回
パーティション確保して、それからraid構成してるので、
少なくとも「メーカーやモデルによる容量の差」が原因の
入手性で問題出たこと無いよ。

他に入手性に影響のある要素ってあるだろうか。

666:login:Penguin
08/02/01 16:02:01 o1JkhWu7
>>664
すまん。じゃ、RAID5のメリットをもう一度別の表現で説明してくれないか。

667:login:Penguin
08/02/01 16:15:09 dBBUm++4
RAID5にスペア用意するぐらいならRAID6でいいんじゃないの?

668:login:Penguin
08/02/01 16:19:29 r8ITSzIN
>667
だよね。
管理の手間が単純化できるし、デグレードしたからといって
急にゴリゴリする必要もない。


669:login:Penguin
08/02/01 16:24:39 3oRMUEgb
>>665
例えば「今出張中で、帰るのは一週間後」てのは?
クソ忙しくて再来週末まで買い物なんか行く暇がない! なんてことはよくあるのでは。
俺は東京在住だが、「サーバ向け」のドライブはやっぱりアキバ以外ではあまり置いてない。
(あってもゲロ高い)
地方に住んでりゃもっと大変だろうね。
あるいは「給料前で金がない」とかw
「すぐに入手できない」状況なんていくらでも思いつく。
hot spareはその間ハラハラしないで済む保険代だと思えばいいのでは。

容量については、最悪ひとつ大きいのを買えばいいんで
確かにあまり問題にはならないでしょう。

670:login:Penguin
08/02/01 16:25:34 3oRMUEgb
>>666
このスレ頭から読み直してください。

>>667
まぁそうだね。
話の流れが >>639 (ミラーリング : RAID5)から来てるだけで。

671:login:Penguin
08/02/01 16:30:45 r8ITSzIN
>669
サーバ向けね。確かにそれだと入手性はあるかもな。
半日~二日ほどデグレード状態でドキドキってのも
そりゃあったし。

672:login:Penguin
08/02/01 17:10:17 dBBUm++4
なんかだんだんRAID6にしたくなってきたなー。
mdでRAID5から移行できればいいのに。

673:login:Penguin
08/02/01 19:45:04 qr3ykgm1
俺はHPの6連装DDS4ドライブつけてるから、RAID5でも別に怖くない。
オートチェンジャーとして動くようにスクリプトも作ったし。

一度だけHDDが壊れたことがあったけど、HDD交換する前にすかさず
dumpでバックアップ取った。
いいよDDSいいよ。

最近LTOが欲しいけど。

674:login:Penguin
08/02/01 20:52:08 wB5OamBS
ここの香具師らはペンギン板だからソフトウエアRAIDだよな?
それならRAID5でリビルド時の負荷を軽減させたければ寿命と思われる一台目が死んだときに同数のHDDを用意して一旦アレイを解除してドライブ単位でデータを写せばいい
そして欠落している一台分は古いドライブでリビルドして御役御免で売っぱらう
この際に二台目が死んでも新しいドライブのデータでリビルドすればいい
この方法の欠点は多少コストがかかることと一旦データがオフラインになるということだな
でもリビルド時のリスクはRAID1並に下げられるから個人的には十分な費用対効果が期待できると思う

俺もDDSでバックアップとりたいけどデータ量が多すぎてとりきれない…
小さいデータで重要なものはDDSとMOでバックアップしてる

675:login:Penguin
08/02/01 21:56:38 qr3ykgm1
自分のは使用量1TBくらいだけど、6連装DDSドライブを使えば割と快適にバックアップ取れるよ。
19時くらいにマガジンをセットして、dumpスタート。
テープエンドを検知したら次のテープを自動的にセットするようにスクリプト書いたから。
朝には6本全て使い切っててマガジン吐き出して、次のテープをセットしたマガジンをセットして
会社に行く。

会社から帰ったらまたマガジンを変えて翌朝にまたマガジンを変えて・・・。
だいたい2日くらいあればバックアップできる。
ずっと家に居れるんなら、もっと早く終わるとは思うけど。

ヤフオクで内蔵型を5000円くらいでゲットできたから、うれしくてね~。

676:login:Penguin
08/02/02 03:25:38 zu1IjSu5
>>674
移動先のドライブに負荷かけたテストしてないと、
かえって初期不良に当たりやすくなる気がするが。

677:654
08/02/02 12:56:37 XKGlbsjJ
すみません、予算などをまとめると
総額10万以内、PC本体、メモリ増設、ハードウェアRAID(RAID10)、ポート数は予算が許す限り、HDD数も予算が許す限り
で考えています。日本市場や米国市場、為替の歩み値をデータベース化してそれを分析するシステムを構築
したいと考えており、そのデータベースサーバとして利用する予定です。
どのような選択肢があるかアドバイスいただけると幸いです

678:650
08/02/02 12:57:53 XKGlbsjJ
すまんす、先ほどの書き込み主の名前まちがってた。。。
さらには >>654 と書きたかったのです。


679:login:Penguin
08/02/02 14:56:08 5kGyMDx4
>>675
RAID使ってると容量いくらでもデカくなるから
バックアップの手間が一番の問題だよな。
HDDひとつ1TBが普通の値段で買える世界がもう目の前。
「RAIDで5TB」とかなったらどーすりゃいいのやら。
weekly backup に丸一週間かかったりw

680:login:Penguin
08/02/02 16:55:21 1dBAN3yO
せめて500GBくらい入るバックアップメディアが出てこないかな…

681:login:Penguin
08/02/02 17:00:32 C9Eze2Tn
テープより同容量のHDD用意したほうが安いんだよな…

682:login:Penguin
08/02/02 17:03:12 1dBAN3yO
でも使ってないHDDって結構な確立で駄目になるんだぜ

683:login:Penguin
08/02/02 17:36:53 aGzNkUCj
使ってないテープも結構な確率で腐るけどな。
ただHDDと違って全体が死ぬことはほとんどないが。

684:login:Penguin
08/02/02 17:44:44 1dBAN3yO
5インチでもいいから100GBのMOとか作ればいいのにな
まぁすでに見捨てられてる企画だけど…

685:login:Penguin
08/02/02 17:54:05 YmD5twGO
そろそろバックアップ用にBlu-ray導入したいな

686:login:Penguin
08/02/02 17:59:24 1dBAN3yO
ブルーレイってDVD並みの保存性しか無くないか?
それじゃバックアップの意味が無いじゃん…

687:login:Penguin
08/02/02 18:06:11 Fp6g3h3i
BDは容量少なすぎ
HDDのバックアップ先はHDDしか無いよ

688:login:Penguin
08/02/02 18:43:50 YmD5twGO
>>686
バックアップは定期的にね

>>687
基本は俺もそれだが
バックアップのバックアップにDVDではそろそろ限界かなと

スレチっぽいのでこの辺にしておきますね

689:login:Penguin
08/02/02 18:53:06 KheaAcBM
URLリンク(imepita.jp)
URLリンク(imepita.jp)

690:login:Penguin
08/02/02 19:20:15 Nrwh2fxn
>>689
医者池。
包茎専門より、ちゃんとした泌尿器科がいいよ。

691:login:Penguin
08/02/02 19:25:27 C9Eze2Tn
1TBクラスの光学メディアが欲しいところだな。

692:login:Penguin
08/02/02 20:24:51 3iuPL0zl
>>628-629
実証GJ

>>651
職場でならSCSIなRAID5がスペアに移行した直後お亡くなりとか、
スペア無しアレイでバカSEが復旧とちってお亡くなりとかなら経験ある。
目的がサービス止めたくないことなのか、データが大事なのかで話が違うだろうよ。
まパフォーマンス低下で実際上止めざるを得ないとかはよくあることだw
データに関してはバックアップ工夫しろとしか・・・

>>658
コスト次第。お金あるなら保証付きの箱のほうが安全だし、
キャッシュ系のマシンならSATAの安いのでいい。
高耐久ドライブでRAID5より安物でRAID6の方が安価で安全なこともある。
環境によってはSCSIドライブでも簡単に死ぬしね。

693:login:Penguin
08/02/03 02:24:34 mkL95ztR
RAID5のHDDが2台同じタイミングで壊れるって言うのは、交換時の作業者のミスだと思う。
ずっと寝かせたままだったHDDを横に向けたり、角度を変えたりすると、確かに壊れやすい。
しかし、いまや5年保証までつくHDDが、一台壊れたからと言って、
外部要因無しに同時に壊れるとは考えにくい。

つまり一台壊れたときには手も触れずに外付けのHDDを接続してコピれば問題ないと思うんだが。

694:login:Penguin
08/02/03 10:26:28 OLFvr5xO
確かに通常の運用ならば2台同じタイミングで壊れるってことは、まず起きない。

ただしRebuild中にOnlineなHDDに不良セクタが見つかってRebuild失敗というのはある。
同じタイミングで複数台のHDDが壊れるシチュエーションは電源ONのタイミングだね。

もしくは1台のHDDが変な壊れ方をして、SCSIのバスロックが発生してしまい
同一SCSIバス上のHDDがRAID-CもしくはOSと通信ができなくなってしまって
全てのHDDがFault扱いになってしまうか。

695:login:Penguin
08/02/03 11:38:23 EJ7i8gH6
セクタ数は爆発的に増えてるからな

696:login:Penguin
08/02/03 11:52:53 mkL95ztR
>694
そう。つまり電源ON/OFFとか、HDDを傾けたりとか、結局物理的要因がない限り
2台同時になんてありえないと思うわけですよ。
壊れた後の復旧方法以上に、そういうもっと重要な知識が無い人が多いと思った。
作業者がそのことをわかっていれば、電源OFFなんてしないでコピーするでしょ?

SCSIのバスロックですか。確かにそれはどうしようもないですね。

697:login:Penguin
08/02/03 11:54:48 q+AQxgRs
バスのせいで全部吹き飛ぶのはどのRAIDレベルでも避けようがないわな

698:login:Penguin
08/02/03 12:55:27 7yh5v0Sl
壊れる前に定期的にHDDを入れ替えて、製造ロットを適当に分散させるのが良いと思う。

699:login:Penguin
08/02/03 12:57:22 +cGxDGKE
ていうかリビルド時「不良セクタがありましたのでOFFLINEにします」
って判断はRAIDボードなりソフトウェアRAIDが判断するんであって、
リビルド時に初めて(もしくは久しぶりに)アクセスするからそういうことが起きるんだと。
で、それ以前に見つかるように定期的に全セクタチェック走らせて、不良あったら即HDD交換。
これなら1台壊れてリビルド発生しても同時に2台目が逝ってRAID崩壊の率はかなり減るんじゃないかと。
それでもREADエラーとWRITEエラーは別だからアレだけど。

・・・という考えで3年運用してるんですが突っ込みどころあったらご教示下さい。

700:login:Penguin
08/02/03 13:23:50 jeuHPgfo
いいんじゃない?
定期的なドライブのローテーションも効果あるだろうね。

701:696
08/02/03 13:25:39 mkL95ztR
>699
いいと思うけど、不良セクタがあっても普通に動くから
ちょっと贅沢な使い方だと思った。

702:login:Penguin
08/02/03 13:27:21 FPEcH9J9
RAID5+1でおk!

703:login:Penguin
08/02/03 13:28:07 FPEcH9J9
>>701
サブバックアップ用としてでも活用するかオクなり祖父に売れ

704:login:Penguin
08/02/03 13:40:00 OLFvr5xO
MegaRAIDとか日立のSANRISEとかみたいに、ある一定の周期で
HDDのサーフェイステストをする仕組みが欲しいよね。
そうすればRAID5でもかなりの信頼性をあげることができるんだけど。

SCSIのバスロックでステータスがFaultになるのは、悲しいけれど時々ある。
このスレにCEが居たら、「俺経験あり」って人がいるんじゃないだろうか。

705:login:Penguin
08/02/03 16:18:41 DGf+HCP2
HDDを同時に実装してArrayを作るから
HDDの劣化度は同じだじゃね。
RAID5なら1台死んで負荷が上がれば、2台目も死ぬと。

706:login:Penguin
08/02/03 21:05:16 2lFvuSaN
ここ数日のスレを読んでて、LVMとmdのいいとこどりをしたような何かが欲しいと
思った。

だが作る実力はない。。。


707:login:Penguin
08/02/03 21:36:59 cKmDQueJ
>>706
ZFS

708:699
08/02/03 23:27:50 /V4l36Hy
>>700さん
ありやとやんした。
ローテやってなかったんで検討します。
>>701さん
いまんとこ怖いんで>>703さんの方法を採ってます。
>>704さん
あらまMegaRAIDてサーフェススキャンやってくれるんですか-
ちょうどボード一枚買おうと思ってたんで逝ってきます。

周りに相談出来るよなエンジニアさんいなかったんで助かりました。
皆さんありがとうございました。

709:login:Penguin
08/02/04 01:31:45 +0aP9ie6
どこか、パーソナルVTS出してぇ。

710:login:Penguin
08/02/04 06:47:08 gy3CgsMy
「mdでRAID5構成で、全セクタチェック」
という話は繰り返し出てきますが…

実際のところ、具体的にはどうやって行なうものなのでしょうか?


711:login:Penguin
08/02/04 07:22:58 TY83kMjq
やってはいないけど、mdがofflineの状態のときに
# dd if=/dev/sda of=/dev/null bs=1024k
とかでRAID要素のサーフェイステストをするくらいかな。

もしエラーがあったら、mdをonlineにしてバックアップ。
その後に手作業でその要素をfaultにしてhdd交換。

できればmdの機能としてHDDのサーフェイステストを実装して欲しいなあ。

712:login:Penguin
08/02/04 08:11:34 Q5KXQV/l
>>710

これじゃだめ?
>>492-493

713:login:Penguin
08/02/04 20:02:26 TY83kMjq
>>712
すごい。
こんなのがあったんですね。

現在やっています。
speedは20900K/secって出ています。
速いんだろうか?遅いんだろうか?

714:login:Penguin
08/02/05 00:26:38 j6rJkT89
誰かARAID2200の発売日知らない?
2月発売としか書いてないから気になる

715:login:Penguin
08/02/05 02:18:51 2CYEafF8
>>714
ARAID2000ユーザーだけど、良くなった点はどこ?
あれW/Bなので遅いよぉ。安全だけどw。
VFSのキャッシュはUPSで保護する必要はあるけどね。

716:login:Penguin
08/02/05 02:22:14 2CYEafF8
>>715
あごめん。W/Tでしたね。書き込み確認しないとI/O返してくれないのはw。

717:login:Penguin
08/02/05 13:35:36 bPmvBD8x
>696
>2台同時になんてありえないと思うわけですよ。

思うのは自由だ、うん。

718:login:Penguin
08/02/05 13:45:33 3+aWy1p5
だから、そういう煽るようなことを書かないの!

719:login:Penguin
08/02/05 22:24:03 j6rJkT89
>>715
チップが変わった
&UIを別チップで処理するようになった
結構な大幅変更だぜ

720:login:Penguin
08/02/06 01:18:05 eqVT3L8P
>>706
物理ボリューム層
論理ボリューム層
の2層で管理する思想はご存知?
ストレージ専用機(NASやSANストレージ)のエンタープライズ向けはこの思想がほとんど。

この思想に乗っかると適材適所という言葉も浮かぶ。

721:login:Penguin
08/02/06 02:00:51 /VmRasag
すでにLVMが君が言うところの物理ボリューム層論理ボリューム層に分かれていて、
物理ボリューム層とmdでできることは十分に被ってるんだよ。
LVMのPVOLではコンカチしかできないから、mdが必要となっているだけで。


722:login:Penguin
08/02/06 04:05:45 EE+VEkuv
>>721
そだね。mdとLVMとは機能がかぶりまくっている。かといって、いまさらその辺の
機能の再構成をするわけにもいかないだろうしなぁ。

とか思っていても、Linuxのことだから大幅に変更してくる可能性はあるか。
しかも、斜め上の方向に。

723:login:Penguin
08/02/06 10:00:11 jVXLMw1N
過去にはEVMSというのもあった。

724:login:Penguin
08/02/06 10:39:54 t+5LNVrW
てか思想なんて大仰な言葉を持ち出す時点で
そいつはよく分かってない人だろ。

725:login:Penguin
08/02/06 10:41:32 t+5LNVrW
>>724
IBMの中の人が紳士すぎた。
evmsguiの使い勝手が良かっただけに惜しい。

726:login:Penguin
08/02/06 10:42:16 t+5LNVrW
アンカー間違えた。


>>723
IBMの中の人が紳士すぎた。
evmsguiの使い勝手が良かっただけに惜しい。

727:login:Penguin
08/02/06 23:38:38 Qs3PPl0i
>>706
Veritas Storage Foundation Basic
URLリンク(www.symantec.com)

ストレージが足りなくなってからHDDを一個ずつ足して、全HDD容量の合計÷2の容量のRAID1として使えないこともない。

使い始め: 200GB + 200GB → 200GBのRAID1
320GBを買ってきて追加: 200GB + 200GB + 320GB → 360GBのRAID1
500GBを買ってきて追加: 200GB + 200GB + 320GB + 500GB → 610GBのRAID1
200GBが故障しそうなので取外し: 200GB + 320GB + 500GB → 510GBのRAID1

っつう感じ。

ただ、使えるLinux distributionが限られているのがアレだな。

728:login:Penguin
08/02/07 00:07:05 kF+/kUpL
>>721
LVMはボリュームの自由度を上げるものだから、可用性の部分は
無理してLVMにせず素直にmd使った方がいい、とは思うけどね。
まあ多分に好みかも。

729:login:Penguin
08/02/08 00:55:42 aD0bAbyD
          /:::|:::::::|:::::::::::::/::::::/::::::::::::::/:::::::/`\_
       / ̄\::::::|:::::/:::......-――--..........__/:::::::::::::::\
   ┌ー ̄::::::::::::ヽ::|:::..-^ ̄            ^ ヽ、:::::::::\
   ヽ::::::::::::::::::::::::::::/                  \::::::::ヽ
    ヽ:::::::::::::::::::::::/             ::::       \:::::ヽ
    ヽ::::::::::::::::::/              ::::::::        \::::|_
     ):::::::::::::::|              ::::*:::::        ヽ:|::::ヽ
     /::::::::::::::::|              ::;;;;:          l::::::::ヽ
    /::::::::::::::::::|             ノ::ii:ヽ::          l::::::::::|
    |::::::::::::::::::::|            /::::;リ:::l::::         |::::::::::::|
    |:::::::::::::::::::::l           ...l::::;リ:::/::         /:::::::::::::|
    .|::::::::::::::::::::::l          . /:ア/:::        /:::::::::::::::i
    l:::::::::::::::::::::::::l          ./::`^:::::        /:::::::::::::::::/
    ヽ::::::::::::::::::::::::l         /::::::::::        /:::::::::::::::::::/
     /:::::::::::::::::::::::l        /:::::::::::::      /::::::::::::
    __ __ __ __       __     __       __
    `i  | | i'l_i'l_i'     i''´ __`ヽ-ッ _コ  l____ i´__`ー-ッ  _,,.、
     ,!  ,! .l l   _,,,_   └'´__ ``´ レ┐ ┌─┐ ,!'´ ``´ /,r''´
    / 丿 '、'、 l´ __`ヽ-ッi''´__`ヽ-ッ  .l  l  ノ /     / /
   / /   ヽ ヾ´  ``'´└'´,,_``'´   l └ ' ,/   ___,,ノ /
_,,.r'' /      \ `>  r'"´   ``ヽS.) l  「´    「´    _ノ
‘''' ´           `′ └ ''´ ̄``‐-‐'' └ ┘   └‐ '' ´

730:login:Penguin
08/02/11 00:38:18 2LOosLJ3
>> 714

2/18日以降だそうです。

731:login:Penguin
08/02/14 23:42:09 0SxRJSvx
自分は対象にならないだろうと思ってましたが、
RAID5のリビルド中に他のHDDが死ぬ事象を経験しました・・・

今後の対策なんですが、RAID1にしたとしても
片肺になった後、復旧のリビルドかけなきゃならないのは同じですよね?

RAID1もRAID5もリビルド中のリスク自体は同じで
RAID5は単純に壊れる可能性のあるHDDの台数が多いってだけのような気がするんですが、
リビルド時のHDDのアクセスの仕方って、RAID1とRAID5では大きく異なるんでしょうか?

よく考えてみればRAID1の方がシーケンシャルに読むだけで
RAID5はランダムアクセスになるので負荷が高くなるような気もするんですが
実際のところはどうなのかピンと来ないもので。

732:login:Penguin
08/02/15 07:53:53 KVKrbsHP
そのRAIDサブシステムがRAID6をサポートしているのならば
RAID6にするがよろし。

733:login:Penguin
08/02/15 10:23:06 BRBF3NL2
3重RAID1という手もあるよ

734:login:Penguin
08/02/15 16:42:52 cmWvzBOb
要するにアレだ
壊れるときはどんだけ頑張っても壊れるんで
ここはスッパリとRAIDなしの方向で

735:login:Penguin
08/02/15 21:33:26 3J9xJSqX
リビルト時はシンクロ速度落としてやさしくシンクロさせるのだ。

736:login:Penguin
08/02/15 21:34:37 Kxay7Pc2
処女のドライブに無理させちゃいけないよw







まぁ壊れるのは古いドライブだが…

737:735
08/02/15 21:44:27 3J9xJSqX
あと、リビルド時の負荷で読み取りエラーが出て
raid崩壊したように見えても、実はデータ自体は
無事な場合もある。

可能ならば -f オプションだっけ、デグレード状態で
強引に新規構成して(ダミーディスクが必要かも)
シンクロなし、ファイルシステムのフォーマットなしで
fsck をしてみるべし。

738:735
08/02/15 22:11:25 3J9xJSqX
ただしダミー必須でかつ新規構成では勝手にシンクロを
始める仕様だと、問題発生の可能性があり。

自分の場合、ダメになった最初の一台は読み取りエラー多発で
デグレード状態になった。
リビルド中にもう一台が負荷による破損でraid完全死亡。
そこでダミー挟んで新規構成、破損した一台は後で新しい
ドライブ補充でゆっくりリビルド。
だったので特に問題なかった。

しかし一般的には。

新規構成した途端に勝手にシンクロ始めるようだと
無事なドライブの無事なチャンクをダミーに入っている
値を含んだ「汚染された」パリティ値で、正常だった
パリティチャンクを上書きする可能性がある。


要はなにが言いたいかと言うと、
不要ドライブによる予行演習が必要って事。

739:login:Penguin
08/02/16 02:07:03 AuyL7bik
というより、なぜRAID5なのに、いきなり復旧しようとすんだよ。
RAID5ならば、そのまま読み込み可能なのだから、一度どこかにデータをコピーするべきじゃないの?

RAIDの復旧なんて、そんなに何度も経験ないと思うし、
(ソフトウェアの)復旧の精度だって怪しい。
エラーが起きた場合にはとりあえずコピーすれ。

740:login:Penguin
08/02/16 02:50:30 M3gQgdAt
質問です

フラグを付けずにRaidを外すのは危険ですか?
-f をやらずに -r するのは危険?

741:login:Penguin
08/02/16 05:31:03 dXUJmQMO
80GBx2でRAID0すると使用可能な容量は80Gじゃなくて160Gでok?

742:login:Penguin
08/02/16 05:45:09 a7+r0Lzc
RAIDのイロハから調べ直せ

743:login:Penguin
08/02/16 10:18:15 YhN3CkZR
>>730
データをコピーするのもリビルドするのも危険性は一緒。

744:login:Penguin
08/02/16 12:15:16 QgDn6KX6
RAIDカードスレで質問すると怒られそうな流れだったので、こちらに質問させてください。
RAID組んでLinux鯖を運用してる人って、/bootやOSはどこのパーティションにインストールしてるんでしょうか?
HDD4台で組もうかと思うのですが、4台すべてをRAID(10化)にしてここにすべてインストールしても
パフォーマンス的にはOKなのでしょうか? または、別に一本OS用のHDDを使ってるとか?
どこかのスレだと「/var/logは別がいいよね」と言ってる人もいたり。

745:login:Penguin
08/02/16 13:19:27 AuyL7bik
そもそも、そのRAIDカード上にルートファイルシステムのインストールはできるのか?
できるのならばパフォーマンスもあがるし、やるべきだ。

/var/log はサイズが大きくなるからってことじゃないかな?
/var/logなんていつでも移動できるから、あんまり気にする必要はなし。

746:login:Penguin
08/02/16 13:27:11 QgDn6KX6
なるほど。ハードウェアRAIDであればマシン・OSにとってみればひとつのHDDに
見えるので、ルートファイルシステムをインストールできるのでは?と思ってました。
ソフトウェアRAIDだと仕組み上やはりムリそうですね。

はやくRAIDマシン組んで巨大なNFS鯖作りたいなあ。他のサーバの設定やコンテンツ、/var/logなどのデータを
集中管理したいんです。バックアップもしやすいし。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch