RAID総合スレッド No.4at LINUX
RAID総合スレッド No.4 - 暇つぶし2ch116:login:Penguin
08/06/09 02:14:29 Y6j9jFvx
SW RAID5(250GBx4)で組んでるのですが
1TBのHDDを一台ずつmark failed -> 交換 -> rebuildを繰り返してみました
この状態からmdを拡大することってできるんでしょうか

117:login:Penguin
08/06/09 03:27:02 F+1xrY6i
>>115
failしたディスクにアクセスし続けて傷を広げる仕様もどうかと思うが

>>116
mdadm --grow

118:login:Penguin
08/06/09 03:29:26 6IbjQHwB
確か出来るようになったはずだけど(要Kernelとmdadmのバージョンチェック)、その構成なら

(ポート不足の場合)
元アレー(250GB*4)からマイナス1台構成をROでマウント → 1TBのHDD1台にコピ(a)ー →
 → 元アレー除去 → 1T3台の縮退モードで起動(bcd) → aからbcdにコピー→
 → aをフォーマット後aをbcdに追加でよかったんじゃ?

(ポートが足りてる場合)
250GB*4構成と1TB*4構成を作成後コピー→250GB*4構成を除去でもOK

119:aa
08/06/09 07:13:31 3u30S3Lk
おはようございます。

a,b,c の 3 台構成で、a が完全に死んでて、b が修復可能な軽微な
エラーがある場合、

1. a が fail
2, new a をアレイに追加(もしくは spare から自動割り当て)
3. a を rebuild 中に b からデータが読めずに fail
4. b のセクターが読めずに b も fail
5. 残ったのは c だけ。何もできない。a, b には fail が
マークされており、b, c にて再構成しなおすことも
できない。

というふうになるのが現在の md 仕様です。

b,c を以後 R/O でのみマウントできるようなマークをつけてくれて、
エラー部分以外は読み取れるようにしておくべきだと思うんですけどね~。

1 セクター読めないだけで 2 台から 1 台に落とされても、もう何も
救えないわけで・・・。

120:login:Penguin
08/06/09 20:36:18 Y6j9jFvx
>>117
即レスどうもありがとうございます.
一行で拡張できるとは驚きです.
早速試してみます.

>>118
6ポートしかないので,117さんの方法で手詰まりしたら(ポート不足の場合)を試してみます.
ありがとうございます.

121:login:Penguin
08/06/09 22:08:12 F+1xrY6i
>>119
大前提として、RAIDはバックアップにはならないってのはOK?

データ保護って意味での対策としてはバックアップしかない。
バックアップが無くて、現状のRAIDアレイから救い出すしか無い状況になる時点で、
まず運用として失格だと思う。無理矢理救出できたとしても、データ整合性を捨てる
ペナルティは覚悟する必要がある。不整合は消滅よりもたちが悪い。
mdの仕様はそういうところから来ている(と理解してる)。

で、不幸にしてデータ救出をせざるをえない事態になったとき、データ整合性を
優先する(怪しいものはfailさせる)mdの仕様が邪魔になるってのは一応同意。
現状superblockを手軽にいじれるツールも無いしね。

122:aa
08/06/10 02:03:17 9HfsMG6v
ぜんぜん。業務で使うなら EMC なり使うし、Linux の md にそんな
前提不要と思ってる。昨今家庭に 1 台 は RAID がある中「RAIDはバック
アップにならない」なんてこと言っても誰も納得しないと思うべきだよ。

不整合とはいうが、単なる単一のセクター不良であった場合
fail を防いだところで誤ったデータが読み出されるわけでもないし、
I/O エラーとなった部分のみを FS の bad sector block に登録して
そのまま使えちゃうほうが、大半の人にとっては都合がいいはずです。

1TB の RAID5 容量があるとして、全く読めなくなるのと、1TB の中の
うち 512 バイトが読めないのなら、前者のほうがインパクトがでかいに
決まってる。

123:login:Penguin
08/06/10 09:38:18 uXv3BAd1
縮退アレイのデータが全部読めることを確認しないままrebuild掛けて
アレイ全部殺すのは、ただのオペミスだろ。

124:login:Penguin
08/06/10 09:47:53 ewRO3SpZ
なんでここに来てRAIDがバックアップ代わりになるとか主張するやつが出てくるんだか
なわけねーーだろ バカ

125:login:Penguin
08/06/10 11:36:19 EpZinGw7
>>122
とりあえず、自分と他人は違うってことから学習しようね。エスパーじゃないんだから。
そんなに嫌ならmd使わなければいい話だし、業務とか言うなら他に選択肢いっぱいあるでしょ?ww
わざわざこんなところまで出張ってきて、ろくな根拠もなし、前提は後出し、で仕様がどうこう
言われても誰も納得しない。ま、それでもいいなら好きにやればいいんじゃない。

126:login:Penguin
08/06/10 16:48:59 rOnmIXoG
>>122
不満があるなら、自分用にコード書けばいいじゃない。

>>121,123-125
うちも、この意見に同意

127:aa
08/06/11 00:38:40 CHqx1dfH
せっかく Linux md のイマイチな点を挙げてるんだから誰かハック
してほしいお。知らず知らずのうちに Linux md 使ってるユーザが
大量保存されたデジカメなり動画なりのデータを一瞬で失うなんて
悲しいところなんて見たくないお (;_;)

ってことでよろしく (w

まあ、オマエラができないんなら別に俺様がやってやってもいいがな。

128:login:Penguin
08/06/11 00:56:41 ht4oxNB9
ハックは人に頼むものじゃなく、自分でするものだお。

まあ、でも、LKMLに投稿するならレビューしてあげれると思うよ
とりあえず、一度やってごらんよ。


129:login:Penguin
08/06/11 01:11:18 yNtiUL94
真性のクレクレ君ってところか

130:login:Penguin
08/06/11 08:22:21 uS6qwlDQ
バックアップ要素を持ったRAIDっぽいディスクシステムの提案、とかならOKなんじゃない?
現状のRAIDにそれを求めてるから話がおかしいわけで。
(だったら他の手法探せよってのはともかくw)

131:login:Penguin
08/06/11 09:30:36 wOMUHJ8R
raidtoolsと昔のカーネル使えば、failもactiveも自由自在。

132:aa
08/06/12 02:21:28 AHGexQB4
そうこうしているうちに見捨てられる Linux md。

ロジテックがマイクロソフトとNAS開発で協業,OSをLinuxからWindowsに全面移行
URLリンク(itpro.nikkeibp.co.jp)

ロジテック、NAS全製品をWSS 2003 R2ベースに統一
URLリンク(enterprise.watch.impress.co.jp)

ロジテックとマイクロソフト、Windows Server(R) ベースの NAS ソリューションにおいて協業
URLリンク(www.microsoft.com)

Linux md + Samba イマイチな点は次の通り。

・ファイル名が変化してしまう。
・アクセス権の設定がない。
・最悪復旧業者を呼ばないといけない。Linux は怖くて導入できない。


>>131

オタク君そうやってがんばっていればよいと思うよ。。。


>>123

じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。
つまり、1 台ダウンした時点ではもう全部読めなくなってしまう
状態になるかもしれないダサーな実装なわけです。有り得えねーーー。

133:login:Penguin
08/06/12 03:32:17 A4JBsLQa
>>132
> Linux md + Samba イマイチな点は次の通り。
> ・ファイル名が変化してしまう。
 →変化した事はありません。

> ・アクセス権の設定がない。
 →え?

> ・最悪復旧業者を呼ばないといけない。Linux は怖くて導入できない。
 →どの状態を指して最悪といっているか分からないが、復旧不可能なレベルで
   アレイが壊れた場合、どうしてもデータを吸い出したければLinuxに
   限らず業者に頼むしかない。
   単に操作方法が分からないことに起因するものであれば、
   Windowsの知識が十分でない人にとっては同じく業者を呼ぶ必要がある。
   Windowsは不安定でサーバにしたくない。
   (カーネル5になってずいぶんましになったように思うが、それでも定期的に
   再起動が必要となるのはいかがなものかと。)

134:login:Penguin
08/06/12 03:34:38 i3SMQS3j
俺ら釣られてる?

135:login:Penguin
08/06/12 04:05:31 i3SMQS3j
RAIDって言葉を知ったばかりのガキがmdに挑戦したものの挫折して逆恨みってところか。
技術の守備範囲とか他者の視点とかニーズの多様性を全く理解しようとしないあたり、
精神年齢が小学校で止まってるんだろうな

そろそろ放置かなぁ

136:login:Penguin
08/06/12 09:30:17 CYzfYEsG
>>132
>じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
>ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。

縮退したらアレイ止めてddとかで全セクタ読めることを確認してから
rebuildしなきゃならん、ってこと。
他にバックアップ取っていないなら、spareドライブ用意しておいて自動rebuildは危ない。

>>135
俺もそんな気がするが、まあ、失敗例と思い込みの典型ってことで。



137:login:Penguin
08/06/12 10:08:42 QLdaUWEF
>>115,119,122,127,132
いいかげんうざくなってきた。
設定すらまともに出来ないのに、思い込み激しいし、他人任せだし、オペミスして愚痴ってるし…

>じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
>ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。
>つまり、1 台ダウンした時点ではもう全部読めなくなってしまう
>状態になるかもしれないダサーな実装なわけです。有り得えねーーー。

それ対策にRAID6ってのもあるわけで…

何が目的なRAIDか分かってないんだろうな…


そんなに不満あるなら、使わなければいいじゃん?
それかもっと勉強汁!

138:login:Penguin
08/06/12 14:47:09 kPFkNEQb
PC使うの・・・やめればいいとおもうよ

139:login:Penguin
08/06/12 21:49:17 eOn78KxZ
「RAIDに入れたデジカメ写真が消えたら困っちゃう!」っていう人と、普通の業務の人が混じってるのが問題なんじゃね?w

140:login:Penguin
08/06/12 22:11:23 5wyTYRrn
mdって業務用でも使われるぐらいの完成度なんですか?
業務用は外部ストレージだと思っていたのですが実際はどうなんでしょうか?

141:login:Penguin
08/06/12 22:44:04 A4JBsLQa
完成度というのをどうやって図るのか分かりませんが、
RHELのパッケージに含まれる程度には完成されているようです。

業務用の外部ストレージ、と表現されているもののOSは
なんなんでしょ。

142:login:Penguin
08/06/12 22:51:55 5wyTYRrn
>>141
OS公表しているところないよね?企業秘密だと思うけど
組み込み用のOSも色々あるしCPUも色々

業務用のなかなか止められないシステムだと
SAN接続とかの外部ストレージが一般的なのかな?という質問です

143:aa
08/06/13 00:18:30 iEXE9ATZ
>> 141

例えば、VxWorks とか。

でも、RAID のエンジンはお手製なので OS はほとんど無関係かも。

レイテンシはでかいけどトランザクション処理は得意だとか、
各社得手不得手があります。


144:login:Penguin
08/06/13 00:19:05 +BhvvWth
>>142
マシンのOSと道連れになるのはSoftwareRAID/FakeRAIDの弱点だね。
ただ、外部ストレージにしたとしても、ストレージが生きてて対外サービス担当マシンが
死んでる状況なら、サービスとしては停止ってことになるから、実影響は構成による。
もちろん、部品として独立させることによる管理性のメリットは消えないけど。

アプリ担当鯖を多重化してSANでストレージ共有みたいなやり方をするなら、
その時点で可用性重視だろうから、外部ストレージ化の効果は大きいだろうね。

145:login:Penguin
08/06/14 08:38:26 oPtd7+zw
某NECな大型FCストレージは中身Linuxだよー by R&Dの人


146:login:Penguin
08/06/18 18:16:30 sXc5vE4z
静かになったな
十分に枯れたのか、それとも誰も使っていないのか。

147:aa
08/06/21 17:07:51 PpYHysDA
Linux md を使ってて 1 台ドライブが飛んでリカバリできない
事象が発生したとしよう。その際、バックアップを取ってない
利用者が悪いってのは、技術者の怠慢だよね。

URLリンク(www.symantec.com)
パソコンのクラッシュや全データの損失から受けるストレスは男女すべての
年代で失恋のダメージを上回る結果が出ました。

データ保存と損失:保存データ関連でのストレス要因として「重要な
データの損失」( 37% ) を挙げた回答者が最も多く、前回 ( 33% )
から続伸しています。また、ここ 1 年間で保存量が増えたものとして
「デジカメなどの写真画像」( 45% ) 、「音楽」( 29% ) が上位を
占め、回答者全体の平均保存容量は 33.5GB と、前回 ( 26.1GB ) に
比べ 28%も増加しています。一方、保存データの容量が年々増加して
いるにも関わらずバックアップ実施率は前回から変わらず 57%に
とどまり、過去 1 年間では 5 人に 1 人が大切なデータを損失した、
と回答しています。損失したデータとしては「音楽や音声ファイル」
( 31% ) と「動画ファイル」( 30% ) がそれぞれ前回より 10
ポイント程度増加しています。損失データに関しては、約半数が
「ほとんど復元できなかった」と回答しており、復元できるものなら
負担してもいいと思える金額は平均 5,364 円との結果が出ました。


148:login:Penguin
08/06/21 17:32:09 Noohu4IZ
まだいたのか…
技術者=管理者=おまえ(aa)だな

回復サービスに数百万払うか、いいかげん諦めれば?

149:login:Penguin
08/06/21 17:36:50 IubOjAtw
>>147
おまえも25歳になれば
この世に魔法なんて存在しないと判るよ

150:login:Penguin
08/06/21 20:03:37 VCyQqHEh
おまいら、荒らしは放置で

151:login:Penguin
08/06/21 22:03:04 /gY4O7ay
技術者の怠慢クソワロタ
ドライブが飛ぶなんて技術者の怠慢だよねっっw HDDベンダ涙目ww

結構笑いの取れるキャラなんじゃないか?>aa


152:login:Penguin
08/06/21 22:13:48 IubOjAtw
人格障害の症例はバラエティがありすぎて困る

153:login:Penguin
08/06/21 22:19:47 eY04Tj9T
でも、光学ドライブに焼くのは面倒なんで、HDDだけで何とか
したいってのはあるなぁ。HD録画したアニメとかそろそろ3TB
ぐらいになる状況だが、飛んだらブルーレイ買わないといかん
からなぁ。

今はとりあえず mdのRAID5 なんだが、1ドライブ飛んで復旧
不能とかなったら悲しいわ。

154:login:Penguin
08/06/21 22:57:14 VCyQqHEh
2TのバックアップをNFS経由のrsyncでやってる関係で、フルリストアが日単位になる。
バックアップがあってもフルリストアは避けたいので念のためRAID6にしてる。

155:aa
08/06/22 01:23:11 lZv4JDTd
いや、だからさー、Linux のひでえ md 実装直してくれれば済むだけの
話なんだよ。何で 1 台まで落とすんだよ馬鹿。

156:login:Penguin
08/06/22 04:06:23 2TTQqPfw
>>155
M$のOSに比べるとだいぶマシだが。
M$のOSはRAID自体まったくサポートしてないし。

157:login:Penguin
08/06/22 08:27:53 Ii7Z3jAP
>>155
Linuxのひでーって言うけど、おまえの望む実装なOSってあるのかよ?

158:login:Penguin
08/06/22 09:59:24 L5M/kM+A
>>156
えーと、知らないことは黙ってた方が・・・

159:login:Penguin
08/06/22 21:11:05 2TTQqPfw
>>158
お前こそ、Linuxコミュニティーでの会話のルールを覚えたほうがいい。
M$のOSと言えばBASICのことだ。
BASICはOSか?という問いには、当時はOSだったと答えればいい。

160:login:Penguin
08/06/23 02:43:38 Jf/LlKSP
>>159
そんなわけないだろう。
と、いいたいところだが、最近もLKMLでlinux-mm.orgのアフィ広告欄にWindowsの広告が表示されているのはバグだ!って
騒いでいる奴がいて生暖かい目で見られていたな。
結局、M$がお金を浪費して、僕らの懐が暖かくなるなら、ハッピーな事じゃないか。と誰かがとりなして丸く収まってたみたいだけど。


161:login:Penguin
08/06/23 04:20:26 csSG47hP
おまえらスルーも出来ないのか
かまって君を喜ばせるだけだぞ

162:login:Penguin
08/06/24 03:46:37 0xeBSssm
RAID5にランダムアクセス性能を求めてはいけないことにやっと気づいた俺が来ましたよ……

163:64
08/06/27 19:13:57 IJGPC5w1
すみません、復旧を焦ってまさに115氏の指摘する状態になった本人です。

なんでmdadmに同機能が含まれないのかなーと思いつつ、コード書いて自分でsuperblock変更して
直しましたが、mdに同機能が実装されないのは、開発チームがこのスレの皆さんのような考え方
なのだと納得しました。

自分はコード書いて直せるからいいけど、Ubuntuとかでデスクトップ用途で使ってる初心者のためには
mdにfailedを無視するというオプションがあってもいいかと思ったり。
無茶してぶっ壊れるのは自己責任なんだし、たかが数セクタのためにdd(rescue)のイメージからファイル
システムまで辿って再構築するのは手間がかかりすぎるので。

164:login:Penguin
08/06/28 04:20:01 t82gEJQM
mdの仕様に取り込まれるかどうか以前に需要自体がほとんど無いと思われ
ツールを実装する自由は万人にあるんだから、需要があるなら誰か作るはず。
ツールが無いということは、現状そこまでの需要が無いということ。

需要があると思うなら書いたツールを公開すれば喜ばれると思うよ

165:login:Penguin
08/06/30 08:57:46 eP8/ITok
無理にmd使わんでも、各ディスクをバラでマウントすれば良いんじゃね?
そうすれば、死んだディスクやセクタがあっても被害はそこだけ。


166:login:Penguin
08/07/01 00:54:50 aHyZUpTv
>>165
???。RAID-5の個別ディスクをどうやってバラでマウントするんだ?

167:login:Penguin
08/07/01 00:59:02 Qn6UZU93
なんで突然RAID5?
俺は、JBODかマウントポイントごとにディスク用意するんだと思ったが

168:login:Penguin
08/07/01 01:06:41 aHyZUpTv
>>167
ああ、そもそもmd使わなくていいじゃん、という話だったのな。誤読した。
無理にmd再構成しなくても個別マウントすればいいじゃん、と誤読した。

169:login:Penguin
08/07/08 07:17:56 tBce1A0Q
3ware 9650SEでHDD(500G)6本でraid6を組もうと思っています。

3テラのボリュームができますが、パーテーションどうしようか
悩んでいます。
基本的にシステムがらみは別のHDDで動かしたほうがいいのでしょうか?
3テラのボリュームはパーテーションきらずに、/home などにしたほうがいい?

170:login:Penguin
08/07/08 11:45:08 wACpQR7T
HDD2本がパリティ記録なんで4本分の2TBのボリュームなんじゃね?

171:login:Penguin
08/07/08 12:45:20 Ld9ygY/a
何入れようと思って、500Gを6発買ったんだ?
パーティションの切り方はそれ次第。

172:login:Penguin
08/07/08 12:46:58 dFUhNDg6
ホットスペアがないと有り難味がないから、
実際には1.5TBだろ?

173:login:Penguin
08/07/08 12:47:54 dFUhNDg6
で、天使が取っていって
df -h
すると、1.3GBとかになるわけだ。

174:login:Penguin
08/07/08 12:48:53 dFUhNDg6
orz

175:login:Penguin
08/07/08 15:11:58 ciEROQW6
一般的にRAID組むときにはシステム絡みもRAIDに入れるんですか?


176:login:Penguin
08/07/08 15:51:45 II4/+Uhu
ここにもRAIDとバックアップは違うと理解出来てない奴が

177:login:Penguin
08/07/08 19:45:28 wACpQR7T
>>175
RAID導入によるメリットの8割ぐらいが
HDD故障時にもシステムを稼働し続けられる
だからね~
とうぜんそれなりのホストはシステムもRAID
残りのメリットはバックアップの間隔での更新データが救えること

素人はよく高速化を挙げるけど
RAIDで高速化なんていうのは副次的なものにすぎないし
実装によっては速くならない


178:login:Penguin
08/07/08 19:47:42 wFB79b2r
>>173
えげつない天使だなおいww 99.9%ってw

179:login:Penguin
08/07/09 09:09:58 nLnkgGAg
>>177

なるほどね!
ありがとうございました。

180:login:Penguin
08/07/09 23:06:04 RNssxI9R
CentOS5.2を、500GBx2のHDDをミラーリングにしてインストールしたいと思います。
このときのパーティションはどうきるのが良いのでしょうか?
私用のFedora8だと、200MBの/bootと、残りがLVMに分けられて
LVMの中に2GBの/swapと/homeがある感じなんですが、
同じでよいです?
あるサイトに管理を容易にするために/swapも個別のパーティションにする・・
というようなことが書いてあったので気になりました。
よろしくお願いします。

181:login:Penguin
08/07/09 23:33:03 gRDljDJc
>>180
/swapって何よ

適当に
/boot
/
/home
swap
みたいな感じで4つミラーボリューム作りながらインストールでいいんじゃないの?
あるいは、でかいミラーボリューム作ってその上でLVM

182:login:Penguin
08/07/10 01:03:05 YVLKQ6q3
>>180

RAIDならシステムの入れ替えがほとんど無いので、
後々の容量の引き延ばし(と、いうか同容量のHDDが市場から無くなる;)
とかを考えて/homeを一番最後にしてる。

HDDのメーカーごとにシリンダー数が違うので最後の/homeは
最終シリンダーまで切らずに鼻くそ程度残してます。
あと、サーバーと言うことで/var は多めに切ってます。



183:180
08/07/10 10:43:28 iJDD8Fmx
>>181-182
ありがとうございます。
RAID(ミラーリングを)するってことに関しての
特別な配慮ってことはない感じですね。
とりあえずやってみます。

184:login:Penguin
08/07/11 01:25:06 MF2t883a
/bootってハードウエア構成に依存するけど、専用パーティションに
しなくてokな事が多いね
GRUB使ってるおかげ?

185:login:Penguin
08/07/11 04:29:32 rOZ8wBgX
/をXFSにするときは念のため分割

186:login:Penguin
08/07/14 11:01:55 9UdAIkjR
妙にスレが伸びてると思ったら、raid5の性質を
raid全般に広げて語るニワカが発生してたのか。

業務やっているなら、いくら思い込みの強いアホでも
そこでraid6が出てこないってのはあり得ない。


>>185
GRUBと合わないんだっけか。
自分は/だけreiserfsにしてるわ。

187:login:Penguin
08/07/15 18:47:44 yaiFvTOZ
どのインターフェイス(SCSI0とか)に繋がったHDDにどんなデバイスファイル名(/dev/sdaとか)が割り当てられているのか確認する方法はありますか?
RAIDで全部同一のHDDを使っているので、このインターフェイスに繋がったHDDはsdaだとか判らないと交換できないのです。


188:login:Penguin
08/07/15 18:55:33 rrCKPMUT
>>187
/sys/block


189:login:Penguin
08/07/15 21:52:28 pdkdPVvb
smartctl

190:login:Penguin
08/07/16 00:03:37 voyUTL5p
>>186
GRUBの2nd Stageがsuperblockだか何かを上書きする?とからしい
最近調べてないから、大丈夫になってるかも

191:login:Penguin
08/07/16 00:27:28 wxA8/vYd
>>188,189
シリアルナンバーでディスクを識別する事にしました。
ただ、当方debian etchなのですが、
/sys/block/sda/device/serial
は見つからず、
smartctl -a /dev/hda (PATAのディスク)
smartctl -a -d ata /dev/sda (SATAのディスク)
で、シリアルナンバーを確認できました。

ありがとうございました。

192:login:Penguin
08/07/16 00:59:49 LX357c/f
>>191
うちもそれやってるけど、SATAコントローラが複数ある場合は起動時の
認識順で /dev/sdX と Serial: XXXXXXX のマッピングが変わるんで注意。
電源断までは有効な情報だからドライブ交換には問題ない。

193:login:Penguin
08/07/16 01:05:10 vwN5urnw
そのsd*,hd*認識順の問題すごく悩まされるんだけど、解決策としては

・新パーティション形式にしてラベルつける
・MDにしてmd[0-9]で認識させてから使う
・LVMにして(同様)

しかない?古来からの方式でパーティション切ってしまったのでカーネルが
変わるたびにころころテンポラリディスクのデバイス名が変わってばたばたする。

194:login:Penguin
08/07/16 07:26:45 5QiXFeI7
構築の時にどのシリアルナンバーのHDDを何段目に積んだかメモっとくといざというとき便利だね

195:login:Penguin
08/07/16 07:36:48 2XS3TY3h
UUIDで識別をしないのかな?

196:login:Penguin
08/07/16 19:59:03 LX357c/f
それで物理位置がわかるならな。

197:login:Penguin
08/07/16 20:05:37 rsgG64I0
lsscsiとか使わないの?

198:login:Penguin
08/07/17 01:46:36 ZWA78awn
UUIDでmd組むようにしてる > 認識順が変わる対策

199:login:Penguin
08/07/17 04:34:16 nqSSZGey
>>198
今問題にしてるのはコンポーネントデバイスの識別の話だからそれじゃ解決にならない

200:login:Penguin
08/07/17 19:04:35 pwb5+Hyk
ベンチマーク
URLリンク(opentechpress.jp)

201:login:Penguin
08/07/21 15:38:10 QHVhiNmM
個人用ファイルサーバで、同一ホスト上でのDisk to Diskバックアップを計画しています。
ドライブは750Gx8台です。同原因同時故障と、バックアップメディアを物理的に
別の場所に置けないこと以外に高まるリスクはありますか?
また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?

202:login:Penguin
08/07/21 16:02:45 bfdmMxFQ
>>201
消費電力が2倍
コピー中に更新があると整合性がなくなる
帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
複数世代のバックアップを残せない
RAID1に対するメリットがほとんど無い

素直にRAID1にして
バックアップは外付けにtarか何かでとるほうがいい

>また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?
RAID10でいいんじゃないの?

203:login:Penguin
08/07/21 19:20:08 Kok+C1hM
>>202
お題目はおなかいっぱい。
個人用だと書いてあるだろ?

>消費電力が2倍
ディスクだけが2倍なのに、どういうロジック?

>コピー中に更新があると整合性がなくなる
>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
個人用だから、そういうのを自分で避ければいいだけ。

>複数世代のバックアップを残せない
複数世代ってなにに使うんだよ。実際に使ったことあるのか。

204:login:Penguin
08/07/21 19:53:45 eDgO9JCd
理想を言えばRAIDハードウェアのスナップショットを利用して
別のRAIDグループへコピーが一番安心できる
問題はそのようなハードウェアは日立とかEMC、富士通とかになること

205:login:Penguin
08/07/21 21:51:52 r1tueaXR
>消費電力が2倍
回転止めたらいいんじゃないの? 馬鹿なの?

>コピー中に更新があると整合性がなくなる
スナップショット使わない理由がわからない。馬鹿なの?

>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
オプション1つで制限できるんだからすればいいじゃない。馬鹿なの?

>複数世代のバックアップを残せない
複数世代のバックアップを残せるソフト使えばいいじゃない。馬鹿なの?

>RAID1に対するメリットがほとんど無い
それのどこがリスクなの?馬鹿なの?


206:login:Penguin
08/07/21 22:45:34 +Von4bjZ
また心の問題ですか

207:login:Penguin
08/07/22 05:33:29 FG3KF+O+
>アレイを2つ作って
に対して
>>RAID10でいいんじゃないの?

と書いてあるので何も分かってないようですね

208:login:Penguin
08/07/22 07:00:34 IDlKlKUZ
>>202がフルボッコにされててワロス

209:login:Penguin
08/07/24 22:55:47 Y/yDJ5QP
>>207
>>202 は業務とか書いてるしな。
質問を理解せずにどっかからコピペしたのかも。

210:login:Penguin
08/07/25 18:22:23 7bWPoJgN
こんな記事がでたぞ~

ハードウェアRAIDとLinuxカーネルによるソフトウェアRAIDのベンチマーク比較
URLリンク(www.itmedia.co.jp)

211:login:Penguin
08/07/25 22:05:00 dHu8XFEz
>>210
お前は10個上のレスすら読めんのか

212:210
08/07/25 22:55:25 7bWPoJgN
あー、同じなのか…
単にベンチマークしか書いてなかったから、スルーしてた…OTZ

213:login:Penguin
08/08/04 13:46:13 jBaI/IVg
性能分析のお供に
URLリンク(opentechpress.jp)
次回の方が役に立ちそうだけど

214:login:Penguin
08/08/07 08:00:07 RuVT+4E9
1TのHDD6台買ってきたんだがRAID6にするか5にするかで一晩悩んだが結論が出なかった。

215:login:Penguin
08/08/07 12:45:30 gou1IcwA
とりあえず6面RAID1にしておいて慣らし。
満タンになったら、その時にまた考えるってのはどうだ?


216:login:Penguin
08/08/11 00:33:45 lkIu9a0L
/をxfsにするいい方法はありませんか?

OSはcent5.2です。


217:login:Penguin
08/08/11 00:41:08 QeT4W3NU
>>216
スレ違い。
スレリンク(linux板:731番)

218:login:Penguin
08/08/11 01:28:58 lkIu9a0L
>>217

>>185
が書いていたので。

219:login:Penguin
08/08/11 18:36:11 AGF2t4QA
>>218
見苦しい言い訳だな

220:login:Penguin
08/08/12 16:41:20 jyLw7NZh
>>216
CentOSならそっちのスレで聞いてみたらいいんじゃないか?
ぶっちゃけRAID関係もよっぽど詳しい人がそろってるしw

221:login:Penguin
08/08/12 16:56:10 YIDfUhGW
>>220
もう聞いてるみたいよ。>>217

222:login:Penguin
08/08/12 17:11:26 IDhTWp2o
/**ファイルシステム総合スレ その8**/
スレリンク(linux板)

回答があるかわからんけど、マルチな質問はちゃんとクローズレスして、もう一度きいたら?

223:login:Penguin
08/08/14 18:37:41 rw0zL6g/
質問なのですが、raidtoolsで作成したボリュームは、mdadmにソフトウェアRAIDを
変更した場合、そのまま使えるのでしょうか?
要するに、raidtoolsとmdadmのデータ構造の互換性の問題なのですが。
一旦バックアップを取って、RAID構成後に書き戻す必要がありますか?

「raidtools mdadm 互換性」などとぐぐってみたのですが、答えを見つけられませんでした

224:login:Penguin
08/08/19 01:07:45 8EwaAh3C
実際にやってみればいい。
VirtualBoxなりVMWareなりの仮想環境を入れれば楽勝

225:login:Penguin
08/08/25 15:26:56 A4bL2852
ポートマルチプライヤ・ハブを使ってRAID5で使っていたが、
ハブが(熱?)故障したらしく現在、別環境でリペア中…
後10時間ほどかかるらしい。終わったらバックアップとっとこ。

226:login:Penguin
08/08/25 18:46:19 hmNDIIPy
あれはメチャ熱くなるよ

227:login:Penguin
08/09/01 05:30:02 FJQeXGzD
並列ランダムリード重視したいんだけど、
RAID5 <= 単体 <= RAID10 < RAID1+LVM
って理解であってる?

228:login:Penguin
08/09/01 15:30:06 URN2jkvk
どれも実装次第じゃないの?
大抵は全部単体より速くなると思うが。

229:login:Penguin
08/09/01 19:19:46 FJQeXGzD
>>228
じゃあ、さしあたりmd限定で。
で、その大抵が通用しないのがランダムアクセスだったりするわけで…

230:質問ノ
08/09/02 00:26:54 +OCnqEcR
RAID0って、データを複数のHDDに分散して同時に記録するから
早いのですよね?
ということは、1台のHDDで、データをフラッタごとに分散して同時
に記録したら、すごく早くならないのかなぁ?
フラッタ5枚のHDDなら5倍???

231:login:Penguin
08/09/02 00:53:44 svkuPaeg
ReadもWriteも早いのか?

232:login:Penguin
08/09/02 00:58:11 3FnQIo0B
シーケンシャルオンリー(かつ大昔のHDDのテクノロジ)ならね。
ランダムアクセスだと1台に集中することでかえって遅くなる。
今のHDDはプラッタ毎にヘッド位置調整をするために同時アクセスは難しいし、
5倍に速くなってもインタフェースの転送速度が追いつかない。

233:理解!
08/09/02 01:06:27 +OCnqEcR
なるほどねぇ
インターフェースが追いつかなきゃ意味ないですね^^;
ごもっとも^^

234:login:Penguin
08/09/02 05:45:29 JL3ZUwv4
ソースを読むほどのスキルはないんだけど、未だにRAID1で読み取り性能だけ2倍にする方法は解明されてない?
相変わらずmanpageに書いてあることとは違うままなのかな。

235:login:Penguin
08/09/02 08:50:52 xIov+WO6
性能がスループットという意味なら倍になるよ。
CPUが2つでプロセス2つで読んでればだけど。

読み出しロジックは読み出し処理を2つのディスクに並列分散させるのではなく、
単に空いているorヘッド位置が都合がいい方のディスクを選択するだけだから
あるプロセス1つから見たら別に速くなるわけではなさそう。


236:login:Penguin
08/09/02 17:54:33 JL3ZUwv4
あのmanpageに書いてあることは、そういうことだったのか!?
だったらmanpageにもそのように書いてくれればいいのにねぇ。
ネット上でも、たまに悩んでいる人がいるし。

237:login:Penguin
08/09/03 09:36:58 GOWpJIT8
ソース見ると、こういうことだべ。

2.6.18のraid1.c
* This routine returns the disk from which the requested read should
* be done. There is a per-array 'next expected sequential IO' sector
* number - if this matches on the next IO then we use the last disk.
* There is also a per-disk 'last know head position' sector that is
* maintained from IRQ contexts, both the normal and the resync IO
* completion handlers update this position correctly. If there is no
* perfect sequential match then we pick the disk whose head is closest.
*
* If there are 2 mirrors in the same 2 devices, performance degrades
* because position is mirror, not device based.
*
* The rdev for the device selected will have nr_pending incremented.
*/
static int read_balance(conf_t *conf, r1bio_t *r1_bio)


238:login:Penguin
08/09/03 10:31:37 E4hwRJkf
1ビットだか1バイトずつ交互に読み書きするから読み書き2倍ってのは嘘か

239:login:Penguin
08/09/03 19:50:17 Yeu4fcGq
raid5=raid0<raid1
程度だと思われるが実装によって逆転する。


240:login:Penguin
08/09/03 21:37:57 xUNUra92
>>234-236
裏技と言うほどのことじゃないけど、それを実現したいなら、

mdadm -C /dev/md0 -l 10 -p f2 -n 2 /dev/sda1 /dev/sdb1

こうやって、2 台だけで RAID10 を組んでみたら?
きちんとミラーリングされた上で、読み取り速度は
シングル スレッドでも 2 倍になるよ。

241:login:Penguin
08/09/04 00:12:57 B1PfYM1l
234が想定アクセスパターンを言わないと何の議論もできんと思われ
並列アクセスするプロセス数と、ランダム・シーケンシャルの別、それからリード・ライト比率

242:login:Penguin
08/09/04 00:58:57 UTrxmu/B
>>241
じゃあ極端な例ということで、100MB/sのシーケンシャルI/O性能を持つHDD2台のRAID-1で

 1.1プロセス、シーケンシャルリード100%の場合
 2.2プロセス、片方シーケンシャルライト、片方シーケンシャルリード100%の場合

この場合に期待できる

 a.各プロセス単位でのリード性能(MB/s)
 b.計算機全体で達成されるリード性能(MB/s)

はおおよそどうなる?2プロセス時はI/O時間が均等に回ってくるとして。

争点は1aが100MB/sなのか200MB/sなのか、2bが100MB/sなのか
150MB/sなのかということかと思うが。



243:login:Penguin
08/09/04 19:35:51 B1PfYM1l
アクセス単位とかスケジューラでとんでもなく変わるだろうけど、とりあえず計算
つっこみよろしく

1a 並列読み出し (α)27.2MB/s (β)100MB/s (γ)200MB/s 片ディスク読み出し 100MB/s
2b 2.56MB/s

仮定として、
RAID1
7200rpm 平均シークタイム 8ms
noopスケジューラ
ファイルシステムを考えない(メタデータ読み書きがない)
mdドライバのリクエスト振り分けは理想的
リード・ライト対象領域はそれぞれ連続
各プロセスのアクセス単位64KB

1aα アクセス単位ごとに回転待ちが発生する場合
1000ms / (回転待ち 4.17ms + データ読み出し 0.655ms) * 64KB * 2 = 27.2MB/s

1aβ 2つのディスクの回転角が一致している場合には回転待ちは省略できるが、
次の目的セクタに行くまでの回転時間は両ディスク同じなので結局変わらない。

1aγ 2つのディスクの回転角がそのトラックでのアクセス単位分だけずれている場合
リードリクエストが来た瞬間にヘッドが目的セクタ上にあるので回転待ちも省略可能

2b 片ディスク読み出し
書きこみオペが来ると両ディスクが書き込み先までシークする必要がある。
1aβ/γのように回転待ちの省略が期待できないので
1000ms / (読み 0.655ms + シーク8ms + 回転待ち4.17ms + 書き 0.655ms + シーク8ms + 回転待ち4.17ms) / 64KB = 2.56MB/s

244:login:Penguin
08/09/04 19:48:19 B1PfYM1l
すまん、1aβ変なこと書いてる…

1aβ リード完了地点からアクセス単位分だけ先に次の目的セクタがあるので、
回転待ちは最小限で済むが、一方の回転待ち時間=他方の読み出し時間なので結局変わらない。

で。

245:login:Penguin
08/09/04 23:56:09 WdYxWaI1
1TB*4でraid組みたいのですが、raid5にするのと、raid1にするのでは
どちらが生存性が高いでしょうか?
現状では500GB*2でraid1を組んでいます。

246:login:Penguin
08/09/05 02:43:09 /T+bWScm
RAID5は1台の破損まで復旧可能で3TB利用可能
RAID1だと1台の破損まで復旧可能で1TB利用可能なドライブが2つ
確率だけでいえば当然RAID1


RAID10だと1台の破損は復旧可能、2台の破損はミラーしてるペアでなければ復旧可能で2TB利用可能

247:login:Penguin
08/09/05 04:45:32 1sBBnm+4
>>245
RAID5だと再構築時にアレイの他のディスクにアクセスしに行くから
負荷も危険性も上がる。RAID1なら対となるディスクのみアクセス。

243-244だけど、1aαも1aγも実際にはまず起こらないだろうから
1プロセスで同じ領域を読む限り、1aについては100MB/sでFAかと。

248:login:Penguin
08/09/05 04:56:12 GrlZSlCm
FA(笑)

249:245
08/09/05 06:16:01 aZwTzuar
>>246,247
速度は気にしていないので、raid1で組むことにします。
ついでなので1TB*6で3TBにする事にします。
ありがとうございました。

250:login:Penguin
08/09/05 10:34:09 2aSQ8pMt
mysqlのマスターのためにはどんな構成がよいですか?
今は高速回転のディスクでにRAID1にしてます。


251:login:Penguin
08/09/05 13:29:39 1sBBnm+4
そういや3台以上でRAID1組むと3台以上に分散してくれるんだろうか
並列ランダムリード中心ならうまいことレイテンシ隠蔽できそうだけど

252:login:Penguin
08/09/06 16:52:55 mklTZhL5
>>250
メモリ山ほど積んでオンメモリインデックス
それかSSD

253:login:Penguin
08/09/07 01:22:02 AQmY2t2w
>>240
そんなことができるのか。知らんかった。
確かにhdparmでは2倍になってるし、片方のHDDを外してもデータに問題はなかったから、
ミラーリングもされてるみたいね。
RAID10って時点で絶対に4台必要なんだと思って、考えたこともなかったよ。

254:login:Penguin
08/09/07 02:08:53 dwiRmWpQ
2台のRAID10って一体データはどういう風に乗ってるんだ?

255:login:Penguin
08/09/07 02:52:54 AQmY2t2w
>>254
240氏のやり方だと、RAID10ってのはあくまでも名前だけで、
実際は234氏が言ってるような読み込みだけが速いRAID1状態になってる。

書き込みは単体のときと(たぶん)同じ速度。読み込みは約2倍。
で、1台外してもデータには問題なくて、そのときは読み込みも単体と
同じ程度の速度に落ちる、って感じ。

実際のHDDにどうやってデータが書き込まれているのかは、俺にはわからん。

256:login:Penguin
08/09/07 09:00:17 3IVMMvgf
>>255
man md

257:login:Penguin
08/09/09 10:43:41 XWIPazgz
[root@puchiko root]# cat /proc/mdstat
Personalities : [raid5] [raid4] [raid1]
md2 : active raid5 sdc1[3] sdd1[2] sdb1[0]
490223232 blocks level 5, 32k chunk, algorithm 2 [3/2] [U_U]
[>....................] recovery = 0.0% (118528/245111616) finish=275.4min speed=14816K/sec

md1 : active raid1 sde1[2] sda1[0]
199141632 blocks [2/1] [U_]
[>....................] recovery = 0.4% (991424/199141632) finish=123.3min speed=26775K/sec

md3 : active raid5 sdl1[3] sdk1[2] sdj1[1] sdi1[0] sdh1[4] sdg1[6]
2441919680 blocks level 5, 32k chunk, algorithm 2 [6/5] [UUUUU_]
[>....................] recovery = 2.8% (13738880/488383936) finish=421.5min speed=18766K/sec

unused devices: <none>

豪勢にリカバリー中・・・コケないことを祈る

258:login:Penguin
08/09/09 10:53:35 a8VHVsbk
  .: + ...:.    ..:...:.. :. +
  . ..: .. .   + .. : .. .
  ..  +   ..:.  ..  ..
 +     :.     .  +..
  .    : ..    +  .. .
  .. :..    >>257  ..
  .    +   |: |
          |: |
      .(二二X二二O
          |: |    ..:+ ..
     ∧∧ |: |
     /⌒ヽ),_|; |,_,,
_,_,,_,~(,,  );;;;:;:;;;;:::ヽ,、
"   "" """""""",, ""/;
 "" ,,,  """  ""/:;;
 ""   ,,""""" /;;;::;;

259:login:Penguin
08/09/09 22:05:16 XWIPazgz
終了したよ! sdcが壊れててmd2はRAID1にしたけど。。。
md3はRAID6にするべきではないか考え中。チラ裏スマソ

260:login:Penguin
08/09/10 04:30:01 wQXa/rnK
おつ

261:login:Penguin
08/09/10 21:04:02 6XTL7ehC
いまフツーにRAID1してるんですけど、
単体のSSDに替えたら信頼性はUp?Down?
答えが出ないので教えてください

IntelのSSD良さげですよね

262:login:Penguin
08/09/10 21:23:58 mTxqzEnL
>>261
既存のHDD RAIDをSSD RAIDにしたらどうなるかってこと?
単純にMTBF比較であればHDDが市販のもので60万時間程度、
SSDが200万時間程度なので、信頼性は上がるだろう。

とはいっても確率論だが。

263:261
08/09/10 21:36:09 6XTL7ehC
HDD RAID1→SSD1個非RAIDです。

数字上は信頼性ちょいアップだけど...
何万台も運用するわけではないので運次第ってとこですかね?



264:login:Penguin
08/09/10 22:39:23 mTxqzEnL
>>263
運の要素が大きいだろうな。
HDDだとクラッシュの危険があるし、SSDだと書き込み回数の制限がある
(ある程度は散らしているが確実なものではない)。

265:login:Penguin
08/09/11 13:52:38 t86QBmcU
>>262
> 単純にMTBF比較であればHDDが市販のもので60万時間程度、
> SSDが200万時間程度なので、信頼性は上がるだろう。

あれ?
HDDの方はRAID1なんだから
「60万時間程度」が同時に二つ壊れる可能性との比較になるよね。
HDD RAIDの方が信頼性上なんじゃない?
正確な計算法が分からんけど。

266:login:Penguin
08/09/11 13:54:54 czapuPka
SSDもRAIDじゃないのか?

267:login:Penguin
08/09/11 19:45:48 x4yKwbl5
>>266
>>261を声に出して100回読め

268:266
08/09/11 22:53:18 czapuPka
ごめん、262しか読んでなかったorz

269:login:Penguin
08/09/12 21:58:14 AhnXV+bh
教えてください。

dmraidで作ったRAIDデバイスと、
フツーにLinux上で作ったソフトウェアRAIDって性能は一緒だよね?

dmraidってのは(Intel Matrix Strageみたいな)BIOSで作ったRAID情報を読み取って、
LinuxソフトウェアRAIDを自動的に構成するツールだと考えてるんだが、この理解は正しい?

あとdmraidで構成したRAIDデバイスが壊れたときは、BIOSで修復かけてもいいのでしょうか?


270:login:Penguin
08/09/13 05:43:54 yFc3xM/P
mdとdmraidの性能比較みたいなページがないか検索してみたらいいよ


271:login:Penguin
08/09/13 16:57:51 LK2wbKHe
>>264
フラッシュ寿命問題って、単に代替セクタ機能でカバーできるんじゃないの?
当然書き込み先を散らすといった手立てをした上での話だけど。

同じく疲労するDVD-RAMとかだって似たような対策打ってるんだから、
よほど書き込みアクセスが反復する用途でない限り大丈夫なんじゃないかと。

272:login:Penguin
08/09/13 17:50:12 ch1kjtqk
書き込み分散とかセクタ代替も込みで製品としてのMTBF出してるだろうから
外から見る限り、書き込み分散とかセクタ代替機能は特に考慮しなくても問題ない

…というのが理想なんだけど、
書き込み分散方式とアクセスパターンとの兼ね合いがあるだろうからなあ

273:login:Penguin
08/09/14 16:09:17 aCb6t4HK
>>269
dmraid知らんけど、互換性があるなんて聞いたことないな。

URLリンク(sourceforge.jp)

ここのを読むとプロプライエタリなソフトRAIDに対してのラッパーみたいなもの?
mdadmとはあまり関係なさそうな。

274:login:Penguin
08/09/14 22:01:49 IYFhfqhh
まあラッパーでいいのかな。BIOS(RAIDカードとかの)で切った
RAID構成のパラメータをLinux側に取り込んでそのまま扱えるようにする
わけだから。

こうするとRAID構成の一部はLinux、別の部分はWindowsみたいな
共存ができるけど、そういう部分切り出し利用しないならOS側の
ソフトRAID機能を使った方がいいというのは百万回くらいいわれてる通り。


275:login:Penguin
08/09/14 23:38:16 JSPVgMYR
> 百万回くらいいわれてる

暇なときでいいんで、リストくれ

276:ヒャクマンハウソ、スマソ
08/09/15 11:53:48 a7BuBquH
>>275
リストを出すのは簡単なのだが、2ちゃんのスレはあまりにも
容量が厳しすぎるので勘弁してください mOm

277:login:Penguin
08/09/15 16:04:26 gKAquFIw
>>276
ここに貼り付ける必要なくね。
圧縮してどこかのアップローダに置いて、ここには URL 一行書けばいいよ。

278:login:Penguin
08/09/19 05:28:28 BR3MquqB
>>225-226
サウスのヒートシンクが貧弱なマザーなら、サウスが熱でやられる。
サウスを冷やせ。
側面にファン取り付け穴が二つ開いてるケースなら、下の方だ。

279:login:Penguin
08/09/20 12:32:05 2jxpiAok
HDD RAIDの仕組みがよく分からないのですが、
例えば、RAID1で500GBで組む、
とした場合、
この500GBと組んだ、という情報は
RAIDカードのみが認識することになるんでしょうか?
(HDD自体には特にRAID云々の情報は書き込まれない?)

現在500GBでRAID1組んでいて、1TBに変えたのですが、
ユニット拡張機能がRAIDカードについていないため、
500GBで認識されてます。

この場合、
一旦関係ない1TB載せて、再度RAID1組んで、
(RAIDカードに1TB情報載せて)
関係ない1TBをはずして、500GBと認識されてた1TB HDDを
載せれば、拡張目的果たせるんでしょうか?

ちなみに3wareの8006-2lp使ってます

280:login:Penguin
08/09/20 15:56:49 9fflWZZq
>>279
ふつうはRAIDに関する情報をハードディスクのどこか(ふつうはディスクの先頭などの
固定の場所)に書き込む。そうでないものもあるにはあるが。

ユニット拡張機能とやらが何なのか知らんが、3wareのユーティリティなどで
できるのではないか。

281:279
08/09/20 16:39:03 2jxpiAok
>>280
うわーーー
おっしゃるとおりですね。
試してみましたが、だめでした。

ユニット拡張は、
いわゆるRAIDカードが構築した論理?ドライブを
実際のディスク容量に拡張するものです。
現在はRAID1作成時のディスク容量で実HDD容量ではないので
それを実HDDの容量に補正したいわけですが、
3wareのCLIでは無いよう何です(汗


何か代替方法ないでしょうか・・・。

282:279
08/09/20 19:18:27 2jxpiAok
結局HDDにRAID情報が書き込まれてるんで、
別HDDへ、ddやコピー系でコピーしてもダメポなんですよね・・・

ああ激しく鬱だ orz

283:login:Penguin
08/09/24 10:25:25 NY4tqg7z
mdadm -Aで無理やり起動したら
failed to RUN_ARRAY /dev/md0: Input/output error
これってどういう事……汗

284:login:Penguin
08/09/24 15:31:23 3ffijfuO
コンポーネントデバイスがご臨終

285:login:Penguin
08/09/25 21:02:44 LfvtnWd8
RAID5におけるresyncについて教えてください

debianで構築したGLANTANKにUSB接続で6台のHDDでRAID5を構築していました。

帰宅したところHDDに頻繁にアクセスしているのでtelnet接続したところ、下記のような状況でResync状態にあるようです。
fumifumi@GLANTANK:~$ sudo cat /proc/mdstat
Password:
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
1562842880 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
[>....................] resync = 4.3% (13630588/312568576) finish=2230.8min speed=2232K/sec

md0 : active raid1 hdb3[1] hda3[0]
77649600 blocks [2/2] [UU]

この状態でmd1のデータは無事に復旧しますでしょうか?
残り一日以上かかりそうですが、完了時にはデータが空っぽにならないか心配です。

ちなみにdfコマンドでは
/dev/md1 1538319916 1457990512 2187260 100% /share/usb
と表示されており、昨日までの使用状況とは変わっていません。(現時点では。。)

/shaer/usbにアクセスしようとしても反応がない状況です。
どんどんデータが開放されているのでしょうか?

力量不足で情けないですが、このまま待つのがよいのか?データは保持されるのか?
アドバイス・ご教示お願いします。

ps.resyncとrebuildはちがいますよね?


286:login:Penguin
08/09/25 22:29:45 hqNskNnF
((((´д'))))

287: ◆Zsh/ladOX.
08/09/25 23:03:20 uxBh3s9z
待つしかない。
(rsync中も遅いだけで使えた稀ガス)

反応が無いって
cd /share/usb
しても
・cdが成功しない
・cdはできるがその後lsとかでコマンドの反応が無い
ってこと?

288:login:Penguin
08/09/25 23:43:29 LfvtnWd8
>>287

早速のレスありがとうございます。

cd /share/usbに反応しませんでした。
プロンプトに戻ってこなかったです。

先の書き込みをした後は
sudo cat /proc/mdstat
にて状況を見ていたのですが、先ほど急にtelnetが切断して接続不能になりました。
#resync中でも再起動可能とのことだったのでsudo reboot等試みましたが、リブートはしませんでした。
それ以外はmdstatしたりdfして状況を見てました。

telnet接続できない現在でも、USB接続のHDDには相変わらずアクセスし続けているので、引き続きresyncは実行されているようですが、pingも利かない状態におちいってます。
GLANTANKのパワー不足?かもしれません。

繰り返しで申し訳ないですが、データは無事と思ってよいでしょうか?
その他書き込みした事項以外で確認すべきことがあればアドバイスください。
返答よろしくお願いします。

敬具

289: ◆Zsh/ladOX.
08/09/26 00:02:45 uxBh3s9z
>>288
まず、データは無事です。
> GLANTANKのパワー不足?かもしれません。
現状はこれかな。


最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
そのPCにHDDを6台接続してresyncした方が良い鴨
(USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)


290: ◆Zsh/ladOX.
08/09/26 00:11:25 D+db+I6m
あーでも今GRANTANKシャットダウンできないのか。
電源ボタンぽちしてシャットダウンしたりするのかなぁ。
どうすっぺねぇ

291:login:Penguin
08/09/26 00:19:03 7oAA51Rx
>>289

> まず、データは無事です。
ありがとうございます。気長に待つことにします。
先の書き込みでお分かりのように大事なデータや怪しいデータなどなど目いっぱい詰め込んで快適につかっていたのですが、初トラブルで、心配です。
希望が出てきたので、おとなしく観測します
#容量いっぱいなので、入れ替えながらかつかつ運用です。。

> > GLANTANKのパワー不足?かもしれません。
> 現状はこれかな。
やはりそうでしょうか。外部アクセスを拒絶してしまってます。
先ほどまでworkhroupにいたGLANTANKがいなくなってますし、resyncに専念してしまっているのかな?
なんとかがんばってくれぇ>SH
#感情的で申し訳ないです。こういう時ほど落ち着いて対処ですよね

> 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
> そのPCにHDDを6台接続してresyncした方が良い鴨
いまさらこのようなことが可能なのでしょうか?
リブートできない状況ではリスクが大きいかと。。
どちらにしてもLinuxな環境がないので乗り換えは厳しいです。

> (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
説明不足ですいません。
6台はい~るに6台のHDDを詰め込んでますので使用UBSポートは1つで大丈夫です。
#それにしてもなぜ?このような状態に。。。

有益なアドバイスいただきありがとうございました。
何か思いつかれたら、また返答いただければ幸いです。

敬具

292: ◆Zsh/ladOX.
08/09/26 00:35:12 D+db+I6m
> どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
CDブートのlinuxを使えば良い。
が、どっちにしろgrantankを上手く落とせた場合の話になってしまうけど


ではもう寝るので健闘を祈ります。

293:login:Penguin
08/09/26 00:52:55 7oAA51Rx
>>292

いろいろお世話になりました。

とりあえず現状のまま様子をみます。

夜遅くまでお付き合いいただきありがとうございました。

敬具


294:login:Penguin
08/09/26 11:36:30 UHMIOaKO
>>293
resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
WD10EACS-D6B0 x 4でRAID5を使ってるけど、80MB/secから最終的に40MB/secに落ちる程度の速度は出るよ。
どれかのHDDが壊れかけで足引っ張ってたりするんじゃないかと想像するんだけど。
dmesgとかsmartを確認した方が良さそう。

あと、あんまりかつかつまで使わない方が良いと思うよ。
環境依存かもしれないけど、2.7TB中50GB程度空きになった状態で何度かフリーズを経験してて、
空きが結構ある状態では一度もフリーズしてない。
(OS:Fedora9、FS:XFS)


295:login:Penguin
08/09/26 20:14:20 7oAA51Rx
>>294

> resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
よく覚えてませんが、たぶん構築時もこんなものだったような??

> dmesgとかsmartを確認した方が良さそう。
寄せ集めの320GB-IDEをUSB接続なのでこんなものかと。。
いただいた情報をヒントに調べてみます。

> あと、あんまりかつかつまで使わない方が良いと思うよ。
余裕を持ちたいのは山々ですが。。いろいろ詰め込んじゃうんですよね。
どこもかしこもかつかつで。。貧乏性で消せない性格がいけませんね。
速度よりも容量重視でこうなっちゃいました。。



296:login:Penguin
08/10/05 10:49:30 Ze8uaqdI
/proc/mdstatがcheckになるのは、なぜですか?
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid6 sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
2930279808 blocks level 6, 64k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] check = 0.7% (7653376/976759936) finish=3794.0min speed=4256K/sec

/var/log/messages
Oct 5 01:06:01 host kernel: md: data-check of RAID array md1
Oct 5 01:06:01 host kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk.Oct 5 01:06:01 host kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
Oct 5 01:06:01 host kernel: md: using 128k window, over a total of 976759936 blocks.
md0についても同じメッセージが出ています。
ファイルシステムは、md0, md1ともにXFSです。

1時6分から何かが始まっていますが、cron.dailyは6時25分に設定されているので
cronによって起動された何かが原因ではありません。
OSを再起動したとか、ホットスワップしたタイミングでもありません。

OS: Debian GNU/Linux 4.1(etch)
カーネル: 2.6.26.5へ入れ替え
です。

297:login:Penguin
08/10/05 13:12:24 rOZmgU0Y
/etc/cron.d/mdadm じゃね?

298:296
08/10/05 14:55:41 Ze8uaqdI
おっしゃるとおりです。
6 1 * * 0 root [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ] && /
usr/share/mdadm/checkarray --cron --all --quiet
となってました。

どうもありがとうございました。

299:login:Penguin
08/10/11 18:12:33 ZuxskNzz
SATAのHDDが10個ぐらいのRAID組みたいのだが
一番安く済む方法教えてほしい

300:login:Penguin
08/10/11 20:12:37 0pLPQ9Sw
普通はエントリーモデル買って100万円ぐらいじゃない?

301:login:Penguin
08/10/11 23:40:03 qfaubBp2
>>300
80 万くらいの差額はどうするべ?

302:login:Penguin
08/10/12 00:04:53 0pLPQ9Sw
80万円の差額ってなぁに?
たしかにボッてるとおもうけど
冗長性のあるコントローラや電源だと
このくらいするかなと思います

そもそも家庭向けだとスロット数が4つぐらいだよ

303:login:Penguin
08/10/12 00:07:47 MFK5+p1z
冗長性云々必要なの?

> SATAのHDDが10個ぐらいのRAID組みたいのだが

としか書かれてないよ。

304: ◆Zsh/ladOX.
08/10/12 00:16:53 BnTxnZIJ
サウスにSB700とかSB750とかICH9とかICH10のマザー
+
クロシコSATA2I2-PCIeを2個使う

ってところか。
HDDはお好きなのでどうぞ。

305:login:Penguin
08/10/14 16:22:59 NijeoAer
最近Supermicroのベアボーンが、実はかなりコストパフォーマンスが高いことに気付いた。
SOHO向けのファイルサーバ用途なんかだと、かなりいい感じだと思う。
バラでパーツ集めるより安心確実安上がり。

306:login:Penguin
08/10/15 01:00:02 MFbQNNJJ
もしドライブベイ4つあるサーバーあったら

①SASでraid1+0
②SASでraid6
③SATAでraid1+0
④SATAでraid6

のうちどれが良いと思います?
速度、コスト、耐障害、障害時復旧等
それぞれの面から教えてください。

307:login:Penguin
08/10/15 02:07:17 ZK7oP6Ef
>>306
シーケンシャルなら24
ランダムなら13
コストなら34
耐障害なら24
ディスク負荷高い場合は障害復旧での負荷13

308:login:Penguin
08/10/17 23:47:36 yE7dhqMk
>>306
これ見て思い出したんだけど
RAID1+0ってRAID0+1って言うのもあったんだね
1+0のほうが耐障害で0+1が速度だっけ?

309:login:Penguin
08/10/18 03:28:34 CvVG09ig
>>308
その2種類の動作は呼び方が定義されていない
普通採用される方式は
RAID0の各HDDがミラーリングされている方式
もう一つは信頼性ガタ落ちの
RAID0をミラーリングした方式
速度はどっちも同じ(リトライ処理とか考えると異なるかもしれんが)

310:login:Penguin
08/10/22 23:03:41 OER6wkY9
>>308
ミラーリングボリュームのストライピングか
ストライピングボリュームのミラーリングか、だね
ストライプサイズ近辺のアクセス粒度だと、シークとアクセス振り分けの関係で
性能特性が微妙に違ってきそうな感じ。分かるような違いは出ないと思うけど…

ちなみにmdのRAID10はさらに別物

311:login:Penguin
08/10/25 23:44:02 WFYSKaa5
mdadmでRAID1を組んでext3でフォーマットしました。
別のext3のディスクからディレクトリを
cp -a
でコピーし、
du
で見たところディレクトリ全体の容量が微妙に違います。

ですが、ディレクトリ内の各ファイルの容量はそれぞれ一致しています。
これは、ジャーナリングのメタデータの容量が違うから、ですか?
それとも、RAIDに起因するものですか?

312:login:Penguin
08/10/26 01:23:25 Z2w8/cR8
その「微妙」というのが何KBなのか何MBなのか、そしてどっちが多いのか
エスパーじゃない俺には全然わからないけど
単にディレクトリエントリの消去済み領域の分だったりしないかね。

313:login:Penguin
08/10/26 02:35:57 J0AWp7Ql
コピー元と先のそれぞれ上の階層で
ls -l すると 4096B だけコピー先のディレクトリが小さいので、
おっしゃる通りですね。勉強になりました。

314:login:Penguin
08/10/28 15:40:50 OkmvC/aL
3wareの9500Sで700GB*8のRAID5を構築したのですが、
ファイルシステムが上手く作れなくて大変困っております。
使用しているのはFedora Core 7です。

# parted /dev/sdb
GNU Parted 1.8.6
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number Start End Size Type File system Flags

(parted) mkpart primary ext2 0 -0
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number Start End Size Type File system Flags
1 512B 852GB 852GB primary ext2

となって、5250GBと表示されているのに、パーティションを作ろうとすると
852GBのパーティションしかできません。

RAIDの最初期化なども行ってみたのですが症状は変わりませんでした・・

どなたか、アドバイスを下さいませんでしょうか?

315:login:Penguin
08/10/28 16:02:30 7kZ3n49D
> Partition Table: msdos

なあ、DOSパーティションテーブルで扱えるサイズに上限があるの知ってる?

316:314
08/10/28 16:11:53 OkmvC/aL
できました!大変ありがとうございました。

(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number Start End Size File system Name Flags
1 17.4kB 5250GB 5250GB primary


317:login:Penguin
08/10/28 17:16:12 XbLUcb3e
え~っと
ネタ……だよね?

318:login:Penguin
08/10/28 17:29:33 XbLUcb3e
しかし、ドライブが普通にTBクラスになってくると
それまで遭遇したことのない状況に直面することも多そうだな。
1TB 1万円の時代がこんなに早くやって来ようとは…

319:login:Penguin
08/11/02 00:36:09 36V/uKQX
すまんが教えてくれ。

500GBx4(RAID5)を構成してたうちの1台が故障したんで、容量アップもかねて
1TBx3(RAID5)に変更した。
データ移行は全HDDを同時に搭載して、md0(500GBx4)とmd1(1TBx3)を作成して
コピーした。
500GBx4を取り外して1TBx3だけにしたんだが、再起動後もmd0じゃなくmd1として
認識される。
今までデバイス名はmd0を使っていたんで、これからもそうしようと思ってたんだが。
CentOS5を使ってるんだが、これをmd0に直すことは出来ないか?

困ってるというほどじゃないんだけど、気持ち悪くて・・・orz

320:login:Penguin
08/11/02 01:09:58 n6/w/1q1
>>319
私も現在稼働中のRAIDの容量アップを狙ってましてその件について気になります。
憶測ですが、

/etc/mdadm/mdadm.conf
/etc/fstab
/boot/grub/menu.lst

の3つを編集すればmd1をmd0にできるかもしれません。
mdadm.confをいじったらmdadmコマンドを実行しないといけないかもしれません。
RAID初心者なのであまり信用しないでください。
判断の材料になればと思いまして書かさせていただきました。

くれぐれもいきなりファイルを書き換えたりせず調べてから行ってくださいね。

321:login:Penguin
08/11/02 01:29:20 36V/uKQX
>>320
レスありがとう。

/etc/mdadm/mdadm.conf
 →今までmd0だったのをコメントアウトし、md1として記載していたのをmd0に書き換えた。
/etc/fstab
 →md0でマウントして欲しかったので、記載は変更せず。
/boot/grub/menu.lst
 →ルートパーティションもカーネル置き場もRAIDの対象外にしてあるので、変更せず。

この状態で、1TBx3(RAID5)がmd1で、md0にはデバイスが何も割り当てられていない。
仕方ないので今は、/etc/fstabを修正し(md0→md1)で動作させてる。

何をすれば直るんだろう・・・

322:login:Penguin
08/11/02 04:27:52 yzuijVl/
>>319
mdボリューム自体に書き込まれてる番号を見てるんで
superblock弄らないと直せない
やめておいたほうがいい

323:login:Penguin
08/11/02 08:56:30 36V/uKQX
>>322
ああ、そうなんだ・・・
わかった。ありがとう。
あきらめることにするよ

324:login:Penguin
08/11/07 08:51:39 1rUaDWwq
アロハですべて解決だお田口くん^^

325:login:Penguin
08/11/08 20:24:12 dUpxLcHs
アロハ田口君、使えないRAID・使えないクソ板というならここにはこないでくれ!

326:login:Penguin
08/11/08 22:09:50 1FtiGeqJ
md raid1なデバイスが開始しなくなったのですが、
縮退も何もしていないようなので原因が掴めずにいます。
再構成すれば正常に復帰することは確認していますが、
どのような原因でこの状況になり、どのような対応をするべきなのか、
勉強のために助言をいただければ大変ありがたいのですが。

# cat /proc/mdstat
md1 : inactive sdb1[0] sda1[1]
12345678 blocks super 1.0

# mdadm --detail /dev/md1
/dev/md1:
Raid Level : raid1
Raid Devices : 2
Total Devices : 2
Preferrer Minor : 2
Persistence : Superblock is persistent
State : active, Not started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

# mdadm --examine /dev/sd[ab]1
/dev/sda1
State : clean
Checksum : 1234abcd - correct
Events : 4
/dev/sdb1
State : active
Checksum : 56789abc - correct
Events : 5

327:login:Penguin
08/11/08 22:30:16 vwNnhBNG
>>326
raid1ドライバは起動時にロードされてる?
パーティションタイプの設定は間違ってない?

328:326
08/11/08 22:39:01 1FtiGeqJ
>>327
全く同様に作成した複数のRAID1デバイスがありますが、このデバイスのみ開始しません。
ちなみにパーティションは/としてマウントされる設定になっています。

329:326
08/11/08 23:01:02 1FtiGeqJ
昨日までは問題なく機能していたのですが、一体何が原因なのやら。
念のため、パーティションテーブルとmdadm.confも
バックアップと比較してみましたが、完全に一致しています。

330:login:Penguin
08/11/08 23:12:58 vwNnhBNG
ルートってのが怪しい気も・・・
# dmesg | grep md
とか

331:326
08/11/08 23:42:00 1FtiGeqJ
>>330
# cat /var/log/boot.msg | grep_wetware md
mdadm: /dev/md0 has been started with 2 drives.
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error
mdadm: /dev/md2 has been started with 2 drives.
mdadm: No arrays found in config file

このシステムは普通のinitrdだと起動しないので、
今Knoppixを改造する方法を調べていますが、メディアがないという・・・。

332:326
08/11/09 00:02:30 1FtiGeqJ
システム自体は自動復旧できるので、あまり困ってはいませんが、
復旧スクリプトはOSをカスタムクリーンインストールするだけなので、
原因究明に必要そうなデータは全部消えてしまいます。

全く関係ありませんが、M/BのRAID機能(Fake RAID)には
SB等のオンチップなもの、別途チップを搭載したオンボードなものがあります。
後者の場合、搭載チップが大手デベロッパのもの(Silicom Imageとか)なら、
全く同じチップを搭載したRAIDカードが簡単に手に入ります。
「Fake RAIDを使いたいが、拡張カードに余裕がない。しかしオンチップでは不安」
という場合にはそのようなM/Bを選ぶのもいいかもしれません。
また、PATA・SATAなどが搭載されているものでも、似た型番のファームウェアで(略
他のOSと共用しないのであれば、LinuxでFake RAIDを選ぶ理由はそうないと思いますが。

333:326
08/11/09 21:20:22 DGt7Zimz
どうも最近のカーネルで同じような現象が出るようです。
いくつかのフォーラムで話題に上っていましたが、いずれも原因は不明でした。
大きな実害はない(RAIDでシステムが起動しなくなるのは実害ですが)ため、
週末も終わりますので、このあたりで調査を打ちきりたいと思います。
付き合ってくださった方、ありがとうございました。

334:326
08/11/09 21:47:37 DGt7Zimz
同様の現象に遭遇された場合は、RAIDを構成し直すことでデータロスなく復旧できます。
私の環境では復旧作業はメンテナンスモードで完結しましたが、
カスタムinitrdなので、他の環境ではレスキューCDやLive CDが必要かもしれません。

復旧するには、RAIDを再構成し、必要であれば適当に同期します。
UUIDが変化している場合は、UUIDを元に戻すか、mdadm.confに反映してください。
# ルートをRAID構成にしているような方は理解していると思いますが、
# /boot/initrd/etc/mdadm.confです。念のため。
私の環境ではinternal bitmapが正しく認識されませんでした。
このあたり詳しくないので分からないのですが、作り直してやれば問題なく動くようです。

一応、エラーなくブートすることは確認していますが、
結局初期化してしまったため、正常に運用できることは確認していません。
また、この現象は再現性があるようなので、再び発現するかもしれません。
カーネルを大体2008年上半期のものに戻せば、再発しなくなる"らしい"ですが。

335:login:Penguin
08/11/14 17:41:14 SvkwSzc6
うちは64bit Ubuntu環境だが、書き込み負荷が大きいとRAIDが応答しなくなる。
非RAIDのシステムディスクも巻き込んで書き込めなくなっているらしく、
Fxの設定なんかが戻ってる。シャットダウンも途中でバスエラーで止まるし。

対処法は >>334 に同じ。

P35のサウスが腐ってるのか、ドライバが腐ってるのか。

なんでやー

336:login:Penguin
08/11/22 20:07:08 Jtc1qcI2
CentOSでSATAのHDDをミラーリングしたいのだが
ハードウェアRAIDで2台を接続できるやつでお勧めありませんか?
そんなに高性能でなくて構いません

337:login:Penguin
08/11/22 20:32:30 eQKAaNGp
べつにソフトウェアでやればよくね

338:login:Penguin
08/11/22 20:42:46 pwVAVQnO
個人的にはLinuxと言えば3wareのイメージが強い

339:login:Penguin
08/11/23 10:20:29 NMmGdMk5
沖縄に外国人3000万人受け入れ計画
URLリンク(life.bbs.thebbs.jp)

こんな法案が可決したら日本は破綻する
(ちなみに東京の人口は1280万人)
選挙権がある方は良く考えて投票してください



340:login:Penguin
08/11/23 14:17:08 xbEoWaWj
まず物資の輸送が不可能
餓死させるのが計画のうちなら知らんが。

>>337
ブートローダのメンテが若干面倒だから、そのあたりを嫌うなら
透過的に扱えるHW-RAIDの方が良いかも。

341:login:Penguin
08/11/24 13:53:42 nIHbOfOU
3ware Escalade 9500S-4LP
adaptec Serial ATA RAID 2410SA
どっちを買おうか悩んでます
ハードウェアRAIDの方がよいらしいのですが
どうやって見分けるかがわかりません。
エロい人教えてください

342:login:Penguin
08/11/24 14:17:15 gPfZJ3UU
>>341
PC外付けタイプならまず確実にハードウェアRAID。
その2つもハードウェアだと思うけど。
Adaptecの方はややスペックが落ちるから3wareでいいんじゃ?

(使ったことないし、ぷらっとオンラインの説明見て書いてるだけだけど)

343:login:Penguin
08/11/24 16:16:07 hCv1ixFI
質問です。

現在CentOS5のmdadmを使用してRAID5構築しています。
これをRAID6に変換したくてGoogle先生に聞いたのですがサイト見つかりませんでした。
①可能なのか?
②検索するキーワード、もしくはお勧めのサイト
をご教示いただけると幸いです。


344:login:Penguin
08/11/24 16:45:51 VO9j9Wmt
知る範囲ではフルバックアップ+リストアしかないと思われ
最新のmdadmは知らないから、サイト見つけてman読んでくれ

345:login:Penguin
08/11/24 21:36:30 GzuV7Usu
高価なストレージでもRAIDレベル変換は命がけだよ
なにしろメモリ上にしかデータがない瞬間があるからね

346:login:Penguin
08/11/24 22:24:15 l3Kl+Jqd
>>343
可能だったとしても君には無理だと思うよ。

347:login:Penguin
08/11/25 00:09:58 dBliCIAC
>>343
>>107-111

348:login:Penguin
08/11/25 00:11:10 dBliCIAC
IDにCIA… ガタガタブルブル(違

349:login:Penguin
08/11/29 22:26:04 jRDp7xVJ
RAID構築してた二つのHDDを
普通に使用しようとしてフォーマットしたら
エラーでフォーマットできないんだが
どうすればいいのでしょうか?
DESTROYで完全消去しようとしても
エラーで消去できません(泣

350:login:Penguin
08/11/29 22:44:47 jRDp7xVJ
ローレベルフォーマットも無理だった・・・orz
俺の知識じゃなんともならん・・・
誰か助けてください。

351:login:Penguin
08/11/29 23:01:17 vVaLqDtx
>>350
もしかしてRocetRaid?
HDDの設定値書き換えるらしいので他環境では使えなくなるらしいよ。

352:login:Penguin
08/11/30 02:12:02 oiqzRYao
adaptec 1210SA っていうやつなんだけど・・・


353:login:Penguin
08/11/30 02:12:49 oiqzRYao
途中で書き込んだかも

adaptec 1210SA っていうやつなんだけど・・・
RocketRAIDでは違うようです。


354:login:Penguin
08/11/30 02:46:09 pP7UJGw1
>>349
どうしても他の方法が駄目なら試してみて。
もう一度、同じRAIDを構築する。
それからRAIDのレベルを1にして再構築。
そしてバラしてから一個づつフォーマット。

355:login:Penguin
08/11/30 03:27:32 oiqzRYao
>>354
RAID1を構築しようとすると
開始直後から固まって動いてくれないです

356:login:Penguin
08/11/30 05:07:23 pP7UJGw1
>>355
最初のレベルは何?
最初RAID 0なら、同じようにRAID 0で構築しないといけないよ。
それで問題ないなら、次にRAID1で再構築。
同じカードなら、これができないはずはないと思うけど。
もちろんOSは別のHDDだよね。
後は、プロンプト開いてfixmbrしてみるしかないかな?
使い方はググってくれ。

357:login:Penguin
08/11/30 06:13:18 I/61r+v7
ふつーに物理的に壊れたんじゃんないの

358:login:Penguin
08/11/30 12:40:13 oiqzRYao
>>356
OSは同じHDDですorz

まだ購入して一週間ぐらいしか経過していないんだが・・・汗

359:login:Penguin
08/11/30 14:28:11 lQ5yOOgC
この書き方だと導入時のHDDテストもしてないっぽいな

360:login:Penguin
08/11/30 14:41:41 oiqzRYao
powermaxっていうツールで
Advanced Test (Full Scan Test) っていうテストぐらいしかしてないです


361:login:Penguin
08/11/30 17:06:27 lQ5yOOgC
んー、それならテストとして最低ラインはクリアか
フォーマットが無理ならddで全領域ゼロうめとか
# dd if=/dev/zero of=/dev/sdX bs=1M
LBAで見える以外の領域に何かされてたらこれじゃ解決しない

どのレベルでどんな問題が起こってるのかきちんと書かれてないな
RAIDカードのBIOSなのか、OSレベルなのか、ローレベルフォーマットって
いうならメーカ製ツールなのか。半ばエスパー質問化してる

362:login:Penguin
08/12/09 23:45:42 cEZNK+Gg
長文失礼します、
DELL ワークステーション 450GB 15000回転×4枚 検討中ですが
SAS RAID5 か SAS RAID10でヒジョーに悩んでおります・・

一般論では RADID5のほうが良くない(書き込み遅い・2枚壊れたらアウト)
と言われます。
が、DELLに言わせれば それは主にSATAの話であって、
SAS RAID5 の場合 PERC 6 SASコンが演算する?ので
書き込み速度もそれほど遅くならないし、HDDが同時に2枚壊れるなんて
ほとんど有り得ないから大丈夫との回答・・

もし本当なら やはり作業領域の広い RAID5にしたい気持ちですが、
それを押し切ってでも あえてRAID10にする決定的なメリットを
ご存知のかた いませんでしょうか?
(RAID10の速さ・安心感も捨てがたいのも事実です)




363:login:Penguin
08/12/09 23:59:13 3GSXNjdZ
>>362
PERC 6 SASコンの演算性能を確認してからでもよくない?

>HDDが同時に2枚壊れるなんて
>ほとんど有り得ないから大丈夫との回答
逝ったらデータ保証してくれるのか、って言ってみたいね。
多分なーんにも考えずに言ってるだろうから。

364:login:Penguin
08/12/10 00:13:28 wgpxAUYw
RAID10だったとしてもデータ保証は無いし、そもそもRAIDの守備範囲じゃない
何にも考えてなさそうなのは同意だが

365:login:Penguin
08/12/10 00:31:00 OPHXMwCC
>>363
早速のアドバイス有難うございます。
RAID5特有の データとパリティ情報を分散して記録する手間ってヤツですよね

今回の場合、

RAID5→作業可能領域:1350GB バックUP領域:450GB
    読み速度:○ 書き速度:△ 故障時復旧:2枚逝ったらアウト

RAID10→作業可能領域:900GB バックUP領域:900GB
    読み速度:◎ 書き速度:◎ 故障時復旧:3枚逝ったらアウト

といったところでしょうが HDDの壊れ具合やHDD作業領域の大きさ等、
未体験ゆえ 何かに例えようもなく、
さて どうしたもんかという感じでざいます・・



366:login:Penguin
08/12/10 00:34:11 4CJ8G9lA
>>365
RAID10は組み合わせによっちゃHDD2二つ死んでもアウトじゃないか?

367:login:Penguin
08/12/10 00:36:52 OPHXMwCC
>>366
すみません まだあまり詳しくはないですが
0+1 と 1+0 の違いということでしょうか?

368:login:Penguin
08/12/10 00:42:14 4CJ8G9lA
>>367
URLリンク(itpro.nikkeibp.co.jp)
の後半部分

369:login:Penguin
08/12/10 00:48:16 wgpxAUYw
>>365
データ守りたいの?可用性を上げたいの?
データを守りたいだけならRAIDは無意味だから
JBOD2つ作ってバックアップしなさい

370:login:Penguin
08/12/10 01:04:08 OPHXMwCC
>>368 わかりやすいページでした、有難う御座います
   この場合 当然1+0ですね

>>369 以下のような説明文を見つけたのですが
   そう簡単に一安心というのも なかなか難しいものですねw

実際、JBODは複数のディスクを単に1つにまとめて
大容量の単一ディスクに見せかけるだけの技術だ。
パリティなど冗長コードの仕組みはなく、
耐障害性は向上するどころか悪くなる。

冗長性がないという点で JBODはRAID 0とよく似ている。
しかし、RAID 0が複数のディスクを並行して読み書きすることで性能を高めているのに対し、
JBODでは基本的に1台ずつ読み書きされるので性能は向上しない。


371:login:Penguin
08/12/10 01:20:23 OPHXMwCC
やはり どちらにしてもバックUPは欠かせないように思いました。

・作業領域重視なら まめにバックUPをとりつつ RAID5
・作業速度重視なら たまにバックUPをとりつつ RAID10

という2つの選択理由で最終的な悩みに突入してみます。
結局は 作業領域450GBの差・互いの体感速度差 が
なかなか想像できないという悩みなワケですが・・

372:login:Penguin
08/12/10 01:34:19 Ual94Maq
書き込みの早さは、
RAID10 > 5 > 6
の認識であってますか?

373:login:Penguin
08/12/10 01:36:45 4CJ8G9lA
レイテンシは逆に増えるからね、
よほど大容量データを転送しない限り体感できないに一票

RAIDは間違ってデータ消したとか、
ウイルスがデータ壊したとか、
ソフトウエアの問題から起きるデータ消滅には無力。

HDDが故障する確率と間違ってデータ消す確率、
どちらが高いかを考えるとバックアップの重要性に気づくはず。

374:login:Penguin
08/12/10 02:01:36 OPHXMwCC
しかし 最もポピュラー且つ 全てのバランスがとれているのはRAID5だ
という意見もあるしな~ 聞けば聞くほど迷ってしまうところです

375:login:Penguin
08/12/12 16:45:01 n9kgBBfI
>>370
JBODって何のためにあるのか分からんよな・・・
障害発生しても別にいいやってスタンス(例えば2ch鯖w)で使うもんなんかな?

376:login:Penguin
08/12/12 19:38:52 IRfMgGF6
昔のドライブあたりの容量が小さかった時代には
有効な手段だったんだよ。
今となっては無価値だが。

377:login:Penguin
08/12/12 20:46:10 uz8EwwXm
全然分かってないな…。

メリットはドライブごとのアクセス並列化。
XFSみたいな、ファイルシステム内で複数のアロケーション単位に
分散して使っていくファイルシステムと組み合わせて、
並列入出力のアクセス時間を隠蔽する。
RAID1+0だと、アクセス単位がストライプ単位より大きい場合は
並列入出力が事実上不可能。

378:login:Penguin
08/12/12 20:51:14 7DMsWCHl
J(ust)BOD

379:login:Penguin
08/12/15 20:30:18 cQdvEHh1
>>377
まじか
したら>>370の説明は間違いってことじゃん

つーことは、RAID0と違って、JBOD中の1台が死んでも全体が死ぬわけじゃない?

380:login:Penguin
08/12/16 05:33:07 habB3SiC
>>379
1台死亡でボリュームが死ぬのは一緒。RAID0だと領域が櫛状に死亡するから、
完全な形で救出できるファイルが極端に少なくなるけど。

381:login:Penguin
08/12/16 12:40:23 V99gDv+F
JBODの実装次第なんじゃないの?
例えばどのハードウェアRAIDでも必ず >>377,380 と言える
保証はどこにもないと思う。

382:login:Penguin
08/12/16 14:57:27 habB3SiC
何当たり前の事を……。
370も377も必ずその動作になるとは言っていないぞ?

380もそりゃ実装次第だが、RAID0を名乗る以上実装はストライピングだろうし、
JBODを名乗るなら領域連結だろう

383:login:Penguin
08/12/16 17:00:56 KlJRATvp
小学生の口ゲンカみてーだな

> 「必ず」とは言ってない

そんなこといつ言った?
何時何分何秒だ?

とか続きそうw

384:login:Penguin
08/12/16 17:15:15 O0nTK2wv
>>383
そうなの?死ぬの?

385:login:Penguin
08/12/16 18:47:07 MbHpuTDI
よく分からなくなってきた
RAIDだとJBODのような並列入出力はできないわけ?

386:login:Penguin
08/12/16 23:29:57 habB3SiC
JBODだろうがRAIDだろうが並列入出力できるかは実装次第。
RAID0系(5/6含む)はほぼ不可能というかできても実用的じゃない。

387:login:Penguin
08/12/17 10:12:16 mORUj6fC
並列入出力って、
RAIDよりもNCQとかその辺の仕事では?

388:login:Penguin
08/12/17 12:42:06 lUpz3ShW
ここまでの話の要約

JBODとRAID0のメリット・デメリットは実装次第で、
絶対的な話として、どちらがどうとは言えない

389:login:Penguin
08/12/17 15:22:26 BsydUkOG
ほんとか?

390:login:Penguin
08/12/17 15:34:12 Q+zvZB24
JBODのメリットはディスクの容量が異なっていても全部使えることじゃないのかな

391:login:Penguin
08/12/17 22:56:00 n45DK9NO
みんな意見バラバラだな・・・w
まぁほとんどの人は接点がないってことだろうな。プロの鯖缶でもない限り

392:login:Penguin
08/12/18 01:10:30 glsjl0AW
>>387
ボリュームレベルの話とドライブレベルの話は区別するべし
並列っていうからには同時に複数箇所アクセスできないといけないけど
NCQ使ったところでアーム1個だから無理

393:login:Penguin
08/12/18 10:21:59 +frKg3uB
>>383
あんた、理解しないで突っ込んでるだろw

パリティデータも実データも全ディスクに分散して書き込むのがRAID5,6の肝。
その副産物として >>377 に挙げられてるメリットが出てくる。

それに対して、JBODは、概念的に並列化となんの関連もない。
だから「並列化された実装」かどうかの保証はない。

394:login:Penguin
08/12/18 16:56:41 glsjl0AW
377はJBODのメリットを言っている件

395:login:Penguin
08/12/18 18:09:57 OhRt4tvK
393が一番文脈読まずに書いてる気がする件

396:login:Penguin
08/12/18 20:10:23 7mUfa8Uh
そろそろFAを頼む
初心者の俺を混乱させるなよお前ら

397:login:Penguin
08/12/19 04:36:05 I6X68B5n
>>393
全然ダメ。構造と振る舞いが区別できてない。

RAIDもJBODも記憶領域の構造をどうするかという話。
それ単体では並列化とは何の関係もない。
分散されたそれぞれの書き込みオペを逐次にやったとしてもRAID0だし、
各ドライブに並列的に書き込んでもRAID0。
逆にJBODで複数ドライブにまたがる書き込みを並列で処理しても良い。

>>396
RAIDもJBODも単なるストレージ構成法の一つ。
本質的なところではパフォーマンスとは何の関係ないが、
ストレージの構造は並列化等の実装に影響を与えるわけで、
それがパフォーマンス特性になって出てくる。
なので、個々の製品のパフォーマンスについては
RAIDやJBODの種類と同時に実装もきちんと見ていかないとまずい。

398:login:Penguin
08/12/19 09:39:33 N95hrrbA
>>397
横から見ていた者だが、"並列"の意味が377と違うんでないか?
377はボリュームに対する並列アクセス、397はドライブに対する並列アクセス
を前提に書いてる気がする。

あと、
>RAIDもJBODも単なるストレージ構成法の一つ。
>本質的なところではパフォーマンスとは何の関係ないが、
これは違うべ。
何らかの性能を上げるために構造を考えるんだろ。

399:login:Penguin
08/12/19 09:50:41 HVbKjCGk
そもそも冗長性確保のためのデータの配置が定義されているわけで
性能については実装任せなんだが

400:login:Penguin
08/12/19 12:28:20 ZzooiCVr
RAID Level 0については確実に性能はアップするでしょ。
仕組み上。
Level 0そのものは正確には"RAID"ではない
(RAIDのRはRedundant = 「冗長性のある」だが、Level 0 は冗長性なし)けど、
速度向上目的で他のLevelと組み合わせて使うRAID技術の「一部」だよね。

JBODは"Just Bunch Of Disks"。
基本的には名前の通り「単にディスクをまとめただけ」で
それが性能向上に繋がるかどうかは実装次第。

では。

401:login:Penguin
08/12/19 13:37:26 W75DRFXy
「パフォーマンス」「性能」の定義がバラバラな気がする。

402:login:Penguin
08/12/19 16:18:22 I6X68B5n
>>398
>何らかの性能を上げるために構造を考えるんだろ。

だからわざわざ「本質的なところでは」って書いたんだが。

>>400
>RAID Level 0については確実に性能はアップするでしょ。
少なくとも構造上はアップしない。以下再掲。
分散されたそれぞれの書き込みオペを逐次にやったとしてもRAID0だし、
各ドライブに並列的に書き込んでもRAID0。
RAID0がRAIDかどうかってのは、本筋には何の関係もない蘊蓄。

>>399
同意見

403:login:Penguin
08/12/19 16:21:37 HakcTdSU
これだから原理主義者は

404:login:Penguin
08/12/19 16:28:34 I6X68B5n
そりゃ原理理解できてなきゃ話にならんからね。

405:login:Penguin
08/12/19 20:28:43 N95hrrbA
>>402
もう1行引いておくべきだったか。
おまいさんの言う"本質的なところ"はおかしくないか?、ってのが言いたかった。

単一I/Oに対するバースト転送速度を上げたい、ってのが目的で、
それが期待できる記憶領域の構造の一つとしてRAID0があるんだろ。
だから俺は、単一I/Oに対するバースト転送速度を上げたい、ってのがRAID0の本質だと思う。

もちろん、どんなRAID0でもこの目的が達成できるわけじゃなくって、
実装もちゃんと見ていかなくてはまずい、って点には同意。

極端な例で、例えばドライブ一台にパーティション二個切ってRAID0組めば、
RAID0だけど性能はグダグダ。


406:login:Penguin
08/12/19 20:41:15 AyOb8rM1
>>405
どんな目的で選ばれたり、どんな実装をされるかに関わらず、
RAID0(ストライピングの方が正確か)は構造を指した用語なんだから構造が本質。
それに、第3段落で言っているように「どんなRAID0でもこの目的が達成できるわけじゃな」いということは、
それはRAID0すべてに成り立つ特性ではない。つまり本質ではないということになる。

407:login:Penguin
08/12/19 21:34:55 N95hrrbA
う~ん、おれは目的が本質だと思っているんで、
「RAID0の本質を誤った実装」みたいな言い方をするんだが、
おまいさんは定義が本質か。


408:login:Penguin
08/12/19 23:02:52 HVbKjCGk
RAID0もバカみたいな実装にすれば

Disk1のストライプ1
Disk2のストライプ1
:
DiskNのストライプ1
Disk1のストライプ2
Disk2のストライプ2
:
DiskNのストライプ2

なんて単体ディスクよりはるかに遅い実装で作れる
でもRAID0なのよね

409:login:Penguin
08/12/19 23:05:43 zWWlzXIk
ストライピングの定義が構造のみで振る舞いは全く含まれてないなんてどっかにソースあるのか?
一方は振る舞いを含む、一方は振る舞いは含まないという話になってるんだから、
大本の定義をもってこなきゃ水掛け論だろ。

おれはRAIDでいうストライピングの一番の目的はスピード向上であって、
それを達成できていないものはたとえデータを縞々に入れてても、
ストライピングとは言わないと思うがな。
プログラミングでいうデータ構造の概念とは違うんじゃないだろうか。

410:login:Penguin
08/12/19 23:07:28 HVbKjCGk
まずはヘネシー、パターソンの原典を読んでこいよ

411:login:Penguin
08/12/19 23:20:22 zWWlzXIk
読むのはいいけど「原典」という名の資料はないのだが。
具体的な書籍名なり論文名なりを提示してもらわないとわからん。

412:login:Penguin
08/12/19 23:34:42 I6X68B5n
409自己否定してどうするw
データを縞々に入れるのがストライピングだ

413:login:Penguin
08/12/19 23:44:37 asZoZApZ
RAIDが最初に定義された論文
URLリンク(www.cs.cmu.edu)
書籍は
『コンピュータアーキテクチャ 定量的アプローチ 第4版』
がヘネパタの日本語訳の最新版なのでこれがいいんじゃないですかね。
ってもヘネシーRAID0については定義してないんじゃなかったっけ・・・?

414:login:Penguin
08/12/20 01:00:39 qv2fz/ke
そもそもなんでJBODなんて新しいネーミングを作ったんだ?
構成としてはRAID0まんまなわけで・・・

415:login:Penguin
08/12/20 01:25:33 +TD+IQmn
どういうボケだよ

416:login:Penguin
08/12/20 10:26:30 JWNLY8jx
>>412
データが縞々であるのは必要条件であって十分条件でないのではと言ってるんだろ。
それと「原典読め→原典って具体的にはどれ?→思いっきり無視」ってどういうことよ?
ほんとに「原典」を知ってたらすぐにこれだと言えたんだろうけどな。

>>413
サンクス。これっぽいな。
URLリンク(itpro.nikkeibp.co.jp)
によると、これでlevel1~level5まで発表したが、
あとでlevel0とlevel6を追加したらしい。
JBODの説明も書いてあるな。>>370はこれを参照したんじゃないだろうか。

というわけでlevel0に関しては記述がなかったが、
>>386で以下のように書いてあるからlevel5のところを参照した。たぶん同じやつの書き込みだろう。
縞々でパフォーマンス向上を目指してるのは変わらんしね。

113~114ページによると、level3では1グループで一つのI/Oしか実現できなかったのを、
level4では「parallelism」を通して小さな転送のパフォーマンスを改善したとある。
parallelism→一度に一つ以上のI/Oを行うこと。
ディスクの動作を非同期にして独立させて動かすんだな。
大きな転送についてはディスクが同期して動いても「待ち」があまりないから、
結果としてlevel3と速度的には変わらないらしいな。比較の表がおもしろい。

んで発展型としてlevel5はチェック情報を分散させるとある。
「sequential」の可能性があったチェック情報の書き込みの問題が解決されるから、
小さい変更だが効果は大きいとあるな。

というわけで「原典」にも並列アクセスについて思いっきり言及されてると思うのだが。
おれのつたない英語力のせいで誤解があったら言ってくれ。

大先生たちもとんでもない曲解に苦笑いだろうな。
「ワタシタチノイトヲゼンゼンリカイシテナイヨ・・・」

417:login:Penguin
08/12/20 18:40:52 +TD+IQmn
>>416
おまいさん、なんか相手取り違えて同一人物認定してないか?
とりあえず落ち着け。

で、だ。原典を神聖視するのはまあ悪いことではないが、
初学者にありがちな失敗でもある。原典から研究が進むにつれて
解釈が変わっていくことはままあるということにも気をつけてくれ。

418:login:Penguin
08/12/20 21:39:58 JWNLY8jx
どんな切り返しだよ

419:login:Penguin
08/12/21 02:30:28 A3gaIsOr
猿真似で返しか
結局まともな反論は出来ないわけね

420:login:Penguin
08/12/21 18:23:06 fQM9DRN3
なんか基地外がわいてるな
スレをあらさないでほしいのだが

421:login:Penguin
08/12/21 22:35:58 nIipvi9z
マターリで何気に良スレだったのにね

422:login:Penguin
08/12/22 00:13:56 Fbk41wIC
そういえばそろそろ冬休みだったな

423:login:Penguin
08/12/22 07:07:57 iFW65CKw
3wareのRAIDカードでAlt+3でBIOSに入ったのですが
そこからどうすればミラーリングできるのかが
いまいち設定方法等わかりません
どなたか教えてください

424:login:Penguin
08/12/22 07:40:58 Fbk41wIC
>>423
URLリンク(www.3ware.com)

425:login:Penguin
08/12/22 11:17:44 iFW65CKw
>>424
表示上ではうまいことRAIDになってるのですが
そのドライブにWindowsXPを入れようとすると
ブルースクリーンになってしまってます(泣
なぜなのでしょうか?

426:login:Penguin
08/12/22 14:07:13 wBxKXJqm
>>425
F8かなんか押してドライバは入れた?

427:login:Penguin
08/12/22 15:06:49 iFW65CKw
>>426
正規品のCD使ってたのですが、バックアップしたCDでインストールしたら
普通にインストールできました。
で、インストール完了して再起動♪って思ってたらマザーのBIOSで
HDDが見つからないって、言われるorz
マザーのBIOSで確認すると、HDDを選択するところにRAIDカードがない!(汗
再度、WindowsXPのCDを入れてみたが、普通に見えてる・・・
もしかして、RAIDカードで起動ドライブに指定することができないのかな??
。・゚・(ノД`)・゚・。 ウワーン
なんか特殊な設定が必要なの?それともマザーのせい?
マザーはAOpen i965GMt-LA使ってます

428:login:Penguin
08/12/23 02:37:53 uzKBah8c
>>427
URLリンク(download.aopen.com.tw)
ここのマニュアル見る限り、
Advanced BIOS Feature > Boot Other Device
の設定でいけるんじゃないかと思った。
試してみてちょ。

429:login:Penguin
08/12/24 13:49:52 T5ngbbX3
 色々調べたり、質問スレで聞いたりしたのですが、分からなかったので質問します。
ICH10RでRAID0を構築しているのですが、ここに既存のNTFSを残したままFedora10を
インストールする事は出来ないでしょうか。
KNOPPIXでEXT3*2とSWAP*1を用意する事には成功しています。Ext2Fsdでも認識しています。
ところが、Fedora10をインストールしようとした時だけ、パーティーションテーブルが読み込めないという
エラーを出します。
これはどのようにFedoraをインストールすればいいのでしょうか。


430:login:Penguin
08/12/24 13:55:48 RefXxMd7
>>529
あきらめれ
URLリンク(forums.fedoraforum.org)

431:login:Penguin
08/12/25 18:08:23 0Q8kCwwH
mdadmでPATA×5台のRAID5アレイを組んでるんだけど、先日ハードウェアいじってないのに突然rebuildが始まり、
途中でOSごとフリーズ(無反応化)する、という現象に遭遇した。
ハードリセット掛けると一旦OSは正常起動するが、やっぱりrebuild途中で死亡。
/proc/mdstatを見ると、rebuild中であるにもかかわらず、[UUUUU]の表示でどれがイカれてるのか分からない。
その後、フリーズ中もアクセスランプが点きっぱなしになってるドライブを見つけ、
新しいドライブと交換したら無事rebuild→正常動作となった。

一台ドライブが故障しても正常に動き続けてくれなきゃRAIDの意味がない。
ましてやOSごと落ちるってのは最悪。(RAID上はデータ領域のみで、システムは別ドライブだったのに)
この種の現象はLinuxのソフトウェアRAIDではしばしば起こるものなの?
別PCのハードウェアRAIDではこんな経験したことないんで、ちょいとソフトウェアRAIDに対する信頼感が弱まった。

432:login:Penguin
08/12/25 19:08:37 zW/EYcXM
参考のためカーネルのバージョン報告よろしく

433:login:Penguin
08/12/25 19:10:58 BVWOzN/G
PATAコントローラの種類もよろしく

434:login:Penguin
08/12/25 19:16:48 ezPuey+U
昔SCSIのRAIDだけど、
HDDのバスコントローラ死亡→同じSCSIバスのHDD全部アクセス不可→SCSIドライバ悩む
の流れで固まったことがある。
ドライバできちんとエラー処理して、OS本体を巻き込まないようにしてくれないと…


435:login:Penguin
08/12/26 00:04:12 fn7jsL/s
>>431
それはSW-RAIDというよりディスクコントローラの問題では?
mdレイヤとしては下位のディスクコントローラの報告を信用するしか無いわけで、
ディスクが死んでてもコントローラが正常と報告すればUUUUUになるし、そのまま
アクセスすれば何らかの問題が起こって、ドライバがカーネルモードならフリーズとかね。
推測だけど、その問題のディスクには単体でアクセスしてもフリーズしたんじゃないかな。

でもって、HW-RAIDでも当然実装次第で同様の問題は起こりうる。
組み合わせが限定できるから実際にはトラブルは少なめとは思うけど。

436: ◆Zsh/ladOX.
08/12/26 00:16:59 PlTA5U0q
なんだ、圧倒的じゃないか。
URLリンク(www.theinquirer.net)

437:login:Penguin
08/12/26 00:47:13 W2RM7LsO
そういえばHW-RAIDの癖に片方failした時にご丁寧にLinuxにも
アクセスエラーを返してOSごとお亡くなりにしてくれた"HW"-RAIDもあったな・・・


438:login:Penguin
08/12/26 15:40:43 w2+94DnQ
>>432-433
現在入ってるのは kernel 2.6.16、mdadm 2.5.5。
問題のRAIDアレイは2.4時代の raidtools→mdadmと移行して、合計三年くらいは運用しているもの。
PATAコントローラは Promise TX2(PDC20269)が二枚とクロシコのIT8212のやつが一枚の
合計三枚挿しで計6ポートのうち5ポートを使って各1台ずつのドライブ。
(クロシコのは比較的最近追加した)

トラブったドライブはTX2につながってた分。

439:login:Penguin
08/12/26 15:43:29 w2+94DnQ
>>435
> それはSW-RAIDというよりディスクコントローラの問題では?

それはそうなんだけどポイントは、結局の所、RAIDとディスクコントローラとが
同じシステム上にあるから、ディスク側のトラブル発生で「OSごと死亡」の可能性が高い
(独立したサブシステムであるハードウェアRAIDに比べて)というのがソフトウェアRAIDの
弱点なんだな~、というとこ。
ま、それは >>435さんも書いてるけど。

RAIDの目的を考えると、これはちょっと、というか実は結構大きな弱点だよね。

ハードウェアRAIDのメリットは運用上の利便性がほとんどで、
信頼性はソフトウェアでもハードウェアでも大差ないだろ、
とわりと気楽に思ってたんで、今回ちょっと考え方を改めた、というお話。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch