07/03/28 23:02:12 9F05PYRT
そういう意味ではないと思われ
117:login:Penguin
07/03/29 19:17:50 2wW+hfh/
>>114
HDD1とHDD2でRAID1ミラーリングしてたとして、
HDD1とHDD2から同じブロックのデータを読み込んだときに、
読み込んだ値が同じかどうかのチェックをしてるかどうかってこと?
してるとは思うけど、もし違った場合どうするんだろうね?
同じ値が得られるまで何回も読み込んでみて、
同じ値が得られないままタイムアウトエラーになったら、
そのままIOエラーとして返すとかかな?
その場合、HDD1とHDD2のどっちの値が正しいのかどうやって知るんだろうね?
HDDからエラーが返ってくれば分かるけど、
必ずしもエラーが返ってくるとは限らなさそう。
誰か詳しい人教えて~。
しかし、ZFSはFSでチェックサム持ってるから強いね。
118:login:Penguin
07/03/29 23:14:05 ykGgWiUN
>>116
じゃあどういう意味が説明してくれ。
>>117
HDD は、セクタ単位でデータが正しいかチェックする仕組みを持ってるから
どっちのデータが正しいかはわかる。
(何らかの不具合で) 両方の HDD から正常に読み出せたデータが不一致だっ
た時の処理は作った人に聞くしかない。
119:login:Penguin
07/04/05 23:40:05 nDPSs4fG
ソフトウエアRAIDのraid1で、3台のミラーってできますか?
120:login:Penguin
07/04/06 05:16:34 KpdA9UKj
ソフト次第です。
121:login:Penguin
07/04/06 21:25:17 g0fQ3ChS
>>120
そりゃそうでしょうね。
122:login:Penguin
07/04/08 10:00:54 86gp4iQZ
はやくダブルパリティ版RAID-Zをつかいたいー
ところで玄蔵x4とかのeSATAを分岐させる箱はLinuxで使えてるの?
123:login:Penguin
07/04/16 20:46:11 /KluuheB
HDD4台でSoftware RAID10
Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?)
ってCentOSのインストールでやろうとしてもできないよね?
mdadm使わないとできないよね?
124:login:Penguin
07/04/16 20:47:21 0mxiBl50
どうしてハードウェアRAIDにしないの?
宗教的な理由?
125:login:Penguin
07/04/16 21:05:40 /KluuheB
カード買う金ねーもん。。
126:login:Penguin
07/04/16 21:11:36 LpIK41OU
ハードウェアRAID買って、カードが壊れたらどーすんのよ。
予備でもう一枚買っとく?
127:login:Penguin
07/04/16 22:10:47 pbo5v1pa
二重化する。
128:login:Penguin
07/04/18 18:34:31 3M95DZbq
ソフトが壊れる可能性を考えないのが不思議。
129:login:Penguin
07/04/18 23:12:53 hmudUlPg
カードが壊れる可能性と、ソフトが壊れるwwww可能性ってどっちが高いよ?
釣られた?俺?
130:login:Penguin
07/04/19 01:35:19 SWHw1ugZ
>>129
ソフト的(論理的)に壊れることも結構ある。
RAIDカードのドライバが案外いい加減なんだよね。
ホントの高級機はさわったこと無いので分からないけど。
131:login:Penguin
07/04/19 01:57:37 1Q3DqUtt
メモリ逝かれてるんちゃう(藁)
132:login:Penguin
07/04/19 04:25:49 lhKQmjpD
ソフト的に壊れないものだと思っているの?
結局はちゃんとした試験をしたものの信頼性が高いが、
LinuxのソフトRAIDがどれほどの試験を受けているんだ?
ちゃんと試験をパスしたハードウェアRAIDの方がまし。
ドライバがタコだと意味ないが、大抵クリティカルな用途では
ハードウェアRAIDが使われているからそういう用途のRAIDカードは
ドライバもよくできてる。
133:login:Penguin
07/04/19 04:42:48 1Q3DqUtt
それは壊れるんじゃなくて、はじめからバグがあるってことだろ。
意味が全然違うじゃん。
134:login:Penguin
07/04/19 06:44:01 QdpW4zuB
>>132
うん十万もする RAID カードのファーム不良でデータ飛ばした奴もいるけどな。(w
品質はハード/ソフトの違いよりかけられる金に比例するよ。
135:login:Penguin
07/04/19 23:20:50 xAH8B/OD
コネクタ・ケーブルの接触不良の類 > デバイスコントローラーの安定性 > ハード・ソフトの違い
ハードRAIDの心配する奴に限って、電源容量不足だったり、拡張スロット全部埋まってたり、
トラブルの原因になるような物を抱えてたりするからな。
「RAIDなんて危なくて仕方ないじゃないですか」は名言
136:login:Penguin
07/04/21 03:03:27 CyliSnvd
> 2.6.16.40(2月10日)
> ・md/raid1:raid1でrepairが動いていなかったのを動くようにする
どこでエンバグしたのか、そもそも入っていなかったのか・・・・
137:login:Penguin
07/04/21 23:05:20 tkUNTSZw
皆様質問です!
Linux でハードウェア RAID1 は何年も管理してるんだけど、
このたび初めて mdadm で RAID1 を構築しようと思ってます。
で、同じハードディスクを 2 台用意してミラーリング、
パーティションは、例えば / と /home に分けるとしたら、
あらかじめパーティションを切っておいて、
/dev/sda1 + /dev/sdb1 = /dev/md0
/dev/sda2 + /dev/sdb2 = /dev/md1
とするのが一般的?
それとも、ドライブ丸ごとミラーリングの設定にして、
その上でパーティションを切って、
/dev/md/d0p1
/dev/md/d0p2
とするのが一般的?
一般的というか、「普通はこうだな」とか、
「こっちはこうだけど、こっちはこうだぜ」みたいな意見があったら、
ぜひ教えてください!
138:login:Penguin
07/04/21 23:23:31 1Bn4OOj9
へ~Linuxのmdって
/dev/md/d0p1
/dev/md/d0p2
こんなんができるんだな。
俺的には、LVMを併用するのがお勧めだけど、
LVMを使わない、かつ最初からディスクを全部使わないのであれば、
/dev/sda1 + /dev/sdb1 = /dev/md0
/dev/sda2 + /dev/sdb2 = /dev/md1
とする方がいいんでない?
139:137
07/04/22 22:40:29 +3FVnusb
>>138
thanks!
まだまだいろいろ試してます。
柔軟すぎて困りますねw
140:login:Penguin
07/05/08 06:43:34 v39MavRU
mdadm使ってSATA2.5のハードディスクでソフトウェアraid1したんでうすが、hdparamで測定すると
単体でもraid1でも読み込み速度が59MB/secくらいです。
こんなもんでしょうか?
raid1って書き込み速度が単体と同じで読み込みが倍速近いと思ってたんですが…
141:login:Penguin
07/05/08 07:38:59 AozcXxGK
単体とRAID1とでは読み込み/書き込みともに差がない。
ただ、ソフトウェアRAID1だと、若干書き込みが遅くなる傾向にはある(sync書き込みの場合)。
142:login:Penguin
07/05/08 09:46:36 Yye/G8Wq
初のソフトウェアRAID完了しました。
既存システムをRAID1で組んだのだけど想像以上に面倒だった。
ところで、swap領域って同期させたほうがいいの?
swap まで Linux raid autodetect にしてしまったけど、
そのままでよかったのかな・・・。
143:login:Penguin
07/05/09 00:38:51 SZLDgyq7
私のはファイル保管用の所だけraidにしてるけど、システム自体はraidにしてない。
吹き飛んだら再インストールすればいいやって。
システム部をraid化したんなら、swapもraidにするべきだす。
144:login:Penguin
07/05/09 04:58:51 xXQdi+I9
ソフトウェアRAID1では無理かも知れんけど、
ハードウェアRAID1では読み込み高速化されるものがあるよ
>>140 のケースだと、ソフトウェアRAIDだってことと、2.5インチだってことが足を引っ張ってる気がするな。
HDDが大きくなれば速くなるってわけではないけど、回転数による影響とか意外と大きい
145:login:Penguin
07/05/11 12:22:43 ghbhAoqH
ソフトウェアの RAID0 だとそれなりにちゃんと速くなるんだから、RAID1 でも読み込みくらいは速くなってほしいよなぁ。
146:login:Penguin
07/05/11 13:22:15 QfcwKvji
raid10?
147:login:Penguin
07/05/11 16:22:41 RIJa5Yv3
>145
性能に気をつけている実装なら当然速くなるよ
148:login:Penguin
07/05/12 05:52:15 ZsVZjbK0
>>147
md サブシステムは・・・ってことか・・・
149:login:Penguin
07/05/16 20:20:42 Wofqb0v9
md(4)のRAID1の項に
The driver attempts to distribute read requests across all devices to maximise performance.
ってちゃんと書いてあるけどな
150:login:Penguin
07/05/18 21:32:04 QMx07kDX
書いてあるけど、そのとおりになってない。
設定項目とかも見当たらないしなぁ。
151:login:Penguin
07/05/19 02:48:30 bPpyS5/5
>設定項目
おまえあほだな
152:login:Penguin
07/05/19 12:22:57 hG3gQkhb
>>151
何かあるかなー、と思って md と mdadm の manpage、/proc 以下なんかを探してみたけど、
特に設定できるようなものは見つけることができなかったから、そう書いただけ。
あほで結構。
153:login:Penguin
07/05/22 12:29:38 RMtpi8D3
コマンドラインからraidのドライバを調べることってできませんか
centosなんですが
154:login:Penguin
07/05/22 14:47:53 ULbOvhBc
ソフトウェアraidなら
mdadm --version か
mdadm -v でできない?
155:login:Penguin
07/05/22 16:42:47 IzkVC+2e
>>153
/sbin/modinfo raid0
/sbin/modinfo raid1
/sbin/modinfo raid10
/sbin/modinfo raid456
とか
156:login:Penguin
07/05/24 02:56:20 EhbBIrN2
>>155
どうもそれっぽい
ありがと
157:login:Penguin
07/05/28 18:35:42 JVkG/VZ5
新しいディスクをmdadmでRAID1に追加してsyncさせようとしたら、
途中で不良セクタが検出されてfailedされてしまった。
不良セクタが1つでも存在すると構成ディスクとしては使用不能なん?
故障箇所だけ避けたりできるとちょっと嬉しいんだが。
158:login:Penguin
07/05/28 18:44:05 fIlzNq6x
おまいはいったいなんのためにRAID1をつかっているのだ?
159:login:Penguin
07/05/28 19:17:26 AcK8PEIn
>>157
Googleの発表した統計によると
不良箇所が一箇所でもあるとHDDの残り寿命はあとわずか
160:login:Penguin
07/05/28 19:20:50 SCVXxM1y
>>157
なんみょうほうれんげきょう
161:157
07/05/28 20:18:58 JVkG/VZ5
>>158-160
特定の箇所だけでなく、ディスク全体がもうすぐだめぽなのね。了解。
新しいの買って来るか。
162:login:Penguin
07/05/30 02:13:05 kBP+D+YZ
そんなことない
もう一度物理フォーマットをしてだな
163:login:Penguin
07/05/30 02:40:36 +V1y8uwn
e2fsck -c ってどうなんだろう。
少しは延命になるのかな?
ま、焼け石に水ってところだろうけど・・・
164:login:Penguin
07/05/30 10:10:41 DeuYvm7G
>>162
IDEのディスクならOSにエラーがあがってくる時点で
代替セクタ使いきってるよ。
165:login:Penguin
07/05/31 00:34:56 ws8wZind
だから
もう一度物理フォーマットをしてだな
166:login:Penguin
07/05/31 01:23:54 eGl1+68x
>>164
自動交代処理は必ずうまくいくわけではない。
読み出し時の交代処理は、
何度かリトライして読めたら予防的に交代処理を行う、
というものだが、即死している場合はエラーを上げるほかない。
>>165
最近のATAのHDDは物理フォーマットは出来ない。
メーカーのフォーマットツールもゼロクリアしてるだけだ。
ゼロクリアすると不良セクターが交代処理されて見えなくなる。
ゼロクリアした後、またすぐにエラーが出たらもうダメ。
何度ゼロクリアしてもまたエラーが増殖し、いずれHDD全体が死ぬ。
もしゼロクリアする事で幸運にもエラーが出なくなったら、
それは単発的なエラーで、そのまま使っても大丈夫って事。
脳も物理フォーマット出来たらいいのに
167:login:Penguin
07/06/02 00:00:51 nlfNJz/5
>>166
> 最近のATAのHDDは物理フォーマットは出来ない。
> メーカーのフォーマットツールもゼロクリアしてるだけだ。
> 脳も物理フォーマット出来たらいいのに
自分の脳みそゼロクリア頑張れ
168:login:Penguin
07/06/02 20:48:22 UPbjiBU5
URLリンク(www.amazon.co.jp)
中身の薄そうな本だ
169:login:Penguin
07/06/04 14:00:21 E2VeCvlM
今6台でRAID5組んでるんですが
Version : 00.90.03
Creation Time : Mon May 21 01:17:19 2007
Raid Level : raid5
Array Size : 1562842880 (1490.44 GiB 1600.35 GB)
Device Size : 312568576 (298.09 GiB 320.07 GB)
Raid Devices : 6
Total Devices : 6
Preferred Minor : 3
Persistence : Superblock is persistent
Update Time : Mon Jun 4 07:40:31 2007
State : clean
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 1894a7af:0fa76ca5:a7012d86:b60e930f (local to host parple)
Events : 0.207858
Number Major Minor RaidDevice State
0 56 1 0 active sync /dev/hdi1
1 57 1 1 active sync /dev/hdk1
2 8 4 2 active sync /dev/sda4
3 8 20 3 active sync /dev/sdb4
4 34 1 4 active sync /dev/hdg1
5 33 1 5 active sync /dev/hde1
>Preferred Minor : 3
これはどういう意味なんでしょうか?3という数字に思いあたりが無い。
170:login:Penguin
07/06/04 14:12:40 7VwOIeVK
>>169
そのArrayは、md3ではありませんか?
ぐぐってみたら、こんなのが出てたので・・・
URLリンク(lists.debian.or.jp)
171:login:Penguin
07/06/04 14:54:42 E2VeCvlM
>>170
当たりです。Mmd2は2、md3は3になってました。
どうもありがと~
172:login:Penguin
07/07/14 16:31:06 O5DZ0PBR
# なんか書き込みミスったのでもう一回
いまさらかもしれんけど、RAID5のディスク追加reshape成功したので報告
ディスク5台+スペア1台 → ディスク6台
debian etch
カーネルは linux-image-2.6.18-4-i686.deb そのまま
mdadmを2.5.9→2.6.2に入替
173:login:Penguin
07/07/15 21:19:32 CQUpisoj
mdadmでRAID5を構築していたPCが故障した場合、別なPC新たに買って
Linux入れて故障PCからHDD持ってきて復旧させることは出来ますか?
man見た感じだと特にコンフィグファイルに設定保存していないようなので-Aオプションで
復活出来そうな気がするんですが。
174:login:Penguin
07/07/15 22:52:02 G3EMIJfO
>>173
できる。というかこの前やったよ。
Persistent Superblockがあれば、構成ディスクの一つから
# mdadm --examine --brief /dev/sda1
とかやってUUIDを取り出して、mdadm.confに
ARRAY /dev/md0 level=raid5 num-devices=7 UUID=3f760edf:(以下略
というエントリを作り、
# mdadm -A /dev/md0 -s
で再編成できるはず。(-sは必要だったかどうか忘れた)
なお、Persistent Superblockはcreateモードでアレイを作ったら自動でできてるので問題ない
175:login:Penguin
07/07/15 22:53:26 G3EMIJfO
あ、levelとかnum-devicesとかUUIDは環境依存なんで適当に読み替えて
176:login:Penguin
07/07/16 17:17:02 gV6PB3Na
>>174
ありがとうございます。
NAS箱買おうと思ったらけっこう値段が高くてしかも安いやつは組み込みLINUX
で動いているようなので、それならDELLの激安サーバにRAID組もうかと思っているところでした
177:login:Penguin
07/07/16 18:19:08 93uGqOVD
激安サーバは品質も激安だから気をつけれ。用途とか稼働状況によるけど。
178:名無しさん@そうだ選挙に行こう
07/07/29 00:41:14 gZaay99H
すみません、ちょっと確認させて下さい。
現在以下の構成でRAID試行中です。
sda -> システム領域(/boot,/var,...)
sdb,sdc -> データ領域(softwareRAID1,/dev/md0)
仮にsdaが故障しHDDを交換後にOSを再インストールした場合
再インストール後に /dev/md0 をマウントしてやれば復旧可能との認識でOKでしょうか。
179:名無しさん@そうだ選挙に行こう
07/07/29 01:37:20 7VEmexdu
OKです。
実際に現状のままインストーラーを起動してみたら分かるけど
DiskDruid(だっけか?)で、md0を自動認識してどこにマウントするんよ?って
聞いてくるよ。
試してみ。
180:名無しさん@そうだ選挙に行こう
07/07/29 03:03:25 mtNCtsXl
ディストリが不明だが、たぶん可能
セットアップで表示されなければ、raidtoolsとかmdadmあたりのパッケージを使うとできる
181:178
07/07/29 09:21:50 gZaay99H
>>179
>>180
有り難うございます。先ほど試してOKでした。
(ちなみにCentOS5 x86_64です)
インストール時にsdaのみパーティション編集し、sowtwareRAID領域はそのままに。
完了後に自動マウントされていませんでしたが、適当にマウントしたらデータが表示されました。
softwareRAIDってOS消したら一緒に・・・っていうイメージが強かったのですが、
そんな事はなく結構融通が利く利用方法なんですね。
182:login:Penguin
07/07/29 22:34:19 R/Kcw7Zr
スマン、教えてくれ。
遠隔地で動作してるマシンなんだが、ディスクを予防的に交換したい。
だが、ハードウェアの仕様がどうなってるのかわからず、PATAなのか
SCSIなのかすらわからん(SCSIにもいろいろあるだろうし)。時期的に
SATAはないだろう、ということがわかるぐらい。
また、おいそれとrebootできず(いやま最後の手段でとなればやりますがね)
boot時のログもrotationの彼方に消えさってる。
Debian sargeで動作してて、lspciの出力は以下の通り、という状況で、
このディスク交換に何を持っていけばいいか(つまりこのドライバで
動作しているカードに剌さるHDDの規格は何か)判るエスパーはおらんかいの?
0000:02:01.0 RAID bus controller: Adaptec AAC-RAID (rev 01)
183:182
07/07/29 22:42:11 R/Kcw7Zr
大事なコト書きわすれてた。kernelは↓です。
2.4.25-1-386 #2 Wed Apr 14 19:38:08 EST 2004 i686 GNU/Linux
184:login:Penguin
07/07/30 01:07:51 uYcTNOic
hdparmで情報とれるかも
185:182
07/07/30 08:03:42 vntdpIjG
# hdparm -I /dev/sda
/dev/sda:
HDIO_DRIVE_CMD(identify) failed: Inappropriate ioctl for device
手元のSATAノートだと取れたんだけどね...
ありがと。
186:login:Penguin
07/07/30 08:22:43 wIebROn1
>>182
RAIDのコマンドラインユーティリティ経由で取れるのでは。
/dev/sdaだとRAIDアレイ全体を指してしまうので、ディスク一つずつを見るには
専用のユーティリティを使うしかない。
3ware系だとsmartctlが使えるんだけどね。
187:182
07/07/30 11:40:32 vntdpIjG
> /dev/sdaだとRAIDアレイ全体を指してしまうので、ディスク一つずつを見るには
> 専用のユーティリティを使うしかない。
だよねー。野良installしてあるので、そういう気の利いたツールがないなぁ。
しょうがないので、二度手間になるのを覚悟の上で現物見てからHDD買いに行きますわ。
しかしまた、ひどい雨だなぁ。
188:login:Penguin
07/07/30 12:59:27 wIebROn1
>>187
野良インストールでも使える専用のコマンドラインユーティリティがあったはずだが。
189:login:Penguin
07/07/31 16:25:45 X79rWaJz
諸先輩方ご指導下さい。Linux初Raidです・・・。
GigabyteのマザーボードGA-G33-DS3Rというのを購入して日立のSATAのHDD500Gを4台購入しました。
Windowsと同じようにBiosでRaidの設定をして4台でRaid10のアレイを作成しました。
ここでCentOS5のインストールを開始するとドライブが見つけられません。
ドライバを入れろと出ますがICH9R用のドライバというのがintelにもgigabyteにもありません。
dmraidというのを使えば良いというのもFAQで見たのですがインストールの最中にdraidを
インストールする方法もわからず・・・。
どうすればRaid10で初期インストール出来るかアドバイス頂戴できないでしょうか。
それともBios raid利用するのは無理なのでしょうか?
190:login:Penguin
07/07/31 16:38:19 ISFmkAWS
苦労の割に全くあわないので素直に「本物の」RAIDカード買え。
191:189
07/07/31 16:46:22 X79rWaJz
>>190
回答ありがとうございます。まったくおっしゃるとおりなのですが
このためにわざわざICH9Rのマザー購入したのでなんとか使いたいのです・・・。
192:login:Penguin
07/07/31 18:01:23 xkQhbYF7
Q. M/BチップセットのRAID機能を使用したいのですが。
A. あなたがRAIDと呼んでいる物は複数のHDDを一つに見せかけているだけです。
実際のRAIDの処理はOS依存のドライバが行っています。
Linuxでこれらを使用するメリットは全くありません。素直に「本物の」RAIDカードを
購入するか、mdadmを使ってソフトウェアRAIDを構築しましょう。
これテンプレにいれようぜ
193:login:Penguin
07/07/31 20:14:40 OSNRGM1l
ほんと、マザーの RAID はさっさと諦めて、カード買うのが嫌なら mdadm 使ったほうが
よっぽど賢いと思うな。
194:login:Penguin
07/07/31 22:50:36 FFZyWM1m
流れのついでに失敗談を一つ。
PMPで400Gx5を外部筐体に入れてSoftware RAIDにしてたんだが、
ドライバのPMPがtjで、Kernelバージョンはほぼ固定だわSATAポートの
エラーは出るわでいろいろ苦労。結局普通のM/Bに移設して安定。
Linuxだと「ハードウェアのためのドライバ」じゃなくて
「ドライバーのためのハードウェア」ってことを思い知った。
ということで、>>193には全面的に賛成だ
195:189
07/08/01 00:08:31 M97nTf9V
M/BとRaidカード注文しました・・・。
無駄な買い物しちまった・・・。
AdapteckのPCIExpressの4xのSATA RAIDカード。
同対応のM/B・・・。どっちも初物。わくわくです。
アドバイスサンクス。
196:login:Penguin
07/08/01 00:44:24 7DvPiLQ6
アダプ…
まぁがんばれ…
197:login:Penguin
07/08/01 00:52:39 M97nTf9V
え、アダプテックだめですか・・・。
安くて対応しているって書いてあるんだけど・・・。
え? してない!?
198: ◆Zsh/ladOX.
07/08/01 01:59:51 eHhNnlyA
漏れならGA-G33-DS3Rのサウスに
・SATAのHDD500Gを4台
・システム用Raptor1台
って感じで組むね。
RaptorにOS入れた後で
500GBのディスクmdadmを使ってRAID構築。
199:login:Penguin
07/08/01 03:09:55 4933EbJu
なんだかんだでSoftwareRAIDは運用が柔軟にできるから好きだなー
専業ファイルサーバにすればパフォーマンスで問題が出ることはあまりないし
と思ったが、どのくらいが標準なのか分からん……6+1台のRAID5で120MB/sって良い?悪い?
TZONEのデモが22+2台で480くらいだったような気がするから、まぁまぁなのか……
200:login:Penguin
07/08/01 09:18:37 A9dQQM9I
>>199
raptor10発で400MB/s overだから、いろいろチューンする
ポイントはあるね。
201:login:Penguin
07/08/01 11:52:08 ryH53nCj
どもです。
「raidが吹っ飛んだ」としか情報のないHDDx4台を知人から預かりデータを取り出したいんですが以前の情報が全然ない上にLINUX初めてなので困り果てています。
DDで代替ディスクに貼り付けUbuntu7入れてGpartedで見ると、
パーティション1 ext2の200MB
パーティション2 スワップ
パーティション3 ext3の80GB(raid)
ただしGparted上でHDD1台目~3台目までのパーティション3はパーティション形式が不明になっていてraidフラグだけが立っている。4台目はext3で認識している。
またパーティション1内にraidtab等のファイルがあったこととその記述から
raidtoolsで組まれたRaid5
md0として作られたこと
4台のディスク順番
チャンクサイズ 4KB
ではないかな~というところまでわかりました。
次にRaid5を構成しようとUbuntuのGUIのアプリ追加メニューで検索。mdadmというソフトウェアraidを発見。しかしraidtoolsは見つかりませんでした。
自分にはコンソールからのアプリ追加がわからず、またUbuntuで使えるraidtoolsというアプリがあるのかもわからなかったのでとりあえずmdadmを使うことに。
manを見てmdadm -Aで以前のRaid情報から組めるかも?と思い、ディスクの順番・チャンクサイズ等を合わせてやってみました。
しかしmd0は作成できたものの、フォーマットしなければマウントできない状態です。
マウント時にext3を指定しても蹴られてしまいます。また、構成時にディスク4が自動でリビルドされます。
ここはOS入れ直してでもraidtoolsを使ったほうがよい(少なくともmdadmでは無理)でしょうか?
我ながらアホなハマりかたしてると思いますし、そもそも不良クラスタがあるんでそれ以前の問題かもしれませんが、大事な後輩なのでなんとかしてあげたく。
とりあえずここまでやってみてお手上げで途方にくれています。
どなたか「これやってみれ」的なことありましたらアドバイスお願いいたします
202:login:Penguin
07/08/01 12:36:42 L/GD3i2t
>>201
>「raidが吹っ飛んだ」としか情報のない
なぜ使用者である後輩がRAID構成を聞かない?聞けばわかるだろうに
犯罪者乙
203:login:Penguin
07/08/01 13:13:53 ryH53nCj
>>202
中途半端な説明ですみません。
正確には"後輩の会社の物ではあるが構築したのは既に退社して連絡の取れない元社員"とのことでした。
その構築した元社員が退社した後も、そのまま仕組みも判らずストレージとして使い続けていたそうです。
204:login:Penguin
07/08/01 22:51:42 CuwK9/xJ
> どなたか「これやってみれ」的なことありましたらアドバイスお願いいたします
会社のデータなら「俺には無理だ、しかるべき業者に頼んでくれ。」と言うべき。
205:login:Penguin
07/08/01 23:34:03 4933EbJu
>>200
情報THX。ちなみにその400MB/sってベンチマークソフトは何?
RAID5はパリティつきRAID0だから、簡単のために台数に比例して
性能が上がると仮定するとディスク1台あたり40MB/s。対してうちのは20MB/s。
ディスク単体性能だと50-60MB/sは出てるので、ボトルネックがどこかにあるってことか。
うちはメーカーバラバラの7200rpmドライブだし、アクセスタイムが影響してそうな感じだなぁ……。
# 以上すべてhdparm -tの値
>>204
後で不利な立場にならないように、データ飛んでも責任を問わない旨の
確約を(できれば書面で)得てからやったほうがいいと思う。
206:login:Penguin
07/08/01 23:37:35 4933EbJu
アンカー間違えた
>>204 -> >>203
207:login:Penguin
07/08/01 23:42:33 A9dQQM9I
>>205
URLリンク(www.ussg.iu.edu)
208:login:Penguin
07/08/02 00:14:43 yPG9OgcV
>>204
業者に頼め。ちなみにへたにいぢると復旧不可能になるからな(って遅いか)
209:login:Penguin
07/08/02 00:18:30 0kj7Ceb3
ddで4台そっくり別HDDに移植してから遊ぶけどね
それでも元HDDを触るのは嫌すぎる
210: ◆Zsh/ladOX.
07/08/02 00:23:08 UC5Db89H
>>207
thx.
chunk size以外は設定してみた。
稼働中にやってみたがドキドキしたw
211:199
07/08/02 01:11:37 hhKbt5z2
>>207
ありがとう。試してみるよ。
readahead(hdparm -a)の設定は既にやってあって、
個々のディスクが2048、md0を12288にしたときが一番パフォーマンス出た
212:login:Penguin
07/08/02 01:29:09 6Vyes60Y
Adaptec AIC-7902でRAID5で使い、CentOS5で運用しようと思っています。
RAIDのHDDにエラー等が出た場合、エラーはどのように通知される物でしょうか?
インストールしたのですが、RAIDに関わるような物が全く見つからず困っています。
ほっとスワップに対応しているらしいのですが
エラー通知がどのようにどこにでるのか?
抜く前になにかコマンドが必要じゃないのか?
差し替えた後なにをすべきなのか?
さっぱりです…。本屋に行ってもソフトウェアRAIDの本ばかりで。
これよめ!!的なアドバイスでいいので御願いします。
213:199
07/08/02 03:45:41 hhKbt5z2
ddで測り直したら最初から read 191MB/s write 170MB/sだったよ。
で、stripe_cache_size = 32768 で write 240MB/s に改善
何はともあれ、情報ありがとう>諸氏
>>212
www.redhat.comでAIC-7902で検索したらいくつか出てきた
読む時間なかったので有用かの判断はできてないです
214:login:Penguin
07/08/02 08:20:30 yPG9OgcV
>>212
よく読んでないけど「AIC-7902 監視」で検索してヒットした。
URLリンク(www-06.ibm.com)
215:>>204 俺に言われても...
07/08/02 21:45:41 O4Ixrdfk
>>208
216:201
07/08/03 23:04:28 6EBr4PTX
皆さんレスthxです。
OSをWBEL3に変更しraidtabの設定コピってraidtoolsで組んでみたらイケました。
残っていたconfにはext3の記述だったんですがmd0がマウント出来ず、何故か-t ext2でマウント出来ました。
以上、全データ抽出出来ました。お騒がせしました。
217:login:Penguin
07/08/03 23:31:07 tH0SWKPt
>何故か-t ext2でマウント出来ました。
ログデータ無効で不整合とか
218:201
07/08/04 00:24:17 S6GeDrRU
>>217
LINUX初めてだったもんでいろいろわからないことだらけでして、、、ext2で見れた!!とりあえず全コピー!!って感じです。
それで必要なものは抽出出来ましたんで、また時間が取れ次第ext3でマウントを試して、今回のデータと比較してみようと思います。
しかし今回いろいろやってみて思ったんですがLINUX面白いですね。余ってる自作機をNAS化したくなりました。
ありがとうございました。おやすみなさい。
219:login:Penguin
07/08/09 23:51:58 zBFT+mBQ
1430sa linuxでつかえねー(泣
これ、bios raidと一緒じゃねーかよ・・・。
しかもRHEL4までしかドライバでてないよ・・・。
ごみだ、これ・・・。SCSI時代から信奉してたのにぃ
220:login:Penguin
07/08/10 19:02:43 /oQyNmDJ
AdaptecのRAIDの1xxx系はソフトウェアRAIDだと思って良い
2xxx系になるとaacraidが使えるようになって多少マシになる。
3xxx系、4xxx系とグレードが上がっていくが、
そこまでカネ出すなら他メーカーの方がコストパフォーマンスで優れる
Adaptecの良いところは、大手PC/鯖メーカーのサポートが受けやすいくらい
221:login:Penguin
07/08/10 22:31:08 aqcswtuE
rocketraid買った。
正直昔adaptecのscsiカードのバルク買って
使えなくて泣きそうになったの思い出した。
もうadaptecは買わん。
サポートにあのいい加減な箱の表示なんとかしろとメールしたら
返品規定は以下の通りです、とまったく関係ないページを紹介された。
もう日本からは撤退らしいぞ。
222:login:Penguin
07/08/11 09:25:02 ey8Ocj1d
バルク買っといてメーカに文句言うって... 馬鹿ですか?
223:login:Penguin
07/08/11 11:16:19 m4TVbF7b
超人バルクと呼称します。
224:login:Penguin
07/08/11 11:54:12 qKgKnuHi
>>222
あなたもadaptecのサポート並の日本語理解力ですね・・・。
225:login:Penguin
07/08/11 14:46:12 ey8Ocj1d
頭悪いんだから、金使えよ。
頭悪くて貧乏なら、何もしないでじっとしてろ。
226:login:Penguin
07/08/11 23:13:47 qKgKnuHi
自分の頭が悪いからって逆ギレかっこ悪い
227:login:Penguin
07/08/11 23:16:29 w7ymZznK
まぁ脳みそにHotSpareはないですからね
熱かもしれんから一晩放置推奨
228:login:Penguin
07/08/12 10:15:51 hIATr1xY
>>226
バルクの Adaptec 買って使えなかったから相当悔しかったんだろうけど、
もう見苦しいからやめたら?
229:login:Penguin
07/08/12 22:31:19 IqchY8Zp
バルク買ったのは昔で、今は正規品、ということなんだろうけど、
わかりやすい文じゃないわな。
とは言え、そんなことでくどくど言ってる奴もカッコワルイ。
我慢できずにしゃしゃり出てくる俺が一番ダメ orz
230:login:Penguin
07/08/22 11:21:48 EFe9z8Q/
RAIDセットのパフォーマンスを煮詰めたりしたいのですが
Vista(64bit版)に対応していて容易に入手可能な
このスレ的なお勧めのベンチマークってありますか?
やっぱりCrystalあたりですか?
231:login:Penguin
07/08/22 11:53:19 K7h327Gn
500GBx5でRAID5してたんだけど、足りなくなったから同じ型番のやつを
もう一本買ってきた。
mdadmで追加しようとしたらエラーでできない。
よく見たら、新しいディスクだけ容量がキロバイト単位で微妙に少ない。
いやそりゃ確かにロットは違うけど
ふざけんな死ねマジ本気マジで死ねシーゲート死ね。
232:login:Penguin
07/08/22 12:11:20 K7h327Gn
そんで仕方ないから全部どかしてRAIDを組み直すんだけど、どかす場所がないから
・買ってきたディスク
・既存RAID5を縮退モードにして捻出したディスク
にもデータを退避した。
全部どかし終わったところでRAIDを分解、
各ディスクのパーティションサイズを誤差吸収のため多少小さくして
4本でRAID5を再構築。そこにデータを書き戻し中。
つまり何が言いたいかと言うと、これから500GBx2をOCEってかreshapeで追加するよと。
すげー時間かかりそう。
その後にpvresizeやxfs_growfsもしないといけない。
全部やったことない。うまくいくか謎。
233:login:Penguin
07/08/22 12:33:32 8AaQAQ4Z
>>231
いや、そこは750GBのを買ってくるのが正解だろう、常考。
234:login:Penguin
07/08/22 13:07:18 HuFexOwP
最後尾数十MBは使わない、でFA
235:login:Penguin
07/08/22 22:33:28 dmE2M+ba
500GB買いなおすかな、俺考。
236:login:Penguin
07/08/23 12:47:01 ipe5onr+
>>233
250GBムダになるじゃん
>>234
それしかないね
>>235
同じの買ってきても容量違うんだもん
というわけで全部無事オワタ
500x4本のRAID5に2本追加、mdadmでgrowしたら20時間ぐらいかかったよ。
その後のpvresize,lvresize,xfs_growfsは全部一瞬。超簡単だった。
pvresizeはついこないだまでなかったらしいね。
237:login:Penguin
07/08/23 12:52:27 DTiLiEZZ
>>236
232の作業内容を考えると、容量が無駄になっても
大きいディスクを買うのが安全。
新しく500GBを買ってきても、必要セクタあるかどうかの保証がない。
末尾を使わないのは、最初にRAIDを構築する時の話ならよいが
232の状態でのベストの解ではない。
まぁ好きにしろってことで。
238:login:Penguin
07/08/23 13:23:45 ipe5onr+
>>237
250GBをムダにしてでもっていうのはつまり安全を金で買うわけだ。
しかし、金があったらそもそもmdadmでSW-RAIDなんかしないとも言える。
つまり安全とコストのバランスは人それぞれ。わかってるようだけど。
239:login:Penguin
07/08/23 15:42:55 UNo2KVBv
HDDとか電源とか、部分入替不可のデバイスは買い直しのコストが
馬鹿にならないから若干無駄でも大きめのを買ってるなー。
うちは一度に大きな投資ができないんで、最初400GBで構築して、壊れたHDDから
500GB(そのときのバイト単価最安の容量のHDD)に入れ替える運用をしてる。
400GBが全部入替になるか、全体が容量不足になったら残りを500に入れ替えてgrow。
240:login:Penguin
07/08/23 16:01:49 UNo2KVBv
同じ容量で入替する前提なら、500GBなら少なくとも500,000,000,000バイトは
あることが保証されてる(なかったら詐欺) それを超えないように領域を作れば大丈夫ですな。
ちなみに昔うちで400x5で組んでたときは、↑の方法を使った場合と使わなかった場合の
容量差が60MBくらいだった。
241: ◆Zsh/ladOX.
07/08/23 22:00:49 0GkpxQQg
>>231
御愁傷様でした。
マジ海門死ねだねぇ┐(゚~゚)┌
242:login:Penguin
07/08/24 11:41:49 hDfGbW1b
>>241
べつに海門が悪いわけじゃないだろ。
ただのおまけでしかない容量をいっぱいまで使っていた>>231が悪い
243:login:Penguin
07/08/24 12:08:18 5MHQWA94
十分悪いだろ。
244:231
07/08/24 13:30:51 Gfnf/lpT
せめて/dev/sdaを使わず/dev/sda1とかにしとけばよかったんだけどね。
パーティションを切ってれば同じ容量になったはずなのに、
RAIDデバイスだからパーティションなんかいらねえだろと
デバイスを直でRAIDに組み込んでたからな。ほんとギリギリ一杯まで使ってた。
シーゲート死ねは半分冗談として、いい勉強になったわ。
新しいの
Disk /dev/sdb: 500.1 GB, 500106780160 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes
古いの
Disk /dev/sde: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes
245:login:Penguin
07/08/25 01:44:12 761ThVL/
>>244
パーティションなしでも可能だけど、非推奨になってたはずだよ
要するにブートセクタとかパーティションテーブルの位置にも
情報が書き込まれるわけで、操作ツールとかOSが誤認識する可能性がある
246:login:Penguin
07/08/26 03:17:42 aJidy5wk
ちょっとした疑問
今日日RAID5やらRAID1やらRAID10から構成するディスクを減らす、
Shrinkをサポートしてるものってあります?
247:login:Penguin
07/08/26 22:35:45 jUv9LrSQ
>>246
RAID1は3台から2台に減らすってこと?
2台から1台なら要するに縮退ってことだろうけど……。
RAID5でディスク減らすのは少なくともmdadmだとできないぽい
248:login:Penguin
07/08/27 00:50:01 FohsBbSg
>>247
そそ。
大きめのアレイを組んでやろうかと考えてるんだけど、
のちのちRAID5からRAID10、またはその逆みたいに組み替えとかを考えた場合新しいHDDを用意してアレイを組み直すしかないのかなーと
ディスクの追加はできたりするようなので古いアレイからディスクを削除しつつ新しいアレイにHDD追加していくような使い方ができないもんかと思った次第
改めて自分で調べてみてもそんなものは無さそうですし大人しく組み替えなんぞ考えないで済むような使い方を考えることにしまっす
249:login:Penguin
07/08/27 01:00:12 5IvdN37N
ARECA 1130 で昔調べたことがある。
- firmware V1.38 2005-10-4 + disk 4台で確認。
- 3台以上での 1 は作れない。
- 1+0 を作れるチャンスは少ない。
- 6 を作れるチャンスはもっと少ない。modify では作れない。create するか expand するかで作るしかない。
- 0 は袋小路。
既存 set に disk を追加するのは可能 (expand で)
既存 set から disk を抜くのは不可能
容量を増やすのは可能 (直後に連続した空き領域が必要なだけあるときのみ)
容量を減らすのは不可能
From : To 0 1 1+0 3 5 6
0 Y e e e e e
1 Y M e e e e
1+0 Y n Y Y Y e
3 Y n e Y Y e
5 Y n e Y Y e
6 Y n Y Y Y Y
legends: Y = possible,
e = possible only when expanding raid set,
M = possible only when modifying volume set,
n = impossible
250:login:Penguin
07/08/27 03:48:23 0NURgyjF
データ用に買ってきた二つのディスクをmdadmでミラーリングした上で、
将来的に拡張できるようにLVMでボリュームを作ったのですが、
このディスクを別のマシンに移植したところ、
fstabに書いても自動でマウントしてくれなくなっていましました。
ただし、手動で
mount /dev/vg0/lv0 /hoge
とやると、普通にマウントできるのです。
同じようなことをやったことある方、いませんか?
251:login:Penguin
07/08/27 03:56:46 zngIa5Wq
>>250
fstabのエントリ見せて
252:250
07/08/27 13:38:40 0NURgyjF
>251
ちょっと長い&ずれていて見にくいですが・・・
# /etc/fstab: static file system information.
#
# <file system> <mount point> <type> <options> <dump> <pass>
proc /proc proc defaults 0 0
# /dev/sda1
UUID=883530e2-97cd-4fbf-9cd3-8c26a3cc0b1b / ext3 defaults,errors=remount-ro 0 1
# /dev/sda5
UUID=1aad7882-719b-45a1-9771-7083ff8a9e1d none swap sw 0 0
/dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0
# for samba server
/dev/vg0/lv0 /samba ext3 defaults 0 0
一番最後の行がそれです。移植する前はコレでマウント出来ていました。
もしかすると、起動時のマウントが始まるよりも前にmdadmとlvmが起動しないとダメなのかな。
253:login:Penguin
07/08/27 13:50:53 h0g8ZjPt
>>250
initrdで自動的にmd/dmを構成するようになってないから
254:250
07/08/27 23:29:55 0NURgyjF
>253
正しいのかどうなのか分かりませんが、
mkinitramfs -o /boot/initrd.img-2.6.20-15-generic 2.6.20-15-generic
とやってみたところ、
W: mdadm: unchecked configuration file: /etc/mdadm/mdadm.conf
W: mdadm: please read /usr/share/doc/mdadm/README.upgrading-2.5.3.gz .
というエラーが出てきてしまいました。
ググってみたところ、似たような状況があるようで、
ubuntuのバグか何かかもしれません。
(書いていませんでしたが、ubuntu 7.04を使っています)
結構大変かもしれませんね、これは。
255:250
07/08/28 14:41:02 gj3euneM
とりあえず、ubuntuのフォーラムで聞いてみることにしました。
解決したときは、報告しますm(__)m
256:login:Penguin
07/08/28 15:05:46 oTQiro8t
>>254
その警告は、mdadmを2.5以上にうpグレードしたときに必ずでる。
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
に書いてある通りにすればよい。
ただ、漏れは2.5にうpグレードすると不具合が出て、システムが立ち上がらなくなった。
で、2.4にpinして使ってる。
debianのunstableから2.6借りてきて使うと、不安定だけどなんとか使える。
でも、こわいので2.4使っている。
2.4だとなんの問題もでない。
257:login:Penguin
07/08/28 15:09:35 ZYyaiRGJ
腐ってやがるぜ
258:login:Penguin
07/08/29 19:04:08 tuk6+NpS
>>256
うちは作者のサイトから直接2.6.2落としてコンパイルしたけど
特に問題なかったなぁ・・・debian etch r0
259:250
07/09/10 00:17:52 cnO9RpIQ
結局解決しませんでした・・・
260:login:Penguin
07/09/10 04:21:05 sc4LHtGY
250は最初から他人の話は聞く気が無いのだろ?
そりゃ解決は難しかろうて。
261:nnn
07/09/10 10:23:06 bcnjR5k4
お知恵を拝借したく。
▼環境
CPU: C2Duo 2GHz
HDD: SATA*2 をマザーのエミュレーションでhda,hdcと認識
ディストリ: Scientific Linux 44
kernel: 2.6.9-42.0.3.ELsmp
mdadm: v1.6.0 - 4 June 2004
▼問題点
/=md0(hda2,hdc2) /var=md1(hda5,hdc5) というソフトウェアRAID1
を組んでいるのですが、HDDの入出力が8MB/sしかなく(実質
書き込み速度で4MB/s、resync時の速度同じ)、大量の書き込み時に
プロセスキラーが働き、ひどい時にはOSごと固まります。
HDD ioに関係のないVC切替(Alt+Fx)も重くなります。
固まる例:
dd if=/dev/zero of=/tmp/tmp.dat bs=256k count=4096
SATAをネイティブで使えないチップセットとディストリの相性が
根本原因ではありますが、このハードを使う事情があり、
なんとかしたいのです。
(続く)
262:nnn
07/09/10 10:23:41 bcnjR5k4
>>261 続き
▼打開方針?
RAID層の書き込み速度を制限し、書き込み要求をするプロセスに対し
適切なio待ちを発生させる。
resync時の速度制限は >>60 の方法で解決しました。
60氏にはこの場で感謝の意を表します。
それで、通常運用時の書き込みでも speed_limit_max の要領で
速度制限できれば解決すると思うのですが・・・
263:login:Penguin
07/09/10 10:30:56 FRmNxXcA
>>262
IOを発生させないようにする。
SATAカードを挿す。
ところで、おまいはそのマシンのユーザなのか、
業者で設定だけすればよいのか?
264:261
07/09/10 12:18:57 bcnjR5k4
>>263
自家用鯖です。
7台買っちゃった・・・ のはいいとしても、うち4台投入済みで、
どうしたものかと。
> IOを発生させないようにする。
それはそうなのですが、鯖なので「IOは客次第」というのも事実です。
で、リミッタを掛けられないものかと。
> SATAカードを挿す。
検討はしますが、どれが使えるやら・・・
ICH8上でSATAを使える鳥を探したほうが速いのかしら?
265:login:Penguin
07/09/10 12:24:15 FRmNxXcA
>>264
ここは正攻法で、SATAドライブを認識させるのがよいのでは。
客に迷惑かけるくらいなら。
update5(2.6.9-55)にして新しいAHCIドライバでマザボの
コントローラがネイティブで認識できないかやってみたら?
URLリンク(rhn.redhat.com)
IOパターンが分かれば、メモリ上に逃す、NFSに逃すとか
やればよいとおもうけど。
266:login:Penguin
07/09/11 03:13:00 1eKow4TN
>>262
>書き込み要求をするプロセスに対し適切なio待ちを発生させる。
IOスケジューラが悪さしてるとか。
# cat /sys/block/hda/queue/scheduler
で確認。deadlineとかになってると、大量IOプロセスがIOキューを占有する可能性がある
267:login:Penguin
07/09/11 07:29:39 Koj2yGIB
IDE互換モードでもDMAに出来ないの?
268:login:Penguin
07/09/11 10:15:48 VARFPXVr
>ICH8上でSATAを使える鳥を探したほうが速いのかしら?
カーネルの問題でしょ?
ディストリ関係ないじゃん?
269:login:Penguin
07/09/11 10:26:53 +giQtmHn
>>268
ディストロに含まれているカーネル(ドライバ)の問題。
270:login:Penguin
07/09/14 13:48:18 Qp7pOiTy
>>269
同じ意味じゃないのか?
カーネルに組み込むかカーネルモジュールとしてビルドするかの違いじゃないの?
271:login:Penguin
07/09/14 13:59:25 LGchwi2d
>>269
No
ディストロがいつのカーネルを収録しているか、
どれくらいバックポートしているか、という意味。
272:login:Penguin
07/09/14 16:17:45 J3tBG9+k
そんなにリコンパイルがイヤなのか・・・
273:login:Penguin
07/09/14 16:58:41 vvlhDw0v
>>272
なんでディストリ利用するかってえとアップデートをオートマティックにやりたいからなので
カーネルがアップデートするたびにリコンパイルするのは確かに嫌だわな
274:login:Penguin
07/09/14 17:34:16 iYDjqHcw
商用だとサポートの対象外になったりするんじゃないのかな?
275:login:Penguin
07/09/14 19:35:57 Qp7pOiTy
>ディストリ: Scientific Linux 44
なんでこのディストリを選んだのか分からんけど
カーネルひとつリビルドするのが面倒でディストリを
乗り換えるほうを選択するって事は元々このディスト
リに拘ってた訳では無いって事か……。
それにカーネルなんて脆弱性が無ければ別にバージョン
アップしても毎回アップデートする必要もないと思うん
だけどねぇ。
リビルドするほうが面倒か、標準のカーネルで使えそうな
ディストリを探すほうが面倒かは本人の自由だぁーっ!
って事でガンガッテくらしあ。
漏れにはICH8が何なのか調べても詳しいことが理解できな(ry
276:login:Penguin
07/09/14 22:01:10 4s3K/OrJ
RAIDスレとしては適切な答えではないかもしれないが
マザボでエミュレーションとかしないで
普通に新しいディストロをインストールして
その上でVMware Serverなどを使って
Scientific Linux 44を動かすこともできるんではないかと。
277:login:Penguin
07/09/15 10:03:03 us6rkrJ5
何の為だかもわからんな
278:login:Penguin
07/09/15 18:16:51 W+7omWYo
ソフトウェアRAIDを組み合わせてRAID50を構築することってできますか?
279:login:Penguin
07/09/16 12:26:33 z8cQ3GjF
余裕で
280:login:Penguin
07/09/16 12:41:28 quamL2ab
できるけど、おススメはしない
281:login:Penguin
07/09/18 23:19:28 JnRQfMu1
>>260
かなり遅レス(アク禁でして)ですが・・・
話を聞く気がないのなら、最初っからききませんって。
いろいろいただいたアドバイスを試して、それでもだめだったんです。
いちおう無理矢理な解決策は見つけましたけど・・・。
そんなことおっしゃらずに、
何か思い当たる方法があるのなら教えていただきたいです。
282:login:Penguin
07/09/19 22:15:18 Lkk29FxI
>>281
何を試したのか分からないけど、
/etc/mdadm/mdadm.confを設定してwarningを無くしてみたかい?
ルートファイルシステムじゃないから、絶対にinitrdで構成しないと
いけない事はないと思うけど。
283:login:Penguin
07/09/21 09:57:43 KtH/rsSr
Avidemuxのreindex系処理でmdadmだけのRAID0でもあてになることに感銘した。
気をよくして、既に遅さにがっかりしきったIO-DATA HDL4-Gに代わって
PCでソフトウェアRAIDでRAID5ファイルサーバーを作る気になっています。アホだから。
PentiumIII-m/1.2GHzのノートPCを使い
RAID5を10GBのパーティションx4(実HDDは2.5インチの二基)で試し
この程度のCPUがあれば、HDL4-Gよりはましな気がしています。
多少はウェブを調べてみましたが、いろいろ調べきれなかったことがあります。
1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?
2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?
3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?
(HDL4-GはGbEを採用しジャンボフレームにも対応しますが…トホホ)
EPIAのC3/1GHz付M/BのPCIx1に4ポートSATAカードを挿すと
オンボードの100BASE-Tで行くしかないんだよなぁ…で踏み止まりました。先日
ただ、一昨日パチンコに少し勝ったので、今日は踏み止まらない気がします(笑)
これは無謀無計画に終わりそうなんでしょうか…
あと、HDL4-GのHDDをそのままPC上に移すことは、理論上不可能か…
HDL4-GのRAID関係仕様を調べてみる価値はあるのか…も気になっています。
5MB/sで700GBを移し替える日が来るわけですし…
284:login:Penguin
07/09/21 10:27:20 l3v0EWvd
>>283
> 1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?
ディスクが多い程アクセス分散でが大きい→高速化
ディスクが大きいほど外周にある領域の容量が増える(割合は増えない)→高速化???
> 2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?
個人的にはファイル鯖はキャッシュ命だと思っているので4Gとか積んでます。
ディレクトリエントリが結構メモリに載るので少なくともその分のシークは減らせるはず。
> 3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?
2~3年前に250x4/RAID5で組んでたときには、100BASEで巨大1ファイル転送で10MB/sくらいは出てました。
285:login:Penguin
07/09/21 16:28:27 SoDKq3bm
スイマセン、質問です。
CentOSでMegaRAID 428を使おうとすると、インストーラが
パーティションを設定するところで、論理ドライブは1つ(RAID1)
しかないのにsda、sdb、sdc……と複数台表示されてしまいます。
インストール開始時にドライバが必要なのでしょうか?
もしそうでしたら、ドライバの入手先等をお教えいただけ
ませんでしょうか?
286:login:Penguin
07/09/22 09:02:04 +d+c9GIe
>>285
つ[MegaRAID 428マニュアル]
287:login:Penguin
07/09/23 10:00:24 XVZYMXtq
/proc/mdstatで[UU]ってなってるのにresyncしてる。
なんだこり?
288:login:Penguin
07/09/23 20:27:26 GZ/+MXCS
>>287
前スレの895の事例は?
895 名前:login:Penguin[sage] 投稿日:2006/11/10(金) 21:39:27 ID:bNIZOw4y
debian-sargeの2.6.8-3-386を使用しています。
久々に電源を入れなおしたところ、
再同期が始まってしまいました。
4つのディスクのどれかが脱落したようにも見えないのですが、
同期外れもなしに再同期が始まるときって
どういう場合なんでしょうか?
>cat /proc/mdstat
Personalities : [raid5]
md0 : active raid5 sdb1[0] sdd1[3] sda1[2] sdc1[1]
732587520 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 4.2% (10416768/244195840) finish=3755.4min speed=1035K/sec
unused devices: <none>
903 名前:login:Penguin[sage] 投稿日:2006/11/11(土) 20:51:30 ID:e3BClQL/
>>895
確か長時間止めてたRaidを起動するとresyncというかチェックが走ったような希ガス
man mdadmあたりに書いてあったような。。。
289:281
07/09/26 16:54:47 R04+ijwq
>>282
mdadm.confをデフォルトからいじってみたのですが、
エラーはなくならず、mdadmのバージョンを下げてみたり、
元にもどしたりしたところ、warningは出なくなり、
initrdもできるようになりましたが、
やはり起動時に自動的にマウントすることはできませんでした。
結局/etc/rc.localに"mount /dev/vg0/lv0 /samba"と書いて、
マウントするようにしている状態です。
ちなみにmdadm.confは、こんなかんじです。
----
DEVICE /dev/sdb1 /dev/sdc1
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=cf98cc9f:54e7b704:3cf3c1ab:04141d7c
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
----
290:login:Penguin
07/09/26 21:32:41 +JTi2+Dv
>281 キミはそもそもマシンの話を聞けてないんだよ :-D
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
は読んだのか?
291:283
07/09/28 01:47:43 zIk+oOYu
>>284
ありがと、参考になります。
ちなみに、いろいろあって衝動買いはまだしていません。
そうこうしているうちにEdenのSATAx4付ITX M/Bの登場を知り
無理すれば買えそうな懐具合で悩んでいるところ…
#半年分、水道代未納の同居人の代わりに全額払ったら
#ちょびっと頼りない懐具合、本来ヲレは電気代全額係なのによぉ
292:login:Penguin
07/09/28 22:30:14 zocg/t++
>>281
起動時のコンソールログを調べてみたら?
LVの認識とマウントのどっちが先に行われているか。
ってUbuntuのデフォルトは/boot/grub/menu.lstでsilentになってるから
出てこないんだっけか
293:login:Penguin
07/10/05 17:39:13 aHTjkmHH
基本的な事で質問して申し訳ないんですが、
RAIDカードを差し替えた場合って、既存のRAID0の構成でまんま使えるんでしょうか。
オンボードの物からRAIDカードに変えたんですが、正常に認識しなくて困ってます…
294:login:Penguin
07/10/05 18:11:53 RN6iC0Sq
そらそーだ
ディスクに書くRAIDメタデータなんて各メーカー独自だ
295:login:Penguin
07/10/05 20:21:44 aHTjkmHH
>>294
それはくまった…
結局めんどくさい手段を取らないといけないということですね。
ありがとうございました。
296:login:Penguin
07/10/05 21:19:49 Bkszhi+D
データを抜いて戻して はい おっぱいぴー! ですね。
297:login:Penguin
07/10/05 21:40:04 1cqRS2HI
>>295
次からはMDでドゾー
298:login:Penguin
07/10/05 22:24:28 sbcHKtJI
>296
誤:おっぱいぴー
正:おっぱっぴー(オーシャンパシフィックピース)
>297
メディアのMDだったりしてw
299:login:Penguin
07/10/07 03:44:25 mpYD9xP7
Debian に sil3124 で ハードウェアRAID5 を組もうと思ってるんだが
情報が少なくて困ってる。(俺のググり方が下手なだけかな)
Debian、sil3124、ハードウェアRAID5 の条件で
ドライバや手順に関する情報あったら教えてくれないか?
300:login:Penguin
07/10/07 09:04:02 rbmirQ/U
URLリンク(linux-ata.org)
301:login:Penguin
07/10/07 11:05:14 mpYD9xP7
>>300
すまん。説明が悪かった。
sata_sil24 があるのは知っていた(一応、このサイトも事前に眺めている)し、入れてみたんだが
これ入れただけだと複数のドライブとして認識してしまうよね
BIOS側のRAID設定を解釈させた上で、1つのドライブとして認識させたかったんで
なにか方法があるかと思って、調べてみたけど見当たらなかったんで聞いてみた
> Q&A
> 3. I have a Silicon Image SATA RAID card. Why doesn't Linux support my hardware RAID?
> A. It's not hardware RAID. It is software RAID, provided by the BIOS on the card.
>>300 は、これが言いたかったのなら、ごめんなさいでした。…コレ見て思ったんだが
sil3124は、BIOS側のRAID設定だろうが、linux側のソフトウェアRAIDだろうが関係なかったりするの?
302:login:Penguin
07/10/07 11:29:27 OlJTro86
関係ないというか、ソフトRAIDカード(RAIDカード上のコードがCPUを使って
必死に複数台に書き込むタイプのRAID)は
・他のカードに切り替えることができない(RAID構成のパラメータ管理方法が違うため)
・Linuxのmdより悪い実装で遅いことすらある
といいことなしなので、単なるSATAカードとして使い、単体ドライブを認識させて
後はmd使えというのが定番の答。md+lvmにすれば途中でディスクを追加・交換したり
するのも自由自在にできる(若干手間だから漏れはmdのみだけど)。
303:login:Penguin
07/10/07 13:53:21 F3d4jqxR
>>302
激しく同意。管理の手間考えるとlvmはねー……。
あと関係なかったらすまんがPortMultiplierは全般に鬼門だから注意
304:301
07/10/07 18:08:00 mpYD9xP7
ageてた…すまん。orz
>>302
ありがとう。よく理解できた
ごちゃごちゃ言わずに md の恩恵を享受することにする
余裕があったら、md+lvm にしてみる
>>303
と聞いたことがあったんで、避けてるよ
心配してくれてありがとう
305:login:Penguin
07/10/07 18:22:51 oxRMUtwe
板で全部やるのはどーよ。
えらい楽だぞ。
どれくらいで故障するのかが問題だな。
それをどうやって検知するのかも問題w
306:login:Penguin
07/10/07 23:48:33 WejonAB/
不良セクターのあるHDDの活用方法ってないのでしょうか?
ext3じゃなくて新しいフォーマットありましたよね
あれでフォーマットしたら不良セクターのあるとこだけよけてくれたりしないのかな
307:login:Penguin
07/10/08 00:28:34 YaM75dRs
つ badblocks
でも寿命間近なHDDではあろうから、使う度胸は漏れにはないな・・・
メモリの壊れたところを避けるbadramパッチとかもあるけど、微妙に貧乏性?>Linux
308:login:Penguin
07/10/08 01:53:48 4P0RdQEd
badblocks設定したHDDをRAID5に組み入れてるけど、
半年くらい問題なく動いてるな。。。たまたまだろうけどw
たまにfsckして増えていないか確認してます。
309:login:Penguin
07/10/09 06:10:00 Zd8jdHw+
raid-1 をやってみようかなぁなんてふと思った今北ですが、
URLリンク(www.linux.or.jp)
これはディスク2つをフォーマットする形になるのでしょうか?
それとも、主ディスクと副ディスクがあるとして、副ディスクをフォーマットして、主ディスクのデータをコピーするような形になるんでしょうか?
ディスク2つをフォーマットするのならどこかデータを一時退避しないといけないのですが、2つは空きディスクもっていないのでムリカナァと。
310:login:Penguin
07/10/09 06:28:28 l7SMboZo
>>309
たぶんraid-disk 0にあるデバイスからのコピーになると思う
あるいは、主ディスクだけのアレイを--forceつきで強制起動しておいて
hotaddとかかなぁ……これだと確実に主ディスクからのコピーになるはずだけど。
どちらもやったことないから保証はできない……
安全側に倒すために、できるなら一時退避(バックアップ)を強く奨めます。
311:login:Penguin
07/10/09 09:42:26 gFNRvPVM
mdadmならmissing
312:login:Penguin
07/10/09 22:37:58 HKV3wXfK
データを失うことの恐怖に比べれば
予備のディスクのひとつくらい安いものさ
313:login:Penguin
07/10/10 13:43:05 6CsTwXc1
raidを使おうとして、データをなくした人も結構いるが。。
314:login:Penguin
07/10/10 13:45:39 keWQBLxK
raidにした安心感でバックアップしてないバカもたこさんいる
315:login:Penguin
07/10/10 14:00:09 c6a7mM5s
>>たこさん
こんにちわ(*>∀<)/
316:login:Penguin
07/10/10 21:22:41 pmWLI9af
たこさんカワユス
317:login:Penguin
07/10/13 23:33:28 eMKVNvrK
すんません、質問です。
debianでmdでraid5を構築してたんですが、他のPCにこのraidを移すとき、/dev/hdb1~/dev/hde1までの順番や位置が入れ替わっても問題ないのでしょうか。
実は取り外したときに順番がわからなくなっちゃって、どうしようか困っているのです。それに新システムの構成上どうしても/dev/hdeからになっちゃうんで、それもどうなのかと。
318:login:Penguin
07/10/13 23:44:08 iOJsc/uY
>>317
Persistent Superblockがあれば問題ない
あるかどうかはアレイ作ったときの指定によるんだけど、最近だと作るのがでふぉだっけ…?
319:login:Penguin
07/10/13 23:58:59 PvWu112N
さっそくバックしてないたこさん登場
320:login:Penguin
07/10/14 00:06:07 HSMNg90n
>>317
mdならHDD内に順番書いてあるよ
321:login:Penguin
07/10/15 20:20:32 w9rgZYRz
HDL4-G1.0のHDDをddで複製して、LinuxPCで読めるか試してみた。
ddで複製って段階で元のHDL4に戻して、正常動作するか不安だったけど
普通のLinuxでCUI操作するぶんには問題無いっぽい。確認後、四基とも複製。
#Windows上のディスク複製ツールだとどうだか知らんよ
で、インストール直後の素のVineLinux4.1のmdadmでassembleできた。
さらに、HDL4では83になっているパーティションコードをfdにすると
Linux起動時にmd0が編成されている…
けど、中がXFSでフォーマットされているらしいのな orz
XFSを使えるっぽいubuntoで試したら…mdadmが入っていなかったorz
今自宅に回線来ていないからapt-getできんのよ。
で、今考え中。VineでXFSを使えるようにするの面倒臭そ…
ちまちま低速なHDL4からLANで新サーバーにコピーするより
直でPCに持ってくほうが速いと思ったんだけどなぁ…
ちなみに、HDL4はDebian GNU/Linuxベースっぽい。
RAID5ホームサーバー製品のCPUボード故障時の復旧のために
こういう機能のある1CD Linuxがあるといいなぁと思った。
322:login:Penguin
07/10/15 22:19:35 G7rWOMJX
>>321
つ RIP
323:321
07/10/16 07:33:42 5m1gOou3
>322
ごめん、意味わかんない。
とりあえずOpenfilerで、なんとかなりそうな気がしてきた。
xfsリペアかけて読めるようになったけど、全部lost+foundに逝っちゃったから
その前に、なんかまずいことやったんだと信じたい。また後日だな。
324:login:Penguin
07/10/16 20:16:00 cgFz1bYo
ubuntuにmdadm入れたとき保存してあったと思うからメールで送ろうか?w
325:login:Penguin
07/10/17 02:54:28 kkrXZBdi
質問があります。
システムは単独のHDD(例:/dev/hda)にインストールし、別途オンボード SATAに
HDD複数台を使って(例:/dev/sda ~ /dev/sdd)
md で RAID md0 を組み、データ領域として mount していたとします。
後日、システムの /dev/hda に、別のディストリビューションをクリーンインストールしました。
このとき、データ領域としてつかっていた md0 は、クリーンインストールしたあとも
しかるべく mdadm.conf を書けば mount できるのでしょうか?
>>317 とほとんど同じ状況です。
うまくいえないのですが、アレイを構成する HDD は、
アレイを操るツールやシステムには依存していないと思っていいのですか?
# 入れ替え前と後で、kernel や mdadm のバージョンが多少違っていても、
# 入れ替え後の mdadm がアレイを認識できれば問題ない?
326:login:Penguin
07/10/17 07:55:08 5hAko6Nc
mdadm.confなんか書かなくても、勝手に/dev/md0として自動認識してくれると思うけど。
そういう質問をするってことは、# cat /proc/mdstatとかしても
/dev/md0が表示されないってことでOK?
327:login:Penguin
07/10/17 09:07:32 TrrqXopo
いつごろ作ったmdかにもよるから>自動認識
ためしにKnoppixとかでブートしてみれば?それで認識すれば無問題。
328:325
07/10/17 10:46:22 Ri74/EYj
レスどうもありがとうございます。
いや、まだやっているわけではなくて、
今:fedora を入れてるマシンがある。データ領域用にHDD4を確保してきたが、まだRAIDを組んでいない
今後:Ubuntu 7.10 が正式リリースされたらクリーンインスコしたい
・さきにfedora上でアレイを組んでおいて、Ubuntu 7.10 が正式リリースされたら
システム用HDDに OS だけ入れ替えて、アレイはそのまま流用、ということをしたい
・あるいは、7.10 はもうすぐリリースされるので、それまで待つ
と考えていました。
どうせ入れなおすので、ちょっとやってみようと思います。
329:login:Penguin
07/10/17 11:13:32 pEeOZTAK
nashのraidautorunが単一バイナリになれば簡単なのにな
330:login:Penguin
07/10/17 13:48:28 XO21wWLP
サイズの違うHDDでraid5ってできるのでしょうか?
80G(新品)x2 60G(古くて死にそう)x1
だと60Gx3に強制的になってしまうのでしょうか?
最初に死ぬのは60Gなのは確実なので60Gx3でない場合でも
問題ないとは思ってるのですが
331:login:Penguin
07/10/18 00:50:16 DgGfsmJx
このスレは mdadm がメインだと思いますが、実用的かどうかはともかく、
mdadm を使わずにマザーのオンボードRAID と dmraid で、Ubuntu で RAID をやってみました。
[自作PC] Linuxマシン用自作PCスレッド 2
スレリンク(jisaku板:473-番)
とはいえ自分は mdadm をやったことがないので、mdadm でやり直してみることにしました。
332:login:Penguin
07/10/18 01:56:40 ZVc4Ky30
>>330
少し頭使えよ
333:login:Penguin
07/10/18 07:59:46 /72Qgdo5
>>330
足りない20GB分は宇宙からのパワーにより補完されるので問題ありません。
334:321
07/10/21 07:06:49 GLuYmvWu
結局HDL4のHDDのdd複製からやりなおして、よけいな操作なしで
mdadm --assembleしてxfsrepairしたのだが、やはり壊れている。
9割くらいは残っているから、ディレクトリ名とか調べて復旧してみたけど
なんか、不安になって、この方法での移行はあきらめた。
RAID5 NASのM/B故障時の復旧手段にはなるかもしれんけどね…
で、今C7/1.5GHzでのソフトウェアRAIDとSRCS14L(2003年もの)でのRAIDが
ほぼ同じ性能で困っている。LAN負荷を伴っても性能差が小さく
SRCS14Lの発熱と、RAIDカード故障時のリスク考えると、ソフトで行くべきか…
C7付きM/BにGbE挿すと、状況が変わる気がするけど
100BASE(via-rhine)では、6MB/s程度しか出ていないんよね。
RAID5自体は、RAID5上の別名コピーで2GBを90秒弱でいけるんだけどね。
335:login:Penguin
07/10/21 12:43:32 sZ2k6dRm
個人でファイル鯖専用なら運用の柔軟性からいってソフトが良い。
336:321
07/10/21 18:25:01 GLuYmvWu
やっぱそうかな…ちなみに、現在VineLinux4.0インストール直後のドライバー構成で
なおかつ、SRCS14Lでは66bit,66MHzのカードを33bit,33MHzで動かしている。
良いM/BならRAID5自体の性能は、より良いのかもしれない。
ソフトウェアRAID5の性能は、sata_viaのポートとsata_sil(3114)複合の状態より
PCIの3114をPCIeの3132にしたほうが、わずかに高速化した気がした。
(HDDはSATA2もの)
PCIeの内部4portのSATA2カードが欲しいのだが、店頭在庫では見かけない。
商品自体が存在しないんだろうか…?
337:login:Penguin
07/10/21 21:13:13 CyPL93bH
質問があります。
HDD4台を買って来ました。システム領域とは別に、4台でSoftwareRAID5を組もうと思っています。
このスレと過去スレを見ると、mdadm + LVM と組み合わせている人が多いようですが、
その理由(メリット)がわかりません。どう幸せになるのか、教えてください。
LVMを使わない場合は、4台ともディスク丸ごと fdisk で、パーティションタイプを fd でフォーマットして、
# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
とやればおしまいですよね。
4台のRAID5 から 5台のRAID5 にする場合は、
・HDDを買ってきて増設。パーティション丸ごと fd でフォーマットする
・# mdadm /dev/md0 --add /dev/hde1
これでアレイは大きくなるが、ファイルシステムは自動的には増えてくれないので、
resize_reiserfs とかでファイルシステムを大きくする。
こうすれば、LVM は必要ない気がするのですが、どうして LVM と組み合わせる人が多いのでしょうか?
338:login:Penguin
07/10/21 21:15:43 ccIALbTr
>>337
pvmoveで死にかけのドライブを交換できる。
339:337
07/10/21 21:35:04 CyPL93bH
>>338
レスどうもありがとうございます。
md を使わず、LVMのみで HDD4台とかで大きい単一のパーティションを作った場合、
たとえば不良なHDDを交換したいときに、pvmove で不良なHDD上に乗っかっているデータを追い出し
(PEをほかのVGに追い出し)、新しいHDDとさしかえる、というのはわかります。
しかし md を使っている場合、不良なドライブがあれば、mdadm --fail で不良扱いにし、
mdadm --remove で取り外し、mdadm --add で好感して追加すればいいので、
やはり LVM と組み合わせる理由がわからないのですが・・・
340:login:Penguin
07/10/21 21:51:55 ccIALbTr
>>339
そうだね。今のmdadmはいろいろと出来るみたいだね。
俺の場合は慣れなかな。
mdadmが出る前(raidtoolsの頃)からlvmで色々と出来てたからね。
ところで、RAID0でも
mdadm /dev/md0 --add /dev/sda1 --fail /dev/sdb1 --remove /dev/sdb1
でいけるの?
341:login:Penguin
07/10/21 22:19:12 Py2daiOH
ゆとり教育世代には仮想化や論理化のメリットが理解困難なようだ
342: ◆Zsh/ladOX.
07/10/21 22:36:32 beoHAJJS
漏れも>>337と同じ意見。
LVM使ったこと無いorz
343:login:Penguin
07/10/22 02:51:20 +aosTp7W
つーか>>337、addだけじゃ駄目だろ
344:337
07/10/22 03:23:03 wCu8JRMx
LVM を間に挟んでおけば、以下のようなことができるかと考えてみました。
・ >>337 のように 4台でRAIDを組む。とりあえず LVM を構成してからパーティションを作る。
・1台故障した(例:/dev/sdd)のでもう一台買ってきたが、同じ値段で容量の大きなHDDが買えた。
・新しく買ってきた HDD に、以前と同じ容量の /dev/sdd1 をつくり、mdadm --add /dev/sdd1 する
・新しく買ってきたHDDの、残りの容量を /dev/sdd2 として fdisk で確保。パーティションIDは 8e とする。
/dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、ファイルシステムを保持したまま、
HDDを余すところなく使えるかな。ただしこの時点では /dev/sdd2 は冗長化されてないですが。
>>343
add するだけでリビルドが始まると思っていたのだけど、もうすこしコマンドが必要なのでしたっけ?
345:login:Penguin
07/10/22 03:47:32 RbFtcdsq
できるかもしれんが、
> /dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、
これやったら駄目じゃね?
sdd2は単独で使うのが良いと思われ。
346:login:Penguin
07/10/22 06:25:14 afLW6y8j
片方のドライブが壊れたなど問題が起きたときにメールで送信してくれるユーティルティソフトはありませんか?
347:login:Penguin
07/10/22 09:14:07 xtIOR2qi
>>344
grow
>>346
mdadm
348:login:Penguin
07/10/24 20:03:46 bA8/b9hE
>>337
250GBと500GBの混在で、ソフトウェアRAID5のPCサーバーを作っています。
Vineだし、慣れでext3で行っていますが
reiserFSだと将来拡張できてウマーという認識でいいのでしょうか?
立て続けHDD故障のリスクを抑えるためにも
RAID1の240GBと、RAID5の240GB*4として運用しています。
まぁマーフィの法則的には、500GB二つが立て続けに逝くでしょうが…
LVMは、LVMもmdadmも使い慣れない状態で
LVM導入は無駄にリスクを増すと思って、私もLVMは使っていません。
むしろ、LVM使いたくなかったから、慣れたVineで行った次第。
なお、起動デバイスはCFをSATA変換してそのまま。
実験の都合で、RAIDと別ディスクにしたかったし、電力消費面で(略)
私用だし、設定終わった時点で、ddでバックアップしておけばいいや発想。
349:login:Penguin
07/10/25 02:23:44 SbJgUcvr
>>348
単にresizeするだけなら対応していないfsの方が少ないはず。
それはともかく、LVMはたしかに柔軟性があっていいんだけど、どうも
機能過剰感があるし台数的に少ない個人レベルでは物理ディスク単位で
管理する単純性の方を優先して漏れも使ってない。
HDDやパーティションに縛られない柔軟性は便利といえば便利だけど、
ブロックの切り出しはファイルをloopbackとかnbdで晒せば同様のことが
できなくもないし、HDD更新時のアップグレードとかも
RAID時:
新HDDをRAIDに追加 -> 同期が終わったら、旧ディスクは壊れたことにして外す -> RAIDをresizeして完了
RAID+LVM時:
新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す
と手順は違うものの、最近は同程度のゴールは達成できるようになってるから
まあいいかと。LVMを併用すれば選択肢は確かに増える(例:パーティションを
細かく切っても後悔せずにすむ自由とか)のだけど、構築ポリシと運用ポリシで
そこは我慢(という程不満でもないけど)して、より少ない知識で動かせたほうが
いいかなと。仕事じゃないし。
350:login:Penguin
07/10/25 05:36:25 a7PkADFx
> RAID+LVM時:
> 新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す
mdを新規に組むなら、わざわざLVMに追加しなくても良いのでは?
別個にLVM作成して、rsyncで。
351:login:Penguin
07/10/25 11:57:18 nruqF/xu
使った事が無い奴に限ってあーだこーだ文句言うんだよな
単なる食わず嫌いだよ
LVMが面倒くさいと思ったことは無いね
352:login:Penguin
07/10/25 12:08:55 D3bEYjzi
仕事でUnixさわってりゃ、嫌でも使うもんだしなw
353:login:Penguin
07/10/25 12:11:33 OJWp8+U0
はいはい
354:login:Penguin
07/10/25 19:23:40 8UJAa78q
とりあえず LVM を使わずに4台を RAID5 にしようとしたが、
# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
をやったあと、cat /proc/mdstat すると、
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sda1[0] sdd1[4] sdc1[2] sdb1[1]
937705728 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
[===>.................] recovery = 17.9% (56190968/312568576) finish=64.8min speed=65860K/sec
となって、なぜか一台が fail 扱いになってリビルドが走っている。
しかも必ず途中でOSが固まってリセットせざるを得なくなる。
リセットすると、またリビルドが走る→OSが固まる。
・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう
・なぜリビルドが最後までできないんだよう
HDD、ほぼ新品で、Windows で使っていたときにはフォーマットまで終わったのに。
もう一度 fdisk からやりなおそうかな。
355:login:Penguin
07/10/26 13:10:51 2kfwd15n
>>354
>・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう
これは、そういうもの。
前に何が書かれているか判らないから、最初に一回、
全部のブロックに対して辻褄合わせをする必要がある。
>・なぜリビルドが最後までできないんだよう
こりゃ変だな。
ハードウエアかソフトがどっか壊れてるかも。
356:login:Penguin
07/10/26 22:51:06 2+3v138+
>>351
複雑な構成はトラブルの元だよ。仕事ならなおさら。
自分にしか迷惑かからないんなら別に問題ないけど。
分からなければ引き継ぎとかトラブルシューティングの苦労考えてみるといい。
357:login:Penguin
07/10/26 23:39:11 VCuGyTp8
>>350
rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。
LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。
358:login:Penguin
07/10/27 00:11:21 4ZTrW6oo
-> LVMに加入させ、新ディスクへファイルを掃き寄せる
こんなこと出来たっけ。
lvcreateでpvを指定する?そもそもファイルシステムの拡張は?
lvmあまり解かってないので~
359:login:Penguin
07/10/27 00:25:02 US/tv6oE
つ pvmove
360:login:Penguin
07/10/27 00:35:04 4ZTrW6oo
理解しました。
ありがとう。
361:login:Penguin
07/10/27 07:28:26 HMAtdp9w
>>354
最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ
ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね
362:login:Penguin
07/10/27 18:22:59 GzcOi8yc
ところで mdのパフォーマンスってあまり実測乗ってないよね
URLリンク(www.linux.or.jp)
によると
RAID-0 : パフォーマンスは N * P MB/s に近くなります。
RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下
RAID-5 : 読み書き両方ともにパフォーマンスは向上
などと書いてあって、新たな知見を得たというかなんというか・・・
これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw
というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。
H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。
mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。
# 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz
363:login:Penguin
07/10/27 20:25:18 TpR9h4x8
>>362
RAID1だけど速くならないよ(下はHDD単体)
# hdparm -tT /dev/md0
/dev/md0:
Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec
Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec
# hdparm -tT /dev/sdc
/dev/sdc:
Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec
Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec
364:321
07/10/27 20:38:03 HbBH9mvu
>>362
たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら
さっぱり速度が出なくてがっかりした。その後何度か変えてみた。
で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。
性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから
CPU負荷を変えながら、テストできるツールがあるといいな。
ベンチマークオフ会やるにはRAID編成に時間かかるもんね。
365:login:Penguin
07/10/27 20:45:42 9wm9rUig
なんか、面白そうね。
俺もちょっとhdparmで速度測定してくる!
366:365
07/10/27 20:52:22 9wm9rUig
# hdparm -tT /dev/md0
Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec
Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec
# hdparm -tT /dev/sda
Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec
Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec
Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec
Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec
Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec
md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・?
死兆星が光ってる?
367:362
07/10/28 00:59:50 71qYpNbN
すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化
「Read performance is good, especially if you have multiple readers or seek-intensive workloads.
The RAID code employs a rather good read-balancing algorithm, that will simply let the disk
whose heads are closest to the wanted disk position perform the read operation.」
ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1
で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。
計測方法の定番が無いあたりが1つ目の問題のような・・・
chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。
>>364
おお、実験されましたか。
Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。
timeと簡単スクリプトで、と思ったけど意外に難しく断念w
ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。
どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?
368: ◆Zsh/ladOX.
07/10/28 02:27:22 DiHVZTpi
過去スレでmdのチューニングの話が出てたお
369:321
07/10/28 21:46:34 PihVE9KW
hdbenchクローンはあるんよね。
ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。
今、メインとノートのVine4.1環境にはhdbench入れてあるけど
新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。
hdbenchのためにファイルサーバー機にXも入れといたのにさ。
GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…
370:login:Penguin
07/10/28 23:11:58 8YMFjw47
hdparm の実行例が、たとえば >>366 にあるが、シーケンシャルリードだけなのかな?
適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな)
妥当かどうかはよくわからない。
371:login:Penguin
07/10/28 23:30:15 PnOUhN2H
方々で見かけるし、bonnie++かなぁ。
うちの宅鯖も測り直したいが、クローラのデータエリアとして
24h稼働中なんでなかなか止められない……
372:362
07/10/30 00:00:50 1HogexSN
ざっと走らせてみたものの
bonnie++
これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。
出力結果がややこい
dbench
クライアントの挙動をsimったプロセス数を指定、みたいな。
dbench NでNに1~30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。
何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。
stress
cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ
tiobench
Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry
LatencyやCPU使用率の一覧比較を出してくれて便利。
その他 apt-cache search benchmark
373:login:Penguin
07/10/30 09:07:47 34EF8s3m
postmarkがおすすめ。
ただディスクベンチではなくファイルシステムベンチマークだけど・・・
同じファイルシステムを使っていれば相互比較はできるはず。
374:login:Penguin
07/10/30 10:05:05 D9D8Yw5C
postmarkはZFS専用。
まぁ同じベンチソフト使っていれば、ファイルシステム間での
比較はできるけどな。
ベンチマークソフトによって特定のファイルシステムで
特別性能がよかったり悪かったりするから、
何をベンチするか考えてから。
375:login:Penguin
07/11/01 12:34:00 7nciWttU
>>366
同一モデルでプラッタ容量違いの外れを引いただけ。
376:login:Penguin
07/11/01 13:12:38 62ZK10ox
>>366
# hdparm -tT /dev/md0
Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec
Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec
Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec
Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec
Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec
Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec
# hdparm -tT /dev/sdg
Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec
Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec
というわけでたまたまじゃない?
もっかいやってみれば?
377:login:Penguin
07/11/01 14:01:44 1iefkY+v
>>366
シングルユーザモードで起動してますよね?
通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。
378:366
07/11/01 18:47:22 Gt+V+zuD
たくさんのレスありがとうです。
たまたまかもしれませんし。
フツーにマルチでやってたんで、今度シングルで試してみます~。
379:login:Penguin
07/11/02 04:20:45 QaC2YeMr
CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、
片方が破損して取り外したという仮定をして実験をしてみたんですが、
HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz
もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。
2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。
接続ポート入れ替えてもダメでした。
パーティション情報や grub.conf も晒した方が良いなら晒します。
誰か分かる方いたらご教示下さい。
380:379
07/11/02 06:02:03 QaC2YeMr
自己解決?
なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。
今シンク中なので終わったらやってみます。
381:login:Penguin
07/11/02 06:29:50 oty1mOnF
>>381
DOSのブートローダをいれて、
両方のHDDでブートパーティションをアクティブに設定、とか。
382:login:Penguin
07/11/02 11:11:28 7sg8THe2
0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある
383:379
07/11/02 18:53:15 QaC2YeMr
遅くなりましたが出来ました。
>>381さんの手も良いかなと思ったのですが、以下のような感じでOKでした。
# grub
grub> root (hd0,0)
grub> setup (hd0)
grub> root (hd1,0)
grub> setup (hd1)
こんな感じでどちらからも起動できるようにしたら一発。
grub-install では、こういう風には入力されないんですね。
384:login:Penguin
07/11/03 02:06:07 toJHQDFC
Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、
既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。
現在以下のように 500GB×3 + spare という状態です。
Unit UnitType Status %Cmpl Stripe Size(GB) Cache AVerify IgnECC
------------------------------------------------------------------------------
u0 RAID-5 OK - 64K 931.303 ON OFF OFF
u1 SPARE OK - - 465.753 - OFF -
Port Status Unit Size Blocks Serial
---------------------------------------------------------------
p0 OK u0 465.76 GB 976773168 H8******
p1 OK - 465.76 GB 976773168 9Q******
p2 OK u0 465.76 GB 976773168 H8******
p3 OK u0 465.76 GB 976773168 H8******
p4 OK u1 465.76 GB 976773168 9Q******
p5 NOT-PRESENT - - - -
p6 NOT-PRESENT - - - -
p7 NOT-PRESENT - - - -
このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。
CLIのマニュアル(P.62)に従って
# tw_cli /c0/u0 migrate type=raid5 disk=0-3
とやってみたのですが、
Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use.
とエラーになってしまいます。
何がまずいのでしょう?
385:login:Penguin
07/11/03 22:23:32 rg+D7DYl
>>384
RAID再構築
386:login:Penguin
07/11/04 04:56:40 QRh/db2g
>>385
URLリンク(japan.3ware.com)
3ware 9550SXの特徴
オンライン容量増設および RAID レベルマイグレーション機能搭載
387:login:Penguin
07/11/04 15:41:59 cbkyEPJh
HDL4-G1.0を買ってルーターに問題なく接続できました。共有はMICROSOFT式にして
XPの方ではドライブを割り当てしました。XPからのコピーや読み取りは問題
なかったです。Linuxでは、Sambaでマウントして、色々試してみたら読み取りでも
コピーでもXPの倍ぐらいになった。1.2Gbぐらいのファイルはなんと8分かかる場合
ありました。50GbのMP3フォルダーはAmarokでスキャンしようとしたら一晩中
やってもおきたら22%しか読めなかったです。
本体のBiosには変な設定あるかな。このハードで経験がある人がいたら
手伝ってください。
388:login:Penguin
07/11/04 17:09:06 eI5sYsvU
これのどこがRAIDの話題なんだ? (もしかしてマルチ?)
389:login:Penguin
07/11/04 17:26:28 cbkyEPJh
ごめん、マルチでないです。
RAID設定が原因になっているかと思って。書き忘れてすみませんでした。
初期設定のRAID5です。そんなに重くならないはずでしょう?
RAIDよりSAMBAだと思うけど、LINUX→RAIDなしのXPへの書き込みは
遅くならないで。
390:321
07/11/05 14:37:32 bQ+V7ACj
うちも、HDL4-G1.0が遅くて、放棄作業中。
その放棄作業(つまり新規PC RAID5 serverへのファイル転送)が
通信途絶頻発で難航しているほど。
Linuxからの接続で、必要な設定変更はあるのかもしれないけど
これといった情報は見つかっていないし、RAID5やっていく上で
(HDD4機の発熱とCPU発熱の比率とか)RAID5 NASに魅力を感じなくなった。
…そっか、見たらLinux板にはSambaスレ無いのな。
UNIX板にあるみたいだから、ヲレも調べてみるか…
あと、HDL4担当のスレはハードウェア板にある。
391:login:Penguin
07/11/05 21:06:17 6eGjWErn
>>387
もう少し整理してわかりやすく書こうや
・何が問題なのか
・何をどうやったら問題が起きたのか
・他に何を試したのか
・その他、主観で気になること
>>390 の状況も加味すると、「窓から投げ捨てろ」で一蹴されるのがオチだぞ
392:384
07/11/07 12:34:29 j1cRifCj
その後の報告。
月曜朝サポートが動き出したところで電話して聞きました。
どうもマニュアルの記述が間違っているようで、RAIDを構成するドライブを全部指定するのではなく、
新たに追加するドライブだけを記述するのが正解らしい。
>>384の場合、tw_cli /c0/u0 migrate type=raid5 disk=1 で桶、と。
実行にどれくらい時間がかかるのか聞いてみたところ「おおよそ1GBあたり1分」との返事。
1.5TBだと1500分……25時間かよっ!!
とゆーことで、月曜夜から実行したら今朝がたようやく終わりました。約28時間。
バックグラウンド動作だからいいんだけど。
393:384
07/11/07 12:36:06 j1cRifCj
さて、無事 1.5TBになったのですが、今度はパーティションを拡張しなけりゃいけません。
Partedを使う予定なのですが、これがどのくらい時間がかかるかご存じの方いらっしゃいませんか?
GParted等でもいいのですが、実際にやったことのある方で、××GB→○○GBのサイズ変更が
約△△時間かかった、など実例を教えて頂けるとありがたいのですが。
パーティションサイズの変更は、当然 unmountしないとできないんで、どれくらいの時間
利用不能になるのか見当をつけておきたいのです。
数時間~半日程度なら夜間にやれば問題ないけど、丸一日以上とかって話なら代替ドライブを
用意しないといけないので。
くだ質の方で聞いたのだけど、有意な返答を得られませんでした。
こちらの方がこういった処理を経験した方が多そうなので、いささかスレ違いではありますが
よろしくお願いします。
394:login:Penguin
07/11/07 12:55:52 ZtZ/usYi
>>393
だれも普通そんなことしないから、有意な回答なんて得られない。
普通はlvm+xfsで一瞬
395:login:Penguin
07/11/07 13:15:20 RKolPaG2
よく喋るやっちゃ
たいていの場合>>394かmdadmでgrow。どちらも君の構成じゃ使えん。
396:login:Penguin
07/11/07 18:15:39 n5tC8Tis
ハードウェアRAIDを使うのが普通ではないという意見は
あまり普通ではないと思うが。
ハードウェアRAID使ってて、容量不足になったとき
その機能があれば、容量の拡張も普通にするんでね?
397:login:Penguin
07/11/07 20:23:33 yncetdk8
実際答える奴いないじゃん。やってることがマイナーすぎて。
398:login:Penguin
07/11/07 21:53:15 o+RGikEz
>>395
fsの話とブロックデバイスの話がごっちゃになってるぞお前
399:login:Penguin
07/11/07 22:49:11 7ekDkmZj
>>396
真のハードウェアRAIDならもちろん普通に使うけど、問題は
ディスクにRAID BIOSが書き込んだ構成情報をOSが読んで認識しないと
いけないとか、実はCPUがRAID処理してます、とかのエセHardwareRAIDが
世の中多すぎ(なんちゃってRAIDカード群の大多数)。
そういう「なんちゃってHW」を使うと性能はよくないわ、別カードへの
可搬性がないわで最悪なので、カーネル側のMD使うのが常識ってだけでは。
真のHW-RAID >>> Linux MD >>>越えられない壁>>> なんちゃってHW-RAID
という感じになるのかな。
400:login:Penguin
07/11/07 23:02:05 ZtZ/usYi
>>399
まぁ3ware 9550SX-8LPは真のHW RAIDカードだけど、
多機能になればなるほど、こなれてない機能が多い訳で、
例えばマニュアルの誤記のように問題に当たりやすい。
だから、デフォルト以上のこと(RAID5にスペア1本)を
やらせるのはお勧めしない。やるなら検証してからで、
間違っても本番データを運用したままやらない。
401:login:Penguin
07/11/08 10:19:08 3bsJieVy
>398
なんでブロックデバイスの話が出るんだ?
パーティションとかボリュームなら言いたいことは理解できなくもないが
それでもごっちゃにはなってないし…
402:login:Penguin
07/11/08 12:55:16 0yMQ2DaJ
今使っている分の後ろに空きブロックが増えるだけじゃないの?
1パーティションに拘らなければ、lvmでなんとかなるべ。
403:login:Penguin
07/11/08 20:27:40 IZN1X0G5
raid1
grub> device (hd0) /dev/hdb
grub> root (hd0,0)
grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/grub.conf
で hda差し替えてをリビルドした後にこんどは hda のみでで起動できるの?
404:login:Penguin
07/11/08 21:27:48 IZN1X0G5
hda から起動できず、結局またリビルド
今度は
grub> device (hd0) /dev/hda
grub> root (hd0,0)
grub> setup (hd0)
したけど Kernel Panic になります。
405:login:Penguin
07/11/08 21:56:35 IZN1X0G5
md0 (boot) と md1 (/とswap)両方リビルドして
リブートしたら直った^^ よかった。
さっきは md0だけリビルドしてブートしたからパニックになっただけかも。
406:login:Penguin
07/11/08 23:31:13 13192VKA
ここはお前の日記帳じゃねえんだ
407:login:Penguin
07/11/11 14:42:23 Kss4jt32
今回初めて160GBx2でRAID0を組んでみようと思うんですが、単体HDDでの使用だとパーテはC:Dと切れたんですが
RAID0で2つのHDDを使うと1つのHDDとして見えますが、これにはパーテ切れるんでしょうか?
408:login:Penguin
07/11/11 14:58:54 EBagQV5F
> パーテはC:D
Windows板にカエレ
409:login:Penguin
07/11/11 14:59:41 aTKX43hi
md使うんだよな?
1日色々勉強してみて
410:login:Penguin
07/11/15 13:43:28 Ay00Jbql
すいません、質問させてください。
arecaのarc-1120使ってるんですけどconfigを保存することってできますか?
raidの設定コンフィグなんてものはないですか?
壊れたので同じものを買って入れ替えたいんです。
411:login:Penguin
07/11/15 14:00:49 kt6gqmw9
修理したら?新規に買うより安くなるはずだが
412:login:Penguin
07/11/15 15:24:02 wCvoExs2
修理だと時間かかるじゃん。
areca使ってないけど、興味あったんでマニュアル見てみたけど、
設定のファイルへの書き出し/読み込みなんて機能はなさそ。
ただ、設定つーても、使うドライブの登録とRAID Levelくらいなもんじゃないの?
あとはビープを鳴らす・鳴らさないとか管理者パスワードの登録くらいか。
ゼロからやっても数分で終わりそうだけど。
毎回やるのが面倒だと思ったらCLIで作業して、バッチ化しておくとか。
既に作られてるRAIDボリュームは正常だったら(普通は)設定後そのまま認識されると思うけど、
不安だったらサポートに聞いてみた方がいいと思うよ。
このスレ、最近はソフトウェアRAIDマンセーの人がほとんどだし。
413:login:Penguin
07/11/15 18:00:18 Ay00Jbql
>>411,412
ありがとうございます。
save configとかそういう項目ないのでやっぱりないんですかね。
一応サポートにも連絡してみます。
414:login:Penguin
07/11/16 01:17:15 1eXgzPsD
RAIDボリュームの情報はHDD側に持つものもあるし、
実装次第だと思う
なんで、サポに聞くのが一番いいね
415:login:Penguin
07/11/17 14:53:05 1ihUsYxQ
RAID 1 はリード性能が向上するというイメージがあったのに
mdadm で RAID 1 化した HDD はリード性能が微妙に下がってるんだよね…
416:login:Penguin
07/11/17 17:14:37 1ihUsYxQ
>>368
kwsk
417:login:Penguin
07/11/18 01:00:05 YtGpqr3X
なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。
418:login:Penguin
07/11/18 01:09:55 32uNERa2
そんなに知恵が足りない事をひけらかさなくてもいいのに
419:login:Penguin
07/11/18 02:39:12 HcFap/DP
確かに知識というか知恵があれば分かるよなあ…
>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。
2 台の HDD でミラーリングしてる場合
両方の HDD から並列に別のデータを読めるから
420:login:Penguin
07/11/18 03:14:37 31wlS8LP
> 2 台の HDD でミラーリングしてる場合
> 両方の HDD から並列に別のデータを読めるから
これぢゃ、こわれててもわかんないんじゃないかな