07/12/19 17:31:25 bGUYO486
>>510 ありがとうございます。
mdadmというのが有るのですね。
今回のようにハードディスク前半のWin領域はそのままraid1で、
後半のlinux領域もraid1にしたい時は、
raid1状態にlinuxをインストールするのは無理でしょうか?
RaidのBIOSでハードディスク後半は通常状態に戻し、
片方のハードディスク(の後半)にインストールして、
そのシステムで起動してから、raid1の設定をする、
という感じのなるのでしょうか?
#質問が分かりづらかったらスイマセン。
#そもそもmdadmのraid1の領域から起動することはできない?
512:login:Penguin
07/12/19 17:50:49 UvMw/7fp
mdadmで同期するとメモリーが増え続ける(メモリーリーク)
何が原因だろう・・・
外すと増えない・・・
あぁ、折角Raid組んだのに・・・
513:login:Penguin
07/12/19 23:56:27 dXqKwU0p
>>511
ああまた一番面倒な構成を・・・
LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
後ろ半分だけmdすれば使える。アクセスするのなら、Windows側から見える
RAID構成と整合性を保つため、mdではなくベンダ依存ソフトRAIDドライバが
必要。正直お勧めできない。
ブートはmdの場合は別に問題なくできると思う。
お勧めは100% LinuxかWindowsにして、片方はVMwareとかで動かすことだな・・・
当然RAIDはLinuxもしくはWindowsが標準で持ってる標準のSoftRAIDドライバで、
チップセットの機能は殺して使う。
514:513
07/12/19 23:58:47 dXqKwU0p
> LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
> 後ろ半分だけmdすれば使える。
嘘です。ごめんなさい。チップセットのなんちゃってRAID機能が
どういうディスクレイアウトでHDD記録面使ってるかLinuxから
知りようがないので、「後ろ半分だけmd」は不可能です。
あきらめてベンダのSoftRAIDドライバで頑張るか、もっとベターな
ベンダドライバは捨てて片方は仮想化で稼動がおすすめ。
515:login:Penguin
07/12/20 01:06:41 ah4LLGVs
つかいまどきHDDなんてクソ安いんだから
ひとつのHDD分割してそれぞれRAIDなどと
金払ってわざわざ面倒を買うようなことはやめて
HDDひとつ増設しろ、というのが
全うなアドバイスだと思うが。
わざわざ面倒を買いたいMの人なら
ここで聞かずに、自力でMるべき。
その方が長期間楽しめる。
516:login:Penguin
07/12/20 01:15:18 7Ear3seQ
その話だけど、HDDって最近あんま下がんないよね。
500GBを春先に大量買いしたんだけど、ついこないだ1本追加したらほとんど値段一緒だった。
517:login:Penguin
07/12/20 11:59:43 9JqjcHOR
去年の夏に買った MaxLine Proの500GBは約2.8万円だった。
後継機種(?)の Barracuda ESの500GBは現在約1.6万円で買える。
このクラスは既に十分安くなったのだと思う。
過去の例から見ると、どんな容量でも 1.5万くらいで低下速度がにぶり、
その後ジワジワと1.0万前後まで下がって、消えていくパターンでは。
(最低容量路線 1製品だけは例外としてその後も残す感じ)
現在価格低下中なのは、もっと大きい容量のものだと思う。
URLリンク(www.watch.impress.co.jp)
URLリンク(www.watch.impress.co.jp)
518:login:Penguin
07/12/20 17:11:44 bKOgxsVo
>>513-515
オンボードRAIDでパーティションを切って(複数の)Windowsを入れる場合には全然面倒な事は無いのですが、
その内1つでもLinuxを入れようとすると、とたんに凄く面倒なことになるみたいですね。
その事がハッキリしてよかったです。
Linuxは仮想化で使用する方向で検討します。ありがとうございました。
519:login:Penguin
07/12/20 17:31:46 PCc7T4fL
たぶんすごく勘違いしてる気がするけどまあいっか…
520:login:Penguin
07/12/21 00:27:42 2IO5/NZD
きっと >>518 は微妙に勘違いしてるね。
勘違いしてる場合、>>518 はチップのRAID機能を相変わらず有効にしたまま
ベンダ提供ドライバで使ってるはず。ちゃんと理解してるなら、チップは
ただのインタフェースチップとして使って、RAID自体はWindowsのSoftRAID機能で
実現してるはず(それができるチップなら、だけど)。
なんちゃってRAIDを使うことの面倒(&危険=ボード変えたらあぼん)さと、
Windows/Linuxの双方で共通のディスクレイアウト情報を共有する面倒さの
2つがあることは理解されたのだろうか・・・
521:login:Penguin
07/12/21 08:17:35 vT/e4/3W
>>520
アドバイスはあり難いのですが、Win上の仮想環境でのLinuxの使用が思いのほか快適ですし、
ホストOSがWinなのでオンボードRaidに関しても面倒がありません。
この環境を捨てて、かつWin領域までSoftRAIDで再構成しなおしてまで、
Win/Linuxの切り替えboot環境に移行する気が起きません。悪しからず。
なお、ICHの世代が変わっても下位互換性は確保されているようですし、
M/Bのメーカーが変わってもサウスがICHなら問題ないはずですので、
「ボード変えたらあぼん」は言いすぎかと。
なお、FakeRAIDがSoftRAIDに勝っている点として、
(1)BIOSが起動した時点からRAID機能が使える,
(2)BIOS側の設定だけでRAIDが使えてしまう
と下記では言っています。これが一般に受け入れられる主張かどうかは知りませんが参考まで。
URLリンク(itpro.nikkeibp.co.jp)
522:login:Penguin
07/12/21 10:14:34 BvrFe3Un
結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから
何をチョイスしたところで諦めるしかないわ。
523:login:Penguin
07/12/21 10:48:48 4VlKmS8l
>>521
とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。
BIOSレベルでミラーとか作れるのは便利だと思うけど、
OSからまともに使えない場合はまったく意味がないからなぁ…。
ドライバがまともならFakeも良いだろうね。
Linuxだとその条件が以外に難しいからSW使ってる人も多い。
(dmraidとかだと結構ちゃんと使えます?>使ってる方)
あとBIOSでアレイいじってる間はOS起動しないから
可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
524:login:Penguin
07/12/21 16:03:13 vT/e4/3W
>>523
可用性という言葉は知りませんでした。
URLリンク(e-words.jp)
可用性、つまりシステムの壊れにくさのこと。
障害の発生しにくさや、障害発生時の修復速度などによって計られる。
> あとBIOSでアレイいじってる間はOS起動しないから
> 可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。
Intel matrix storage manager というのがあってOS稼動したままRaid1のアレイの復旧も出来るようです。
もちろん復旧中はHDアクセスは非常に重くなったりしますし、
世の中にはもっと可用性の高いシステムもあるのでしょうが、
デスクトップPCの可用性としては、現状で個人的には充分です。
# 可用性が重要視されるであろうサーバー機だったら、
# Win上のLinuxで運用などしませんしw
> (dmraidとかだと結構ちゃんと使えます?>使ってる方)
使ってませんが、ggってみた限りではdmraidの出来はあまり良くないような印象を受けます。
というかlinuxのFakeRaidとSontRaidに関しては、既に>>192で結論が…。
525:login:Penguin
07/12/21 18:40:58 DRFyI6f4
今時OSが起動しない状態でしかリビルド出来ないようなのはねえよ
526:login:Penguin
07/12/24 14:03:23 brxL+xQV
そのせいでリビルド中に何回壊れたことやら。
527:login:Penguin
07/12/24 16:20:29 pkkqmlH/
関係ないだろ馬鹿か?
528:login:Penguin
07/12/27 00:40:51 rLyRK7d3
RAID1,5は可用性をあげる目的と考えた方がいい
故障時に可用性よりデータ保全を最優先する場合、冗長性が無くなった段階で
ジャーナリングログでデータ部分を別ディスクにバックアップしている場合はそのままリビルド
そうじゃない場合リビルドで壊れる可能性を考慮して、
RAID1の場合一台外してバックアップする
RAID5の場合全台外してバックアップする
RAID5よりRAID1のリビルドの方が負荷が少ないのでリビルド中にRAID5ほどは壊れない
故障時に可用性とデータ保全を両立させるためにはRAID6なりを用意するのがよい
データ保全を考えるなら2台壊れたら停止させることになるけど。
529:login:Penguin
07/12/27 00:43:25 rLyRK7d3
こっちのほうが全然分かりやすいorz
URLリンク(ja.wikipedia.org)
530:login:Penguin
07/12/27 01:16:49 K2qSwS4Z
>>528
529に書いてあるとおり、データ保全は基本的にバックアップの仕事だね
ただ、バックアップは定期的にとるものであって、アレイが縮退して初めてとるのでは遅いよ。
バックアップの読み出しでアレイが壊れるリスクに対応できない。読み出し成功すれば問題ないんだけど。
ま、数台くらいまでならあまり気にしなくていいリスクなんだけどね。
531:login:Penguin
08/01/05 15:15:32 MAvpolV9
mdadmの話なんですが現在320Gを6台でRAID5組んでる
んですが、少し容量足りなくなってきたんで1Tを2個
追加して
320>|RAID0(1T)
320>|--------→>|
320>|
320>|RAID0(1T)
320>|--------→>|RAID5(3T)
320>|
1T-------------→>|
1T-------------→>|
こんなの考えてるんですが、mdだけで構築できますかね?
やっぱりLVM使わないとダメ?
532:login:Penguin
08/01/05 15:48:37 gm0qG86Q
上から順番にmd0、md1、md2として。
もし仮に出来たとしても、md0~2まで同時にactiveになるけど
その際md2の要素が1つ欠けているわけで、立ち上げる度に
md2のリビルドが発生しないだろうか?
面白そうだから、実験してみては。
533:login:Penguin
08/01/05 17:02:09 MAvpolV9
アレイの組みあがる順番が問題ですよね。
そのあたりデレィさせることができないかな?...と。
しかし、よく4台のHDDでRAID0+1とかで組んでるという
話聞くんですがあれもこれと似たような話のような気がする。
534:login:Penguin
08/01/07 15:40:04 dghccbSz
Virtual PCでやってみた。
まず64MBのパーテション2個をRAID0にしてその後に
128MBの別のパーテション2個でRAID5組んで見た。
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(384MB)
128MB-------------------→>|
結果>OK
ちゃんとmd0作ってからRAID5作成してくれてるみたい。
fstabで自動的にマウントもできた。
それではと、さらに64MBのraid0パーテション追加してみる
64MB> |raid0(128MB)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB)
128MB-------------------→>|
64MB> |raid0(128MB)
64MB> |--------------→>|
追加自体は問題なく、パーテションの拡大もできた。
が、再起動すると最後に追加した方のraid0が外れて
Raid5は3セットで動作してる......orz
どうもログ見て見ると単純にアレイ作成順番で認識
してるようで後ろのraid0も起動後はアレイとして
作成されているが、Raid5構築時認識されてないので
外されてしまったみたい。
なんとか、アレイの起動順番変えられないものか...
535:login:Penguin
08/01/07 16:57:20 /TlGVyIM
>>534
mdadm.confの記述を変えるんじゃダメなの?
アレイのUUID(orデバイス群)とデバイス名(md*)の対応情報が
mdadm.confなんだからそこを書き換える。
予想としてはmd0から順に起動するだろうから、
新しい64MB/raid0をmd1、512MB/raid5をmd2に直せば問題ないと思われ
# 当方debianなんで流儀違ってるかもしれない。
536:login:Penguin
08/01/07 17:31:09 dghccbSz
>>534
テスト環境はdebian etchっす。
漏れもそう思って順番変えてみたんだがmdadm.confの
情報はアレイの構成情報じゃなくてモニタリングする
時の比較情報に使うものみたいで、状況変わらなかった。
そもそも
64MB> |raid0(128MB,md2)
64MB> |--------------→>|
128MB-------------------→>|raid5(512MB,md0)
128MB-------------------→>|
64MB> |raid0(128MB,md1)
64MB> |--------------→>|
md2→md0→md1の順番で作成してるんだ。
で、md2とmd0のだけの時は問題なかった。
mdadmのアレイ構成情報はどこに記述されてるんだろ。
mdadm.confって無くても動作するし、どこか別の所に
設定されてるはずなんだが、、、、。
537:login:Penguin
08/01/07 18:14:22 /TlGVyIM
>>536
そうか、力になれなくてすまん
/etc/init.d/mdadm-raidあたりを覗くと、
mdadm --assemble --scanとかやった出力を各行で処理してるんで、
ずっとmdadm.confで制御してると思ってたよ
mdadm.confを読まない場合は、アレイ構成情報はPersistent Superblock
(構成パーティションの最後の方)に入ってるはず。mdadmのオプションで見れる
ただデバイスの起動順までそこに入れる、ってのは非合理なんだよなぁ……
538:login:Penguin
08/01/07 18:25:08 dghccbSz
>>537
すまんできた。
少し考えれば分かることだがraidの構成はinitdの起動スクリプトは
の中にあるんだな。ダイレクトにイメージ開いて編集して構成順番を
md2→md1→md0に書き換えたらOKだった。
initrd.imgを作り直す時にmdadm.confを参考にしてイメージ作り直し
してるみたいね。だから単にmdadm.conf書き換えようが消そうが
raidは構成されるわけだ。
明日、1TB2個買ってきて実機でやってみよ。
539:login:Penguin
08/01/07 18:47:31 /TlGVyIM
>>538
おつ。ちなみにこっちで調べた感じだと、
起動はPersisten Superblock内にあるsuper-minor値の小さい順?な感じ
(後から作った64MB/raid0はsuper-minor値が大きいので、
/dev/md*の数字が小さくても後に起動される)
initrd.img作るときにmdadm.conf読むってのは初耳だなぁ。
あとで調べてみよう。
540:login:Penguin
08/01/07 18:51:45 6LLk5psJ
>>539
grep mdadm.conf /sbin/mkinitrd
541:login:Penguin
08/01/07 18:54:15 /TlGVyIM
>>540
THX
542:login:Penguin
08/01/08 17:53:05 OGlZLqVZ
スワップ領域って同期する必要ってあるの?
543:login:Penguin
08/01/08 21:32:25 kFPjRcz2
なぜ同期を取らなくても良いと思ったのですか?
544:login:Penguin
08/01/09 09:16:36 nJLLxpTq
バックアップする必要性がないと思ったからです
545:login:Penguin
08/01/09 20:10:34 vhzJqQMp
どうも釣りではなく、真面目な質問のようなのでお答えします。
稼動中のOSにとって、SWAPパーティションの存在はメモリと同じ位に大事です。
もしもSWAPパーティションをミラーしていない場合に、SWAPパーティションが存在する
HDDが不良になった場合、SWAPパーティションが見えなくなります。
これは稼動中のOSにとっては、メモリにアクセスできなくなるのと同じ意味です。
試したことはありませんが、きっとkernel panic行きでしょう。
SWAPパーティションがRAID内に存在していれば、HDDの不良が発生していても
冗長が保たれている限り、OSはSWAPパーティションにアクセスできます。
結果、OSは問題なく稼動することができます。
システムの安定稼動を目的にするシステムならば、SWAPパーティションは絶対に
RAID内に含むべきです。
システムの安定稼動よりもデータ用の容量が優先ならばSWAPパーティションを
RAID内に含ませなくてもいいでしょう。
こんな所でおけ?
546:login:Penguin
08/01/09 23:10:36 QSyCJota
>>545
解説乙です。
むかし同じ疑問を持って、起動中にスワップパーティションを
削除してみたところKernel Panicになりましたw それ以来、
まともな鯖の構築では必ずスワップのミラーもするようにしてます。
547:login:Penguin
08/01/10 07:10:57 Xl1xx6Km
それミラーとか関係ないお前のミスじゃん
548:542
08/01/10 09:17:31 Y4ukHsPA
>>545
勉強になりました
分かりやすい解説ありがとうございました
549:login:Penguin
08/01/11 05:10:20 pC8cgKoa
>>547
いちいちレスするのもくだらないですが
ミスじゃなくて実験ですよ
550:login:Penguin
08/01/11 10:15:26 bKTO3W/i
>>549
何にでも文句つけたがる年頃なんでしょう。
脱初心者ぐらいの。
551:login:Penguin
08/01/11 10:31:57 1u4+JVGt
そういった輩はしつこいからスルー推奨
552:login:Penguin
08/01/11 17:00:47 oau76v1R
Kernel Panicとか馬鹿じゃねーの
553:login:Penguin
08/01/11 23:06:14 nnTIF6b/
>1
出直して来い!
って、ちょうど1年前・・・
554:login:Penguin
08/01/14 00:42:46 X6gV4HK4
FC6でSATAのHDD*4でソフトのRAID5を組んでNASとして使ってるんですが
ネットワーク上からアクセスできなくなり調べてみたところ4台ともRAIDのアレイからリムーブされていました
再起動してみたところ最初は正常に動いているのですがしばらくするとまた停止してしまいます
この場合4台とも壊れているとは考えにくいのですがどのように確認、リビルドしたらいいでしょうか?
555:login:Penguin
08/01/14 09:04:43 6ov9yz32
>554
SATAケーブルが緩んでいる可能性あるかも
外してみて抜けやすかったら寿命
556:login:Penguin
08/01/14 09:10:28 lY+WgiSQ
/var/log/messages見たら、何かログが残ってるんでは?
557:login:Penguin
08/01/15 12:43:56 eGPzviNd
URLリンク(www.owltech.co.jp)
VIA C7のPadLock ACEでTrueCrypt暗号処理 + RAID5とかすると
かっこよさそうだけど、電源がACアダプタ 120Wでは...
558:login:Penguin
08/01/18 10:32:12 Onzb7zVS
URLリンク(orz.4chan.org)
559:login:Penguin
08/01/18 22:19:59 /N+doRnf
3ware 9500S-4LPを
構成250G×4でRAID5、Debian etchで使用してます
今はまだ余裕がありますが今後容量が少なくなってきたら
オンライン拡張とやらで
例えばRAID5のまま全部500G等に入れ替え容量を増やすことができる物なのでしょうか
よくわからないのでご存じの方教えて下さい。
560:login:Penguin
08/01/18 23:31:10 wp/0tR8X
一台入れ替える→リビルド
これを4回繰り返してドライブを全部入れ替える
その後オンライン拡張で増量。
結構手間&ヒマはかかる。
で、増えた分を別パーティションとするなら問題ないけど
ファイルシステムを拡張(既存のパーティションを大きくする)
となると LVMを使ってない場合にはかなり大変。
LVM未使用の場合、一旦全部バックアップを取って、
ドライブ入れ替え→丸々新しくRAID構成→リストア
の方が断然早いし、楽。
561:login:Penguin
08/01/18 23:42:23 wp/0tR8X
ん? 待てよ。
オンライン拡張ってドライブ単位のみだったか?
マニュアル読んでみたけど、
そもそも使用してるドライブに空きがあるという前提は存在しないから…
確実なことは、サポートに聞いた方がいいと思う。
が、俺だったら、一旦バックアップ取ってゼロかやるな。
ほんの数時間で終わる作業だし。
562:login:Penguin
08/01/19 10:41:26 KPd9mEy8
>>561
ありがとうございます
私もよくわからなかったのがそこなんですよ
ドライブ単位の追加だと空きがない時点で
できないですからね。
新たに4ポート以上の物に交換するか
一からやり直すかですね。
563:login:Penguin
08/01/20 12:30:39 Kq5k1NMa
SCSIでRAID組むと高いんですか?
564:login:Penguin
08/01/20 13:03:30 VSFaVtzp
HDD の値段見てみりゃ大体わかりそうなもんだが...
565:login:Penguin
08/01/20 19:43:13 f+pgQsPW
安いよ。
566:login:Penguin
08/01/20 20:35:48 /mh+B85/
バッファローのTeraStationってLinux md?
567:鯖”管理”者
08/01/20 20:50:05 ZhP37dc/
先生方、ご教授ください。
先日、RAID1のDELLサーバのシステムボードが故障したので、電源を落とした。
交換後、電源投入するもOSが起動不可。レジストリが壊れたみたいなmesage
なぜ、こんな事に??RAID1なら、片方おかしくなっても、読み取り可能ディスク
からREADしにいくのではないんですか?
568:login:Penguin
08/01/20 21:50:07 iSaKK8Ey
>>567
RAIDとて、どのディスクをどのような構成で組み立てるのかの管理情報
がいる。管理情報がBIOSか何かのフラッシュなどに書かれていて、それが
飛んだじゃない? その「レジストリが壊れたみたいなmessage」をここに
書いてみ?
>>566
そうだよ。
569:login:Penguin
08/01/20 21:52:27 VSFaVtzp
RAID だから OS に変なレジストリを書けと言われたら、両方の HDD
に変なレジストリを書き込みにいく。
仕様通りですが何か?
570:login:Penguin
08/01/20 22:27:46 Kq5k1NMa
アドバイスお願いします。
RAID10を組んだサーバを、LinuxでデータベースとNAS(というかファイルサーバ)
として運用したいと考えています。
そこで、このマシンはデータ領域専用としNFSを立てて、別途RDBMS、ファイル共有は
マシン(ML115とかの格安機)を用意してデータをNFSで共有する案を思いついたのですが、
こういうやり方ってどうでしょう? パフォーマンス悪いかな
571:login:Penguin
08/01/20 22:39:57 k9dIsucL
RDBMS (Oracle とか PostgreSQL)とかの本体は別マシンで動かし、データ領域だけファイルサーバをマウントして、そこに表領域とかを置くってこと?
遅いと思うよ。
たてる RDBMS にどれくらいの性能を求めるか、同時アクセス数にもよるけど、RDBMS でアホな SQL を投げると
CPU 100% 持ってかれることもあるし、大量の件数をさまざまなテーブルから取ってくるような SQL だとディスクアクセスをもっていかれる。
おれは開発環境では、DBサーバとファイルサーバは物理的に分けてるよ。
572:login:Penguin
08/01/20 22:47:36 M6/8RitH
DBはクエリをon memoryが基本なんじゃないのか?
573:login:Penguin
08/01/20 22:53:04 k9dIsucL
>>572
理想はそうだけど、更新系のSQLも使うし(そのアプリケーションの性格や、一回に更新するデータ量にもよるけど)、
開発やテスト時だったら、export / import もひんぱんにやることもあるだろうから、いずれにせよ
データ領域を NFS 越しに使うというのは、あまりお勧めできないと思う。
574:login:Penguin
08/01/20 23:50:53 VSFaVtzp
> (データベースの) データをNFSで共有する案を思いついたのですが、
実運用なら、まずありえない...
575:login:Penguin
08/01/21 00:12:27 qM82RYen
自分も最初は工エエェェ(´д`)ェェエエ工って感じだったが、
最近はRACなんかだとNASを共有ディスクとして使う例が増えてきている。
SANなどのブロックアクセスに比べて扱いが簡単になるしね。
576:login:Penguin
08/01/21 01:03:14 /80iiPEb
パフォーマンスが云々より,ロックとか問題ないの?
577:login:Penguin
08/01/21 01:10:59 hxdOAtHc
>>576
だからそれをちゃんと意識してるのがクラスタFSって奴。
578:login:Penguin
08/01/21 02:59:00 RnyPYnCW
OracleとかでNetApp等をファイルサーバにしてNFS越しに使うっていうのは
かなり昔からやられていたことだからなぁ
579:login:Penguin
08/01/21 05:24:08 fkuqhVfb
>>570
どのあたりまで共用したいのかによるだろうけど
iSCSIならそんなに遅くならなかったよ
580:570
08/01/21 09:14:01 ABezklEe
>>570です、みなさんどうも
自宅サーバでの運用でそこまでやるものどうかと思ってるんですよね…
581:login:Penguin
08/01/21 10:37:28 qM82RYen
>>577
それはちょっと意味が違う。
クラスタFSの代わりとしてNFSを使う。
クラスタFSは、複数ノードから直接マウントしてブロックアクセスさせるために使うものだし。
582:login:Penguin
08/01/21 18:46:11 Ml+uIs4Z
RAID10をみくびっていた、これはいいわ。
583:login:Penguin
08/01/21 18:56:42 5oPPsRCb
>>582
mdadm?
584:login:Penguin
08/01/21 19:13:44 psEK2uGZ
たしかに金銭面と実装台数と容量の兼ね合いが問題なければ10が速度も安定性もあって一番いいな
何よりリビルド時の故障率の低いし
585:login:Penguin
08/01/21 22:46:15 d8TwXO3z
漢ならRAID0だろ
586:login:Penguin
08/01/21 23:00:49 hxdOAtHc
>>581
ああロックって普通のNFS上のファイルロックの話だったか。
587:login:Penguin
08/01/22 01:50:08 j1simr6K
>>580
iSCSI簡単だよ
md+LVMにiSCSI target LV用意してMacから使ってるよ。
588:login:Penguin
08/01/22 03:49:38 d+IS9wuL
yes
お手軽なので試してみては?>iSCSI >>570
589:login:Penguin
08/01/22 03:53:10 d6P1Z5B2
>>585
RAID0はRAIDにあらず
590:login:Penguin
08/01/22 10:04:27 ByANW+Kw
そーいう揉める元を言わない方が・・・
591:login:Penguin
08/01/22 10:11:08 +9P7njkg
RAID0使うやつは人間のクズ。
592:login:Penguin
08/01/22 13:10:01 ByANW+Kw
だからさぁ
593:login:Penguin
08/01/22 13:56:21 eslKqOkh
あのさぁ
594:login:Penguin
08/01/22 16:33:32 rk9O7CGm
>>589
事実ではあるが
流れ的に
あえて書くことでもない
ネタニマジレス
595:login:Penguin
08/01/22 18:30:28 mkmfUeTP
デスクトップのシステム用のHDDなんかはストライピングだな
週一回自動で鯖にバックアップ取らせてるし問題ない
596:login:Penguin
08/01/22 19:07:13 l4R+Ipoe
バックアップが日曜だったら土曜日にRAID0が壊れる件
597:login:Penguin
08/01/22 19:15:30 mkmfUeTP
システム用のアレイなんか大して大事なもんないからいいよ
ゲームのセーブデータやブラウザの履歴が古くなるぐらいだし
メールもケータイとデスクトップとノートと鯖に同じものが行くようにしてあるしね
困るのは鯖がRAID5なんだがリビルドはすべて新しいディスクにドライブイメージをコピーしてからするようにしてるんだけどそれでも2台目がコピー中に死ぬ可能性があるということだ
598:login:Penguin
08/01/22 20:27:49 igDhRHFt
RAID6 にすりゃいいじゃん。
599:login:Penguin
08/01/23 23:04:52 H/ZtqkUt
>>595
おお、俺がいる。
うちはバックアップのあとシャットダウンするスクリプト書いて
毎日バックアップだけど。
600:login:Penguin
08/01/24 16:46:17 7c4gJd41
カッコンカッコン…
601:login:Penguin
08/01/24 19:35:26 d7j3JduP
アッー!
602:login:Penguin
08/01/25 03:19:34 eST0kDMC
mdadmでRAID10を構築しようと思ってるんだが、
どのディスクとディスクがミラーリング構成になるか指定ってできないんですかね?
sda1とsdb1でストライピング、hda1とhdb1でストライピング、みたいな形にしたいんですが・・・
レイアウトのnearとかfarとかが関係してそうな感じなんですが、英語がわかんね
このアドレス見たけど全然わからん・・・
URLリンク(en.wikipedia.org)
603:login:Penguin
08/01/25 09:13:14 Ywyn1H84
>>602
--createで並べた順じゃね?
--create /dev/md0 --level=10 /dev/sda1 /dev/hda1/dev/sdb1 /dev/hdb1
これで -n2 のレイアウトでAAが sda1とhda1, BBがsdb1とhdb1
604:login:Penguin
08/01/25 09:15:26 Ywyn1H84
すまん
>これで -n2 のレイアウトでA1,A1が sda1とhda1, A2,A2がsdb1とhdb1
605:login:Penguin
08/01/25 19:21:32 V+xKWgCR
createしてみればすぐわかることで、しかも直後にやり直せる話なので詳しい話が見あたらないのかもね
606:login:Penguin
08/01/25 20:40:45 eST0kDMC
thx、ちとためしてきまっす
ついでに質問、ディスク4本で容量使用率50%の場合、RAID10、RAID5+予備1、RAID6どれがパフォーマンス一番いいんだろ?
ライト、リード、ランダムライト、ランダムリードあたりがどういう順番になるのかなーと
信頼性はRAID6>RAID5+1>RAID10だとは思うんだが・・・
607:login:Penguin
08/01/25 20:51:52 3TQL9c8W
RAID10>RAID6>RAID5
スペアなんて個人で使うなら使ってもあまり意味がないぜ
1台死んでからリビルドするまではアクセスなんてそんなにしない(できない)だろうし
RAID5で壊れたときの対処としては経年的な寿命の場合リビルドする前に同じ台数の新品のドライブを用意して
そこにドライブイメージを写してすべて新しいドライブにしてからリビルドしたほうがリスクは大幅に減る
吸い出した寿命の近い可能性のあるドライブはヤフオクなり祖父やドスパラで処分すれば新品のドライブ代の少しは回収できる
608:login:Penguin
08/01/26 00:05:54 OimhjIZ5
>>607
プライベートといえど漏洩は困るから、
なるべく中古には流さない運用にしてるなぁ
事実上大丈夫なんだろうけど、可能性は摘んでおく
>>606
信頼性=アレイが壊れない確率ってことだとして、4台構成でランダム選択で壊れるとすると、
RAID10 → 1台目の破損では生存(リビルドのリスク有)。2台目の破損時1/3の確率で死亡(リビルドのリスク有)。3台目の破損時100%死亡。
RAID6 → 1台目の破損では生存(リビルドのリスク無)。2台目の破損では生存(リビルドのリスク有)。3台目の破損で100%死亡
RAID5(スペア1) → 1台目の破損では生存(リビルドのリスク有)。リビルド前なら2台目の破損で100%死亡。
って感じになる。詳しくはリビルド時の破損確率とか、本当にランダム破損か、
とかいろいろ確定しないと。あとコントローラ故障は考えてなかったり、
セクタ単位のエラー検出は確実に行われる、という仮定があったり。
609:login:Penguin
08/01/26 02:06:29 VmtKdJVs
>>608
zero-fillしちゃえばFBI等の専門機関でも厳しいみたいだよ
IBMやHITACHIのドライブならIBMのDiskManagerでさらに強力な初期化コマンドがあったと思う
610:login:Penguin
08/01/26 12:43:25 ShBosd97
6台で10Nしようぜ
611:login:Penguin
08/01/26 17:27:02 nkamkNao
合計ディスク台数が4台で、RAID5+1とRAID6を視野に入れてるなら、大概の用途でRAID10だと思うぞ。
パフォーマンスについても、RAID1要素があれば同時readには強くなるがアクセスが1本の場合には速くならん。
RAID10だとmdのfar/nearのあたり読んだらいいが、作り方によってパフォーマンス特性変わる。
612:login:Penguin
08/01/26 17:59:20 bPajQjx1
パフォーマンスの話する割には、md 前提なの?
613:login:Penguin
08/01/26 18:01:03 mwRJnWKL
U320の15krpmなHDD6台でRAID5マジオヌヌメ
614:login:Penguin
08/01/26 18:19:52 OimhjIZ5
>>609
そうなのかー。情報サンクス。
そのあたり情報収集甘かったから、きちんと調べてみる。
615:login:Penguin
08/01/26 21:53:22 nkamkNao
>>612
>>602
616:login:Penguin
08/01/27 15:12:51 T5/DDvID
>>612
最近CPUって速いしマルチコアだからね。
617:login:Penguin
08/01/27 18:52:46 yrfH7ugV
wikiの/near/far/offset必死で読んでみました、ついでに他にも読んでみた
間違ってたら指摘よろ
chunkは構成ドライブに順番
nearが同一chunkを連続何回書き込むかのパラメータ
4ドライブでn2なら2回同じデータが書き込まれる(2台でRAID1のイメージ)
4ドライブでn4なら4回同じデータが書かれる(=4台全てでRAID1)
farがドライブ的に遠い所にデータを書き込む処理を何度やるか。その際chunkの順番を変える
(A1 A2 A3 A4だったのを2回目はA4 A1 A2 A3みたいな)
使い道としては
ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある
chunkの順番が変わるため、アレイ内の破損ドライブ許容数が調整可能
4ドライブでf4なら1台でも生きていればアレイが崩れない?
offsetがfarを近距離でやるのかな?よくわからん
4ドライブ構成に限って言えば
n2だと通常の1+0、2台目破損時で1/3で読み取り不可
n2f2だと1台でも生きていれば読み取り可能
f3は2台まではどの組み合わせでも読み取り可能、3台目破損時100%読み取り不可
f4は1台でも生きていれば読み取り可能
パフォーマンスはわからん・・・実際試せば良いんだろうが、VM上でやっても意味無さそう
618:login:Penguin
08/01/27 21:25:28 Zwy096+O
fatの使い道ってそんなこと書いてあった? 流し読みだけど、
>This is designed for rarely-written data; writes are slower because they are scattered, but the first 1/f of each drive is a standard RAID-0 array. Thus you can get striping performance on a mirrored set of only 2 disks.
だから、場所が分散されて遅くなるのでカキコが希なデータ向けだが、各ドライブのfar数分の1の領域はRAID0化されるから例えば2ドライブのミラーリングでもs-readはストライピングの速度期待できるよ
という話じゃないけ。offsetだと場所が遠くなりすぎないのでwriteペナルティは軽減されると。台数分の0相当のread得られるんなら10ユーザは積極的にoffset使えばいいんじゃないかね。
>ドライブの内側シリンダがまとめて死んでも、遠いところにあるデータから読み取れる可能性ある
read err出たらそのドライブごと切り離しそうなもんだがなー
どっからが推測か書いといてw
冗長性の話は実験した方がいいと思うのと、容量1/2未満になるのはどうかと思うわけで、たぶんあまりテストされてないよ。offsetだけでいいんじゃないかね
619:login:Penguin
08/01/28 00:21:35 Bd7bwdVe
ああごめんごめん
シリンダうんぬんは推測で、他はググってるときにどっかでみたんだが・・・
どこだったかまではちょっとわからん
速度は分からんが、ひとまず冗長性だけVMで試してみます
620:login:Penguin
08/01/30 12:49:19 6dHf0JHT
すみません質問させてください。
IODATAのNAS、HDL-GTでHDD4台-RAID5で構成していたんですが、
今日起動しなくなってLED全部が赤点灯状態になり、
データを救いたくてあれこれやってみているところです。
WEB設定画面には入って見てみると、
「RAID崩壊」「ハードディスクのシステムの内容が一致していない」
と出ています。
そこでKNOPPIX機に繋いでmdadmアセンブルモードしようとしましたが、
--uuid指定では「uuidが無い」、/dev/sd[abcd]6指定だと「superblockが無い」と蹴られます。
例のリコンストラクタで取ったイメージファイルにxfsrepair -f してみましたが、
これはエラーで途中で終了してしまいました。
イメージではなく直接ディスクに貼り付けてみても同じです。
ぼくのかわいそうなオツムではこのあたりまでしか思いつくところもなく手詰まりとなっている次第です。
どっか間違ってる部分とか他にやってみることとかありましたらご指摘お願いします。
621:login:Penguin
08/01/30 14:15:06 gOhDQINq
自分は使ったこと無いので基本事項の確認のみ。
的外れかもだけど。
> /dev/sd[abcd]6
HDL-GTのmdはパーティション6番目使うのが普通なの?
622:login:Penguin
08/01/30 16:28:35 p8UdA4TA
今更こっそり>393にレスしてみる。
44GBを30GBにするのに15時間かかった。まぁ
|sda1(16GB)|sda2(44GB)| なのを
|sda1(16GB)|sda2(30GB)|free(14GB)| にして
|sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから
|sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。
なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので
たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。
623:login:Penguin
08/01/30 16:29:18 p8UdA4TA
今更こっそり>393にレスしてみる。GParted使用。
44GBを30GBにするのに15時間かかった。まぁ
|sda1(16GB)|sda2(44GB)| なのを
|sda1(16GB)|sda2(30GB)|free(14GB)| にして
|sda1(16GB)|free(16GB)|sda2(30GB)| と移動してから
|sda1(30GB)|sda2(30GB) になんぞしているのが悪いのか、NTFSが悪いのか。
なお現在進行形でsda1を拡張中。残り時間が30分と表示されているので
たぶんあと90分くらいかかる。この処理に24時間以上かかるとはなー。
624:login:Penguin
08/01/30 16:30:02 p8UdA4TA
ぬああああああああああああ二重送信してしまった
ちんこ切ってくる
625:login:Penguin
08/01/30 18:05:47 PeD2J8tS
>>621
> > /dev/sd[abcd]6
> HDL-GTのmdはパーティション6番目使うのが普通なの?
はい、
sda1 204MB
sda2 400MB
sda3 1GB
sda4(拡張)
├sda5 518MB
└sda6 230GB ←ここがRAID5でXFS
このようになっています。
他のパーティーションはRAID1で組まれててext3だったりします。
626:login:Penguin
08/01/30 21:32:01 wxcklNQA
なんか妙にパーティションをたくさん切られてるよね。
普通のmdとは違う実装方法をしていたら、手が出せないよねえ。
627:login:Penguin
08/01/30 22:06:13 wxcklNQA
とりあえず
# mdadm -E /dev/sda6
で状態は見れるんでしょうか?
628:login:Penguin
08/01/30 23:34:24 x5QwYMj+
mdのoffsetとnear試しました(冗長性)
ディスクは全部4台構成(全て2G)
mdadm --create /dev/md0 --level=raid10 --layout=n2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
md0のサイズは4G、利用可能率50%
sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし
sdb、sdcをVMから見えなくする→アレイ崩れる
sdb、sddをVMから見えなくする→問題なし
sdb、sdeをVMから見えなくする→問題なし
sdc、sddをVMから見えなくする→問題なし
sdc、sdeをVMから見えなくする→問題なし
sdd、sdeをVMから見えなくする→アレイ崩れる
結果:1台障害は100%問題なし、2台目障害は1/3の確率でアウト
やっぱり1台目と2台目、3台目と4台目でRAID1だったようです
wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・)
1 1 2 2
3 3 4 4
5 5 6 6
7 7 8 8
629:login:Penguin
08/01/30 23:37:26 x5QwYMj+
mdadm --create /dev/md0 --level=raid10 --layout=o2 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
md0のサイズは4G、利用可能率50%
sdb、sdc、sdd、sde1つをVMから見えなくする→問題なし
sdb、sdcをVMから見えなくする→アレイ崩れる
sdb、sddをVMから見えなくする→問題なし
sdb、sdeをVMから見えなくする→問題なしに見えたが、re-addで無限ループになってアウト
sdc、sddをVMから見えなくする→アレイ崩れる
sdc、sdeをVMから見えなくする→問題なし
sdd、sdeをVMから見えなくする→アレイ崩れる
結果:sdb、sdeをアレイ崩れとしたら1台障害は100%問題なし、2台目障害は2/3の確率でアウト
どうも不安定な気がする。sdb、sde意外にもsdcsdeあたりでも変になって再構築してます・・・
wikiの書き込みから推定するに、下の図のようなレイアウト(左側から1台目、2台目・・・)
1 2 3 4
4 1 2 3
5 6 7 8
8 5 6 7
n3とo3もやりたかったんだが、アレイ構築の最後でVMがハング。うちのバージョンが古いせいかも
推定としてはn3とo3両方2台障害でも100%大丈夫なんだがなあ
o2を使う場合は実環境で事前テストしてください、今回の印象だとどーにも動作怪しい
パフォーマンス差についてもさっぱり。レイアウトから想像すると、o2のほうがn2より早そうな予感がするかなーってところ
630:login:Penguin
08/01/31 12:23:09 SwZ0bbCA
>>627
レスありがとうございます。
全てのディスクで、
mdadm: No superblock detected on /dev/sd*
と出ます。
631:login:Penguin
08/01/31 17:05:31 KV+A+s93
超基本的な質問があるんだけど
2台でハードウエアRAID1組んでて1台が壊れた場合、
残った1台も取り出してSATA→USBケーブルか何かつないで普通にアクセスできる?
632:login:Penguin
08/01/31 17:11:08 KSncdjll
できる
けどHDDがPATAだと無理
633:login:Penguin
08/01/31 17:16:31 KV+A+s93
うほ!即効ありがとう。
じゃSATA使ってる
URLリンク(buffalo.jp)
とかなら大丈夫なのか。。買うかな。
634:login:Penguin
08/01/31 19:21:58 jIoJh5GZ
>>630
う~ん。。。
正直なところダメだこりゃ、と言いたい。
パーティション情報は残っているのにRAIDの情報だけが消去されるってのはおかしな話よね。
壊れているんじゃなくて、何かが誤動作してRAID情報だけを消してしまったのかな?
素直に一度メーカーに問い合わせてみた方がいいかも。
635:login:Penguin
08/02/01 00:10:42 skbei6UK
3wareもしくはその他でハードウェアRAIDが組めるインタフェースカード
安価でおすすめのものを教えてもらえませんか?
動作環境はCentOSでRAID10で運用したいです
636:login:Penguin
08/02/01 01:28:03 r8ITSzIN
>>630 >>634
古い LInux 使ってて /dev/sd** のはずが、 /dev/hd** になってたりして。
637:login:Penguin
08/02/01 10:11:44 gycrWFaA
> けどHDDがPATAだと無理
なぜ?
SATAとPATAって運用上はデバイス名が違うだけだと思っていたのですが…
だとするといまPATAでミラーしてるけど万一を考えてSATAで組み直した方が良いのかな?
638:login:Penguin
08/02/01 10:15:09 EV/CxyDO
PATAにSATA→USBケーブルは使えないな確かに
639:login:Penguin
08/02/01 10:18:14 dBBUm++4
自宅マシンでミラーリングとかお前ら余裕あるなー。
俺はRAID5で精一杯だよ。
640:login:Penguin
08/02/01 11:29:09 r8ITSzIN
>>637
インターフェースが何でもソフトウェアraidなら問題ないよ。
DVD-RAMでやった人もいるくらいなんだから。
ただし、認識タイミングの違いでraid自動認識がこけることがある。
641:login:Penguin
08/02/01 13:11:43 3oRMUEgb
>>635
「安価」っていくら位を想定してるの?
3wareがOKってことは10万以下とか?
642:login:Penguin
08/02/01 13:12:39 GwcDPWoT
>>641
アンカーつけて教えてくださいの意味w
643:login:Penguin
08/02/01 14:43:27 UDB5KdfE
>>639
RAID5組むくらいなら普通に4台マウントさせて
2台分バックアップ用にしたほうがまだマシ。
コエーぞ5は。
644:login:Penguin
08/02/01 14:51:08 3oRMUEgb
何がどう怖いのか詳しくplz
645:login:Penguin
08/02/01 14:51:41 qDeRbLmC
>>643
バックアップはバックアップとして別に用意するでしょ。
646:login:Penguin
08/02/01 15:07:40 myloF96k
もしかして、RAIDがバックアップ装置の代わりになると思ってると思ってるヤツがLinux板に居るの?
647:login:Penguin
08/02/01 15:09:46 N4C2bCGe
>>644
一台死ぬ→raid5だから平気さ(w。
入れ替えてリビルドする→生き残りの全てが高負荷状態に。
raidの仲間はたいてい同じロットの同じ製品。一台が死ぬころ
にはみんな寿命が近くても不思議ではない。
生き残りのうちの一台が……
全滅orz。
ってことが起こりやすい。っていうか割と起きる。
リビルド時に負荷がかかるのが、生き残りのうちの片割れな、
10の方がそういった意味では安心。
648:login:Penguin
08/02/01 15:10:28 3oRMUEgb
怖いかどうかはともかく、大容量のドライブがここまで安くなってしまうと、
台数が増えるほど有利になる RAID5 の価値が低下してるのは確かだね。
同じ750GB 4台なら 3台でRAID5 + 1台 spare より
RAID1 + 0 の方が速度も安心感もあって使える容量は同じ 1.5TBだもんね。
RAID5が有利になるのは 5台以上で構成する場合だろうけど、
個人の利用ではそんなに容量デカくする必要ない人が多いだろうし。
まぁ今現在なら 500GB×5 で RAID5 + spare という選択肢の方が安いのは確かだけど、
750GBのだってすぐに安くなるだろうし。
物理的な台数は少ない方が故障発生率も下がるし。
649:login:Penguin
08/02/01 15:13:50 N4C2bCGe
>>647
訂正。
>>644
上にスクロールしてみろ。
650:635
08/02/01 15:15:13 skbei6UK
>>641
やっぱり10万くらいになってしまいますか
安価とはいえ、5万以内には収めたいと思っているんですが、ちゃんとしたハードウェアRAIDで1+0を組んでみたいと思っているので、
10万ほどなら予算を用意したいと思います。
651:login:Penguin
08/02/01 15:15:42 3oRMUEgb
>>647
「割と」起きる?
俺は一度も経験したことないな~。
3wareのハードウェアRAID5構成のPCが
4台24時間稼働してるけど。
もっとも、ハードディスクをまとめて買うときは
最低でも最低2軒以上で分けて購入してるけどね。
652:login:Penguin
08/02/01 15:16:39 3oRMUEgb
ありゃ「最低」一つ消し忘れw
653:login:Penguin
08/02/01 15:17:53 myloF96k
>>650
とりあえず、誤爆を謝罪してこい
654:login:Penguin
08/02/01 15:18:44 3oRMUEgb
>>650
いや、なってしまいますか、ではなく、
予算とかスペック(必要なポート数など)とか分からんと
誰にも答えられないよ、と。
655:login:Penguin
08/02/01 15:21:22 r8ITSzIN
>643
リビルドの速度制限しとけば、それほどでも無いと思うがなあ。
656:login:Penguin
08/02/01 15:21:49 N4C2bCGe
>>651
幸運なだけかと思ったら、
> もっとも、ハードディスクをまとめて買うときは
> 最低でも最低2軒以上で分けて購入してるけどね。
しっかり気をつかっていらっしゃるのですね。
見習います。
657:login:Penguin
08/02/01 15:24:43 r8ITSzIN
>648
4台でraid5なら2台容量1台スペアより
普通に3台容量の構成にするだろjk。
658:login:Penguin
08/02/01 15:26:30 3oRMUEgb
>>656
あと、これは当然のことながら、RAIDでは「サーバー向け」のドライブしか使わない。
以前なら Maxtor の MaxLineシリーズ。
最近は Seagate の Barracuda ESシリーズ。
「4台」のうち、一番古くから動いてる PCは 丸5年くらい稼働させてるけど、
rebuild中のトラブルでデータを失ったことは一度もない。
659:login:Penguin
08/02/01 15:27:47 3oRMUEgb
>>657
それこそ危険極まりないと思うけど。
RAID使ってる意味がほとんど意味がないような。
660:login:Penguin
08/02/01 15:28:14 3oRMUEgb
あ~~~またダブった!!!
落ち着け > 俺
661:login:Penguin
08/02/01 15:39:25 r8ITSzIN
>659
一台死んでも余裕があるよ。リビルドのリスクに関しては >655
662:login:Penguin
08/02/01 15:46:24 3oRMUEgb
俺が気にしてるのは rebuild ではなく、 degraded のリスクなんだけどね。
ドライブが故障したとき、「即座」に次のドライブが入手できるか分からんので。
要するに、故障した時点でスペアのドライブを買ってくるか、予め買っておくかの違いだよね。
ケチケチしないで、一台くらい余分に買っておこうよ。せっかくRAID使うんだったら。
ドライブの大容量・低価格化時代でのRAID5の一番のメリットは、
容量不足になったとき、柔軟に容量増加が可能である、ということだと思う。
後で容量が不足する可能性があるならば、
スタート時点には無駄と思える「4台でRAID5 + spare」にも意味がある訳で。
(後で5台、6台と増やすことを前提に)
663:login:Penguin
08/02/01 15:48:48 o1JkhWu7
>>662
なんでそれをRAIDのフレームワークでやらにゃならんの?
lvmがあるのに。
664:login:Penguin
08/02/01 15:50:41 3oRMUEgb
RAIDとLVMは用途が全然違うんだけど?
当然RAID上にLVMですよ。
でないと「柔軟に容量変更」できないじゃん。
665:login:Penguin
08/02/01 15:58:45 r8ITSzIN
>662
自分は500Gディスクなら十進数の500Gを狙ってfdiskで毎回
パーティション確保して、それからraid構成してるので、
少なくとも「メーカーやモデルによる容量の差」が原因の
入手性で問題出たこと無いよ。
他に入手性に影響のある要素ってあるだろうか。
666:login:Penguin
08/02/01 16:02:01 o1JkhWu7
>>664
すまん。じゃ、RAID5のメリットをもう一度別の表現で説明してくれないか。
667:login:Penguin
08/02/01 16:15:09 dBBUm++4
RAID5にスペア用意するぐらいならRAID6でいいんじゃないの?
668:login:Penguin
08/02/01 16:19:29 r8ITSzIN
>667
だよね。
管理の手間が単純化できるし、デグレードしたからといって
急にゴリゴリする必要もない。
669:login:Penguin
08/02/01 16:24:39 3oRMUEgb
>>665
例えば「今出張中で、帰るのは一週間後」てのは?
クソ忙しくて再来週末まで買い物なんか行く暇がない! なんてことはよくあるのでは。
俺は東京在住だが、「サーバ向け」のドライブはやっぱりアキバ以外ではあまり置いてない。
(あってもゲロ高い)
地方に住んでりゃもっと大変だろうね。
あるいは「給料前で金がない」とかw
「すぐに入手できない」状況なんていくらでも思いつく。
hot spareはその間ハラハラしないで済む保険代だと思えばいいのでは。
容量については、最悪ひとつ大きいのを買えばいいんで
確かにあまり問題にはならないでしょう。
670:login:Penguin
08/02/01 16:25:34 3oRMUEgb
>>666
このスレ頭から読み直してください。
>>667
まぁそうだね。
話の流れが >>639 (ミラーリング : RAID5)から来てるだけで。
671:login:Penguin
08/02/01 16:30:45 r8ITSzIN
>669
サーバ向けね。確かにそれだと入手性はあるかもな。
半日~二日ほどデグレード状態でドキドキってのも
そりゃあったし。
672:login:Penguin
08/02/01 17:10:17 dBBUm++4
なんかだんだんRAID6にしたくなってきたなー。
mdでRAID5から移行できればいいのに。
673:login:Penguin
08/02/01 19:45:04 qr3ykgm1
俺はHPの6連装DDS4ドライブつけてるから、RAID5でも別に怖くない。
オートチェンジャーとして動くようにスクリプトも作ったし。
一度だけHDDが壊れたことがあったけど、HDD交換する前にすかさず
dumpでバックアップ取った。
いいよDDSいいよ。
最近LTOが欲しいけど。
674:login:Penguin
08/02/01 20:52:08 wB5OamBS
ここの香具師らはペンギン板だからソフトウエアRAIDだよな?
それならRAID5でリビルド時の負荷を軽減させたければ寿命と思われる一台目が死んだときに同数のHDDを用意して一旦アレイを解除してドライブ単位でデータを写せばいい
そして欠落している一台分は古いドライブでリビルドして御役御免で売っぱらう
この際に二台目が死んでも新しいドライブのデータでリビルドすればいい
この方法の欠点は多少コストがかかることと一旦データがオフラインになるということだな
でもリビルド時のリスクはRAID1並に下げられるから個人的には十分な費用対効果が期待できると思う
俺もDDSでバックアップとりたいけどデータ量が多すぎてとりきれない…
小さいデータで重要なものはDDSとMOでバックアップしてる
675:login:Penguin
08/02/01 21:56:38 qr3ykgm1
自分のは使用量1TBくらいだけど、6連装DDSドライブを使えば割と快適にバックアップ取れるよ。
19時くらいにマガジンをセットして、dumpスタート。
テープエンドを検知したら次のテープを自動的にセットするようにスクリプト書いたから。
朝には6本全て使い切っててマガジン吐き出して、次のテープをセットしたマガジンをセットして
会社に行く。
会社から帰ったらまたマガジンを変えて翌朝にまたマガジンを変えて・・・。
だいたい2日くらいあればバックアップできる。
ずっと家に居れるんなら、もっと早く終わるとは思うけど。
ヤフオクで内蔵型を5000円くらいでゲットできたから、うれしくてね~。
676:login:Penguin
08/02/02 03:25:38 zu1IjSu5
>>674
移動先のドライブに負荷かけたテストしてないと、
かえって初期不良に当たりやすくなる気がするが。
677:654
08/02/02 12:56:37 XKGlbsjJ
すみません、予算などをまとめると
総額10万以内、PC本体、メモリ増設、ハードウェアRAID(RAID10)、ポート数は予算が許す限り、HDD数も予算が許す限り
で考えています。日本市場や米国市場、為替の歩み値をデータベース化してそれを分析するシステムを構築
したいと考えており、そのデータベースサーバとして利用する予定です。
どのような選択肢があるかアドバイスいただけると幸いです
678:650
08/02/02 12:57:53 XKGlbsjJ
すまんす、先ほどの書き込み主の名前まちがってた。。。
さらには >>654 と書きたかったのです。
679:login:Penguin
08/02/02 14:56:08 5kGyMDx4
>>675
RAID使ってると容量いくらでもデカくなるから
バックアップの手間が一番の問題だよな。
HDDひとつ1TBが普通の値段で買える世界がもう目の前。
「RAIDで5TB」とかなったらどーすりゃいいのやら。
weekly backup に丸一週間かかったりw
680:login:Penguin
08/02/02 16:55:21 1dBAN3yO
せめて500GBくらい入るバックアップメディアが出てこないかな…
681:login:Penguin
08/02/02 17:00:32 C9Eze2Tn
テープより同容量のHDD用意したほうが安いんだよな…
682:login:Penguin
08/02/02 17:03:12 1dBAN3yO
でも使ってないHDDって結構な確立で駄目になるんだぜ
683:login:Penguin
08/02/02 17:36:53 aGzNkUCj
使ってないテープも結構な確率で腐るけどな。
ただHDDと違って全体が死ぬことはほとんどないが。
684:login:Penguin
08/02/02 17:44:44 1dBAN3yO
5インチでもいいから100GBのMOとか作ればいいのにな
まぁすでに見捨てられてる企画だけど…
685:login:Penguin
08/02/02 17:54:05 YmD5twGO
そろそろバックアップ用にBlu-ray導入したいな
686:login:Penguin
08/02/02 17:59:24 1dBAN3yO
ブルーレイってDVD並みの保存性しか無くないか?
それじゃバックアップの意味が無いじゃん…
687:login:Penguin
08/02/02 18:06:11 Fp6g3h3i
BDは容量少なすぎ
HDDのバックアップ先はHDDしか無いよ
688:login:Penguin
08/02/02 18:43:50 YmD5twGO
>>686
バックアップは定期的にね
>>687
基本は俺もそれだが
バックアップのバックアップにDVDではそろそろ限界かなと
スレチっぽいのでこの辺にしておきますね
689:login:Penguin
08/02/02 18:53:06 KheaAcBM
URLリンク(imepita.jp)
URLリンク(imepita.jp)
690:login:Penguin
08/02/02 19:20:15 Nrwh2fxn
>>689
医者池。
包茎専門より、ちゃんとした泌尿器科がいいよ。
691:login:Penguin
08/02/02 19:25:27 C9Eze2Tn
1TBクラスの光学メディアが欲しいところだな。
692:login:Penguin
08/02/02 20:24:51 3iuPL0zl
>>628-629
実証GJ
>>651
職場でならSCSIなRAID5がスペアに移行した直後お亡くなりとか、
スペア無しアレイでバカSEが復旧とちってお亡くなりとかなら経験ある。
目的がサービス止めたくないことなのか、データが大事なのかで話が違うだろうよ。
まパフォーマンス低下で実際上止めざるを得ないとかはよくあることだw
データに関してはバックアップ工夫しろとしか・・・
>>658
コスト次第。お金あるなら保証付きの箱のほうが安全だし、
キャッシュ系のマシンならSATAの安いのでいい。
高耐久ドライブでRAID5より安物でRAID6の方が安価で安全なこともある。
環境によってはSCSIドライブでも簡単に死ぬしね。
693:login:Penguin
08/02/03 02:24:34 mkL95ztR
RAID5のHDDが2台同じタイミングで壊れるって言うのは、交換時の作業者のミスだと思う。
ずっと寝かせたままだったHDDを横に向けたり、角度を変えたりすると、確かに壊れやすい。
しかし、いまや5年保証までつくHDDが、一台壊れたからと言って、
外部要因無しに同時に壊れるとは考えにくい。
つまり一台壊れたときには手も触れずに外付けのHDDを接続してコピれば問題ないと思うんだが。
694:login:Penguin
08/02/03 10:26:28 OLFvr5xO
確かに通常の運用ならば2台同じタイミングで壊れるってことは、まず起きない。
ただしRebuild中にOnlineなHDDに不良セクタが見つかってRebuild失敗というのはある。
同じタイミングで複数台のHDDが壊れるシチュエーションは電源ONのタイミングだね。
もしくは1台のHDDが変な壊れ方をして、SCSIのバスロックが発生してしまい
同一SCSIバス上のHDDがRAID-CもしくはOSと通信ができなくなってしまって
全てのHDDがFault扱いになってしまうか。
695:login:Penguin
08/02/03 11:38:23 EJ7i8gH6
セクタ数は爆発的に増えてるからな
696:login:Penguin
08/02/03 11:52:53 mkL95ztR
>694
そう。つまり電源ON/OFFとか、HDDを傾けたりとか、結局物理的要因がない限り
2台同時になんてありえないと思うわけですよ。
壊れた後の復旧方法以上に、そういうもっと重要な知識が無い人が多いと思った。
作業者がそのことをわかっていれば、電源OFFなんてしないでコピーするでしょ?
SCSIのバスロックですか。確かにそれはどうしようもないですね。
697:login:Penguin
08/02/03 11:54:48 q+AQxgRs
バスのせいで全部吹き飛ぶのはどのRAIDレベルでも避けようがないわな
698:login:Penguin
08/02/03 12:55:27 7yh5v0Sl
壊れる前に定期的にHDDを入れ替えて、製造ロットを適当に分散させるのが良いと思う。
699:login:Penguin
08/02/03 12:57:22 +cGxDGKE
ていうかリビルド時「不良セクタがありましたのでOFFLINEにします」
って判断はRAIDボードなりソフトウェアRAIDが判断するんであって、
リビルド時に初めて(もしくは久しぶりに)アクセスするからそういうことが起きるんだと。
で、それ以前に見つかるように定期的に全セクタチェック走らせて、不良あったら即HDD交換。
これなら1台壊れてリビルド発生しても同時に2台目が逝ってRAID崩壊の率はかなり減るんじゃないかと。
それでもREADエラーとWRITEエラーは別だからアレだけど。
・・・という考えで3年運用してるんですが突っ込みどころあったらご教示下さい。
700:login:Penguin
08/02/03 13:23:50 jeuHPgfo
いいんじゃない?
定期的なドライブのローテーションも効果あるだろうね。
701:696
08/02/03 13:25:39 mkL95ztR
>699
いいと思うけど、不良セクタがあっても普通に動くから
ちょっと贅沢な使い方だと思った。
702:login:Penguin
08/02/03 13:27:21 FPEcH9J9
RAID5+1でおk!
703:login:Penguin
08/02/03 13:28:07 FPEcH9J9
>>701
サブバックアップ用としてでも活用するかオクなり祖父に売れ
704:login:Penguin
08/02/03 13:40:00 OLFvr5xO
MegaRAIDとか日立のSANRISEとかみたいに、ある一定の周期で
HDDのサーフェイステストをする仕組みが欲しいよね。
そうすればRAID5でもかなりの信頼性をあげることができるんだけど。
SCSIのバスロックでステータスがFaultになるのは、悲しいけれど時々ある。
このスレにCEが居たら、「俺経験あり」って人がいるんじゃないだろうか。
705:login:Penguin
08/02/03 16:18:41 DGf+HCP2
HDDを同時に実装してArrayを作るから
HDDの劣化度は同じだじゃね。
RAID5なら1台死んで負荷が上がれば、2台目も死ぬと。
706:login:Penguin
08/02/03 21:05:16 2lFvuSaN
ここ数日のスレを読んでて、LVMとmdのいいとこどりをしたような何かが欲しいと
思った。
だが作る実力はない。。。
707:login:Penguin
08/02/03 21:36:59 cKmDQueJ
>>706
ZFS
708:699
08/02/03 23:27:50 /V4l36Hy
>>700さん
ありやとやんした。
ローテやってなかったんで検討します。
>>701さん
いまんとこ怖いんで>>703さんの方法を採ってます。
>>704さん
あらまMegaRAIDてサーフェススキャンやってくれるんですか-
ちょうどボード一枚買おうと思ってたんで逝ってきます。
周りに相談出来るよなエンジニアさんいなかったんで助かりました。
皆さんありがとうございました。
709:login:Penguin
08/02/04 01:31:45 +0aP9ie6
どこか、パーソナルVTS出してぇ。
710:login:Penguin
08/02/04 06:47:08 gy3CgsMy
「mdでRAID5構成で、全セクタチェック」
という話は繰り返し出てきますが…
実際のところ、具体的にはどうやって行なうものなのでしょうか?
711:login:Penguin
08/02/04 07:22:58 TY83kMjq
やってはいないけど、mdがofflineの状態のときに
# dd if=/dev/sda of=/dev/null bs=1024k
とかでRAID要素のサーフェイステストをするくらいかな。
もしエラーがあったら、mdをonlineにしてバックアップ。
その後に手作業でその要素をfaultにしてhdd交換。
できればmdの機能としてHDDのサーフェイステストを実装して欲しいなあ。
712:login:Penguin
08/02/04 08:11:34 Q5KXQV/l
>>710
これじゃだめ?
>>492-493
713:login:Penguin
08/02/04 20:02:26 TY83kMjq
>>712
すごい。
こんなのがあったんですね。
現在やっています。
speedは20900K/secって出ています。
速いんだろうか?遅いんだろうか?
714:login:Penguin
08/02/05 00:26:38 j6rJkT89
誰かARAID2200の発売日知らない?
2月発売としか書いてないから気になる
715:login:Penguin
08/02/05 02:18:51 2CYEafF8
>>714
ARAID2000ユーザーだけど、良くなった点はどこ?
あれW/Bなので遅いよぉ。安全だけどw。
VFSのキャッシュはUPSで保護する必要はあるけどね。
716:login:Penguin
08/02/05 02:22:14 2CYEafF8
>>715
あごめん。W/Tでしたね。書き込み確認しないとI/O返してくれないのはw。
717:login:Penguin
08/02/05 13:35:36 bPmvBD8x
>696
>2台同時になんてありえないと思うわけですよ。
思うのは自由だ、うん。
718:login:Penguin
08/02/05 13:45:33 3+aWy1p5
だから、そういう煽るようなことを書かないの!
719:login:Penguin
08/02/05 22:24:03 j6rJkT89
>>715
チップが変わった
&UIを別チップで処理するようになった
結構な大幅変更だぜ
720:login:Penguin
08/02/06 01:18:05 eqVT3L8P
>>706
物理ボリューム層
論理ボリューム層
の2層で管理する思想はご存知?
ストレージ専用機(NASやSANストレージ)のエンタープライズ向けはこの思想がほとんど。
この思想に乗っかると適材適所という言葉も浮かぶ。
721:login:Penguin
08/02/06 02:00:51 /VmRasag
すでにLVMが君が言うところの物理ボリューム層論理ボリューム層に分かれていて、
物理ボリューム層とmdでできることは十分に被ってるんだよ。
LVMのPVOLではコンカチしかできないから、mdが必要となっているだけで。
722:login:Penguin
08/02/06 04:05:45 EE+VEkuv
>>721
そだね。mdとLVMとは機能がかぶりまくっている。かといって、いまさらその辺の
機能の再構成をするわけにもいかないだろうしなぁ。
とか思っていても、Linuxのことだから大幅に変更してくる可能性はあるか。
しかも、斜め上の方向に。
723:login:Penguin
08/02/06 10:00:11 jVXLMw1N
過去にはEVMSというのもあった。
724:login:Penguin
08/02/06 10:39:54 t+5LNVrW
てか思想なんて大仰な言葉を持ち出す時点で
そいつはよく分かってない人だろ。
725:login:Penguin
08/02/06 10:41:32 t+5LNVrW
>>724
IBMの中の人が紳士すぎた。
evmsguiの使い勝手が良かっただけに惜しい。
726:login:Penguin
08/02/06 10:42:16 t+5LNVrW
アンカー間違えた。
>>723
IBMの中の人が紳士すぎた。
evmsguiの使い勝手が良かっただけに惜しい。
727:login:Penguin
08/02/06 23:38:38 Qs3PPl0i
>>706
Veritas Storage Foundation Basic
URLリンク(www.symantec.com)
ストレージが足りなくなってからHDDを一個ずつ足して、全HDD容量の合計÷2の容量のRAID1として使えないこともない。
使い始め: 200GB + 200GB → 200GBのRAID1
320GBを買ってきて追加: 200GB + 200GB + 320GB → 360GBのRAID1
500GBを買ってきて追加: 200GB + 200GB + 320GB + 500GB → 610GBのRAID1
200GBが故障しそうなので取外し: 200GB + 320GB + 500GB → 510GBのRAID1
っつう感じ。
ただ、使えるLinux distributionが限られているのがアレだな。
728:login:Penguin
08/02/07 00:07:05 kF+/kUpL
>>721
LVMはボリュームの自由度を上げるものだから、可用性の部分は
無理してLVMにせず素直にmd使った方がいい、とは思うけどね。
まあ多分に好みかも。
729:login:Penguin
08/02/08 00:55:42 aD0bAbyD
/:::|:::::::|:::::::::::::/::::::/::::::::::::::/:::::::/`\_
/ ̄\::::::|:::::/:::......-――--..........__/:::::::::::::::\
┌ー ̄::::::::::::ヽ::|:::..-^ ̄ ^ ヽ、:::::::::\
ヽ::::::::::::::::::::::::::::/ \::::::::ヽ
ヽ:::::::::::::::::::::::/ :::: \:::::ヽ
ヽ::::::::::::::::::/ :::::::: \::::|_
):::::::::::::::| ::::*::::: ヽ:|::::ヽ
/::::::::::::::::| ::;;;;: l::::::::ヽ
/::::::::::::::::::| ノ::ii:ヽ:: l::::::::::|
|::::::::::::::::::::| /::::;リ:::l:::: |::::::::::::|
|:::::::::::::::::::::l ...l::::;リ:::/:: /:::::::::::::|
.|::::::::::::::::::::::l . /:ア/::: /:::::::::::::::i
l:::::::::::::::::::::::::l ./::`^::::: /:::::::::::::::::/
ヽ::::::::::::::::::::::::l /:::::::::: /:::::::::::::::::::/
/:::::::::::::::::::::::l /::::::::::::: /::::::::::::
__ __ __ __ __ __ __
`i | | i'l_i'l_i' i''´ __`ヽ-ッ _コ l____ i´__`ー-ッ _,,.、
,! ,! .l l _,,,_ └'´__ ``´ レ┐ ┌─┐ ,!'´ ``´ /,r''´
/ 丿 '、'、 l´ __`ヽ-ッi''´__`ヽ-ッ .l l ノ / / /
/ / ヽ ヾ´ ``'´└'´,,_``'´ l └ ' ,/ ___,,ノ /
_,,.r'' / \ `> r'"´ ``ヽS.) l 「´ 「´ _ノ
‘''' ´ `′ └ ''´ ̄``‐-‐'' └ ┘ └‐ '' ´
730:login:Penguin
08/02/11 00:38:18 2LOosLJ3
>> 714
2/18日以降だそうです。
731:login:Penguin
08/02/14 23:42:09 0SxRJSvx
自分は対象にならないだろうと思ってましたが、
RAID5のリビルド中に他のHDDが死ぬ事象を経験しました・・・
今後の対策なんですが、RAID1にしたとしても
片肺になった後、復旧のリビルドかけなきゃならないのは同じですよね?
RAID1もRAID5もリビルド中のリスク自体は同じで
RAID5は単純に壊れる可能性のあるHDDの台数が多いってだけのような気がするんですが、
リビルド時のHDDのアクセスの仕方って、RAID1とRAID5では大きく異なるんでしょうか?
よく考えてみればRAID1の方がシーケンシャルに読むだけで
RAID5はランダムアクセスになるので負荷が高くなるような気もするんですが
実際のところはどうなのかピンと来ないもので。
732:login:Penguin
08/02/15 07:53:53 KVKrbsHP
そのRAIDサブシステムがRAID6をサポートしているのならば
RAID6にするがよろし。
733:login:Penguin
08/02/15 10:23:06 BRBF3NL2
3重RAID1という手もあるよ
734:login:Penguin
08/02/15 16:42:52 cmWvzBOb
要するにアレだ
壊れるときはどんだけ頑張っても壊れるんで
ここはスッパリとRAIDなしの方向で
735:login:Penguin
08/02/15 21:33:26 3J9xJSqX
リビルト時はシンクロ速度落としてやさしくシンクロさせるのだ。
736:login:Penguin
08/02/15 21:34:37 Kxay7Pc2
処女のドライブに無理させちゃいけないよw
まぁ壊れるのは古いドライブだが…
737:735
08/02/15 21:44:27 3J9xJSqX
あと、リビルド時の負荷で読み取りエラーが出て
raid崩壊したように見えても、実はデータ自体は
無事な場合もある。
可能ならば -f オプションだっけ、デグレード状態で
強引に新規構成して(ダミーディスクが必要かも)
シンクロなし、ファイルシステムのフォーマットなしで
fsck をしてみるべし。
738:735
08/02/15 22:11:25 3J9xJSqX
ただしダミー必須でかつ新規構成では勝手にシンクロを
始める仕様だと、問題発生の可能性があり。
自分の場合、ダメになった最初の一台は読み取りエラー多発で
デグレード状態になった。
リビルド中にもう一台が負荷による破損でraid完全死亡。
そこでダミー挟んで新規構成、破損した一台は後で新しい
ドライブ補充でゆっくりリビルド。
だったので特に問題なかった。
しかし一般的には。
新規構成した途端に勝手にシンクロ始めるようだと
無事なドライブの無事なチャンクをダミーに入っている
値を含んだ「汚染された」パリティ値で、正常だった
パリティチャンクを上書きする可能性がある。
要はなにが言いたいかと言うと、
不要ドライブによる予行演習が必要って事。
739:login:Penguin
08/02/16 02:07:03 AuyL7bik
というより、なぜRAID5なのに、いきなり復旧しようとすんだよ。
RAID5ならば、そのまま読み込み可能なのだから、一度どこかにデータをコピーするべきじゃないの?
RAIDの復旧なんて、そんなに何度も経験ないと思うし、
(ソフトウェアの)復旧の精度だって怪しい。
エラーが起きた場合にはとりあえずコピーすれ。
740:login:Penguin
08/02/16 02:50:30 M3gQgdAt
質問です
フラグを付けずにRaidを外すのは危険ですか?
-f をやらずに -r するのは危険?
741:login:Penguin
08/02/16 05:31:03 dXUJmQMO
80GBx2でRAID0すると使用可能な容量は80Gじゃなくて160Gでok?
742:login:Penguin
08/02/16 05:45:09 a7+r0Lzc
RAIDのイロハから調べ直せ
743:login:Penguin
08/02/16 10:18:15 YhN3CkZR
>>730
データをコピーするのもリビルドするのも危険性は一緒。
744:login:Penguin
08/02/16 12:15:16 QgDn6KX6
RAIDカードスレで質問すると怒られそうな流れだったので、こちらに質問させてください。
RAID組んでLinux鯖を運用してる人って、/bootやOSはどこのパーティションにインストールしてるんでしょうか?
HDD4台で組もうかと思うのですが、4台すべてをRAID(10化)にしてここにすべてインストールしても
パフォーマンス的にはOKなのでしょうか? または、別に一本OS用のHDDを使ってるとか?
どこかのスレだと「/var/logは別がいいよね」と言ってる人もいたり。
745:login:Penguin
08/02/16 13:19:27 AuyL7bik
そもそも、そのRAIDカード上にルートファイルシステムのインストールはできるのか?
できるのならばパフォーマンスもあがるし、やるべきだ。
/var/log はサイズが大きくなるからってことじゃないかな?
/var/logなんていつでも移動できるから、あんまり気にする必要はなし。
746:login:Penguin
08/02/16 13:27:11 QgDn6KX6
なるほど。ハードウェアRAIDであればマシン・OSにとってみればひとつのHDDに
見えるので、ルートファイルシステムをインストールできるのでは?と思ってました。
ソフトウェアRAIDだと仕組み上やはりムリそうですね。
はやくRAIDマシン組んで巨大なNFS鯖作りたいなあ。他のサーバの設定やコンテンツ、/var/logなどのデータを
集中管理したいんです。バックアップもしやすいし。
747:login:Penguin
08/02/16 13:37:19 YhN3CkZR
> /var/log はサイズが大きくなるからってことじゃないかな?
プログラムや設定によるけど、/var/log にガンガンログを吐く
プログラムだと、/var/log のディスクとデータを扱うディスク
と分けて I/O ネックを回避することはある。
748:login:Penguin
08/02/16 14:54:31 TWToK0Vy
>>746
$ df /
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/md1 244116192 228998376 15117816 94% /
ですが何か?まあ言わんとすることはわかるんだけど書きたくなった。
749:login:Penguin
08/02/16 14:55:35 QgDn6KX6
>>747
ってことは、/var/logをNFS使ってログサーバ溜まるようにマウントしてたりしたら、
ものすごいパフォーマンスは悪くなるってことだね
750:login:Penguin
08/02/16 17:10:45 YhN3CkZR
>>749
[ここ重要] ⇒ >>747 プログラムや設定によるけど
751:login:Penguin
08/02/16 18:13:58 8JTLkDgS
> ソフトウェアRAIDだと仕組み上やはりムリそうですね。
インストール時にドライバ組み込めば出来る。HW RAIDと同じ
752:login:Penguin
08/02/16 19:19:52 spUQqV6H
最近のインストーラなら大抵対応してないか?>root fsがRAID
753:login:Penguin
08/02/16 19:33:18 jT4G/Hbn
対応してるよ。
だけどGrubをミラーの相方にインストールしてくれないという片手落ち。
どうせなら、そこまでやってくれよと思う。
754:login:Penguin
08/02/16 19:50:02 spUQqV6H
パーティションの先頭にGRUBいれて、そのパーティションをアクティブにマークして
ブートセクタにはMS-DOSブートローダつっこめばおk
755:login:Penguin
08/02/16 20:04:50 jT4G/Hbn
おお!その手がありましたか。
ん?でも、mdってパーティションの中身だけではなく、PBRも含めて
ミラーの対象にしてくれるんですか?
今度実験してみませう。
756:login:Penguin
08/02/16 20:23:29 QA952r8C
PBRもパーティションの中だろ
757:login:Penguin
08/02/17 01:02:48 i5d+mHPz
root fsはARAIDみたいな何も考えなくていいところに入れてるけどなぁ。
救出したくても手が打てないのは痛いし、
家だけど、bootable cd もって鯖置き場まで逝くのは面倒だし。
758:login:Penguin
08/02/17 09:28:36 EeCPJ2/d
bootable cd コピーして、鯖のところにおいて置けばいいだけじゃん。
もしかしてバカ?
759:login:Penguin
08/02/17 11:11:40 i5d+mHPz
>>758
カーネル置き換えたときにリモートでブート順位変えれればなw
760:login:Penguin
08/02/17 11:20:07 EeCPJ2/d
やっぱりバカだった。
761:login:Penguin
08/02/17 12:18:58 i5d+mHPz
>>760
あーなに?isoイメージでってこと?
めんどい操作は基本的にいやだよ。
参考にしたいんだけど、ちなみにあなたの場合は、どんな操作シーケンスを仮定して書いているの?
762:login:Penguin
08/02/17 13:26:19 EeCPJ2/d
> めんどい操作は基本的にいやだよ。
何を言っても、「面倒だよ」で片付けるんだろ。
バカに何言っても無駄だったな。
763:login:Penguin
08/02/17 13:33:37 fA/cUGCW
試しに教えてよ
764:login:Penguin
08/02/17 13:35:31 i5d+mHPz
いや具体的に書いてくれないと判断のしようもないよw
765:login:Penguin
08/02/17 13:37:16 tWbZDU3A
>>763
ID:EeCPJ2/dを取り合わない方がスレが荒れなくて良いです。
766:login:Penguin
08/02/17 15:37:46 EeCPJ2/d
>>764
別にお前に判断してもらわなくてもいいし。
# バカってこう言う粘着は「面倒じゃない」んだな (w
767:login:Penguin
08/02/17 18:52:37 ExKA9mj+
ルートファイルシステムとしてUSBメモリ使えば?
ルートファイルシステムって重要な割に復旧しにくいから、
安くてコピー取り易いUSBメモリっていいよ。
768:login:Penguin
08/02/17 19:40:54 i5d+mHPz
>>767
それはありだよね。
entry系の鯖M/Bでもそれ用途にUSBを基盤につけてるのもあるね。
URLリンク(www.intel.com)
あとは、管理性がついてきたらだけどね。
OS非依存でWeb consoleが付いてて、ブート関連がいじれたらそれで良いかなって気がするけど。
業務用の鯖だとそういうのって付いてるけど、安いのでも最近はそういうのは付いているのかな?
769:login:Penguin
08/02/17 21:09:52 YyBIzKMJ
USBメモリをディスク代わりにするのは耐久性に疑問がある
書き換え可能回数があまり多くない
770:login:Penguin
08/02/17 21:29:21 VhdF0BCQ
全てのディスクをUSBメモリで、という話じゃないだろ。
771:login:Penguin
08/02/17 23:13:56 qU3Dm9wu
当たり前の話だけど
root fsに何をいれるか、が決まらないと評価も何もない
772:login:Penguin
08/02/17 23:23:39 FjIQJ/u+
>>769
それこそミラーしておけばいいって話じゃないの?
773:login:Penguin
08/02/18 09:12:36 7pJwJgpT
フォールバック用途ならありかもしれませんなぁ。
774:login:Penguin
08/02/18 12:43:13 YBEsL7Ky
また耐久性疑問厨か。
/ /usr なんてそんなに書き換えないだろ。
775:login:Penguin
08/02/18 13:01:11 1jCiBLSk
てことは、RAIDで冗長化するのは/homeと/varと/etcだけでFA?
776:login:Penguin
08/02/18 13:45:23 hyGsnvLJ
便乗して質問なのですが、RAID化しなくてもよいルートファイルやなんかは、IDE接続のハード単機にインストールしたって構わないってことですね。
777:login:Penguin
08/02/18 14:00:40 7pJwJgpT
>776
ルートファイル?
ハード単騎^H機?
ま、好きにすればぁ?
778:login:Penguin
08/02/18 14:14:37 YBEsL7Ky
>>775 / と /etc は分けられない。
779:login:Penguin
08/02/18 15:23:20 RdJlk1eC
>>778
うそ!なんで?
ハードウェアRAID1+0やってるんだけど、/も/etcもRAID中な気がするんだが…
780:login:Penguin
08/02/18 15:32:44 HZgLzkAe
各自好きにやりゃいいがね。
/etcなんて一旦設定がきまっちゃったら
そうそう頻繁に変更するもんでもないだろうし、
容量もデカくないんだから
CD-Rにでも焼いときゃいいんでね~か
と俺は思うが。
781:login:Penguin
08/02/18 17:12:56 YBEsL7Ky
>>779
なんでって / と /etc を別のパーティションに置くことはできないでしょ。
>>775 > てことは、RAIDで冗長化するのは/homeと/varと/etcだけでFA?
/home と /var と /etc だけをRAIDで冗長化するって言うから、
それだと / が別パーティションになるから >>778。
/etc を RAID に入れるなら必然的に / もRAIDにいれることになるっしょ。
>>779 はそうしてるし、何に対して「なんで?」なのかわからない。
782:login:Penguin
08/02/18 17:51:59 pjqQlMbm
>>781
ハショリスギ!
783:login:Penguin
08/02/18 21:29:04 7pJwJgpT
>782
いや、それ以外に読めないと思うが...
784:login:Penguin
08/02/19 00:28:17 vYFMe8jP
initrd とかでできなくはない気がする。
785:738
08/02/19 11:51:04 xjsgqTAQ
>>739
> 一度どこかにデータをコピーするべきじゃないの?
コピーするときの負荷もリビルド負荷も御忘れなく。
そしてなにより、リビルド負荷は数値を指定して
あらかじめ制御できることも。
> RAIDの復旧なんて、そんなに何度も経験ないと思うし、
なに言ってるんだ。
RAID使うと決めたら「必ず」復旧手順は
予行演習しとくもんなんだよ。
まるでRAIDの使いかた分かってないぞ。
786:login:Penguin
08/02/19 12:12:24 HB+Mo7i2
ごめん、スレ読みとおしたところよくわかんないんだけど、HDD4台でRAID化したマシンに
Linux OSをインストールする場合って、HDD4台すべてをRAID化(たとえばRAID1+0)
しちゃってもいいの? 起動部分やOSはRAIDでジョチョウ化されてもいいものなのかどうか、わかんなくなっちゃった
787:login:Penguin
08/02/19 12:14:22 wqil2l39
なぜか変換できない
788:login:Penguin
08/02/19 12:43:30 leSjXn0T
とんでもなく助長してる
789:login:Penguin
08/02/19 12:52:59 9sD2K6K5
冗長してる。
790:login:Penguin
08/02/19 13:16:12 jU83xi7f
じょうちょう
791:786
08/02/19 14:23:39 HB+Mo7i2
ごめんです、ジョチョウ化⇒冗長化の間違いでした
792:login:Penguin
08/02/19 16:07:31 YZYGs6Xx
>>778
マジで?
しらんかった・・・確かに今まで分けようと思ったこともないが。
793:login:Penguin
08/02/19 16:10:15 YZYGs6Xx
>>786
/bootはRAID1、あとはinitrd前提で任意のRAID構成が楽
grubは自分でinstしてね
794:login:Penguin
08/02/19 16:14:13 wqil2l39
>>792
分けたら /etc/fstab 見えないじゃん。
795:login:Penguin
08/02/19 17:21:02 z0nKTYDQ
>>793
つーことは、RAID10のサーバを組むにはHDD4台の他に、/boot用のHDD1台ないし2台(RAID1にするなら)
の合計5-6台が必要っつーこと?まじかよ。
796:login:Penguin
08/02/19 17:21:49 Wt/Vgi9h
まともに使うならそうなるな。
797:login:Penguin
08/02/19 17:29:20 9sD2K6K5
>>795
bootはパーティション切ってそこだけraid1にすれば、4台でいけるよ。
798:login:Penguin
08/02/19 17:39:33 iV/BcA4E
Linuxなら、raidを使おうが使うまいが、/bootを別パーティションにしておくのはいまや半常識だしな。
799:login:Penguin
08/02/19 17:52:39 z0nKTYDQ
>>797
レスサンクス。でもおれ頭わりーからまだ理解しきれていないのだけど、つまり500GB HDDが4台あったとすると、
そのうち10GBずつをRAID1化(ミラーリングなので使用可能容量は10GB)して/bootに、
残りの490GBずつをRAID10化して(使用可能容量は980GB)/boot以外をインストールするということでOK?
いま手元にあるHP ML115を調べて気づいたけどIDEが一本挿せるみたいなので、余りのIDE ATA15GBか40GB
を/bootにしてもいいのかな。そこだけRAIDにならないけども。
800:login:Penguin
08/02/19 17:54:40 9sD2K6K5
>>799
その認識でOK
801:login:Penguin
08/02/19 17:55:27 9sD2K6K5
>>798
でも俺は切らない派w
802:login:Penguin
08/02/19 18:17:04 z0nKTYDQ
>>800 >>797 サンクス
でも、起動部分/bootにギガバイト単位で割り当てるのはもったいないなあ、それに
わざわざパーテ区切るくらいならHDD4台は丸ごとRAID10にしてあげたいし。
やはり、IDEドライブに/bootを配置すると思うのですが、無謀かな。ついでに/tmpもIDEドライブ
にしてやろうかと思ったくらい。 USBメモリに/bootを入れるよりはまともかと思ったのだけど。。。
803:802
08/02/19 18:19:01 z0nKTYDQ
うそ、よくかんがえてみりゃ、そのくらいのことでならば多少のパフォーマンス低下を
覚悟してでも、>>801みたくHDD4台をまるごとRAID10化したほうが障害復旧が早いじゃん
と思った。
804:login:Penguin
08/02/19 20:27:16 YZYGs6Xx
>>794
おおなるほどw
>>803
そのあたりの悩みは用途次第で結論が変わるので思ったようにすればOK。
/bootにGB単位で割り当てる必要性を感じているなら、それは必要なのであってもったいないと言うことはない。
自分が障害復旧しやすい構成がって、障害復旧を優先したければそれを採用すればよい。
少なくともネットで大雑把な質問して得られた答えが最適解になることはまず無い。
805:login:Penguin
08/02/19 21:05:13 LjOdmO1l
うちの/bootは大昔に使っていた170MBのHDDだったりする。
他はSATAのGBサイズのHDDですけど。
なんか棄てるのがもったいなくて。
806:login:Penguin
08/02/19 21:10:18 9sD2K6K5
もったいない以上に、使い続けるのが怖いよw
807:login:Penguin
08/02/19 21:35:05 +qK8q1YG
やっぱり、/bootはUSBメモリに入れ込むのが楽だよなぁ。
問題はUSBメモリからbootできる機械が少ないことだけど。
808:login:Penguin
08/02/19 23:17:24 nwrDQnND
>>806
/boot なんて別に壊れてもいいじゃん。
別のディスクを用意できてるなら。
809:login:Penguin
08/02/19 23:33:12 LjOdmO1l
>>806
いや、意外にも壊れない。
よっぽど最近のHDDの方が壊れてるよ。
kernelがupdateされるたびに/bootをtarでバックアップ取って
/mnt/common(ウチのsamba公開ディレクトリ)に保存してるから
もしHDDが壊れても、まだまだ170MBのHDDがあるから。。。
壊れてもHDD交換してパーティション作ってtarで復元して
grubをインストールするだけだから。
810:login:Penguin
08/02/20 00:43:24 Zep3uocy
うちはデータしかRAID化してないなあ。
/ や /boot や自前のデータがないfilesystemは適当バックアップだけ。
復旧に要する時間はまあそれなりに、ぐらいで考えてる。
811:login:Penguin
08/02/20 01:48:02 I7MAm7/Q
飛んでもPXEで起動してくる構成
812:login:Penguin
08/02/20 02:38:13 GsxLLhRu
>>786
ソフトウェアRAIDで細かく使いわけしてる人は
少ないと思う。めんどくさすぎて。
起動部分をRAID1なら普通かな。
ハードウェアRAIDで可能ならそれもアリじゃね?
813:login:Penguin
08/02/20 02:44:06 GsxLLhRu
うわ沢山。リロードしてなかった。
>>812
は忘れてくれ。
814:login:Penguin
08/02/20 02:48:46 3eSEJw3g
>>813
いや、いいんじゃないか。
俺なんかは3wareの9650SE-4PMLでRAID10(500GB*4)してるけど、/以下すべてRAID化してる。
815:login:Penguin
08/02/20 03:01:21 YArMzvpZ
mdで/bootがRAID1、/homeと/がそれぞれRAID10してるけど、
これってなにかめんどくさいっていうデメリットあるの?
個人的には/bootのためにいろんなハード持ってくるのがややこしいんだけど。
816:login:Penguin
08/02/20 08:27:58 3eSEJw3g
>>815
>>mdで/bootがRAID1、/homeと/がそれぞれRAID10してるけど、
>>これってなにかめんどくさいっていうデメリットあるの?
説明するのがめんどくさい、っていうデメリット。
817:login:Penguin
08/02/20 12:31:55 a4F59jek
>>814
ハードウェアRAID使うならそれが普通だと思う。
つか、そのためのハードウェアRAID。
難しい/面倒なこと何も考える必要がないw
818:login:Penguin
08/02/21 00:59:49 CnMgGiXf
RAIDの耐障害性について某スレのおかげで何がなんだかわかんなくなってきた。
RAID5をHDD*4台で構築したときに、どれかひとつのHDDに致命的な故障が発生したばあい、
そのサーバは通常稼動を続けたまま、HDDを入れ替えるまで稼動させることって
できるんでしょうか。
RAID1+0というやつでは、同じストライプ組のRAID0 HDDが2台同時期に壊れなければ、そのまま運用を続けることができると勉強したのですが。
819:login:Penguin
08/02/21 01:05:27 0MyyZeE8
>>818
できなければ何の為のRAID5なんだよw
820:login:Penguin
08/02/21 01:24:24 LstAdxHS
某スレってのはどこだ
821:login:Penguin
08/02/21 08:29:25 CnMgGiXf
>>819
できるのですね。 その場合、RAID5の仕組みから考えると障害時の縮退運転中の
ホストCPUもしくはカード上のチップの処理負荷は結構なんじゃないかなと思いました
>>820
ここです
IDE/SATA RAIDカードあれこれ 28枚目
スレリンク(jisaku板:933番)n-
822:login:Penguin
08/02/21 10:19:15 QU9gU0w5
>>821
レス番あってる?
823:login:Penguin
08/02/21 22:56:55 2FpKpxEt
>>818-819
通常稼動を続けたままできるかどうかは、RAID とは別の次元の話。
ハード / ソフトの対応が必要。
まともなサーバーなら大抵サポートしているけど、安物の NAS なんかだと
電源切らないと HDD の交換ができない奴もあるよ。
>>821
通常運用時も常にパリティの演算はやってるので、特に縮退運転中の負荷が
高いわけじゃない。
824:login:Penguin
08/02/22 00:18:05 lqV65jWf
負荷が高いのはドライブのI/Oだよな。演算じゃなく。
825:login:Penguin
08/02/22 00:42:49 gxYR4a4l
I/Oウェイトが高くなるから、それなりに重くなる。
826:login:Penguin
08/02/22 02:04:19 Mw1lTqHM
パリティ演算が負荷にならないのであれば、RAID5がサーバ向けとしては最強っぽい感じがするな。
ML115を買ったばかりなんだけど、オンチップのソフトRAIDでRAID5 (HDD4台)でも
試してみよかな。
827:login:Penguin
08/02/22 02:11:23 rUW8ziB5
>>823
>通常運用時も常にパリティの演算はやってるので、
嘘だっ!
828:login:Penguin
08/02/22 06:09:35 lqV65jWf
>>826
raid5デグレード時のリスクについてはさんざんこのスレでも
語られてるので、読んで納得してからGOすべし。
829:login:Penguin
08/02/22 09:24:59 91jcI2i+
>>828
なるほど、サンクス
やっぱり、落としたくないサーバ&障害が起きてもマシン負荷や付随リスクを抑えられるサーバにしたいので、RAID1+0にすることにします。
830:login:Penguin
08/02/25 06:57:27 D7C/M5Y7
教えて欲しい
LinuxでRAID5のファイルサーバーを構築したいのだけど
インストールから障害時の復旧方法が載ったHPって無い?
探したけど、構築方法だけのページが多くて
どこかお勧めがあったら教えて欲しい。
831:login:Penguin
08/02/25 10:25:31 9T281o0Y
mdadm?
ならmanのページにあるよ。いちばんお勧め。
壊HDD切り離しから新HDDの追加まで載ってる。
OSインストーラ上からのRAID構築手順案内してるサイトばっか見てるのかな?
初めてなら入れるときはそれでいいと思うけど、
入れたあと必ずman片手にシェルからの復旧演習しようね。
※データドライブのみRAIDするんなら簡単だからシェルでRAID構築したほうがいい。
832:login:Penguin
08/02/28 08:11:12 7NHGqqq8
HDL-GTシリーズをRAID5で運用してたけど、突然RAIDが崩壊…。データ吸い出したいけど、どうしたらよい?
SATA→USBに変換するケーブル4つ買って来て全部接続して、KNOPPIXから復旧できるかな?
一つだけ接続してログを確認したけど、ログがメモリ上に吐かれる仕様みたいで、ログが追えない。なにが起きたのか把握出来ないのが痛いのだが…。
833:login:Penguin
08/02/28 17:29:56 juedGX85
なんか見覚えのある書き込み。
>>620 = >>832 ??
834:login:Penguin
08/02/28 20:50:22 7NHGqqq8
>>833
あ、いや違います。
SATAが4台つくマシンがないので、そもそもSATA→USB接続では復旧不可能なのかと思って。
でも、症状は同じみたいなので、やっぱりダメかな…。
なんだか、物理的な生涯ではなさそうなんだけど…。
835:login:Penguin
08/02/28 21:40:45 juedGX85
ベースがLinuxとはいえ、哀王がカスタマイズしている可能性があるから
下手に余計なことをせずに哀王のサポートに電話した方がいいと思うよ。
836:sage
08/02/28 23:54:03 AxfU3lU5
>>835
ありがとうございます。
すでにIOサポートには電話済みですが、RAIDの崩壊はまったくサポートしてくれませんでした。
データ復旧会社を紹介されて終わり。ひどい。。。
というわけで、自力でできないかと模索しております。きびしいですかねぇ…
837:login:Penguin
08/02/28 23:55:11 AxfU3lU5
sage入力欄、間違えた。。。
838:login:Penguin
08/02/29 00:08:26 Gwi7QNca
貶す意図は全く無いが、ここでこんな質問してる状況では厳しいと予想する。
暗に、Nonスキルでお手軽一発回復できる方法教えてくださいって意味だろ?
学習意欲無い人に親切丁寧に付き合ってくれる人ここには少ないよ。
他のコミュニティを頼ってみては。
839:login:Penguin
08/02/29 00:13:55 pUCuLP0q
>>836
>>620の時の流れを見てもあまり有用な情報が出なかったもんねえ。
あれも結局どうなったか分からないし。
いいアドバイスできなくてスマソ
840:login:Penguin
08/02/29 01:02:48 NeboVMG8
>>836
自分で書いている通り、SATA→USB 4つは試す価値があるかもね。
あと、物理的に1台分格納可能な空間が4つあれば、loopback deviceでmdadmとか。
...できないかどうか知らないが無茶っぽいか。
助言が得られないというより、
崩壊したRAIDは基本的に救えないというオチかな。やっぱり。
841:login:Penguin
08/02/29 03:31:32 js7jhxfr
そしてまた、RAIDはあくまで可用性向上のためのものなので、
バックアップを取っておくのは必須という大前提が出てくるわけですな。
842:login:Penguin
08/02/29 10:24:30 ZfFSkAXp
RAID復旧なら、こんな記事もあるが。
URLリンク(www.linuxjournal.com)
843:sage
08/02/29 11:52:28 ej7ymfjg
836です。
>>838
RAIDに関しては確かにNonスキルですが、Linuxは自宅でもいじってます。
至急復旧しなければいけないほどではありませんので、のんびり勉強しながらやってきます。
人柱になってもよいので、可能なことがあればやってみます!
>>840
なるほど、4台分全部イメージで吸い出して、1台に乗っけてloop back デバイスってことかな?
たしかに行けるかもしれませんが、全部で2T…orz
>>842
ありがとうございます。いま手元にないんで、ちょっと試してみます。
とりあえず、SATA→USBケーブルが1つだけあったんで、1台ずつくっつけて
mdadm --examin
でRAIDパーティションを見てみたけど、意味なかったかな?
844:login:Penguin
08/02/29 20:17:36 RZopCDve
LINUXいじってんならman見てわかんない?
その機種がどうとかいう問題以前にちゃんとmdadm使えないと無理。
一度アレイ作って→壊して→復旧とかやってから出直し。
とりあえず>>620くらいやるのが普通。
それとloopbackなら最低1.5TB~出来たら2TBの作業領域、
実ディスク使うなら(危ないけど)SATA-USBがあと3つ要る。
どっちか用意しないことには何もできん。
って、ここまで書いてから気付いたんだけど本体ハックしてtelnetで入れないかな?
持ってないから知らないけれど、telnet化出来て本体起動するんなら。
845:login:Penguin
08/02/29 20:23:12 Gwi7QNca
>>843
むう、勉強する気があるならまず全ドライブをイメージ化してどういう配列になってるか調べてみたらいい。
/var/logがあるとすこぶるわかりやすいのだが、無ければ何か大きめのtextファイルを探す。
あと、NAS側で再構築すればRAID情報は初期化できるわけで、diffしてみたりFS部分書き戻してみたり・・・
もちろん各試行はvmware等で事前に実験成功させてから。データのバックアップは完全に取ること。
まぁ一般に考えられるような様々な対処が可能なのでやってみたらいい。
そしてエラーメッセージも書かずにどうかな?とかはチラシの裏へ。
846:840
08/03/01 00:14:18 zNKGHS78
>>843
0.5Tが4枚、1つのカーネルから論理的に見えていれば何でもいい。
1つが実HDD、1つがlocal fs上のfileへのloopback、
残りがNFS上のfileへのloopbackとかでもいい。はず。
まあでも、傷を深くしないためには2T分の複製確保からか。
人柱乙
847:843
08/03/01 12:08:49 MTZD+9N+
みなさん、どうもです。
>>844
たしかに、もうちょっと自分でmdadmの勉強・実験は必要ですね。
もちろん、本体のTelnet化はしておりました。ただ、RAIDが崩壊してからTelnetで入れない状況に。
>>845
ドライブをイメージ化してどういう配列か調べる、というのはどういうこと?
RAIDの配列がどうなってたか、という意味でしょうか?
/var/log は、HDL機では /var が RAM上に切ってあり、一度電源を切った時点で消滅。。。
エラーメッセージもたぶん消滅。これがかなり痛かったです。
NAS側での再構築の方法はマニュアルに載ってあるけど、その後のdiffとかFS書き戻しってどういう意味でしょう?
イメージ化した元のドライブとのdiff?
>>846
了解。やっぱり、まずは複製か。とりあえず、dd で吸い出せばOK?
方法より、場所の確保の方が難しそうだorz
848:login:Penguin
08/03/01 12:24:51 V1aTYABK
それにしても、哀王HDL-GTの被害者はこれで2件目。
このスレに書き込まないで哀王の言うとおりにデータを諦めているユーザーも
もっといるかもね。
結構ヤバイ製品?
849:843
08/03/01 15:09:46 MTZD+9N+
ほんとに。。。なーんにもしてないのに、月曜日会社に来てみたら「ぴーぽーぴーぽー」ってサイレンなってた。。。
「HDD外して再起動してダメだったらデータ復旧会社へ」的な案内だった。
「こういうことはめったにないんですが」って言ってたけど、ありゃしょっちゅうだな。
850:login:Penguin
08/03/02 00:04:58 t3uOwrRE
余りストライピングについては語られないのね..
851:login:Penguin
08/03/02 00:10:20 i5pT7HBy
RAIDじゃないから。
852:login:Penguin
08/03/02 00:12:24 090WhxWO
>>850
需要が無いからな。
853:日記
08/03/02 12:51:56 emEwbtI/
2.6.24.3のDebianでPMP使用中。
SiI3726上に3デバイス接続し、(sda, sdb, sdc)
MDを使用してRAID5で運用中。
テストとして、このうち1デバイスをそのまま外してみました。
(当然)link down。
しばらくして/proc/mdstatは[UU_]となる。
再び同じポートに再接続。
link up。
sddで認識しました。
/proc/mdstatは[UU_]のまま。以下のコマンドでhot add。
sudo mdadm /dev/md5 --manage --add /dev/sdd1
問題なくリカバリー始まってます。
続いて以下のコマンドでremove。
sudo mdadm /dev/md5 --manage --remove /dev/sdc1
以下のメッセージ。デバイスは既に削除
mdadm: cannot find /dev/sdc1: No such file or directory
でも/proc/mdstatは
active raid5 sdd1[3] sda1[0] sdc1[4](F) sdb1[1]
で、sdc1がFailedフラグ立ったまま、まだいます。
854:login:Penguin
08/03/02 13:43:40 hc9C85N7
何かと思ったけどポートマルチプライヤか。
RAIDと関係ないがPMの安定性とかはどう?
855:853
08/03/02 15:49:23 cyhXWBFJ
リビルド完了したので、--examine --scanしてみました。
sdc1にFAILEDフラグのまま
次にrebootかけてみました。
再びsda, sdb, sdcで認識。
cat /proc/mdstatしたところ、普通に上記で正常動作。
どうやらmdadmも今はuuidしか見てないんですかね・・
Sargeの頃はmdadm.confにしっかりsd*が記録されて、
認識順によっては問題が起こったりしたんだけど。
PMP周りとの相性は良さそうですね
PMPの動作自体はとても安定しています。
1つのSiI3726にSATA1とSATA2のドライブが混在しても
認識に問題なし。
ただSATA1のhotplugはまだ試してません(無理だろうな)
856:login:Penguin
08/03/04 20:13:01 LTSRnmt7
お邪魔します。
RAID5のパリティ生成順について質問なのですが、
パリティ生成順の指定において
「left-symmetric / left-Asymmetric / right-a(略」という言い方と
「forward / backward 」という言い方がどう対応しているのかがわかりません。
それぞれの対応は「forword」=「left-symmetric」 という理解でOKでしょうか?
857:login:Penguin
08/03/04 20:18:38 f138xmmP
forward / backwardは何語ですか?
858:login:Penguin
08/03/08 01:42:36 aT+xoS78
RAID5で、4台のうち2台をFail にした場合、再度RAID5で起動させて復旧するにはどうしたらいい?