07/01/11 13:57:58 Qi1sg+Qg
(゚⊿゚)イヤダ
3:login:Penguin
07/01/12 12:03:31 k7DVEYg9
ソフトウェアRAID5で構成したアレイにもう一台ディスク追加して
RAID6にできればいいのになぁ。
4:login:Penguin
07/01/13 00:59:20 1daSzbwH
>>1
乙、今年はmdadmを懸命に応援する年になりそうだぜ。
5:login:Penguin
07/01/13 17:52:42 E9baDwwd
同じHDDが4台あるとして、
4台でSoftware RAID5
4台でSoftware RAID10
Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?)
では、信頼性、保守性でどれがいいでしょうか?
用途はデータ置き場です。バックアップはUSB HDDにとるつもりです。
6:login:Penguin
07/01/13 17:58:46 /hTyXuuv
お勧め2番、やるなら3番
7:login:Penguin
07/01/13 18:30:01 7SZBdiSI
md と lvm とを併用かぁ。
俺は今のところ 320GB * 4台 で RAID5 運用してる。
でもブート領域のためとかで RAID1 が欲しいから、
4台(hda,hdb,hdc,hdd) ともに 20GB + 300GB にして、
hda1+hdb1 = RAID1 20GB ブート・システム領域
hdc1+hdd1 = RAID1 20GB 未使用
hda2+hdb2+hdc2+hdd2 = RAID5 900GB
8:login:Penguin
07/01/13 22:28:03 /JYQPWqN
ICH8DHのahci + リムバ + mdadmのRAID1でホットスワップリカバリできました。
9:login:Penguin
07/01/14 09:08:41 NA5ZaSYQ
ちょっと古めのマシン AOpen AX3S Pro
+ Pentium III Coppermine FC-PGA 600EB
+ IDE HDD 4台 でファイルサーバを構築しているのですが、
ディスクが足りなくなったので増設しようとしています。
マザーボード上には HighPoint の HPT368 があるので、
これを単純に IDE インターフェースカードとして使って
/dev/hd{e|f|g|h} をつなごうと思っているのですが、
HPT368 を Linux で使う上での注意点としてはどんなものがありますか?
(つづく)
10:login:Penguin
07/01/14 09:10:49 NA5ZaSYQ
Windows 2000 で使っていたときには HPT368 のドライバのせいか
時々ブルースクリーンに落ちてしまったので、BIOS で
disable していたのですが、Debian GNU/Linux etch の dmesg によると
HPT368: IDE controller at PCI slot 0000:01:05.0
ACPI: PCI Interrupt Link [LNKD] enabled at IRQ 12
PCI: setting IRQ 12 as level-triggered
ACPI: PCI Interrupt 0000:01:05.0[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ
12
HPT368: chipset revision 2
HPT368: 100% native mode on irq 12
ide2: BM-DMA at 0xb000-0xb007, BIOS settings: hde:pio, hdf:pio
ACPI: PCI Interrupt 0000:01:05.1[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ
12
ide3: BM-DMA at 0xbc00-0xbc07, BIOS settings: hdg:pio, hdh:pio
とあっさり認識してくれて、リムーバブル箱つかえば活線挿抜も
可能なのか?と期待させてくれます。
PATA の HDD が20台ほどあり、できればそれらを活線挿抜しつつ
使いたいのですが、このまま HPT368 につないでいいものか
PATA->SATA 変換ボックスと SATA カードを買ってくるべきか、
都会のショップに出かける前に思案しております。
11:login:Penguin
07/01/14 09:11:57 NA5ZaSYQ
ちなみに電源ユニットは新しいものなので
SATA 用の電源も供給可能です。
12:18歳♀
07/01/15 22:40:41 mKLR9U0k
>>8
そういう情報うれしい。
手順も書いてくれると、さらにうれしいかも。
13:login:Penguin
07/01/16 20:01:35 2K/TQhFN
RAID5でオンラインでキャパ変更できますか?
また、RAID5のままLVMでロジカルボリューム変更できますか?
14:login:Penguin
07/01/17 05:32:47 dKhI4BNe
md と lvm2 って直交?というか独立?
アレイを物理ボリュームとして論理ボリューム作り出したり、
その逆に複数の論理ボリュームからアレイを作り出したり。
漏れ md しかつかってないんだけど、そういえば lvm の
機能として RAID 0 が実装されていたなんてことは過去無かった?
ちょっと混乱気味。なので md しか使ってない。
15:login:Penguin
07/01/17 05:40:18 dKhI4BNe
おちついて考えてみたら、チキンな俺は ext2 から使い慣れてる
ext3 を使っているので、ファイルシステムのリサイズができないから
意味ねぇ・・いや、なんかツール使えばリサイズくらいできるん
だろうけど、チキンな俺はそれでファイルシステム全体が
吹っ飛んでしまうんじゃないかと思って怖い。
16:login:Penguin
07/01/17 05:55:12 dKhI4BNe
MD の LINEAR アレイが提供する機能と、
LVM の提供する機能はかぶるんじゃないだろうか・・・
と思ったんだが、いま mdadm の manpage 読んでみると
mdadm の grow で --raid-devices が変更できるのは
RAID1 に対してのみに限られるんだね。
LINEAR アレイですら grow できないのか・・・
それはやはり LVM でやれということか。
眠い。
17:13
07/01/17 08:12:16 jQRUuA4a
ネットワーク上のストレージに地上デジタル
の画像を直接録画できるテレビがあるんですけど、
ものすごい容量食うんですよね。
で、lvm2で後からHDDを足しながら容量増せるような
システム作りたいのですが、lvm2だと1台のHDD死んで
しまうと全滅してしまうので、その基盤のボリューム
をRaid5にできないもんかと....。
18:login:Penguin
07/01/17 10:11:40 dKhI4BNe
>>17
ファイルシステム自体は何を使う予定ですか?
19:login:Penguin
07/01/17 10:19:28 dKhI4BNe
>>17
Linux Kernel 2.6.19 からは RAID5 に reshape の機能が
あるようです、なにやら危険なにおいがぷんぷんしますが。
URLリンク(www.mail-archive.com)
前スレでも誰か言及してましたね。
自分的には RAID5 → RAID6 への reshape (というのか?)も
できるとうれしい。職場で二重障害を目の当たりにしたのでちょっとガクブル。
職場のサーバは RAID5+1だったので問題はなかったのですが。
20:13
07/01/17 12:28:44 jQRUuA4a
ほぼ、単機能のファイルサーバーなんでFSはなんでもいいのですが
Reiserで使ってます。
現状でもHDD6台バラバラに共有してるので隙間が目立つんですよね。
lvm2でボリュームを一つにまとめようかと思うのですが、やっぱ
怖いんですよね。
しかも用途が用途なのでRAID1にするほどでもない、、、でlvm2とRAID5
組み合わせられないものかと。
まあ、RAID5も気休め程度にはしかならない事は承知してますが
精神安定剤みたいなものですね。
21:login:Penguin
07/01/17 16:04:39 dKhI4BNe
RAID5が気休めって、そんなこと言わないでくれよー
やっぱり家庭用でもRAID6必要かな。
すでにRAID5で構築してしまった…
22:login:Penguin
07/01/17 17:23:19 tSbUi+N4
>>21
RAID5は一発でも落ちると綱渡りだからねぇ。
23:login:Penguin
07/01/17 20:54:29 dKhI4BNe
>>22
そうなんだよね。
すでにRAID5でデータ詰め込んでしまったからもうどうしようもない。
ところでRAID5はかなり長い間使っていて信頼してるんだけど、
RAID6のコードって枯れてる?RAID5のコードと一部統合なんて話もあるみたいだから
まだまだ紆余曲折ありそうで仕事に使うのは危険?
24:login:Penguin
07/01/17 22:15:09 pYVzOTz8
どうしても1アレイで大容量が必要という状況でない限り、
RAID1が信頼性、運用コストの面でベストではないかと
思い始めている今日この頃
25:login:Penguin
07/01/17 22:24:09 dKhI4BNe
4台ハードディスクがあるとして、RAID1とRAID6のどっちがいいだろうか?
有効容量はどちらもハードディスク2台分だから同じ。
2台が壊れたときRAID6なら助かるがRAID1なら
壊れ方によっては助からない。
26:login:Penguin
07/01/17 22:34:56 l/++G+GY
1台壊れた時のリビルド中の不良セクタ遭遇も考えると6
27:login:Penguin
07/01/17 23:08:29 dKhI4BNe
やっぱりRAID5からRAID6へのreshapeと
growはできると嬉しいな。
でも作業中に障害が発生して全部吹っ飛ぶなんてのはごめんだけど。
28:login:Penguin
07/01/17 23:18:52 Mb7Fwpgg
データを守ろうとすればカネがかかるわけで、
どのくらいカネかけれるかにもよるな。
まともに運用できるならRAID6は武器になるが、
運用失敗した後のリカバリではRAID1が圧倒的に強い。
セクタエラー程度ならそのままほとんどのファイルを救出できるからな。
29:login:Penguin
07/01/17 23:32:00 NH1vWgwK
RAID6の箱を買えばいいんじゃないか?
30:login:Penguin
07/01/17 23:33:48 to65kYg+
>>29
個人で買ってもよさげな価格帯の物ってある?
31:login:Penguin
07/01/18 08:03:42 CGK1nL0s
>>23 ソフトウェアRAIDの話?
RAID6(HDD11発と4発)を1年ほど使ったけど、RAID6側の問題は特に感じてないよ。
むしろ、同時アクセスによる割り込み処理の問題か何かが効いているような。
CPU/MBをAMD系からIntel系に変えてディスクアクセス関係のエラーが激減した。
32:login:Penguin
07/01/18 17:33:03 fQv5Q68V
>26
どれくらいまでの遅さなら耐えられる?
33:login:Penguin
07/01/19 13:45:34 Gws+Pgem
ネットワークでつながっている別のマシンの
パーティションを使ってRAID・・・って無理かww
34:login:Penguin
07/01/19 13:52:18 8Avse/mS
>>33
nbdをどうぞ
35:login:Penguin
07/01/19 14:10:33 Gws+Pgem
>>34
ふ~む、そういうものがあるのか。
古いノートパソコンをもらったんで
自宅鯖にしてみようと思ったんだけど、
ディスクは一台しかついてないから
RAID1にできないなぁ、でも横のファイルサーバの
余っているディスク領域をネットワーク越しに
ブロックデバイスとして見せかけられれば
それ使って md の設定できないかなぁ、なんて思った。
36:login:Penguin
07/01/19 14:15:42 i9bLknZd
>>35
AoEおすすめ
37:login:Penguin
07/01/19 14:23:19 Gws+Pgem
ATA over Ethernet なんてものもあるのか。
それなりに Linux ずっと使ってきたのに、
まだまだ知らないものがあるんだなぁ・・・
単に俺が勉強不足なだけかも知れんが。
38:login:Penguin
07/01/19 15:03:55 T0ADJeSd
ATA over Ethernet ~そしてiSCSI~
39:login:Penguin
07/01/20 01:43:14 eR+5JFV/
秋葉まで見に行こうかと思ってるんですがRAID製品が
豊富な店とかってあります?
横浜のヨドバシにいったら、「RAID」が何かすらわからない
店員の上に、しょぼいカードが一つあるだけだったので…
40:login:Penguin
07/01/20 02:21:50 9XDpbJRu
USER'sSIDE 高いが品揃えは多い
DOSパラ(一部店舗?) 最近は3wareとか置いてるらしい
PCSERVER1 otto系列のサーバ屋、ARAIDとか扱ってる
まぁ、メジャーな店だと何も無いわな
41:39
07/01/20 08:43:18 eR+5JFV/
>>40
ありがとう。いってみます
42:login:Penguin
07/01/21 02:09:27 IoD8SZQl
URLリンク(www.ussg.iu.edu)
2.6.19.2のRAID5ってやばいの?
43:login:Penguin
07/01/21 11:43:08 2HWPh1+Q
>>42
うぉ、ガクブル。
44:login:Penguin
07/01/21 16:40:50 L1NhTi/1
外出だったらスマンが、mdadmでRAID5のreshape(OCEのようなもの?)
ができたので報告。
環境:fedora core 6、kernel2.6.18-1.2869.fc6、mdadm v2.6(ソースからコンパイル)
RAID:/dev/md0、RAID5、HDDx3、ext3
1. 既存のRAID5にmdadmでオンラインのスペアディスクを追加
2. mdadm --grow /dev/md0 --raid-disks=4
(ここで念のためRebuildが完了するまで放置)
3. resize2fs /dev/md0
3の部分がちと怖いのでバックアップは忘れずに。
それとテスト環境でやっただけなので、まだ何か落とし穴があるかもしれん。
ご利用は自己責任で。
このあとfc4の本番環境でもやる予定だす。
45:login:Penguin
07/01/21 21:33:42 2HWPh1+Q
>>44
報告乙。もともとディスク数3だったのを4にしたんだね?
いままで RAID1 でしかディスク数の grow はできなかったんだよね。
resize2fs って怖かったのか、どんなファイルシステムでもリサイズは
全てを失うことがありそうで怖くてまだやったことない。
46:login:Penguin
07/01/21 22:09:47 L1NhTi/1
>>45
どもデス。乙と言ってもらえるとうれしいもんですなw
そうです、ディスク数を3本から4本、それと同時に容量もアップしました。
ちょっとわかり辛かったですね、スマソ。
>全てを失うことがありそうで怖くてまだやったことない。
激しく尿意w
なもんでテスト環境でしかまだやってまへんです。
47:login:Penguin
07/01/21 23:21:55 g+NGJWvd
>>44
報告thx!
1イベントとはいえ、こういう生の情報が、2chってかんじで好き。
48:login:Penguin
07/01/22 10:47:09 PELFx8lh
でも匿名で書くとラジオのアナウンサーに
首くくれって怒鳴られちゃうんだよな・・・
【ラジオ】コンちゃんこと近藤光史がラジオ番組で
「2ちゃんねるユーザーは『首くくれ』『人間として価値が無い』」と発言
スレリンク(dqnplus板)
49:login:Penguin
07/01/22 13:12:45 PELFx8lh
カーネル入れ替えたときとか、もしバグでアレイが全部
吹っ飛んだらどうしようってすげぇビクビクする。
せめてデバイス丸ごとリードオンリーにして
アレイが問題なく構成できてファイルシステムにも
問題がないことをチェックしてから書き込みを許可できればなぁ。
数テラバイトが吹っ飛ぶなんて悪夢だ。
50:login:Penguin
07/01/22 16:03:33 2B3NlAcw
なんつーか、ファイルシステムとかRAID関連のバクはあまりにも
致命的すぐる。
それ以外のパッケージはunstableでも物ともせず使ってるが、
こればっかりはなぁ。
51:login:Penguin
07/01/22 17:47:34 V25cnwwm
>>48
新聞だってテレビのニュースだって、ほとんど匿名記事じゃないか。
アメリカに行って、テレビや新聞の記事が、記者の署名付きなのに感心した。
>>50
すげーちっさいテスト環境でテストしてから、メイン環境に使えば良いんだけど、
ちいさい環境だと問題が出てこないバグもあるからなぁ。
RedHat様やSuSE様やらを信じるしかありませんな・・・。
52:login:Penguin
07/01/22 17:54:44 PELFx8lh
>>51
うん、特にオーバーフロー系のバグがそうだよな。
昔ループバックデバイスで開始位置にオフセットが
設定できるようになったとき、先頭10KB飛ばして
マウントならうまくいったのに、ハードディスクの
イメージファイルの先頭10GBくらい飛ばして
途中のパーティションの中のファイルシステムを
マウントしようとしたら吹っ飛んだことがあった。
ソースコード見たらオーバーフローだった。
unsigned long で保持していなきゃならないデータを
途中 unsigned で保持している関数があった。
53:login:Penguin
07/01/24 16:00:33 Z+Ac2IS8
mdで構築したraid5があります。
一台のHDDでエラーが発生したのですが、アドバイスをお願いします。
○構成
sda1 + sdb1 + sdc1 + sdd1 + sde1 + sdf1
○不良HDD
sdb1
sdb1が壊れただけなのにCentOS4.4自体の動作が非常に遅くなり
キー入力もおぼつかないので電源を落としました。
次回の起動時に自動的にsdb1への「background reconstruction」というのが
実行されました。
しかしやはりsdb1が悪いみたいで途中で失敗していました。
代わりのHDDがなかったので、hdaに空きエリアがあったのでhda4としてタイプfdを
作ったところ、fdiskが再起動しないとパーティションが有効にならないと言ってきたので
再起動したところ・・・md0がアクティブにならなくなりました。
手作業で以下のコマンドを実行してみました。
# mdadm -A /dev/md0
mdadm: only specify super-minor once, super-minor=0 ignored.
mdadm: /dev/hda has no superblock - assembly aborted
見に行かなくてもいいhdaを見に行っているので、fdiskでhda4を消して再起動しました。
それでもやはりmd0がアクティブになりません。
再度mdadm -A /dev/md0を行うと、同一のメッセージが表示されます。
以下続く
54:53
07/01/24 16:01:42 Z+Ac2IS8
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846
すると
mdadm: only specify super-minor once, super-minor=0 ignored.
mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument
となります。
# mdadm -D /dev/md0
すると
State : dirty, degraded
になっており、アクティブになりません。
どなたかアドバイスをいただけないでしょうか?
55:login:Penguin
07/01/24 18:13:34 yaoVJouN
--run --force
56:53
07/01/24 18:45:52 Z+Ac2IS8
>>55
的確なレスありがとうございます。
以下のコマンドで復活できました。
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846 --run --force
fsckも通りマウントが正常にできました。
生半可な知識でRebuildせずに、まずはバックアップを取ってからアクションを取りたいと
思います。
57:sage
07/01/30 00:14:05 FqKDfkvN
Raidのリカバリで使うcpuパワーを上げ下げするコマンドを忘れてしまいました。
たしか、
echo ・・・・・>/proc/mdstat
とかそんな感じで設定するのだったと思うけど・・
どなたかご存知ありませんか?
58:login:Penguin
07/01/30 00:24:12 z0mWjF4o
エラー無く動いているmdにスペアディスクを設定したいと思います。
以下のコマンドラインで大丈夫でしょうか?
# mdadm --manage /dev/md0 -a /dev/sda1
59:login:Penguin
07/01/30 02:20:02 R4Zg6UYv
だれか
AMCCの 3ware 9650SE SATA II ハードウェア RAID コントローラ
そのまま動いている人いる?
CentOSインスコ中にエラーで止まる orz
(パーティーションきるところで)
60:login:Penguin
07/01/30 07:29:29 axnxJ40m
>>57
/proc/sys/dev/raid/speed_limit_max ?
URLリンク(www.die.net)
61:58
07/01/30 07:45:15 z0mWjF4o
自己解決しました。
その手順でOKでした。
62:login:Penguin
07/01/30 23:19:58 bAqM0WLs
nForce430とか61PとかでSATAでFake RAID
使っている人いませんかね?
人気ないのかな?
63:62
07/02/03 21:35:50 BVcNdfG1
過疎ってますので自作板に移動します。
64:login:Penguin
07/02/06 15:02:39 t9fdHqTH
ソフトウェアRAID1でランダムリード性能は向上するものでしょうか?
わかるかたいましたらおしえてください
65:login:Penguin
07/02/06 15:20:14 5Kb3UM8n
実装によるし、アクセスパターンやタイミングにもよるようだ。
LinuxのソフトウェアRAIDではやや向上する事もあるが、全く効果がないときもある。
実際に動かして測定してみれ。
66:login:Penguin
07/02/06 21:45:49 +WLVKn/X
RAID5のアレイにもう一つディスクを足してRAID6に出来ないものですかね。
67:login:Penguin
07/02/08 18:02:09 FCZCQ0FS
>>59
Debian etch(kernel:2.6.18-3-amd64) で使ってる。
自分の場合は / で使うつもりはなかったから、OS インスコ してから
ドライバコンパイルして元々の 3w-9xxx.ko と入れ換え、
マウントしていまんとこ普通に使えてる。
そのままだとたしかに認識してくれなかったなぁ。
対応鳥じゃないとインスコ時の正常動作は無理かも
最近 Linux 使いはじめた人間なんで、詳しい対応策書けなくてゴメンヨ
とりあえず報告だけ
68:login:Penguin
07/02/10 16:50:10 ptuSH4++
リムバ+Software RAIDでホットスワップするときって、hdparmでHDDを
スピンダウンさせてからリムバの電源を切る方が安全だよね?
69:login:Penguin
07/02/21 20:45:48 HkfANAOw
RAID5からRAID6へのアップグレード(?)ができればいいのになぁ。
70:login:Penguin
07/02/23 20:26:40 ArHTYZC9
RAIDって速度の違うドライブを使えば、速度の遅い方に足引っ張られるという認識で正しいですか?
71:login:Penguin
07/02/23 22:09:23 obdKOU01
スーパーマリオブラザーズ
URLリンク(www.youtube.com)
72:login:Penguin
07/02/24 03:31:20 jErYcOQJ
>>70
正
73:login:Penguin
07/02/24 15:09:12 MbL5jte/
RAID6ならRAID5+スペアディスクのほうが良いだろ。
74:login:Penguin
07/02/24 17:45:18 ZgJOy0Gl
二重障害に対応できない。
75:login:Penguin
07/02/24 18:22:06 MbL5jte/
RAID6のひとって、スペアディスクつけてるの?
76:login:Penguin
07/02/25 12:51:24 EPXHhgqo
付けないなら4-Way RAID1やるよ
77:login:Penguin
07/02/26 02:05:00 W3wudzvE
>RAID6のひとって、スペアディスクつけてるの?
遠隔地サーバーならともかく、自宅鯖の場合壊れたら
即交換できるからRaid6はいるけどスペアはいらない
と思っている、12WaySoftRaid6の俺
78:login:Penguin
07/02/26 10:00:23 dEzBE57o
RAID5 と RAID1 を比べて、スループットと
シンプルさ、何かへんなことが起きたときの
サルベージの可能性という点から考えての
「RAID1のほうが優れている」という主張には
同意できるんだけど、「RAID6よりRAID1の方が
優れているという主張っておかしくない?
たとえば URLリンク(www.13hz.jp) とか
RAID1だとスペアに切り替わるときにはエラー無く
当該ディスク(の片割れ)からすべてのデータが
読み出せるということが前提となっているわけで、
二重障害ということを考えていないんじゃないだろうか。
ディスクが二台壊れるという場合を考えると、
その壊れ方によってはRAID1では復旧できない。
79:login:Penguin
07/02/26 12:57:37 mtS8QI8m
>「RAID X のほうが優れている」
そもそも単一の基準で全てをカバーできるなら
こんなにいろいろな種類は存在してないよ
だからそういう主張自体無意味だし反論も無駄
80:login:Penguin
07/02/26 13:17:37 C16dA1y2
> ディスクが二台壊れるという場合を考えると、
> その壊れ方によってはRAID1では復旧できない。
二台とも完全に逝った場合はどうしようもないが、
セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。
アレイの台数が増えれば、どれかが壊れる確率もそれだけ上がるし、
最小構成の2台でデータの保持ができ、
定期的なエラーセクタスキャンでほとんど回避できるとすれば
わざわざRAID6に突貫して自滅する必要も無いだろう。
RAID6で処理が複雑になる分、バグ等の問題が無いのかと考えると現時点では微妙な気もするし。
81:login:Penguin
07/02/26 23:28:29 VI1vlLsi
だよな。
俺たちのレベルだと、raid1+定期バックアップってのがいちばんよさそうだな。
読み書きの速度も落ちないしな。
RAIDコントローラの故障も考えると、ソフトウエアRAIDのほうがいいかもしれん。
最近のBIOSのRAID+dmraidでも、チップセット変わったら読み込めないよな?
82:login:Penguin
07/02/27 00:35:02 3idNzfzC
うむ、多少遅くても md が一番安心。
同じ(もしくは互換性のある)コントローラ積んだ
RAIDカードがいつでも入手可能であるとは限らないし。
83:login:Penguin
07/02/27 04:27:20 hjhB7IjX
自分はRAID6(スペアなし) + 定期Backupですね
ネット越しにしか使用しないので読み書き速度は遅くても全然平気
むしろ、データの保全性のほうが重要なんで、ハードRAIDは
今までの経験で壊れる頃には同じ仕様のハードを手に入れるのが
困難になっているので、使わない
>二台とも完全に逝った場合はどうしようもないが、
>セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。
疑問なんですが、二台のデータのうちどっちの保持してるデータが正しいってどうやって分かるんでしょう?
Raid5,6ならパリティで分かるけど・・
84:login:Penguin
07/02/27 09:44:41 3idNzfzC
>>83
読み出せたら正しい、正しくないものは読み出せない、
ということでそれ以上はあきらめるしかないだろうなぁ。
ハードディスクのセクタを記録するときにつけられている
であろう Error Detection Code (CRCとか?) を
すりぬけて正しくないものがたまたま読み出せてしまう
ということも実際にはあるだろうと思うので、それはあきらめる。
ファイルごとに Tripwire みたくハッシュを取って置いて、
つじつまが合うように正しいと思われるほうを選択する
という手もあるだろうけど、現実的じゃない気がする。
85:login:Penguin
07/02/27 10:33:59 mCUslleJ
>80
理屈はその通りだし、高級機ではそうしてくれるのかもしれない。
が... 現実はこういうヌケ作実装の多いこと:
一カ所セクタエラーが見つかると "障害あり" status に移って
もう片方から全コピーをしようとする。
このときコピー元側の別の部分にエラーがあると... お亡くなり...
86:login:Penguin
07/02/27 14:31:53 3idNzfzC
>>85
そうなんだよな・・・
再び先ほどはエラーがあったディスクのほうからの
読み出しを試みて・・・って言う具合にはしてくれない
実装も多いんだよね。
まぁ dd で交互に手動でがんばる、ということも
原理的には可能なんだろうけどね。って、
そういうツールを書けという話もあるが。
87:login:Penguin
07/02/27 16:39:51 QhBLHNeL
だからパーティション分割して細かいmdをいくつか作り、LVMで束ねる
88:login:Penguin
07/02/27 19:17:56 hjhB7IjX
mdの上にLVM・・ストレージのコントロール層を増やすごとにバグとかで
ボリューム結合できなくなる可能性が増えるきがする・・・・
昔LVM構成してたpvのヘッダが壊れて全体が読み出せなくなった悪夢が・・
(手動でヘッダを偽造してむりやり結合したけど)
89:login:Penguin
07/02/27 19:52:19 c7Z/JEvk
3w 9650のpci-exp版動かしてる人柱なネ申はいらっさいますか?
90:login:Penguin
07/02/27 21:29:22 iRfrQvRF
うーん、250GB*8のRAID5でext2で1パーティション切ったのは大失敗だなあ。
UPS保護してない時に電子レンジ+ドライヤー+炊飯器攻撃でぷつん。fsckでごりごりやり始めて早、2日間・・・。
1.6TB総なめするのにどんだけかかるんだか見当もつかん。俺アホだorz
無事回復してくれたら、一回データ総待避してext3にするなりLVMで管理するなりしよう・・・。
初心者でTB級のアレイ組む人、マジ気を付けろよー
91:login:Penguin
07/02/27 22:05:44 3idNzfzC
>>90
tune2fs -j じゃだめなん?
ext2→ext3なら特に退避せずに安全に移行できると思うんだが。
俺なんか間違ってる?
92:login:Penguin
07/02/27 23:38:23 vJg7XKnj
>>90 人柱乙! すげー参考になりました。いやまじで。
ほかのファイルシステムにしたらどーなんのかやってみたいw
93:login:Penguin
07/02/28 01:06:12 OKX6DIDl
おれは ext3 で、RAID5(7+スペア)で、 3.5TB以上だけど、
マウント回数と前回のfsckからの時間をみて、
たまに boot 時に fsck でディスク総なめのチェックがかかるよね。
まぁ、しかたねーべ。タイミングはパラメータいじって調整はできるが、とくにしてない。
でも、おれは数時間で終わるけど?
ハードウェアRAIDは読み出しは速いってことか。
94:login:Penguin
07/02/28 01:33:35 KXOqHZSX
ext2でfsckが二日以上かかるなんて話初めて聞いた。
最近はext2自体使わなくなったからなぁ
>>90
ext2→ext3にする場合でも、fsckが必要な状態ではfsckが先だろう。
95:login:Penguin
07/02/28 01:35:24 A1/xdUFc
うちのは250GB*6のRAID5。
ひとつのmd0として作成していて、そのうえにext3を作ってます。
メインメモリが448MBなんですが、たまにboot時に実行されるfsckで
メモリ不足と表示されて途中でmd0へのfsckしくじります。
fstabからmd0外して再起動させて、きちんとCentOSが起動完了して
からでないとfsckが完了しません。
多分、swap有効にする前にfsckが実行されているからかな~と推測
していますが、あまり気にしていません。
今はmd0にLVM作ってlvol分ければよかったと後悔しています。
96:login:Penguin
07/02/28 13:02:00 IgJHr+00
tune2fs -c0 -i0
97:login:Penguin
07/02/28 13:15:09 A1/xdUFc
たしかに起動時のfsckチェックをなくしてやるってのも手ですけど
ちょっとそれも少し怖いような気が。
fsckがswap有効後に実行されれば別に問題ないと思うんですが。
とりあえず仕様ってことであきらめてます。
でもレスさんくす。
98:login:Penguin
07/02/28 13:44:42 1/vmpLar
まだおわんないなー、グラフ表示のオプション付けた時のグラフ表示、何故か100%になった後また0%になってたし、
もしかして何かバグにぶちあたってるのかなあ・・・・。いくらなんでも3日間近くかかるのは変だよね?
>>91
fsck終わったら試してみるです。thx。
>>93
H/Wだと確かドライバとコントローラ側で上手く騙して素通りさせるんじゃありませんでしたっけ?
fsckの層の更に奥で本当のチェックを走らせてるようなイメージで・・・・。
>>95
参考までにお聞きしたいんですが、fsck完了までどれぐらいかかりましたか?
99:login:Penguin
07/02/28 14:04:29 A1/xdUFc
OS起動時のfsckだと、4時間後ぐらいに50%ほど終わってから
「メモリのアロケートができねーよ」
っていう英文吹いてメンテナンスモードになってしまいました。
X上でfsck手動でやった場合は1時間ほどで終わりましたよ。
私のスペックさらしておきます。
P3-500MHz
448MB
P2B-F
Sil3112&Sil3114に250GB*6でmd0(RAID5)作って直接ext3。
100:login:Penguin
07/03/01 18:46:38 08JSMW9W
100もらた
101:login:Penguin
07/03/01 19:42:30 mUhR0CCU
フリーズしたから再起動してみたら
RAIDボリュームはパリティを初期化しています・・・って出たけど何だこれ?
処理すっげえ遅くなるし・・・
なんとかなんない?
102:login:Penguin
07/03/01 19:58:56 NQR7midD
どんな表示か分からないけど
そういう時はじっとおとなしく処理が終わるまで待つが吉
103:login:Penguin
07/03/01 20:07:48 mUhR0CCU
>>102
サンクス
何か右下にHDみたいなアイコンが出てきて青く点滅してる感じなのよ
しかし、おとなしく処理待ちか・・・
下手すりゃ4時間くらい待たなきゃならんのかorz
104:login:Penguin
07/03/01 22:52:23 nupw/141
正常にシャットダウンせんかったら整合性保障できないもんな
105:login:Penguin
07/03/02 00:36:51 eW4eFg7f
fsckがメモリリークとかしてると痛いかも。
fsckって途中で止めてしまっても、
残り=開始前の状態-止めるまでに直した部分
ってなってくれるのかな?それとも
残り=開始前の状態より酷い状態
になってしまうのだろうか?
前者なら思い切ってリセットボタンという手も・・・
106:sage
07/03/02 20:06:18 cqGe228H
どなたかファイバーチャネルでデイジーチェーンした方はいませんか?
107:login:Penguin
07/03/02 21:06:07 gjkd0HI/
一度使ってみたいんだけどなぁ
まともに買うとボード1枚15万とかするので手が出せない。
メリットもわかりにくいしなぁ
108:login:Penguin
07/03/03 12:35:21 70VeM9gA
>>82
デュアルコアになって、CPU(ソフトウエア)でRAIDしたほうが、
じつはパフォーマンス良いんじゃないのか?
とか思う。エロい人教えて。
109:login:Penguin
07/03/03 14:12:15 EzVf6r0L
>>108
デュアルコアでもデュアルプロセッサだろうとメモリとのやりとりをするバスは
RAIDシステムとそれ以外(その他のOSサービス)で共有することになるわけで、
その点でのデメリットは大きいと思う。
110:login:Penguin
07/03/03 21:05:07 70VeM9gA
>>109
だよな。
「やっぱハードウエアRAIDでしょ」と思っていた自分が子供でしたよ。
今はどう考えてもソフトウエアRAIDがいいな。
もちろん、大規模になるとべつだけどね。
111:login:Penguin
07/03/05 00:21:46 KKn14MUG
>>59
centosでインストールできたぞ
対応するドライバを使っていないからHDDを認識できていないと思われる
返信くれれば作業の詳細を書く
俺の場合はCentOS4.4になるが、他も多分大して変わらんだろう
112:login:Penguin
07/03/05 09:01:53 FNbXW+R/
>>109 と >>110 の会話が
かみ合っていない気がする件について。
113:login:Penguin
07/03/05 19:46:05 Bo3y/qbe
中華、思い切り、かみ合って無い、に千俵。
114:login:Penguin
07/03/28 03:48:38 QgViIyaO
ソフトウェアRAID1作ってみた。
ハードウェアRAIDに慣れすぎていると遅くて重い感じがした。
RAIDからブートしようとするとめんどくさかった。メリットは安いだけかも・・・・
で、調べてわからなかったのでちょっと聞きたいんだが、
ソフトウェアRAIDって、ベリファイ(一貫性チェックともいう)未実装?
fsでmount中のパーティションをddで読み出してverifyするわけにはいかんよな・・・・
115:login:Penguin
07/03/28 22:32:56 zDe69L2m
>>114
> ソフトウェアRAIDって、ベリファイ(一貫性チェックともいう)未実装?
お前が作った RAID のことはお前にしかわからないと思うぞ。
116:login:Penguin
07/03/28 23:02:12 9F05PYRT
そういう意味ではないと思われ
117:login:Penguin
07/03/29 19:17:50 2wW+hfh/
>>114
HDD1とHDD2でRAID1ミラーリングしてたとして、
HDD1とHDD2から同じブロックのデータを読み込んだときに、
読み込んだ値が同じかどうかのチェックをしてるかどうかってこと?
してるとは思うけど、もし違った場合どうするんだろうね?
同じ値が得られるまで何回も読み込んでみて、
同じ値が得られないままタイムアウトエラーになったら、
そのままIOエラーとして返すとかかな?
その場合、HDD1とHDD2のどっちの値が正しいのかどうやって知るんだろうね?
HDDからエラーが返ってくれば分かるけど、
必ずしもエラーが返ってくるとは限らなさそう。
誰か詳しい人教えて~。
しかし、ZFSはFSでチェックサム持ってるから強いね。
118:login:Penguin
07/03/29 23:14:05 ykGgWiUN
>>116
じゃあどういう意味が説明してくれ。
>>117
HDD は、セクタ単位でデータが正しいかチェックする仕組みを持ってるから
どっちのデータが正しいかはわかる。
(何らかの不具合で) 両方の HDD から正常に読み出せたデータが不一致だっ
た時の処理は作った人に聞くしかない。
119:login:Penguin
07/04/05 23:40:05 nDPSs4fG
ソフトウエアRAIDのraid1で、3台のミラーってできますか?
120:login:Penguin
07/04/06 05:16:34 KpdA9UKj
ソフト次第です。
121:login:Penguin
07/04/06 21:25:17 g0fQ3ChS
>>120
そりゃそうでしょうね。
122:login:Penguin
07/04/08 10:00:54 86gp4iQZ
はやくダブルパリティ版RAID-Zをつかいたいー
ところで玄蔵x4とかのeSATAを分岐させる箱はLinuxで使えてるの?
123:login:Penguin
07/04/16 20:46:11 /KluuheB
HDD4台でSoftware RAID10
Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?)
ってCentOSのインストールでやろうとしてもできないよね?
mdadm使わないとできないよね?
124:login:Penguin
07/04/16 20:47:21 0mxiBl50
どうしてハードウェアRAIDにしないの?
宗教的な理由?
125:login:Penguin
07/04/16 21:05:40 /KluuheB
カード買う金ねーもん。。
126:login:Penguin
07/04/16 21:11:36 LpIK41OU
ハードウェアRAID買って、カードが壊れたらどーすんのよ。
予備でもう一枚買っとく?
127:login:Penguin
07/04/16 22:10:47 pbo5v1pa
二重化する。
128:login:Penguin
07/04/18 18:34:31 3M95DZbq
ソフトが壊れる可能性を考えないのが不思議。
129:login:Penguin
07/04/18 23:12:53 hmudUlPg
カードが壊れる可能性と、ソフトが壊れるwwww可能性ってどっちが高いよ?
釣られた?俺?
130:login:Penguin
07/04/19 01:35:19 SWHw1ugZ
>>129
ソフト的(論理的)に壊れることも結構ある。
RAIDカードのドライバが案外いい加減なんだよね。
ホントの高級機はさわったこと無いので分からないけど。
131:login:Penguin
07/04/19 01:57:37 1Q3DqUtt
メモリ逝かれてるんちゃう(藁)
132:login:Penguin
07/04/19 04:25:49 lhKQmjpD
ソフト的に壊れないものだと思っているの?
結局はちゃんとした試験をしたものの信頼性が高いが、
LinuxのソフトRAIDがどれほどの試験を受けているんだ?
ちゃんと試験をパスしたハードウェアRAIDの方がまし。
ドライバがタコだと意味ないが、大抵クリティカルな用途では
ハードウェアRAIDが使われているからそういう用途のRAIDカードは
ドライバもよくできてる。
133:login:Penguin
07/04/19 04:42:48 1Q3DqUtt
それは壊れるんじゃなくて、はじめからバグがあるってことだろ。
意味が全然違うじゃん。
134:login:Penguin
07/04/19 06:44:01 QdpW4zuB
>>132
うん十万もする RAID カードのファーム不良でデータ飛ばした奴もいるけどな。(w
品質はハード/ソフトの違いよりかけられる金に比例するよ。
135:login:Penguin
07/04/19 23:20:50 xAH8B/OD
コネクタ・ケーブルの接触不良の類 > デバイスコントローラーの安定性 > ハード・ソフトの違い
ハードRAIDの心配する奴に限って、電源容量不足だったり、拡張スロット全部埋まってたり、
トラブルの原因になるような物を抱えてたりするからな。
「RAIDなんて危なくて仕方ないじゃないですか」は名言
136:login:Penguin
07/04/21 03:03:27 CyliSnvd
> 2.6.16.40(2月10日)
> ・md/raid1:raid1でrepairが動いていなかったのを動くようにする
どこでエンバグしたのか、そもそも入っていなかったのか・・・・
137:login:Penguin
07/04/21 23:05:20 tkUNTSZw
皆様質問です!
Linux でハードウェア RAID1 は何年も管理してるんだけど、
このたび初めて mdadm で RAID1 を構築しようと思ってます。
で、同じハードディスクを 2 台用意してミラーリング、
パーティションは、例えば / と /home に分けるとしたら、
あらかじめパーティションを切っておいて、
/dev/sda1 + /dev/sdb1 = /dev/md0
/dev/sda2 + /dev/sdb2 = /dev/md1
とするのが一般的?
それとも、ドライブ丸ごとミラーリングの設定にして、
その上でパーティションを切って、
/dev/md/d0p1
/dev/md/d0p2
とするのが一般的?
一般的というか、「普通はこうだな」とか、
「こっちはこうだけど、こっちはこうだぜ」みたいな意見があったら、
ぜひ教えてください!
138:login:Penguin
07/04/21 23:23:31 1Bn4OOj9
へ~Linuxのmdって
/dev/md/d0p1
/dev/md/d0p2
こんなんができるんだな。
俺的には、LVMを併用するのがお勧めだけど、
LVMを使わない、かつ最初からディスクを全部使わないのであれば、
/dev/sda1 + /dev/sdb1 = /dev/md0
/dev/sda2 + /dev/sdb2 = /dev/md1
とする方がいいんでない?
139:137
07/04/22 22:40:29 +3FVnusb
>>138
thanks!
まだまだいろいろ試してます。
柔軟すぎて困りますねw
140:login:Penguin
07/05/08 06:43:34 v39MavRU
mdadm使ってSATA2.5のハードディスクでソフトウェアraid1したんでうすが、hdparamで測定すると
単体でもraid1でも読み込み速度が59MB/secくらいです。
こんなもんでしょうか?
raid1って書き込み速度が単体と同じで読み込みが倍速近いと思ってたんですが…
141:login:Penguin
07/05/08 07:38:59 AozcXxGK
単体とRAID1とでは読み込み/書き込みともに差がない。
ただ、ソフトウェアRAID1だと、若干書き込みが遅くなる傾向にはある(sync書き込みの場合)。
142:login:Penguin
07/05/08 09:46:36 Yye/G8Wq
初のソフトウェアRAID完了しました。
既存システムをRAID1で組んだのだけど想像以上に面倒だった。
ところで、swap領域って同期させたほうがいいの?
swap まで Linux raid autodetect にしてしまったけど、
そのままでよかったのかな・・・。
143:login:Penguin
07/05/09 00:38:51 SZLDgyq7
私のはファイル保管用の所だけraidにしてるけど、システム自体はraidにしてない。
吹き飛んだら再インストールすればいいやって。
システム部をraid化したんなら、swapもraidにするべきだす。
144:login:Penguin
07/05/09 04:58:51 xXQdi+I9
ソフトウェアRAID1では無理かも知れんけど、
ハードウェアRAID1では読み込み高速化されるものがあるよ
>>140 のケースだと、ソフトウェアRAIDだってことと、2.5インチだってことが足を引っ張ってる気がするな。
HDDが大きくなれば速くなるってわけではないけど、回転数による影響とか意外と大きい
145:login:Penguin
07/05/11 12:22:43 ghbhAoqH
ソフトウェアの RAID0 だとそれなりにちゃんと速くなるんだから、RAID1 でも読み込みくらいは速くなってほしいよなぁ。
146:login:Penguin
07/05/11 13:22:15 QfcwKvji
raid10?
147:login:Penguin
07/05/11 16:22:41 RIJa5Yv3
>145
性能に気をつけている実装なら当然速くなるよ
148:login:Penguin
07/05/12 05:52:15 ZsVZjbK0
>>147
md サブシステムは・・・ってことか・・・
149:login:Penguin
07/05/16 20:20:42 Wofqb0v9
md(4)のRAID1の項に
The driver attempts to distribute read requests across all devices to maximise performance.
ってちゃんと書いてあるけどな
150:login:Penguin
07/05/18 21:32:04 QMx07kDX
書いてあるけど、そのとおりになってない。
設定項目とかも見当たらないしなぁ。
151:login:Penguin
07/05/19 02:48:30 bPpyS5/5
>設定項目
おまえあほだな
152:login:Penguin
07/05/19 12:22:57 hG3gQkhb
>>151
何かあるかなー、と思って md と mdadm の manpage、/proc 以下なんかを探してみたけど、
特に設定できるようなものは見つけることができなかったから、そう書いただけ。
あほで結構。
153:login:Penguin
07/05/22 12:29:38 RMtpi8D3
コマンドラインからraidのドライバを調べることってできませんか
centosなんですが
154:login:Penguin
07/05/22 14:47:53 ULbOvhBc
ソフトウェアraidなら
mdadm --version か
mdadm -v でできない?
155:login:Penguin
07/05/22 16:42:47 IzkVC+2e
>>153
/sbin/modinfo raid0
/sbin/modinfo raid1
/sbin/modinfo raid10
/sbin/modinfo raid456
とか
156:login:Penguin
07/05/24 02:56:20 EhbBIrN2
>>155
どうもそれっぽい
ありがと
157:login:Penguin
07/05/28 18:35:42 JVkG/VZ5
新しいディスクをmdadmでRAID1に追加してsyncさせようとしたら、
途中で不良セクタが検出されてfailedされてしまった。
不良セクタが1つでも存在すると構成ディスクとしては使用不能なん?
故障箇所だけ避けたりできるとちょっと嬉しいんだが。
158:login:Penguin
07/05/28 18:44:05 fIlzNq6x
おまいはいったいなんのためにRAID1をつかっているのだ?
159:login:Penguin
07/05/28 19:17:26 AcK8PEIn
>>157
Googleの発表した統計によると
不良箇所が一箇所でもあるとHDDの残り寿命はあとわずか
160:login:Penguin
07/05/28 19:20:50 SCVXxM1y
>>157
なんみょうほうれんげきょう
161:157
07/05/28 20:18:58 JVkG/VZ5
>>158-160
特定の箇所だけでなく、ディスク全体がもうすぐだめぽなのね。了解。
新しいの買って来るか。
162:login:Penguin
07/05/30 02:13:05 kBP+D+YZ
そんなことない
もう一度物理フォーマットをしてだな
163:login:Penguin
07/05/30 02:40:36 +V1y8uwn
e2fsck -c ってどうなんだろう。
少しは延命になるのかな?
ま、焼け石に水ってところだろうけど・・・
164:login:Penguin
07/05/30 10:10:41 DeuYvm7G
>>162
IDEのディスクならOSにエラーがあがってくる時点で
代替セクタ使いきってるよ。
165:login:Penguin
07/05/31 00:34:56 ws8wZind
だから
もう一度物理フォーマットをしてだな
166:login:Penguin
07/05/31 01:23:54 eGl1+68x
>>164
自動交代処理は必ずうまくいくわけではない。
読み出し時の交代処理は、
何度かリトライして読めたら予防的に交代処理を行う、
というものだが、即死している場合はエラーを上げるほかない。
>>165
最近のATAのHDDは物理フォーマットは出来ない。
メーカーのフォーマットツールもゼロクリアしてるだけだ。
ゼロクリアすると不良セクターが交代処理されて見えなくなる。
ゼロクリアした後、またすぐにエラーが出たらもうダメ。
何度ゼロクリアしてもまたエラーが増殖し、いずれHDD全体が死ぬ。
もしゼロクリアする事で幸運にもエラーが出なくなったら、
それは単発的なエラーで、そのまま使っても大丈夫って事。
脳も物理フォーマット出来たらいいのに
167:login:Penguin
07/06/02 00:00:51 nlfNJz/5
>>166
> 最近のATAのHDDは物理フォーマットは出来ない。
> メーカーのフォーマットツールもゼロクリアしてるだけだ。
> 脳も物理フォーマット出来たらいいのに
自分の脳みそゼロクリア頑張れ
168:login:Penguin
07/06/02 20:48:22 UPbjiBU5
URLリンク(www.amazon.co.jp)
中身の薄そうな本だ
169:login:Penguin
07/06/04 14:00:21 E2VeCvlM
今6台でRAID5組んでるんですが
Version : 00.90.03
Creation Time : Mon May 21 01:17:19 2007
Raid Level : raid5
Array Size : 1562842880 (1490.44 GiB 1600.35 GB)
Device Size : 312568576 (298.09 GiB 320.07 GB)
Raid Devices : 6
Total Devices : 6
Preferred Minor : 3
Persistence : Superblock is persistent
Update Time : Mon Jun 4 07:40:31 2007
State : clean
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 1894a7af:0fa76ca5:a7012d86:b60e930f (local to host parple)
Events : 0.207858
Number Major Minor RaidDevice State
0 56 1 0 active sync /dev/hdi1
1 57 1 1 active sync /dev/hdk1
2 8 4 2 active sync /dev/sda4
3 8 20 3 active sync /dev/sdb4
4 34 1 4 active sync /dev/hdg1
5 33 1 5 active sync /dev/hde1
>Preferred Minor : 3
これはどういう意味なんでしょうか?3という数字に思いあたりが無い。
170:login:Penguin
07/06/04 14:12:40 7VwOIeVK
>>169
そのArrayは、md3ではありませんか?
ぐぐってみたら、こんなのが出てたので・・・
URLリンク(lists.debian.or.jp)
171:login:Penguin
07/06/04 14:54:42 E2VeCvlM
>>170
当たりです。Mmd2は2、md3は3になってました。
どうもありがと~
172:login:Penguin
07/07/14 16:31:06 O5DZ0PBR
# なんか書き込みミスったのでもう一回
いまさらかもしれんけど、RAID5のディスク追加reshape成功したので報告
ディスク5台+スペア1台 → ディスク6台
debian etch
カーネルは linux-image-2.6.18-4-i686.deb そのまま
mdadmを2.5.9→2.6.2に入替
173:login:Penguin
07/07/15 21:19:32 CQUpisoj
mdadmでRAID5を構築していたPCが故障した場合、別なPC新たに買って
Linux入れて故障PCからHDD持ってきて復旧させることは出来ますか?
man見た感じだと特にコンフィグファイルに設定保存していないようなので-Aオプションで
復活出来そうな気がするんですが。
174:login:Penguin
07/07/15 22:52:02 G3EMIJfO
>>173
できる。というかこの前やったよ。
Persistent Superblockがあれば、構成ディスクの一つから
# mdadm --examine --brief /dev/sda1
とかやってUUIDを取り出して、mdadm.confに
ARRAY /dev/md0 level=raid5 num-devices=7 UUID=3f760edf:(以下略
というエントリを作り、
# mdadm -A /dev/md0 -s
で再編成できるはず。(-sは必要だったかどうか忘れた)
なお、Persistent Superblockはcreateモードでアレイを作ったら自動でできてるので問題ない
175:login:Penguin
07/07/15 22:53:26 G3EMIJfO
あ、levelとかnum-devicesとかUUIDは環境依存なんで適当に読み替えて
176:login:Penguin
07/07/16 17:17:02 gV6PB3Na
>>174
ありがとうございます。
NAS箱買おうと思ったらけっこう値段が高くてしかも安いやつは組み込みLINUX
で動いているようなので、それならDELLの激安サーバにRAID組もうかと思っているところでした
177:login:Penguin
07/07/16 18:19:08 93uGqOVD
激安サーバは品質も激安だから気をつけれ。用途とか稼働状況によるけど。
178:名無しさん@そうだ選挙に行こう
07/07/29 00:41:14 gZaay99H
すみません、ちょっと確認させて下さい。
現在以下の構成でRAID試行中です。
sda -> システム領域(/boot,/var,...)
sdb,sdc -> データ領域(softwareRAID1,/dev/md0)
仮にsdaが故障しHDDを交換後にOSを再インストールした場合
再インストール後に /dev/md0 をマウントしてやれば復旧可能との認識でOKでしょうか。
179:名無しさん@そうだ選挙に行こう
07/07/29 01:37:20 7VEmexdu
OKです。
実際に現状のままインストーラーを起動してみたら分かるけど
DiskDruid(だっけか?)で、md0を自動認識してどこにマウントするんよ?って
聞いてくるよ。
試してみ。
180:名無しさん@そうだ選挙に行こう
07/07/29 03:03:25 mtNCtsXl
ディストリが不明だが、たぶん可能
セットアップで表示されなければ、raidtoolsとかmdadmあたりのパッケージを使うとできる
181:178
07/07/29 09:21:50 gZaay99H
>>179
>>180
有り難うございます。先ほど試してOKでした。
(ちなみにCentOS5 x86_64です)
インストール時にsdaのみパーティション編集し、sowtwareRAID領域はそのままに。
完了後に自動マウントされていませんでしたが、適当にマウントしたらデータが表示されました。
softwareRAIDってOS消したら一緒に・・・っていうイメージが強かったのですが、
そんな事はなく結構融通が利く利用方法なんですね。
182:login:Penguin
07/07/29 22:34:19 R/Kcw7Zr
スマン、教えてくれ。
遠隔地で動作してるマシンなんだが、ディスクを予防的に交換したい。
だが、ハードウェアの仕様がどうなってるのかわからず、PATAなのか
SCSIなのかすらわからん(SCSIにもいろいろあるだろうし)。時期的に
SATAはないだろう、ということがわかるぐらい。
また、おいそれとrebootできず(いやま最後の手段でとなればやりますがね)
boot時のログもrotationの彼方に消えさってる。
Debian sargeで動作してて、lspciの出力は以下の通り、という状況で、
このディスク交換に何を持っていけばいいか(つまりこのドライバで
動作しているカードに剌さるHDDの規格は何か)判るエスパーはおらんかいの?
0000:02:01.0 RAID bus controller: Adaptec AAC-RAID (rev 01)
183:182
07/07/29 22:42:11 R/Kcw7Zr
大事なコト書きわすれてた。kernelは↓です。
2.4.25-1-386 #2 Wed Apr 14 19:38:08 EST 2004 i686 GNU/Linux
184:login:Penguin
07/07/30 01:07:51 uYcTNOic
hdparmで情報とれるかも
185:182
07/07/30 08:03:42 vntdpIjG
# hdparm -I /dev/sda
/dev/sda:
HDIO_DRIVE_CMD(identify) failed: Inappropriate ioctl for device
手元のSATAノートだと取れたんだけどね...
ありがと。
186:login:Penguin
07/07/30 08:22:43 wIebROn1
>>182
RAIDのコマンドラインユーティリティ経由で取れるのでは。
/dev/sdaだとRAIDアレイ全体を指してしまうので、ディスク一つずつを見るには
専用のユーティリティを使うしかない。
3ware系だとsmartctlが使えるんだけどね。
187:182
07/07/30 11:40:32 vntdpIjG
> /dev/sdaだとRAIDアレイ全体を指してしまうので、ディスク一つずつを見るには
> 専用のユーティリティを使うしかない。
だよねー。野良installしてあるので、そういう気の利いたツールがないなぁ。
しょうがないので、二度手間になるのを覚悟の上で現物見てからHDD買いに行きますわ。
しかしまた、ひどい雨だなぁ。
188:login:Penguin
07/07/30 12:59:27 wIebROn1
>>187
野良インストールでも使える専用のコマンドラインユーティリティがあったはずだが。
189:login:Penguin
07/07/31 16:25:45 X79rWaJz
諸先輩方ご指導下さい。Linux初Raidです・・・。
GigabyteのマザーボードGA-G33-DS3Rというのを購入して日立のSATAのHDD500Gを4台購入しました。
Windowsと同じようにBiosでRaidの設定をして4台でRaid10のアレイを作成しました。
ここでCentOS5のインストールを開始するとドライブが見つけられません。
ドライバを入れろと出ますがICH9R用のドライバというのがintelにもgigabyteにもありません。
dmraidというのを使えば良いというのもFAQで見たのですがインストールの最中にdraidを
インストールする方法もわからず・・・。
どうすればRaid10で初期インストール出来るかアドバイス頂戴できないでしょうか。
それともBios raid利用するのは無理なのでしょうか?
190:login:Penguin
07/07/31 16:38:19 ISFmkAWS
苦労の割に全くあわないので素直に「本物の」RAIDカード買え。
191:189
07/07/31 16:46:22 X79rWaJz
>>190
回答ありがとうございます。まったくおっしゃるとおりなのですが
このためにわざわざICH9Rのマザー購入したのでなんとか使いたいのです・・・。
192:login:Penguin
07/07/31 18:01:23 xkQhbYF7
Q. M/BチップセットのRAID機能を使用したいのですが。
A. あなたがRAIDと呼んでいる物は複数のHDDを一つに見せかけているだけです。
実際のRAIDの処理はOS依存のドライバが行っています。
Linuxでこれらを使用するメリットは全くありません。素直に「本物の」RAIDカードを
購入するか、mdadmを使ってソフトウェアRAIDを構築しましょう。
これテンプレにいれようぜ
193:login:Penguin
07/07/31 20:14:40 OSNRGM1l
ほんと、マザーの RAID はさっさと諦めて、カード買うのが嫌なら mdadm 使ったほうが
よっぽど賢いと思うな。
194:login:Penguin
07/07/31 22:50:36 FFZyWM1m
流れのついでに失敗談を一つ。
PMPで400Gx5を外部筐体に入れてSoftware RAIDにしてたんだが、
ドライバのPMPがtjで、Kernelバージョンはほぼ固定だわSATAポートの
エラーは出るわでいろいろ苦労。結局普通のM/Bに移設して安定。
Linuxだと「ハードウェアのためのドライバ」じゃなくて
「ドライバーのためのハードウェア」ってことを思い知った。
ということで、>>193には全面的に賛成だ
195:189
07/08/01 00:08:31 M97nTf9V
M/BとRaidカード注文しました・・・。
無駄な買い物しちまった・・・。
AdapteckのPCIExpressの4xのSATA RAIDカード。
同対応のM/B・・・。どっちも初物。わくわくです。
アドバイスサンクス。
196:login:Penguin
07/08/01 00:44:24 7DvPiLQ6
アダプ…
まぁがんばれ…
197:login:Penguin
07/08/01 00:52:39 M97nTf9V
え、アダプテックだめですか・・・。
安くて対応しているって書いてあるんだけど・・・。
え? してない!?
198: ◆Zsh/ladOX.
07/08/01 01:59:51 eHhNnlyA
漏れならGA-G33-DS3Rのサウスに
・SATAのHDD500Gを4台
・システム用Raptor1台
って感じで組むね。
RaptorにOS入れた後で
500GBのディスクmdadmを使ってRAID構築。
199:login:Penguin
07/08/01 03:09:55 4933EbJu
なんだかんだでSoftwareRAIDは運用が柔軟にできるから好きだなー
専業ファイルサーバにすればパフォーマンスで問題が出ることはあまりないし
と思ったが、どのくらいが標準なのか分からん……6+1台のRAID5で120MB/sって良い?悪い?
TZONEのデモが22+2台で480くらいだったような気がするから、まぁまぁなのか……
200:login:Penguin
07/08/01 09:18:37 A9dQQM9I
>>199
raptor10発で400MB/s overだから、いろいろチューンする
ポイントはあるね。
201:login:Penguin
07/08/01 11:52:08 ryH53nCj
どもです。
「raidが吹っ飛んだ」としか情報のないHDDx4台を知人から預かりデータを取り出したいんですが以前の情報が全然ない上にLINUX初めてなので困り果てています。
DDで代替ディスクに貼り付けUbuntu7入れてGpartedで見ると、
パーティション1 ext2の200MB
パーティション2 スワップ
パーティション3 ext3の80GB(raid)
ただしGparted上でHDD1台目~3台目までのパーティション3はパーティション形式が不明になっていてraidフラグだけが立っている。4台目はext3で認識している。
またパーティション1内にraidtab等のファイルがあったこととその記述から
raidtoolsで組まれたRaid5
md0として作られたこと
4台のディスク順番
チャンクサイズ 4KB
ではないかな~というところまでわかりました。
次にRaid5を構成しようとUbuntuのGUIのアプリ追加メニューで検索。mdadmというソフトウェアraidを発見。しかしraidtoolsは見つかりませんでした。
自分にはコンソールからのアプリ追加がわからず、またUbuntuで使えるraidtoolsというアプリがあるのかもわからなかったのでとりあえずmdadmを使うことに。
manを見てmdadm -Aで以前のRaid情報から組めるかも?と思い、ディスクの順番・チャンクサイズ等を合わせてやってみました。
しかしmd0は作成できたものの、フォーマットしなければマウントできない状態です。
マウント時にext3を指定しても蹴られてしまいます。また、構成時にディスク4が自動でリビルドされます。
ここはOS入れ直してでもraidtoolsを使ったほうがよい(少なくともmdadmでは無理)でしょうか?
我ながらアホなハマりかたしてると思いますし、そもそも不良クラスタがあるんでそれ以前の問題かもしれませんが、大事な後輩なのでなんとかしてあげたく。
とりあえずここまでやってみてお手上げで途方にくれています。
どなたか「これやってみれ」的なことありましたらアドバイスお願いいたします
202:login:Penguin
07/08/01 12:36:42 L/GD3i2t
>>201
>「raidが吹っ飛んだ」としか情報のない
なぜ使用者である後輩がRAID構成を聞かない?聞けばわかるだろうに
犯罪者乙
203:login:Penguin
07/08/01 13:13:53 ryH53nCj
>>202
中途半端な説明ですみません。
正確には"後輩の会社の物ではあるが構築したのは既に退社して連絡の取れない元社員"とのことでした。
その構築した元社員が退社した後も、そのまま仕組みも判らずストレージとして使い続けていたそうです。
204:login:Penguin
07/08/01 22:51:42 CuwK9/xJ
> どなたか「これやってみれ」的なことありましたらアドバイスお願いいたします
会社のデータなら「俺には無理だ、しかるべき業者に頼んでくれ。」と言うべき。
205:login:Penguin
07/08/01 23:34:03 4933EbJu
>>200
情報THX。ちなみにその400MB/sってベンチマークソフトは何?
RAID5はパリティつきRAID0だから、簡単のために台数に比例して
性能が上がると仮定するとディスク1台あたり40MB/s。対してうちのは20MB/s。
ディスク単体性能だと50-60MB/sは出てるので、ボトルネックがどこかにあるってことか。
うちはメーカーバラバラの7200rpmドライブだし、アクセスタイムが影響してそうな感じだなぁ……。
# 以上すべてhdparm -tの値
>>204
後で不利な立場にならないように、データ飛んでも責任を問わない旨の
確約を(できれば書面で)得てからやったほうがいいと思う。
206:login:Penguin
07/08/01 23:37:35 4933EbJu
アンカー間違えた
>>204 -> >>203
207:login:Penguin
07/08/01 23:42:33 A9dQQM9I
>>205
URLリンク(www.ussg.iu.edu)
208:login:Penguin
07/08/02 00:14:43 yPG9OgcV
>>204
業者に頼め。ちなみにへたにいぢると復旧不可能になるからな(って遅いか)
209:login:Penguin
07/08/02 00:18:30 0kj7Ceb3
ddで4台そっくり別HDDに移植してから遊ぶけどね
それでも元HDDを触るのは嫌すぎる
210: ◆Zsh/ladOX.
07/08/02 00:23:08 UC5Db89H
>>207
thx.
chunk size以外は設定してみた。
稼働中にやってみたがドキドキしたw
211:199
07/08/02 01:11:37 hhKbt5z2
>>207
ありがとう。試してみるよ。
readahead(hdparm -a)の設定は既にやってあって、
個々のディスクが2048、md0を12288にしたときが一番パフォーマンス出た
212:login:Penguin
07/08/02 01:29:09 6Vyes60Y
Adaptec AIC-7902でRAID5で使い、CentOS5で運用しようと思っています。
RAIDのHDDにエラー等が出た場合、エラーはどのように通知される物でしょうか?
インストールしたのですが、RAIDに関わるような物が全く見つからず困っています。
ほっとスワップに対応しているらしいのですが
エラー通知がどのようにどこにでるのか?
抜く前になにかコマンドが必要じゃないのか?
差し替えた後なにをすべきなのか?
さっぱりです…。本屋に行ってもソフトウェアRAIDの本ばかりで。
これよめ!!的なアドバイスでいいので御願いします。
213:199
07/08/02 03:45:41 hhKbt5z2
ddで測り直したら最初から read 191MB/s write 170MB/sだったよ。
で、stripe_cache_size = 32768 で write 240MB/s に改善
何はともあれ、情報ありがとう>諸氏
>>212
www.redhat.comでAIC-7902で検索したらいくつか出てきた
読む時間なかったので有用かの判断はできてないです
214:login:Penguin
07/08/02 08:20:30 yPG9OgcV
>>212
よく読んでないけど「AIC-7902 監視」で検索してヒットした。
URLリンク(www-06.ibm.com)
215:>>204 俺に言われても...
07/08/02 21:45:41 O4Ixrdfk
>>208
216:201
07/08/03 23:04:28 6EBr4PTX
皆さんレスthxです。
OSをWBEL3に変更しraidtabの設定コピってraidtoolsで組んでみたらイケました。
残っていたconfにはext3の記述だったんですがmd0がマウント出来ず、何故か-t ext2でマウント出来ました。
以上、全データ抽出出来ました。お騒がせしました。
217:login:Penguin
07/08/03 23:31:07 tH0SWKPt
>何故か-t ext2でマウント出来ました。
ログデータ無効で不整合とか
218:201
07/08/04 00:24:17 S6GeDrRU
>>217
LINUX初めてだったもんでいろいろわからないことだらけでして、、、ext2で見れた!!とりあえず全コピー!!って感じです。
それで必要なものは抽出出来ましたんで、また時間が取れ次第ext3でマウントを試して、今回のデータと比較してみようと思います。
しかし今回いろいろやってみて思ったんですがLINUX面白いですね。余ってる自作機をNAS化したくなりました。
ありがとうございました。おやすみなさい。
219:login:Penguin
07/08/09 23:51:58 zBFT+mBQ
1430sa linuxでつかえねー(泣
これ、bios raidと一緒じゃねーかよ・・・。
しかもRHEL4までしかドライバでてないよ・・・。
ごみだ、これ・・・。SCSI時代から信奉してたのにぃ
220:login:Penguin
07/08/10 19:02:43 /oQyNmDJ
AdaptecのRAIDの1xxx系はソフトウェアRAIDだと思って良い
2xxx系になるとaacraidが使えるようになって多少マシになる。
3xxx系、4xxx系とグレードが上がっていくが、
そこまでカネ出すなら他メーカーの方がコストパフォーマンスで優れる
Adaptecの良いところは、大手PC/鯖メーカーのサポートが受けやすいくらい
221:login:Penguin
07/08/10 22:31:08 aqcswtuE
rocketraid買った。
正直昔adaptecのscsiカードのバルク買って
使えなくて泣きそうになったの思い出した。
もうadaptecは買わん。
サポートにあのいい加減な箱の表示なんとかしろとメールしたら
返品規定は以下の通りです、とまったく関係ないページを紹介された。
もう日本からは撤退らしいぞ。
222:login:Penguin
07/08/11 09:25:02 ey8Ocj1d
バルク買っといてメーカに文句言うって... 馬鹿ですか?
223:login:Penguin
07/08/11 11:16:19 m4TVbF7b
超人バルクと呼称します。
224:login:Penguin
07/08/11 11:54:12 qKgKnuHi
>>222
あなたもadaptecのサポート並の日本語理解力ですね・・・。
225:login:Penguin
07/08/11 14:46:12 ey8Ocj1d
頭悪いんだから、金使えよ。
頭悪くて貧乏なら、何もしないでじっとしてろ。
226:login:Penguin
07/08/11 23:13:47 qKgKnuHi
自分の頭が悪いからって逆ギレかっこ悪い
227:login:Penguin
07/08/11 23:16:29 w7ymZznK
まぁ脳みそにHotSpareはないですからね
熱かもしれんから一晩放置推奨
228:login:Penguin
07/08/12 10:15:51 hIATr1xY
>>226
バルクの Adaptec 買って使えなかったから相当悔しかったんだろうけど、
もう見苦しいからやめたら?
229:login:Penguin
07/08/12 22:31:19 IqchY8Zp
バルク買ったのは昔で、今は正規品、ということなんだろうけど、
わかりやすい文じゃないわな。
とは言え、そんなことでくどくど言ってる奴もカッコワルイ。
我慢できずにしゃしゃり出てくる俺が一番ダメ orz
230:login:Penguin
07/08/22 11:21:48 EFe9z8Q/
RAIDセットのパフォーマンスを煮詰めたりしたいのですが
Vista(64bit版)に対応していて容易に入手可能な
このスレ的なお勧めのベンチマークってありますか?
やっぱりCrystalあたりですか?
231:login:Penguin
07/08/22 11:53:19 K7h327Gn
500GBx5でRAID5してたんだけど、足りなくなったから同じ型番のやつを
もう一本買ってきた。
mdadmで追加しようとしたらエラーでできない。
よく見たら、新しいディスクだけ容量がキロバイト単位で微妙に少ない。
いやそりゃ確かにロットは違うけど
ふざけんな死ねマジ本気マジで死ねシーゲート死ね。
232:login:Penguin
07/08/22 12:11:20 K7h327Gn
そんで仕方ないから全部どかしてRAIDを組み直すんだけど、どかす場所がないから
・買ってきたディスク
・既存RAID5を縮退モードにして捻出したディスク
にもデータを退避した。
全部どかし終わったところでRAIDを分解、
各ディスクのパーティションサイズを誤差吸収のため多少小さくして
4本でRAID5を再構築。そこにデータを書き戻し中。
つまり何が言いたいかと言うと、これから500GBx2をOCEってかreshapeで追加するよと。
すげー時間かかりそう。
その後にpvresizeやxfs_growfsもしないといけない。
全部やったことない。うまくいくか謎。
233:login:Penguin
07/08/22 12:33:32 8AaQAQ4Z
>>231
いや、そこは750GBのを買ってくるのが正解だろう、常考。
234:login:Penguin
07/08/22 13:07:18 HuFexOwP
最後尾数十MBは使わない、でFA
235:login:Penguin
07/08/22 22:33:28 dmE2M+ba
500GB買いなおすかな、俺考。
236:login:Penguin
07/08/23 12:47:01 ipe5onr+
>>233
250GBムダになるじゃん
>>234
それしかないね
>>235
同じの買ってきても容量違うんだもん
というわけで全部無事オワタ
500x4本のRAID5に2本追加、mdadmでgrowしたら20時間ぐらいかかったよ。
その後のpvresize,lvresize,xfs_growfsは全部一瞬。超簡単だった。
pvresizeはついこないだまでなかったらしいね。
237:login:Penguin
07/08/23 12:52:27 DTiLiEZZ
>>236
232の作業内容を考えると、容量が無駄になっても
大きいディスクを買うのが安全。
新しく500GBを買ってきても、必要セクタあるかどうかの保証がない。
末尾を使わないのは、最初にRAIDを構築する時の話ならよいが
232の状態でのベストの解ではない。
まぁ好きにしろってことで。
238:login:Penguin
07/08/23 13:23:45 ipe5onr+
>>237
250GBをムダにしてでもっていうのはつまり安全を金で買うわけだ。
しかし、金があったらそもそもmdadmでSW-RAIDなんかしないとも言える。
つまり安全とコストのバランスは人それぞれ。わかってるようだけど。
239:login:Penguin
07/08/23 15:42:55 UNo2KVBv
HDDとか電源とか、部分入替不可のデバイスは買い直しのコストが
馬鹿にならないから若干無駄でも大きめのを買ってるなー。
うちは一度に大きな投資ができないんで、最初400GBで構築して、壊れたHDDから
500GB(そのときのバイト単価最安の容量のHDD)に入れ替える運用をしてる。
400GBが全部入替になるか、全体が容量不足になったら残りを500に入れ替えてgrow。
240:login:Penguin
07/08/23 16:01:49 UNo2KVBv
同じ容量で入替する前提なら、500GBなら少なくとも500,000,000,000バイトは
あることが保証されてる(なかったら詐欺) それを超えないように領域を作れば大丈夫ですな。
ちなみに昔うちで400x5で組んでたときは、↑の方法を使った場合と使わなかった場合の
容量差が60MBくらいだった。
241: ◆Zsh/ladOX.
07/08/23 22:00:49 0GkpxQQg
>>231
御愁傷様でした。
マジ海門死ねだねぇ┐(゚~゚)┌
242:login:Penguin
07/08/24 11:41:49 hDfGbW1b
>>241
べつに海門が悪いわけじゃないだろ。
ただのおまけでしかない容量をいっぱいまで使っていた>>231が悪い
243:login:Penguin
07/08/24 12:08:18 5MHQWA94
十分悪いだろ。
244:231
07/08/24 13:30:51 Gfnf/lpT
せめて/dev/sdaを使わず/dev/sda1とかにしとけばよかったんだけどね。
パーティションを切ってれば同じ容量になったはずなのに、
RAIDデバイスだからパーティションなんかいらねえだろと
デバイスを直でRAIDに組み込んでたからな。ほんとギリギリ一杯まで使ってた。
シーゲート死ねは半分冗談として、いい勉強になったわ。
新しいの
Disk /dev/sdb: 500.1 GB, 500106780160 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes
古いの
Disk /dev/sde: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes
245:login:Penguin
07/08/25 01:44:12 761ThVL/
>>244
パーティションなしでも可能だけど、非推奨になってたはずだよ
要するにブートセクタとかパーティションテーブルの位置にも
情報が書き込まれるわけで、操作ツールとかOSが誤認識する可能性がある
246:login:Penguin
07/08/26 03:17:42 aJidy5wk
ちょっとした疑問
今日日RAID5やらRAID1やらRAID10から構成するディスクを減らす、
Shrinkをサポートしてるものってあります?
247:login:Penguin
07/08/26 22:35:45 jUv9LrSQ
>>246
RAID1は3台から2台に減らすってこと?
2台から1台なら要するに縮退ってことだろうけど……。
RAID5でディスク減らすのは少なくともmdadmだとできないぽい
248:login:Penguin
07/08/27 00:50:01 FohsBbSg
>>247
そそ。
大きめのアレイを組んでやろうかと考えてるんだけど、
のちのちRAID5からRAID10、またはその逆みたいに組み替えとかを考えた場合新しいHDDを用意してアレイを組み直すしかないのかなーと
ディスクの追加はできたりするようなので古いアレイからディスクを削除しつつ新しいアレイにHDD追加していくような使い方ができないもんかと思った次第
改めて自分で調べてみてもそんなものは無さそうですし大人しく組み替えなんぞ考えないで済むような使い方を考えることにしまっす
249:login:Penguin
07/08/27 01:00:12 5IvdN37N
ARECA 1130 で昔調べたことがある。
- firmware V1.38 2005-10-4 + disk 4台で確認。
- 3台以上での 1 は作れない。
- 1+0 を作れるチャンスは少ない。
- 6 を作れるチャンスはもっと少ない。modify では作れない。create するか expand するかで作るしかない。
- 0 は袋小路。
既存 set に disk を追加するのは可能 (expand で)
既存 set から disk を抜くのは不可能
容量を増やすのは可能 (直後に連続した空き領域が必要なだけあるときのみ)
容量を減らすのは不可能
From : To 0 1 1+0 3 5 6
0 Y e e e e e
1 Y M e e e e
1+0 Y n Y Y Y e
3 Y n e Y Y e
5 Y n e Y Y e
6 Y n Y Y Y Y
legends: Y = possible,
e = possible only when expanding raid set,
M = possible only when modifying volume set,
n = impossible
250:login:Penguin
07/08/27 03:48:23 0NURgyjF
データ用に買ってきた二つのディスクをmdadmでミラーリングした上で、
将来的に拡張できるようにLVMでボリュームを作ったのですが、
このディスクを別のマシンに移植したところ、
fstabに書いても自動でマウントしてくれなくなっていましました。
ただし、手動で
mount /dev/vg0/lv0 /hoge
とやると、普通にマウントできるのです。
同じようなことをやったことある方、いませんか?
251:login:Penguin
07/08/27 03:56:46 zngIa5Wq
>>250
fstabのエントリ見せて
252:250
07/08/27 13:38:40 0NURgyjF
>251
ちょっと長い&ずれていて見にくいですが・・・
# /etc/fstab: static file system information.
#
# <file system> <mount point> <type> <options> <dump> <pass>
proc /proc proc defaults 0 0
# /dev/sda1
UUID=883530e2-97cd-4fbf-9cd3-8c26a3cc0b1b / ext3 defaults,errors=remount-ro 0 1
# /dev/sda5
UUID=1aad7882-719b-45a1-9771-7083ff8a9e1d none swap sw 0 0
/dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0
# for samba server
/dev/vg0/lv0 /samba ext3 defaults 0 0
一番最後の行がそれです。移植する前はコレでマウント出来ていました。
もしかすると、起動時のマウントが始まるよりも前にmdadmとlvmが起動しないとダメなのかな。
253:login:Penguin
07/08/27 13:50:53 h0g8ZjPt
>>250
initrdで自動的にmd/dmを構成するようになってないから
254:250
07/08/27 23:29:55 0NURgyjF
>253
正しいのかどうなのか分かりませんが、
mkinitramfs -o /boot/initrd.img-2.6.20-15-generic 2.6.20-15-generic
とやってみたところ、
W: mdadm: unchecked configuration file: /etc/mdadm/mdadm.conf
W: mdadm: please read /usr/share/doc/mdadm/README.upgrading-2.5.3.gz .
というエラーが出てきてしまいました。
ググってみたところ、似たような状況があるようで、
ubuntuのバグか何かかもしれません。
(書いていませんでしたが、ubuntu 7.04を使っています)
結構大変かもしれませんね、これは。
255:250
07/08/28 14:41:02 gj3euneM
とりあえず、ubuntuのフォーラムで聞いてみることにしました。
解決したときは、報告しますm(__)m
256:login:Penguin
07/08/28 15:05:46 oTQiro8t
>>254
その警告は、mdadmを2.5以上にうpグレードしたときに必ずでる。
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
に書いてある通りにすればよい。
ただ、漏れは2.5にうpグレードすると不具合が出て、システムが立ち上がらなくなった。
で、2.4にpinして使ってる。
debianのunstableから2.6借りてきて使うと、不安定だけどなんとか使える。
でも、こわいので2.4使っている。
2.4だとなんの問題もでない。
257:login:Penguin
07/08/28 15:09:35 ZYyaiRGJ
腐ってやがるぜ
258:login:Penguin
07/08/29 19:04:08 tuk6+NpS
>>256
うちは作者のサイトから直接2.6.2落としてコンパイルしたけど
特に問題なかったなぁ・・・debian etch r0
259:250
07/09/10 00:17:52 cnO9RpIQ
結局解決しませんでした・・・
260:login:Penguin
07/09/10 04:21:05 sc4LHtGY
250は最初から他人の話は聞く気が無いのだろ?
そりゃ解決は難しかろうて。
261:nnn
07/09/10 10:23:06 bcnjR5k4
お知恵を拝借したく。
▼環境
CPU: C2Duo 2GHz
HDD: SATA*2 をマザーのエミュレーションでhda,hdcと認識
ディストリ: Scientific Linux 44
kernel: 2.6.9-42.0.3.ELsmp
mdadm: v1.6.0 - 4 June 2004
▼問題点
/=md0(hda2,hdc2) /var=md1(hda5,hdc5) というソフトウェアRAID1
を組んでいるのですが、HDDの入出力が8MB/sしかなく(実質
書き込み速度で4MB/s、resync時の速度同じ)、大量の書き込み時に
プロセスキラーが働き、ひどい時にはOSごと固まります。
HDD ioに関係のないVC切替(Alt+Fx)も重くなります。
固まる例:
dd if=/dev/zero of=/tmp/tmp.dat bs=256k count=4096
SATAをネイティブで使えないチップセットとディストリの相性が
根本原因ではありますが、このハードを使う事情があり、
なんとかしたいのです。
(続く)
262:nnn
07/09/10 10:23:41 bcnjR5k4
>>261 続き
▼打開方針?
RAID層の書き込み速度を制限し、書き込み要求をするプロセスに対し
適切なio待ちを発生させる。
resync時の速度制限は >>60 の方法で解決しました。
60氏にはこの場で感謝の意を表します。
それで、通常運用時の書き込みでも speed_limit_max の要領で
速度制限できれば解決すると思うのですが・・・
263:login:Penguin
07/09/10 10:30:56 FRmNxXcA
>>262
IOを発生させないようにする。
SATAカードを挿す。
ところで、おまいはそのマシンのユーザなのか、
業者で設定だけすればよいのか?
264:261
07/09/10 12:18:57 bcnjR5k4
>>263
自家用鯖です。
7台買っちゃった・・・ のはいいとしても、うち4台投入済みで、
どうしたものかと。
> IOを発生させないようにする。
それはそうなのですが、鯖なので「IOは客次第」というのも事実です。
で、リミッタを掛けられないものかと。
> SATAカードを挿す。
検討はしますが、どれが使えるやら・・・
ICH8上でSATAを使える鳥を探したほうが速いのかしら?
265:login:Penguin
07/09/10 12:24:15 FRmNxXcA
>>264
ここは正攻法で、SATAドライブを認識させるのがよいのでは。
客に迷惑かけるくらいなら。
update5(2.6.9-55)にして新しいAHCIドライバでマザボの
コントローラがネイティブで認識できないかやってみたら?
URLリンク(rhn.redhat.com)
IOパターンが分かれば、メモリ上に逃す、NFSに逃すとか
やればよいとおもうけど。
266:login:Penguin
07/09/11 03:13:00 1eKow4TN
>>262
>書き込み要求をするプロセスに対し適切なio待ちを発生させる。
IOスケジューラが悪さしてるとか。
# cat /sys/block/hda/queue/scheduler
で確認。deadlineとかになってると、大量IOプロセスがIOキューを占有する可能性がある
267:login:Penguin
07/09/11 07:29:39 Koj2yGIB
IDE互換モードでもDMAに出来ないの?
268:login:Penguin
07/09/11 10:15:48 VARFPXVr
>ICH8上でSATAを使える鳥を探したほうが速いのかしら?
カーネルの問題でしょ?
ディストリ関係ないじゃん?
269:login:Penguin
07/09/11 10:26:53 +giQtmHn
>>268
ディストロに含まれているカーネル(ドライバ)の問題。
270:login:Penguin
07/09/14 13:48:18 Qp7pOiTy
>>269
同じ意味じゃないのか?
カーネルに組み込むかカーネルモジュールとしてビルドするかの違いじゃないの?
271:login:Penguin
07/09/14 13:59:25 LGchwi2d
>>269
No
ディストロがいつのカーネルを収録しているか、
どれくらいバックポートしているか、という意味。
272:login:Penguin
07/09/14 16:17:45 J3tBG9+k
そんなにリコンパイルがイヤなのか・・・
273:login:Penguin
07/09/14 16:58:41 vvlhDw0v
>>272
なんでディストリ利用するかってえとアップデートをオートマティックにやりたいからなので
カーネルがアップデートするたびにリコンパイルするのは確かに嫌だわな
274:login:Penguin
07/09/14 17:34:16 iYDjqHcw
商用だとサポートの対象外になったりするんじゃないのかな?
275:login:Penguin
07/09/14 19:35:57 Qp7pOiTy
>ディストリ: Scientific Linux 44
なんでこのディストリを選んだのか分からんけど
カーネルひとつリビルドするのが面倒でディストリを
乗り換えるほうを選択するって事は元々このディスト
リに拘ってた訳では無いって事か……。
それにカーネルなんて脆弱性が無ければ別にバージョン
アップしても毎回アップデートする必要もないと思うん
だけどねぇ。
リビルドするほうが面倒か、標準のカーネルで使えそうな
ディストリを探すほうが面倒かは本人の自由だぁーっ!
って事でガンガッテくらしあ。
漏れにはICH8が何なのか調べても詳しいことが理解できな(ry
276:login:Penguin
07/09/14 22:01:10 4s3K/OrJ
RAIDスレとしては適切な答えではないかもしれないが
マザボでエミュレーションとかしないで
普通に新しいディストロをインストールして
その上でVMware Serverなどを使って
Scientific Linux 44を動かすこともできるんではないかと。
277:login:Penguin
07/09/15 10:03:03 us6rkrJ5
何の為だかもわからんな
278:login:Penguin
07/09/15 18:16:51 W+7omWYo
ソフトウェアRAIDを組み合わせてRAID50を構築することってできますか?
279:login:Penguin
07/09/16 12:26:33 z8cQ3GjF
余裕で
280:login:Penguin
07/09/16 12:41:28 quamL2ab
できるけど、おススメはしない
281:login:Penguin
07/09/18 23:19:28 JnRQfMu1
>>260
かなり遅レス(アク禁でして)ですが・・・
話を聞く気がないのなら、最初っからききませんって。
いろいろいただいたアドバイスを試して、それでもだめだったんです。
いちおう無理矢理な解決策は見つけましたけど・・・。
そんなことおっしゃらずに、
何か思い当たる方法があるのなら教えていただきたいです。
282:login:Penguin
07/09/19 22:15:18 Lkk29FxI
>>281
何を試したのか分からないけど、
/etc/mdadm/mdadm.confを設定してwarningを無くしてみたかい?
ルートファイルシステムじゃないから、絶対にinitrdで構成しないと
いけない事はないと思うけど。
283:login:Penguin
07/09/21 09:57:43 KtH/rsSr
Avidemuxのreindex系処理でmdadmだけのRAID0でもあてになることに感銘した。
気をよくして、既に遅さにがっかりしきったIO-DATA HDL4-Gに代わって
PCでソフトウェアRAIDでRAID5ファイルサーバーを作る気になっています。アホだから。
PentiumIII-m/1.2GHzのノートPCを使い
RAID5を10GBのパーティションx4(実HDDは2.5インチの二基)で試し
この程度のCPUがあれば、HDL4-Gよりはましな気がしています。
多少はウェブを調べてみましたが、いろいろ調べきれなかったことがあります。
1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?
2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?
3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?
(HDL4-GはGbEを採用しジャンボフレームにも対応しますが…トホホ)
EPIAのC3/1GHz付M/BのPCIx1に4ポートSATAカードを挿すと
オンボードの100BASE-Tで行くしかないんだよなぁ…で踏み止まりました。先日
ただ、一昨日パチンコに少し勝ったので、今日は踏み止まらない気がします(笑)
これは無謀無計画に終わりそうなんでしょうか…
あと、HDL4-GのHDDをそのままPC上に移すことは、理論上不可能か…
HDL4-GのRAID関係仕様を調べてみる価値はあるのか…も気になっています。
5MB/sで700GBを移し替える日が来るわけですし…
284:login:Penguin
07/09/21 10:27:20 l3v0EWvd
>>283
> 1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?
ディスクが多い程アクセス分散でが大きい→高速化
ディスクが大きいほど外周にある領域の容量が増える(割合は増えない)→高速化???
> 2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?
個人的にはファイル鯖はキャッシュ命だと思っているので4Gとか積んでます。
ディレクトリエントリが結構メモリに載るので少なくともその分のシークは減らせるはず。
> 3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?
2~3年前に250x4/RAID5で組んでたときには、100BASEで巨大1ファイル転送で10MB/sくらいは出てました。
285:login:Penguin
07/09/21 16:28:27 SoDKq3bm
スイマセン、質問です。
CentOSでMegaRAID 428を使おうとすると、インストーラが
パーティションを設定するところで、論理ドライブは1つ(RAID1)
しかないのにsda、sdb、sdc……と複数台表示されてしまいます。
インストール開始時にドライバが必要なのでしょうか?
もしそうでしたら、ドライバの入手先等をお教えいただけ
ませんでしょうか?
286:login:Penguin
07/09/22 09:02:04 +d+c9GIe
>>285
つ[MegaRAID 428マニュアル]
287:login:Penguin
07/09/23 10:00:24 XVZYMXtq
/proc/mdstatで[UU]ってなってるのにresyncしてる。
なんだこり?
288:login:Penguin
07/09/23 20:27:26 GZ/+MXCS
>>287
前スレの895の事例は?
895 名前:login:Penguin[sage] 投稿日:2006/11/10(金) 21:39:27 ID:bNIZOw4y
debian-sargeの2.6.8-3-386を使用しています。
久々に電源を入れなおしたところ、
再同期が始まってしまいました。
4つのディスクのどれかが脱落したようにも見えないのですが、
同期外れもなしに再同期が始まるときって
どういう場合なんでしょうか?
>cat /proc/mdstat
Personalities : [raid5]
md0 : active raid5 sdb1[0] sdd1[3] sda1[2] sdc1[1]
732587520 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 4.2% (10416768/244195840) finish=3755.4min speed=1035K/sec
unused devices: <none>
903 名前:login:Penguin[sage] 投稿日:2006/11/11(土) 20:51:30 ID:e3BClQL/
>>895
確か長時間止めてたRaidを起動するとresyncというかチェックが走ったような希ガス
man mdadmあたりに書いてあったような。。。
289:281
07/09/26 16:54:47 R04+ijwq
>>282
mdadm.confをデフォルトからいじってみたのですが、
エラーはなくならず、mdadmのバージョンを下げてみたり、
元にもどしたりしたところ、warningは出なくなり、
initrdもできるようになりましたが、
やはり起動時に自動的にマウントすることはできませんでした。
結局/etc/rc.localに"mount /dev/vg0/lv0 /samba"と書いて、
マウントするようにしている状態です。
ちなみにmdadm.confは、こんなかんじです。
----
DEVICE /dev/sdb1 /dev/sdc1
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=cf98cc9f:54e7b704:3cf3c1ab:04141d7c
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
----
290:login:Penguin
07/09/26 21:32:41 +JTi2+Dv
>281 キミはそもそもマシンの話を聞けてないんだよ :-D
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
は読んだのか?
291:283
07/09/28 01:47:43 zIk+oOYu
>>284
ありがと、参考になります。
ちなみに、いろいろあって衝動買いはまだしていません。
そうこうしているうちにEdenのSATAx4付ITX M/Bの登場を知り
無理すれば買えそうな懐具合で悩んでいるところ…
#半年分、水道代未納の同居人の代わりに全額払ったら
#ちょびっと頼りない懐具合、本来ヲレは電気代全額係なのによぉ
292:login:Penguin
07/09/28 22:30:14 zocg/t++
>>281
起動時のコンソールログを調べてみたら?
LVの認識とマウントのどっちが先に行われているか。
ってUbuntuのデフォルトは/boot/grub/menu.lstでsilentになってるから
出てこないんだっけか
293:login:Penguin
07/10/05 17:39:13 aHTjkmHH
基本的な事で質問して申し訳ないんですが、
RAIDカードを差し替えた場合って、既存のRAID0の構成でまんま使えるんでしょうか。
オンボードの物からRAIDカードに変えたんですが、正常に認識しなくて困ってます…
294:login:Penguin
07/10/05 18:11:53 RN6iC0Sq
そらそーだ
ディスクに書くRAIDメタデータなんて各メーカー独自だ
295:login:Penguin
07/10/05 20:21:44 aHTjkmHH
>>294
それはくまった…
結局めんどくさい手段を取らないといけないということですね。
ありがとうございました。
296:login:Penguin
07/10/05 21:19:49 Bkszhi+D
データを抜いて戻して はい おっぱいぴー! ですね。
297:login:Penguin
07/10/05 21:40:04 1cqRS2HI
>>295
次からはMDでドゾー
298:login:Penguin
07/10/05 22:24:28 sbcHKtJI
>296
誤:おっぱいぴー
正:おっぱっぴー(オーシャンパシフィックピース)
>297
メディアのMDだったりしてw
299:login:Penguin
07/10/07 03:44:25 mpYD9xP7
Debian に sil3124 で ハードウェアRAID5 を組もうと思ってるんだが
情報が少なくて困ってる。(俺のググり方が下手なだけかな)
Debian、sil3124、ハードウェアRAID5 の条件で
ドライバや手順に関する情報あったら教えてくれないか?
300:login:Penguin
07/10/07 09:04:02 rbmirQ/U
URLリンク(linux-ata.org)
301:login:Penguin
07/10/07 11:05:14 mpYD9xP7
>>300
すまん。説明が悪かった。
sata_sil24 があるのは知っていた(一応、このサイトも事前に眺めている)し、入れてみたんだが
これ入れただけだと複数のドライブとして認識してしまうよね
BIOS側のRAID設定を解釈させた上で、1つのドライブとして認識させたかったんで
なにか方法があるかと思って、調べてみたけど見当たらなかったんで聞いてみた
> Q&A
> 3. I have a Silicon Image SATA RAID card. Why doesn't Linux support my hardware RAID?
> A. It's not hardware RAID. It is software RAID, provided by the BIOS on the card.
>>300 は、これが言いたかったのなら、ごめんなさいでした。…コレ見て思ったんだが
sil3124は、BIOS側のRAID設定だろうが、linux側のソフトウェアRAIDだろうが関係なかったりするの?
302:login:Penguin
07/10/07 11:29:27 OlJTro86
関係ないというか、ソフトRAIDカード(RAIDカード上のコードがCPUを使って
必死に複数台に書き込むタイプのRAID)は
・他のカードに切り替えることができない(RAID構成のパラメータ管理方法が違うため)
・Linuxのmdより悪い実装で遅いことすらある
といいことなしなので、単なるSATAカードとして使い、単体ドライブを認識させて
後はmd使えというのが定番の答。md+lvmにすれば途中でディスクを追加・交換したり
するのも自由自在にできる(若干手間だから漏れはmdのみだけど)。
303:login:Penguin
07/10/07 13:53:21 F3d4jqxR
>>302
激しく同意。管理の手間考えるとlvmはねー……。
あと関係なかったらすまんがPortMultiplierは全般に鬼門だから注意
304:301
07/10/07 18:08:00 mpYD9xP7
ageてた…すまん。orz
>>302
ありがとう。よく理解できた
ごちゃごちゃ言わずに md の恩恵を享受することにする
余裕があったら、md+lvm にしてみる
>>303
と聞いたことがあったんで、避けてるよ
心配してくれてありがとう
305:login:Penguin
07/10/07 18:22:51 oxRMUtwe
板で全部やるのはどーよ。
えらい楽だぞ。
どれくらいで故障するのかが問題だな。
それをどうやって検知するのかも問題w
306:login:Penguin
07/10/07 23:48:33 WejonAB/
不良セクターのあるHDDの活用方法ってないのでしょうか?
ext3じゃなくて新しいフォーマットありましたよね
あれでフォーマットしたら不良セクターのあるとこだけよけてくれたりしないのかな
307:login:Penguin
07/10/08 00:28:34 YaM75dRs
つ badblocks
でも寿命間近なHDDではあろうから、使う度胸は漏れにはないな・・・
メモリの壊れたところを避けるbadramパッチとかもあるけど、微妙に貧乏性?>Linux
308:login:Penguin
07/10/08 01:53:48 4P0RdQEd
badblocks設定したHDDをRAID5に組み入れてるけど、
半年くらい問題なく動いてるな。。。たまたまだろうけどw
たまにfsckして増えていないか確認してます。
309:login:Penguin
07/10/09 06:10:00 Zd8jdHw+
raid-1 をやってみようかなぁなんてふと思った今北ですが、
URLリンク(www.linux.or.jp)
これはディスク2つをフォーマットする形になるのでしょうか?
それとも、主ディスクと副ディスクがあるとして、副ディスクをフォーマットして、主ディスクのデータをコピーするような形になるんでしょうか?
ディスク2つをフォーマットするのならどこかデータを一時退避しないといけないのですが、2つは空きディスクもっていないのでムリカナァと。
310:login:Penguin
07/10/09 06:28:28 l7SMboZo
>>309
たぶんraid-disk 0にあるデバイスからのコピーになると思う
あるいは、主ディスクだけのアレイを--forceつきで強制起動しておいて
hotaddとかかなぁ……これだと確実に主ディスクからのコピーになるはずだけど。
どちらもやったことないから保証はできない……
安全側に倒すために、できるなら一時退避(バックアップ)を強く奨めます。
311:login:Penguin
07/10/09 09:42:26 gFNRvPVM
mdadmならmissing
312:login:Penguin
07/10/09 22:37:58 HKV3wXfK
データを失うことの恐怖に比べれば
予備のディスクのひとつくらい安いものさ
313:login:Penguin
07/10/10 13:43:05 6CsTwXc1
raidを使おうとして、データをなくした人も結構いるが。。
314:login:Penguin
07/10/10 13:45:39 keWQBLxK
raidにした安心感でバックアップしてないバカもたこさんいる
315:login:Penguin
07/10/10 14:00:09 c6a7mM5s
>>たこさん
こんにちわ(*>∀<)/
316:login:Penguin
07/10/10 21:22:41 pmWLI9af
たこさんカワユス
317:login:Penguin
07/10/13 23:33:28 eMKVNvrK
すんません、質問です。
debianでmdでraid5を構築してたんですが、他のPCにこのraidを移すとき、/dev/hdb1~/dev/hde1までの順番や位置が入れ替わっても問題ないのでしょうか。
実は取り外したときに順番がわからなくなっちゃって、どうしようか困っているのです。それに新システムの構成上どうしても/dev/hdeからになっちゃうんで、それもどうなのかと。
318:login:Penguin
07/10/13 23:44:08 iOJsc/uY
>>317
Persistent Superblockがあれば問題ない
あるかどうかはアレイ作ったときの指定によるんだけど、最近だと作るのがでふぉだっけ…?
319:login:Penguin
07/10/13 23:58:59 PvWu112N
さっそくバックしてないたこさん登場
320:login:Penguin
07/10/14 00:06:07 HSMNg90n
>>317
mdならHDD内に順番書いてあるよ
321:login:Penguin
07/10/15 20:20:32 w9rgZYRz
HDL4-G1.0のHDDをddで複製して、LinuxPCで読めるか試してみた。
ddで複製って段階で元のHDL4に戻して、正常動作するか不安だったけど
普通のLinuxでCUI操作するぶんには問題無いっぽい。確認後、四基とも複製。
#Windows上のディスク複製ツールだとどうだか知らんよ
で、インストール直後の素のVineLinux4.1のmdadmでassembleできた。
さらに、HDL4では83になっているパーティションコードをfdにすると
Linux起動時にmd0が編成されている…
けど、中がXFSでフォーマットされているらしいのな orz
XFSを使えるっぽいubuntoで試したら…mdadmが入っていなかったorz
今自宅に回線来ていないからapt-getできんのよ。
で、今考え中。VineでXFSを使えるようにするの面倒臭そ…
ちまちま低速なHDL4からLANで新サーバーにコピーするより
直でPCに持ってくほうが速いと思ったんだけどなぁ…
ちなみに、HDL4はDebian GNU/Linuxベースっぽい。
RAID5ホームサーバー製品のCPUボード故障時の復旧のために
こういう機能のある1CD Linuxがあるといいなぁと思った。
322:login:Penguin
07/10/15 22:19:35 G7rWOMJX
>>321
つ RIP
323:321
07/10/16 07:33:42 5m1gOou3
>322
ごめん、意味わかんない。
とりあえずOpenfilerで、なんとかなりそうな気がしてきた。
xfsリペアかけて読めるようになったけど、全部lost+foundに逝っちゃったから
その前に、なんかまずいことやったんだと信じたい。また後日だな。
324:login:Penguin
07/10/16 20:16:00 cgFz1bYo
ubuntuにmdadm入れたとき保存してあったと思うからメールで送ろうか?w
325:login:Penguin
07/10/17 02:54:28 kkrXZBdi
質問があります。
システムは単独のHDD(例:/dev/hda)にインストールし、別途オンボード SATAに
HDD複数台を使って(例:/dev/sda ~ /dev/sdd)
md で RAID md0 を組み、データ領域として mount していたとします。
後日、システムの /dev/hda に、別のディストリビューションをクリーンインストールしました。
このとき、データ領域としてつかっていた md0 は、クリーンインストールしたあとも
しかるべく mdadm.conf を書けば mount できるのでしょうか?
>>317 とほとんど同じ状況です。
うまくいえないのですが、アレイを構成する HDD は、
アレイを操るツールやシステムには依存していないと思っていいのですか?
# 入れ替え前と後で、kernel や mdadm のバージョンが多少違っていても、
# 入れ替え後の mdadm がアレイを認識できれば問題ない?
326:login:Penguin
07/10/17 07:55:08 5hAko6Nc
mdadm.confなんか書かなくても、勝手に/dev/md0として自動認識してくれると思うけど。
そういう質問をするってことは、# cat /proc/mdstatとかしても
/dev/md0が表示されないってことでOK?
327:login:Penguin
07/10/17 09:07:32 TrrqXopo
いつごろ作ったmdかにもよるから>自動認識
ためしにKnoppixとかでブートしてみれば?それで認識すれば無問題。
328:325
07/10/17 10:46:22 Ri74/EYj
レスどうもありがとうございます。
いや、まだやっているわけではなくて、
今:fedora を入れてるマシンがある。データ領域用にHDD4を確保してきたが、まだRAIDを組んでいない
今後:Ubuntu 7.10 が正式リリースされたらクリーンインスコしたい
・さきにfedora上でアレイを組んでおいて、Ubuntu 7.10 が正式リリースされたら
システム用HDDに OS だけ入れ替えて、アレイはそのまま流用、ということをしたい
・あるいは、7.10 はもうすぐリリースされるので、それまで待つ
と考えていました。
どうせ入れなおすので、ちょっとやってみようと思います。
329:login:Penguin
07/10/17 11:13:32 pEeOZTAK
nashのraidautorunが単一バイナリになれば簡単なのにな
330:login:Penguin
07/10/17 13:48:28 XO21wWLP
サイズの違うHDDでraid5ってできるのでしょうか?
80G(新品)x2 60G(古くて死にそう)x1
だと60Gx3に強制的になってしまうのでしょうか?
最初に死ぬのは60Gなのは確実なので60Gx3でない場合でも
問題ないとは思ってるのですが
331:login:Penguin
07/10/18 00:50:16 DgGfsmJx
このスレは mdadm がメインだと思いますが、実用的かどうかはともかく、
mdadm を使わずにマザーのオンボードRAID と dmraid で、Ubuntu で RAID をやってみました。
[自作PC] Linuxマシン用自作PCスレッド 2
スレリンク(jisaku板:473-番)
とはいえ自分は mdadm をやったことがないので、mdadm でやり直してみることにしました。
332:login:Penguin
07/10/18 01:56:40 ZVc4Ky30
>>330
少し頭使えよ
333:login:Penguin
07/10/18 07:59:46 /72Qgdo5
>>330
足りない20GB分は宇宙からのパワーにより補完されるので問題ありません。
334:321
07/10/21 07:06:49 GLuYmvWu
結局HDL4のHDDのdd複製からやりなおして、よけいな操作なしで
mdadm --assembleしてxfsrepairしたのだが、やはり壊れている。
9割くらいは残っているから、ディレクトリ名とか調べて復旧してみたけど
なんか、不安になって、この方法での移行はあきらめた。
RAID5 NASのM/B故障時の復旧手段にはなるかもしれんけどね…
で、今C7/1.5GHzでのソフトウェアRAIDとSRCS14L(2003年もの)でのRAIDが
ほぼ同じ性能で困っている。LAN負荷を伴っても性能差が小さく
SRCS14Lの発熱と、RAIDカード故障時のリスク考えると、ソフトで行くべきか…
C7付きM/BにGbE挿すと、状況が変わる気がするけど
100BASE(via-rhine)では、6MB/s程度しか出ていないんよね。
RAID5自体は、RAID5上の別名コピーで2GBを90秒弱でいけるんだけどね。