08/04/15 23:01:43 Cq5MAw3Q
前スレ9xxあたりで落ちてたよね?
3:login:Penguin
08/04/16 06:30:22 Y1jdT6Vj
手持ちのlogだと995まではあるな。
4:login:Penguin
08/04/18 01:43:54 HK/pyIR9
過疎だねえvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvv
5:login:Penguin
08/04/19 00:59:58 8NrmX72K
特にこれと言った問題もないんだよなぁ(^^;
6:login:Penguin
08/04/19 01:10:29 vQ5Tkj7T
んじゃ、粗悪燃料投下。
今320Gx5台でSW RAID5組んでるんだけど、
1TBのを一台ずつmark failed -> 交換 -> rebuildを繰り返すと、
4TBのRAID5のmdになりますか?
7:login:Penguin
08/04/19 01:41:49 HK/oHEtZ
>>6
それでアレイは大きくなるけどその上のパーティションやファイルシステムは
そのままだから、どうにかしてこれらを拡大しないと使える容量は変わらない
RAID5のリビルドを何度も繰り返すよりバックアップ→1TB5台でアレイ作成→リストア
の方が絶対速いし安全
8:login:Penguin
08/04/19 01:56:33 vQ5Tkj7T
>>7
あ、それはmdを生で丸ごとLVMのPVにしてるので、mdレベルで拡張できればokなのです。
LVMの方はpvresizeでも叩けばよいので。
9:login:Penguin
08/04/19 07:37:10 8NrmX72K
じゃあ俺も
chunkサイズってデフォの64k以外にしてる人居ます?
というかchunkは64でFS側のブロックサイズを変更の方が多そうですが。
巨大ファイル置き場の場合差は出ませんが、細かいファイルが多い場合はパフォーマンスにも影響しますよね。
WinだとよくRAIDとNTFSのユニットサイズを変えてチューンしましょうってな話が有るんですが、Linuxの場合どうなんでしょ。
md使ったサーバのパフォーマンスチューニングの話、あんまり出てないですよね。
10:login:Penguin
08/04/19 20:36:17 VEGs6IkJ
初歩的な質問ですいません
SATAx4をmdadmでraid5組んで使っていたのですが
昨日ぐらいから/dev/sdcのディスクで不良セクタありまっせー って言うログが出るように
なったのですが、mdstatを見る限りデッドにもなっておりませんでした。
この場合、ディスク自身の予備セクタにVOLPATCHされたと考えていいものでしょうか?
11:login:Penguin
08/04/19 21:53:40 iQfZTFD9
いいえ
12:login:Penguin
08/04/25 15:15:19 TvMLl1Gn
Intel ESB2が乗ってるRHEL4鯖でmdraidをテストしました。
raid5,6がこんなに遅いとは知りませんでした。ソフトだからこんなもんなんですかね?
<hdparm -tの結果>
single
*1 83
raid0
*5 406
*4 330
*3 248
*2 166
raid5
*5 240
*4 243
*3 164
*2 82
raid6
*5 172
*4 138
13:login:Penguin
08/04/25 15:18:44 TvMLl1Gn
>>9
でかいファイル扱うのが多いなら、大きめにとったほうが速いって聞きますよね。
試したことはないですが・・・
アホにもサクッとできるチューン方法があればいいんですけど、あんまり見かけないですよね。
14:login:Penguin
08/04/25 15:20:02 zrZvoPLa
今時hdparmの数字を見て一喜一憂するやつのほうがおかしいと思う
15:login:Penguin
08/04/25 15:22:53 TvMLl1Gn
>>14
まずいですかね?
お手軽だけど、そんな変な数字出さないと思いますが
16:login:Penguin
08/04/26 13:17:32 nn6a9nzS
質問です
mdadmでRaid0からRaid5へマイグレーションて出来ますか?
もし出来るなら英語でも構わないので解説の載ってるサイトを教えてください。
17:login:Penguin
08/04/26 15:43:56 eU6+VUpI
>>13
あるサイズのファイルがリクエストされたとき、それがどれほどのドライブに分散されているか、
同時に他のファイルもリクエストされているとき、シーク量合計が少なくなる条件は?と
考えるとアホにもそれなりにチューン出来ると思う >>9
>>15
haparmってことはシングルのシーケンシャルリードを見てるわけだよね。
その性能が必要になる用途って有るの? ってことじゃないかな(笑)
ま、一面はかいま見れるから無駄じゃないと思うよ。
18:login:Penguin
08/04/26 16:34:51 UmJKKnQl
>>16
出来ません
無理にやるなら
(1) RAID1からHDDを1個取り外してdegraded arrayにする
(2) 取り外した1個にもう1個を加えてdegraded arrayのRAID5を作る
(3) RAID1からRAID5へコピー
(4) RAID1を停止
(5) RAID1になっていたHDDをRAID5に追加
普通にバックアップして作り直すのと大差ない手間とリスクw
19:login:Penguin
08/04/26 18:00:53 nn6a9nzS
>>18
ありがとう。ケチらずにもう1個HDD買ってきますw
20:login:Penguin
08/04/26 22:03:17 hYYsRbcz
質問は0→5で回答は1→5?
0→4ならパリティ計算だけ独立に出来ればいけそうと妄想
21:login:Penguin
08/04/28 00:04:43 gqQLtA13
RAIDを始めてみようと思うのですが質問させてください。
OSとゲームを入れるディスクをWDの320Gを2つで、RAID0しようと思ったのですが
RAID0は、壊れやすいようでやめた方がいいといわれました。
そこで、RAID0+1なるものがあると聞いたのですが
こちらはHDDいくつで構成できるものなんでしょうか
22:login:Penguin
08/04/28 00:22:10 /KbnXwpt
>>21
,.-─ ─-、─-、
, イ)ィ -─ ─- 、ミヽ
ノ /,.-‐'"´ `ヾj ii / Λ
,イ// ^ヽj(二フ'"´ ̄`ヾ、ノイ{
ノ/,/ミ三ニヲ´ ゙、ノi!
{V /ミ三二,イ , -─ Yソ
レ'/三二彡イ .:ィこラ ;:こラ j{
V;;;::. ;ヲヾ!V ー '′ i ー ' ソ
Vニミ( 入 、 r j ,′
ヾミ、`ゝ ` ー--‐'ゞニ<‐-イ
ヽ ヽ -''ニニ‐ /
| `、 ⌒ ,/
| > ---- r‐'´
ヽ_ |
ヽ _ _ 」
_________∧__________
URLリンク(www.google.com)
23:login:Penguin
08/04/28 03:31:37 EGlC5N3Z
>>21
3台以上
24:login:Penguin
08/04/28 07:56:15 0k5NUecK
>>21
ばかだなー
0+1=1 にきまってるじゃん
25:15
08/04/28 13:14:56 RmVAke7d
>>17
数十GBのファイルを扱いまくる科学技術計算系の用途なんで・・・
hdparmスレを見るからに、この板でそういう人って少ないぽいね
26:login:Penguin
08/04/28 13:45:59 CaASvQdg
yes
ラボにいたのは昔のことなので時代が違うが、でかいnfs鯖だったりクラスタ使ってた。
そういうスタンドアロンなws的用途って少なくない?
27:login:Penguin
08/04/28 14:30:37 RmVAke7d
NFSは遅いからなぁ。
やっぱり1ノード内で処理とIOが完結してるほうが速いし扱いやすい。
それ以上の規模になれば違った形もあるだろうけど、1研究室レベルならこれで十分。
28:login:Penguin
08/04/28 17:28:18 CaASvQdg
やー管理まんどくさ → シンクラにしてまえ → nfs → クラスタ
みたいな(笑) 台数の問題か。
うちは計算結果はデカかったが計算前はさほど読み込まなかったからな
29:login:Penguin
08/04/28 22:33:16 RmVAke7d
あるあるw 計算機は使い捨てるつもりでいるほうが
むしろ効率的だったりするし、気分的にも楽だね。
研究時間割かれるし、管理の手間って実際馬鹿にならん
30:login:Penguin
08/04/29 01:56:03 SNNS6IoH
AHCIは色々と難しそうなので、単体RAIDモードでWD 6400AAKSを使用したいのですが
マザーボードがRAIDに対応していません。
また、BIOSにRAIDモードの選択がありません。
PCI接続のRAIDカードを購入すれば、RAIDモードにできるのでしょうか?
また、PCIex×1でなく、普通のPCIスロットでの単品RAIDモードにした場合
マザーボードのSATAコネクタと比べて、速度の向上は見込めるのでしょうか?
PCIで遅くなるとしたら、マザーのままIDEモードで使ったほうがよさそうなので・・
意見お待ちしています。
31:login:Penguin
08/04/29 16:00:04 MVziVsfe
単体RAIDモードって何だよ・・・
mdraidとかのソフトRAIDなら関係ないよ>マザーボードがRAIDに対応していません。
PCI経由よりはIDEのほうが速いよな、さすがに
32:login:Penguin
08/04/29 16:06:11 SNNS6IoH
2台以上で組まなくとも、1台でRAIDモードにするだけで
若干ベンチの向上が見込めると、聞きました。
33:login:Penguin
08/04/30 00:45:49 6T3g1Mrv
RAID って何なのか…ということを判ってない人が多いな。
本来性能を向上させるための仕組みではないし、1台のディスクで RAID もどきを
組んでも性能が上がることはあり得ない。仮にベンチの向上があったとすると、
タコなドライバの代わりに別の優秀なドライバが動く…とかキャッシュが効いた…
とかいう RAID とは別の次元の話だな。
34:login:Penguin
08/04/30 01:36:10 7PV2fDGJ
RAIDって何ナノか・・・ということを判ってない人が多いな。
水の凝固点の話だな。
35:login:Penguin
08/04/30 01:53:38 01fUwoJq
寒っ!
36:login:Penguin
08/04/30 02:33:58 5EVGoWvM
過冷却だよ。それはRAIDではない。
37:login:Penguin
08/04/30 16:14:14 Fu/w9aTu
>>32
俺は聞いたことないが…
>>33
本来というか名前上はそうだが、実際は性能も同じくらい重要な要素でしょ
38:login:Penguin
08/04/30 16:16:14 VvZpuE3V
でも性能はRAIDで上げるもんじゃない
39:login:Penguin
08/04/30 20:33:24 Fu/w9aTu
>>38
意味が分からない・・・
ディスクを束ねて帯域上げるってのが考えの基本でしょ?
考えてる対象が違うのかな。せいぜい~16台程度のディスクを言ってるんだが
それ以上でかい規模のはよく知らないや
40:login:Penguin
08/05/01 02:40:51 DmXJDGFI
RAIDは性能を犠牲にして信頼性を上げるものだ、ってのが>>38じゃないのかな?
41:login:Penguin
08/05/01 06:09:48 nzSghs7D
結果早くなるんならそれはそれでいい気がする
信頼性(冗長性)も性能(速度)もRAIDの目的じゃないのか。
どっちを選ぶかとか両方とかって事はあるけど。
42:login:Penguin
08/05/01 09:38:55 ruhvYnV6
そのとおり。俺は両方欲しくてRAIDにする。
実際、今のPCで一番のボトルネックなのがディスクだしな。
自作板とかにいる云GBを扱うエンコ野郎は当たり前のように使ってるよ
43:login:Penguin
08/05/01 23:43:56 V1OLORy4
>>41
つRAIDのR
44:login:Penguin
08/05/02 10:12:53 0sXzr/l1
RAIDなんてもう立派な固有名詞だろうが
「RAID0はRAIDじゃない」とか、この手の議論は不毛だからヤメヤメ
45:login:Penguin
08/05/05 13:44:16 GrLztUcE
>>41
ソレダヨッ (´∀`)9 ビシッ!
オレは金無いから、性能を犠牲にして信頼性を上げている。
46:login:Penguin
08/05/05 20:56:46 fVl8wqJm
DebianのインストーラーでRAID1にしたんですけど、
頻繁にHDDのアクセスランプが点きます。こんなもんなのかな?
47:login:Penguin
08/05/05 22:41:51 tIgIZxmA
RAIDにしなければ頻繁ではない、ということですよね。
どの程度違いますか?
48:46
08/05/05 23:14:35 fVl8wqJm
HDDの構成が違うんで一概に比較はできませんが、
RAID1にするとアイドル状態でも30秒に一回はHDD LEDがちょっとつくといった感じです。
前にHDD 1つで使ってたときはアイドル状態の時はほとんどHDD LEDはつきませんでした。
hdparmしてみたら、80MB/sぐらいでますんで、HDDは壊れかけては無いと思います、新品ですし。
RIADの整合性を取るためにアクセスがあるんですかね。
49:login:Penguin
08/05/08 05:53:18 toesW/sK
HDD4発でSoftware RAIDを組もうとしています。
しかし、Create段階で、「md1が開けない」と怒られます。
どうすればよいのでしょうか?
50:login:Penguin
08/05/08 18:04:10 W35+TxlN
devicemapperが悪さしてるに一票
51:login:Penguin
08/05/10 04:09:07 zlSpDqUQ
>>50
対処方法のアドバイス願います。
ちなみに、HDDはUSBです(関係無いか(汗))
52:login:Penguin
08/05/10 09:59:58 5KnqgZhO
>>51
具体的なエラーとしては
# mdadm ?create /dev/md0 ...
mdadm: Cannot open /dev/sda1: Device or resource busy
mdadm: Cannot open /dev/sdb1: Device or resource busy
という話と了解しているけど、あってる?
占有されているデバイスを開放するのは
dmsetup remove_all
dmsetup remove <name> # dmsetup ls とかで名前は確認
でできる。だけど、そもそも自動的にdm配下に入るのが問題なら
/etc/以下でdmを切る必要があるかも。こっちはdmは不要なので
dmsetupごとアンインストールした。
53:login:Penguin
08/05/10 14:55:26 1Imbxh2Z
CentOS5でRAIDを組みたいと思っています。
検索してみるとLinuxではソフトウェアRAIDを推奨してる人もいるんですが、
素人考えでソフトウェアRAIDは
・遅い
・そのためのドライバが必要になる(無料且つデフォルトで入っているとしても)
・運用開始してオンラインでアップデートされたのちOSが壊れると、
手元にある旧バージョンのインストールディスクでは認識しない可能性がある
・同じくOSが壊れて管理情報がなくなると復旧できなくなる
などというイメージがあるんですが、そんなことはないのでしょうか?
ハードウェアRAIDで単に1つのハードディスクとして認識されるなら、
OS的には何も気にしなくていいと思うんですが・・
おすすめの方法、ハードウェアなどありましたら教えてください。
54:login:Penguin
08/05/10 15:01:11 IAFdsD6t
素人が考えてもハマるだけ
さっさとSoftware RAIDでRAID1組んでノウハウ蓄積しろ
55:login:Penguin
08/05/10 15:42:12 5KnqgZhO
正しい素人のRAID -> Buffaloの外付RAID箱でも買う
正しい貧乏なRAID -> なんちゃってRAID以外のSoftware RAIDを自力構築
正しいプロのRAID -> なんちゃってRAID以外のRAIDを眼力で選ぶ
正しい富豪なRAID -> 外付RAID箱を買う(Buffaloじゃないよ)
56:login:Penguin
08/05/10 16:52:01 zlSpDqUQ
>>52
アドバイスありがとうございます。
出ているエラーは、
[root@hoge ~]# mdadm -C /dev/md1 -l5 -n4 -f /dev/sd[ghij]1
mdadm: error opening /dev/md1: No such file or directory
になります。
教えてクンで申し訳ありませんが、再度、ご教授願います。
57:login:Penguin
08/05/10 17:18:25 IAFdsD6t
>>56
RAIDのドライバがロードされていないとそうなる気がした
普通は自動的にロードされるはずだけどね
カーネル再構築してたりとかすると
58:login:Penguin
08/05/10 17:29:10 zlSpDqUQ
>>57
Kernelはイジッテません。
RAIDは、md0が元気に動いてます。
うーん、なんか、ドツボにハマっている様な・・・
折角、救世主さまがいらっしゃるのに、再インスコの予感・・・
59:login:Penguin
08/05/10 17:31:25 zlSpDqUQ
訂正スマソ
Kernelはイジッテません。
↓
KernelのRAID部分はイジッテません。
60:login:Penguin
08/05/10 17:33:44 IAFdsD6t
はいはい釣り師釣り師
61:login:Penguin
08/05/10 17:50:21 zlSpDqUQ
マジで悩んでる
62:login:Penguin
08/05/11 00:24:24 P9QMGt5m
>>56
Redhat系のrcスクリプトはmd0しかブート時に作ってくれなかった気がする。
自分でmd1をmknod したら動いたりしない?
63:login:Penguin
08/05/11 02:38:16 0GsFNoK9
>>56
おおぉ、出来ました。
mknod・・・知りませんでした。
ありがとうございました。
64:login:Penguin
08/05/12 15:57:53 gUbK5cyP
/dev/sda2 /dev/sdb3 /dev/sdc3 という構成で /dev/md0 にsoftwareRAID5を
組んでいます。
ある日、mdadmから「A DegradedArray event had been detected on md device
/dev/md0.」というメールが届いたので、/proc/mdstat を見てみたら、
/dev/sdb3がお亡くなりになった([U_U])ようだったので、交換して
mdadm -A /dev/md0 /dev/sdb3 を実行してみたところ、/dev/sdc3が
突然/dev/sdc3(F) になりまして、[UU_]になりました。
で、そのまま/dev/sda2と/dev/sdb3 のみでリビルドをかけはじめ、RAID5が
ぶっ壊れた模様です。([U__]な状態です)
その後、mdadm -r と mdadm -A を繰り返してみたのですが、spareとしてしか
追加されず、再構築はされませんでした。
で、/dev/md0 は / にマウントしてあったので、shutdownすらできなくなって、
強制リセットして再起動したところ、予想通りkernel panicでboot中に止まって
しまうわけなのですが、/dev/sdc3 は完全には壊れていない気がするので、
なんとか /dev/sda2 と /dev/sdc3 でRAID5を復活させて、データをサルベージ
できないかと考えています。
knoppixでmdadm --examineすると3台とも下記のような状態なのですが、
これを無理矢理有効化する方法はないでしょうか? (つづく)
65:64
08/05/12 15:58:19 gUbK5cyP
/dev/sdb3:
Magic : a92b4efc
Version : 00.90.00
UUID : 439a851f:fe70ff5f:1b734cc3:d7b0fc30
Creation Time : Wed Jul 19 10:18:27 2006
Raid Level : raid5
Device Size : 156119552 (148.89 GiB 159.87 GB)
Array Size : 312239104 (297.77 GiB 319.73 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Update Time : Mon May 12 01:45:59 2008
State : clean
Active Devices : 1
Working Devices : 3
Failed Devices : 2
Spare Devices : 2
Checksum : 7e576fe1 - correct
Events : 0.81920972
Layout : left-symmetric
Chunk Size : 256K
Number Major Minor RaidDevice State
this 4 8 19 4 spare /dev/sdb3
0 0 8 2 0 active sync /dev/sda2
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 35 3 spare /dev/sdc3
4 4 8 19 4 spare /dev/sdb3
66:login:Penguin
08/05/12 16:37:41 tGJxYdMx
ありがちありがち
67:login:Penguin
08/05/12 19:20:14 oXnGIv9t
>>64
こんなレベルの話じゃないかもしれないけど、
UUID : 439a851f:fe70ff5f:1b734cc3:d7b0fc30
devices=/dev/sda2,missing,/dev/sdc3
みたいなmdadm.conf作って、
mdadm -A -s -c .../mdadm.conf
でアクティブにならない?
68:login:Penguin
08/05/13 02:05:16 tK2iSOGG
>>53を興味を持って見てるんだが
まともなレスがつかないのは素人が試行錯誤してるレベルの人が多いのかな。
69:login:Penguin
08/05/13 02:34:00 jpZpvu91
ハードRAIDのスレは別にあるから
70:64
08/05/13 12:10:42 puJGEVal
>>67
ARRAY /dev/md0 level=raid5 num-devices=3 spares=0 devices=/dev/sda2,missing,/dev/sdc3 UUID=439a851f:fe70ff5f:1b734cc3:d7b0fc3
を設定後、mdadm -A -sを実行してみたんですが、下記の通りspareとして認識されてしまうんですよね。
--force --runしても同じ結果になってしまうようで、これを無理矢理Active化したいのですが、うーん・・・
root@Knoppix:~# mdadm -A -s -c /etc/mdadm/mdadm.conf
mdadm: /dev/md0 assembled from 1 drive and 1 spare - not enough to start the array.
root@Knoppix:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : inactive sda2[0] sdc3[3]
312263168 blocks super non-persistent
71:login:Penguin
08/05/13 17:08:39 3bKpz4k4
>>68
利点欠点をちゃんと理解して、用途に応じて使えばいいだけでしょ。
オンボによくあるなんちゃってRAIDよりこっちのほうがいいな。
つーかパリティ計算しないRAIDレベルなら遅くないよ。むしろ速いこともある。
ハードウェアRAIDはドライバがウンコだったりすると悲惨だし。
72:login:Penguin
08/05/13 17:58:40 rrZDv89G
>>71
>>53はその利点・欠点を教えてくれと言っていて
>>68はそれが説明できないレベルの人ばかりなのか?
と言っているんだから話は合ってるんじゃね。
俺がレスを勝手にまとめると
ここはソフトウェアレイドのスレだからハードに詳しい人はいない
オンボードのなんちゃってRAIDよりはソフトウエアRAIDの方がいい(理由は未説明)
パリティ計算しないRAIDなら遅くない
ハードウェアRAIDはドライバ次第(よいハードは未説明)
ってとこかな
73:login:Penguin
08/05/13 21:44:54 3bKpz4k4
>>72
まぁ、そうか・・・
>オンボードのなんちゃってRAIDよりはソフトウエアRAIDの方がいい(理由は未説明)
フェイクRAIDっつーんだっけ?実は俺も詳細は良く知らない。
BIOSレベルでアレイを提供するが、RAIDの処理自体は一部ソフト処理、って程度しか。
引越しが偉く大変で、カードと違ってママンが死ぬとオシマイなんだよな・・・。
昔それで偉い目にあってそれ以来使ってない。
自作板とかで聞くという手もあるが叩かれそうだなぁw。あそこいつも荒れてるし
>ハードウェアRAIDはドライバ次第(よいハードは未説明)
自作板のスレで報告例眺めれば、それなりの参考にはなるけど。
まぁ相性とか色々あるから予想通り性能が出るとも限らんわな
Linux板ってベンチ厨少ないし、このスレも2、3台のHDDでささやかにミラーしてるような人ばかりだと思う。
74:login:Penguin
08/05/14 00:19:39 XfmBxcKd
>>68
>>53を読んで相手にしようというモチベーションが涌いた人がほとんど居なかった
75:login:Penguin
08/05/14 03:26:23 VkQ6PMP7
とりあえず俺には真のハードウエアRAIDと、管理情報をカードに記録するだけのソフトウエアRAIDを見分ける能力がないので回答のしようが無い。
76:login:Penguin
08/05/14 11:25:51 KLh+JPP/
パリティ計算用のチップが載ってるかどうかじゃないの?
→真のハードウェアRAIDとなんちゃってRAID
前者なら3wareを推す
・ドライバがカーネルに入ってる
・メンテしてるのは3ware(AMCC)の中の人
・Webベースの管理ツール(3DM2)がある
・カード自体の性能や信頼性も良い
77:login:Penguin
08/05/14 12:28:30 iE9Q0/9B
ドライバが、(必要であるとしても)コントローラのドライバだけなのがハードRAID。
当然、どのOSからも(BIOSからも)1台のHDDに見える。
もちろん、既存のSCSI等に繋ぐRAID箱も含む。
78:login:Penguin
08/05/14 13:35:20 CdNA1NTm
>パリティ計算用のチップが載ってるかどうかじゃないの?
ほんとかなぁ
じゃあRAID0や1はソフト処理ではないってこと?
とりあえず>>53は自作板の専スレに行くべきかと(過去ログ目を通してから書くこと!)
79:64
08/05/14 15:21:04 GLS6WG/C
64ですが、自己解決しました。
raidzapを参考に、superblockを直接書き換えて mdadm -A --force --run したらマウントできました。
しかしトラブって思ったんですが、手軽なsuperblock編集ツールってありそうでないのね。。。作ったら需要あるかな?
80:login:Penguin
08/05/14 17:49:39 6ymrsghF
以前、md1が作成できずに、相談したところ、mknodeで腕力で/dev/md1を作成
することに成功した者です。
現在、CentOS5.1を使用してますが、RedHat系のrcスクリプトは、デフォでmd0
しか作成してくれません。
起動時にmd1を作成するスクリプトを教えてください。
以下、/etc/rc.d/rc.sysinitのRAID部分
# RAID setup
update_boot_stage RCraid
[ -x /sbin/nash ] && echo "raidautorun /dev/md0" | nash --quiet
if [ -f /etc/mdadm.conf ]; then
/sbin/mdadm -A -s
fi
あと、shutdown時に必要な追加箇所があれば、教えて下さい。
81:62
08/05/14 22:52:42 EPojDu+m
>>80
まてまて、手動で出来てスクリプトで出来んとはどういう状況なんだよ。
82:login:Penguin
08/05/14 23:45:24 6ymrsghF
>>81
スクリプトで出来ないのではなく、スクリプトの“書き方”が分らないのです。
紛らわし日本語でスミマセン・・・
83:login:Penguin
08/05/15 00:44:39 Mw8pOyA7
>>82
手動で打ったコマンドをそのままスクリプト中に
mknod /dev/md1 b 9 1
とか書けばいい。
システムのスクリプトは様々な環境に対応できるようやたら凝ったif文が満載だが、
自分のシステムをいじる分には気にする必要はない。がりがり決めうちコードを書けばよろし。
・・・・と、いうのが基本で、今回に限って言うと
[ -x /sbin/nash ] && echo "raidautorun /dev/md0" | nash --quiet
という行が
もし、/sbin/nash が実行可能であれば、nashを起動してraidautorun /dev/md0
というサブコマンドを実行する。
という意味なので、ここの一行下に、/dev/md1に書き換えたそっくりコードを書けば動くんじゃまいか?
84:login:Penguin
08/05/15 04:29:42 ov6Vj1NY
>>83
おぉぉ・・・
出来ました。
こんなに簡単な事だとは・・・
学生時分からCodingが嫌いで、構文を見ると頭痛がするもので・・・
ありがとうございました。
85:login:Penguin
08/05/16 22:11:03 +eVNXB7n
スレリンク(hosting板:108番)
↑これの対策ってどうすればいいの?
86:login:Penguin
08/05/18 14:25:03 G0J/jsmN
>>85
N段階バックアップをとって、2つ前のバージョンに戻せるようにするのが基本。かな。
でも2chみたいにデータ消えても損害賠償がこないようなデータを扱ってる場合は、
こういう割り切りをしちゃうのも、また、基本
87:login:Penguin
08/05/19 18:04:16 uCz8LN7S
>>64
ディスクが壊れたところ申し訳ないんだが
> お亡くなりになった([U_U])
かわいいw
88:login:Penguin
08/05/19 21:34:19 kYUOyLA2
1TBのHDD x 4 で RAID5 組んでみたんですが、半日放置しても、
/proc/mdstat に、
recovery = 19.3% (189467904/976759936) finish=1133.6min speed=11572K/sec
みたいに出てるんですが、recoveryってこんなに遅いもんでしょうか? (泣)
89:login:Penguin
08/05/20 01:00:20 aN/Be4xB
>>88
自分もアクセスしながらのsyncなら11MB/sも出れば御の字じゃない?
まったく使わず専念させれば40MB/s位なら出たけど(RAID-1の場合)。
90:login:Penguin
08/05/20 10:37:45 z2v1aIzv
リカバリ中じゃそんなもんかと
mdのRAID5ってそもそも速いもんじゃないし
つーか、作成時リカバリをスキップするオプションってなかったっけ?
91:login:Penguin
08/05/20 17:14:42 S3zj15N5
500GB x2のHDDをRAIDにしようと思います。
初歩的な質問で申し訳ないんですが、
RAIDにしたデバイスにOS自身が入っていることは問題ないんでしょうか?
プログラムが入っていることは問題ないか?ということと同じかも知れません。
プログラムは正常で、データがおかしいならプログラムが処理できると思うんですが、
プログラム(ファイル)のどちらかがこわれていた時に対応できるのかな?
という素朴な疑問です。
よろしくお願いします。
92:login:Penguin
08/05/20 23:33:02 vAoiwwoU
>>88
ちょっと遅すぎるような気がするけど。
家の環境では、50MB/secくらいは出てたと思った。
CPU:BE-2300
マザボ:AN-M2HD
HDD:HDP725050GLA360x4(RAID5、chunk size:128k)
93:88
08/05/21 01:27:53 HPeGLDSL
>89>90>92さん
皆さん速いですねえ。外付けのSATA箱で、ケーブル1本の
先に port multiplier 経由で繋がってるので、個別にSATA
で繋ぐ場合に比べると遅いとは思うんですが…
4wayのraid0を組んでも2倍速も出ませんし。
ちなみに、onboard の jmicron よりも、玄人志向の外付け
silicon image の方が速いですね(bonnie++)。結構差が
出るので驚きました。
specは以下の通り
CPU: Core2Duo E8400
マザボ: P5K-E
HDD: WD10EACS × 4
94:login:Penguin
08/05/21 14:34:06 J4TqOFWl
port multiplierでも250MB/sまでは出るんだっけ?
最近のHDDなら4wayで食いつぶせる帯域だな・・・
95:login:Penguin
08/05/22 18:38:35 itWQcnkn
かなり遅レスだが>>53
Fake RAIDの説明は↓が分かりやすいかと
URLリンク(itpro.nikkeibp.co.jp)
Fake RAIDの利点
(1)BIOSが起動した時点からRAID機能が使える
(2)BIOS側の設定だけでRAIDが使えてしまう
96:95
08/05/22 18:39:28 itWQcnkn
やば、FakeRAIDについて聞いてるんじゃなかったのね
消えます
97:53
08/05/23 00:36:43 Kb6KGqA1
>>95-96
いやいや、ありがたいです。
あんまり詳しい人がいないみたいで、
ほとんどレスがつかないですから。
勉強させてもらいます。
98:login:Penguin
08/05/23 13:36:56 XVxqStdH
結構レスあると思うけどなぁ… ちなみにうちは>>74状態だった。
まずは、長文失礼OTZ&パット思いついた分だけだけど。
FakeRAID、HWRAIDの欠点
MB or HWRAID カードが壊れると、同じチップの物を用意しないと復旧できない場合が大半。
HWRAIDの欠点
高LvRAID対応のカードが高価。
安いのを買うと速度が出ない場合がある。
FakeRAIDの欠点
チップが負荷に耐えられなく、管理情報が飛ぶ場合もある。(MBによる)
FakeRAID、SoftRAIDの欠点
CPUパワーを使う(最近のCPUなら誤差程度)
SoftRAIDの欠点
手順が複雑になりがち。
FakeRAID、HWRAIDの利点
OSからは単一ドライブに見える(設定次第)
HWRAIDの利点
手順が簡単、高価なボードなら速度が出る、物によってはHotSwapができる。CPUパワーを使わない。
FakeRAID、SoftRaidの利点
安価に出来る。
SoftRaidの利点
ネットワーク先のHDDもRAIDアレーの構成として取り込める(要設定&パフォーマンス低下)
うちのお勧めは、資金が潤沢にあるなら高価なHWRAID(予備カード含む)、無いならSoftRAID(mdadmで)かな。FakeならSoftにするなぁ・・・
書いた後ぐぐったらこんなの出てきたOTZ URLリンク(www.geocities.co.jp)
99:login:Penguin
08/05/23 13:44:29 XVxqStdH
あ、h抜き忘れたスマソ。 URLリンク(www.geocities.co.jp)
100:login:Penguin
08/05/23 14:18:38 CgmY/Ptt
>SoftRAIDの欠点
> 手順が複雑になりがち。
そうかなぁ。手順自体は楽じゃない?
システムが逝ったときにやばいと聞いたことあるけど、あんま経験ないんでよく分からん
FakeRAIDってソフトウェア処理なカード(例:Highpint製カード)もオンボRAID(例:nvraid)も含むみたいだな。
カードに比べてマザーボードのほうがライフサイクルが短い分、後者のほうがリスキーだわな・・・
101:login:Penguin
08/05/23 21:21:54 fYA/77u8
>>53
最近のソフトウェアRAID(mdadmのやつ)なら、RAIDを構成しているディスクさえ
無事なら復旧することは可能だと思いますよ。
最近システムディスクからカッコン音がしてきて、死にそうだったんだけど
興味本位でそのまま運用を続けてみたところ、システムディスクの方は
やっぱり死んでしまいました。(フリーズ後、強制電源断)
でも、RAIDの方は、新しいシステムでmdadm.confを適当にでっち上げて
うまく認識できています。
自分は、個人使用ではソフトウェアRAIDで十分と結論づけています。
102:login:Penguin
08/05/24 04:53:15 Flwr9z9r
まだいたのかw >>53
一般的なsoft/hard RAIDの善し悪しはググれば出るので、Linuxでどうか、って話だよね?
・速度:比較対象による
・おすすめ:要求仕様による
こんな感じかな。
103:login:Penguin
08/05/24 20:25:28 iUhj2EjD
>こんな感じかな。
ワカンネーヨw
104:login:Penguin
08/05/24 23:14:33 VINc/RoR
余計なHWが入る分だけリスクが確実に増える気がしてしまうんだけど。
mdでPC本体の負荷が上がることによるリスクというのも
いくらか評価すべきなのか?あとは、mdadmの誤操作による
データロスなどというヒューマンファクタくらい?
105:login:Penguin
08/05/25 10:41:15 MEYM67Vm
誤操作についてはミス対象がmdadmかHW-RAID制御コマンド(かROM画面)と
違うだけで大して変わらん。実際、HW-RAIDで、壊れてないほうのディスクを
抜いて飛ばしたりとかポカミスをしたこともあるし。
結局は専用HWであることの信頼性(PC本体よりも高い(ものもある))と
性能が差別点だね。
106:53
08/05/25 18:39:41 ZbgcdECV
いろいろレスどうもです。
手間はそれほどでもなさそうですけど、
障害発生時の対処は気をつけないといけないようですね。
1日に1回バックアップすれば何とかなる・・程度の使い方なら、
2台のHDDをメインと、数世代分のバックアップに分けて使う
使い方でもいいような気がしてきました。
RAIDの方は家で試してみることにします。
ありがとうございました。
107:login:Penguin
08/05/26 10:56:05 3TEU8xqu
mdadm で作った RAID5 アレイをデータ保持したまま
RAID6 アレイに変更することってできますか?
108:login:Penguin
08/05/26 21:46:44 MqrVyWY0
前スレでかな、試した人いたような?
109:login:Penguin
08/05/27 03:21:53 wH5d3Eeo
mdadmのヘルプに書いてあるのを読んだ限りは無理 2.6.2
110:108
08/05/27 05:05:40 ufV7eXCX
>>107
すまん、過去ログ調べてみたら、試した人いたのRAID5のreshapeだったOTZ
(皆RAID5→RAID6に出来ればいいなーって言ってて、それが頭に残ってた)
111:107
08/05/27 12:36:28 cvJ1P9ZG
>>110
わざわざすみません 過去ログみたら散々同じ話題がでてましたねorz
念のためパーティション4つ切ってRAID5(3+spare)をつくって
RAID6にgrowしてみたらまだ無理と言われました (mdadm 2.6.4)
ところで4台で組んだRAID5の1台がfail
スペアを入れてリカバリかけたらfail
別のスペアでリカバリかけてもだいたい同じところでfail
これはやはりアレイのHDDのどれかが死んでるんでしょうか
112:login:Penguin
08/05/27 19:44:41 wH5d3Eeo
>>111
> これはやはりアレイのHDDのどれかが死んでるんでしょうか
たぶん。
各HDDにsmartctlするとか、若干危ないけどddで全面読み出ししてみるとか。
113:login:Penguin
08/05/29 18:45:13 z4TVEXKi
ハードウェアRAIDはカーネルがサポートさえしていれば
OS上からは普通のHDDと同じように見えますか?
114:login:Penguin
08/05/30 00:10:48 kZsNjwu9
>>113
カーネルがサポートというか、要するにドライバが入ってれば。
普通は/dev/sd*に見える。
そういや/dev/sd*の順番って、チップセット内のコントローラ→PCI等の外部バスだっけか?
USB接続したまま起動するとこの順番が狂ったりして困るんだなw(んなことすんなという話だが
115:aa
08/06/09 01:27:36 3u30S3Lk
>>70
Linux md って一度ディスクが degrade しちゃうと fail を RAID の
control block に mark します。なので、1 度でも degrade してし
まうと、RAID の control block を再初期化するまでは RAID の一部
として追加できなくなってしまうか、spare として上書きされる運命の
ボリュームとして構成されるような気がします。
RAID の control block を修正するのが良さそうですよ。
データリカバリ業者に持ち込めばデータ部さえ上書きさえ
されてなきゃ確実にデータは取り戻せるような気はします。
ところで、RAID の仕様として、rebuilding 中なら 2 台のうちもう
1 台を fail とマークしないほうが良いような気がするんだけどね。
仕様としてどうなんでしょうね。。。あんまり実用的じゃないよね。
> Linux md
116:login:Penguin
08/06/09 02:14:29 Y6j9jFvx
SW RAID5(250GBx4)で組んでるのですが
1TBのHDDを一台ずつmark failed -> 交換 -> rebuildを繰り返してみました
この状態からmdを拡大することってできるんでしょうか
117:login:Penguin
08/06/09 03:27:02 F+1xrY6i
>>115
failしたディスクにアクセスし続けて傷を広げる仕様もどうかと思うが
>>116
mdadm --grow
118:login:Penguin
08/06/09 03:29:26 6IbjQHwB
確か出来るようになったはずだけど(要Kernelとmdadmのバージョンチェック)、その構成なら
(ポート不足の場合)
元アレー(250GB*4)からマイナス1台構成をROでマウント → 1TBのHDD1台にコピ(a)ー →
→ 元アレー除去 → 1T3台の縮退モードで起動(bcd) → aからbcdにコピー→
→ aをフォーマット後aをbcdに追加でよかったんじゃ?
(ポートが足りてる場合)
250GB*4構成と1TB*4構成を作成後コピー→250GB*4構成を除去でもOK
119:aa
08/06/09 07:13:31 3u30S3Lk
おはようございます。
a,b,c の 3 台構成で、a が完全に死んでて、b が修復可能な軽微な
エラーがある場合、
1. a が fail
2, new a をアレイに追加(もしくは spare から自動割り当て)
3. a を rebuild 中に b からデータが読めずに fail
4. b のセクターが読めずに b も fail
5. 残ったのは c だけ。何もできない。a, b には fail が
マークされており、b, c にて再構成しなおすことも
できない。
というふうになるのが現在の md 仕様です。
b,c を以後 R/O でのみマウントできるようなマークをつけてくれて、
エラー部分以外は読み取れるようにしておくべきだと思うんですけどね~。
1 セクター読めないだけで 2 台から 1 台に落とされても、もう何も
救えないわけで・・・。
120:login:Penguin
08/06/09 20:36:18 Y6j9jFvx
>>117
即レスどうもありがとうございます.
一行で拡張できるとは驚きです.
早速試してみます.
>>118
6ポートしかないので,117さんの方法で手詰まりしたら(ポート不足の場合)を試してみます.
ありがとうございます.
121:login:Penguin
08/06/09 22:08:12 F+1xrY6i
>>119
大前提として、RAIDはバックアップにはならないってのはOK?
データ保護って意味での対策としてはバックアップしかない。
バックアップが無くて、現状のRAIDアレイから救い出すしか無い状況になる時点で、
まず運用として失格だと思う。無理矢理救出できたとしても、データ整合性を捨てる
ペナルティは覚悟する必要がある。不整合は消滅よりもたちが悪い。
mdの仕様はそういうところから来ている(と理解してる)。
で、不幸にしてデータ救出をせざるをえない事態になったとき、データ整合性を
優先する(怪しいものはfailさせる)mdの仕様が邪魔になるってのは一応同意。
現状superblockを手軽にいじれるツールも無いしね。
122:aa
08/06/10 02:03:17 9HfsMG6v
ぜんぜん。業務で使うなら EMC なり使うし、Linux の md にそんな
前提不要と思ってる。昨今家庭に 1 台 は RAID がある中「RAIDはバック
アップにならない」なんてこと言っても誰も納得しないと思うべきだよ。
不整合とはいうが、単なる単一のセクター不良であった場合
fail を防いだところで誤ったデータが読み出されるわけでもないし、
I/O エラーとなった部分のみを FS の bad sector block に登録して
そのまま使えちゃうほうが、大半の人にとっては都合がいいはずです。
1TB の RAID5 容量があるとして、全く読めなくなるのと、1TB の中の
うち 512 バイトが読めないのなら、前者のほうがインパクトがでかいに
決まってる。
123:login:Penguin
08/06/10 09:38:18 uXv3BAd1
縮退アレイのデータが全部読めることを確認しないままrebuild掛けて
アレイ全部殺すのは、ただのオペミスだろ。
124:login:Penguin
08/06/10 09:47:53 ewRO3SpZ
なんでここに来てRAIDがバックアップ代わりになるとか主張するやつが出てくるんだか
なわけねーーだろ バカ
125:login:Penguin
08/06/10 11:36:19 EpZinGw7
>>122
とりあえず、自分と他人は違うってことから学習しようね。エスパーじゃないんだから。
そんなに嫌ならmd使わなければいい話だし、業務とか言うなら他に選択肢いっぱいあるでしょ?ww
わざわざこんなところまで出張ってきて、ろくな根拠もなし、前提は後出し、で仕様がどうこう
言われても誰も納得しない。ま、それでもいいなら好きにやればいいんじゃない。
126:login:Penguin
08/06/10 16:48:59 rOnmIXoG
>>122
不満があるなら、自分用にコード書けばいいじゃない。
>>121,123-125
うちも、この意見に同意
127:aa
08/06/11 00:38:40 CHqx1dfH
せっかく Linux md のイマイチな点を挙げてるんだから誰かハック
してほしいお。知らず知らずのうちに Linux md 使ってるユーザが
大量保存されたデジカメなり動画なりのデータを一瞬で失うなんて
悲しいところなんて見たくないお (;_;)
ってことでよろしく (w
まあ、オマエラができないんなら別に俺様がやってやってもいいがな。
128:login:Penguin
08/06/11 00:56:41 ht4oxNB9
ハックは人に頼むものじゃなく、自分でするものだお。
まあ、でも、LKMLに投稿するならレビューしてあげれると思うよ
とりあえず、一度やってごらんよ。
129:login:Penguin
08/06/11 01:11:18 yNtiUL94
真性のクレクレ君ってところか
130:login:Penguin
08/06/11 08:22:21 uS6qwlDQ
バックアップ要素を持ったRAIDっぽいディスクシステムの提案、とかならOKなんじゃない?
現状のRAIDにそれを求めてるから話がおかしいわけで。
(だったら他の手法探せよってのはともかくw)
131:login:Penguin
08/06/11 09:30:36 wOMUHJ8R
raidtoolsと昔のカーネル使えば、failもactiveも自由自在。
132:aa
08/06/12 02:21:28 AHGexQB4
そうこうしているうちに見捨てられる Linux md。
ロジテックがマイクロソフトとNAS開発で協業,OSをLinuxからWindowsに全面移行
URLリンク(itpro.nikkeibp.co.jp)
ロジテック、NAS全製品をWSS 2003 R2ベースに統一
URLリンク(enterprise.watch.impress.co.jp)
ロジテックとマイクロソフト、Windows Server(R) ベースの NAS ソリューションにおいて協業
URLリンク(www.microsoft.com)
Linux md + Samba イマイチな点は次の通り。
・ファイル名が変化してしまう。
・アクセス権の設定がない。
・最悪復旧業者を呼ばないといけない。Linux は怖くて導入できない。
>>131
オタク君そうやってがんばっていればよいと思うよ。。。
>>123
じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。
つまり、1 台ダウンした時点ではもう全部読めなくなってしまう
状態になるかもしれないダサーな実装なわけです。有り得えねーーー。
133:login:Penguin
08/06/12 03:32:17 A4JBsLQa
>>132
> Linux md + Samba イマイチな点は次の通り。
> ・ファイル名が変化してしまう。
→変化した事はありません。
> ・アクセス権の設定がない。
→え?
> ・最悪復旧業者を呼ばないといけない。Linux は怖くて導入できない。
→どの状態を指して最悪といっているか分からないが、復旧不可能なレベルで
アレイが壊れた場合、どうしてもデータを吸い出したければLinuxに
限らず業者に頼むしかない。
単に操作方法が分からないことに起因するものであれば、
Windowsの知識が十分でない人にとっては同じく業者を呼ぶ必要がある。
Windowsは不安定でサーバにしたくない。
(カーネル5になってずいぶんましになったように思うが、それでも定期的に
再起動が必要となるのはいかがなものかと。)
134:login:Penguin
08/06/12 03:34:38 i3SMQS3j
俺ら釣られてる?
135:login:Penguin
08/06/12 04:05:31 i3SMQS3j
RAIDって言葉を知ったばかりのガキがmdに挑戦したものの挫折して逆恨みってところか。
技術の守備範囲とか他者の視点とかニーズの多様性を全く理解しようとしないあたり、
精神年齢が小学校で止まってるんだろうな
そろそろ放置かなぁ
136:login:Penguin
08/06/12 09:30:17 CYzfYEsG
>>132
>じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
>ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。
縮退したらアレイ止めてddとかで全セクタ読めることを確認してから
rebuildしなきゃならん、ってこと。
他にバックアップ取っていないなら、spareドライブ用意しておいて自動rebuildは危ない。
>>135
俺もそんな気がするが、まあ、失敗例と思い込みの典型ってことで。
137:login:Penguin
08/06/12 10:08:42 QLdaUWEF
>>115,119,122,127,132
いいかげんうざくなってきた。
設定すらまともに出来ないのに、思い込み激しいし、他人任せだし、オペミスして愚痴ってるし…
>じゃあ、1 台ダウンした時点で、read を始めたらどうなるかという
>ことだけど、I/O エラーに出会うとやはり 1 構成になるわけです。
>つまり、1 台ダウンした時点ではもう全部読めなくなってしまう
>状態になるかもしれないダサーな実装なわけです。有り得えねーーー。
それ対策にRAID6ってのもあるわけで…
何が目的なRAIDか分かってないんだろうな…
そんなに不満あるなら、使わなければいいじゃん?
それかもっと勉強汁!
138:login:Penguin
08/06/12 14:47:09 kPFkNEQb
PC使うの・・・やめればいいとおもうよ
139:login:Penguin
08/06/12 21:49:17 eOn78KxZ
「RAIDに入れたデジカメ写真が消えたら困っちゃう!」っていう人と、普通の業務の人が混じってるのが問題なんじゃね?w
140:login:Penguin
08/06/12 22:11:23 5wyTYRrn
mdって業務用でも使われるぐらいの完成度なんですか?
業務用は外部ストレージだと思っていたのですが実際はどうなんでしょうか?
141:login:Penguin
08/06/12 22:44:04 A4JBsLQa
完成度というのをどうやって図るのか分かりませんが、
RHELのパッケージに含まれる程度には完成されているようです。
業務用の外部ストレージ、と表現されているもののOSは
なんなんでしょ。
142:login:Penguin
08/06/12 22:51:55 5wyTYRrn
>>141
OS公表しているところないよね?企業秘密だと思うけど
組み込み用のOSも色々あるしCPUも色々
業務用のなかなか止められないシステムだと
SAN接続とかの外部ストレージが一般的なのかな?という質問です
143:aa
08/06/13 00:18:30 iEXE9ATZ
>> 141
例えば、VxWorks とか。
でも、RAID のエンジンはお手製なので OS はほとんど無関係かも。
レイテンシはでかいけどトランザクション処理は得意だとか、
各社得手不得手があります。
144:login:Penguin
08/06/13 00:19:05 +BhvvWth
>>142
マシンのOSと道連れになるのはSoftwareRAID/FakeRAIDの弱点だね。
ただ、外部ストレージにしたとしても、ストレージが生きてて対外サービス担当マシンが
死んでる状況なら、サービスとしては停止ってことになるから、実影響は構成による。
もちろん、部品として独立させることによる管理性のメリットは消えないけど。
アプリ担当鯖を多重化してSANでストレージ共有みたいなやり方をするなら、
その時点で可用性重視だろうから、外部ストレージ化の効果は大きいだろうね。
145:login:Penguin
08/06/14 08:38:26 oPtd7+zw
某NECな大型FCストレージは中身Linuxだよー by R&Dの人
146:login:Penguin
08/06/18 18:16:30 sXc5vE4z
静かになったな
十分に枯れたのか、それとも誰も使っていないのか。
147:aa
08/06/21 17:07:51 PpYHysDA
Linux md を使ってて 1 台ドライブが飛んでリカバリできない
事象が発生したとしよう。その際、バックアップを取ってない
利用者が悪いってのは、技術者の怠慢だよね。
URLリンク(www.symantec.com)
パソコンのクラッシュや全データの損失から受けるストレスは男女すべての
年代で失恋のダメージを上回る結果が出ました。
データ保存と損失:保存データ関連でのストレス要因として「重要な
データの損失」( 37% ) を挙げた回答者が最も多く、前回 ( 33% )
から続伸しています。また、ここ 1 年間で保存量が増えたものとして
「デジカメなどの写真画像」( 45% ) 、「音楽」( 29% ) が上位を
占め、回答者全体の平均保存容量は 33.5GB と、前回 ( 26.1GB ) に
比べ 28%も増加しています。一方、保存データの容量が年々増加して
いるにも関わらずバックアップ実施率は前回から変わらず 57%に
とどまり、過去 1 年間では 5 人に 1 人が大切なデータを損失した、
と回答しています。損失したデータとしては「音楽や音声ファイル」
( 31% ) と「動画ファイル」( 30% ) がそれぞれ前回より 10
ポイント程度増加しています。損失データに関しては、約半数が
「ほとんど復元できなかった」と回答しており、復元できるものなら
負担してもいいと思える金額は平均 5,364 円との結果が出ました。
148:login:Penguin
08/06/21 17:32:09 Noohu4IZ
まだいたのか…
技術者=管理者=おまえ(aa)だな
回復サービスに数百万払うか、いいかげん諦めれば?
149:login:Penguin
08/06/21 17:36:50 IubOjAtw
>>147
おまえも25歳になれば
この世に魔法なんて存在しないと判るよ
150:login:Penguin
08/06/21 20:03:37 VCyQqHEh
おまいら、荒らしは放置で
151:login:Penguin
08/06/21 22:03:04 /gY4O7ay
技術者の怠慢クソワロタ
ドライブが飛ぶなんて技術者の怠慢だよねっっw HDDベンダ涙目ww
結構笑いの取れるキャラなんじゃないか?>aa
152:login:Penguin
08/06/21 22:13:48 IubOjAtw
人格障害の症例はバラエティがありすぎて困る
153:login:Penguin
08/06/21 22:19:47 eY04Tj9T
でも、光学ドライブに焼くのは面倒なんで、HDDだけで何とか
したいってのはあるなぁ。HD録画したアニメとかそろそろ3TB
ぐらいになる状況だが、飛んだらブルーレイ買わないといかん
からなぁ。
今はとりあえず mdのRAID5 なんだが、1ドライブ飛んで復旧
不能とかなったら悲しいわ。
154:login:Penguin
08/06/21 22:57:14 VCyQqHEh
2TのバックアップをNFS経由のrsyncでやってる関係で、フルリストアが日単位になる。
バックアップがあってもフルリストアは避けたいので念のためRAID6にしてる。
155:aa
08/06/22 01:23:11 lZv4JDTd
いや、だからさー、Linux のひでえ md 実装直してくれれば済むだけの
話なんだよ。何で 1 台まで落とすんだよ馬鹿。
156:login:Penguin
08/06/22 04:06:23 2TTQqPfw
>>155
M$のOSに比べるとだいぶマシだが。
M$のOSはRAID自体まったくサポートしてないし。
157:login:Penguin
08/06/22 08:27:53 Ii7Z3jAP
>>155
Linuxのひでーって言うけど、おまえの望む実装なOSってあるのかよ?
158:login:Penguin
08/06/22 09:59:24 L5M/kM+A
>>156
えーと、知らないことは黙ってた方が・・・
159:login:Penguin
08/06/22 21:11:05 2TTQqPfw
>>158
お前こそ、Linuxコミュニティーでの会話のルールを覚えたほうがいい。
M$のOSと言えばBASICのことだ。
BASICはOSか?という問いには、当時はOSだったと答えればいい。
160:login:Penguin
08/06/23 02:43:38 Jf/LlKSP
>>159
そんなわけないだろう。
と、いいたいところだが、最近もLKMLでlinux-mm.orgのアフィ広告欄にWindowsの広告が表示されているのはバグだ!って
騒いでいる奴がいて生暖かい目で見られていたな。
結局、M$がお金を浪費して、僕らの懐が暖かくなるなら、ハッピーな事じゃないか。と誰かがとりなして丸く収まってたみたいだけど。
161:login:Penguin
08/06/23 04:20:26 csSG47hP
おまえらスルーも出来ないのか
かまって君を喜ばせるだけだぞ
162:login:Penguin
08/06/24 03:46:37 0xeBSssm
RAID5にランダムアクセス性能を求めてはいけないことにやっと気づいた俺が来ましたよ……
163:64
08/06/27 19:13:57 IJGPC5w1
すみません、復旧を焦ってまさに115氏の指摘する状態になった本人です。
なんでmdadmに同機能が含まれないのかなーと思いつつ、コード書いて自分でsuperblock変更して
直しましたが、mdに同機能が実装されないのは、開発チームがこのスレの皆さんのような考え方
なのだと納得しました。
自分はコード書いて直せるからいいけど、Ubuntuとかでデスクトップ用途で使ってる初心者のためには
mdにfailedを無視するというオプションがあってもいいかと思ったり。
無茶してぶっ壊れるのは自己責任なんだし、たかが数セクタのためにdd(rescue)のイメージからファイル
システムまで辿って再構築するのは手間がかかりすぎるので。
164:login:Penguin
08/06/28 04:20:01 t82gEJQM
mdの仕様に取り込まれるかどうか以前に需要自体がほとんど無いと思われ
ツールを実装する自由は万人にあるんだから、需要があるなら誰か作るはず。
ツールが無いということは、現状そこまでの需要が無いということ。
需要があると思うなら書いたツールを公開すれば喜ばれると思うよ
165:login:Penguin
08/06/30 08:57:46 eP8/ITok
無理にmd使わんでも、各ディスクをバラでマウントすれば良いんじゃね?
そうすれば、死んだディスクやセクタがあっても被害はそこだけ。
166:login:Penguin
08/07/01 00:54:50 aHyZUpTv
>>165
???。RAID-5の個別ディスクをどうやってバラでマウントするんだ?
167:login:Penguin
08/07/01 00:59:02 Qn6UZU93
なんで突然RAID5?
俺は、JBODかマウントポイントごとにディスク用意するんだと思ったが
168:login:Penguin
08/07/01 01:06:41 aHyZUpTv
>>167
ああ、そもそもmd使わなくていいじゃん、という話だったのな。誤読した。
無理にmd再構成しなくても個別マウントすればいいじゃん、と誤読した。
169:login:Penguin
08/07/08 07:17:56 tBce1A0Q
3ware 9650SEでHDD(500G)6本でraid6を組もうと思っています。
3テラのボリュームができますが、パーテーションどうしようか
悩んでいます。
基本的にシステムがらみは別のHDDで動かしたほうがいいのでしょうか?
3テラのボリュームはパーテーションきらずに、/home などにしたほうがいい?
170:login:Penguin
08/07/08 11:45:08 wACpQR7T
HDD2本がパリティ記録なんで4本分の2TBのボリュームなんじゃね?
171:login:Penguin
08/07/08 12:45:20 Ld9ygY/a
何入れようと思って、500Gを6発買ったんだ?
パーティションの切り方はそれ次第。
172:login:Penguin
08/07/08 12:46:58 dFUhNDg6
ホットスペアがないと有り難味がないから、
実際には1.5TBだろ?
173:login:Penguin
08/07/08 12:47:54 dFUhNDg6
で、天使が取っていって
df -h
すると、1.3GBとかになるわけだ。
174:login:Penguin
08/07/08 12:48:53 dFUhNDg6
orz
175:login:Penguin
08/07/08 15:11:58 ciEROQW6
一般的にRAID組むときにはシステム絡みもRAIDに入れるんですか?
176:login:Penguin
08/07/08 15:51:45 II4/+Uhu
ここにもRAIDとバックアップは違うと理解出来てない奴が
177:login:Penguin
08/07/08 19:45:28 wACpQR7T
>>175
RAID導入によるメリットの8割ぐらいが
HDD故障時にもシステムを稼働し続けられる
だからね~
とうぜんそれなりのホストはシステムもRAID
残りのメリットはバックアップの間隔での更新データが救えること
素人はよく高速化を挙げるけど
RAIDで高速化なんていうのは副次的なものにすぎないし
実装によっては速くならない
178:login:Penguin
08/07/08 19:47:42 wFB79b2r
>>173
えげつない天使だなおいww 99.9%ってw
179:login:Penguin
08/07/09 09:09:58 nLnkgGAg
>>177
なるほどね!
ありがとうございました。
180:login:Penguin
08/07/09 23:06:04 RNssxI9R
CentOS5.2を、500GBx2のHDDをミラーリングにしてインストールしたいと思います。
このときのパーティションはどうきるのが良いのでしょうか?
私用のFedora8だと、200MBの/bootと、残りがLVMに分けられて
LVMの中に2GBの/swapと/homeがある感じなんですが、
同じでよいです?
あるサイトに管理を容易にするために/swapも個別のパーティションにする・・
というようなことが書いてあったので気になりました。
よろしくお願いします。
181:login:Penguin
08/07/09 23:33:03 gRDljDJc
>>180
/swapって何よ
適当に
/boot
/
/home
swap
みたいな感じで4つミラーボリューム作りながらインストールでいいんじゃないの?
あるいは、でかいミラーボリューム作ってその上でLVM
182:login:Penguin
08/07/10 01:03:05 YVLKQ6q3
>>180
RAIDならシステムの入れ替えがほとんど無いので、
後々の容量の引き延ばし(と、いうか同容量のHDDが市場から無くなる;)
とかを考えて/homeを一番最後にしてる。
HDDのメーカーごとにシリンダー数が違うので最後の/homeは
最終シリンダーまで切らずに鼻くそ程度残してます。
あと、サーバーと言うことで/var は多めに切ってます。
183:180
08/07/10 10:43:28 iJDD8Fmx
>>181-182
ありがとうございます。
RAID(ミラーリングを)するってことに関しての
特別な配慮ってことはない感じですね。
とりあえずやってみます。
184:login:Penguin
08/07/11 01:25:06 MF2t883a
/bootってハードウエア構成に依存するけど、専用パーティションに
しなくてokな事が多いね
GRUB使ってるおかげ?
185:login:Penguin
08/07/11 04:29:32 rOZ8wBgX
/をXFSにするときは念のため分割
186:login:Penguin
08/07/14 11:01:55 9UdAIkjR
妙にスレが伸びてると思ったら、raid5の性質を
raid全般に広げて語るニワカが発生してたのか。
業務やっているなら、いくら思い込みの強いアホでも
そこでraid6が出てこないってのはあり得ない。
>>185
GRUBと合わないんだっけか。
自分は/だけreiserfsにしてるわ。
187:login:Penguin
08/07/15 18:47:44 yaiFvTOZ
どのインターフェイス(SCSI0とか)に繋がったHDDにどんなデバイスファイル名(/dev/sdaとか)が割り当てられているのか確認する方法はありますか?
RAIDで全部同一のHDDを使っているので、このインターフェイスに繋がったHDDはsdaだとか判らないと交換できないのです。
188:login:Penguin
08/07/15 18:55:33 rrCKPMUT
>>187
/sys/block
189:login:Penguin
08/07/15 21:52:28 pdkdPVvb
smartctl
190:login:Penguin
08/07/16 00:03:37 voyUTL5p
>>186
GRUBの2nd Stageがsuperblockだか何かを上書きする?とからしい
最近調べてないから、大丈夫になってるかも
191:login:Penguin
08/07/16 00:27:28 wxA8/vYd
>>188,189
シリアルナンバーでディスクを識別する事にしました。
ただ、当方debian etchなのですが、
/sys/block/sda/device/serial
は見つからず、
smartctl -a /dev/hda (PATAのディスク)
smartctl -a -d ata /dev/sda (SATAのディスク)
で、シリアルナンバーを確認できました。
ありがとうございました。
192:login:Penguin
08/07/16 00:59:49 LX357c/f
>>191
うちもそれやってるけど、SATAコントローラが複数ある場合は起動時の
認識順で /dev/sdX と Serial: XXXXXXX のマッピングが変わるんで注意。
電源断までは有効な情報だからドライブ交換には問題ない。
193:login:Penguin
08/07/16 01:05:10 vwN5urnw
そのsd*,hd*認識順の問題すごく悩まされるんだけど、解決策としては
・新パーティション形式にしてラベルつける
・MDにしてmd[0-9]で認識させてから使う
・LVMにして(同様)
しかない?古来からの方式でパーティション切ってしまったのでカーネルが
変わるたびにころころテンポラリディスクのデバイス名が変わってばたばたする。
194:login:Penguin
08/07/16 07:26:45 5QiXFeI7
構築の時にどのシリアルナンバーのHDDを何段目に積んだかメモっとくといざというとき便利だね
195:login:Penguin
08/07/16 07:36:48 2XS3TY3h
UUIDで識別をしないのかな?
196:login:Penguin
08/07/16 19:59:03 LX357c/f
それで物理位置がわかるならな。
197:login:Penguin
08/07/16 20:05:37 rsgG64I0
lsscsiとか使わないの?
198:login:Penguin
08/07/17 01:46:36 ZWA78awn
UUIDでmd組むようにしてる > 認識順が変わる対策
199:login:Penguin
08/07/17 04:34:16 nqSSZGey
>>198
今問題にしてるのはコンポーネントデバイスの識別の話だからそれじゃ解決にならない
200:login:Penguin
08/07/17 19:04:35 pwb5+Hyk
ベンチマーク
URLリンク(opentechpress.jp)
201:login:Penguin
08/07/21 15:38:10 QHVhiNmM
個人用ファイルサーバで、同一ホスト上でのDisk to Diskバックアップを計画しています。
ドライブは750Gx8台です。同原因同時故障と、バックアップメディアを物理的に
別の場所に置けないこと以外に高まるリスクはありますか?
また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?
202:login:Penguin
08/07/21 16:02:45 bfdmMxFQ
>>201
消費電力が2倍
コピー中に更新があると整合性がなくなる
帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
複数世代のバックアップを残せない
RAID1に対するメリットがほとんど無い
素直にRAID1にして
バックアップは外付けにtarか何かでとるほうがいい
>また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?
RAID10でいいんじゃないの?
203:login:Penguin
08/07/21 19:20:08 Kok+C1hM
>>202
お題目はおなかいっぱい。
個人用だと書いてあるだろ?
>消費電力が2倍
ディスクだけが2倍なのに、どういうロジック?
>コピー中に更新があると整合性がなくなる
>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
個人用だから、そういうのを自分で避ければいいだけ。
>複数世代のバックアップを残せない
複数世代ってなにに使うんだよ。実際に使ったことあるのか。
204:login:Penguin
08/07/21 19:53:45 eDgO9JCd
理想を言えばRAIDハードウェアのスナップショットを利用して
別のRAIDグループへコピーが一番安心できる
問題はそのようなハードウェアは日立とかEMC、富士通とかになること
205:login:Penguin
08/07/21 21:51:52 r1tueaXR
>消費電力が2倍
回転止めたらいいんじゃないの? 馬鹿なの?
>コピー中に更新があると整合性がなくなる
スナップショット使わない理由がわからない。馬鹿なの?
>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
オプション1つで制限できるんだからすればいいじゃない。馬鹿なの?
>複数世代のバックアップを残せない
複数世代のバックアップを残せるソフト使えばいいじゃない。馬鹿なの?
>RAID1に対するメリットがほとんど無い
それのどこがリスクなの?馬鹿なの?
206:login:Penguin
08/07/21 22:45:34 +Von4bjZ
また心の問題ですか
207:login:Penguin
08/07/22 05:33:29 FG3KF+O+
>アレイを2つ作って
に対して
>>RAID10でいいんじゃないの?
と書いてあるので何も分かってないようですね
208:login:Penguin
08/07/22 07:00:34 IDlKlKUZ
>>202がフルボッコにされててワロス
209:login:Penguin
08/07/24 22:55:47 Y/yDJ5QP
>>207
>>202 は業務とか書いてるしな。
質問を理解せずにどっかからコピペしたのかも。
210:login:Penguin
08/07/25 18:22:23 7bWPoJgN
こんな記事がでたぞ~
ハードウェアRAIDとLinuxカーネルによるソフトウェアRAIDのベンチマーク比較
URLリンク(www.itmedia.co.jp)
211:login:Penguin
08/07/25 22:05:00 dHu8XFEz
>>210
お前は10個上のレスすら読めんのか
212:210
08/07/25 22:55:25 7bWPoJgN
あー、同じなのか…
単にベンチマークしか書いてなかったから、スルーしてた…OTZ
213:login:Penguin
08/08/04 13:46:13 jBaI/IVg
性能分析のお供に
URLリンク(opentechpress.jp)
次回の方が役に立ちそうだけど
214:login:Penguin
08/08/07 08:00:07 RuVT+4E9
1TのHDD6台買ってきたんだがRAID6にするか5にするかで一晩悩んだが結論が出なかった。
215:login:Penguin
08/08/07 12:45:30 gou1IcwA
とりあえず6面RAID1にしておいて慣らし。
満タンになったら、その時にまた考えるってのはどうだ?
216:login:Penguin
08/08/11 00:33:45 lkIu9a0L
/をxfsにするいい方法はありませんか?
OSはcent5.2です。
217:login:Penguin
08/08/11 00:41:08 QeT4W3NU
>>216
スレ違い。
スレリンク(linux板:731番)
218:login:Penguin
08/08/11 01:28:58 lkIu9a0L
>>217
>>185
が書いていたので。
219:login:Penguin
08/08/11 18:36:11 AGF2t4QA
>>218
見苦しい言い訳だな
220:login:Penguin
08/08/12 16:41:20 jyLw7NZh
>>216
CentOSならそっちのスレで聞いてみたらいいんじゃないか?
ぶっちゃけRAID関係もよっぽど詳しい人がそろってるしw
221:login:Penguin
08/08/12 16:56:10 YIDfUhGW
>>220
もう聞いてるみたいよ。>>217
222:login:Penguin
08/08/12 17:11:26 IDhTWp2o
/**ファイルシステム総合スレ その8**/
スレリンク(linux板)
回答があるかわからんけど、マルチな質問はちゃんとクローズレスして、もう一度きいたら?
223:login:Penguin
08/08/14 18:37:41 rw0zL6g/
質問なのですが、raidtoolsで作成したボリュームは、mdadmにソフトウェアRAIDを
変更した場合、そのまま使えるのでしょうか?
要するに、raidtoolsとmdadmのデータ構造の互換性の問題なのですが。
一旦バックアップを取って、RAID構成後に書き戻す必要がありますか?
「raidtools mdadm 互換性」などとぐぐってみたのですが、答えを見つけられませんでした
224:login:Penguin
08/08/19 01:07:45 8EwaAh3C
実際にやってみればいい。
VirtualBoxなりVMWareなりの仮想環境を入れれば楽勝
225:login:Penguin
08/08/25 15:26:56 A4bL2852
ポートマルチプライヤ・ハブを使ってRAID5で使っていたが、
ハブが(熱?)故障したらしく現在、別環境でリペア中…
後10時間ほどかかるらしい。終わったらバックアップとっとこ。
226:login:Penguin
08/08/25 18:46:19 hmNDIIPy
あれはメチャ熱くなるよ
227:login:Penguin
08/09/01 05:30:02 FJQeXGzD
並列ランダムリード重視したいんだけど、
RAID5 <= 単体 <= RAID10 < RAID1+LVM
って理解であってる?
228:login:Penguin
08/09/01 15:30:06 URN2jkvk
どれも実装次第じゃないの?
大抵は全部単体より速くなると思うが。
229:login:Penguin
08/09/01 19:19:46 FJQeXGzD
>>228
じゃあ、さしあたりmd限定で。
で、その大抵が通用しないのがランダムアクセスだったりするわけで…
230:質問ノ
08/09/02 00:26:54 +OCnqEcR
RAID0って、データを複数のHDDに分散して同時に記録するから
早いのですよね?
ということは、1台のHDDで、データをフラッタごとに分散して同時
に記録したら、すごく早くならないのかなぁ?
フラッタ5枚のHDDなら5倍???
231:login:Penguin
08/09/02 00:53:44 svkuPaeg
ReadもWriteも早いのか?
232:login:Penguin
08/09/02 00:58:11 3FnQIo0B
シーケンシャルオンリー(かつ大昔のHDDのテクノロジ)ならね。
ランダムアクセスだと1台に集中することでかえって遅くなる。
今のHDDはプラッタ毎にヘッド位置調整をするために同時アクセスは難しいし、
5倍に速くなってもインタフェースの転送速度が追いつかない。
233:理解!
08/09/02 01:06:27 +OCnqEcR
なるほどねぇ
インターフェースが追いつかなきゃ意味ないですね^^;
ごもっとも^^
234:login:Penguin
08/09/02 05:45:29 JL3ZUwv4
ソースを読むほどのスキルはないんだけど、未だにRAID1で読み取り性能だけ2倍にする方法は解明されてない?
相変わらずmanpageに書いてあることとは違うままなのかな。
235:login:Penguin
08/09/02 08:50:52 xIov+WO6
性能がスループットという意味なら倍になるよ。
CPUが2つでプロセス2つで読んでればだけど。
読み出しロジックは読み出し処理を2つのディスクに並列分散させるのではなく、
単に空いているorヘッド位置が都合がいい方のディスクを選択するだけだから
あるプロセス1つから見たら別に速くなるわけではなさそう。
236:login:Penguin
08/09/02 17:54:33 JL3ZUwv4
あのmanpageに書いてあることは、そういうことだったのか!?
だったらmanpageにもそのように書いてくれればいいのにねぇ。
ネット上でも、たまに悩んでいる人がいるし。
237:login:Penguin
08/09/03 09:36:58 GOWpJIT8
ソース見ると、こういうことだべ。
2.6.18のraid1.c
* This routine returns the disk from which the requested read should
* be done. There is a per-array 'next expected sequential IO' sector
* number - if this matches on the next IO then we use the last disk.
* There is also a per-disk 'last know head position' sector that is
* maintained from IRQ contexts, both the normal and the resync IO
* completion handlers update this position correctly. If there is no
* perfect sequential match then we pick the disk whose head is closest.
*
* If there are 2 mirrors in the same 2 devices, performance degrades
* because position is mirror, not device based.
*
* The rdev for the device selected will have nr_pending incremented.
*/
static int read_balance(conf_t *conf, r1bio_t *r1_bio)
238:login:Penguin
08/09/03 10:31:37 E4hwRJkf
1ビットだか1バイトずつ交互に読み書きするから読み書き2倍ってのは嘘か
239:login:Penguin
08/09/03 19:50:17 Yeu4fcGq
raid5=raid0<raid1
程度だと思われるが実装によって逆転する。
240:login:Penguin
08/09/03 21:37:57 xUNUra92
>>234-236
裏技と言うほどのことじゃないけど、それを実現したいなら、
mdadm -C /dev/md0 -l 10 -p f2 -n 2 /dev/sda1 /dev/sdb1
こうやって、2 台だけで RAID10 を組んでみたら?
きちんとミラーリングされた上で、読み取り速度は
シングル スレッドでも 2 倍になるよ。
241:login:Penguin
08/09/04 00:12:57 B1PfYM1l
234が想定アクセスパターンを言わないと何の議論もできんと思われ
並列アクセスするプロセス数と、ランダム・シーケンシャルの別、それからリード・ライト比率
242:login:Penguin
08/09/04 00:58:57 UTrxmu/B
>>241
じゃあ極端な例ということで、100MB/sのシーケンシャルI/O性能を持つHDD2台のRAID-1で
1.1プロセス、シーケンシャルリード100%の場合
2.2プロセス、片方シーケンシャルライト、片方シーケンシャルリード100%の場合
この場合に期待できる
a.各プロセス単位でのリード性能(MB/s)
b.計算機全体で達成されるリード性能(MB/s)
はおおよそどうなる?2プロセス時はI/O時間が均等に回ってくるとして。
争点は1aが100MB/sなのか200MB/sなのか、2bが100MB/sなのか
150MB/sなのかということかと思うが。
243:login:Penguin
08/09/04 19:35:51 B1PfYM1l
アクセス単位とかスケジューラでとんでもなく変わるだろうけど、とりあえず計算
つっこみよろしく
1a 並列読み出し (α)27.2MB/s (β)100MB/s (γ)200MB/s 片ディスク読み出し 100MB/s
2b 2.56MB/s
仮定として、
RAID1
7200rpm 平均シークタイム 8ms
noopスケジューラ
ファイルシステムを考えない(メタデータ読み書きがない)
mdドライバのリクエスト振り分けは理想的
リード・ライト対象領域はそれぞれ連続
各プロセスのアクセス単位64KB
1aα アクセス単位ごとに回転待ちが発生する場合
1000ms / (回転待ち 4.17ms + データ読み出し 0.655ms) * 64KB * 2 = 27.2MB/s
1aβ 2つのディスクの回転角が一致している場合には回転待ちは省略できるが、
次の目的セクタに行くまでの回転時間は両ディスク同じなので結局変わらない。
1aγ 2つのディスクの回転角がそのトラックでのアクセス単位分だけずれている場合
リードリクエストが来た瞬間にヘッドが目的セクタ上にあるので回転待ちも省略可能
2b 片ディスク読み出し
書きこみオペが来ると両ディスクが書き込み先までシークする必要がある。
1aβ/γのように回転待ちの省略が期待できないので
1000ms / (読み 0.655ms + シーク8ms + 回転待ち4.17ms + 書き 0.655ms + シーク8ms + 回転待ち4.17ms) / 64KB = 2.56MB/s
244:login:Penguin
08/09/04 19:48:19 B1PfYM1l
すまん、1aβ変なこと書いてる…
1aβ リード完了地点からアクセス単位分だけ先に次の目的セクタがあるので、
回転待ちは最小限で済むが、一方の回転待ち時間=他方の読み出し時間なので結局変わらない。
で。
245:login:Penguin
08/09/04 23:56:09 WdYxWaI1
1TB*4でraid組みたいのですが、raid5にするのと、raid1にするのでは
どちらが生存性が高いでしょうか?
現状では500GB*2でraid1を組んでいます。
246:login:Penguin
08/09/05 02:43:09 /T+bWScm
RAID5は1台の破損まで復旧可能で3TB利用可能
RAID1だと1台の破損まで復旧可能で1TB利用可能なドライブが2つ
確率だけでいえば当然RAID1
RAID10だと1台の破損は復旧可能、2台の破損はミラーしてるペアでなければ復旧可能で2TB利用可能
247:login:Penguin
08/09/05 04:45:32 1sBBnm+4
>>245
RAID5だと再構築時にアレイの他のディスクにアクセスしに行くから
負荷も危険性も上がる。RAID1なら対となるディスクのみアクセス。
243-244だけど、1aαも1aγも実際にはまず起こらないだろうから
1プロセスで同じ領域を読む限り、1aについては100MB/sでFAかと。
248:login:Penguin
08/09/05 04:56:12 GrlZSlCm
FA(笑)
249:245
08/09/05 06:16:01 aZwTzuar
>>246,247
速度は気にしていないので、raid1で組むことにします。
ついでなので1TB*6で3TBにする事にします。
ありがとうございました。
250:login:Penguin
08/09/05 10:34:09 2aSQ8pMt
mysqlのマスターのためにはどんな構成がよいですか?
今は高速回転のディスクでにRAID1にしてます。
251:login:Penguin
08/09/05 13:29:39 1sBBnm+4
そういや3台以上でRAID1組むと3台以上に分散してくれるんだろうか
並列ランダムリード中心ならうまいことレイテンシ隠蔽できそうだけど
252:login:Penguin
08/09/06 16:52:55 mklTZhL5
>>250
メモリ山ほど積んでオンメモリインデックス
それかSSD
253:login:Penguin
08/09/07 01:22:02 AQmY2t2w
>>240
そんなことができるのか。知らんかった。
確かにhdparmでは2倍になってるし、片方のHDDを外してもデータに問題はなかったから、
ミラーリングもされてるみたいね。
RAID10って時点で絶対に4台必要なんだと思って、考えたこともなかったよ。
254:login:Penguin
08/09/07 02:08:53 dwiRmWpQ
2台のRAID10って一体データはどういう風に乗ってるんだ?
255:login:Penguin
08/09/07 02:52:54 AQmY2t2w
>>254
240氏のやり方だと、RAID10ってのはあくまでも名前だけで、
実際は234氏が言ってるような読み込みだけが速いRAID1状態になってる。
書き込みは単体のときと(たぶん)同じ速度。読み込みは約2倍。
で、1台外してもデータには問題なくて、そのときは読み込みも単体と
同じ程度の速度に落ちる、って感じ。
実際のHDDにどうやってデータが書き込まれているのかは、俺にはわからん。
256:login:Penguin
08/09/07 09:00:17 3IVMMvgf
>>255
man md
257:login:Penguin
08/09/09 10:43:41 XWIPazgz
[root@puchiko root]# cat /proc/mdstat
Personalities : [raid5] [raid4] [raid1]
md2 : active raid5 sdc1[3] sdd1[2] sdb1[0]
490223232 blocks level 5, 32k chunk, algorithm 2 [3/2] [U_U]
[>....................] recovery = 0.0% (118528/245111616) finish=275.4min speed=14816K/sec
md1 : active raid1 sde1[2] sda1[0]
199141632 blocks [2/1] [U_]
[>....................] recovery = 0.4% (991424/199141632) finish=123.3min speed=26775K/sec
md3 : active raid5 sdl1[3] sdk1[2] sdj1[1] sdi1[0] sdh1[4] sdg1[6]
2441919680 blocks level 5, 32k chunk, algorithm 2 [6/5] [UUUUU_]
[>....................] recovery = 2.8% (13738880/488383936) finish=421.5min speed=18766K/sec
unused devices: <none>
豪勢にリカバリー中・・・コケないことを祈る
258:login:Penguin
08/09/09 10:53:35 a8VHVsbk
.: + ...:. ..:...:.. :. +
. ..: .. . + .. : .. .
.. + ..:. .. ..
+ :. . +..
. : .. + .. .
.. :.. >>257 ..
. + |: |
|: |
.(二二X二二O
|: | ..:+ ..
∧∧ |: |
/⌒ヽ),_|; |,_,,
_,_,,_,~(,, );;;;:;:;;;;:::ヽ,、
" "" """""""",, ""/;
"" ,,, """ ""/:;;
"" ,,""""" /;;;::;;
259:login:Penguin
08/09/09 22:05:16 XWIPazgz
終了したよ! sdcが壊れててmd2はRAID1にしたけど。。。
md3はRAID6にするべきではないか考え中。チラ裏スマソ
260:login:Penguin
08/09/10 04:30:01 wQXa/rnK
おつ
261:login:Penguin
08/09/10 21:04:02 6XTL7ehC
いまフツーにRAID1してるんですけど、
単体のSSDに替えたら信頼性はUp?Down?
答えが出ないので教えてください
IntelのSSD良さげですよね
262:login:Penguin
08/09/10 21:23:58 mTxqzEnL
>>261
既存のHDD RAIDをSSD RAIDにしたらどうなるかってこと?
単純にMTBF比較であればHDDが市販のもので60万時間程度、
SSDが200万時間程度なので、信頼性は上がるだろう。
とはいっても確率論だが。
263:261
08/09/10 21:36:09 6XTL7ehC
HDD RAID1→SSD1個非RAIDです。
数字上は信頼性ちょいアップだけど...
何万台も運用するわけではないので運次第ってとこですかね?
264:login:Penguin
08/09/10 22:39:23 mTxqzEnL
>>263
運の要素が大きいだろうな。
HDDだとクラッシュの危険があるし、SSDだと書き込み回数の制限がある
(ある程度は散らしているが確実なものではない)。
265:login:Penguin
08/09/11 13:52:38 t86QBmcU
>>262
> 単純にMTBF比較であればHDDが市販のもので60万時間程度、
> SSDが200万時間程度なので、信頼性は上がるだろう。
あれ?
HDDの方はRAID1なんだから
「60万時間程度」が同時に二つ壊れる可能性との比較になるよね。
HDD RAIDの方が信頼性上なんじゃない?
正確な計算法が分からんけど。
266:login:Penguin
08/09/11 13:54:54 czapuPka
SSDもRAIDじゃないのか?
267:login:Penguin
08/09/11 19:45:48 x4yKwbl5
>>266
>>261を声に出して100回読め
268:266
08/09/11 22:53:18 czapuPka
ごめん、262しか読んでなかったorz
269:login:Penguin
08/09/12 21:58:14 AhnXV+bh
教えてください。
dmraidで作ったRAIDデバイスと、
フツーにLinux上で作ったソフトウェアRAIDって性能は一緒だよね?
dmraidってのは(Intel Matrix Strageみたいな)BIOSで作ったRAID情報を読み取って、
LinuxソフトウェアRAIDを自動的に構成するツールだと考えてるんだが、この理解は正しい?
あとdmraidで構成したRAIDデバイスが壊れたときは、BIOSで修復かけてもいいのでしょうか?
270:login:Penguin
08/09/13 05:43:54 yFc3xM/P
mdとdmraidの性能比較みたいなページがないか検索してみたらいいよ
271:login:Penguin
08/09/13 16:57:51 LK2wbKHe
>>264
フラッシュ寿命問題って、単に代替セクタ機能でカバーできるんじゃないの?
当然書き込み先を散らすといった手立てをした上での話だけど。
同じく疲労するDVD-RAMとかだって似たような対策打ってるんだから、
よほど書き込みアクセスが反復する用途でない限り大丈夫なんじゃないかと。
272:login:Penguin
08/09/13 17:50:12 ch1kjtqk
書き込み分散とかセクタ代替も込みで製品としてのMTBF出してるだろうから
外から見る限り、書き込み分散とかセクタ代替機能は特に考慮しなくても問題ない
…というのが理想なんだけど、
書き込み分散方式とアクセスパターンとの兼ね合いがあるだろうからなあ
273:login:Penguin
08/09/14 16:09:17 aCb6t4HK
>>269
dmraid知らんけど、互換性があるなんて聞いたことないな。
URLリンク(sourceforge.jp)
ここのを読むとプロプライエタリなソフトRAIDに対してのラッパーみたいなもの?
mdadmとはあまり関係なさそうな。
274:login:Penguin
08/09/14 22:01:49 IYFhfqhh
まあラッパーでいいのかな。BIOS(RAIDカードとかの)で切った
RAID構成のパラメータをLinux側に取り込んでそのまま扱えるようにする
わけだから。
こうするとRAID構成の一部はLinux、別の部分はWindowsみたいな
共存ができるけど、そういう部分切り出し利用しないならOS側の
ソフトRAID機能を使った方がいいというのは百万回くらいいわれてる通り。
275:login:Penguin
08/09/14 23:38:16 JSPVgMYR
> 百万回くらいいわれてる
暇なときでいいんで、リストくれ
276:ヒャクマンハウソ、スマソ
08/09/15 11:53:48 a7BuBquH
>>275
リストを出すのは簡単なのだが、2ちゃんのスレはあまりにも
容量が厳しすぎるので勘弁してください mOm
277:login:Penguin
08/09/15 16:04:26 gKAquFIw
>>276
ここに貼り付ける必要なくね。
圧縮してどこかのアップローダに置いて、ここには URL 一行書けばいいよ。
278:login:Penguin
08/09/19 05:28:28 BR3MquqB
>>225-226
サウスのヒートシンクが貧弱なマザーなら、サウスが熱でやられる。
サウスを冷やせ。
側面にファン取り付け穴が二つ開いてるケースなら、下の方だ。
279:login:Penguin
08/09/20 12:32:05 2jxpiAok
HDD RAIDの仕組みがよく分からないのですが、
例えば、RAID1で500GBで組む、
とした場合、
この500GBと組んだ、という情報は
RAIDカードのみが認識することになるんでしょうか?
(HDD自体には特にRAID云々の情報は書き込まれない?)
現在500GBでRAID1組んでいて、1TBに変えたのですが、
ユニット拡張機能がRAIDカードについていないため、
500GBで認識されてます。
この場合、
一旦関係ない1TB載せて、再度RAID1組んで、
(RAIDカードに1TB情報載せて)
関係ない1TBをはずして、500GBと認識されてた1TB HDDを
載せれば、拡張目的果たせるんでしょうか?
ちなみに3wareの8006-2lp使ってます
280:login:Penguin
08/09/20 15:56:49 9fflWZZq
>>279
ふつうはRAIDに関する情報をハードディスクのどこか(ふつうはディスクの先頭などの
固定の場所)に書き込む。そうでないものもあるにはあるが。
ユニット拡張機能とやらが何なのか知らんが、3wareのユーティリティなどで
できるのではないか。
281:279
08/09/20 16:39:03 2jxpiAok
>>280
うわーーー
おっしゃるとおりですね。
試してみましたが、だめでした。
ユニット拡張は、
いわゆるRAIDカードが構築した論理?ドライブを
実際のディスク容量に拡張するものです。
現在はRAID1作成時のディスク容量で実HDD容量ではないので
それを実HDDの容量に補正したいわけですが、
3wareのCLIでは無いよう何です(汗
何か代替方法ないでしょうか・・・。
282:279
08/09/20 19:18:27 2jxpiAok
結局HDDにRAID情報が書き込まれてるんで、
別HDDへ、ddやコピー系でコピーしてもダメポなんですよね・・・
ああ激しく鬱だ orz
283:login:Penguin
08/09/24 10:25:25 NY4tqg7z
mdadm -Aで無理やり起動したら
failed to RUN_ARRAY /dev/md0: Input/output error
これってどういう事……汗
284:login:Penguin
08/09/24 15:31:23 3ffijfuO
コンポーネントデバイスがご臨終
285:login:Penguin
08/09/25 21:02:44 LfvtnWd8
RAID5におけるresyncについて教えてください
debianで構築したGLANTANKにUSB接続で6台のHDDでRAID5を構築していました。
帰宅したところHDDに頻繁にアクセスしているのでtelnet接続したところ、下記のような状況でResync状態にあるようです。
fumifumi@GLANTANK:~$ sudo cat /proc/mdstat
Password:
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
1562842880 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
[>....................] resync = 4.3% (13630588/312568576) finish=2230.8min speed=2232K/sec
md0 : active raid1 hdb3[1] hda3[0]
77649600 blocks [2/2] [UU]
この状態でmd1のデータは無事に復旧しますでしょうか?
残り一日以上かかりそうですが、完了時にはデータが空っぽにならないか心配です。
ちなみにdfコマンドでは
/dev/md1 1538319916 1457990512 2187260 100% /share/usb
と表示されており、昨日までの使用状況とは変わっていません。(現時点では。。)
/shaer/usbにアクセスしようとしても反応がない状況です。
どんどんデータが開放されているのでしょうか?
力量不足で情けないですが、このまま待つのがよいのか?データは保持されるのか?
アドバイス・ご教示お願いします。
ps.resyncとrebuildはちがいますよね?
286:login:Penguin
08/09/25 22:29:45 hqNskNnF
((((´д'))))
287: ◆Zsh/ladOX.
08/09/25 23:03:20 uxBh3s9z
待つしかない。
(rsync中も遅いだけで使えた稀ガス)
反応が無いって
cd /share/usb
しても
・cdが成功しない
・cdはできるがその後lsとかでコマンドの反応が無い
ってこと?
288:login:Penguin
08/09/25 23:43:29 LfvtnWd8
>>287
早速のレスありがとうございます。
cd /share/usbに反応しませんでした。
プロンプトに戻ってこなかったです。
先の書き込みをした後は
sudo cat /proc/mdstat
にて状況を見ていたのですが、先ほど急にtelnetが切断して接続不能になりました。
#resync中でも再起動可能とのことだったのでsudo reboot等試みましたが、リブートはしませんでした。
それ以外はmdstatしたりdfして状況を見てました。
telnet接続できない現在でも、USB接続のHDDには相変わらずアクセスし続けているので、引き続きresyncは実行されているようですが、pingも利かない状態におちいってます。
GLANTANKのパワー不足?かもしれません。
繰り返しで申し訳ないですが、データは無事と思ってよいでしょうか?
その他書き込みした事項以外で確認すべきことがあればアドバイスください。
返答よろしくお願いします。
敬具
289: ◆Zsh/ladOX.
08/09/26 00:02:45 uxBh3s9z
>>288
まず、データは無事です。
> GLANTANKのパワー不足?かもしれません。
現状はこれかな。
最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
そのPCにHDDを6台接続してresyncした方が良い鴨
(USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
290: ◆Zsh/ladOX.
08/09/26 00:11:25 D+db+I6m
あーでも今GRANTANKシャットダウンできないのか。
電源ボタンぽちしてシャットダウンしたりするのかなぁ。
どうすっぺねぇ
291:login:Penguin
08/09/26 00:19:03 7oAA51Rx
>>289
> まず、データは無事です。
ありがとうございます。気長に待つことにします。
先の書き込みでお分かりのように大事なデータや怪しいデータなどなど目いっぱい詰め込んで快適につかっていたのですが、初トラブルで、心配です。
希望が出てきたので、おとなしく観測します
#容量いっぱいなので、入れ替えながらかつかつ運用です。。
> > GLANTANKのパワー不足?かもしれません。
> 現状はこれかな。
やはりそうでしょうか。外部アクセスを拒絶してしまってます。
先ほどまでworkhroupにいたGLANTANKがいなくなってますし、resyncに専念してしまっているのかな?
なんとかがんばってくれぇ>SH
#感情的で申し訳ないです。こういう時ほど落ち着いて対処ですよね
> 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
> そのPCにHDDを6台接続してresyncした方が良い鴨
いまさらこのようなことが可能なのでしょうか?
リブートできない状況ではリスクが大きいかと。。
どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
> (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
説明不足ですいません。
6台はい~るに6台のHDDを詰め込んでますので使用UBSポートは1つで大丈夫です。
#それにしてもなぜ?このような状態に。。。
有益なアドバイスいただきありがとうございました。
何か思いつかれたら、また返答いただければ幸いです。
敬具
292: ◆Zsh/ladOX.
08/09/26 00:35:12 D+db+I6m
> どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
CDブートのlinuxを使えば良い。
が、どっちにしろgrantankを上手く落とせた場合の話になってしまうけど
ではもう寝るので健闘を祈ります。
293:login:Penguin
08/09/26 00:52:55 7oAA51Rx
>>292
いろいろお世話になりました。
とりあえず現状のまま様子をみます。
夜遅くまでお付き合いいただきありがとうございました。
敬具
294:login:Penguin
08/09/26 11:36:30 UHMIOaKO
>>293
resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
WD10EACS-D6B0 x 4でRAID5を使ってるけど、80MB/secから最終的に40MB/secに落ちる程度の速度は出るよ。
どれかのHDDが壊れかけで足引っ張ってたりするんじゃないかと想像するんだけど。
dmesgとかsmartを確認した方が良さそう。
あと、あんまりかつかつまで使わない方が良いと思うよ。
環境依存かもしれないけど、2.7TB中50GB程度空きになった状態で何度かフリーズを経験してて、
空きが結構ある状態では一度もフリーズしてない。
(OS:Fedora9、FS:XFS)
295:login:Penguin
08/09/26 20:14:20 7oAA51Rx
>>294
> resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
よく覚えてませんが、たぶん構築時もこんなものだったような??
> dmesgとかsmartを確認した方が良さそう。
寄せ集めの320GB-IDEをUSB接続なのでこんなものかと。。
いただいた情報をヒントに調べてみます。
> あと、あんまりかつかつまで使わない方が良いと思うよ。
余裕を持ちたいのは山々ですが。。いろいろ詰め込んじゃうんですよね。
どこもかしこもかつかつで。。貧乏性で消せない性格がいけませんね。
速度よりも容量重視でこうなっちゃいました。。
296:login:Penguin
08/10/05 10:49:30 Ze8uaqdI
/proc/mdstatがcheckになるのは、なぜですか?
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid6 sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
2930279808 blocks level 6, 64k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] check = 0.7% (7653376/976759936) finish=3794.0min speed=4256K/sec
/var/log/messages
Oct 5 01:06:01 host kernel: md: data-check of RAID array md1
Oct 5 01:06:01 host kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk.Oct 5 01:06:01 host kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
Oct 5 01:06:01 host kernel: md: using 128k window, over a total of 976759936 blocks.
md0についても同じメッセージが出ています。
ファイルシステムは、md0, md1ともにXFSです。
1時6分から何かが始まっていますが、cron.dailyは6時25分に設定されているので
cronによって起動された何かが原因ではありません。
OSを再起動したとか、ホットスワップしたタイミングでもありません。
OS: Debian GNU/Linux 4.1(etch)
カーネル: 2.6.26.5へ入れ替え
です。
297:login:Penguin
08/10/05 13:12:24 rOZmgU0Y
/etc/cron.d/mdadm じゃね?
298:296
08/10/05 14:55:41 Ze8uaqdI
おっしゃるとおりです。
6 1 * * 0 root [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ] && /
usr/share/mdadm/checkarray --cron --all --quiet
となってました。
どうもありがとうございました。
299:login:Penguin
08/10/11 18:12:33 ZuxskNzz
SATAのHDDが10個ぐらいのRAID組みたいのだが
一番安く済む方法教えてほしい
300:login:Penguin
08/10/11 20:12:37 0pLPQ9Sw
普通はエントリーモデル買って100万円ぐらいじゃない?
301:login:Penguin
08/10/11 23:40:03 qfaubBp2
>>300
80 万くらいの差額はどうするべ?
302:login:Penguin
08/10/12 00:04:53 0pLPQ9Sw
80万円の差額ってなぁに?
たしかにボッてるとおもうけど
冗長性のあるコントローラや電源だと
このくらいするかなと思います
そもそも家庭向けだとスロット数が4つぐらいだよ
303:login:Penguin
08/10/12 00:07:47 MFK5+p1z
冗長性云々必要なの?
> SATAのHDDが10個ぐらいのRAID組みたいのだが
としか書かれてないよ。
304: ◆Zsh/ladOX.
08/10/12 00:16:53 BnTxnZIJ
サウスにSB700とかSB750とかICH9とかICH10のマザー
+
クロシコSATA2I2-PCIeを2個使う
ってところか。
HDDはお好きなのでどうぞ。
305:login:Penguin
08/10/14 16:22:59 NijeoAer
最近Supermicroのベアボーンが、実はかなりコストパフォーマンスが高いことに気付いた。
SOHO向けのファイルサーバ用途なんかだと、かなりいい感じだと思う。
バラでパーツ集めるより安心確実安上がり。
306:login:Penguin
08/10/15 01:00:02 MFbQNNJJ
もしドライブベイ4つあるサーバーあったら
①SASでraid1+0
②SASでraid6
③SATAでraid1+0
④SATAでraid6
のうちどれが良いと思います?
速度、コスト、耐障害、障害時復旧等
それぞれの面から教えてください。
307:login:Penguin
08/10/15 02:07:17 ZK7oP6Ef
>>306
シーケンシャルなら24
ランダムなら13
コストなら34
耐障害なら24
ディスク負荷高い場合は障害復旧での負荷13
308:login:Penguin
08/10/17 23:47:36 yE7dhqMk
>>306
これ見て思い出したんだけど
RAID1+0ってRAID0+1って言うのもあったんだね
1+0のほうが耐障害で0+1が速度だっけ?
309:login:Penguin
08/10/18 03:28:34 CvVG09ig
>>308
その2種類の動作は呼び方が定義されていない
普通採用される方式は
RAID0の各HDDがミラーリングされている方式
もう一つは信頼性ガタ落ちの
RAID0をミラーリングした方式
速度はどっちも同じ(リトライ処理とか考えると異なるかもしれんが)
310:login:Penguin
08/10/22 23:03:41 OER6wkY9
>>308
ミラーリングボリュームのストライピングか
ストライピングボリュームのミラーリングか、だね
ストライプサイズ近辺のアクセス粒度だと、シークとアクセス振り分けの関係で
性能特性が微妙に違ってきそうな感じ。分かるような違いは出ないと思うけど…
ちなみにmdのRAID10はさらに別物
311:login:Penguin
08/10/25 23:44:02 WFYSKaa5
mdadmでRAID1を組んでext3でフォーマットしました。
別のext3のディスクからディレクトリを
cp -a
でコピーし、
du
で見たところディレクトリ全体の容量が微妙に違います。
ですが、ディレクトリ内の各ファイルの容量はそれぞれ一致しています。
これは、ジャーナリングのメタデータの容量が違うから、ですか?
それとも、RAIDに起因するものですか?
312:login:Penguin
08/10/26 01:23:25 Z2w8/cR8
その「微妙」というのが何KBなのか何MBなのか、そしてどっちが多いのか
エスパーじゃない俺には全然わからないけど
単にディレクトリエントリの消去済み領域の分だったりしないかね。
313:login:Penguin
08/10/26 02:35:57 J0AWp7Ql
コピー元と先のそれぞれ上の階層で
ls -l すると 4096B だけコピー先のディレクトリが小さいので、
おっしゃる通りですね。勉強になりました。
314:login:Penguin
08/10/28 15:40:50 OkmvC/aL
3wareの9500Sで700GB*8のRAID5を構築したのですが、
ファイルシステムが上手く作れなくて大変困っております。
使用しているのはFedora Core 7です。
# parted /dev/sdb
GNU Parted 1.8.6
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Number Start End Size Type File system Flags
(parted) mkpart primary ext2 0 -0
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Number Start End Size Type File system Flags
1 512B 852GB 852GB primary ext2
となって、5250GBと表示されているのに、パーティションを作ろうとすると
852GBのパーティションしかできません。
RAIDの最初期化なども行ってみたのですが症状は変わりませんでした・・
どなたか、アドバイスを下さいませんでしょうか?
315:login:Penguin
08/10/28 16:02:30 7kZ3n49D
> Partition Table: msdos
なあ、DOSパーティションテーブルで扱えるサイズに上限があるの知ってる?
316:314
08/10/28 16:11:53 OkmvC/aL
できました!大変ありがとうございました。
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number Start End Size File system Name Flags
1 17.4kB 5250GB 5250GB primary
317:login:Penguin
08/10/28 17:16:12 XbLUcb3e
え~っと
ネタ……だよね?
318:login:Penguin
08/10/28 17:29:33 XbLUcb3e
しかし、ドライブが普通にTBクラスになってくると
それまで遭遇したことのない状況に直面することも多そうだな。
1TB 1万円の時代がこんなに早くやって来ようとは…
319:login:Penguin
08/11/02 00:36:09 36V/uKQX
すまんが教えてくれ。
500GBx4(RAID5)を構成してたうちの1台が故障したんで、容量アップもかねて
1TBx3(RAID5)に変更した。
データ移行は全HDDを同時に搭載して、md0(500GBx4)とmd1(1TBx3)を作成して
コピーした。
500GBx4を取り外して1TBx3だけにしたんだが、再起動後もmd0じゃなくmd1として
認識される。
今までデバイス名はmd0を使っていたんで、これからもそうしようと思ってたんだが。
CentOS5を使ってるんだが、これをmd0に直すことは出来ないか?
困ってるというほどじゃないんだけど、気持ち悪くて・・・orz
320:login:Penguin
08/11/02 01:09:58 n6/w/1q1
>>319
私も現在稼働中のRAIDの容量アップを狙ってましてその件について気になります。
憶測ですが、
/etc/mdadm/mdadm.conf
/etc/fstab
/boot/grub/menu.lst
の3つを編集すればmd1をmd0にできるかもしれません。
mdadm.confをいじったらmdadmコマンドを実行しないといけないかもしれません。
RAID初心者なのであまり信用しないでください。
判断の材料になればと思いまして書かさせていただきました。
くれぐれもいきなりファイルを書き換えたりせず調べてから行ってくださいね。