09/09/17 00:31:57 FGAuQfF7
2隷奴
3:login:Penguin
09/09/17 10:24:21 a38jzfUh
前スレ、どうなった?
1000行ってなかった気がするけど、落ちた?
4:login:Penguin
09/09/17 12:13:32 EBgro0cj
>>3
984でDATE落ちしてて誰もたてる様子がなかったので建てました
5:login:Penguin
09/09/17 15:09:51 ioZx6ZJ8
>>3
981以上で一定期間書き込みがないと落ちる。
6:login:Penguin
09/09/19 00:47:59 zqqctU3x
すみませんちょっと質問させてください。
stripe orderって論理的なslotナンバーみたいな認識で良いんでしょうか?
ググったんですが解説しているとこがなくて困ってます。
お願いします。
7:login:Penguin
09/09/19 10:46:29 GE78LuGJ
mdadmでRAID5のアレイにディスクを一本足そうとadd→growしたんだけど
うっかりパーティションを切り忘れてディスクデバイスそのものをaddしちゃったので
reshapeジョブをいったん止めたい。
しかしmdadmからあれこれ試したところ
何やっても「今やってるからちょっと待っとけ」みたいな表示。
でも素直に待ったら一日かかる。
諦めるしかないかなー?
8:login:Penguin
09/09/19 12:52:38 NZbmXcrB
バックアップも取らずにreshapeしたのなら諦めるしかないのでは?
9:login:Penguin
09/09/19 13:40:53 gNI7Yumi
質問です。
CentOS5.3のmdadmのRAID5で、Rebuild Statusが30%completeぐらいで0%に戻ります。
rebuildしている状態で、mountしようとすると、以下のような感じになります。
何か救済案はないでしょうか。
[root]# mount /data
mount: wrong fs type, bad option, bad superblock on /dev/md2,
missing codepage or other error
In some cases useful info is found in syslog - try
dmesg | tail or so
[root]# dmesg | tail
SCSI device sdk: 1953525168 512-byte hdwr sectors (1000205 MB)
sdk: Write Protect is off
sdk: Mode Sense: 00 3a 00 00
SCSI device sdk: drive cache: write back
md: syncing RAID array md2
md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc.
md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction.
md: using 128k window, over a total of 976759936 blocks.
EXT3-fs error (device md2): ext3_check_descriptors: Block bitmap for group 3968 not in group (block 834142208)!
EXT3-fs: group descriptors corrupted!
10:login:Penguin
09/09/19 16:04:25 GE78LuGJ
>>8
いや、つまりムダな時間がかかるから止める方法ないかな?って話なんだけど
バックアップがあったらなんかいいことあったかね?
どうせ書き戻しやら何やらしなきゃならないからあまりメリットが思いつかないけど
11:login:Penguin
09/09/20 00:28:14 Br9GWSzG
>>7
sata/md/lvm/fs
なオレはパーティションなんぞ切らずにmdでRAID5 array組んでますよ
12:login:Penguin
09/09/20 00:29:54 Br9GWSzG
>>9
fs壊れてるよ、それ・・・
13:7
09/09/20 16:32:20 JfCgkafy
結局素直に時間で解決したw
>>11
俺も昔はそうしてたんだけど、
ある時、アレイの容量を増やそうと同容量のディスクを一本買ってきたら
元あったディスクと新規ディスクの総セクタ数がほんの少し違ってて
(つまり新ディスクの方が数セクタ少なくて)追加できず…ということがあった。
それ以来、総容量より僅かに小さいパーティションをきちんと切るようにしたよ。
14:login:Penguin
09/09/21 14:16:08 Ly9SE+U7
ん?
mdならパーティションなんぞ切らなくても
使用容量が指定できたと思うが
それに既にあるアレイに追加するなら
どう転んでも既に使われてる他のドライブと
同じ容量しか使われない
時間がどーとか悩むだけ無駄
15:login:Penguin
09/09/21 14:22:07 nwMOYBnG
>>13
嫌過ぎるな > わずかに足りない
LVMで500GBx3をLVMでまとめて
1.5TBのディスクのアレイに参加させようとしたらわずかに足りない・・
良く見たらfree PEがまだまずかに残っていた。lvextendで0になるまでぶちこんだらなんとかなった
16:login:Penguin
09/09/21 14:39:49 Ly9SE+U7
>>15
LVMでまとめたボリュームをRAIDに加えるって
なんでそんな危険なことを?
RAIDの意味を真っ向から否定するようなw
17:login:Penguin
09/09/21 14:42:16 nwMOYBnG
>>16
比較的最近1.5TBをメインのアレイに変えたので
これまでの500GBがいっぱい余っているため。貧乏性なので・・
18:login:Penguin
09/09/21 14:44:27 Ly9SE+U7
>>13
--size または -z
19:login:Penguin
09/09/21 14:47:49 Ly9SE+U7
>>17
「いっぱい余ってる」なら
LVMではなく
もう一個足してRAID5のボリュームにして
それをもう一段上のRAIDに参加させる
の方が正しいような気がする。
面倒くせーから
俺はやらんけどねw
20:login:Penguin
09/09/21 14:54:51 nwMOYBnG
>>19
正確には6個なので、それも考えたけど。
で、まあ
結局のところ止めました!w
リビルド開始までは確認したけど「遅ッ」
1.5TBなら 25MB/sくらいの速度なのだけど
LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に
いや、それも正確にはLVMが悪いのかそれとも
今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから
遅いのかよくわかっていなかったりする
21:login:Penguin
09/09/21 14:57:17 0rI++oYo
バーカ
22:login:Penguin
09/09/24 17:41:10 QOatyG3l
スレリンク(software板:735番)
>>教えてください
>>質問なんですが外付けのHDDも暗号化できますか?
>>2テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが
>>問題有りませんか?
23:login:Penguin
09/09/25 22:29:45 OgNrc6NB
素直に1.5TBを購入し 500GBは500GBでアレイにした
RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。
$ cat /proc/mdstat
Personalities : [raid1] [raid5] [raid4] [raid6]
md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]
md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0]
5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]
24:login:Penguin
09/09/27 19:56:01 OVR/+voC
電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー
25:login:Penguin
09/09/28 10:39:20 Lzc9hMsI
いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん)
CentOSにて
/boot RAID1
swap
/ RAID1+0
として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが
Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?
26:login:Penguin
09/09/28 11:40:16 1pzidZ2O
FedoraだったらインストーラでRAID10できるんだけどなー
27:login:Penguin
09/09/28 13:28:48 C/Lh+sXP
>>25
インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、
そこにインストールする、という手順じゃダメ?
28:login:Penguin
09/09/29 17:04:26 uKmkyA+r
>>25
一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。
29:login:Penguin
09/10/04 20:06:23 QoLrolGm
>>24
裸族の雑居ビルじゃだめなんか
30:login:Penguin
09/10/13 14:47:09 IKMNvC1+
ざぞくのらっきょビル
31:login:Penguin
09/10/18 20:32:48 kyzATX8H
システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1)
という構成でシステムを再インストールしたいのですがどうすればいいのでしょう?
1.sdb1をfail&removeしてmd0から除く
2.sdb1に新システムをインストール
3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定
4.sda1から起動し、sdbをadd
と思ったのですが…1の時点でコケました。
1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、
と、ワケワカランとなってしまいました。
# そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?
32:login:Penguin
09/10/18 20:43:55 /Yo7fcPn
> 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
> 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、
BIOSでの起動ドライブの指定は意図した通りに設定してあんの?
至極まっとうな動作だと思うが
1枚だけで起動できなきゃなんの為のRAID1なんだ
33:login:Penguin
09/10/19 10:35:44 F1hFmcmu
何をしたいのかさっぱりわからん。
34:login:Penguin
09/10/19 12:01:56 5c6ufY3t
BIOSのHDD起動順序
35:login:Penguin
09/10/19 12:23:40 OwtH0QAV
つか
RAIDのレベルで二つに割ってる意味がサッパリ分からん。
ボリューム分けたいなら普通はLVMでやるもんだと思うが。
パフォーマンスが落ちるだけじゃねーの?
36:login:Penguin
09/10/19 12:44:43 Js6Cpgcr
LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw
37:login:Penguin
09/10/19 16:32:02 Sjy8xwGc
明らか
か?
38:login:Penguin
09/10/19 21:48:33 fwC9TQj2
実効"ほぼ"ゼロってのは叩きやすいからね
定量的に考えられない奴が引っかかるから扇動しやすい
39:login:Penguin
09/10/20 11:23:21 nQrL8SHf
パフォーマンスはともかく
ディスク故障->交換時にかかる手間暇に関しては
LVMで分けた方がずっと楽だな。
40:login:Penguin
09/12/14 19:40:04 RyeiL2Wz
LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、
複数のmdデバイスを同時にresyncかけるのはできるのかな?
OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、
再起動すると一個ずつになってる、、
同時でやれば速く終わるはずなんだけど
41:login:Penguin
09/12/15 11:32:32 tx5kvce1
>>40
> 同時でやれば速く終わるはずなんだけど
むしろ遅くなりそうな気がするが。
同一のCPU、同一のコントローラで
二つの処理を同時に行わせるんだよな?
42:login:Penguin
09/12/15 14:19:25 CbO7zir3
>>41
そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。
resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。
同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、
43:login:Penguin
09/12/15 14:52:55 kA6phnL8
ボリュームの初期化と
データが入ってるボリュームのresyncでは
話が全く違うように思える
44:login:Penguin
09/12/15 16:18:22 CbO7zir3
>>43
もち、買ってきたばっかのブランクHDDです
45:login:Penguin
09/12/15 17:52:50 DeZ5m+oO
単にrcスクリプトの問題じゃねえの
46:login:Penguin
09/12/16 02:11:43 5fywQ9w/
ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない…
で再起動してからは同期が終ってないから普通に順番に走ると。
客先とかで組むと最後まで完了しないと帰れないのでって事情ですw
47:login:Penguin
09/12/16 11:50:39 cGLo5n8p
そういう事情なら
前の日のうちにresync済ませておいたHDDを持ち込めば
再認識させるだけで即座に帰れるぞw
48:login:Penguin
09/12/23 17:30:17 zGW6BKPU
LVMもRAIDに加えられるようなのでちょっと悩み中
今、自宅ファイルサーバの構成が
500GB 2個
1TB 2個
1.5TB 1個
という構成
OSは80GBのHDDに入れている
容量が足りなくなったついでにRAID5を組もうと思い、
1.5TB 2個を追加しようと思っている
ここで、A案かB案か迷っている
A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む
B案 1.5TBをfdiskで500GBと1TBのパーティションで切って
500GB 5個と1TB 5個でそれぞれRAID5を組む
今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、
A案だと再構成に何日もかかるのかな?
49:login:Penguin
09/12/23 18:40:50 DJuG93Mm
どちらかといえばB案かな。大容量での再構成はできれば避けたい。
ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。
このあたりはアクセスパターン次第かと。
もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。
mdXもRAIDに参加できる
で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。
大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
一番小さいアレイからデータ掃き出して外す。
うちはこれで、1発250GBの時代から新陳代謝させて
今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。
このあたりは容量効率をとるかメンテナンス性を取るかの判断かな
50:login:Penguin
09/12/23 23:29:29 o+oOXBGn
3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。
# mdadm /dev/md0 -a /dev/sdd1
mdadm: hot added /dev/sdd1
# mdadm -G /dev/md0 -n 4
mdadm: Cannot set device size/shape for /dev/md0: Invalid argument
ちなみに、md0はLVMに組み込まれています。
今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?
51:login:Penguin
09/12/24 00:01:18 SIaUuIyu
>>49
> 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
> 一番小さいアレイからデータ掃き出して外す。
参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで
大きいアレイにデータを寄せて、resize2fsでfsを縮小、
vgreduceでLVをVGから外す、という流れでおk?
52:login:Penguin
09/12/24 02:50:17 NQCo/TNI
>>51
減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。
なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、
増やすときはpvcreate→vgextend→lvextend→resizefs
53:login:Penguin
09/12/24 02:52:07 NQCo/TNI
途中で送信してしまった。
(通常の構成なら)RAID(md)層はPVのさらに下に来る。
あとはLVMスレで頼む
54:login:Penguin
09/12/24 12:29:30 VyYXnLPe
>>52
lvreduceすると自動的にpvmoveされるっけ?
55:login:Penguin
09/12/24 13:03:22 VyYXnLPe
Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて
なんらかの冗長化をしたい、というシチュエーションに限定した話で
いいんですけども、
・ディスク全体でmdを構成して、md上にパーティションをつくる
・パーティション分けてから、パーティションごとにmdをつくる
利点欠点について説明する場面があるんだけど、何を言えばいいだろう。
その気になれば後でどうにでもなるからどっちでもいいや、
とつい思ってしまうんだけど……
話す相手は「コンピュータには慣れているけど(学問的な意味で)
サーバメンテ的なことには詳しくない人」です。
56:login:Penguin
09/12/24 13:10:57 wt0k8Pk+
つまり、お前もよく理解していないってこった。
57:login:Penguin
09/12/24 21:07:27 NQCo/TNI
LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…
58:login:Penguin
09/12/25 09:54:17 Bu/8ScH4
>>50
> ちなみに、md0はLVMに組み込まれています。
答えが書いてあるんじゃないかって気がする。
59:login:Penguin
09/12/25 09:56:03 Bu/8ScH4
>>57
誤:もろともしない
正:ものともしない
60:login:Penguin
09/12/27 22:44:10 xPaTeqXA
>>52が>>51への返答になってないことにも気づかず偉そうだな…… > /dev/null
61:login:Penguin
10/01/04 22:46:36 kJMQbgtx
ねぇ、LVMで足らない分をポチポチ足していったら
JBODみたいに1つでも壊れたらまずいHDDアレイにならない?
62:login:Penguin
10/01/18 01:11:33 FrA+yAqo
>>48ですが、A案で構成中に問題が
>>49さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、
OS再起動するとRAID構成から外れてしまう
# mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1
# mdadm /dev/md0 --add /dev/md1
# mdadm --grow /dev/md0 -n 5
これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる
恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが
/dev/md0を/dev/md9としてもダメだった
今度lvmからmd0への組みこみを試してみようと考えているが、
linear arrayでできる方法はないのだろうか?
63:login:Penguin
10/01/19 20:18:03 +d0hdVIw
initrd作り直したか?
64:login:Penguin
10/01/20 18:35:12 XwDp0ABh
ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?
65:login:Penguin
10/01/20 19:29:48 ndWbRgCE
まぁFedora11から入ってるから、いるんじゃね?
66:login:Penguin
10/01/21 00:16:24 VDTPOdY5
いやー自動マウントの設定がうまくいかなくてさー
67:login:Penguin
10/01/23 03:37:11 3Mk8FRSB
そこそこIOPSの高い数TBのストレージを作りたいんですが、
基本的にはディスク本数を増やすアプローチで良いのでしょうか?
68:login:Penguin
10/01/23 10:49:58 NzyUkd6I
数TB程度ならSSD並べるだけでいいだろ
69:login:Penguin
10/02/05 18:22:40 0skLHFUh
swapを冗長化するという話はほとんど聞きませんが、
swap域でディスクエラーが起きたらどうなるのでしょうか?
プロセスが突然死するのでしょうか?
暴走することもあるのでしょうか?
一般には、swapを冗長化するデメリットが
プロセスが突然死したりするかもしれない心配より
大きいと考えられているのでしょうか?
70:69
10/02/05 18:25:40 0skLHFUh
別の質問です。
sdaとsdbでraid1を組んだとき、
sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら
何が起こるのでしょうか?
71:69
10/02/05 18:34:06 0skLHFUh
>>70
これは間抜けな質問だったかもしれません。raid5などと混同していました。
無視してくださって結構です。
72:login:Penguin
10/02/05 18:39:23 hTXVw8Is
>>69
前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで
メモリを載せる。スワップしたら負け。
73:69
10/02/05 18:44:53 0skLHFUh
>>72
早っ。
今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。
74:login:Penguin
10/02/05 18:47:13 VwALYjfj
>>69
実際にやってみた。
物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で:
sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>'
ええ、フリーズしました。
どうしたらよいでしょうか?電源ボタン長押しでいいですか?
75:login:Penguin
10/02/05 19:19:11 j8P2r62W
物理メモリの延長と考えればメモリの破損だからなあ
そりゃ止まるよね
76:login:Penguin
10/02/05 19:25:12 VwALYjfj
でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから
強制的に終了させられることは珍しくないじゃん?
だからさーそういう例外を予測して、完全には無理だろうけど、
フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?
77:login:Penguin
10/02/05 21:54:13 /2F2WLUF
OSとアプリの責任分界をまるっきり無視だなw
78:login:Penguin
10/02/06 02:29:34 NYl8i1Ri
初心者なのでこのスレには不似合かもしれないんですけど
緊急事態なので教えてください
REID0を組んでるのですがマザーが逝ってしまったらしく
BIOSまで行き着かず電源が落ちてしまいます
なんとかHDのデータだけでも救出したいのですが
ほかのマザーでもREIDのHDは認識しますか?
可能でしたらその手順も教えていただけたら...
お願いいたします
79:login:Penguin
10/02/06 07:27:04 OzdAS2DW
ソフトRAIDなのかハードRAIDなのか。
ハードなら同じハードを揃える。
ソフトなら移し変えるだけ可じゃね?
もうちょっと環境詳しく。
80:login:Penguin
10/02/06 09:53:58 NYl8i1Ri
>79
ありがとうございます
DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです
自分としては他のマザーで大丈夫なら
今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが
同じマザーでなければ無理なようでしたら
ヤフオクで純正のマザーを落とそうかと思ってます
81:login:Penguin
10/02/06 14:55:17 kWyCQKjd
WindowsXPモデルしか無いみたいだけどここはLinux板だよ。
82:login:Penguin
10/02/06 15:04:03 y6S0x+iZ
REID て。
83:login:Penguin
10/02/07 04:45:16 HVHbakeU
ローマ字入力してる人に多いタイプミスだから気にしない…
(わたしは親指シフトだから…笑)
84:login:Penguin
10/02/07 05:10:36 Is4alLXh
タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが
85:login:Penguin
10/02/07 06:19:54 e3D699rK
RAID0でデータを救出って時点で頭おかしいね
RAID0はなくなってもいいデータを入れるものだろうに
86:login:Penguin
10/02/07 07:13:30 kPG49Q02
>RAID0でデータを救出って時点で頭おかしいね
ディスクが逝かれたってことじゃないみたいだし、
そこは別にいいだろ。
87:login:Penguin
10/02/13 05:44:18 nV0eWbuV
質問です
元々
本体:eSATAカード増設
外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0
OS:fedora 11
の構成のサーバにfedora12をクリーンインストールしました。
インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、
RAID0の状態では見えていない状況です
この状態でRAIDの組みなおしは可能でしょうか?
88:login:Penguin
10/02/13 07:31:30 0ecMg6dD
意味不明
89:login:Penguin
10/02/13 09:03:14 TRB1DKG4
たぶん,
sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが,
sdaをFedora12にしてSoftRAID設定が消えちゃったって
言ってるみたいだね~
Fedoraに強い人!助けて~(笑
90:login:Penguin
10/02/13 13:22:54 ZQ7DCUTq
>>87
まず確認してほしいけど、起動後に、
mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1
とすると、RAID0のアレイは動くんだよね?
それで動かないようなら、dmraidが悪さをしている可能性がある
dmraid -r
としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する
91:login:Penguin
10/02/13 13:38:35 0WzASaEG
ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?
92:login:Penguin
10/02/13 13:56:06 ZQ7DCUTq
>>91
逆にdmraidを使いたい理由を教えてほしいんだけど
Windowsとかとアレイを共用してるとか?
それとも最近のマザーにはparity計算するハードとか載ってるのかな?
枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな
たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒
mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても
なんとか修復できたりする
93:login:Penguin
10/02/13 15:11:10 nV0eWbuV
>>90
返信ありがとうございます。
fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
/devを見たところsdc1、sdd1ともない状況でした
現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
とやってみたところinvalid major number '8' とでてきて詰まってる状況です
ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます
[root@sv1 ~]# cat /proc/mdstat
Personalities : [raid1]
md5 : inactive sdc[1](S) sdd[0](S)
4514 blocks super external:imsm
94:login:Penguin
10/02/13 15:49:26 ZQ7DCUTq
>>93
>fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
>/devを見たところsdc1、sdd1ともない状況でした
あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ
実際そうなんだというなら、
strace fdisk /dev/sdc
の結果を張ってみてくれ
>現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
>とやってみたところinvalid major number '8' とでてきて詰まってる状況です
その「XX」が合ってるかどうか気になるな
デバイスファイル作るなら /dev で
./MAKEDEV sdc
としてみたら?(余計なファイルもいっぱいできるけど)
まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か
mount
の結果と
dmesg
の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)
95:login:Penguin
10/02/13 15:54:37 ZQ7DCUTq
>>94
自己レス
ちょっと勘違いしてた
状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと
パーティションテーブルが壊れているのか、非互換なのか…という感じですか
とりあえず
fdisk -l /dev/sdc
fdisk -l /dev/sdd
の結果と、dmesgのsdcとsddの認識部分のログが見たいですな
96:login:Penguin
10/02/13 16:00:09 nV0eWbuV
>>95
度々すみません
# fdisk -l /dev/sd[c,d]
ディスク /dev/sdc: 500.1 GB, 500106780160 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00072abe
デバイス ブート 始点 終点 ブロック Id システム
/dev/sdc1 1 60801 488384001 fd Linux raid 自動検出
ディスク /dev/sdd: 500.1 GB, 500107862016 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00095176
デバイス ブート 始点 終点 ブロック Id システム
/dev/sdd1 1 60801 488384001 fd Linux raid 自動検出
(続く)
97:login:Penguin
10/02/13 16:05:59 nV0eWbuV
(続き)
# dmesg | grep sd[c,d]
sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB)
sd 6:0:0:0: [sdc] Write Protect is off
sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00
sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdc:
sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB)
sd 6:1:0:0: [sdd] Write Protect is off
sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00
sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdd: sdc1
sd 6:0:0:0: [sdc] Attached SCSI disk
sdd1
sd 6:1:0:0: [sdd] Attached SCSI disk
>その「XX」が合ってるかどうか気になるな
# ll /dev/sdc
brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc
となっていましたのでマイナー番号は33を指定してました
98:login:Penguin
10/02/13 16:23:17 ZQ7DCUTq
>>96
>>97
fdiskの結果もおかしくないし、デバイス認識にも問題ない
mknodのマイナー番号指定もおかしくない(33であってる)
だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか
どうにも謎ですな
PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう
ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか
SELinuxが何かしてる?
restorecon -R /dev
してみるとか(これで解決するとも思えんが…)
99:login:Penguin
10/02/14 20:11:05 32z55fMa
>>92
いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。
100:login:Penguin
10/02/15 08:42:59 dKzXeQoa
>>99
どっちも似たような処理をするわけだし、dmraidの実装が極端に優れているとかでなければ、速度差はそれほど期待
できない気がするなぁ。ちょっとググってみたけど、明確な性能差があるという最近のベンチ結果は見当たらなかった
(あまりしつこくは検索してない)
もしも速度差があるとすれば、dmraidがやるべきことをやっていないとかじゃないの?
dmraidのソース見たけど、未実装な機能であるとか、「more sanity check」とかのコメントが結構あったよ
mdでは、最近、バリアの実装が全RAIDレベルで完了したみたいだし、安全性考えるならばmdでしょ
そもそもdmraidではRAID 4/5使うにはまだカーネルにパッチを当てないといかんし、RAID 6に至っては未サポート
その上、ハード依存性もあるとなっては、俺なら多少の速度差程度では使う気にならんなぁ
もちろん使ってみてベンチマークとか取って報告してくれると嬉しいが
101:login:Penguin
10/02/15 18:31:35 3eiOHoeN
質問があります.長文ですがよろしくお願いします.
現在Vine linux 4.2 でファイルサーバを構築しています.
mdadmにて1.5T3台でRaid5の状態から,もう一台追加で
1.5T4台にしようとしたのですが,
# mdadm --manage /dev/md1 --add /dev/sdb1
mdadm: added /dev/sdb1
の後に--growを行ったところ
# mdadm --grow /dev/md1 --raid-disks=4
mdadm: Need to backup 384K of critical section..
となりエラーになります.
簡単に調べたところ,海外のサイトで
カーネルが2.6.19以降でないとraid5のgrowができないとあったので
Vine4.2のカーネルが2.6.16なのが原因だと考えていますが
それであっているでしょうか?
また,カーネルが問題なら,Vine5は文字化けの問題その他で
アップグレードを躊躇しているので
これを機に他のディストリに移行しようかと思っています.
このときにRaidのデータを残したまま移行する方法はありますか?
もしあれば教えていただきたいです.
102:login:Penguin
10/02/15 19:46:15 dKzXeQoa
>>101
raid5のgrow対応は2.6.17からじゃなかったかな。いずれにしても2.6.16なら駄目かな
んで、これはエラーじゃなくて、正常時にも同様のメッセージが出るよ
>mdadm: Need to backup 384K of critical section..
>これを機に他のディストリに移行しようかと思っています.
>このときにRaidのデータを残したまま移行する方法はありますか?
基本的にどのディストリであっても、そのまま移行できます
でも何があるか分からないから、バックアップは取っておきましょう
103:login:Penguin
10/02/15 20:10:52 VLzsUrgl
>>101
Vine4.2で
1.5TB x 6 のRAID6
500GB x 6 のRAID6
やってますよ。
過去にはRAID5 500GB x 4 をGrowで 500GB x 6にしたり普通にやってました。
Linux ***** 2.6.16-76.40vl4 #1 SMP Sun Nov 9 04:43:51 JST 2008 i686 athlon i386 GNU/Linux
普通にできるからガンガレw貴重なVineの友w
104:login:Penguin
10/02/15 20:16:50 Qu2WEuRS
>>101
カーネルのバージョンに加えてmdadmのバージョンも問題(2.6以上じゃないとダメ)。
Debian etchはカーネルが2.6.18なんだけどmdadmが2.5.xだったのでRAID5のgrowができなかった記憶が。
105:101
10/02/15 20:35:37 3eiOHoeN
皆さん早速の返事ありがとうございます.
>>102
すいません,一行コピーできていませんでした.
エラーは3行目だと思います.
# mdadm --grow /dev/md1 --raid-disks=4
mdadm: Need to backup 384K of critical section..
mdadm: Cannot set device size/shape for /dev/md1: Invalid argument
です.早速カーネルをあげてみます.
>>103
あなたもVineですか.
Vineは最近話題に上ることが少なくなった気がしたので
仲間がいると分かってうれしいです.
私もできるならVineのままでいきたいのでもう少しがんばってみます
>>104
mdadmのバージョンは考えてもみませんでした.
確認したところ
mdadm - v2.5.5 - 23 October 2006
でしたので,こちらもバージョンアップします.
早くやりたいけど,まだ家に帰れない...
106:103
10/02/15 21:04:45 VLzsUrgl
>>105
過去の自分の作業ログを見たところ
500GBx4→500GBx6のときはraidtools、
1.5TBx4→1.5TBx6のときは
URLリンク(piro791.blog.so-net.ne.jp)
ここを参考にやってました。
がんばってください。
自分のmdadm も2.5.5でバージョン全く同じです。
107:login:Penguin
10/02/16 12:07:46 U/2RUOkN
でもVine 4.2なら直にメンテナンスされなくなるし、
いずれは5.xに行くか他のディストリに移る必要があるよ。
5.xへの移行はデフォルトの文字コードその他、
他のディストリに移行するのと大差ない面倒があるので俺は結局CentOSに移った。
RedHat系なら yum の使い方覚える必要がある程度で
Vineでのノウハウがそのまま使えるし大した問題はない。
確か俺もVineでは growがうまく行かなかった記憶がある。
その時は調べた結果「ああ、kernel が古いのか」で納得したと思う。
>>103 が「普通にできる」てのがちょいと信じ難いが…
>>103 の kernel はいくつなのかな?
ま、Vineにはつきもののこの手のトラブルが皆無になるし
将来のことを考えると結局は他所へ移った方が楽だと思う。
メジャーなディストリだとトラブル時にネット上での情報量が多いしね。
108:login:Penguin
10/02/18 00:39:32 WHcn7By1
>>100
あーソースまではチェックしてなかったです。
ううむ。未だにその状況だと実運用に使えるようになるのは当分先ですね。
今自宅にPCないので手軽にベンチがとれる環境を作れないんです。個人で借りてるサーバーに突っ込んでみようかと思っていたのですが、今回は見送ることにします。
ありがとうございました。
109:login:Penguin
10/02/22 11:49:13 /vv6ceYV
RAID1を構成するディスクを読んだら、それぞれ違う値を返した、
ということはあり得るのでしょうか?
このとき物理的なエラーは検知できなかったとします。
110:109
10/02/22 11:54:40 /vv6ceYV
>>70の質問をした者です。
結局同じ質問になっていたことに気付きました。
質問を変えます。
RAID1に'a'と書きこんだのに、続けて同じ場所を読んだら'b'となっていた。
このとき物理エラーは検出されなかった。ということはあり得るのでしょうか?
111:login:Penguin
10/02/22 14:57:06 mO3WnbsM
ハードもソフトも人間が作ったもんだから、
「ありえるか」って言えば、ありえるんじゃね?
ところで、mdadm --detail /dev/md0 の結果でさ、
Events って何なんだろうね。
manpage 見ても、よくわかんなかったよ。
Events : 0.40
Events : 0.70880
Events : 0.26
Events : 0.60
4 台とも RAID1 のサーバだけど、いろいろ違うもんだね。
112:login:Penguin
10/02/22 18:04:22 6N04FDxr
低熱高熱状態でのHDDに書き込んだデータの化けはありうるわけだし
だからRead After Writeを実装してるHDDもあるし
こんとき物理エラーは検出されん
つか出来ん
113:109
10/02/22 18:30:32 /vv6ceYV
>>111
質問が下手すぎました。
>>112
どんな強力なRAIDでも、物理エラーとして検出されないエラーを修復することは
できないのですね。そういうことを気に病むより、SMARTなどの対策を打ったほうが
いいと思うようになりました。
114:login:Penguin
10/02/27 02:12:27 qDAtQXVH
今HDDのヘッドが読み出すときのビット誤り率(BER)は10-9程度
最近はエラー訂正に頼る傾向があるから、リニアでは10-6程度と逆にエラー発生率は高くなってる
でも逆に符号訂正の技術が高くなっているから、実際に伝送路に乗る品質は10-15乗以上にもなる
この次元の値のエラー率になると、もはやメモリーやバスやCPU、強いてはRAIDカードのコントローラーに乗るノイズで発生するエラーの確率のほうが高い。
それでもハードディスクの誤りが怖いというのであれば、次世代の量子コンピューターの登場まで待つんですな。
115:109
10/02/27 16:01:38 +q4ml44K
>>114
ありがとうございます。勉強になりました。
116:login:Penguin
10/03/20 18:21:41 SpYbO4RY
WD20EARSでmd RAIDやってる人はいませんか?
RAIDパーティションを64セクタ目から作成して、mdのストライピングサイズを64KBで
作成したとします。
mdに加えたHDDのRAIDパーティションの先頭にはmdの情報が保存されていると思います。
mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
実際に使える先頭セクタの場所が8の倍数でない場合は、WD20EARSをWinXPで使う場合と
同じようにパフォーマンスダウンするのではないかと思っています。
これってどう思いますか?
各HDDにおけるmdの情報が4096bytesの倍数であれば多分問題ないんだろうと思うんですけど。
117:login:Penguin
10/03/20 18:24:30 SpYbO4RY
5行目を訂正します。
誤:mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
正:mkfsにとって実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
言いたいことって、伝わりますか?
うまく言語化できない。
118:login:Penguin
10/03/20 18:26:25 aN8kdh7Y
URLリンク(lkml.indiana.edu)
URLリンク(lwn.net)
119:login:Penguin
10/03/20 18:57:33 SpYbO4RY
>>118
このリンクはLinuxにおける4096bytesセクタに対する考察なだけっぽい気がします。
うまく言いたい事を表現できない自分が悪いんですけどね。
たとえば1つのmdパーティションにmdの管理情報が4096bytes必要だとします。
それならば次のセクタから64KBでストライピングしても、別にセクタをまたがった
アクセスにならないので問題ないと思います。
もし管理情報が2048bytesだとしたら、セクタをちょうど二つに分けた形で
ストライピングされてしまうので、強烈なパフォーマンスダウンになると思います。
ここまで書いて、どう書けばいいのかわかりました。
RAIDパーティション当たりのmd管理情報って何KBなんでしょうか?
120:login:Penguin
10/03/20 19:23:29 TrISQUCw
一番の誤解はmdのスーパーブロックは末端に在るってことかな
121:login:Penguin
10/03/20 19:31:49 TrISQUCw
バージョン0.9/1.0の場合だこれ
1.1/1.2だと先頭だわ
詳細はmd(4)
mdadmは0.9がデフォルトだけども
122:login:Penguin
10/03/20 20:28:44 SpYbO4RY
>>120
で、すげえ!やったネ!って思ったけど
>>121
なんという改悪でしょう。
man見てみましたけど、私には分かりませんでした。
考えてみたら、mdの管理情報が問題ないとパスできたとしても
ext3の管理情報サイズまで考えないといけないですよね。
WD20EARS買うのをやめようかな~。
安いから特攻しようかと思ったんですけど。
123:login:Penguin
10/03/21 20:28:32 SqWw8gw9
知っている人に質問。
3wareの7000とか9550のSATA RAIDボードに既存のデータが保存されたHDDをつなげるとき、UNITの構築しなくても /dev/sdc1 とかでマウントして利用できる?
Single DiskとしてUNIT構築を行おうとすると、既存のデータが破壊されますけどどうします?と聞いてくるんで。
124:login:Penguin
10/03/21 20:43:39 plED2x3n
>>123
3ware使ってないけど、大抵のRAIDカードは管理用の情報をHDDに書き込むから
単体HDDとして使う場合も中身は壊れるよ。
3ware使ってる人に聞きたいのならこっちのスレのほうがいいかも
RAIDカードあれこれ 39枚目
スレリンク(jisaku板)
125:login:Penguin
10/03/21 20:57:25 SqWw8gw9
>>124
ありがとう。了解した。
該当スレ誘導も感謝。
126:login:Penguin
10/03/22 12:23:35 E14pDNne
linuxのソフトウェアRAIDの話です。
mdadm.confを使わずにRAIDデバイスを起動した場合は、OSの停止前に明示的にmdadm -Sを
実行する必要がありますか?
127:login:Penguin
10/03/22 18:10:59 N0EEVYIK
>>126
終了動作でファイルシステムのメタデータ吐く、
そのあとmdのスーパーブロック書き出して同期を停めるでしょ。
128:login:Penguin
10/04/02 08:14:21 laU9d0eY
raid 1+0 と 6が使える環境で、おまいらはどっちを選択する?
129:login:Penguin
10/04/02 09:19:25 +pJGaIlA
おまえならどっちもいっしょ
130:login:Penguin
10/04/03 23:13:51 YO6iN+5f
自作板で聞こうかとも思ったのですが、こちらの方が経験者が多そうなので質問させてください。
会社でCentos 5.4、Raid1でファイルサーバー立てようと思うのですがお勧めのRAIDカード教えてもらえないでしょうか
ただし予算はHDも合わせて2万円以内です。
先日ソフマップで、1.5TBのHDが8千円くらい、1TBが7千円くらいで売ってたので
HD2基で14000円~16000円くらい
そうするとRAIDカードの予算は4000円から6000円くらいしかありません
玄人志向のSAPARAID-PCIやSATARAIDが2000円前後なので、それにしようかとも思ったのですがCentosで使えるのかなあと
実はこれまで職場ではIOのNAS使ってたのですが、頻繁に壊れるので何度かLinuxでデータをサルベージしてました
RAID対応のNASに買い替えようとも思ったのですが、企業向けはコストかかるのでどうせならファイルサーバーに1本化しようかなと
これまでCentosをのせていたPCは、玄人志向のATA133RAID-PCIのカードを取り付けRAID1で使用していましたが
160GBしかHD乗せて無かったので業務で使うには容量が足りず、データの受け渡し用にだけ使っていました。
構成はサーバー用にDELLの5~6年くらい前のPC (CPU PENTIUM4 2.4GHZ、メモリ768MB PCIバス)
クライアントPCのOSはWindows XP、7、2000、Mac OSX 、Mac OS9など20台ほど(使用する人間は10人程ですが)
本当なら業務で使用するのだから、もっと高価なシステムを組むべきなのは重々分かっているのですが
何せ零細企業な上、私の裁量で稟議が降りるのが以前は10万だったのが、2万に減ってしまって(涙
それとも、この程度のクライアント数ならソフトRAIDにすべきでしょうか
ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです)
私の知識不足と長文申し訳ないですが誰か答えてくださるか誘導してくださると助かります。
よろしくお願いいたします。
131:login:Penguin
10/04/04 00:14:11 N/Mg7OeJ
金が無いなら知恵を死ぬ気で付けるしかない。
(最低このスレ全部読むくらいはやるんだろ?)
ってことはさておき、md使ったソフトウェアraidで良い。
カードもRAIDなんちゃらなんて付いてなくてATAカードで十分。
玄人志向だと以下から適当にどうぞ。
URLリンク(www.kuroutoshikou.com)
132:login:Penguin
10/04/04 07:40:07 5YeefPIg
「ちゃんとした」ハードウェアRAIDカードを買う予算(8~10万程度)
がないならソフトウェアRAIDを選択すべきだろうね
> ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです)
実際に試してみりゃいいじゃん。
「これまでCentOSを載せていたPC」とやらがあるんだろ?
133:130
10/04/04 08:28:25 sEcjxQNn
>>131-132
ありがとうございます。
いろいろめんどくさい条件書いてすみませんでした。
ソフトウェアRAIDでいってみます。
134:login:Penguin
10/04/07 14:09:14 0r9wUKJP
ソフトウェアraidのほうが部品点数が少ない分、故障も少なく可用性が高くていいな。
135:login:Penguin
10/04/07 18:03:44 jIRW8AWX
前スレに出てたけど
HDDが一個故障したらOSごと落ちちゃうような
(RAIDの意味がない)トラブルが起こる可能性は
HW RAIDより高いけどなw
136:login:Penguin
10/04/07 19:05:51 N4cK5rbU
前スレのどこにそんな事例があったのかソースくらい欲しいものだな
137:login:Penguin
10/04/07 19:11:34 jIRW8AWX
>>431-441
138:login:Penguin
10/04/07 19:26:00 rX+zbI9D
そーだな。5000円のカードよりは10万円のカードの方がマシだな。
139:login:Penguin
10/04/08 03:30:23 Hw13iH1s
>>135
前スレのはIDEのドライバの出来に影響されるって話だね。
SATAでも、ポートを増やすのにクロシコのカードを何枚も使ってたら可用性が高いとは言え無いだろうねw
でも最近のHW RAIDカードはSAS用に傾いてるから、SATAのHDDとの互換性の問題が多いんだよね。
エンタープライズモデルのHDD以外のサポートを拒否してるarecaとかね。
俺はarecaも使っててHDD選びですごい苦労してるんで、
その点ソフトウエアRAIDだとHDDは何でも良いんで楽でいいよw
140:login:Penguin
10/04/08 12:51:30 fx0Q1ZmL
> 前スレのはIDEのドライバの出来に影響されるって話だね。
コントローラ次第、という話であって、ドライバの出来に限定した話ではないかと。
(ドライバも要素の一部ではあるが)
俺はSW RAIDの一番のメリットは可用性ではなく、
HW環境に依存しない、という点だと思ってる。
(経験上、停めずに使うという点ではむしろHW RAIDの方が有利)
HW RAIDの場合、万一コントローラが故障した場合、同じ機種を調達しないと
アレイの中身の読み書きができなくなってしまう。
(同じメーカーでも別機種だと大抵はアレイの完全互換を保証していない)
既に調達不能になっている場合はどーしようもない。
仮に予備が買ってあったとしても、一台故障したらもう「次」はない訳で。
SW RAIDなら、OSがLinuxである限り、HDDとして認識してくれりゃHWはなんでもOK。
取り敢えず適当なPCに取り付けてやれば、アレイの読み書きは可能になる。
非常時のことを考えると、この差は大きい。
ま~結局は、運用コストの差、という話ではあるがw
141:login:Penguin
10/04/08 19:15:49 5/ctPl71
>>122
mdadmのmanページ、-eオプションのところにバージョン毎の違いが書いてある。
ストライピングに関する記憶は朧げだけど、メタデータはmdデバイスではなく、
コンポーネントデバイスに書き込まれるため、ストライピングの対象にならない。
はずなんだけど、自信がないな。
mdadmはdefault==0.90だけど、ディストロのパーティション管理では、
異なることがある。例えば、openSUSEはRAID1の場合は1.0だった。
142:login:Penguin
10/04/08 20:27:51 +Jfsgp79
だから並盛を安くするんじゃなくて、大盛りをもう少し安くて
特盛りをもっと安くすればいいんだよ。
どうせ客層なんて男ばっかりなんだから。
143:login:Penguin
10/04/08 20:28:43 +Jfsgp79
ごめんとしか言いようがない。
144:login:Penguin
10/04/08 20:38:47 P5Oyw2sf
男がみんな大食いだと思ったら間違いだ。
145:login:Penguin
10/04/12 23:05:43 AKilMbBg
>>142
よかったな
URLリンク(getnews.jp)
146:login:Penguin
10/04/15 20:38:03 3rydDv6Y
>>130
亀レスで何だが、使用者が10人程度なら
可用性よりバックアップを優先すべきだと思うが
バックアップはしてるの?
サルベージしているなら怪しいと思ってるんだが。。。
147:login:Penguin
10/07/20 11:37:42 q/Lsg0js
raid1壊れますたorz
syslog↓になんかずらずら出てるんですが、意味わかりませんorz
URLリンク(loda.jp)
半年ぐらいしか使ってないディスクなんですが物理的にイカレてしまったのでしょか?
Jul 20 10:35:11 orz kernel: [ 6174.320131] ata3.00: model number mismatch(略) あたりマトモでない気がしますが…
ディスクから異音とかはないです
よろしければアドバイスお願いします
148:login:Penguin
10/07/21 20:36:37 2+4uaJQ3
>>147
エラー出てるね
> ata3: SError: { 10B8B Dispar BadCRC LinkSeq TrStaTrns UnrecFIS }
下記サイトによれば、SATAケーブルor電源が怪しい
URLリンク(ata.wiki.kernel.org)
>These bits are set by the SATA host interface in response to error conditions on the SATA link.
>Unless a drive hotplug or unplug operation occurred, it is generally not normal to see
>any of these bits set. If they are, it usually points strongly toward a hardware problem
>(often a bad SATA cable or a bad or inadequate power supply).
個人的には熱暴走とかもありうると思うけど
149:login:Penguin
10/07/21 22:35:51 AJuBZV4Q
>>147
こりゃ完全にケーブルだ。
もしSATAケーブルがノッチ無しなら、ケーブルの両端を洗濯バサミで一晩挟んどけ。
結構効く。
150:login:Penguin
10/07/21 22:37:31 At+yPwQO
こんなどうしようもない対策がなるほど効いてしまうだろうなぁと思える
SATAコネクタ仕様を考えた奴はケーブルで首吊って詩ねばいいのに
151:login:Penguin
10/07/22 10:30:29 ruiGCZGt
SATAケーブルで吊るなんて出来ないだろ…と, 思ってたら,
隣の国で, 携帯のケーブルで吊った還流スターが居るの思い出して
涙が出ちゃったじゃないかー!そんなこと言うなよ~
後付けの抜け防止金具とゆーものが無かったっけ?
152:login:Penguin
10/07/22 10:34:04 jxrupwtP
>>149
「ラッチ」のことか?
153:login:Penguin
10/07/23 15:40:37 aflCmZfG
>>150
こんなんだしなあ
USBの方はケーブルにも認証試験を行うようになったのにな
URLリンク(pc.watch.impress.co.jp)
>この話は別に今に始まったわけではなく、Gen2の頃からこうした問題は出ていたが、SATA-IO自身はこれに関して特に動く予定は無いというか、
>たとえばコンプライアンステストを通った製品にロゴを付加するといったキャンペーンは(過去に販売したケーブルは使えない、と言っているのと同義語なので)
>むしろ相互運用性を損なう事になりかねないとしており、
>引き続きケーブルに関しては、ごちゃごちゃのままの環境が続くことになりそうである。
154:login:Penguin
10/07/23 21:47:22 czPuWn9X
>>148-153
みなさんアドバイスありがとうございます
SATAケーブルが怪しい件了解です
機械のフタ開けて
SATAケーブルのコネクタを確認してみることにします
今日はもうマンドクサwなので明日ぐらいにでも
ガシッとはめて直ったらいいなと期待しています
では~
155:login:Penguin
10/07/23 22:42:05 MvgvZIr6
>>154
ガンバレ
syslogにハードディスクデバイス関連のタイムアウトが頻発したらケーブルを疑う癖をつけるんだ。
SATAケーブルとの約束だぞ。
156:login:Penguin
10/07/27 20:40:58 +DF9ERUV
お手数かけますが、教えてください。
Debianです。
現在、SATA HDD8台、ソフトRAID6で運用中,。
HDDはオンボ4ポート、PCI SATAカード4ポートです。
SATAカードをPCI-eのSAS6iRに交換して、8ポートともSATAカードから接続したいと思います。
最終的には、SAS6iRに8台接続してデータはそのままで元の状態に戻したいのです。
どういう手順で行えばいいのでしょうか?
157:login:Penguin
10/07/27 20:49:11 zh7Of8ZU
Debianもudevなんだからそのまま新カードに挿して
Grub入ってるのBIOSで一番にしとけばいんじゃねの?
158:login:Penguin
10/07/27 23:29:08 PZTE8ajp
>>156
ディスクが接続されてるコントローラを意識しなくてもokだと思うが。
俺の場合、
1.C3-800MHzのPCにPromise SATA300TX4にSATA HDD×3を接続し、RAID5アレイ構築
2.パリティ計算の余りの遅さに耐えかねて(CPUファンもぶっ壊れたし)GA-D510UDを導入
3.GA-D510UDのオンボードSATA(NM10統合ので2ポート, JMicronので2ポート)にHDDを4台接続
4.もう1台ディスクを足してオンライン領域拡張
5.オンボードSATAはホットスワップが効かないことが判明したのでPCIスロットにSATA300TX4を挿してHDDを繋ぎ替え
というステップを経て現在に至るが、繋ぎ替えてもすんなりアレイを認識してたぞ。
159:login:Penguin
10/07/27 23:35:52 CDEVG/fS
>>156
RAIDボードのBIOSからExpoprt JBODとかか?
PromiseだとJBOD利用でも必ずBIOSからUnitを作成しないとデバイスが認識しなかった。
160:login:Penguin
10/07/28 00:58:03 C+9PDLMA
Promiseは平然と「1台構成でもアレイ組まなきゃ見えませんから^^」とか言い出す基地害板だからな
161:login:Penguin
10/07/28 09:01:33 E6Ms9Bcd
HardRAIDカードって壊れたときの対処ってどーなんすか?
HDD2個でRAID1使ってた場合
復旧不可能?
162:login:Penguin
10/07/28 11:42:36 fYI1FyG/
何がどう壊れたかによって話が変わる
漠然と言われても
163:login:Penguin
10/07/28 12:29:45 esiaNd7h
>>160
HighPoint RocketRAID 2300とかは「1台でもアレイ組め」に加えて、
POSTの際に繋がってるディスクのデータを(アレイのメンバじゃなくても問答無用で)壊すけどな!
164:login:Penguin
10/07/28 14:26:58 lqUxMOoj
>>163
それ嘘だ。
イニシャライズせずにレガシーのまま使えばアレイ組まなくても使える。
165:163
10/07/28 14:43:25 esiaNd7h
>>164
1台でもアレイ組めは俺の記憶違いか。すまん。
166:login:Penguin
10/07/28 17:14:44 fXbebyC4
>>165
いやいや、結構はまりやすいよ。RAIDボードでのSingle DiskとJBODの設定は。
前者はハードディスクを消去するボードもあるし、後者もJBODでもUNITを作成しないとハードディスクを認識しない等。
俺もいろんなメーカーのRAIDボードメンテナンスしていたが今でもごちゃごちゃ。
一番楽なのはLinux SoftwareRAIDだな。
167:156
10/07/29 19:45:06 MQlBotXc
みなさんの言うとおり、SAS6iRを挿しそのままHDDをつなぎ替えて起動してみましたところ初めからHBAとなり、何もせずに移行できました。
ありがとうございました。
168:156
10/07/29 22:21:04 MQlBotXc
ベンチ計測してみた。
SAS6iR HDD8台(WD10EADS) ソフトウエアRAID6
hdparmでread測定したら、251MB/sだった。
たぶん遅い部類なんだろうな。
169:login:Penguin
10/07/29 22:31:18 hc5F77Bz
>>168
多分バス速度で頭打ち。
170:login:Penguin
10/09/04 01:19:05 XZAw0nxj
URLリンク(hellokitty68.main.jp)
ここを参考にしてraid1からraid5へ移行する実験をしてるのですが、
echo raid5 > /sys/block/md0/md/level
の段でこけます。
-bash: echo: write error: デバイスもしくはリソースがビジー状態です
となります。
viしてもE667 : Fsync failedでやっぱり変更できません。
原因や対策をご存知の形はいらっしゃいませんか?
OSはCentOS5.5、Fedora13の両方で試しましたが同じような状況です。
環境はVM上です。
171:login:Penguin
10/09/04 07:17:14 w4DAMBkG
URLリンク(itpro.nikkeibp.co.jp)
そもそもそんなことが出来るのを今知った
172:login:Penguin
10/09/04 11:47:48 gxReY0uS
Fedora12の5→6はecho raiid6 で行ったがなぁ
addした後で
# mdadm --grow /dev/mdXn --raid-level 5 --raid-devices=3 --backup-file=どっか
で行かんかな
173:login:Penguin
10/09/04 16:30:06 RWU7tg0Q
>>170
情報が少なくてよくわかんない
とりあえず、以下のコマンドの実行結果を貼ってくれれば何かわかるかも
# cat /proc/partitions
# cat /proc/mdstat
# mdadm --detail /dev/md0
174:login:Penguin
10/09/04 18:28:47 PnMMuH/V
>>170
ちゃんとrootユーザで実行したか?
sudoで実行しても蹴られるぞ。
$ sudo -s
でrootになってもう一度実行してみて。
175:login:Penguin
10/09/04 18:41:14 XZAw0nxj
>>170です
参考にしていたサイトがSUSEを使ってやったようなので、
ためしにSUSE11.3で同じようにやったら問題なく出来ました。
実際にCentOSで500GBのRAID1を組んでるファイルサーバーを
将来的にRAID5で運用したいと思い実験をしています。
ですのでCentOSで出来るようになるのが目標です。
>>172
もうしわけないです。
--backup-fileオプションの使い方が良くわかりませんでした。
勉強します。
>>173
次のレスに貼り付けます。
176:login:Penguin
10/09/04 18:45:24 XZAw0nxj
# cat /proc/partitions
major minor #blocks name
8 0 8388608 sda
8 1 104391 sda1
8 2 522112 sda2
8 3 7759395 sda3
8 16 4194304 sdb
8 17 4192933 sdb1
8 32 4194304 sdc
8 33 4192933 sdc1
8 48 4194304 sdd
8 49 4192933 sdd1
9 0 4192832 md0
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[2](S) sdc1[1] sdb1[0]
4192832 blocks [2/2] [UU]
unused devices: <none>
177:login:Penguin
10/09/04 18:47:23 XZAw0nxj
# mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Fri Sep 3 23:42:20 2010
Raid Level : raid1
Array Size : 4192832 (4.00 GiB 4.29 GB)
Used Dev Size : 4192832 (4.00 GiB 4.29 GB)
Raid Devices : 2
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Fri Sep 3 23:58:31 2010
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
UUID : 5e7be737:36419030:20c51d1d:ba7d4872
Events : 0.2
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 - spare /dev/sdd1
178:login:Penguin
10/09/04 18:52:43 XZAw0nxj
>>174
もちろんrootです。
今再確認してやってみましたがやはりrootでもダメでした。
# fuser /sys/block/md0/md/level
ってやっても結果が返ってこないから
プロセスが使ってるとかではないように思います。
それともfuserの使い方間違えてるのかなぁ・・・
179:login:Penguin
10/09/04 20:45:43 PnMMuH/V
>>178
ブロックデバイスの3重RAID1に変換してから、3デバイスのRAID5に変換してみて。
180:login:Penguin
10/09/04 22:58:56 XMPA/Vxp
>>171には、カーネル2.6.30以降とか書いてあるのだが
CentOSは2.6.18とかだろ?
Fedora13で不可(>>170)というのはわからんけどね。
正確にどのバージョンから可能になるのか、俺は知らないが。
181:login:Penguin
10/09/05 00:04:30 HUBnDTBu
>>179
# mdstat --grow /dev/md0 -n 3
をやるってことですよね?
その後、
--glow -l 5とかやってもダメでした。
例のファイルへのechoも相変わらず蹴られます。
182:login:Penguin
10/09/05 13:59:40 ca0DYFqh
>>180
年末~来年明け頃リリースされるであろう
EHEL6(Kernel2.6.32)ベースのCent6待ちと勝手に予測
183:login:Penguin
10/09/05 23:51:45 0TzuHuxG
>>181
残念ながら、>>180の指摘のとおりCentOS5のカーネルが古くてダメっぽい
CentOS5の環境にRHEL6のカーネル(2.6.32)だけを(無理やり)入れて、
2.6.32で起動すればRAID1->RAID5に変更できた。
RHEL6のカーネルは↓のSRPMからCentOS5上でビルドしたけど超面倒だった
URLリンク(ftp.ne.jp)
データのバックアップを取ってRAIDアレイを作り直した方が安全&確実
184:login:Penguin
10/09/06 18:34:36 tFSr8hS+
Fedora13(今は2.6.34)で出来ないのがホント不可解だよね
metadata 0.90が悪いのかと思ったけど手元ではそんなこと無いし
185:login:Penguin
10/09/06 21:02:06 mrESGec/
fedora13のインストーラーのカーネル(2.6.33.3-85.fc13.x86_64)でも
普通にRAID1→RAID5に変更できたよ
>>170のfedora13で出来ないってのは何かの間違いだと思う
186:login:Penguin
10/09/08 11:21:02 4n0gc/4A
>>170です
>>182
いや、そうならそうで早く出て欲しいですね。。。
>>183
ビルドしたってことはrpm -ivh ではないんですよね?
カーネルの構築はLinuxを弄り始めた頃に挫折して、
それ以来一度もやってなくて苦手意識ありありです。
もしよければさわりだけでも教えていただけますか?
ググったところ、ここが参考になりそうとは思ったのですが。
URLリンク(www.atmarkit.co.jp)
>>184>>185
うーん、もしかしたら僕の作業に間違いがあったかも知れません。
もう一度やってみます。
SUSEインストール→Raid5に変更→CentOSインストールしなおし
で出来たにはできたけど、これはちょっと非現実的ですよね。
目標は現在のOSのままやりたいので。
その点では>>183さんのように
Raid変更のためだけにカーネルだけ変えて起動するっていうのが
いいような気がしました。
187:login:Penguin
10/09/09 00:31:31 uO+QGL4T
>>186
knoppixみたいなLiveCDは?
一応手順も貼っとくけど、自己責任でヨロ
0. kernel-2.6.32-19.el6.src.rpmをダウンロード
(/root/kernel-2.6.32-19.el6.src.rpm)
1. ディレクトリ準備
# cd /usr/src/redhat
# mkdir BUILD RPMS SOURCES SPECS
2.SOURCESディレクトリでSRPMを展開(何故か、rpm -iで入れようとしたらCRCエラーと言われたので)
# cd /usr/src/redhat/SOURCES/
# rpm2cpio /root/kernel-2.6.32-19.el6.src.rpm | cpio -id
3. config-genericを編集
# vi config-generic
→以下の2行を追加
CONFIG_SYSFS_DEPRECATED=y
CONFIG_SYSFS_DEPRECATED_V2=y
4. kernel.specをSPECSディレクトリに移動&編集
# mv kernel.spec ../SPECS/
# cd ../SPECS/
# vi kernel.spec
→2箇所変更
コメントアウトされている「%define buildid~」のコメント解除し、適当に変更(例:%define buildid .centest)
「%define signmodules 1」を「%define signmodules 0」に変更
つづく
188:login:Penguin
10/09/09 00:38:48 uO+QGL4T
>>187のつづき
5. パッケージビルド(--targetは適宜変更)
# rpmbuild -bb --target=i686 --without kdump --without perf --without perftool --without kabichk --without fips --without debuginfo --without dracut --without vdso_install kernel.spec
→エラーが無ければ/usr/src/redhat/RPMS/i686/にカーネルパッケージが出来る
6. カーネルパッケージを強制インストール
# cd /usr/src/redhat/RPMS/i686/
# rpm -ivh --nodeps kernel-2.6.32-19.centest.i686.rpm
ちなみに、"--nodeps"無しの場合のエラー
kernel-firmware >= 2.6.32-19.centest は kernel-2.6.32-19.centest.i686 に必要とされています
grubby >= 7.0.4-1 は kernel-2.6.32-19.centest.i686 に必要とされています
mkinitrd >= 6.0.61-1 は kernel-2.6.32-19.centest.i686 に必要とされています
udev < 145-11 は kernel-2.6.32-19.centest.i686 と競合します。
7, 初期RAMディスク再作成
テストした環境では、この時点で作成されている初期RAMディスクが異常で起動できない
(mkinitrdの依存無視してるから当たり前?)
展開してみると、sd_modが入っていなかった
sd_mod及び依存ドライバを含めて初期RAMディスク作り直し
# mkinitrd -f --builtin=ehci-hcd --builtin=ohci-hcd --builtin=uhci-hcd --with=sd_mod --with=scsi_tgt --with=crc-t10dif /boot/initrd-2.6.32-19.centest.i686.img 2.6.32-19.centest.i686
(↑4で設定したbuildidの合わせてファイル名とカーネルは適宜変更)
VMware Workstation 7の仮想マシンは上記でOK。
ハードウェア構成で必要なドライバは変わるので、事前に2.6.18のカーネルが起動した状態で
ロードされているドライバを確認しておき、必要に応じて初期RAMディスクに含めること。
8. 再起動→2.6.32で起動OK
189:login:Penguin
10/09/11 13:37:57 ylGEDvFt
>>187
本当に丁寧に教えていただいてありがとうございます。
本当に面倒な作業なんですね。
今夜にでも試してみようと思います。
fedora13のLiveCDを使って/sys/block/md0/md/level
の書き換えが出来ました。
正確には/sys/block/md127/md/levelです。
LiveCDで起動したらmd127にされてしまいました。
そのままecho raid5やって、
CentOSで再起動。
再起動後にもlevelファイルの中身はraid5だったので、
growしてみたところうまくいきました。
で、md127のままなのが気に入らなかったので
#mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1
#mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1
#mdadm --misc --stop /dev/md127
#mdadm -C /dev/md0 -l 5 -n 3 /dev/sdb1 /dev/sdc1 /dev/sdd1
と、これでmd0になりました、データも失っていません。
これ以外の方法が思いつかなかったんですが、
もっとスマートな方法があったら教授願いたいです。
mdadmまだ使いこなせてません。
カーネルが古くてもmdadmのバージョンが条件を満たしていれば
できるみたいですね。
みなさん、親身になって答えてくださりありがとうございました。
190:login:Penguin
10/09/11 13:46:22 D+LL5OKu
--super-minor=0 --update=super-minor
191:login:Penguin
10/09/14 21:32:42 Oy6zCGq+
-l1したら/bootにする場合でRAIDを理解しないローダー使うときは--metadata=0.90指定しろよ、って言われたわ
>>116-122
192:login:Penguin
10/09/17 23:06:24 QPHXo1u7
チラ裏メモ
Fedora12 x86_64(mdadm 3.0.3-2)だと7台構成のRAID6→8台構成にreshapeしようとすると
mdadm: Need to backup 120K of critical section..
mdadm: /dev/md1: failed to save critical region
でエラー
Fedora13 x86_64(mdadm 3.1.2-10)にupgradeしたら
mdadm: Need to backup 120K of critical section..
(黙ってreshape開始)
で成功
mdadm 3.0.3-2のままでもRAID5の6台→7台の変更と7台のRAID5→7台のRAID6はできたので
3.0.3-2には半端に不具合が残ってる気がする
193:login:Penguin
10/09/20 08:16:15 YPDhyYqG
WD20EARSでRAID6組もうと思うんだけど、AFTってなんか関係してくるん?
194:login:Penguin
10/09/21 01:48:27 MEa3sArJ
>>193
スレリンク(jisaku板:475番)
kernel が対応していれば問題なしかと
195:login:Penguin
10/09/21 19:49:57 sGME08sR
>>193
ハードウェアRAIDカードの場合、一部のカードで不具合報告あるから要確認
スレリンク(jisaku板:108番)
196:login:Penguin
10/09/23 10:27:21 aw/haffN
>>193-194
回答ありがと。
SAS6/iRでソフトRAID6なんだが報告なさげだから人柱なのかな?
197:login:Penguin
10/09/24 20:46:05 a9oJcDud
>>195
あ、なつかしい。俺がまとめた奴だw
引用ありがと。
198:login:Penguin
10/10/01 15:40:17 lKU+sDuG
CentOS 5.4でHDD3台をRAID5でひとまとめにして使っていました。
最近になって容量が足りなくなってきたので、
同じ容量のHDDを1台追加し、領域拡張しょうとしているのですがうまくいきません。
URLリンク(liliumrubellum.blog10.fc2.com)
ここの手順通りに進めたのですが、最後にファイルシステムを拡張するところで
# resize2fs -p /dev/md0
resize2fs 1.39 (29-May-2006)
resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0
Couldn't find valid filesystem superblock.
このようなエラーメッセージが表示されます。
マウントしているのがいけないのかと思い、umountを実行しましたが、
resize2fsのエラーメッセージは変化ありませんでした。
どうしたらうまく拡張できるのでしょうか?
ちなみに、マウント先は/homeで、アンマウント方法はumountコマンドだけでなく、
/etc/fstabを書き換え、起動時からこのデバイスをマウントしないようにすることも試しましたが、
結果は変わりませんでした。
199:login:Penguin
10/10/01 17:10:57 iIUT3HXi
Centの5.4辺りのkernelとmdadmのバージョンで
Online RAID Level Migrationってできるんだっけ?
200:198
10/10/02 09:00:00 l0eD4IK+
参考にしたサイトには書かれてないみたいですが、
lvextend -l 89425 RAID5_01/home
で論理ボリュームを拡張したあと
e2fsck -f /dev/RAID5_01/home
を実行すれば、追加HDD分の容量が増えました。
マウントしていない状態で行ったので、アンマウント必須かはわかりません。
次やるときはマウントせずに試してみます。
あと、/etc/mdadm.confに
num-devices=(数字)
という記述がなかったので、今回は何も書き換えなかったのですが、
特に問題なく動いているみたいです。
ディストリによってはこのファイルの書き換えは必要ないのでしょうか。
とにかく、そんなわけで自己解決しました。お騒がせしました。
201:198
10/10/02 10:24:36 l0eD4IK+
誤: 次やるときはマウントせずに試してみます。
正: 次やるときはマウントしたまま試してみます。
でしたorz
202:login:Penguin
10/10/02 10:30:33 QA6hlIsa
>>200
リンク先のページを開こうとするとブラウザが固まるんで判らんのだが、要するに
自分とこのシステム構成(RAID + LVM + ext3)を把握しないまま、
RAID + ext3のシステムについて書いたブログエントリをそっくりそのまま真似して
「うまくいかない!」
……というオチ?
203:198
10/10/02 16:57:53 l0eD4IK+
>>202
だいたいそんな感じです。
さすがに自分のところの構成くらい把握してるつもりですが、
どこ見てもこのやり方で書いてあったんで、
ほとんどの構成で通用するやり方だと思い込んでいました。
さらにエラーメッセージが
resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0
なので、これを読んで「LVM使ってるからやり方が違うんだ」
という発想にたどり着けず、途方にくれてました。
204:login:Penguin
10/11/03 14:54:37 EB+4MiCj
最近のマザーボードはRAIDカード搭載の物が多いですけど
Linuxで使うならソフトウェアRAIDの方が無難ですか?
205:login:Penguin
10/11/03 15:02:33 +mHxq1R3
>>204
いえす
206:login:Penguin
10/11/03 15:58:28 aR2r0zLp
>>204
×最近のマザーボードはRAIDカード搭載の物が多いですけど
○最近のマザーボードはRAID機能搭載の物が多いですけど
ソフトウエアRAIDだとハードウエア(マザーとかボードとか)変えてもコマンド打てば復活する
移し変え時の別のハードウエアへの接続位置(順)は適当でいい
1,2,3,4→2.4.1.3としてもちゃんと復活してくれる
ハードウエアRAIDだとハードウエアを変えるとデータがあるのに見えない
場合によっては消える
207:login:Penguin
10/11/03 16:29:41 EB+4MiCj
>>205,206
ありがとうございます
ソフトウェアRAIDにしておきます
208:login:Penguin
10/11/03 16:34:52 3a2ffMIU
>>206
「最近のマザーボード」とやらに載ってるようなのは
「ハードウェアRAID」ですらない。
>>206の書きようだとハードウェアRAIDには
何のメリットもないように見えるなw
たぶんハードウェアRAIDを使ったことがないんだろうが。
209:login:Penguin
10/11/03 21:15:46 KClY6dlN
マザボのRAID機能をどうこう言ってる相手に、ハードウェアRAIDのメリットも糞もないわw
メリットがあるとして、それを得るには幾ら投資すりゃいいのさ
個人レベルはもちろん、業務レベルでも一部を除けば、ソフトウェアRAIDで充分だよ
210:login:Penguin
10/11/03 23:07:53 uttDJDAa
費用対効果で考えればいい
同じ効果を安くできるならそれでいいって考え方でいいじゃん
人それぞれだけど
211:login:Penguin
10/11/03 23:19:18 uttDJDAa
ちなみにオレはソフトウエアRAID派
馬鹿なんで、USBメモリ起動で8台 RAID6で運用しています
USBメモリのイメージを別でとってあるんでUSBメモリが壊れても無問題
212:login:Penguin
10/11/04 00:42:42 A0zlTMZq
>>209
>>208の指摘は
(1)>>206は疑似HW RAIDとHW RAIDをゴチャマゼにしている
(2)HW RAIDにはSW RAIDとは違うメリットがある
という別々の二点なのだが?
213:login:Penguin
10/11/04 00:45:21 A0zlTMZq
(2)に関しては
>>206の書き方では初心者に誤解を与える
という指摘だな
214:login:Penguin
10/11/04 03:20:39 BL47owsD
>>212
擬似HW RAID用ドライバ開発されてなかったっけ?
ちょっとだけ負荷軽くなる奴
215:login:Penguin
10/11/04 14:46:16 1Zlxj7jT
SW RAIDの欠点はRebuildやResync時にI/Oバス帯域を食いまくるところか。
>>214
擬似HW RAIDは dmraidドライバでIntel/nVidiaチップセット向けRAID対応だったかも。
216:login:Penguin
10/11/05 21:53:06 ZjVbxW85
いろんな用途と複合的に使うにはHW RAIDが有利
217:login:Penguin
10/11/05 22:48:44 hdBmVs+M
SCSIのRAIDは信用できるが
IDE/ATA/SATAのRAIDはなんか信用できない
SATAならむしろOSの機能のソフトRAIDを選びたい
218:login:Penguin
10/11/05 23:13:14 9wgeowow
「なんか」とか
219:login:Penguin
10/11/05 23:15:05 QtPoCyoP
スカ爺の言うことだし
220:login:Penguin
10/11/06 00:35:09 Qew0bHFo
チッ、うっせーな…反省してま~す
221:login:Penguin
10/11/06 05:06:40 6aJUodpE
>>211
フラッシュメモリをRAID5/6で使うと、あっという間に寿命が来るぞ。
バックアップ取ってあるなら、RAID0で使った方が寿命長いんじゃないか?
222:login:Penguin
10/11/06 21:20:03 /PdZ4pGk
フラッシュメモリは起動用でHDDは8台でRAID6ですよ
コレダメならESXやESXiのUSBメモリ起動もダメってことじゃ?
223:login:Penguin
10/11/08 22:40:45 /LP5nvaW
>>222
swapは?
224:login:Penguin
10/11/10 20:17:26 fV4mstBN
メモリ2Gしかないけど、作らない。
225:login:Penguin
10/11/12 21:32:47 10OTEzMQ
こんばんは。
Xenserver5.6(Centosがベース)上で、Windows2008R2をファイルサーバ
として動かしてます。
そして、ホスト側にてディスク2TB×4本でRAID10を組んでます。
ですが、ゲスト側に割り当てれるHDDイメージが1つあたり最大2TBまでのため、
しかたなく、2TBイメージ×2つを割りあえてて、ファイルサーバを動かしてます。
そのため、2008R2サーバ上ではディスクが2つ見える状態ですが、
使いやすくするために以下いずれかの方法で4TB×1にしたいのです。
1.スパンボリューム
2.RAID0
のいずれかでまとめるならば、1、2でパフォーマンスは異なったりするのでしょうか?
(スパンボリュームのほうは試しましたが、データがあるのであまり変更したくないです)
もし、知ってる方がいらっしゃいましたら教えていただけないでしょうか。
226:login:Penguin
10/11/13 07:07:21 bwqwb+4h
>>225
XenServerのことは知らんが、ネタは物理ドライブじゃなくて
ディスクアレイに置いてあるイメージファイルなんだろ?
同一アレイに置いてあるイメージファイルをRAIDをしても高速化するとは思えんから、
普通にスパンボリュームでいいんじゃね?
227:login:Penguin
10/11/13 10:49:54 RbGidMq7
>>226
試してみました。書き忘れましたがベースのRAID10はソフトウェア(mdadm)です
<条件>
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
OS : Windows Server 2008 R2 Datacenter Edition (Full installation) [6.1 Build 7600] (x64)
★JBOD
Sequential Read : 121.461 MB/s
Sequential Write : 95.109 MB/s
Random Read 512KB : 20.740 MB/s
Random Write 512KB : 34.521 MB/s
Random Read 4KB (QD=1) : 0.516 MB/s [ 126.0 IOPS]
Random Write 4KB (QD=1) : 0.881 MB/s [ 215.1 IOPS]
Random Read 4KB (QD=32) : 1.068 MB/s [ 260.6 IOPS]
Random Write 4KB (QD=32) : 1.073 MB/s [ 262.0 IOPS]
Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5)
Date : 2010/11/12 22:56:08
228:login:Penguin
10/11/13 10:50:35 RbGidMq7
>>226
★RAID0
Sequential Read : 66.657 MB/s
Sequential Write : 82.209 MB/s
Random Read 512KB : 20.065 MB/s
Random Write 512KB : 42.841 MB/s
Random Read 4KB (QD=1) : 0.563 MB/s [ 137.4 IOPS]
Random Write 4KB (QD=1) : 2.608 MB/s [ 636.8 IOPS]
Random Read 4KB (QD=32) : 1.232 MB/s [ 300.8 IOPS]
Random Write 4KB (QD=32) : 2.544 MB/s [ 621.2 IOPS]
Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5)
Date : 2010/11/12 23:19:09
★単体
Sequential Read : 225.816 MB/s
Sequential Write : 106.714 MB/s
Random Read 512KB : 30.901 MB/s
Random Write 512KB : 59.968 MB/s
Random Read 4KB (QD=1) : 0.694 MB/s [ 169.5 IOPS]
Random Write 4KB (QD=1) : 1.636 MB/s [ 399.5 IOPS]
Random Read 4KB (QD=32) : 1.336 MB/s [ 326.3 IOPS]
Random Write 4KB (QD=32) : 1.730 MB/s [ 422.4 IOPS]
Test : 1000 MB [D: 0.0% (0.2/1859.2 GB)] (x5)
Date : 2010/11/12 23:28:41
229:login:Penguin
10/11/13 10:51:44 RbGidMq7
>>226
結果、何もしないのが一番よいことがわかりました。
RAID0だとすごく遅くなり、JBODだと単体の半分ぐらいです。
(予想外の結果でした)
単体のドライブ2台を同時にベンチするとJBODぐらいのスピードに
なったので、恐らく書き込みなど分散→さらにRAID10にて分散など
無駄な感じとなって、落ちまくってるんだと思います。
#なんどやっても、同じでしたorz
230:login:Penguin
10/11/14 00:17:04 UO38LBbx
別にストレージ用のサーバ立ててiSCSIでマウントする
とかが当世風じゃね?
いろいろと融通が利くし
231:login:Penguin
10/11/14 01:58:03 IF1j6YbV
>>230
iSCSIでのディスク利用は考えてるのですが、ネットワーク周りを
強化してないので、とりあえずはローカルディスクで外部NASに
バックアップするような構成です。
iSCSI使うなら、ライブマイグレーションを使うことが目的になりそう
ですので、ホスト側を冗長しないとメリットなさそうですし、ディスク側
や経路上のNW機器も冗長しないと怖いです。
(ゲスト8台動いてますが、その最中にディスクが切り離されると
思うとゾッとします)
iSCSIを試す分には全然大丈夫なのですが、個人運用で本格利用
するにはコストがかかりそうなので今のところ見送ってます。
#ホスト側が落ちたら同じなんですけどね。でも、冗長化してないiSCSI
利用よりかはトラブルが発生しにくいかなと思ってます。
#職場ではesxiを入れたブレードサーバとかで構築してますが。
(もちろんディスクは外部で)
232:login:Penguin
10/11/15 19:22:57 gNCbtYKe
質問いいですか
win7とubuntuあたりでRAID構成を共有したいのですが、できますかね
233:login:Penguin
10/11/16 11:08:25 HeKRLUlf
>>232
一台でマルチブートって事?
ならオンボのRAIDドライバはどちらでも使える。
234:login:Penguin
10/11/16 21:29:52 JnnqGF7a
test
235:login:Penguin
10/11/16 21:33:44 VWoXCYbw
DELL SAS6/iR RAIDカード
で、
WD20EARS-00MVWB0
で、
ソフトRAID6いけるかな?
236:login:Penguin
10/11/16 22:39:33 Szhcfl18
8台くらいで構成したmdのraid5or6or10のベンチマークするとどの程度パフォーマンスが出るもんです?
そのうち自分でも試すつもりだけど参考用のデータとかあったりします?
237:login:Penguin
10/11/17 21:34:48 j19cjkTS
エスパー
RAIDするメディアにもよる
238:login:Penguin
10/11/20 19:44:31 cFLVa63Z
速度はあんまり出ないよ
シーゲートの7200回転1.5TB x 6 のRAID6
hdparm -ft /dev/md1
/dev/md1:
Timing buffered disk reads: 418 MB in 3.00 seconds = 139.15 MB/sec
239:login:Penguin
10/11/21 00:09:27 1IPGonEa
骨董品の幕の6L(250GB)*8本のRAID6で
/dev/md1:
Timing buffered disk reads: 874 MB in 3.00 seconds = 291.07 MB/sec
250~300弱の間でふらふらする
240:login:Penguin
10/11/21 11:17:38 zCTXq4aL
情報サンクス。
今4台のRAID5でkvmのホストやらせてるがゲスト7つ起動するとdisk i/oで詰まってる感じがするので台数増やしたら改善できないかなと思ったのだけれど。
cpu負荷との兼ね合いもあるけどチャレンジしてみようかと思います。
これでkvm自体がボトルネックだったら泣けるなあ。
241:login:Penguin
10/11/21 22:40:45 jxLFhocQ
>>240
ゲスト毎に違うHDD用意するのが幸せになれるんじゃないの?
って、7台+システム1台はさすがに厳しいな
242:login:Penguin
10/11/28 19:06:34 gL5KRMCh
>>116
激しく遅レスだけど、WD20EARSでmd RAIDやるならポイント2つ押さえておけば大丈夫。
URLリンク(green-rabbit.sakura.ne.jp)
- RAIDのデータ開始位置をセクタの区切りに合わせる
- LVMのデータ開始位置をRAIDのチャンクサイズに合わせる
ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
(パーティションはRAIDディスクに対してLVMで管理)
243:login:Penguin
10/11/28 22:00:44 RmwuvbbY
6台のraid6をmdadmで構築していました。
1台FailになったのでHDDを交換して復旧させようとしたら
次々とHDDがFailになり復旧できなくなりました。
これってもうダメなのでしょうか?
dmesg見るとHDD自体は認識しているようなのですが。
244:login:Penguin
10/11/28 22:25:22 5Q0sCNVi
それってコントローラーかマザーボード/CPUが死んでるんじゃ…
245:login:Penguin
10/11/28 22:27:33 OW3cc9+0
同ロットのHDDで揃えてたんだろ。良い教訓。
246:login:Penguin
10/11/28 22:31:24 Tsm3YN7+
>>242
linux初心者にわかりやすくコマンドください
WD20EARS8台でRAID6にしたいのです
247:login:Penguin
10/11/28 22:51:00 RmwuvbbY
すみません。ちょっとパニくってましたw
mdadm --assemble --force /dev/md0
したら、とりあえず4台で再構築が始まったみたいです。
>>245
全部同じではないけれど半分くらいは同じだったかも。
248:login:Penguin
10/11/28 22:54:14 ZKkrEg8g
>>246
リンク先のエントリを読んで解らんヤツにれいどろくなど宝の持ち腐れである!
アレが解らん人間にディスクがお釈迦ってデグったアレイを復旧できるとは思えんなw
249:login:Penguin
10/11/28 23:25:31 Tsm3YN7+
キモは2つか
250:login:Penguin
10/11/28 23:34:15 hDElDxYb
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
どうやるの?
251:login:Penguin
10/11/28 23:57:43 ZKkrEg8g
>>250
パーティションを指定する代わりにデバイス全体を指定すればいいだけ。
252:login:Penguin
10/11/29 00:16:37 5KK7FVso
パーティションタイプでfd(Linux RAID Auto Detect) を使う必要があるのかと思い、
1ディスク1パーティションの時でもパーティションを切っていたよ。。。。
253:login:Penguin
10/11/29 00:36:55 C+YWZRYM
>>252
/dev/sda1とかパーティションを切ったのに
mdadm --create -n 4 -l 5 /dev/sd[abcd]
でパーティションテーブルを吹っ飛ばす、というのはお約束なドジの一つだよねorz
254:login:Penguin
10/11/29 05:05:30 hkKkYSLf
でも、微妙な容量差を揃えられるように
1領域でもパーティションにした方が良いんじゃないかね。
255:login:Penguin
10/11/29 20:05:55 BBunKmhs
>>254 確かに。そのあたりは、下記でも触れられていますね。
URLリンク(raid.wiki.kernel.org)
個人的には、交換用に新しく買ったディスクのサイズがちょっと小さかったら、
そのとき対処すれば良いんじゃないかなー、と思ってます。
mdadm --grow --size= でサイズ変更するだけなので。
あ、RAID1以外だと時間かかりそうだし障害時にやるのはあれだから、
--create するときにあらかじめ --size しておけば良いんじゃないのかなー。
256:login:Penguin
10/11/29 20:37:16 NGnnNc2T
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
6台でRAID6とかでも関係ない?
257:login:Penguin
10/11/29 20:57:34 BBunKmhs
>>256
関係ないよ。
>>255でも書いたけど、RAID6ならRAID構築するときにサイズ指定しておくと良いよ。
(サイズは HDD の容量から 100MB程度引いておく)
% mdadm --create --size=サイズ(ディスク1台当たりに使用するサイズ[kb],64の倍数)
そうじゃないとHDDこけて交換しようと思ったときに、
同一モデルHDDでも容量が少なかった場合に困る。
258:login:Penguin
10/11/29 20:59:28 rjjhbUoR
容量ちょっとだけ大きいの買ってくるだけでいいやん
259:login:Penguin
10/11/29 21:03:21 BBunKmhs
>>258
でも、2TB使ってそういう状況になったら、2.5TB とか 3.0TBとかになって、GB単価違いすぎて泣ける気が
260:login:Penguin
10/11/30 09:57:13 366LkoAx
結局後から面倒事が出てきて対処対処
パテ切ってるのと変わらんなw
261:login:Penguin
10/11/30 22:54:26 xrENs+QS
WD20EARSを8台買ってきた。
組む時間がないから放置することになるが、
正月休みぐらいに対処しようかと。
ソフトウエアRAID6に挑戦予定。
262:login:Penguin
10/11/30 23:52:09 leruRje6
>>260
パーティションきるのに比べたら、RAID構築時にオプション1個つけるだけのほうが楽だとおもうのだけれども。
切りたいのなら切れば良いと思うけど、物理セクタサイズ4096のHDDが何台かある場合、
ただ手間なだけな気がする。
263:login:Penguin
10/12/05 13:14:20 S0mL6ghv
LinuxのソフトウェアRAIDって、起動ディスクにはRAID0か1しか使えない?
ディスク丸ごとRAID(RAID5)を組もうと思ったけど、
その場合は起動ディスクは別に用意しないとダメでしょうか。
264:login:Penguin
10/12/05 13:39:00 VXlrPkOO
>>263
RAIDじゃなくて、ブートローダーの話だな
URLリンク(grub.enbug.org)
>Version 1.97 and older only support RAID-0, RAID-1, and RAID-5. Version 1.98 adds support for RAID-4, RAID-6, and RAID-10.
265:263
10/12/05 14:24:33 S0mL6ghv
早速ありがとうございます。
grubが対応してればOkなんですね。
Cent5.5は0.97の模様。。。
近々出ると言うCentOS6を選択肢に入れたとしても、RHEL6が0.97。
URLリンク(distrowatch.com)
ディスク丸ごとは諦めて、パーティション毎のRAIDにしようかと思います。
266:263
10/12/05 14:35:29 S0mL6ghv
すみません、読み間違えてました。1.97以前でもRAID5まではOkですね。
267:login:Penguin
10/12/05 14:48:47 jj4aKBuD
おーい、そりゃsince version 1.95の話だぞ
0.9xのGRUB Legacyと1.9xのGRUB 2を一緒にしちゃいかん
268:263
10/12/05 15:04:53 S0mL6ghv
度々すみません。ありがとうございます。
もっときちんと調べてから書き込まないと、ダメですね。。。。
269:login:Penguin
10/12/05 23:43:26 JVWK3etV
Fedora13/14だとgrubとは別にgrub2ってパッケージあるね
270:login:Penguin
10/12/21 23:25:16 /W3bFROY
アフォな質問だけど誰か教えて。
遊び用で富士通のRX100 S6ってのが手に入った。
BIOS に RAID の項目あるし、ブート時に LSI MegaRaid とか表示される
から SATA のハードウェアRAID だと思って、BIOS でミラーリングにして
CentOS 入れてからディスクをぶっこ抜いてみたら死んだw
調べるとどうやらフェイクRAIDってやつらしい。
dmesg 見ると dmraid で動いてるみたいだけど、フェイクRAIDって
片肺では動かないもの?
遊び用じゃない 3com のハードウェアRAIDだと障害発生時には
ホットスワップでディスク交換すればリビルドが自動で走るんだけど、
その感覚では使えない?
271:login:Penguin
10/12/21 23:54:25 dF/NfV63
こんなレベルのがハードウェアRAIDがどうこうソフトウェアRAIDがどうこう語れるのか・・・
いい時代だなぁ
272:login:Penguin
10/12/22 00:04:06 qSGG/Y5L
3com?3ware?
273:login:Penguin
10/12/22 02:57:06 7dCZswWv
>>270
RX100 56がホットスワップに対応してるかどうかをなぜ真っ先に調べんのだ。
>フェイクRAIDって 片肺では動かないもの?
片肺で動かなければRAIDの意味がないではないか。それとホットスワップ対応は別問題。
>>271
ディスクが安くなったからねー。
274:login:Penguin
10/12/23 09:37:49 KkUvrI/e
>>273
下らん質問にレスありがとう。
WEBにはRX100 S6のホットスワップの情報はないんだけど
ひとつ前のRX100 S5や他の3400チップ積んだ製品では
ホットスワップできてるみたいなんで、S6でもいけるかと思って。
275:login:Penguin
10/12/26 01:51:39 QJg0e+k3
>>257
新品2TB8台でRAID6しようとしたんだが、一番容量が小さいHDDってどうやって知るのかな?
サイズ指定(1664000000KBまで下げても)しても
largest drive (/dev/sdb) exceeds size (1664000000K) by more than 1%
と出ます
hdparm -I /dev/sd*
で調べても
同じセクタ数、同じdeviceサイズ(MB)なんでよくわからないんですが?
276:275
10/12/26 11:11:24 xJ7Ntxe/
自己解決
-zの値を大きくすればいいのね
WD 2TB
mdadm: /dev/sdb is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdc is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdd is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sde is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdf is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdg is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdh is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdi is smaller than given size. 1953513344K < 2000000000K + metadata
当たり前かもしれんが8台とも同じだった
277:login:Penguin
10/12/26 14:55:25 xJ7Ntxe/
マウントまでいったんで、ベンチとってみた
ソフトウエアRAID6
WD20EARS-00MVWB0 *8
md0
READ 平均 388.27MB/s
WRITE 平均 159.583MB/s
まぁまぁだね
278:login:Penguin
10/12/27 22:30:26 2q1P0bSa
同じドライブを4台でmdadmのRAID5だが
Timing buffered disk reads: 996 MB in 3.00 seconds = 331.61 MB/sec
8台もある割にそんなでもないような…?
279:login:Penguin
10/12/28 03:28:15 HcJKc7c2
アホな質問ですが
mdraidで不良マーク→再起動→自動removeされちゃったデバイスを
--addして新たに書き直すんじゃ無くて
不良じゃなかった事にしてしれっとアレイメンバに戻す手ってありますか
Failったのは論理エラーでデバイス内データもHDDそのものの物理故障も無いって仮定で
280:login:Penguin
10/12/28 05:35:16 ddFMmW8s
mdadm --manage --re-add --force /dev/mdなんちゃら /dev/sdはずしたデバイス でどうでしょうか
281:login:Penguin
10/12/31 01:43:34 6jMIk7Lq
とりあえず2Tx4でRAID6を作ってみたので一応メモ。
まず、>>211-222のようなUSBメモリ起動を考えていた。
が、>>254-262のように全領域をRAIDにしようとしても、
結局ははRAID領域としないほうがよい微小な容量が残る。
ならば、それを/bootやswapとしてしまえばよい。
そのためには結局パーティションを切る必要があるが
それによって起動に必要な他のデバイスを省略できる。
また、>>263-268の疑問は、「/をRAIDにする」という意味ならば大丈夫。
起動時のカーネルは、/boot内にあるものを読みこみ
なおかつその時の/はinitrdから作ったRAMディスクだから。
というわけで、慣れないこともあって(AFT対応もあって)手間取ったし
トラぶってやり直しなんかもしたけど
なんとかCent5が起動はするようになった。
282:login:Penguin
11/01/06 10:37:11 LqVz0e3h
毎月第1日曜の00:57に実行されるmdadmのcheckarrayって
ものすごく負荷が掛かるんだけど、そもそもこれって必要なの?
283:login:Penguin
11/01/06 10:40:13 90P8MSkY
自分が最高に神に祝福されていると信じているなら不要
284:login:Penguin
11/01/06 10:50:14 LqVz0e3h
ietdで常時読み書きしているので負荷が上がるとエラーになるんだよね。
いい方法ないかしら。
285:login:Penguin
11/01/06 18:58:21 8qh0aVCJ
神に祈る
286:login:Penguin
11/01/06 19:49:54 GZ4wMjWn
>>284
checkarrayスクリプトの中でioniceを使ってIOスケジュールのクラスを'idle'にしてる
それでもエラーになるってことは、IO性能の限界。
キャッシュをたくさん積んだRAIDカードと早いDISK or SSDに置き換えた方がいい
287:login:Penguin
11/01/06 20:01:12 90P8MSkY
>checkarrayスクリプトの中でioniceを使って
???
288:login:Penguin
11/01/16 20:13:56 9TjvYxG+
すごく初歩的な質問かもしれませんが教えてください。
インテルマザーボードオンボードのICHのRaidに2台のSATAのHDDで組んだRaid0と、
コレガのCG-HDC2EU3100なんかの外付けRaidケースにe-sataで2台入れて組んだRaid0では
速度はどのくらい違いが出てしまうものなのでしょうか?
使用するHDDは同じ7200rpmのHDDです。
289:login:Penguin
11/01/16 21:02:50 5wcN0kGW
知らんけど、体感的な違いはゼロに近いと思う。
290:login:Penguin
11/01/16 23:05:02 9TjvYxG+
ありがとうございます。
つまり外付けでも内蔵と同じRaid0としての速度は出ると考えていいのですね!?
291:login:Penguin
11/01/16 23:15:56 UjUVBlql
2chに念押しとかw
292:login:Penguin
11/01/16 23:21:07 5wcN0kGW
>>290
1台より速いんじゃないかなという感じの速度アップはできる。
ベンチマークソフト使えば、数値で目に見えた違いを出してくれる。
だけど、2台でRAID0やって、理論的には2倍になるというのは幻想。
そういう意味で、「RAID0としての速度が出る」と言ってるのなら
その考え方は間違ってる。
293:login:Penguin
11/01/17 10:30:12 awRc0mEw
バスが律速しないとして2倍にならない例って何?
294:login:Penguin
11/01/18 17:49:41 AMRrBiFO
mdraidでミラーリングしているんですが、
いずれか1台が故障しても読み書きは継続できますよね?
ファイルシステムのエラーでハングアップになったもんで。
295:login:Penguin
11/01/18 17:51:59 270hrEVr
>>294
そうだよ。だからスレ違い。
296:login:Penguin
11/01/18 20:00:47 cWlOgZar
スレ違いではないけどな
297:login:Penguin
11/01/21 23:23:46 AKhU4TB8
いったいどれがsdaでどれがsdbなんだか
298:login:Penguin
11/01/22 02:34:45 zK0YGrGX
匂いを嗅いでみて、甘い匂いのするのがsda。
ちょっと舐めてみて酸っぱいのがsdbだよ。
299:login:Penguin
11/01/23 19:01:57 h1RbTWKL
両方酸っぱくて甘い匂いがしたらどうすんだw
シリアル控えてあるかバラして分かってるなら、
Redhatのディスクユーティリティー使えばひと目で分かるよ。
ls /dev/disk/by-id -l と cat /proc/mdstat でも
シリアルとの対応は分かる。dmraid だと知らん。
300:login:Penguin
11/01/23 23:53:48 hECcvXVM
300げっと
ちょっと前、電源死んでHDDが見えたり見えなくなったりATA2モードになったり止まったり
したんだがソフトウェアRAID1組んでたから普通に使えて「あーなんかカッコンカンッコン言ってるな~」
って感じだった。ソフトウェアRAIDって何気にすげーなって思ったぜ。
301:login:Penguin
11/01/24 13:56:32 1YcBp3Oq
>>300
しかし、同じロットは同時に逝きやすいという法則は越えられない。
こないだ、2発同時にあぼんしたw いまは日立とWDを混ぜている。
302:login:Penguin
11/01/29 01:19:33 oOHVlAzH
>>297
同じ疑問抱えてます。
アレイ内のHDDが壊れたとして、物理的に壊れたHDDがどれなのか特定すんのはどうしてるんだろう。
ケーブル外して取り外すときにオペレーションミスして
生きてるHDDを取り外さないための仕掛け&工夫実践例キボン。
303:login:Penguin
11/01/29 02:30:47 7snxt3L1
基本的にはシリアルNoから判別するしかないんじゃない?
オレは、hdparm -i /dev/sd* でシリアルNo確かめて、あとは>>299
304:login:Penguin
11/02/07 01:19:12 /w2VBTzF
CentOS 5.5でRAID6のオンライン領域拡張したいんだけど、カーネル2.6.21以上でないとダメとか見つけたんだ。
カーネルだけ入れ替えるしかないのかな?
305:login:Penguin
11/02/07 02:47:43 lo2w1dHg
俺も同じくCentOS5でRAID6をgrowしようとした。
最新カーネルを自力で作って起動するかテスト
・・・というのをVM上で一応やってみて大丈夫そうだとは思ったが
俺の場合はオンラインである必要は無かったので
結局、FedoraのliveCDを使ってgrowした。
ちなみに、(当然ながら)マザー次第だとは思うけど
俺の場合はnodmraidをつけなくて
いくつかのディスクがraidから除外されていたり
リムーバルと認識されて/dev/md127になったりと
結構トラぶった。