RAID総合スレッド No.3at LINUX
RAID総合スレッド No.3 - 暇つぶし2ch237:login:Penguin
07/08/23 12:52:27 DTiLiEZZ
>>236
232の作業内容を考えると、容量が無駄になっても
大きいディスクを買うのが安全。

新しく500GBを買ってきても、必要セクタあるかどうかの保証がない。

末尾を使わないのは、最初にRAIDを構築する時の話ならよいが
232の状態でのベストの解ではない。

まぁ好きにしろってことで。


238:login:Penguin
07/08/23 13:23:45 ipe5onr+
>>237
250GBをムダにしてでもっていうのはつまり安全を金で買うわけだ。
しかし、金があったらそもそもmdadmでSW-RAIDなんかしないとも言える。
つまり安全とコストのバランスは人それぞれ。わかってるようだけど。

239:login:Penguin
07/08/23 15:42:55 UNo2KVBv
HDDとか電源とか、部分入替不可のデバイスは買い直しのコストが
馬鹿にならないから若干無駄でも大きめのを買ってるなー。

うちは一度に大きな投資ができないんで、最初400GBで構築して、壊れたHDDから
500GB(そのときのバイト単価最安の容量のHDD)に入れ替える運用をしてる。
400GBが全部入替になるか、全体が容量不足になったら残りを500に入れ替えてgrow。

240:login:Penguin
07/08/23 16:01:49 UNo2KVBv
同じ容量で入替する前提なら、500GBなら少なくとも500,000,000,000バイトは
あることが保証されてる(なかったら詐欺) それを超えないように領域を作れば大丈夫ですな。
ちなみに昔うちで400x5で組んでたときは、↑の方法を使った場合と使わなかった場合の
容量差が60MBくらいだった。

241: ◆Zsh/ladOX.
07/08/23 22:00:49 0GkpxQQg
>>231
御愁傷様でした。
マジ海門死ねだねぇ┐(゚~゚)┌

242:login:Penguin
07/08/24 11:41:49 hDfGbW1b
>>241
べつに海門が悪いわけじゃないだろ。
ただのおまけでしかない容量をいっぱいまで使っていた>>231が悪い

243:login:Penguin
07/08/24 12:08:18 5MHQWA94
十分悪いだろ。


244:231
07/08/24 13:30:51 Gfnf/lpT
せめて/dev/sdaを使わず/dev/sda1とかにしとけばよかったんだけどね。
パーティションを切ってれば同じ容量になったはずなのに、
RAIDデバイスだからパーティションなんかいらねえだろと
デバイスを直でRAIDに組み込んでたからな。ほんとギリギリ一杯まで使ってた。
シーゲート死ねは半分冗談として、いい勉強になったわ。


新しいの
Disk /dev/sdb: 500.1 GB, 500106780160 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes

古いの
Disk /dev/sde: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = シリンダ数 of 16065 * 512 = 8225280 bytes

245:login:Penguin
07/08/25 01:44:12 761ThVL/
>>244
パーティションなしでも可能だけど、非推奨になってたはずだよ
要するにブートセクタとかパーティションテーブルの位置にも
情報が書き込まれるわけで、操作ツールとかOSが誤認識する可能性がある

246:login:Penguin
07/08/26 03:17:42 aJidy5wk
ちょっとした疑問
今日日RAID5やらRAID1やらRAID10から構成するディスクを減らす、
Shrinkをサポートしてるものってあります?


247:login:Penguin
07/08/26 22:35:45 jUv9LrSQ
>>246
RAID1は3台から2台に減らすってこと?
2台から1台なら要するに縮退ってことだろうけど……。

RAID5でディスク減らすのは少なくともmdadmだとできないぽい

248:login:Penguin
07/08/27 00:50:01 FohsBbSg
>>247
そそ。
大きめのアレイを組んでやろうかと考えてるんだけど、
のちのちRAID5からRAID10、またはその逆みたいに組み替えとかを考えた場合新しいHDDを用意してアレイを組み直すしかないのかなーと
ディスクの追加はできたりするようなので古いアレイからディスクを削除しつつ新しいアレイにHDD追加していくような使い方ができないもんかと思った次第
改めて自分で調べてみてもそんなものは無さそうですし大人しく組み替えなんぞ考えないで済むような使い方を考えることにしまっす


249:login:Penguin
07/08/27 01:00:12 5IvdN37N
ARECA 1130 で昔調べたことがある。
- firmware V1.38 2005-10-4 + disk 4台で確認。
- 3台以上での 1 は作れない。
- 1+0 を作れるチャンスは少ない。
- 6 を作れるチャンスはもっと少ない。modify では作れない。create するか expand するかで作るしかない。
- 0 は袋小路。
既存 set に disk を追加するのは可能 (expand で)
既存 set から disk を抜くのは不可能
容量を増やすのは可能 (直後に連続した空き領域が必要なだけあるときのみ)
容量を減らすのは不可能

From : To 0 1 1+0 3 5 6

0 Y e e e e e
1 Y M e e e e
1+0 Y n Y Y Y e
3 Y n e Y Y e
5 Y n e Y Y e
6 Y n Y Y Y Y

legends: Y = possible,
e = possible only when expanding raid set,
M = possible only when modifying volume set,
n = impossible


250:login:Penguin
07/08/27 03:48:23 0NURgyjF
データ用に買ってきた二つのディスクをmdadmでミラーリングした上で、
将来的に拡張できるようにLVMでボリュームを作ったのですが、
このディスクを別のマシンに移植したところ、
fstabに書いても自動でマウントしてくれなくなっていましました。
ただし、手動で
mount /dev/vg0/lv0 /hoge
とやると、普通にマウントできるのです。
同じようなことをやったことある方、いませんか?

251:login:Penguin
07/08/27 03:56:46 zngIa5Wq
>>250
fstabのエントリ見せて

252:250
07/08/27 13:38:40 0NURgyjF
>251
ちょっと長い&ずれていて見にくいですが・・・

# /etc/fstab: static file system information.
#
# <file system> <mount point> <type> <options> <dump> <pass>
proc /proc proc defaults 0 0
# /dev/sda1
UUID=883530e2-97cd-4fbf-9cd3-8c26a3cc0b1b / ext3 defaults,errors=remount-ro 0 1
# /dev/sda5
UUID=1aad7882-719b-45a1-9771-7083ff8a9e1d none swap sw 0 0
/dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0
# for samba server
/dev/vg0/lv0 /samba ext3 defaults 0 0

一番最後の行がそれです。移植する前はコレでマウント出来ていました。
もしかすると、起動時のマウントが始まるよりも前にmdadmとlvmが起動しないとダメなのかな。

253:login:Penguin
07/08/27 13:50:53 h0g8ZjPt
>>250
initrdで自動的にmd/dmを構成するようになってないから

254:250
07/08/27 23:29:55 0NURgyjF
>253
正しいのかどうなのか分かりませんが、
mkinitramfs -o /boot/initrd.img-2.6.20-15-generic 2.6.20-15-generic
とやってみたところ、
W: mdadm: unchecked configuration file: /etc/mdadm/mdadm.conf
W: mdadm: please read /usr/share/doc/mdadm/README.upgrading-2.5.3.gz .
というエラーが出てきてしまいました。
ググってみたところ、似たような状況があるようで、
ubuntuのバグか何かかもしれません。
(書いていませんでしたが、ubuntu 7.04を使っています)
結構大変かもしれませんね、これは。

255:250
07/08/28 14:41:02 gj3euneM
とりあえず、ubuntuのフォーラムで聞いてみることにしました。
解決したときは、報告しますm(__)m

256:login:Penguin
07/08/28 15:05:46 oTQiro8t
>>254
その警告は、mdadmを2.5以上にうpグレードしたときに必ずでる。
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
に書いてある通りにすればよい。

ただ、漏れは2.5にうpグレードすると不具合が出て、システムが立ち上がらなくなった。
で、2.4にpinして使ってる。
debianのunstableから2.6借りてきて使うと、不安定だけどなんとか使える。
でも、こわいので2.4使っている。
2.4だとなんの問題もでない。

257:login:Penguin
07/08/28 15:09:35 ZYyaiRGJ
腐ってやがるぜ

258:login:Penguin
07/08/29 19:04:08 tuk6+NpS
>>256
うちは作者のサイトから直接2.6.2落としてコンパイルしたけど
特に問題なかったなぁ・・・debian etch r0

259:250
07/09/10 00:17:52 cnO9RpIQ
結局解決しませんでした・・・

260:login:Penguin
07/09/10 04:21:05 sc4LHtGY
250は最初から他人の話は聞く気が無いのだろ?
そりゃ解決は難しかろうて。

261:nnn
07/09/10 10:23:06 bcnjR5k4
お知恵を拝借したく。

▼環境
CPU: C2Duo 2GHz
HDD: SATA*2 をマザーのエミュレーションでhda,hdcと認識
ディストリ: Scientific Linux 44
kernel: 2.6.9-42.0.3.ELsmp
mdadm: v1.6.0 - 4 June 2004

▼問題点
/=md0(hda2,hdc2) /var=md1(hda5,hdc5) というソフトウェアRAID1
を組んでいるのですが、HDDの入出力が8MB/sしかなく(実質
書き込み速度で4MB/s、resync時の速度同じ)、大量の書き込み時に
プロセスキラーが働き、ひどい時にはOSごと固まります。
HDD ioに関係のないVC切替(Alt+Fx)も重くなります。

固まる例:
dd if=/dev/zero of=/tmp/tmp.dat bs=256k count=4096

SATAをネイティブで使えないチップセットとディストリの相性が
根本原因ではありますが、このハードを使う事情があり、
なんとかしたいのです。

(続く)

262:nnn
07/09/10 10:23:41 bcnjR5k4
>>261 続き

▼打開方針?
RAID層の書き込み速度を制限し、書き込み要求をするプロセスに対し
適切なio待ちを発生させる。

resync時の速度制限は >>60 の方法で解決しました。
60氏にはこの場で感謝の意を表します。

それで、通常運用時の書き込みでも speed_limit_max の要領で
速度制限できれば解決すると思うのですが・・・


263:login:Penguin
07/09/10 10:30:56 FRmNxXcA
>>262
IOを発生させないようにする。
SATAカードを挿す。

ところで、おまいはそのマシンのユーザなのか、
業者で設定だけすればよいのか?

264:261
07/09/10 12:18:57 bcnjR5k4
>>263
自家用鯖です。
7台買っちゃった・・・ のはいいとしても、うち4台投入済みで、
どうしたものかと。

> IOを発生させないようにする。
それはそうなのですが、鯖なので「IOは客次第」というのも事実です。
で、リミッタを掛けられないものかと。

> SATAカードを挿す。
検討はしますが、どれが使えるやら・・・
ICH8上でSATAを使える鳥を探したほうが速いのかしら?


265:login:Penguin
07/09/10 12:24:15 FRmNxXcA
>>264
ここは正攻法で、SATAドライブを認識させるのがよいのでは。
客に迷惑かけるくらいなら。

update5(2.6.9-55)にして新しいAHCIドライバでマザボの
コントローラがネイティブで認識できないかやってみたら?
URLリンク(rhn.redhat.com)

IOパターンが分かれば、メモリ上に逃す、NFSに逃すとか
やればよいとおもうけど。

266:login:Penguin
07/09/11 03:13:00 1eKow4TN
>>262
>書き込み要求をするプロセスに対し適切なio待ちを発生させる。

IOスケジューラが悪さしてるとか。
# cat /sys/block/hda/queue/scheduler
で確認。deadlineとかになってると、大量IOプロセスがIOキューを占有する可能性がある

267:login:Penguin
07/09/11 07:29:39 Koj2yGIB
IDE互換モードでもDMAに出来ないの?

268:login:Penguin
07/09/11 10:15:48 VARFPXVr
>ICH8上でSATAを使える鳥を探したほうが速いのかしら?

カーネルの問題でしょ?
ディストリ関係ないじゃん?

269:login:Penguin
07/09/11 10:26:53 +giQtmHn
>>268
ディストロに含まれているカーネル(ドライバ)の問題。

270:login:Penguin
07/09/14 13:48:18 Qp7pOiTy
>>269
同じ意味じゃないのか?
カーネルに組み込むかカーネルモジュールとしてビルドするかの違いじゃないの?

271:login:Penguin
07/09/14 13:59:25 LGchwi2d
>>269
No
ディストロがいつのカーネルを収録しているか、
どれくらいバックポートしているか、という意味。

272:login:Penguin
07/09/14 16:17:45 J3tBG9+k
そんなにリコンパイルがイヤなのか・・・

273:login:Penguin
07/09/14 16:58:41 vvlhDw0v
>>272
なんでディストリ利用するかってえとアップデートをオートマティックにやりたいからなので
カーネルがアップデートするたびにリコンパイルするのは確かに嫌だわな


274:login:Penguin
07/09/14 17:34:16 iYDjqHcw
商用だとサポートの対象外になったりするんじゃないのかな?


275:login:Penguin
07/09/14 19:35:57 Qp7pOiTy
>ディストリ: Scientific Linux 44
なんでこのディストリを選んだのか分からんけど
カーネルひとつリビルドするのが面倒でディストリを
乗り換えるほうを選択するって事は元々このディスト
リに拘ってた訳では無いって事か……。

それにカーネルなんて脆弱性が無ければ別にバージョン
アップしても毎回アップデートする必要もないと思うん
だけどねぇ。

リビルドするほうが面倒か、標準のカーネルで使えそうな
ディストリを探すほうが面倒かは本人の自由だぁーっ!
って事でガンガッテくらしあ。
漏れにはICH8が何なのか調べても詳しいことが理解できな(ry

276:login:Penguin
07/09/14 22:01:10 4s3K/OrJ
RAIDスレとしては適切な答えではないかもしれないが
マザボでエミュレーションとかしないで
普通に新しいディストロをインストールして
その上でVMware Serverなどを使って
Scientific Linux 44を動かすこともできるんではないかと。



277:login:Penguin
07/09/15 10:03:03 us6rkrJ5
何の為だかもわからんな

278:login:Penguin
07/09/15 18:16:51 W+7omWYo
ソフトウェアRAIDを組み合わせてRAID50を構築することってできますか?

279:login:Penguin
07/09/16 12:26:33 z8cQ3GjF
余裕で

280:login:Penguin
07/09/16 12:41:28 quamL2ab
できるけど、おススメはしない


281:login:Penguin
07/09/18 23:19:28 JnRQfMu1
>>260
かなり遅レス(アク禁でして)ですが・・・
話を聞く気がないのなら、最初っからききませんって。
いろいろいただいたアドバイスを試して、それでもだめだったんです。
いちおう無理矢理な解決策は見つけましたけど・・・。
そんなことおっしゃらずに、
何か思い当たる方法があるのなら教えていただきたいです。

282:login:Penguin
07/09/19 22:15:18 Lkk29FxI
>>281
何を試したのか分からないけど、
/etc/mdadm/mdadm.confを設定してwarningを無くしてみたかい?

ルートファイルシステムじゃないから、絶対にinitrdで構成しないと
いけない事はないと思うけど。


283:login:Penguin
07/09/21 09:57:43 KtH/rsSr
Avidemuxのreindex系処理でmdadmだけのRAID0でもあてになることに感銘した。

気をよくして、既に遅さにがっかりしきったIO-DATA HDL4-Gに代わって
PCでソフトウェアRAIDでRAID5ファイルサーバーを作る気になっています。アホだから。

PentiumIII-m/1.2GHzのノートPCを使い
RAID5を10GBのパーティションx4(実HDDは2.5インチの二基)で試し
この程度のCPUがあれば、HDL4-Gよりはましな気がしています。
多少はウェブを調べてみましたが、いろいろ調べきれなかったことがあります。

1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?
2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?
3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?
(HDL4-GはGbEを採用しジャンボフレームにも対応しますが…トホホ)

EPIAのC3/1GHz付M/BのPCIx1に4ポートSATAカードを挿すと
オンボードの100BASE-Tで行くしかないんだよなぁ…で踏み止まりました。先日
ただ、一昨日パチンコに少し勝ったので、今日は踏み止まらない気がします(笑)

これは無謀無計画に終わりそうなんでしょうか…

あと、HDL4-GのHDDをそのままPC上に移すことは、理論上不可能か…
HDL4-GのRAID関係仕様を調べてみる価値はあるのか…も気になっています。
5MB/sで700GBを移し替える日が来るわけですし…

284:login:Penguin
07/09/21 10:27:20 l3v0EWvd
>>283
> 1.ソフトウェアRAIDでRAID5を構築する場合、小容量より大容量のほうが速度が落ちる傾向があるか?

ディスクが多い程アクセス分散でが大きい→高速化
ディスクが大きいほど外周にある領域の容量が増える(割合は増えない)→高速化???

> 2.かりに1の傾向にあるとして、それは実メモリの増量で改善できる種類の問題なのか?

個人的にはファイル鯖はキャッシュ命だと思っているので4Gとか積んでます。
ディレクトリエントリが結構メモリに載るので少なくともその分のシークは減らせるはず。

> 3.現在のうちのHDL4-Gの書き込み5MB/s程度は、100BASEのSambaでも超えられるんじゃないか?

2~3年前に250x4/RAID5で組んでたときには、100BASEで巨大1ファイル転送で10MB/sくらいは出てました。

285:login:Penguin
07/09/21 16:28:27 SoDKq3bm
スイマセン、質問です。

CentOSでMegaRAID 428を使おうとすると、インストーラが
パーティションを設定するところで、論理ドライブは1つ(RAID1)
しかないのにsda、sdb、sdc……と複数台表示されてしまいます。

インストール開始時にドライバが必要なのでしょうか?
もしそうでしたら、ドライバの入手先等をお教えいただけ
ませんでしょうか?


286:login:Penguin
07/09/22 09:02:04 +d+c9GIe
>>285
つ[MegaRAID 428マニュアル]

287:login:Penguin
07/09/23 10:00:24 XVZYMXtq
/proc/mdstatで[UU]ってなってるのにresyncしてる。
なんだこり?

288:login:Penguin
07/09/23 20:27:26 GZ/+MXCS
>>287
前スレの895の事例は?

895 名前:login:Penguin[sage] 投稿日:2006/11/10(金) 21:39:27 ID:bNIZOw4y
debian-sargeの2.6.8-3-386を使用しています。
久々に電源を入れなおしたところ、
再同期が始まってしまいました。
4つのディスクのどれかが脱落したようにも見えないのですが、
同期外れもなしに再同期が始まるときって
どういう場合なんでしょうか?

>cat /proc/mdstat
Personalities : [raid5]
md0 : active raid5 sdb1[0] sdd1[3] sda1[2] sdc1[1]
732587520 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 4.2% (10416768/244195840) finish=3755.4min speed=1035K/sec
unused devices: <none>

903 名前:login:Penguin[sage] 投稿日:2006/11/11(土) 20:51:30 ID:e3BClQL/
>>895
確か長時間止めてたRaidを起動するとresyncというかチェックが走ったような希ガス
man mdadmあたりに書いてあったような。。。


289:281
07/09/26 16:54:47 R04+ijwq
>>282
mdadm.confをデフォルトからいじってみたのですが、
エラーはなくならず、mdadmのバージョンを下げてみたり、
元にもどしたりしたところ、warningは出なくなり、
initrdもできるようになりましたが、
やはり起動時に自動的にマウントすることはできませんでした。
結局/etc/rc.localに"mount /dev/vg0/lv0 /samba"と書いて、
マウントするようにしている状態です。

ちなみにmdadm.confは、こんなかんじです。
----
DEVICE /dev/sdb1 /dev/sdc1
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=cf98cc9f:54e7b704:3cf3c1ab:04141d7c
CREATE owner=root group=disk mode=0660 auto=yes
HOMEHOST <system>
MAILADDR root
----

290:login:Penguin
07/09/26 21:32:41 +JTi2+Dv
>281 キミはそもそもマシンの話を聞けてないんだよ :-D
/usr/share/doc/mdadm/README.upgrading-2.5.3.gz
は読んだのか?



291:283
07/09/28 01:47:43 zIk+oOYu
>>284
ありがと、参考になります。

ちなみに、いろいろあって衝動買いはまだしていません。
そうこうしているうちにEdenのSATAx4付ITX M/Bの登場を知り
無理すれば買えそうな懐具合で悩んでいるところ…

#半年分、水道代未納の同居人の代わりに全額払ったら
#ちょびっと頼りない懐具合、本来ヲレは電気代全額係なのによぉ


292:login:Penguin
07/09/28 22:30:14 zocg/t++
>>281
起動時のコンソールログを調べてみたら?
LVの認識とマウントのどっちが先に行われているか。

ってUbuntuのデフォルトは/boot/grub/menu.lstでsilentになってるから
出てこないんだっけか


293:login:Penguin
07/10/05 17:39:13 aHTjkmHH
基本的な事で質問して申し訳ないんですが、
RAIDカードを差し替えた場合って、既存のRAID0の構成でまんま使えるんでしょうか。
オンボードの物からRAIDカードに変えたんですが、正常に認識しなくて困ってます…

294:login:Penguin
07/10/05 18:11:53 RN6iC0Sq
そらそーだ
ディスクに書くRAIDメタデータなんて各メーカー独自だ

295:login:Penguin
07/10/05 20:21:44 aHTjkmHH
>>294
それはくまった…
結局めんどくさい手段を取らないといけないということですね。
ありがとうございました。

296:login:Penguin
07/10/05 21:19:49 Bkszhi+D
データを抜いて戻して はい おっぱいぴー! ですね。

297:login:Penguin
07/10/05 21:40:04 1cqRS2HI
>>295
次からはMDでドゾー

298:login:Penguin
07/10/05 22:24:28 sbcHKtJI
>296
誤:おっぱいぴー
正:おっぱっぴー(オーシャンパシフィックピース)

>297
メディアのMDだったりしてw

299:login:Penguin
07/10/07 03:44:25 mpYD9xP7
Debian に sil3124 で ハードウェアRAID5 を組もうと思ってるんだが
情報が少なくて困ってる。(俺のググり方が下手なだけかな)

Debian、sil3124、ハードウェアRAID5 の条件で
ドライバや手順に関する情報あったら教えてくれないか?

300:login:Penguin
07/10/07 09:04:02 rbmirQ/U
URLリンク(linux-ata.org)

301:login:Penguin
07/10/07 11:05:14 mpYD9xP7
>>300

すまん。説明が悪かった。
sata_sil24 があるのは知っていた(一応、このサイトも事前に眺めている)し、入れてみたんだが
これ入れただけだと複数のドライブとして認識してしまうよね

BIOS側のRAID設定を解釈させた上で、1つのドライブとして認識させたかったんで
なにか方法があるかと思って、調べてみたけど見当たらなかったんで聞いてみた

> Q&A
> 3. I have a Silicon Image SATA RAID card. Why doesn't Linux support my hardware RAID?
> A. It's not hardware RAID. It is software RAID, provided by the BIOS on the card.

>>300 は、これが言いたかったのなら、ごめんなさいでした。…コレ見て思ったんだが
sil3124は、BIOS側のRAID設定だろうが、linux側のソフトウェアRAIDだろうが関係なかったりするの?

302:login:Penguin
07/10/07 11:29:27 OlJTro86
関係ないというか、ソフトRAIDカード(RAIDカード上のコードがCPUを使って
必死に複数台に書き込むタイプのRAID)は

・他のカードに切り替えることができない(RAID構成のパラメータ管理方法が違うため)
・Linuxのmdより悪い実装で遅いことすらある

といいことなしなので、単なるSATAカードとして使い、単体ドライブを認識させて
後はmd使えというのが定番の答。md+lvmにすれば途中でディスクを追加・交換したり
するのも自由自在にできる(若干手間だから漏れはmdのみだけど)。

303:login:Penguin
07/10/07 13:53:21 F3d4jqxR
>>302
激しく同意。管理の手間考えるとlvmはねー……。
あと関係なかったらすまんがPortMultiplierは全般に鬼門だから注意

304:301
07/10/07 18:08:00 mpYD9xP7
ageてた…すまん。orz

>>302
ありがとう。よく理解できた
ごちゃごちゃ言わずに md の恩恵を享受することにする
余裕があったら、md+lvm にしてみる

>>303
と聞いたことがあったんで、避けてるよ
心配してくれてありがとう

305:login:Penguin
07/10/07 18:22:51 oxRMUtwe
板で全部やるのはどーよ。
えらい楽だぞ。
どれくらいで故障するのかが問題だな。
それをどうやって検知するのかも問題w

306:login:Penguin
07/10/07 23:48:33 WejonAB/
不良セクターのあるHDDの活用方法ってないのでしょうか?
ext3じゃなくて新しいフォーマットありましたよね
あれでフォーマットしたら不良セクターのあるとこだけよけてくれたりしないのかな

307:login:Penguin
07/10/08 00:28:34 YaM75dRs
つ badblocks
でも寿命間近なHDDではあろうから、使う度胸は漏れにはないな・・・
メモリの壊れたところを避けるbadramパッチとかもあるけど、微妙に貧乏性?>Linux


308:login:Penguin
07/10/08 01:53:48 4P0RdQEd
badblocks設定したHDDをRAID5に組み入れてるけど、
半年くらい問題なく動いてるな。。。たまたまだろうけどw
たまにfsckして増えていないか確認してます。

309:login:Penguin
07/10/09 06:10:00 Zd8jdHw+
raid-1 をやってみようかなぁなんてふと思った今北ですが、
URLリンク(www.linux.or.jp)
これはディスク2つをフォーマットする形になるのでしょうか?
それとも、主ディスクと副ディスクがあるとして、副ディスクをフォーマットして、主ディスクのデータをコピーするような形になるんでしょうか?
ディスク2つをフォーマットするのならどこかデータを一時退避しないといけないのですが、2つは空きディスクもっていないのでムリカナァと。

310:login:Penguin
07/10/09 06:28:28 l7SMboZo
>>309
たぶんraid-disk 0にあるデバイスからのコピーになると思う
あるいは、主ディスクだけのアレイを--forceつきで強制起動しておいて
hotaddとかかなぁ……これだと確実に主ディスクからのコピーになるはずだけど。
どちらもやったことないから保証はできない……

安全側に倒すために、できるなら一時退避(バックアップ)を強く奨めます。

311:login:Penguin
07/10/09 09:42:26 gFNRvPVM
mdadmならmissing

312:login:Penguin
07/10/09 22:37:58 HKV3wXfK
データを失うことの恐怖に比べれば
予備のディスクのひとつくらい安いものさ


313:login:Penguin
07/10/10 13:43:05 6CsTwXc1
raidを使おうとして、データをなくした人も結構いるが。。

314:login:Penguin
07/10/10 13:45:39 keWQBLxK
raidにした安心感でバックアップしてないバカもたこさんいる

315:login:Penguin
07/10/10 14:00:09 c6a7mM5s
>>たこさん
こんにちわ(*>∀<)/

316:login:Penguin
07/10/10 21:22:41 pmWLI9af
たこさんカワユス

317:login:Penguin
07/10/13 23:33:28 eMKVNvrK
すんません、質問です。
debianでmdでraid5を構築してたんですが、他のPCにこのraidを移すとき、/dev/hdb1~/dev/hde1までの順番や位置が入れ替わっても問題ないのでしょうか。
実は取り外したときに順番がわからなくなっちゃって、どうしようか困っているのです。それに新システムの構成上どうしても/dev/hdeからになっちゃうんで、それもどうなのかと。

318:login:Penguin
07/10/13 23:44:08 iOJsc/uY
>>317
Persistent Superblockがあれば問題ない
あるかどうかはアレイ作ったときの指定によるんだけど、最近だと作るのがでふぉだっけ…?

319:login:Penguin
07/10/13 23:58:59 PvWu112N
さっそくバックしてないたこさん登場

320:login:Penguin
07/10/14 00:06:07 HSMNg90n
>>317
mdならHDD内に順番書いてあるよ

321:login:Penguin
07/10/15 20:20:32 w9rgZYRz
HDL4-G1.0のHDDをddで複製して、LinuxPCで読めるか試してみた。

ddで複製って段階で元のHDL4に戻して、正常動作するか不安だったけど
普通のLinuxでCUI操作するぶんには問題無いっぽい。確認後、四基とも複製。
#Windows上のディスク複製ツールだとどうだか知らんよ

で、インストール直後の素のVineLinux4.1のmdadmでassembleできた。
さらに、HDL4では83になっているパーティションコードをfdにすると
Linux起動時にmd0が編成されている…

けど、中がXFSでフォーマットされているらしいのな orz

XFSを使えるっぽいubuntoで試したら…mdadmが入っていなかったorz
今自宅に回線来ていないからapt-getできんのよ。

で、今考え中。VineでXFSを使えるようにするの面倒臭そ…

ちまちま低速なHDL4からLANで新サーバーにコピーするより
直でPCに持ってくほうが速いと思ったんだけどなぁ…

ちなみに、HDL4はDebian GNU/Linuxベースっぽい。

RAID5ホームサーバー製品のCPUボード故障時の復旧のために
こういう機能のある1CD Linuxがあるといいなぁと思った。


322:login:Penguin
07/10/15 22:19:35 G7rWOMJX
>>321
つ RIP

323:321
07/10/16 07:33:42 5m1gOou3
>322
ごめん、意味わかんない。

とりあえずOpenfilerで、なんとかなりそうな気がしてきた。
xfsリペアかけて読めるようになったけど、全部lost+foundに逝っちゃったから
その前に、なんかまずいことやったんだと信じたい。また後日だな。


324:login:Penguin
07/10/16 20:16:00 cgFz1bYo
ubuntuにmdadm入れたとき保存してあったと思うからメールで送ろうか?w

325:login:Penguin
07/10/17 02:54:28 kkrXZBdi
質問があります。
システムは単独のHDD(例:/dev/hda)にインストールし、別途オンボード SATAに
HDD複数台を使って(例:/dev/sda ~ /dev/sdd)
md で RAID md0 を組み、データ領域として mount していたとします。

後日、システムの /dev/hda に、別のディストリビューションをクリーンインストールしました。
このとき、データ領域としてつかっていた md0 は、クリーンインストールしたあとも
しかるべく mdadm.conf を書けば mount できるのでしょうか?

>>317 とほとんど同じ状況です。

うまくいえないのですが、アレイを構成する HDD は、
アレイを操るツールやシステムには依存していないと思っていいのですか?
# 入れ替え前と後で、kernel や mdadm のバージョンが多少違っていても、
# 入れ替え後の mdadm がアレイを認識できれば問題ない?

326:login:Penguin
07/10/17 07:55:08 5hAko6Nc
mdadm.confなんか書かなくても、勝手に/dev/md0として自動認識してくれると思うけど。
そういう質問をするってことは、# cat /proc/mdstatとかしても
/dev/md0が表示されないってことでOK?

327:login:Penguin
07/10/17 09:07:32 TrrqXopo
いつごろ作ったmdかにもよるから>自動認識
ためしにKnoppixとかでブートしてみれば?それで認識すれば無問題。

328:325
07/10/17 10:46:22 Ri74/EYj
レスどうもありがとうございます。

いや、まだやっているわけではなくて、
今:fedora を入れてるマシンがある。データ領域用にHDD4を確保してきたが、まだRAIDを組んでいない
今後:Ubuntu 7.10 が正式リリースされたらクリーンインスコしたい

・さきにfedora上でアレイを組んでおいて、Ubuntu 7.10 が正式リリースされたら
 システム用HDDに OS だけ入れ替えて、アレイはそのまま流用、ということをしたい
・あるいは、7.10 はもうすぐリリースされるので、それまで待つ

と考えていました。

どうせ入れなおすので、ちょっとやってみようと思います。



329:login:Penguin
07/10/17 11:13:32 pEeOZTAK
nashのraidautorunが単一バイナリになれば簡単なのにな

330:login:Penguin
07/10/17 13:48:28 XO21wWLP
サイズの違うHDDでraid5ってできるのでしょうか?
80G(新品)x2 60G(古くて死にそう)x1
だと60Gx3に強制的になってしまうのでしょうか?

最初に死ぬのは60Gなのは確実なので60Gx3でない場合でも
問題ないとは思ってるのですが


331:login:Penguin
07/10/18 00:50:16 DgGfsmJx
このスレは mdadm がメインだと思いますが、実用的かどうかはともかく、
mdadm を使わずにマザーのオンボードRAID と dmraid で、Ubuntu で RAID をやってみました。

[自作PC] Linuxマシン用自作PCスレッド 2
スレリンク(jisaku板:473-番)

とはいえ自分は mdadm をやったことがないので、mdadm でやり直してみることにしました。


332:login:Penguin
07/10/18 01:56:40 ZVc4Ky30
>>330
少し頭使えよ

333:login:Penguin
07/10/18 07:59:46 /72Qgdo5
>>330
足りない20GB分は宇宙からのパワーにより補完されるので問題ありません。

334:321
07/10/21 07:06:49 GLuYmvWu
結局HDL4のHDDのdd複製からやりなおして、よけいな操作なしで
mdadm --assembleしてxfsrepairしたのだが、やはり壊れている。
9割くらいは残っているから、ディレクトリ名とか調べて復旧してみたけど
なんか、不安になって、この方法での移行はあきらめた。

RAID5 NASのM/B故障時の復旧手段にはなるかもしれんけどね…

で、今C7/1.5GHzでのソフトウェアRAIDとSRCS14L(2003年もの)でのRAIDが
ほぼ同じ性能で困っている。LAN負荷を伴っても性能差が小さく
SRCS14Lの発熱と、RAIDカード故障時のリスク考えると、ソフトで行くべきか…

C7付きM/BにGbE挿すと、状況が変わる気がするけど
100BASE(via-rhine)では、6MB/s程度しか出ていないんよね。
RAID5自体は、RAID5上の別名コピーで2GBを90秒弱でいけるんだけどね。


335:login:Penguin
07/10/21 12:43:32 sZ2k6dRm
個人でファイル鯖専用なら運用の柔軟性からいってソフトが良い。

336:321
07/10/21 18:25:01 GLuYmvWu
やっぱそうかな…ちなみに、現在VineLinux4.0インストール直後のドライバー構成で
なおかつ、SRCS14Lでは66bit,66MHzのカードを33bit,33MHzで動かしている。
良いM/BならRAID5自体の性能は、より良いのかもしれない。

ソフトウェアRAID5の性能は、sata_viaのポートとsata_sil(3114)複合の状態より
PCIの3114をPCIeの3132にしたほうが、わずかに高速化した気がした。
(HDDはSATA2もの)
PCIeの内部4portのSATA2カードが欲しいのだが、店頭在庫では見かけない。
商品自体が存在しないんだろうか…?


337:login:Penguin
07/10/21 21:13:13 CyPL93bH
質問があります。
HDD4台を買って来ました。システム領域とは別に、4台でSoftwareRAID5を組もうと思っています。
このスレと過去スレを見ると、mdadm + LVM と組み合わせている人が多いようですが、
その理由(メリット)がわかりません。どう幸せになるのか、教えてください。

LVMを使わない場合は、4台ともディスク丸ごと fdisk で、パーティションタイプを fd でフォーマットして、
# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
とやればおしまいですよね。

4台のRAID5 から 5台のRAID5 にする場合は、
・HDDを買ってきて増設。パーティション丸ごと fd でフォーマットする
・# mdadm /dev/md0 --add /dev/hde1

これでアレイは大きくなるが、ファイルシステムは自動的には増えてくれないので、
resize_reiserfs とかでファイルシステムを大きくする。

こうすれば、LVM は必要ない気がするのですが、どうして LVM と組み合わせる人が多いのでしょうか?


338:login:Penguin
07/10/21 21:15:43 ccIALbTr
>>337
pvmoveで死にかけのドライブを交換できる。

339:337
07/10/21 21:35:04 CyPL93bH
>>338
レスどうもありがとうございます。

md を使わず、LVMのみで HDD4台とかで大きい単一のパーティションを作った場合、
たとえば不良なHDDを交換したいときに、pvmove で不良なHDD上に乗っかっているデータを追い出し
(PEをほかのVGに追い出し)、新しいHDDとさしかえる、というのはわかります。

しかし md を使っている場合、不良なドライブがあれば、mdadm --fail で不良扱いにし、
mdadm --remove で取り外し、mdadm --add で好感して追加すればいいので、
やはり LVM と組み合わせる理由がわからないのですが・・・

340:login:Penguin
07/10/21 21:51:55 ccIALbTr
>>339
そうだね。今のmdadmはいろいろと出来るみたいだね。
俺の場合は慣れなかな。
mdadmが出る前(raidtoolsの頃)からlvmで色々と出来てたからね。

ところで、RAID0でも
mdadm /dev/md0 --add /dev/sda1 --fail /dev/sdb1 --remove /dev/sdb1
でいけるの?

341:login:Penguin
07/10/21 22:19:12 Py2daiOH
ゆとり教育世代には仮想化や論理化のメリットが理解困難なようだ

342: ◆Zsh/ladOX.
07/10/21 22:36:32 beoHAJJS
漏れも>>337と同じ意見。
LVM使ったこと無いorz

343:login:Penguin
07/10/22 02:51:20 +aosTp7W
つーか>>337、addだけじゃ駄目だろ

344:337
07/10/22 03:23:03 wCu8JRMx
LVM を間に挟んでおけば、以下のようなことができるかと考えてみました。

>>337 のように 4台でRAIDを組む。とりあえず LVM を構成してからパーティションを作る。
・1台故障した(例:/dev/sdd)のでもう一台買ってきたが、同じ値段で容量の大きなHDDが買えた。
・新しく買ってきた HDD に、以前と同じ容量の /dev/sdd1 をつくり、mdadm --add /dev/sdd1 する
・新しく買ってきたHDDの、残りの容量を /dev/sdd2 として fdisk で確保。パーティションIDは 8e とする。

/dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、ファイルシステムを保持したまま、
HDDを余すところなく使えるかな。ただしこの時点では /dev/sdd2 は冗長化されてないですが。

>>343
add するだけでリビルドが始まると思っていたのだけど、もうすこしコマンドが必要なのでしたっけ?


345:login:Penguin
07/10/22 03:47:32 RbFtcdsq
できるかもしれんが、

> /dev/md0 の上に載っている LV に、/dev/sdd2 の VG を追加すれば、

これやったら駄目じゃね?
sdd2は単独で使うのが良いと思われ。

346:login:Penguin
07/10/22 06:25:14 afLW6y8j
片方のドライブが壊れたなど問題が起きたときにメールで送信してくれるユーティルティソフトはありませんか?


347:login:Penguin
07/10/22 09:14:07 xtIOR2qi
>>344
grow

>>346
mdadm

348:login:Penguin
07/10/24 20:03:46 bA8/b9hE
>>337
250GBと500GBの混在で、ソフトウェアRAID5のPCサーバーを作っています。

Vineだし、慣れでext3で行っていますが
reiserFSだと将来拡張できてウマーという認識でいいのでしょうか?


立て続けHDD故障のリスクを抑えるためにも
RAID1の240GBと、RAID5の240GB*4として運用しています。
まぁマーフィの法則的には、500GB二つが立て続けに逝くでしょうが…

LVMは、LVMもmdadmも使い慣れない状態で
LVM導入は無駄にリスクを増すと思って、私もLVMは使っていません。
むしろ、LVM使いたくなかったから、慣れたVineで行った次第。

なお、起動デバイスはCFをSATA変換してそのまま。
実験の都合で、RAIDと別ディスクにしたかったし、電力消費面で(略)

私用だし、設定終わった時点で、ddでバックアップしておけばいいや発想。


349:login:Penguin
07/10/25 02:23:44 SbJgUcvr
>>348
単にresizeするだけなら対応していないfsの方が少ないはず。

それはともかく、LVMはたしかに柔軟性があっていいんだけど、どうも
機能過剰感があるし台数的に少ない個人レベルでは物理ディスク単位で
管理する単純性の方を優先して漏れも使ってない。

HDDやパーティションに縛られない柔軟性は便利といえば便利だけど、
ブロックの切り出しはファイルをloopbackとかnbdで晒せば同様のことが
できなくもないし、HDD更新時のアップグレードとかも

RAID時:
新HDDをRAIDに追加 -> 同期が終わったら、旧ディスクは壊れたことにして外す -> RAIDをresizeして完了

RAID+LVM時:
新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す

と手順は違うものの、最近は同程度のゴールは達成できるようになってるから
まあいいかと。LVMを併用すれば選択肢は確かに増える(例:パーティションを
細かく切っても後悔せずにすむ自由とか)のだけど、構築ポリシと運用ポリシで
そこは我慢(という程不満でもないけど)して、より少ない知識で動かせたほうが
いいかなと。仕事じゃないし。

350:login:Penguin
07/10/25 05:36:25 a7PkADFx

> RAID+LVM時:
> 新HDDでmdを新規に組む -> LVMに加入させ、新ディスクへファイルを掃き寄せる -> 旧ディスクは壊れたことにして外す

mdを新規に組むなら、わざわざLVMに追加しなくても良いのでは?
別個にLVM作成して、rsyncで。

351:login:Penguin
07/10/25 11:57:18 nruqF/xu
使った事が無い奴に限ってあーだこーだ文句言うんだよな
単なる食わず嫌いだよ
LVMが面倒くさいと思ったことは無いね

352:login:Penguin
07/10/25 12:08:55 D3bEYjzi
仕事でUnixさわってりゃ、嫌でも使うもんだしなw


353:login:Penguin
07/10/25 12:11:33 OJWp8+U0
はいはい

354:login:Penguin
07/10/25 19:23:40 8UJAa78q
とりあえず LVM を使わずに4台を RAID5 にしようとしたが、

# mdadm -C /dev/md0 -l5 -n4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

をやったあと、cat /proc/mdstat すると、

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sda1[0] sdd1[4] sdc1[2] sdb1[1]
   937705728 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
   [===>.................] recovery = 17.9% (56190968/312568576) finish=64.8min speed=65860K/sec

となって、なぜか一台が fail 扱いになってリビルドが走っている。
しかも必ず途中でOSが固まってリセットせざるを得なくなる。
リセットすると、またリビルドが走る→OSが固まる。

・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう
・なぜリビルドが最後までできないんだよう

HDD、ほぼ新品で、Windows で使っていたときにはフォーマットまで終わったのに。
もう一度 fdisk からやりなおそうかな。



355:login:Penguin
07/10/26 13:10:51 2kfwd15n
>>354
>・なぜ mdadm -C した直後から、一台が fail 扱いになるんだよう

これは、そういうもの。
前に何が書かれているか判らないから、最初に一回、
全部のブロックに対して辻褄合わせをする必要がある。

>・なぜリビルドが最後までできないんだよう
こりゃ変だな。
ハードウエアかソフトがどっか壊れてるかも。


356:login:Penguin
07/10/26 22:51:06 2+3v138+
>>351
複雑な構成はトラブルの元だよ。仕事ならなおさら。
自分にしか迷惑かからないんなら別に問題ないけど。
分からなければ引き継ぎとかトラブルシューティングの苦労考えてみるといい。


357:login:Penguin
07/10/26 23:39:11 VCuGyTp8
>>350
rsync同期だと、同期作業中は停止(=他に何もできない)時間になる。
LVMレベルで掃き寄せれば、停止時間は壊れた(ことにした)旧ディスク抜く作業時間だけ。

358:login:Penguin
07/10/27 00:11:21 4ZTrW6oo
-> LVMに加入させ、新ディスクへファイルを掃き寄せる

こんなこと出来たっけ。
lvcreateでpvを指定する?そもそもファイルシステムの拡張は?
lvmあまり解かってないので~

359:login:Penguin
07/10/27 00:25:02 US/tv6oE
つ pvmove

360:login:Penguin
07/10/27 00:35:04 4ZTrW6oo
理解しました。
ありがとう。

361:login:Penguin
07/10/27 07:28:26 HMAtdp9w
>>354
最初からcleanなアレイ作るよりfail -> resyncする方が速いから嫌なら--force付けろ
ってmanに書いてあるのに読まずにblogとかで騒いでるのたまにいるよね


362:login:Penguin
07/10/27 18:22:59 GzcOi8yc
ところで mdのパフォーマンスってあまり実測乗ってないよね

URLリンク(www.linux.or.jp)
によると
RAID-0 : パフォーマンスは N * P MB/s に近くなります。
RAID-1 : 読み込みのパフォーマンスは N * P に近い値になりますが、書きこみはデバイスが 1 台の場合と同等以下
RAID-5 : 読み書き両方ともにパフォーマンスは向上
などと書いてあって、新たな知見を得たというかなんというか・・・
これはあれか、RAID1の4台構成で、readだけはraid0並で無駄に強固なアレイ、とか作れるのかw

というのはともかく、同時n本のアクセスでどの程度の速度出ますよグラフが見あたらない。
H/Wのボードだとたまに有るんだけど。RAID5の同時5本read程度なら速度落ちない体感はある。
mdでRAID10や5の詳細ベンチ結果落ちてたら教えてください。


# 「RAID-5 のための合理的な chunk-size は 128 KB ですが」とか書いてあって凹んだorz

363:login:Penguin
07/10/27 20:25:18 TpR9h4x8
>>362
RAID1だけど速くならないよ(下はHDD単体)

# hdparm -tT /dev/md0
/dev/md0:
Timing cached reads: 5944 MB in 2.00 seconds = 2975.51 MB/sec
Timing buffered disk reads: 192 MB in 3.01 seconds = 63.84 MB/sec

# hdparm -tT /dev/sdc
/dev/sdc:
Timing cached reads: 5888 MB in 2.00 seconds = 2947.58 MB/sec
Timing buffered disk reads: 196 MB in 3.01 seconds = 65.11 MB/sec

364:321
07/10/27 20:38:03 HbBH9mvu
>>362
たしかに、私もMTUと同じのノリでchunksizeを大きく設定してRAID5組んだら
さっぱり速度が出なくてがっかりした。その後何度か変えてみた。
で、128KBより256KBのほうが、微妙に書き込みが速いと思って、そのまま使っている。

性能条件は、CPU1コアのHT無し環境だと、いろいろ条件は変わるだろうから
CPU負荷を変えながら、テストできるツールがあるといいな。

ベンチマークオフ会やるにはRAID編成に時間かかるもんね。


365:login:Penguin
07/10/27 20:45:42 9wm9rUig
なんか、面白そうね。
俺もちょっとhdparmで速度測定してくる!

366:365
07/10/27 20:52:22 9wm9rUig
# hdparm -tT /dev/md0
Timing cached reads: 2096 MB in 2.00 seconds = 1047.58 MB/sec
Timing buffered disk reads: 318 MB in 3.01 seconds = 105.50 MB/sec

# hdparm -tT /dev/sda
Timing cached reads: 2168 MB in 2.00 seconds = 1084.36 MB/sec
Timing buffered disk reads: 190 MB in 3.01 seconds = 63.03 MB/sec

# hdparm -tT /dev/sdb
Timing cached reads: 2368 MB in 2.00 seconds = 1184.16 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.68 MB/sec

# hdparm -tT /dev/sdc
Timing cached reads: 2348 MB in 2.00 seconds = 1174.73 MB/sec
Timing buffered disk reads: 198 MB in 3.01 seconds = 65.83 MB/sec

# hdparm -tT /dev/sdd
Timing cached reads: 2812 MB in 2.00 seconds = 1406.45 MB/sec
Timing buffered disk reads: 184 MB in 3.00 seconds = 61.26 MB/sec

# hdparm -tT /dev/sde
Timing cached reads: 2076 MB in 2.00 seconds = 1037.62 MB/sec
Timing buffered disk reads: 160 MB in 3.00 seconds = 53.26 MB/sec

# hdparm -tT /dev/sdf
Timing cached reads: 3032 MB in 2.00 seconds = 1516.29 MB/sec
Timing buffered disk reads: 190 MB in 3.03 seconds = 62.69 MB/sec

md0の要素全てに試してみたけど、なぜかsdeだけが遅いぞ・・・?
死兆星が光ってる?

367:362
07/10/28 00:59:50 71qYpNbN
すまぬ、引用が不十分ででした。そして503で書き込めない間に長文化
「Read performance is good, especially if you have multiple readers or seek-intensive workloads.
 The RAID code employs a rather good read-balancing algorithm, that will simply let the disk
 whose heads are closest to the wanted disk position perform the read operation.」
ということで、複数同時readとかrandom readで速くなるよ、ということらしい>RAID1
で、hdparm -T & だとたぶんキャッシュに乗ってしまうと思うし、ddか何かを同時数本走らせるか、rreadするプログラムが必要かもしれない。
計測方法の定番が無いあたりが1つ目の問題のような・・・
chunk sizeや/procのstripe_cache_sizeやqueue/schedulerも実験してみたいんだけど、シーケンシャルreadなベンチじゃ効果が見えんです。

>>364
おお、実験されましたか。
Win系のように(良くも悪くも)デファクトなベンチツールが有るといいんですが。
timeと簡単スクリプトで、と思ったけど意外に難しく断念w
ディスク空き容量がデカければ巨大ファイル作って好きにseek発生出来るんですが、/dev直はなんか怖いっす。
どうなんでしょ、/dev/md0にrreadするだけなんですがどなたか書けますか?

368: ◆Zsh/ladOX.
07/10/28 02:27:22 DiHVZTpi
過去スレでmdのチューニングの話が出てたお

369:321
07/10/28 21:46:34 PihVE9KW
hdbenchクローンはあるんよね。

ただ、コンパイルできない時に、どうしたらいいのか戸惑ったりもする。
今、メインとノートのVine4.1環境にはhdbench入れてあるけど
新造のVine4.0のままのRAID5機ではコンパイルエラーで後回しになってる。

hdbenchのためにファイルサーバー機にXも入れといたのにさ。
GbEごしにhdbenchで見ても、GbEのドライバーがボトルネックの状況だし…


370:login:Penguin
07/10/28 23:11:58 8YMFjw47
hdparm の実行例が、たとえば >>366 にあるが、シーケンシャルリードだけなのかな?

適当にぐぐると、iozone、bonnie++ をみつけたが(そういえば聞いたことがあるな)
妥当かどうかはよくわからない。

371:login:Penguin
07/10/28 23:30:15 PnOUhN2H
方々で見かけるし、bonnie++かなぁ。

うちの宅鯖も測り直したいが、クローラのデータエリアとして
24h稼働中なんでなかなか止められない……

372:362
07/10/30 00:00:50 1HogexSN
ざっと走らせてみたものの

bonnie++
これってFSとかキャッシュ・・・syncなオプションを使えと言うことか。
出力結果がややこい

dbench
クライアントの挙動をsimったプロセス数を指定、みたいな。
dbench NでNに1~30あたりまで放り込んでみるとRAIDらしさが・・・出てないな。-sS必須か。
何故かシングルドライブの方が速い。わからねえ。Verによって挙動違うし。tbenchはまだ読んでない。

stress
cpu,mem,io,disk等に分けてN fork。でもベンチにならんよねこれ

tiobench
Nスレッドでベーシックなディスクベンチ。これが一番いいかも。問題は使い方がよくわから(ry
LatencyやCPU使用率の一覧比較を出してくれて便利。

その他 apt-cache search benchmark

373:login:Penguin
07/10/30 09:07:47 34EF8s3m
postmarkがおすすめ。
ただディスクベンチではなくファイルシステムベンチマークだけど・・・
同じファイルシステムを使っていれば相互比較はできるはず。

374:login:Penguin
07/10/30 10:05:05 D9D8Yw5C
postmarkはZFS専用。

まぁ同じベンチソフト使っていれば、ファイルシステム間での
比較はできるけどな。
ベンチマークソフトによって特定のファイルシステムで
特別性能がよかったり悪かったりするから、
何をベンチするか考えてから。

375:login:Penguin
07/11/01 12:34:00 7nciWttU
>>366
同一モデルでプラッタ容量違いの外れを引いただけ。

376:login:Penguin
07/11/01 13:12:38 62ZK10ox
>>366
# hdparm -tT /dev/md0
Timing cached reads: 1834 MB in 2.00 seconds = 916.99 MB/sec
Timing buffered disk reads: 400 MB in 3.00 seconds = 133.12 MB/sec
# hdparm -tT /dev/sdb
Timing cached reads: 1834 MB in 2.00 seconds = 916.90 MB/sec
Timing buffered disk reads: 220 MB in 3.01 seconds = 73.18 MB/sec
# hdparm -tT /dev/sdc
Timing cached reads: 1824 MB in 2.00 seconds = 912.33 MB/sec
Timing buffered disk reads: 224 MB in 3.02 seconds = 74.08 MB/sec
# hdparm -tT /dev/sdd
Timing cached reads: 1822 MB in 2.00 seconds = 910.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.34 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1842 MB in 2.00 seconds = 920.98 MB/sec
Timing buffered disk reads: 200 MB in 3.02 seconds = 66.24 MB/sec
# hdparm -tT /dev/sdf
Timing cached reads: 1822 MB in 2.00 seconds = 910.41 MB/sec
Timing buffered disk reads: 216 MB in 3.02 seconds = 71.42 MB/sec
# hdparm -tT /dev/sdg
Timing cached reads: 1820 MB in 2.00 seconds = 909.65 MB/sec
Timing buffered disk reads: 224 MB in 3.01 seconds = 74.47 MB/sec
# hdparm -tT /dev/sde
Timing cached reads: 1820 MB in 2.00 seconds = 910.07 MB/sec
Timing buffered disk reads: 222 MB in 3.02 seconds = 73.51 MB/sec

というわけでたまたまじゃない?
もっかいやってみれば?

377:login:Penguin
07/11/01 14:01:44 1iefkY+v
>>366
シングルユーザモードで起動してますよね?
通常だとデーモンとか動いて、20-30%は簡単に変わるので。。。

378:366
07/11/01 18:47:22 Gt+V+zuD
たくさんのレスありがとうです。

たまたまかもしれませんし。
フツーにマルチでやってたんで、今度シングルで試してみます~。

379:login:Penguin
07/11/02 04:20:45 QaC2YeMr
CentOS5でインストールの段階でmdadmを使用してHDD2台(sda,sdbとして)をRAID1に設定した後に、
片方が破損して取り外したという仮定をして実験をしてみたんですが、
HDD1台(sda)で起動させようとすると「GRUB Hard Disk Error」で止まるorz
もう一台(sdb)だけを繋いで起動すると普通に起動してくるんだけど、何故だろう。
2台繋いだ状態で起動して、sdaに # /sbin/grub-install /dev/sda としても状態変わらず。
接続ポート入れ替えてもダメでした。
パーティション情報や grub.conf も晒した方が良いなら晒します。
誰か分かる方いたらご教示下さい。

380:379
07/11/02 06:02:03 QaC2YeMr
自己解決?
なんとなくGRUBに直接どちらからでも起動できるように書いてやればいい気がしてきた。
今シンク中なので終わったらやってみます。

381:login:Penguin
07/11/02 06:29:50 oty1mOnF
>>381
DOSのブートローダをいれて、
両方のHDDでブートパーティションをアクティブに設定、とか。

382:login:Penguin
07/11/02 11:11:28 7sg8THe2
0x80と認識されるか0x81と認識されるのかでブートコードが違う必要がある

383:379
07/11/02 18:53:15 QaC2YeMr
遅くなりましたが出来ました。
>>381さんの手も良いかなと思ったのですが、以下のような感じでOKでした。

# grub
 grub> root (hd0,0)
 grub> setup (hd0)
 grub> root (hd1,0)
 grub> setup (hd1)

こんな感じでどちらからも起動できるようにしたら一発。
grub-install では、こういう風には入力されないんですね。

384:login:Penguin
07/11/03 02:06:07 toJHQDFC
Linux で 3ware 9550SX-8LP を RAID 5で使ってるんですが、
既に作られてるユニットの容量をCLIで変更する方法をどなたか教えていただけないでしょうか。

現在以下のように 500GB×3 + spare という状態です。

Unit UnitType Status     %Cmpl Stripe Size(GB) Cache AVerify IgnECC
------------------------------------------------------------------------------
u0  RAID-5  OK       -   64K   931.303  ON   OFF   OFF
u1  SPARE   OK       -   -    465.753  -   OFF   -

Port  Status      Unit  Size    Blocks      Serial
---------------------------------------------------------------
p0   OK        u0   465.76 GB  976773168   H8******
p1   OK        -   465.76 GB  976773168   9Q******
p2   OK        u0   465.76 GB  976773168   H8******
p3   OK        u0   465.76 GB  976773168   H8******
p4   OK        u1   465.76 GB  976773168   9Q******
p5   NOT-PRESENT   -   -      -       -
p6   NOT-PRESENT   -   -      -       -
p7   NOT-PRESENT   -   -      -       -

このu0 に使われていない p1を足して p0-3で 500GB×4 + spareにしたいのです。
CLIのマニュアル(P.62)に従って

# tw_cli /c0/u0 migrate type=raid5 disk=0-3

とやってみたのですが、
Error: (CLI:008) Invalid ID specified. Found a specified ID is already in use.
とエラーになってしまいます。
何がまずいのでしょう?

385:login:Penguin
07/11/03 22:23:32 rg+D7DYl
>>384
RAID再構築

386:login:Penguin
07/11/04 04:56:40 QRh/db2g
>>385
URLリンク(japan.3ware.com)
3ware 9550SXの特徴
オンライン容量増設および RAID レベルマイグレーション機能搭載

387:login:Penguin
07/11/04 15:41:59 cbkyEPJh
HDL4-G1.0を買ってルーターに問題なく接続できました。共有はMICROSOFT式にして
XPの方ではドライブを割り当てしました。XPからのコピーや読み取りは問題
なかったです。Linuxでは、Sambaでマウントして、色々試してみたら読み取りでも
コピーでもXPの倍ぐらいになった。1.2Gbぐらいのファイルはなんと8分かかる場合
ありました。50GbのMP3フォルダーはAmarokでスキャンしようとしたら一晩中
やってもおきたら22%しか読めなかったです。

本体のBiosには変な設定あるかな。このハードで経験がある人がいたら
手伝ってください。

388:login:Penguin
07/11/04 17:09:06 eI5sYsvU
これのどこがRAIDの話題なんだ? (もしかしてマルチ?)

389:login:Penguin
07/11/04 17:26:28 cbkyEPJh
ごめん、マルチでないです。
RAID設定が原因になっているかと思って。書き忘れてすみませんでした。
初期設定のRAID5です。そんなに重くならないはずでしょう?
RAIDよりSAMBAだと思うけど、LINUX→RAIDなしのXPへの書き込みは
遅くならないで。

390:321
07/11/05 14:37:32 bQ+V7ACj
うちも、HDL4-G1.0が遅くて、放棄作業中。
その放棄作業(つまり新規PC RAID5 serverへのファイル転送)が
通信途絶頻発で難航しているほど。

Linuxからの接続で、必要な設定変更はあるのかもしれないけど
これといった情報は見つかっていないし、RAID5やっていく上で
(HDD4機の発熱とCPU発熱の比率とか)RAID5 NASに魅力を感じなくなった。

…そっか、見たらLinux板にはSambaスレ無いのな。
UNIX板にあるみたいだから、ヲレも調べてみるか…
あと、HDL4担当のスレはハードウェア板にある。


391:login:Penguin
07/11/05 21:06:17 6eGjWErn
>>387
もう少し整理してわかりやすく書こうや
・何が問題なのか
・何をどうやったら問題が起きたのか
・他に何を試したのか
・その他、主観で気になること

>>390 の状況も加味すると、「窓から投げ捨てろ」で一蹴されるのがオチだぞ


392:384
07/11/07 12:34:29 j1cRifCj
その後の報告。
月曜朝サポートが動き出したところで電話して聞きました。
どうもマニュアルの記述が間違っているようで、RAIDを構成するドライブを全部指定するのではなく、
新たに追加するドライブだけを記述するのが正解らしい。
>>384の場合、tw_cli /c0/u0 migrate type=raid5 disk=1 で桶、と。

実行にどれくらい時間がかかるのか聞いてみたところ「おおよそ1GBあたり1分」との返事。
1.5TBだと1500分……25時間かよっ!!
とゆーことで、月曜夜から実行したら今朝がたようやく終わりました。約28時間。
バックグラウンド動作だからいいんだけど。

393:384
07/11/07 12:36:06 j1cRifCj
さて、無事 1.5TBになったのですが、今度はパーティションを拡張しなけりゃいけません。
Partedを使う予定なのですが、これがどのくらい時間がかかるかご存じの方いらっしゃいませんか?
GParted等でもいいのですが、実際にやったことのある方で、××GB→○○GBのサイズ変更が
約△△時間かかった、など実例を教えて頂けるとありがたいのですが。

パーティションサイズの変更は、当然 unmountしないとできないんで、どれくらいの時間
利用不能になるのか見当をつけておきたいのです。
数時間~半日程度なら夜間にやれば問題ないけど、丸一日以上とかって話なら代替ドライブを
用意しないといけないので。

くだ質の方で聞いたのだけど、有意な返答を得られませんでした。
こちらの方がこういった処理を経験した方が多そうなので、いささかスレ違いではありますが
よろしくお願いします。

394:login:Penguin
07/11/07 12:55:52 ZtZ/usYi
>>393
だれも普通そんなことしないから、有意な回答なんて得られない。
普通はlvm+xfsで一瞬


395:login:Penguin
07/11/07 13:15:20 RKolPaG2
よく喋るやっちゃ
たいていの場合>>394かmdadmでgrow。どちらも君の構成じゃ使えん。

396:login:Penguin
07/11/07 18:15:39 n5tC8Tis
ハードウェアRAIDを使うのが普通ではないという意見は
あまり普通ではないと思うが。

ハードウェアRAID使ってて、容量不足になったとき
その機能があれば、容量の拡張も普通にするんでね?

397:login:Penguin
07/11/07 20:23:33 yncetdk8
実際答える奴いないじゃん。やってることがマイナーすぎて。

398:login:Penguin
07/11/07 21:53:15 o+RGikEz
>>395
fsの話とブロックデバイスの話がごっちゃになってるぞお前

399:login:Penguin
07/11/07 22:49:11 7ekDkmZj
>>396
真のハードウェアRAIDならもちろん普通に使うけど、問題は
ディスクにRAID BIOSが書き込んだ構成情報をOSが読んで認識しないと
いけないとか、実はCPUがRAID処理してます、とかのエセHardwareRAIDが
世の中多すぎ(なんちゃってRAIDカード群の大多数)。

そういう「なんちゃってHW」を使うと性能はよくないわ、別カードへの
可搬性がないわで最悪なので、カーネル側のMD使うのが常識ってだけでは。

 真のHW-RAID >>> Linux MD >>>越えられない壁>>> なんちゃってHW-RAID

という感じになるのかな。


400:login:Penguin
07/11/07 23:02:05 ZtZ/usYi
>>399
まぁ3ware 9550SX-8LPは真のHW RAIDカードだけど、
多機能になればなるほど、こなれてない機能が多い訳で、
例えばマニュアルの誤記のように問題に当たりやすい。

だから、デフォルト以上のこと(RAID5にスペア1本)を
やらせるのはお勧めしない。やるなら検証してからで、
間違っても本番データを運用したままやらない。

401:login:Penguin
07/11/08 10:19:08 3bsJieVy
>398
なんでブロックデバイスの話が出るんだ?
パーティションとかボリュームなら言いたいことは理解できなくもないが
それでもごっちゃにはなってないし…

402:login:Penguin
07/11/08 12:55:16 0yMQ2DaJ
今使っている分の後ろに空きブロックが増えるだけじゃないの?
1パーティションに拘らなければ、lvmでなんとかなるべ。

403:login:Penguin
07/11/08 20:27:40 IZN1X0G5
raid1
grub> device (hd0) /dev/hdb
grub> root (hd0,0)
grub> install /grub/stage1 (hd0) /grub/stage2 p /grub/grub.conf

で hda差し替えてをリビルドした後にこんどは hda のみでで起動できるの?


404:login:Penguin
07/11/08 21:27:48 IZN1X0G5
hda から起動できず、結局またリビルド

今度は
grub> device (hd0) /dev/hda
grub> root (hd0,0)
grub> setup (hd0)
したけど Kernel Panic になります。


405:login:Penguin
07/11/08 21:56:35 IZN1X0G5
md0 (boot) と md1 (/とswap)両方リビルドして
リブートしたら直った^^ よかった。
さっきは md0だけリビルドしてブートしたからパニックになっただけかも。


406:login:Penguin
07/11/08 23:31:13 13192VKA
ここはお前の日記帳じゃねえんだ

407:login:Penguin
07/11/11 14:42:23 Kss4jt32
今回初めて160GBx2でRAID0を組んでみようと思うんですが、単体HDDでの使用だとパーテはC:Dと切れたんですが
RAID0で2つのHDDを使うと1つのHDDとして見えますが、これにはパーテ切れるんでしょうか?

408:login:Penguin
07/11/11 14:58:54 EBagQV5F
> パーテはC:D
Windows板にカエレ

409:login:Penguin
07/11/11 14:59:41 aTKX43hi
md使うんだよな?
1日色々勉強してみて

410:login:Penguin
07/11/15 13:43:28 Ay00Jbql
すいません、質問させてください。
arecaのarc-1120使ってるんですけどconfigを保存することってできますか?
raidの設定コンフィグなんてものはないですか?
壊れたので同じものを買って入れ替えたいんです。

411:login:Penguin
07/11/15 14:00:49 kt6gqmw9
修理したら?新規に買うより安くなるはずだが

412:login:Penguin
07/11/15 15:24:02 wCvoExs2
修理だと時間かかるじゃん。

areca使ってないけど、興味あったんでマニュアル見てみたけど、
設定のファイルへの書き出し/読み込みなんて機能はなさそ。

ただ、設定つーても、使うドライブの登録とRAID Levelくらいなもんじゃないの?
あとはビープを鳴らす・鳴らさないとか管理者パスワードの登録くらいか。
ゼロからやっても数分で終わりそうだけど。
毎回やるのが面倒だと思ったらCLIで作業して、バッチ化しておくとか。

既に作られてるRAIDボリュームは正常だったら(普通は)設定後そのまま認識されると思うけど、
不安だったらサポートに聞いてみた方がいいと思うよ。
このスレ、最近はソフトウェアRAIDマンセーの人がほとんどだし。

413:login:Penguin
07/11/15 18:00:18 Ay00Jbql
>>411,412
ありがとうございます。

save configとかそういう項目ないのでやっぱりないんですかね。
一応サポートにも連絡してみます。


414:login:Penguin
07/11/16 01:17:15 1eXgzPsD
RAIDボリュームの情報はHDD側に持つものもあるし、
実装次第だと思う
なんで、サポに聞くのが一番いいね

415:login:Penguin
07/11/17 14:53:05 1ihUsYxQ
RAID 1 はリード性能が向上するというイメージがあったのに
mdadm で RAID 1 化した HDD はリード性能が微妙に下がってるんだよね…

416:login:Penguin
07/11/17 17:14:37 1ihUsYxQ
>>368
kwsk

417:login:Penguin
07/11/18 01:00:05 YtGpqr3X
なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

418:login:Penguin
07/11/18 01:09:55 32uNERa2
そんなに知恵が足りない事をひけらかさなくてもいいのに

419:login:Penguin
07/11/18 02:39:12 HcFap/DP
確かに知識というか知恵があれば分かるよなあ…

>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

2 台の HDD でミラーリングしてる場合
両方の HDD から並列に別のデータを読めるから

420:login:Penguin
07/11/18 03:14:37 31wlS8LP
> 2 台の HDD でミラーリングしてる場合
> 両方の HDD から並列に別のデータを読めるから

これぢゃ、こわれててもわかんないんじゃないかな



421:login:Penguin
07/11/18 03:24:33 7DZoPkDC
なぜそんな話に飛躍する?
しかも意味が分からん。
RAID1で1台壊れて読めなくなってどうする?

RAIDの障害はsnmpやメールで通知するんだよ。

422:login:Penguin
07/11/18 05:35:44 HcFap/DP
>>420
セクタ単位のデータ破損を言ってる?
そうだとしたら、どちらにせよ RAID 1 じゃデータは救えんよ
2 台の HDD のセクタが不一致だとして、どちらのセクタが正しいと信じるんだい?

423:login:Penguin
07/11/18 10:15:29 w3f8FT8B
>>417
man md
してから書けよ
Changes are written to all devices in parallel. Data is read from any one device.
The driver attempts to distribute read requests across all devices to maximise performance.

上の方で同時アクセス数云々のベンチがあったが、確かにRAID1でも耐久力有りそうだな


>>420
お前の脳内でRAID1ならどうやって片方が壊れてると判断できるのか教えてくれw それともドライブ3台以上が前提か?
予め言っておくがRAID5でも一致確認してません、よー

424:login:Penguin
07/11/18 10:44:16 KXIawyII
元の >417 がイタイのはおいといて

>422
普通は HDD 内部でエラーチェックで救いきれないという状態になって
バケデータを吐くのでなくエラー通知をしてくるから
どちらを信じればいいかは分かる

そうならなかったとしたら相当運が悪いので
どのみち生きていても仕方ない…


425:login:Penguin
07/11/18 10:56:59 w3f8FT8B
ハードのパリティを信用するかどうかってことで現状は使うハード次第だわな
安価ハードを信頼性向上目的でソフトで多重化チェックすると最低3倍構成になるからペイしないんだろうなぁ

ところで3といえば、3ドライブでRAID10やってみた報告がそろそろ欲しいな。既出?

426:login:Penguin
07/11/18 11:28:10 /HzRs9GI
2台構成だとセクタ単位以下の信頼性は下位層に依存、
それ以上の信頼性がほしい場合は3台構成で自前チェックって感じか。

銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

427:login:Penguin
07/11/18 12:24:10 JtepkghF
下位層でできないことは上位層でやればいい、っていこうとでは?
ということで、ZFSドゾー


428:login:Penguin
07/11/18 16:20:10 HcFap/DP
>銀行とか発電所とか、本当に信頼性(可用性じゃなく)が必要な
>場合はCPUとかメモリも3台構成にすることもあるって聞いたことあるなぁ

発注先とかソフトウェア部分も多数決な

429:3台
07/11/18 17:54:46 KXIawyII
メルキオール、バルタザール、カスパー…

ごめんなさいごめんなさいごめんなさい

430:login:Penguin
07/11/19 03:13:03 +PzRhB/C
蒸し返すようだけど、ハードウェアRAID(fake raid ではなく)の場合、
RAID 1 にしても、read のときは双方のHDDから読み込みをやっているわけではないと思う。

5年ぐらい前、Escalade 7210 と HGST 180GXP で RAID0 と RAID1 のアレイを組んで
それぞれベンチを図ってみたが、RAID0 と RAID1 で同じ読み込み速度にはならなかった。
URLリンク(members.jcom.home.ne.jp)
URLリンク(members.jcom.home.ne.jp)

md の場合は、>>423 にあるとおり RAID1 の場合は内部で双方のHDDから読み込みをやっている
ようだけどね。

431:login:Penguin
07/11/19 04:36:45 YZqmzVs9
>>427
> 下位層でできないことは上位層でやればいい、っていこうとでは?

それ結局意味ないから。

RAIDは各セクタが完全に読めるか全く読めないかどちらかであることを仮定してる。
通常、パリティはセクタより小さい単位のエラー検出には使われず、セクタ単位の
エラーが検出された後データ再生成に使われる実装になってる。全部かどうかは知らん。
セクタエラーとして検出されないセクタ未満のデータ破損については多数決方式で
エラー訂正する以外になくて、結局、起源の異なる(パリティによる補完関係にない)
セクタが最低3つ必要になる。それは下位層でやろうと上位層でやろうと変わりない。
もちろんZFSなら2台構成のうえで仮想ブロック1つに実ブロックを3つ以上割り当てる
こともできるけど、それじゃRAIDの意味ない。

432:login:Penguin
07/11/19 15:57:45 1xeYiL1w
>>430
実装による。シーケンシャルなread1本時の挙動と、同2本や10本の速度も測ってみると良い。
ついでだからmdでRAID10組むときのnear/far/offsetのあたりも理解しておくとよい>仕組みと読み込み速度
URLリンク(en.wikipedia.org)
URLリンク(en.wikipedia.org)

// 日本語wikipediaは酷いなぁ

433:login:Penguin
07/11/19 19:28:24 LSsBOoW2
>>430
3wareにだってかつてTwinStorという名前で実装していたのがあってな(ry

434:417
07/11/20 14:41:38 WUpQPj2Z
イタイ417だけど
ああ、ここって特定のソフトウェアレイド前提なのね。話通じないはずだ。
定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
本来は片方からしか読まないよ。そういう拡張された実装って部分的にはあるけど
全面的なやつは珍しいかも。
(そのmdって両方読むのね?よく知らんけど。実際はRAID0+1みたいなかんじ?)
だからそういった意味ではRAID1で高速化するってありえないよ。
RAID0かぶせない限りはね。
>>430,432が正解だと思う。
わたしゃ高速化のためにRAID0使用中だよ。リスキーでも倍速w


435:login:Penguin
07/11/20 14:42:39 6fbP/JrB
アイタタタタタタタタw

436:login:Penguin
07/11/20 15:44:28 +5gXhNB9
あたああああああああ

437:login:Penguin
07/11/20 16:12:43 6fbP/JrB
あーあ
そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに
そもそも最初にRAIDを提唱した1988年の論文でも
RAID1でread性能が向上する事が指摘されてるんだよね

438:login:Penguin
07/11/20 16:38:37 0X6vxiqf
>>437
URLリンク(www.eecs.berkeley.edu)
その論文の基となるレポートがこれだけど
確かにRAID1でparallel readに言及してるな.
abstract読めば判るけど,当初のRAIDは可用性向上よりも
性能向上が目的だからな.

>>432にあるWikipedia英語版も読んでみたけど,
RAID1でreadは速くなるって書いてあるじゃん


439:login:Penguin
07/11/20 17:59:10 WUpQPj2Z
>>438
めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
>Many older IDE RAID 1 controllers read only from one disk in the pair,
>so their read performance is always that of a single disk.
>Some older RAID 1 implementations would also read both disks
>simultaneously and compare the data to detect errors.
だとさ。結局実装次第ちゅーこっちゃね。


440:login:Penguin
07/11/20 18:06:26 WUpQPj2Z
つーか、実際にレイド組んでベンチとってみるといいかもね。
ごたくならべてないでさ。そのmdってのが優秀なら問題ないんだろからさ。

441:login:Penguin
07/11/20 18:09:41 6fbP/JrB
見苦しい

442:login:Penguin
07/11/20 18:12:21 WUpQPj2Z
>>441
なんだググっても反論見つからなかったか?w なんつてな。
正直もうどうでもいいな。

443:login:Penguin
07/11/20 19:20:47 MSD+3qt7
なら何も書かなきゃいいのに。
書けば書くほど見苦しくなる。

437に同意。
>そのまま黙ってりゃ叩いてる奴のほうが大人げないって事で済んだのに

444:login:Penguin
07/11/20 20:45:33 286gsJhP
はいはいプロユースプロユース。

てか本気で見苦しいな。
RAID総合スレに来ておいて、今やコンシューマ向けRAID搭載NASの殆んどを占めるmdを「特定の」やら「知らない」とか言われてもな。
んなもん持ってなくてもRAID語るなら自宅鯖でLINUXでmdくらいはやってて(試していて)当然の話じゃねえの?


445:login:Penguin
07/11/20 21:41:26 hSn6K+RS
>>434
せっかく>>432書いたのに全く読んでない
ものすごく好意的にエスパーしたとしても、単独負荷と並列負荷をわざと曖昧に書いて煽ってるようにしか読めん。
つまり絡みたい気分だったのだろう。そっと放置しておいてやろう、な。

446:login:Penguin
07/11/20 23:37:47 Pk03JSkS
>>434
>定義的な話になっちゃうけどRAID1で並行読み込みするのって拡張で
>本来は片方からしか読まないよ。

と「本来の RAID 1 は並行読み込みしないと定義されている」とほのめかしておいて
>>438 で論破されたのに

>>439
>めんどくさ。まぁ今更どうでもいいがな、>>432から引用すると
> >Many older IDE RAID 1 controllers read only from one disk in the pair,
> >so their read performance is always that of a single disk.
> >Some older RAID 1 implementations would also read both disks
> >simultaneously and compare the data to detect errors.
>だとさ。結局実装次第ちゅーこっちゃね。

と「過去の実装例」で「定義」の議論に対して反論したつもりになって

>>417
>なんでRAID1でread性能が上がるんだろう?RAID0ならともかく。

での知恵の無さを誤魔化す >>417 = >>440 = >>442 はとてつもなく痛い

447:login:Penguin
07/11/21 00:27:24 PIy6cxhg
このへんで勘弁してあげようよ

448:login:Penguin
07/11/21 01:12:12 YL4Okhmu
417はもう出てこれないに500ペソ

449:login:Penguin
07/11/21 01:21:04 66AMPoKv
過去レスを読んでいれば、このスレが md がメインなこともわかると思うんだが。
ただスレタイに md とも書かれてないし、ハードウェアRAIDを Linux で使う場合の話も
ここでしたいので、その場合はその旨一言触れておいたほうがいいな。

あときりわけが難しいけど、上に乗っかるOSは関係なく、ハードウェアそのものについての話になるなら
自作PC板にいったほうがいい。
ただしこういうストレージカードの場合、ハードウェア / fakeRAID ともにデバイスドライバが密接に絡むので
むずかしいけど。

長文ごめんなさい

450:login:Penguin
07/11/21 01:56:35 PIy6cxhg
前スレまではハードウェアRAIDの話題も結構出てたんだけどね。
このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

まぁ >>417の件はそれとは関係なく、単にナニだっただけなんだけどw

451:login:Penguin
07/11/21 02:39:21 WhtoZStV
ひさびさに痛い奴でした

452:login:Penguin
07/11/22 00:43:36 x2PaICsY
どーでもいい。次。


453:login:Penguin
07/11/22 04:34:50 4v8j5/xa
>>450
そうかなぁ?
アレイ拡張など運用の柔軟性とか、HW-RAIDだと対応が難しい要求を
HW-RAIDに求める奴が出ては諭されしてるだけかと。

454:login:Penguin
07/11/22 05:10:47 b7H+VhqY
Linuxの場合は、HW-RAIDにしたらしたで、
ちゃんとミドルウェアというかユーティリティが対応しているかっていうのは大きな問題でしょ。
ユーティリティなしで済まそうとすると、障害通知とかどうしたらいい?ってことになるからね。


455:login:Penguin
07/11/22 08:46:26 NB0e892q
大きな問題ではあるけど、そんなのベンダが提供してるかしてないかであって
話題になるようなポイントではないのでは?わざわざ高いHW-RAID入れるのに
まともなサポートツールがないもの選ぶことはないし。

456:login:Penguin
07/11/22 12:00:33 e1x8OZuz
>>453
お前HW-RAID使ったことないんだろw

457:login:Penguin
07/11/22 16:43:40 4v8j5/xa
>>456
少なくとも、ここで出てくるHW-RAIDはいわゆる民生用で、
高いHW-RAIDみたいなサポートもユーティリティもないでしょ。

高いの使えばそりゃシームレスでも柔軟性でも出るけど、
そういう話が「ここで」出てたかはかなり疑問。

458:login:Penguin
07/11/22 17:18:20 kotZkAiy
>>457
>>453は過去に一体どんなハードウェアRAID使ってきたのよ。
よほどの大昔か?

少なくともここで最近このスレで出てきた3wareやarecaだったら
「アレイ拡張など」はwebブラウザ経由で簡単にできるぞ。
この価格クラスのものでも、信頼性は十分あるし、普通にRAIDを利用・管理
(故障したドライブの交換やエラー時のメール通知等含め)したり、容量を拡張する
くらいの操作する分にはソフトウェアRAIDよりも「簡単・確実」なのは確かだよ。
RAIDの知識があれば、買ってきてすぐ、ほとんどマニュアル読まずに使える。
仮にOSが落ちてても、通電さえしてりゃrebuildとか勝手に続けてくれるってな
安心感もある。

ソフトウェアRAIDにもハードウェアRAIDにもそれぞれの長所・短所はあるんで、
それぞれ理解して使い分けりゃいいだけの話。
RAIDに求めるものは使用目的によって変わってくるんだから、どちらか一方を
無理矢理否定するこたーない。

459:login:Penguin
07/11/22 17:21:32 kotZkAiy
諭され云々は多分>>384のこと言ってるんだろうけど、>>384が特殊だったのは
CLIでやろうとしたからだよ。あとはファイルシステムの拡張でRAIDとは無関係。
CLIは既にメーカー側でもオマケ扱いで、サポート側もほとんどノウハウないし、
マニュアルの記入ミスが何年も放置されっぱなしだったりしてる。
ほとんど使う人がいないんだから「やってることが特殊」と言われてもしょうがない。

460:login:Penguin
07/11/22 20:16:50 e1x8OZuz
>>457
で、たとえばどんなことがHW-RAIDでできないと思ってるの?
アレイ拡張など、以外に。

461:login:Penguin
07/11/22 20:18:20 Ai+8+9Qs
( ´ー`)y━・~~~

462:login:Penguin
07/11/23 18:35:28 Jp++BsDp
ワロタ
ここお笑いスレ化してるな。

> このスレで増えたmd派の人はなんか排他的とゆーか、マンセー感が強い感じ。

なんか絵に描いたようなw

463:login:Penguin
07/11/23 19:42:52 GS8px4nS
md の RAID 1 でリード性能を高速化する方法ってないのかな?
方法自体がないなら諦めないといけないけど…

464:login:Penguin
07/11/23 21:43:27 T6tLpng3
お前は何を言ってるんだ

465:login:Penguin
07/11/23 23:38:14 ediOoBUE
だから並列負荷耐性は上がるとmanにも書いてあるだろうに

466:login:Penguin
07/11/23 23:56:04 dksFbx1S
そこの解釈の差が論争の原因だね。man mdだと

> Data is read from any one device.
> The driver attempts to distribute read requests across all devices to maximise performance.

と最初の文が意味深だが、解釈は曖昧。で、ソース見ると

> * Don't change to another disk for sequential reads:

とあるので、おそらく単体のリードはディスク一台分の速度、ただし
別のリードは別のディスクに分散できるのでスループットが台数に
比例して伸びる、なのでは?

467:login:Penguin
07/11/24 01:21:05 NU+60JyU
なるほど。


468:login:Penguin
07/11/24 02:25:30 Rw3nYGM/
>>466
hdparm でリード性能が伸びてないのは
単発リードコマンドになってるってこと?

469:465
07/11/24 02:28:51 lC7phVQh
>The driver attempts to distribute read requests across all devices to maximise performance
複数の読み取り命令を全てのデバイスに割り振って高速化しようとするよ
じゃないの? 単一read時のことは書いてないよ。

470:login:Penguin
07/11/24 03:09:26 /QheRAnN
>Data is read from any one device.
データは一つのデバイスから読まれる。
こっちが単発リードのことをいっているんだろ。


471:login:Penguin
07/11/24 04:35:21 wJBOH4En
なおのこと単発リードが高速化するようには読めんが

472:login:Penguin
07/11/24 11:53:59 /QheRAnN
だから速くならないって言ってるだろw

473:login:Penguin
07/11/24 14:19:03 Rw3nYGM/
状況を整理するよ

hdparm による md の RAID 1 に対するベンチマークで
リード性能が単体 HDD に比べて向上していない
(自分を含めて 2 ~ 3 人が報告)

これは
・hdparm によるベンチマークは単発リードコマンドしか発行していない
・そもそも md の RAID 1 ではリード性能は向上しない
のどちら (あるいは両方?) なんだろう?ということ

474:login:Penguin
07/11/24 14:22:10 1cLiYWi3
同時に複数のファイル(とは限らんが)の読み込み要求があったときには
できる限りドライブを分散させて、パフォーマンスが向上するようにしている。
各ファイル(とは限らんが)のシーケンシャルな読み込みは単一のドライブから。

だね。

475:login:Penguin
07/11/24 14:24:48 /QheRAnN
ふむふむ。

476:login:Penguin
07/11/24 15:12:57 lC7phVQh
>>473
その2択が正しいかどうかは置いといて、hdparmは単発readでしょ。
なんだか話がループしてそうなんだが>>362- は読んだ?

477:login:Penguin
07/11/24 15:36:38 Rw3nYGM/
おお >>367 にそれらしい答えが出てるね

478:login:Penguin
07/11/24 16:16:33 lC7phVQh
チラ裏だが

ディスクベンチっていうと
URLリンク(www.iozone.org)
みたいにパラメータ変えつつやるもんかと。
特にRAIDボードで組んで評価って話でよく挙げられてる単純なベンチは
あれで参考になるんかと思うわけだが、口出すようなことでもないわけで。
単純化指向は良い面もあるしな。tiobenchくらいが結果貼りやすいかもしれん

479:login:Penguin
07/11/29 06:03:49 7uM8bIDi
なんかmdの話ばかりでハードウェアRAIDがスレ違いな話題と化しているようだけど…

それはさておき、なんでLinuxってOpenBSDやNetBSDのRAIDframeのような
kernel & userlandを含めたフレームワークがきちんと整備されていないんだろう?
ドライバがkernelにとりこまれても、各種ユーティリティはRAIDカードベンダまかせで、
それらが使えないディストリビューションの場合は途方に暮れるしかないっていうのは
悲しすぎる。

OpenBSDならBIOSレベルで設定しないといけないもの以外は、基本的にraidctlコマンドで
統一的に使えるのになぁ…

あと、どうでもいい余談だけど、ちょっと前、mdとLVMを組み合わせるのは複雑だなんて
話があったけど、ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に
扱える。

あと、このスレからソフトウェアRAIDの話が撲滅されるというメリットもあるw

480:login:Penguin
07/11/29 10:17:09 krpLIoSe
>>479
>フレームワークがきちんと整備されていないんだろう?
ニーズがないから。
OpenBSDのように遊びでHW-RAID使っている訳では無いから。

481:login:Penguin
07/11/29 10:36:45 r5r946d6
>>479
つ dmraid

>>480
しったか乙

482:login:Penguin
07/11/29 15:45:08 yTYjvc/A
>>481
dmraidって既に
「きちんと整備されてい」るの?

単に知らないから聞いてるんだが。

483:login:Penguin
07/11/29 19:19:21 0m6dyEiu
>>479
お前みたいなのが居るからmd以外の話題が低レベル化するんだよ


484:login:Penguin
07/11/29 19:41:18 3Mr68e1S
>>482
いまだにrcのまんまとはいえ、開発は続いているね。最新版は今年の5月に出た。

>>483
必死だな

485:login:Penguin
07/11/30 00:10:15 revYtBrt
>>479
> ZFSのようにソフトウェアRAID+LVM+fsを統合しちゃったものなら簡単に扱える。

ニーズがわかってないな。ZFSで全部、じゃシステム部品としての粒度が大きくて、
導入しづらくてたまらん。「これで全部解決」ってのは大抵成功しないよ。

486:login:Penguin
07/11/30 03:03:09 Mn/yUmHF
mdとLVMとの組み合わせだと、機能かぶりまくりで無意味に複雑化する上に
オーバーヘッドだってあるんだから、よほど素性は悪い罠

487:login:Penguin
07/11/30 10:28:41 N6HYB90j
ま、それがLinuxの性

488:login:Penguin
07/11/30 18:30:10 hZ7jSyzu
>>479
上のほうで複雑すぎる、って書いた奴です。

ZFSは見た目は簡単(?)だけど単純ではない。複雑なものを隠して簡単そうに
見せているだけ。なんで、トラブルになったとき対処に必要なアレイ構成とかの
情報も結局ZFSの中に隠されるから対応しづらい。そこが嫌で原則使わないことにしてる。

RaidFrameとLinux mdは、どちらも一長一短だけど、
ニーズにあった自由な組み合わせが必要ならhw-raid/md/LVM/fs等で、
ワンストップで操作できる点やドライバの充実をとるならRaidFrameが有利、
ってところか。

自分以外の視点で考える練習もした方が良いかもね。

489:login:Penguin
07/12/01 08:04:30 gB0tzcfY
>>485
> システム部品としての粒度が大きくて、
> 導入しづらくてたまらん。

これに禿胴する人は多いと思う。

490:login:Penguin
07/12/01 11:45:16 ywEZfGgX
>>486
どこがかぶってるんだ?

491:login:Penguin
07/12/01 11:57:19 s/h51g0g
おちん○ちんの皮

492:login:Penguin
07/12/06 05:13:41 ap4dDKTJ
たまたま、この記事を読んで気になり、
mdによるRaidで整合性検査をしてみようと思ったのですが、
どのようなコマンドがあるのでしょうか?
(ぐぐっても、見つからなかったもので・・・

URLリンク(itpro.nikkeibp.co.jp)

493:login:Penguin
07/12/06 08:53:48 TPTZjUe/
>>492
整合性検査って、consistency check っていうんだよ。
URLリンク(gentoo-wiki.com)

With a modern kernel, >=2.6.16, this command will initiate a data consistency check
and a unreadable block check: reading all blocks, checking them for consistency,
and attempting to rewrite unreadable blocks:

# echo check >> /sys/block/mdX/md/sync_action

You can monitor the progress of the check with:

# watch -n .1 cat /proc/mdstat


494:492
07/12/06 15:26:20 ap4dDKTJ
>>493
ありがとうございます、実験用領域を組んで試してみます。

495:login:Penguin
07/12/06 22:44:34 XmDmS+kB
mdで第一日曜に自動チェックとかいう話ってなんだっけ?

496:login:Penguin
07/12/07 01:00:01 0L1bQ/rX
debianのデフォルトじゃね?

497:login:Penguin
07/12/07 17:07:07 V8m/lKoM
そんなん有るんだ。
ってググってもヒットしないし

498:login:Penguin
07/12/11 21:54:14 EizmHdyt
今、250GB*6本でmdによるRAID5を作っています。
名前はmd0です。

今度500GB*6本でmdによるRAID5を作ろうと思います。
新しく作るRAIDをmd0にして、既存のRAIDをmd1にリネームしたいのですが
リネームの操作が分かりません。

まだHDD買って来てないんで実験できないのですが、要領をご存知の方が
いたら教えてください。

ディストリはCentOS5です。


499:login:Penguin
07/12/11 23:00:07 f5+2aQ7y
1.旧md0を停止して
2.新md0を作成して
3.旧md0をmd1としてアセンブルして
4.好きなとこにマウント

じゃだめヶ?
新HDD買う前に1と3だけ試せる。

500:login:Penguin
07/12/11 23:05:57 f5+2aQ7y
あ、ごめん>>498宛てね。
それと今止めてもいいmdがないので試せなくてスマソ。
多分問題なく出来るとは思うけど。

501:login:Penguin
07/12/12 11:28:43 PJ2mXbUE
>>498
mdadm.confのARRAY行書き換えて再起動でmd0がmd1になるから、改めてmd0をcreate
fstabとか関連のファイルも同時に変更する必要があるんで注意
あと確認は十二分にしたほうがいい

Persistent Superblock内ってアレイのデバイス名(md0)まで
埋め込まれるんだっけ?それともUUIDだけ?

502:498
07/12/12 12:26:42 6F5R6X/A
みなさん、どうもありがとうございます。
まだ実機のmd0をバックアップ取れていないので、virtualpc内にlinux入れて
教えていただいた手段を試してみます。

503:498
07/12/12 13:18:37 6F5R6X/A
CentOS4がインストールされたVirtualPCイメージがあったので、それで試してみました。

○作業前
/dev/md0: 要素 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4

○手順
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 -a -l 5 -n 4 /dev/hdd1 /dev/hdd2 /dev/hdd3 /dev/hdd4
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
# shutdown -r 0

○作業後(再起動後)
[root@centos ~]# cat /proc/mdstat
Personalities : [raid5]
md1 : active raid5 hdb4[3] hdb3[2] hdb2[1] hdb1[0]
29952 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md0 : active raid5 hdd4[3] hdd3[2] hdd2[1] hdd1[0]
60096 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>

無事にmdの名称が変わりました。
今度HDDを買ってきたら、本番マシンで試してみたいと思います。
どうもありがとうございました。

>>501
# mdadm -E /dev/hdb1
をしてみた所、md?の記述はなかったので、HDD要素自体には自分がどのmdに属すのかという
情報は持っていないのかもしれません。
あと、mdadm.confをfindで検索してみましたが、存在しませんでした

504:login:Penguin
07/12/12 15:43:25 kEBRgtVd
>>503
横から失礼。
自分も昨晩レスキュー用のKanotix使って
md*の名前を変更したのだけど、

古い mdadm (1.*.*) だと再構成(assemble)段で
# mdadm -A /dev/md1 /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
 を
# mdadm -A /dev/md1 -a /dev/hdb1 /dev/hdb2 /dev/hdb3 /dev/hdb4
とかやらないと上手く認識しないみたい。
今時のは(2.*.*)で問題ないけど。

505:login:Penguin
07/12/12 15:56:54 PFZrlHwL
>>504
さらに横レスw そうだったのかー。知らなかったよサンクス。
先日上手くいかなかったんでmdadmを1から2にうpしちゃったばかりの俺です。

あ、ついでに、HDD4台とかで台数多いときは
# mdam -A 1/dev/md0 /dev/sd[abcd]1
で省略出来るお。この指定だと間違いにくいんでオヌヌメ。
知ってたらごめん。

506:訂正
07/12/12 15:57:50 PFZrlHwL
○  # mdam -A 1/dev/md0 /dev/sd[abcd]1
×  # mdam -A /dev/md0 /dev/sd[abcd]1

507:498
07/12/12 16:09:33 6F5R6X/A
-aって、「必要ならばデバイスファイルを作る」っていうオプションですよね。
付けなくても動作しましたが、付けるほうが正解な気がします。

508:login:Penguin
07/12/14 01:18:21 XaTc4CNr
>>503
>あと、mdadm.confをfindで検索してみましたが、存在しませんでした

アレイ障害時に管理者にメールを投げる機能、とかの設定保存ファイルがどこかにあると思う。
man mdadm
man mdadm.conf
して出てこないとかなら使ってる鳥が別名にしてるんだろう

509:login:Penguin
07/12/19 17:03:00 bGUYO486
ICH8DHのraidはlinuxでも使えますか?

現在raid1でWindows(XPとVista)を使っていますが、ハードディスクの後ろの方を空けて、そこにlinuxを入れてみたいと思っています。
この場合、raid1ままで使えますでしょうか?ich8,raid,linuxなどでggって見ましたがよく分かりませんでした。よろしくお願いします。


510:login:Penguin
07/12/19 17:07:14 MVsxWy2g
>>509
>>192

511:509
07/12/19 17:31:25 bGUYO486
>>510 ありがとうございます。
mdadmというのが有るのですね。

今回のようにハードディスク前半のWin領域はそのままraid1で、
後半のlinux領域もraid1にしたい時は、
raid1状態にlinuxをインストールするのは無理でしょうか?
RaidのBIOSでハードディスク後半は通常状態に戻し、
片方のハードディスク(の後半)にインストールして、
そのシステムで起動してから、raid1の設定をする、
という感じのなるのでしょうか?
#質問が分かりづらかったらスイマセン。
#そもそもmdadmのraid1の領域から起動することはできない?

512:login:Penguin
07/12/19 17:50:49 UvMw/7fp
mdadmで同期するとメモリーが増え続ける(メモリーリーク)

何が原因だろう・・・

外すと増えない・・・

あぁ、折角Raid組んだのに・・・

513:login:Penguin
07/12/19 23:56:27 dXqKwU0p
>>511
ああまた一番面倒な構成を・・・

LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
後ろ半分だけmdすれば使える。アクセスするのなら、Windows側から見える
RAID構成と整合性を保つため、mdではなくベンダ依存ソフトRAIDドライバが
必要。正直お勧めできない。

ブートはmdの場合は別に問題なくできると思う。

お勧めは100% LinuxかWindowsにして、片方はVMwareとかで動かすことだな・・・
当然RAIDはLinuxもしくはWindowsが標準で持ってる標準のSoftRAIDドライバで、
チップセットの機能は殺して使う。

514:513
07/12/19 23:58:47 dXqKwU0p
> LinuxからWindows領域にアクセスしないのなら、黙って二台のHDDの
> 後ろ半分だけmdすれば使える。

嘘です。ごめんなさい。チップセットのなんちゃってRAID機能が
どういうディスクレイアウトでHDD記録面使ってるかLinuxから
知りようがないので、「後ろ半分だけmd」は不可能です。

あきらめてベンダのSoftRAIDドライバで頑張るか、もっとベターな
ベンダドライバは捨てて片方は仮想化で稼動がおすすめ。



515:login:Penguin
07/12/20 01:06:41 ah4LLGVs
つかいまどきHDDなんてクソ安いんだから
ひとつのHDD分割してそれぞれRAIDなどと
金払ってわざわざ面倒を買うようなことはやめて
HDDひとつ増設しろ、というのが
全うなアドバイスだと思うが。

わざわざ面倒を買いたいMの人なら
ここで聞かずに、自力でMるべき。
その方が長期間楽しめる。

516:login:Penguin
07/12/20 01:15:18 7Ear3seQ
その話だけど、HDDって最近あんま下がんないよね。
500GBを春先に大量買いしたんだけど、ついこないだ1本追加したらほとんど値段一緒だった。

517:login:Penguin
07/12/20 11:59:43 9JqjcHOR
去年の夏に買った MaxLine Proの500GBは約2.8万円だった。
後継機種(?)の Barracuda ESの500GBは現在約1.6万円で買える。

このクラスは既に十分安くなったのだと思う。
過去の例から見ると、どんな容量でも 1.5万くらいで低下速度がにぶり、
その後ジワジワと1.0万前後まで下がって、消えていくパターンでは。
(最低容量路線 1製品だけは例外としてその後も残す感じ)

現在価格低下中なのは、もっと大きい容量のものだと思う。
URLリンク(www.watch.impress.co.jp)
URLリンク(www.watch.impress.co.jp)

518:login:Penguin
07/12/20 17:11:44 bKOgxsVo
>>513-515
オンボードRAIDでパーティションを切って(複数の)Windowsを入れる場合には全然面倒な事は無いのですが、
その内1つでもLinuxを入れようとすると、とたんに凄く面倒なことになるみたいですね。
その事がハッキリしてよかったです。
Linuxは仮想化で使用する方向で検討します。ありがとうございました。

519:login:Penguin
07/12/20 17:31:46 PCc7T4fL
たぶんすごく勘違いしてる気がするけどまあいっか…

520:login:Penguin
07/12/21 00:27:42 2IO5/NZD
きっと >>518 は微妙に勘違いしてるね。

勘違いしてる場合、>>518 はチップのRAID機能を相変わらず有効にしたまま
ベンダ提供ドライバで使ってるはず。ちゃんと理解してるなら、チップは
ただのインタフェースチップとして使って、RAID自体はWindowsのSoftRAID機能で
実現してるはず(それができるチップなら、だけど)。

なんちゃってRAIDを使うことの面倒(&危険=ボード変えたらあぼん)さと、
Windows/Linuxの双方で共通のディスクレイアウト情報を共有する面倒さの
2つがあることは理解されたのだろうか・・・

521:login:Penguin
07/12/21 08:17:35 vT/e4/3W
>>520
アドバイスはあり難いのですが、Win上の仮想環境でのLinuxの使用が思いのほか快適ですし、
ホストOSがWinなのでオンボードRaidに関しても面倒がありません。
この環境を捨てて、かつWin領域までSoftRAIDで再構成しなおしてまで、
Win/Linuxの切り替えboot環境に移行する気が起きません。悪しからず。

なお、ICHの世代が変わっても下位互換性は確保されているようですし、
M/Bのメーカーが変わってもサウスがICHなら問題ないはずですので、
「ボード変えたらあぼん」は言いすぎかと。

なお、FakeRAIDがSoftRAIDに勝っている点として、
(1)BIOSが起動した時点からRAID機能が使える,
(2)BIOS側の設定だけでRAIDが使えてしまう
と下記では言っています。これが一般に受け入れられる主張かどうかは知りませんが参考まで。
URLリンク(itpro.nikkeibp.co.jp)

522:login:Penguin
07/12/21 10:14:34 BvrFe3Un
結局ソフトウェア的なRAIDについてはWinとLinuxで互換性を取るのはムリだから
何をチョイスしたところで諦めるしかないわ。

523:login:Penguin
07/12/21 10:48:48 4VlKmS8l
>>521
とりあえず、仮想化は構成を複雑にしないって意味で正解だと思う。

BIOSレベルでミラーとか作れるのは便利だと思うけど、
OSからまともに使えない場合はまったく意味がないからなぁ…。
ドライバがまともならFakeも良いだろうね。
Linuxだとその条件が以外に難しいからSW使ってる人も多い。
(dmraidとかだと結構ちゃんと使えます?>使ってる方)

あとBIOSでアレイいじってる間はOS起動しないから
可用性目的でRAID使う場合はFakeはまず最初に却下でしょうね。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch