RAID総合スレッド No.4at LINUX
RAID総合スレッド No.4 - 暇つぶし2ch320:login:Penguin
08/11/02 01:09:58 n6/w/1q1
>>319
私も現在稼働中のRAIDの容量アップを狙ってましてその件について気になります。
憶測ですが、

/etc/mdadm/mdadm.conf
/etc/fstab
/boot/grub/menu.lst

の3つを編集すればmd1をmd0にできるかもしれません。
mdadm.confをいじったらmdadmコマンドを実行しないといけないかもしれません。
RAID初心者なのであまり信用しないでください。
判断の材料になればと思いまして書かさせていただきました。

くれぐれもいきなりファイルを書き換えたりせず調べてから行ってくださいね。

321:login:Penguin
08/11/02 01:29:20 36V/uKQX
>>320
レスありがとう。

/etc/mdadm/mdadm.conf
 →今までmd0だったのをコメントアウトし、md1として記載していたのをmd0に書き換えた。
/etc/fstab
 →md0でマウントして欲しかったので、記載は変更せず。
/boot/grub/menu.lst
 →ルートパーティションもカーネル置き場もRAIDの対象外にしてあるので、変更せず。

この状態で、1TBx3(RAID5)がmd1で、md0にはデバイスが何も割り当てられていない。
仕方ないので今は、/etc/fstabを修正し(md0→md1)で動作させてる。

何をすれば直るんだろう・・・

322:login:Penguin
08/11/02 04:27:52 yzuijVl/
>>319
mdボリューム自体に書き込まれてる番号を見てるんで
superblock弄らないと直せない
やめておいたほうがいい

323:login:Penguin
08/11/02 08:56:30 36V/uKQX
>>322
ああ、そうなんだ・・・
わかった。ありがとう。
あきらめることにするよ

324:login:Penguin
08/11/07 08:51:39 1rUaDWwq
アロハですべて解決だお田口くん^^

325:login:Penguin
08/11/08 20:24:12 dUpxLcHs
アロハ田口君、使えないRAID・使えないクソ板というならここにはこないでくれ!

326:login:Penguin
08/11/08 22:09:50 1FtiGeqJ
md raid1なデバイスが開始しなくなったのですが、
縮退も何もしていないようなので原因が掴めずにいます。
再構成すれば正常に復帰することは確認していますが、
どのような原因でこの状況になり、どのような対応をするべきなのか、
勉強のために助言をいただければ大変ありがたいのですが。

# cat /proc/mdstat
md1 : inactive sdb1[0] sda1[1]
12345678 blocks super 1.0

# mdadm --detail /dev/md1
/dev/md1:
Raid Level : raid1
Raid Devices : 2
Total Devices : 2
Preferrer Minor : 2
Persistence : Superblock is persistent
State : active, Not started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

# mdadm --examine /dev/sd[ab]1
/dev/sda1
State : clean
Checksum : 1234abcd - correct
Events : 4
/dev/sdb1
State : active
Checksum : 56789abc - correct
Events : 5

327:login:Penguin
08/11/08 22:30:16 vwNnhBNG
>>326
raid1ドライバは起動時にロードされてる?
パーティションタイプの設定は間違ってない?

328:326
08/11/08 22:39:01 1FtiGeqJ
>>327
全く同様に作成した複数のRAID1デバイスがありますが、このデバイスのみ開始しません。
ちなみにパーティションは/としてマウントされる設定になっています。

329:326
08/11/08 23:01:02 1FtiGeqJ
昨日までは問題なく機能していたのですが、一体何が原因なのやら。
念のため、パーティションテーブルとmdadm.confも
バックアップと比較してみましたが、完全に一致しています。

330:login:Penguin
08/11/08 23:12:58 vwNnhBNG
ルートってのが怪しい気も・・・
# dmesg | grep md
とか

331:326
08/11/08 23:42:00 1FtiGeqJ
>>330
# cat /var/log/boot.msg | grep_wetware md
mdadm: /dev/md0 has been started with 2 drives.
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error
mdadm: /dev/md2 has been started with 2 drives.
mdadm: No arrays found in config file

このシステムは普通のinitrdだと起動しないので、
今Knoppixを改造する方法を調べていますが、メディアがないという・・・。

332:326
08/11/09 00:02:30 1FtiGeqJ
システム自体は自動復旧できるので、あまり困ってはいませんが、
復旧スクリプトはOSをカスタムクリーンインストールするだけなので、
原因究明に必要そうなデータは全部消えてしまいます。

全く関係ありませんが、M/BのRAID機能(Fake RAID)には
SB等のオンチップなもの、別途チップを搭載したオンボードなものがあります。
後者の場合、搭載チップが大手デベロッパのもの(Silicom Imageとか)なら、
全く同じチップを搭載したRAIDカードが簡単に手に入ります。
「Fake RAIDを使いたいが、拡張カードに余裕がない。しかしオンチップでは不安」
という場合にはそのようなM/Bを選ぶのもいいかもしれません。
また、PATA・SATAなどが搭載されているものでも、似た型番のファームウェアで(略
他のOSと共用しないのであれば、LinuxでFake RAIDを選ぶ理由はそうないと思いますが。

333:326
08/11/09 21:20:22 DGt7Zimz
どうも最近のカーネルで同じような現象が出るようです。
いくつかのフォーラムで話題に上っていましたが、いずれも原因は不明でした。
大きな実害はない(RAIDでシステムが起動しなくなるのは実害ですが)ため、
週末も終わりますので、このあたりで調査を打ちきりたいと思います。
付き合ってくださった方、ありがとうございました。

334:326
08/11/09 21:47:37 DGt7Zimz
同様の現象に遭遇された場合は、RAIDを構成し直すことでデータロスなく復旧できます。
私の環境では復旧作業はメンテナンスモードで完結しましたが、
カスタムinitrdなので、他の環境ではレスキューCDやLive CDが必要かもしれません。

復旧するには、RAIDを再構成し、必要であれば適当に同期します。
UUIDが変化している場合は、UUIDを元に戻すか、mdadm.confに反映してください。
# ルートをRAID構成にしているような方は理解していると思いますが、
# /boot/initrd/etc/mdadm.confです。念のため。
私の環境ではinternal bitmapが正しく認識されませんでした。
このあたり詳しくないので分からないのですが、作り直してやれば問題なく動くようです。

一応、エラーなくブートすることは確認していますが、
結局初期化してしまったため、正常に運用できることは確認していません。
また、この現象は再現性があるようなので、再び発現するかもしれません。
カーネルを大体2008年上半期のものに戻せば、再発しなくなる"らしい"ですが。

335:login:Penguin
08/11/14 17:41:14 SvkwSzc6
うちは64bit Ubuntu環境だが、書き込み負荷が大きいとRAIDが応答しなくなる。
非RAIDのシステムディスクも巻き込んで書き込めなくなっているらしく、
Fxの設定なんかが戻ってる。シャットダウンも途中でバスエラーで止まるし。

対処法は >>334 に同じ。

P35のサウスが腐ってるのか、ドライバが腐ってるのか。

なんでやー

336:login:Penguin
08/11/22 20:07:08 Jtc1qcI2
CentOSでSATAのHDDをミラーリングしたいのだが
ハードウェアRAIDで2台を接続できるやつでお勧めありませんか?
そんなに高性能でなくて構いません

337:login:Penguin
08/11/22 20:32:30 eQKAaNGp
べつにソフトウェアでやればよくね

338:login:Penguin
08/11/22 20:42:46 pwVAVQnO
個人的にはLinuxと言えば3wareのイメージが強い

339:login:Penguin
08/11/23 10:20:29 NMmGdMk5
沖縄に外国人3000万人受け入れ計画
URLリンク(life.bbs.thebbs.jp)

こんな法案が可決したら日本は破綻する
(ちなみに東京の人口は1280万人)
選挙権がある方は良く考えて投票してください



340:login:Penguin
08/11/23 14:17:08 xbEoWaWj
まず物資の輸送が不可能
餓死させるのが計画のうちなら知らんが。

>>337
ブートローダのメンテが若干面倒だから、そのあたりを嫌うなら
透過的に扱えるHW-RAIDの方が良いかも。

341:login:Penguin
08/11/24 13:53:42 nIHbOfOU
3ware Escalade 9500S-4LP
adaptec Serial ATA RAID 2410SA
どっちを買おうか悩んでます
ハードウェアRAIDの方がよいらしいのですが
どうやって見分けるかがわかりません。
エロい人教えてください

342:login:Penguin
08/11/24 14:17:15 gPfZJ3UU
>>341
PC外付けタイプならまず確実にハードウェアRAID。
その2つもハードウェアだと思うけど。
Adaptecの方はややスペックが落ちるから3wareでいいんじゃ?

(使ったことないし、ぷらっとオンラインの説明見て書いてるだけだけど)

343:login:Penguin
08/11/24 16:16:07 hCv1ixFI
質問です。

現在CentOS5のmdadmを使用してRAID5構築しています。
これをRAID6に変換したくてGoogle先生に聞いたのですがサイト見つかりませんでした。
①可能なのか?
②検索するキーワード、もしくはお勧めのサイト
をご教示いただけると幸いです。


344:login:Penguin
08/11/24 16:45:51 VO9j9Wmt
知る範囲ではフルバックアップ+リストアしかないと思われ
最新のmdadmは知らないから、サイト見つけてman読んでくれ

345:login:Penguin
08/11/24 21:36:30 GzuV7Usu
高価なストレージでもRAIDレベル変換は命がけだよ
なにしろメモリ上にしかデータがない瞬間があるからね

346:login:Penguin
08/11/24 22:24:15 l3Kl+Jqd
>>343
可能だったとしても君には無理だと思うよ。

347:login:Penguin
08/11/25 00:09:58 dBliCIAC
>>343
>>107-111

348:login:Penguin
08/11/25 00:11:10 dBliCIAC
IDにCIA… ガタガタブルブル(違

349:login:Penguin
08/11/29 22:26:04 jRDp7xVJ
RAID構築してた二つのHDDを
普通に使用しようとしてフォーマットしたら
エラーでフォーマットできないんだが
どうすればいいのでしょうか?
DESTROYで完全消去しようとしても
エラーで消去できません(泣

350:login:Penguin
08/11/29 22:44:47 jRDp7xVJ
ローレベルフォーマットも無理だった・・・orz
俺の知識じゃなんともならん・・・
誰か助けてください。

351:login:Penguin
08/11/29 23:01:17 vVaLqDtx
>>350
もしかしてRocetRaid?
HDDの設定値書き換えるらしいので他環境では使えなくなるらしいよ。

352:login:Penguin
08/11/30 02:12:02 oiqzRYao
adaptec 1210SA っていうやつなんだけど・・・


353:login:Penguin
08/11/30 02:12:49 oiqzRYao
途中で書き込んだかも

adaptec 1210SA っていうやつなんだけど・・・
RocketRAIDでは違うようです。


354:login:Penguin
08/11/30 02:46:09 pP7UJGw1
>>349
どうしても他の方法が駄目なら試してみて。
もう一度、同じRAIDを構築する。
それからRAIDのレベルを1にして再構築。
そしてバラしてから一個づつフォーマット。

355:login:Penguin
08/11/30 03:27:32 oiqzRYao
>>354
RAID1を構築しようとすると
開始直後から固まって動いてくれないです

356:login:Penguin
08/11/30 05:07:23 pP7UJGw1
>>355
最初のレベルは何?
最初RAID 0なら、同じようにRAID 0で構築しないといけないよ。
それで問題ないなら、次にRAID1で再構築。
同じカードなら、これができないはずはないと思うけど。
もちろんOSは別のHDDだよね。
後は、プロンプト開いてfixmbrしてみるしかないかな?
使い方はググってくれ。

357:login:Penguin
08/11/30 06:13:18 I/61r+v7
ふつーに物理的に壊れたんじゃんないの

358:login:Penguin
08/11/30 12:40:13 oiqzRYao
>>356
OSは同じHDDですorz

まだ購入して一週間ぐらいしか経過していないんだが・・・汗

359:login:Penguin
08/11/30 14:28:11 lQ5yOOgC
この書き方だと導入時のHDDテストもしてないっぽいな

360:login:Penguin
08/11/30 14:41:41 oiqzRYao
powermaxっていうツールで
Advanced Test (Full Scan Test) っていうテストぐらいしかしてないです


361:login:Penguin
08/11/30 17:06:27 lQ5yOOgC
んー、それならテストとして最低ラインはクリアか
フォーマットが無理ならddで全領域ゼロうめとか
# dd if=/dev/zero of=/dev/sdX bs=1M
LBAで見える以外の領域に何かされてたらこれじゃ解決しない

どのレベルでどんな問題が起こってるのかきちんと書かれてないな
RAIDカードのBIOSなのか、OSレベルなのか、ローレベルフォーマットって
いうならメーカ製ツールなのか。半ばエスパー質問化してる

362:login:Penguin
08/12/09 23:45:42 cEZNK+Gg
長文失礼します、
DELL ワークステーション 450GB 15000回転×4枚 検討中ですが
SAS RAID5 か SAS RAID10でヒジョーに悩んでおります・・

一般論では RADID5のほうが良くない(書き込み遅い・2枚壊れたらアウト)
と言われます。
が、DELLに言わせれば それは主にSATAの話であって、
SAS RAID5 の場合 PERC 6 SASコンが演算する?ので
書き込み速度もそれほど遅くならないし、HDDが同時に2枚壊れるなんて
ほとんど有り得ないから大丈夫との回答・・

もし本当なら やはり作業領域の広い RAID5にしたい気持ちですが、
それを押し切ってでも あえてRAID10にする決定的なメリットを
ご存知のかた いませんでしょうか?
(RAID10の速さ・安心感も捨てがたいのも事実です)




363:login:Penguin
08/12/09 23:59:13 3GSXNjdZ
>>362
PERC 6 SASコンの演算性能を確認してからでもよくない?

>HDDが同時に2枚壊れるなんて
>ほとんど有り得ないから大丈夫との回答
逝ったらデータ保証してくれるのか、って言ってみたいね。
多分なーんにも考えずに言ってるだろうから。

364:login:Penguin
08/12/10 00:13:28 wgpxAUYw
RAID10だったとしてもデータ保証は無いし、そもそもRAIDの守備範囲じゃない
何にも考えてなさそうなのは同意だが

365:login:Penguin
08/12/10 00:31:00 OPHXMwCC
>>363
早速のアドバイス有難うございます。
RAID5特有の データとパリティ情報を分散して記録する手間ってヤツですよね

今回の場合、

RAID5→作業可能領域:1350GB バックUP領域:450GB
    読み速度:○ 書き速度:△ 故障時復旧:2枚逝ったらアウト

RAID10→作業可能領域:900GB バックUP領域:900GB
    読み速度:◎ 書き速度:◎ 故障時復旧:3枚逝ったらアウト

といったところでしょうが HDDの壊れ具合やHDD作業領域の大きさ等、
未体験ゆえ 何かに例えようもなく、
さて どうしたもんかという感じでざいます・・



366:login:Penguin
08/12/10 00:34:11 4CJ8G9lA
>>365
RAID10は組み合わせによっちゃHDD2二つ死んでもアウトじゃないか?

367:login:Penguin
08/12/10 00:36:52 OPHXMwCC
>>366
すみません まだあまり詳しくはないですが
0+1 と 1+0 の違いということでしょうか?

368:login:Penguin
08/12/10 00:42:14 4CJ8G9lA
>>367
URLリンク(itpro.nikkeibp.co.jp)
の後半部分

369:login:Penguin
08/12/10 00:48:16 wgpxAUYw
>>365
データ守りたいの?可用性を上げたいの?
データを守りたいだけならRAIDは無意味だから
JBOD2つ作ってバックアップしなさい

370:login:Penguin
08/12/10 01:04:08 OPHXMwCC
>>368 わかりやすいページでした、有難う御座います
   この場合 当然1+0ですね

>>369 以下のような説明文を見つけたのですが
   そう簡単に一安心というのも なかなか難しいものですねw

実際、JBODは複数のディスクを単に1つにまとめて
大容量の単一ディスクに見せかけるだけの技術だ。
パリティなど冗長コードの仕組みはなく、
耐障害性は向上するどころか悪くなる。

冗長性がないという点で JBODはRAID 0とよく似ている。
しかし、RAID 0が複数のディスクを並行して読み書きすることで性能を高めているのに対し、
JBODでは基本的に1台ずつ読み書きされるので性能は向上しない。


371:login:Penguin
08/12/10 01:20:23 OPHXMwCC
やはり どちらにしてもバックUPは欠かせないように思いました。

・作業領域重視なら まめにバックUPをとりつつ RAID5
・作業速度重視なら たまにバックUPをとりつつ RAID10

という2つの選択理由で最終的な悩みに突入してみます。
結局は 作業領域450GBの差・互いの体感速度差 が
なかなか想像できないという悩みなワケですが・・

372:login:Penguin
08/12/10 01:34:19 Ual94Maq
書き込みの早さは、
RAID10 > 5 > 6
の認識であってますか?

373:login:Penguin
08/12/10 01:36:45 4CJ8G9lA
レイテンシは逆に増えるからね、
よほど大容量データを転送しない限り体感できないに一票

RAIDは間違ってデータ消したとか、
ウイルスがデータ壊したとか、
ソフトウエアの問題から起きるデータ消滅には無力。

HDDが故障する確率と間違ってデータ消す確率、
どちらが高いかを考えるとバックアップの重要性に気づくはず。

374:login:Penguin
08/12/10 02:01:36 OPHXMwCC
しかし 最もポピュラー且つ 全てのバランスがとれているのはRAID5だ
という意見もあるしな~ 聞けば聞くほど迷ってしまうところです

375:login:Penguin
08/12/12 16:45:01 n9kgBBfI
>>370
JBODって何のためにあるのか分からんよな・・・
障害発生しても別にいいやってスタンス(例えば2ch鯖w)で使うもんなんかな?

376:login:Penguin
08/12/12 19:38:52 IRfMgGF6
昔のドライブあたりの容量が小さかった時代には
有効な手段だったんだよ。
今となっては無価値だが。

377:login:Penguin
08/12/12 20:46:10 uz8EwwXm
全然分かってないな…。

メリットはドライブごとのアクセス並列化。
XFSみたいな、ファイルシステム内で複数のアロケーション単位に
分散して使っていくファイルシステムと組み合わせて、
並列入出力のアクセス時間を隠蔽する。
RAID1+0だと、アクセス単位がストライプ単位より大きい場合は
並列入出力が事実上不可能。

378:login:Penguin
08/12/12 20:51:14 7DMsWCHl
J(ust)BOD

379:login:Penguin
08/12/15 20:30:18 cQdvEHh1
>>377
まじか
したら>>370の説明は間違いってことじゃん

つーことは、RAID0と違って、JBOD中の1台が死んでも全体が死ぬわけじゃない?

380:login:Penguin
08/12/16 05:33:07 habB3SiC
>>379
1台死亡でボリュームが死ぬのは一緒。RAID0だと領域が櫛状に死亡するから、
完全な形で救出できるファイルが極端に少なくなるけど。

381:login:Penguin
08/12/16 12:40:23 V99gDv+F
JBODの実装次第なんじゃないの?
例えばどのハードウェアRAIDでも必ず >>377,380 と言える
保証はどこにもないと思う。

382:login:Penguin
08/12/16 14:57:27 habB3SiC
何当たり前の事を……。
370も377も必ずその動作になるとは言っていないぞ?

380もそりゃ実装次第だが、RAID0を名乗る以上実装はストライピングだろうし、
JBODを名乗るなら領域連結だろう

383:login:Penguin
08/12/16 17:00:56 KlJRATvp
小学生の口ゲンカみてーだな

> 「必ず」とは言ってない

そんなこといつ言った?
何時何分何秒だ?

とか続きそうw

384:login:Penguin
08/12/16 17:15:15 O0nTK2wv
>>383
そうなの?死ぬの?

385:login:Penguin
08/12/16 18:47:07 MbHpuTDI
よく分からなくなってきた
RAIDだとJBODのような並列入出力はできないわけ?

386:login:Penguin
08/12/16 23:29:57 habB3SiC
JBODだろうがRAIDだろうが並列入出力できるかは実装次第。
RAID0系(5/6含む)はほぼ不可能というかできても実用的じゃない。

387:login:Penguin
08/12/17 10:12:16 mORUj6fC
並列入出力って、
RAIDよりもNCQとかその辺の仕事では?

388:login:Penguin
08/12/17 12:42:06 lUpz3ShW
ここまでの話の要約

JBODとRAID0のメリット・デメリットは実装次第で、
絶対的な話として、どちらがどうとは言えない

389:login:Penguin
08/12/17 15:22:26 BsydUkOG
ほんとか?

390:login:Penguin
08/12/17 15:34:12 Q+zvZB24
JBODのメリットはディスクの容量が異なっていても全部使えることじゃないのかな

391:login:Penguin
08/12/17 22:56:00 n45DK9NO
みんな意見バラバラだな・・・w
まぁほとんどの人は接点がないってことだろうな。プロの鯖缶でもない限り

392:login:Penguin
08/12/18 01:10:30 glsjl0AW
>>387
ボリュームレベルの話とドライブレベルの話は区別するべし
並列っていうからには同時に複数箇所アクセスできないといけないけど
NCQ使ったところでアーム1個だから無理

393:login:Penguin
08/12/18 10:21:59 +frKg3uB
>>383
あんた、理解しないで突っ込んでるだろw

パリティデータも実データも全ディスクに分散して書き込むのがRAID5,6の肝。
その副産物として >>377 に挙げられてるメリットが出てくる。

それに対して、JBODは、概念的に並列化となんの関連もない。
だから「並列化された実装」かどうかの保証はない。

394:login:Penguin
08/12/18 16:56:41 glsjl0AW
377はJBODのメリットを言っている件

395:login:Penguin
08/12/18 18:09:57 OhRt4tvK
393が一番文脈読まずに書いてる気がする件

396:login:Penguin
08/12/18 20:10:23 7mUfa8Uh
そろそろFAを頼む
初心者の俺を混乱させるなよお前ら

397:login:Penguin
08/12/19 04:36:05 I6X68B5n
>>393
全然ダメ。構造と振る舞いが区別できてない。

RAIDもJBODも記憶領域の構造をどうするかという話。
それ単体では並列化とは何の関係もない。
分散されたそれぞれの書き込みオペを逐次にやったとしてもRAID0だし、
各ドライブに並列的に書き込んでもRAID0。
逆にJBODで複数ドライブにまたがる書き込みを並列で処理しても良い。

>>396
RAIDもJBODも単なるストレージ構成法の一つ。
本質的なところではパフォーマンスとは何の関係ないが、
ストレージの構造は並列化等の実装に影響を与えるわけで、
それがパフォーマンス特性になって出てくる。
なので、個々の製品のパフォーマンスについては
RAIDやJBODの種類と同時に実装もきちんと見ていかないとまずい。

398:login:Penguin
08/12/19 09:39:33 N95hrrbA
>>397
横から見ていた者だが、"並列"の意味が377と違うんでないか?
377はボリュームに対する並列アクセス、397はドライブに対する並列アクセス
を前提に書いてる気がする。

あと、
>RAIDもJBODも単なるストレージ構成法の一つ。
>本質的なところではパフォーマンスとは何の関係ないが、
これは違うべ。
何らかの性能を上げるために構造を考えるんだろ。

399:login:Penguin
08/12/19 09:50:41 HVbKjCGk
そもそも冗長性確保のためのデータの配置が定義されているわけで
性能については実装任せなんだが

400:login:Penguin
08/12/19 12:28:20 ZzooiCVr
RAID Level 0については確実に性能はアップするでしょ。
仕組み上。
Level 0そのものは正確には"RAID"ではない
(RAIDのRはRedundant = 「冗長性のある」だが、Level 0 は冗長性なし)けど、
速度向上目的で他のLevelと組み合わせて使うRAID技術の「一部」だよね。

JBODは"Just Bunch Of Disks"。
基本的には名前の通り「単にディスクをまとめただけ」で
それが性能向上に繋がるかどうかは実装次第。

では。

401:login:Penguin
08/12/19 13:37:26 W75DRFXy
「パフォーマンス」「性能」の定義がバラバラな気がする。

402:login:Penguin
08/12/19 16:18:22 I6X68B5n
>>398
>何らかの性能を上げるために構造を考えるんだろ。

だからわざわざ「本質的なところでは」って書いたんだが。

>>400
>RAID Level 0については確実に性能はアップするでしょ。
少なくとも構造上はアップしない。以下再掲。
分散されたそれぞれの書き込みオペを逐次にやったとしてもRAID0だし、
各ドライブに並列的に書き込んでもRAID0。
RAID0がRAIDかどうかってのは、本筋には何の関係もない蘊蓄。

>>399
同意見

403:login:Penguin
08/12/19 16:21:37 HakcTdSU
これだから原理主義者は

404:login:Penguin
08/12/19 16:28:34 I6X68B5n
そりゃ原理理解できてなきゃ話にならんからね。

405:login:Penguin
08/12/19 20:28:43 N95hrrbA
>>402
もう1行引いておくべきだったか。
おまいさんの言う"本質的なところ"はおかしくないか?、ってのが言いたかった。

単一I/Oに対するバースト転送速度を上げたい、ってのが目的で、
それが期待できる記憶領域の構造の一つとしてRAID0があるんだろ。
だから俺は、単一I/Oに対するバースト転送速度を上げたい、ってのがRAID0の本質だと思う。

もちろん、どんなRAID0でもこの目的が達成できるわけじゃなくって、
実装もちゃんと見ていかなくてはまずい、って点には同意。

極端な例で、例えばドライブ一台にパーティション二個切ってRAID0組めば、
RAID0だけど性能はグダグダ。


406:login:Penguin
08/12/19 20:41:15 AyOb8rM1
>>405
どんな目的で選ばれたり、どんな実装をされるかに関わらず、
RAID0(ストライピングの方が正確か)は構造を指した用語なんだから構造が本質。
それに、第3段落で言っているように「どんなRAID0でもこの目的が達成できるわけじゃな」いということは、
それはRAID0すべてに成り立つ特性ではない。つまり本質ではないということになる。

407:login:Penguin
08/12/19 21:34:55 N95hrrbA
う~ん、おれは目的が本質だと思っているんで、
「RAID0の本質を誤った実装」みたいな言い方をするんだが、
おまいさんは定義が本質か。


408:login:Penguin
08/12/19 23:02:52 HVbKjCGk
RAID0もバカみたいな実装にすれば

Disk1のストライプ1
Disk2のストライプ1
:
DiskNのストライプ1
Disk1のストライプ2
Disk2のストライプ2
:
DiskNのストライプ2

なんて単体ディスクよりはるかに遅い実装で作れる
でもRAID0なのよね

409:login:Penguin
08/12/19 23:05:43 zWWlzXIk
ストライピングの定義が構造のみで振る舞いは全く含まれてないなんてどっかにソースあるのか?
一方は振る舞いを含む、一方は振る舞いは含まないという話になってるんだから、
大本の定義をもってこなきゃ水掛け論だろ。

おれはRAIDでいうストライピングの一番の目的はスピード向上であって、
それを達成できていないものはたとえデータを縞々に入れてても、
ストライピングとは言わないと思うがな。
プログラミングでいうデータ構造の概念とは違うんじゃないだろうか。

410:login:Penguin
08/12/19 23:07:28 HVbKjCGk
まずはヘネシー、パターソンの原典を読んでこいよ

411:login:Penguin
08/12/19 23:20:22 zWWlzXIk
読むのはいいけど「原典」という名の資料はないのだが。
具体的な書籍名なり論文名なりを提示してもらわないとわからん。

412:login:Penguin
08/12/19 23:34:42 I6X68B5n
409自己否定してどうするw
データを縞々に入れるのがストライピングだ

413:login:Penguin
08/12/19 23:44:37 asZoZApZ
RAIDが最初に定義された論文
URLリンク(www.cs.cmu.edu)
書籍は
『コンピュータアーキテクチャ 定量的アプローチ 第4版』
がヘネパタの日本語訳の最新版なのでこれがいいんじゃないですかね。
ってもヘネシーRAID0については定義してないんじゃなかったっけ・・・?

414:login:Penguin
08/12/20 01:00:39 qv2fz/ke
そもそもなんでJBODなんて新しいネーミングを作ったんだ?
構成としてはRAID0まんまなわけで・・・

415:login:Penguin
08/12/20 01:25:33 +TD+IQmn
どういうボケだよ

416:login:Penguin
08/12/20 10:26:30 JWNLY8jx
>>412
データが縞々であるのは必要条件であって十分条件でないのではと言ってるんだろ。
それと「原典読め→原典って具体的にはどれ?→思いっきり無視」ってどういうことよ?
ほんとに「原典」を知ってたらすぐにこれだと言えたんだろうけどな。

>>413
サンクス。これっぽいな。
URLリンク(itpro.nikkeibp.co.jp)
によると、これでlevel1~level5まで発表したが、
あとでlevel0とlevel6を追加したらしい。
JBODの説明も書いてあるな。>>370はこれを参照したんじゃないだろうか。

というわけでlevel0に関しては記述がなかったが、
>>386で以下のように書いてあるからlevel5のところを参照した。たぶん同じやつの書き込みだろう。
縞々でパフォーマンス向上を目指してるのは変わらんしね。

113~114ページによると、level3では1グループで一つのI/Oしか実現できなかったのを、
level4では「parallelism」を通して小さな転送のパフォーマンスを改善したとある。
parallelism→一度に一つ以上のI/Oを行うこと。
ディスクの動作を非同期にして独立させて動かすんだな。
大きな転送についてはディスクが同期して動いても「待ち」があまりないから、
結果としてlevel3と速度的には変わらないらしいな。比較の表がおもしろい。

んで発展型としてlevel5はチェック情報を分散させるとある。
「sequential」の可能性があったチェック情報の書き込みの問題が解決されるから、
小さい変更だが効果は大きいとあるな。

というわけで「原典」にも並列アクセスについて思いっきり言及されてると思うのだが。
おれのつたない英語力のせいで誤解があったら言ってくれ。

大先生たちもとんでもない曲解に苦笑いだろうな。
「ワタシタチノイトヲゼンゼンリカイシテナイヨ・・・」

417:login:Penguin
08/12/20 18:40:52 +TD+IQmn
>>416
おまいさん、なんか相手取り違えて同一人物認定してないか?
とりあえず落ち着け。

で、だ。原典を神聖視するのはまあ悪いことではないが、
初学者にありがちな失敗でもある。原典から研究が進むにつれて
解釈が変わっていくことはままあるということにも気をつけてくれ。

418:login:Penguin
08/12/20 21:39:58 JWNLY8jx
どんな切り返しだよ

419:login:Penguin
08/12/21 02:30:28 A3gaIsOr
猿真似で返しか
結局まともな反論は出来ないわけね

420:login:Penguin
08/12/21 18:23:06 fQM9DRN3
なんか基地外がわいてるな
スレをあらさないでほしいのだが

421:login:Penguin
08/12/21 22:35:58 nIipvi9z
マターリで何気に良スレだったのにね

422:login:Penguin
08/12/22 00:13:56 Fbk41wIC
そういえばそろそろ冬休みだったな

423:login:Penguin
08/12/22 07:07:57 iFW65CKw
3wareのRAIDカードでAlt+3でBIOSに入ったのですが
そこからどうすればミラーリングできるのかが
いまいち設定方法等わかりません
どなたか教えてください

424:login:Penguin
08/12/22 07:40:58 Fbk41wIC
>>423
URLリンク(www.3ware.com)

425:login:Penguin
08/12/22 11:17:44 iFW65CKw
>>424
表示上ではうまいことRAIDになってるのですが
そのドライブにWindowsXPを入れようとすると
ブルースクリーンになってしまってます(泣
なぜなのでしょうか?

426:login:Penguin
08/12/22 14:07:13 wBxKXJqm
>>425
F8かなんか押してドライバは入れた?

427:login:Penguin
08/12/22 15:06:49 iFW65CKw
>>426
正規品のCD使ってたのですが、バックアップしたCDでインストールしたら
普通にインストールできました。
で、インストール完了して再起動♪って思ってたらマザーのBIOSで
HDDが見つからないって、言われるorz
マザーのBIOSで確認すると、HDDを選択するところにRAIDカードがない!(汗
再度、WindowsXPのCDを入れてみたが、普通に見えてる・・・
もしかして、RAIDカードで起動ドライブに指定することができないのかな??
。・゚・(ノД`)・゚・。 ウワーン
なんか特殊な設定が必要なの?それともマザーのせい?
マザーはAOpen i965GMt-LA使ってます

428:login:Penguin
08/12/23 02:37:53 uzKBah8c
>>427
URLリンク(download.aopen.com.tw)
ここのマニュアル見る限り、
Advanced BIOS Feature > Boot Other Device
の設定でいけるんじゃないかと思った。
試してみてちょ。

429:login:Penguin
08/12/24 13:49:52 T5ngbbX3
 色々調べたり、質問スレで聞いたりしたのですが、分からなかったので質問します。
ICH10RでRAID0を構築しているのですが、ここに既存のNTFSを残したままFedora10を
インストールする事は出来ないでしょうか。
KNOPPIXでEXT3*2とSWAP*1を用意する事には成功しています。Ext2Fsdでも認識しています。
ところが、Fedora10をインストールしようとした時だけ、パーティーションテーブルが読み込めないという
エラーを出します。
これはどのようにFedoraをインストールすればいいのでしょうか。


430:login:Penguin
08/12/24 13:55:48 RefXxMd7
>>529
あきらめれ
URLリンク(forums.fedoraforum.org)

431:login:Penguin
08/12/25 18:08:23 0Q8kCwwH
mdadmでPATA×5台のRAID5アレイを組んでるんだけど、先日ハードウェアいじってないのに突然rebuildが始まり、
途中でOSごとフリーズ(無反応化)する、という現象に遭遇した。
ハードリセット掛けると一旦OSは正常起動するが、やっぱりrebuild途中で死亡。
/proc/mdstatを見ると、rebuild中であるにもかかわらず、[UUUUU]の表示でどれがイカれてるのか分からない。
その後、フリーズ中もアクセスランプが点きっぱなしになってるドライブを見つけ、
新しいドライブと交換したら無事rebuild→正常動作となった。

一台ドライブが故障しても正常に動き続けてくれなきゃRAIDの意味がない。
ましてやOSごと落ちるってのは最悪。(RAID上はデータ領域のみで、システムは別ドライブだったのに)
この種の現象はLinuxのソフトウェアRAIDではしばしば起こるものなの?
別PCのハードウェアRAIDではこんな経験したことないんで、ちょいとソフトウェアRAIDに対する信頼感が弱まった。

432:login:Penguin
08/12/25 19:08:37 zW/EYcXM
参考のためカーネルのバージョン報告よろしく

433:login:Penguin
08/12/25 19:10:58 BVWOzN/G
PATAコントローラの種類もよろしく

434:login:Penguin
08/12/25 19:16:48 ezPuey+U
昔SCSIのRAIDだけど、
HDDのバスコントローラ死亡→同じSCSIバスのHDD全部アクセス不可→SCSIドライバ悩む
の流れで固まったことがある。
ドライバできちんとエラー処理して、OS本体を巻き込まないようにしてくれないと…


435:login:Penguin
08/12/26 00:04:12 fn7jsL/s
>>431
それはSW-RAIDというよりディスクコントローラの問題では?
mdレイヤとしては下位のディスクコントローラの報告を信用するしか無いわけで、
ディスクが死んでてもコントローラが正常と報告すればUUUUUになるし、そのまま
アクセスすれば何らかの問題が起こって、ドライバがカーネルモードならフリーズとかね。
推測だけど、その問題のディスクには単体でアクセスしてもフリーズしたんじゃないかな。

でもって、HW-RAIDでも当然実装次第で同様の問題は起こりうる。
組み合わせが限定できるから実際にはトラブルは少なめとは思うけど。

436: ◆Zsh/ladOX.
08/12/26 00:16:59 PlTA5U0q
なんだ、圧倒的じゃないか。
URLリンク(www.theinquirer.net)

437:login:Penguin
08/12/26 00:47:13 W2RM7LsO
そういえばHW-RAIDの癖に片方failした時にご丁寧にLinuxにも
アクセスエラーを返してOSごとお亡くなりにしてくれた"HW"-RAIDもあったな・・・


438:login:Penguin
08/12/26 15:40:43 w2+94DnQ
>>432-433
現在入ってるのは kernel 2.6.16、mdadm 2.5.5。
問題のRAIDアレイは2.4時代の raidtools→mdadmと移行して、合計三年くらいは運用しているもの。
PATAコントローラは Promise TX2(PDC20269)が二枚とクロシコのIT8212のやつが一枚の
合計三枚挿しで計6ポートのうち5ポートを使って各1台ずつのドライブ。
(クロシコのは比較的最近追加した)

トラブったドライブはTX2につながってた分。

439:login:Penguin
08/12/26 15:43:29 w2+94DnQ
>>435
> それはSW-RAIDというよりディスクコントローラの問題では?

それはそうなんだけどポイントは、結局の所、RAIDとディスクコントローラとが
同じシステム上にあるから、ディスク側のトラブル発生で「OSごと死亡」の可能性が高い
(独立したサブシステムであるハードウェアRAIDに比べて)というのがソフトウェアRAIDの
弱点なんだな~、というとこ。
ま、それは >>435さんも書いてるけど。

RAIDの目的を考えると、これはちょっと、というか実は結構大きな弱点だよね。

ハードウェアRAIDのメリットは運用上の利便性がほとんどで、
信頼性はソフトウェアでもハードウェアでも大差ないだろ、
とわりと気楽に思ってたんで、今回ちょっと考え方を改めた、というお話。

440:439
08/12/26 15:47:17 w2+94DnQ
あ、書き間違いだ。

> RAIDとディスクコントローラとが

「OSとディスクコントローラとが」でした。

さらに書き忘れたけど、
当然のことながら >>438-439 = >>431です。

441:login:Penguin
08/12/26 23:57:44 4qL9WRZf
>>439
なるほど。
完全に1デバイスに見えるタイプのHW-RAIDはSATA/SAS IFが
システム境界になって影響が波及しないから、その点では安心ですね。
PCI/PCIe式のHW-RAIDの場合はSW-RAIDに近い問題を抱えるかも?
構成の柔軟性を取るならSW、パフォーマンスとかシステムコンポーネントの
独立性をとるならHWってところですかね。

442:login:Penguin
08/12/27 00:16:21 DstI2+OC
SASなりFCなりで接続する別ボックスで
コントローラや電源なども冗長化されてないと安心して使えないよ

443:login:Penguin
08/12/27 00:22:48 CHbsSHY3
まぁ、そこらへんは目的に合わせたトレードオフでしょう。
安心に存分にコストを掛けられるなら442が適してるでしょうし。

444:login:Penguin
08/12/27 20:07:44 eSSKLpWE
>>428
最終手段・・・aopenに問い合わせてみた。

平素より弊社製品をご利用頂きありがとうございます。
先日ご報告頂いた件について確認いたしましたところ、
BIOSの欠陥を確認いたしました。
現在、本社技術部門で修正BIOS等について検討中でございますので、
結果回答については、今しばらくお待ち頂けますようお願い申し上げます。
ご迷惑をお掛けしておりますことを深くお詫び申し上げます。

って返信来ました。
皆様、ありがとうございました。

445:login:Penguin
08/12/27 20:27:15 CHbsSHY3


446:login:Penguin
08/12/27 22:03:41 siPqVhlW
>>444
乙。たぶん他で悩んでた何百人かがこれで救われたな。

447:login:Penguin
08/12/27 22:13:23 yXeo6tkq
>>438
PDCなんて、動いてるときはいいけど、なんかトラブるととたんに最悪に
なるチップだというのに。ご愁傷様。

448:login:Penguin
08/12/29 14:12:36 sawoMW0p
>>447
このスレ(過去スレ含む)見てると、
HW-RAIDはRAIDコントローラのハード的故障の可能性があるが、
SW-RAIDにはそれがないので、信頼性はむしろ高い、てな話が何度か出てたと思うけど、
現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。

つか、OS共倒れになる危険性や、多ポートを利用するために複数のコントローラを
用意しなければならないことを考えると、SATA/PATAに関してはSW-RAIDの方が
ハードウェア的なリスクが高い、というパラドックスすら。
ま、HDD 2台でのRAID 1程度ならばM/Bオンボードのコントローラだけで賄えると思うが。

449:login:Penguin
08/12/29 14:13:19 sawoMW0p
すると、Level 4 以上のSW-RAIDを使うならSCSI使えってことになるんだろうけど、
こうなるとコストの点でのメリットは皆無になるんだよな。
SATAの「まともな」HW-RAIDを選んで買った方がトータルでは安上がりだろう。
(そも、SATAは「まとも」なのか、というのは置いといて)

結局SW-RAIDのメリットって、本当に「構成の柔軟性」だけってことになっちゃうのか?
(信頼性を犠牲にすれば超安上がり可能、というコストパフォーマンス面での柔軟性も含めて)

450:login:Penguin
08/12/29 21:18:25 W2yC0jiU
>>448-449
>現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。

そんなに単純な話じゃないよ
種類の違うリスクだから、足し算引き算みたいな単純な比較には何の意味もないし、
故障の可能性っていう一面だけを見るのもどうかと。

故障の可能性も重要だが、運用コストや復旧の容易さなど
考えないといけないことは沢山ある。
例えばmdでのRAIDなんかは操作にroot権限が必要だけど、HW-RAIDなら
極端な話HDD抜いて入れればOKだから一般オペレータでも対処可能で
実運用での分業をしやすい、とか。
そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。

451:login:Penguin
08/12/29 22:38:14 UoG3grAC
一般オペレーターって具体的にどんな感じかよくわからんが、
「一般」な人たちにマシンのハードディスクを抜いたりさしたりしてほしくないのだが・・・

452:login:Penguin
08/12/30 02:18:12 XDcWQoWA
>>450
> 故障の可能性っていう一面だけを見るのもどうかと。

一面だけを見てるのではなく、それがSW-RAIDのメリットだと言われてたことが
実際にはそうでもないよな、という点を書いただけだが?

> そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。

そういう「運用上の利便性」がHW-RAIDのメリットだというのは
既にさんざん書かれてるんで、誰でも知ってる。
豊富な知識を開陳したいならば、
むしろ、SW-RAIDのメリットは他にないの? というところに答えて欲しいものだ。

453:login:Penguin
08/12/30 04:28:56 bFaePHo0
まーroot持ってる奴は少ない方が安全だろう
少なすぎるのもトラックナンバー的にアレだが

>>452
そーいう態度は周りが話しづらくなるからおまいさんの得にもならんよ
なんか嫌なことでもあったの?

454:login:Penguin
08/12/30 08:59:43 1n4+uaKz
ストライピングは速くなるとは限らないのやつ、まだいたのかよ

455:login:Penguin
08/12/31 02:54:03 dG9Ns93a
ん、実際に速くなるとは限らないけど?

456:login:Penguin
08/12/31 13:46:49 wmBwgOvB
またバカがわいてきたか。
大掃除も終わって暇だからソースを出せと煽ってみる。どうせ出せないだろうけど。

457:login:Penguin
08/12/31 13:57:16 dG9Ns93a
ほれ。
URLリンク(www.runser.jp)

RAID0のストライプ単位よりアクセス単位が大きい場合、
複数のヘッドがシークする必要があるけど、
その場合シークタイムが最悪値に合わせられるのが原因。
特にストライプ単位より小さいランダムアクセスで問題になる。

458:login:Penguin
08/12/31 14:13:29 dG9Ns93a
間違えた。
特にストライプ単位より小さい→特にストライプ幅より小さい

あと、俺は454の言ってる奴とは多分別人。残念。

459:login:Penguin
08/12/31 15:05:32 wmBwgOvB
CPUの性能を比較するのに浮動小数点演算にフォーカスするのと変わらんね。
速くなる場合もある、遅くなる場合もある、なんて一個一個つまんでも無意味。
実際使う場合に全体のパフォーマンスがどうなるかが重要でしょ。

せめてOSの起動時間とかアプリ使用時の速度とか大容量ファイルの入出力とかデータベースのアクセス時間とかで計測しないと。
おれはシステム作ってるがデータベースに関しては完全にスピードアップで議論の余地ないね。
データ容量に対してメモリ容量が少ないときほど効果的。当たり前だけど。

460:login:Penguin
08/12/31 15:45:02 dG9Ns93a
ソース出されて涙目
必死に論点すげ変えようとしても無駄だよ

461:login:Penguin
08/12/31 16:08:42 VoiH1vp1
最近無意味に偉そうな人多いよね

462:login:Penguin
08/12/31 16:22:17 NaughPYZ
>>457
ストライプサイズは大きすぎても小さすぎても駄目という、
当たり前の事が示されたに過ぎないと思うんだが、
リンク先の内容はそれ以上の何か意味があるの?

RAID-0がランダムアクセスに弱いのは常識でしょ?
極端な例を出せば1byteのデータ書き込みはRAID-0でも絶対に速くならない。

463:login:Penguin
08/12/31 16:36:19 wmBwgOvB
>>460
おまえのシステム構成に関する考え方が根本的にずれてるだけ。
来年はもっとがんばれよ。

じゃあ今年おつかれ。

464:login:Penguin
08/12/31 22:17:20 zy8sz8rj
上のほうで話題になってる
SW-RAIDで、ディスク不調になるとシステムごと固まるのって結構痛いよね
RAID専用のLinuxマシン立ち上げてsmbmountかNFS使うしかないのか?

465:429
09/01/01 15:37:19 bpOiYOEo
openSUSE 11.1を試したら、GRUB以外はインストールは出来たのですが、
GRUBのみインストールが出来ません。MBRにもPBRにもインストール
出来ません。
1TB*2 のRAID0です。
フロッピーからsuper grub diskを使っても読み込めませんでした。
/boot以外のファイルは、Ext2Fsdで見てもちゃんとあります。
現在のMBRのブートローダーはMBMです。
出来れば、二段階ブートにしたいのですが、
どうすればいいでしょうか。

466:login:Penguin
09/01/03 23:22:51 t9OrvzZp
あけおめ

>>462
> RAID-0がランダムアクセスに弱いのは常識でしょ?

うん、だから>>455なわけで。

>>463
元の流れにない勝手な俺仮定を持ち出してよく言うw

467:login:Penguin
09/01/04 09:47:01 jNugnejt
ミラーリングの場合、ライト時は二つのディスクに書き込んでいるのはわかるけど、
リード時は、どうなんだろう。
やはり、二つのディスクから読み出しているのかな。あるいは、どっちか片方からなのかな。



468:login:Penguin
09/01/04 14:46:39 U5nW6Zhm
>>467
たしか両方から半分ずつ読み出すようなアルゴリズムになってた気がする
だからWriteは単体時と同じか遅いけど、Readは単体時よりも早いはず

469:login:Penguin
09/01/04 14:48:08 U5nW6Zhm
拡張されてる場合は↑みたい

wikipediaより
本来RAID 1の読み出しは、一つのドライブのみにアクセスし、もう片方は、完全なバックアップドライブである。これを双方から読み出すようアルゴリズムを拡張することで、理論上、単体ディスクの2倍の速度で読み出しを行える。

470:login:Penguin
09/01/04 23:55:36 jNugnejt
>>468 >>469
オンボードのbios_raidじゃあ、いくら最新のgigabyteマザーでも[拡張]ではなさそうだなあ。
でももし「拡張」だったら、ミラーリングでも、raid0の分散高速読み出しの恩恵を受けられるのか。
なんか、読み出しだけだけど得した気分だな。



471:login:Penguin
09/01/05 00:56:01 tYf1sft+
>>467
結論から言うと実装次第。並列読みも可能だし、片方からの場合もある。
mdのmanによると、速くなりそうなときだけ並列読み。
Windowsのミラーリングだと高負荷時のみ並列だったか。
他はそれぞれの説明書読んだり問い合わせすべし。

>>468
また来たか

472:login:Penguin
09/01/05 01:29:27 HmcpyJ9r
>>471
ああそうか、mdデバイスに拠るんだね
勘違いしていました。ハードウェアに「拡張」実装されているんじゃないんだ
ソフトウェアレイドの方が、拡張などがあって、融通が利きそうだと思った



473:login:Penguin
09/01/05 01:48:25 tYf1sft+
>>470
並列読みだしできるRAID1として、シーケンシャルアクセスだと
トラックシーク+回転待ち時間 < データ読みだし時間 じゃないと恩恵は無い。
ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り

474:login:Penguin
09/01/05 03:09:42 HmcpyJ9r
片方のディスクでトラックシーク+回転待ち時間を待ったとして、
それでもデータ読み出し時間で得があれば、並列読み出しraid1がなされるわけか
なるほど。
確かに、連続した収まり方をしたデータの読み出しの場合は片方のディスクを作動させるのは余計に時間がかかるなあ

>ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り しかし、そういう時間を計算して並列読み出しをするか決めるmdシステムはすごいと思う。
納得できました。

しかし、そういう時間の損得を計算して、並列読み出しを決定するmdデバイスってすごい!




475:login:Penguin
09/01/05 11:22:48 HmcpyJ9r
cat /proc/mdstat に何も表示されない場合、
それは、fedora10が、オンボードbios_raidミラーリングをハードウェアraidとして認識しているからでしょうか。
bios上ではraidアレイはfunctionalになっていたし、
インストーラーでも、確かにraid構成を見ることができていました。

dfでは次のように表示されます

/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm




476:login:Penguin
09/01/05 11:35:50 DlvIpe94
>>475
多分なってないよ。それ。dmesg貼ってみれ

477:login:Penguin
09/01/05 15:46:14 DdhiA30p
>>475、それ、BIOSでRAIDサポートしてて、有効にしてるんなら、mdでなく、dmraidが動いてないけ?
# dmraid -s
# dmraid -n
# dmraid -r
とか叩くとなんかでないか?

478:login:Penguin
09/01/05 16:19:36 HmcpyJ9r
>>476
関係ありそうな部分だけ貼ってみます
その1
<略>
ahci 0000:00:11.0: version 3.0
ahci 0000:00:11.0: PCI INT A -> GSI 22 (level, low) -> IRQ 22
ahci 0000:00:11.0: AHCI 0001.0100 32 slots 6 ports 3 Gbps 0x3f impl RAID mode
ahci 0000:00:11.0: flags: 64bit ncq sntf ilck pm led clo pmp pio slum part
<略>
ata1: softreset failed (device not ready)
ata1: failed due to HW bug, retry pmp=0
ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata1.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata1.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata1.00: configured for UDMA/133
ata2: softreset failed (device not ready)
ata2: failed due to HW bug, retry pmp=0
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata2.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata2.00: configured for UDMA/133



479:login:Penguin
09/01/05 16:21:12 HmcpyJ9r
その2
scsi 0:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sda: sda1 sda2
sd 0:0:0:0: [sda] Attached SCSI disk
sd 0:0:0:0: Attached scsi generic sg0 type 0
scsi 1:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdb: sdb1 sdb2
sd 1:0:0:0: [sdb] Attached SCSI disk
sd 1:0:0:0: Attached scsi generic sg1 type 0





480:login:Penguin
09/01/05 16:21:42 HmcpyJ9r
その3
<略>
device-mapper: multipath: version 1.0.5 loaded
EXT3 FS on dm-0, internal journal
kjournald starting. Commit interval 5 seconds
EXT3 FS on sda1, internal journal
EXT3-fs: mounted filesystem with ordered data mode.
Adding 3604472k swap on /dev/mapper/VolGroup00-LogVol01. Priority:-1 extents:1 across:360
4472k


481:login:Penguin
09/01/05 16:24:04 HmcpyJ9r
>>477
それらしきものが、出ました
# dmraid -r
/dev/sdb: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
/dev/sda: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0

# dmraid -s
*** Set
name : pdc_cbabhifjd
size : 976642048
stride : 128
type : mirror
status : ok
subsets: 0
devs : 2
spares : 0


482:login:Penguin
09/01/09 13:18:07 +j59FScV
このスレの人たちって、自作板のRAIDカードスレのように自分でインスコ、設定とかやったことあるの?
あっちはLinuxユーザが少なくて情報得るのに苦労してるわ・・

483:login:Penguin
09/01/09 13:22:01 R08Zc+c9
Linuxユーザーは「本物の」RAIDカードしか使わないからじゃないの?

484:login:Penguin
09/01/09 19:09:59 /ZwuDsYt
俺が使ってる3wareなら今じゃドライバは標準で入ってるし、
ユーティリティ類も普通にインストーラで入るし。
kernel2.4のときはドライバはtar玉から入れてたけど
それも特に苦労をした記憶はないな。
少なくとも俺は。
書いてある通りにやれば普通に入った。
まともなメーカーのを使えば、どれでもそんなもんじゃないの?

ソフトウェアRAIDだって、
ちょっと検索すりゃ親切丁寧な解説サイトは
いくらでもあるし。

一体何をそんなに苦労してるんだか知らんけど。

485:login:Penguin
09/01/09 20:26:31 +j59FScV
>>483
本物ってハードウェアRAIDのこと?あのスレの連中はそっちのほうが多いけど。
自分の印象では、ジサカーと違ってLinuxユーザはハードに大金をかけない人が多い気がする。
RAIDもmdraidのミラー程度でささやかにやってるイメージ。
あ、馬鹿にしてるわけじゃないぞw

>>484
標準的な鳥を使う分にはほとんど問題ないけど、変にメーカーがカスタムしたやつだとトラブるときがある。
メーカーに聞いても「そんなの知らん」で終わりなんで、自力でやるしかない。

486:login:Penguin
09/01/09 22:25:36 +wvRjhFl
Windows特有なのが、RAID0で起動を高速化って文化じゃないかな?
それがあるから、フェイクRAIDが大人気。

Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから
結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。
Windowsにmdドライバやmdadmが移植されれば
フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ?

つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win
「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz


487:login:Penguin
09/01/09 23:52:35 Al1IJSIe
mdと、dmってどう違うの?
意図して文字列を逆にしているみたいに思える。

488:login:Penguin
09/01/10 01:48:52 loOCjssc
>>487
md: LinuxのソフトウエアRAIDドライバ
dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

>>485
本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。
例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。
具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。

個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。

489:486
09/01/10 13:36:09 odJ/+a4Y
>>486
俺も自作初めたばかりの無知な頃にフェイクRAIDで痛い目みたわw
nforce2のraidだったかなぁ・・・raid0速い!って喜んでたわ

>>488
大学の研究室である程度まとまった金でRAID組まされることあんだよね。
研究室の共用サーバにインストールするんだが、何度か面倒な目にあった。
もう全部業者任せにしようかと思うわ・・・

自分でやるならやっぱmdだな

490:login:Penguin
09/01/10 14:22:42 8L5rYSxp
>>486
WindowsにもSoftware RAIDはついてるのに、なぜか活用されてないね。
なんちゃってRAIDなんかよりそっち使えばいいのに・・・

491:login:Penguin
09/01/10 15:34:13 sulqjtr0
ここで言われてる「本物」でお奨めになものってどんなのがあります?

492:login:Penguin
09/01/10 16:15:58 o9R1cT+y
ETERNUS

493:login:Penguin
09/01/10 17:02:57 3dK3csV8
>>486>>490
md4ramって移植版のドライバがある。
ライトバックキャッシュを利かせて使いたいが開発が滞っているみたい。
壊れてもいいデータしか置かないけど2chブラウザのログ置きに最適。

494:login:Penguin
09/01/12 01:59:14 /Son47ik
>>488
>md: LinuxのソフトウエアRAIDドライバ
>dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

じゃあ、biosraidがdmraidで動作しているからといって、ハードウェア処理されているわけでなく、
結局は、linuxのmdドライバでraidの処理がなされているわけなんだ。

biosraidにプロミスってあったから、これはオンボードでハード処理されて、
linuxには一個のディスクとして見せているんだと勘違いしていました。



495:login:Penguin
09/01/12 04:47:57 nRZhkl6m
Promiseという時点でそもそも

496:login:Penguin
09/01/12 13:44:42 /Son47ik
オンボードの、promiseと刻印されたあのチップは何?



497:login:Penguin
09/01/12 17:33:13 odrqpoZ2
FakeRAIDは、専用のインタフェースチップ使うよ。

URLリンク(itpro.nikkeibp.co.jp)


498:login:Penguin
09/01/12 17:50:42 gg7V03n9
>>496
URLリンク(www.promise.com)
IDE,SATAのインターフェイスを作っている会社。
他にもストレージ関係をやってるのかな?

ハードウエアRAIDの会社のイメージは無いな。

499:login:Penguin
09/01/12 22:04:06 /Son47ik
promiseといえば、raidのイメージが付きまとうのは、
昔、大きなraidのpciカードの黄色い外箱に、promiseと書いてあったからだ。



500: ◆Zsh/ladOX.
09/01/12 22:57:48 HR1zAo8l
sx4000使ってたけど。
悪いイメージは無い。
数年前にPC内の画像を晒した記憶あり。

501:login:Penguin
09/01/13 21:30:47 UzNBMlny
今、debian etchのamd64でHDD2台を使って
ソフトウェアRAIDでミラーリングしています。
技術力の不足から、amd64をあきらめてi386バージョンを
インストールしてやり直そうと考えているんですけど
この場合、RAIDを解除して1台目のディスクにi386をインストールした後に
2台目のディスクからデータをコピーして、改めてミラーリングの設定にする
ということは可能ですか?

502:login:Penguin
09/01/13 22:15:55 UQqV5nIq
degradedになっても良ければ

503:login:Penguin
09/01/13 22:26:17 UzNBMlny
>>502
degradedってのを調べて見ました。
それって、一時的ってことですか?
それとも、i386で改めて新しくRAID1を構成しても
後遺症的なものが残るという意味ですか?

504:login:Penguin
09/01/13 22:37:13 JlH/mAiu
解除もクソもi386インスロースした時点でRAIDの情報消えてるんじゃないの?

505:login:Penguin
09/01/13 22:40:26 UzNBMlny
>>504
インストールするのは、1台目のHDDだから
2台目のドライブは、ケーブル抜いてしまえばいいんじゃないかと考えてたんですが。
インストール後に、ケーブル繋いでマウント・・・ってのは無理なんですか?

506:login:Penguin
09/01/13 22:47:11 JlH/mAiu
あーデーターの移行の方法ね。
普通にマウントしてコピーしてから、mirrorの設定して2台目上書きすればいいと思うよ。

507:login:Penguin
09/01/13 22:50:34 UzNBMlny
>>506
ありがとう。細かな手順調べて、実行してみます。

508:login:Penguin
09/01/14 14:35:19 0aFf9qq6
>>488
>>497
ためになりました。ありがとう。



509:login:Penguin
09/01/15 01:12:00 9+zR18Pi
>>494

dmraidは、つまり、mdのラッパーオブジェクトのようなものだと考えればいいかな。
ただし、>>497 で引用されているように、
dmraidは、biosで管理されているraidの設定情報を使用しているわけか。
だから、ataドライバの読み込みの時点で、代わりにdmraidが使用されて、
そのraid構成が有効化されるのだね。
すなわち、dmraidでは、通常の非アレイディスクのように認識させることも可能なんだ。

この考え方で、
合ってますでしょうか。



510:login:Penguin
09/01/15 14:26:29 knA7Hlz9
BUFFALOのeSATA外付けHDD(RAID1)をLinuxにつないで使っています。
HDDに不具合が生じた場合、それを確認する方法(ツール・アプリ)はないのでしょうか?

511:login:Penguin
09/01/15 14:34:19 Rfu3LZdb
BUFFALOに聞けよw

512:login:Penguin
09/01/16 02:11:08 32Awgl8B
fakeRAID(BIOSraid)で、ミラーリングアレイを構築、そしてFedora7で使用しています。
障害発生時に備えて、試しに、ハードディスクを一つを外してみました。
BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。

device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。
ついに、Kernel Panicで停止しました。
レイドアレイが正常ではないのでそれはそうだろうと思い、

BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。
単体のハードディスクで起動を試みようというわけです。
ブートローダーが動き、カーネルの読み込みが始まります。

しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。
これは意外でした。

自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。

つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。
しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。
教えてください。




513:475
09/01/16 03:08:08 32Awgl8B
475です。
連投ですみません。別件の問があります。

>>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました)
-----------------------------------------------------------------------------
<Fedora10での結果>
/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm
-----------------------------------------------------------------------------

ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、
下記のようになります。


 これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、
そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。
fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。

 このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。
Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか?

----------------------------------------------------------------------------------------
<Fedora7での結果>
Filesystem 1K-ブロック 使用 使用可 使用% マウント位置
/dev/mapper/VolGroup00-LogVol00
148297964 29496048 111147312 21% /
/dev/mapper/pdc_dacjp1
101086 19396 76471 21% /boot
tmpfs 2032296 0 2032296 0% /dev/shm

514:login:Penguin
09/01/16 03:13:14 rwDT7nUQ
LVMの問題ではなくて?

515:login:Penguin
09/01/18 13:33:02 mOdWiiXB
mdadm使いにくいよー
raidtoolsのほうがバタ臭いけどいい

mdadmで一番むかつくのが良くわからないタイミングで
ディスクがspareにされて、元に戻したいのに戻せない。イライラ

516:login:Penguin
09/01/18 22:48:12 06Dcpdo5
raid6がお亡くなりになった。
HDDというよりSATAカードが死亡したっぽい。
(玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。
今回は玄人志向がお亡くなりになった。)

再起動してカードは復活したみたいなので
(配下のHDDが/devに戻ってきた&badblocksが通った)
HDDをArrayに追加しようとしたが
配下のHDDが全部faulty removedに落ちちゃってて
mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。

このスレの64氏の現象に近い気がするが、
superblock書き換えなどは出来る自信ないので
mdadm -Cで再度Array構築しなおした。

ここんとこバックアップをサボってたから結構痛いわー。


つーかもうSATAカードとかあまり使わないで済むように
ちゃんとしたファイルサーバ組んだ方がいいな。

517:login:Penguin
09/01/19 00:09:08 L7Ubbq6r
カードまたいでRAID5/6組んでたら、カード死亡には対応できんよなぁ。
カード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。

カードを1枚にしてそこに全部ぶら下げればカードが死んでも
全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。

同じ考え方で、台数が必要な場合はSATAカード2枚準備して、
SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、
同じカードのSATAポート群とかカードのRAID機能でRAID5/6を
作ってそれをmdで繋げるとか。

518:login:Penguin
09/01/19 06:19:37 CHw0KQY0
>お亡くなりになる
やめてください、そういう表現。
葬式の臭いがしてくる。




519:login:Penguin
09/01/19 10:43:16 L7Ubbq6r
は?

520:login:Penguin
09/01/19 17:06:36 426uxyHi
カード死んだら葬式みたいなもんだろ…

521:login:Penguin
09/01/19 17:30:39 /o7gcRDM
データさえ生きてりゃ今夜が山状態だろ。

522:login:Penguin
09/01/19 17:38:24 hR5pv9yI
>>515
次に使うまでに
一度「バタ臭い」の意味を調べた方がいいと思う。

523:login:Penguin
09/01/19 19:31:23 AVvVP96W
○バタくさ・い【―臭い】

(形)

〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。
「―・い表現」「―・い顔立ち」



◎きなくさ・い 4 【きな臭い】

(3)なんとなく怪しい。うさんくさい。
「どことなく―・い話」


三省堂提供「大辞林 第二版」より

524:login:Penguin
09/01/19 20:42:12 8LWc0G4T
西洋人は信用するなって事ですね。

525:ライナス
09/01/19 21:21:54 CHw0KQY0
もともこもない

526:login:Penguin
09/01/20 11:04:32 QUoqwrOB
いままで、raid1で十分だと思っていた。
でも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。
そこで、raid5の出番である。
ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。

で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。
ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。

ディスクが安価な今は、冗長な構成でも苦しくないね。

カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの?
カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。


それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。




527:login:Penguin
09/01/20 11:39:38 tmOakhLn
復旧可能かどうかはカードの壊れ方次第では。

壊れた結果ムチャクチャなデータを
デタラメに書き込まれたら
どう頑張っても復旧でけんだろう。

カードが壊れやすいかどうかは
これまたカード & 運次第かと。
俺は一度も壊れた経験ないけど。

528:login:Penguin
09/01/20 11:45:10 gBT8fCPT
>>526
日頃の行いが悪いからHDDが壊れる。

529:login:Penguin
09/01/20 13:11:48 jayBGkBw
>>526
なんつーか理解してないな

> ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ

> カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それが>>517

> それから、そもそも先に不良セクタをマークしておいたら、
経時の不良セクタ発生に対処できない

まぁカードが壊れることはそれほど多くない。
業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。

530:login:Penguin
09/01/20 18:33:36 n7Hnf9Lk
516だが再構築の際エラーが出て停止
その後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり
ついにはbadblocksも通らないHDDが出始めた

もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも

と思っていた時
海門のニュースを知った

6台が該当です。
本当にありがとうございました。

531:login:Penguin
09/01/20 18:46:34 AAZq+mqB
RAIDを組むハードディスクは、製品や製造ロットを同じものにしないほうがいい、というのは本当だったか。
530に同情するよ。サーバーが落ちても気は落とすな。


532:login:Penguin
09/01/20 20:46:45 3icForSX
>>531
基本中の基本
RAID1ペア組むときはメーカーから変える

533:login:Penguin
09/01/20 21:20:12 QUoqwrOB
>海門
=sea gate
ファームウェアの不具合の件ですよね
困るよなあ、といいつつ、私も、そのメーカーのディスクでした。
ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。
壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。



534:login:Penguin
09/01/21 11:28:11 KNJKiqg2
以前は同じモデルでも容量がちょっと違っていて、
交換したら容量不足で使えないという悲しいことが
ちょくちょくあったが、
最近は違うメーカーでも問題が起きなくなったので
ありがたい。



535:login:Penguin
09/01/21 12:56:36 1/Cy7HwZ
いつ消えるか分からないメーカーのサービスに期待して全領域使っちゃうのは馬鹿だろ
保証されてるのは例えば500GBなら500,000,000,000Bまで。

536:login:Penguin
09/01/21 13:04:54 xEzc7nEM
ぴったりの500GBのディスクが無ければ、
750GBのディスクを買えばいいのに。

537:login:Penguin
09/01/21 14:35:01 Lxj+eixA
同じモデルって前提だろ
バカか バカなのか

538:login:Penguin
09/01/21 15:07:49 +OFl4BAS
個人でしょぼいRAID5環境を動かしていましたが
ばっちりRAIDカードが壊れたことあります。
というか、フェイクRAIDしか無いカードをmdで使っているのに
RAIDカードと言うのか?とは思います。

玄人志向の4ポートPCI SATAカードでした。
C7のSATA2ポートなM/BでRAID5をやるために使いましたが
一年弱で、4つのうち一つのポートが動作しなくなりました。

予備HDDはあったので、HDDを入れ替えても認識せず
よくよく調べると、カードのほうが死んでいたというオチ。

急場をしのぐために、オンボードのSATAポートとの混在RAID5として
そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換)

今はPCIeの1430SAで、あえてmdドライバー。


ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか?
とりあえず、普通に抜き差しするとダメっぽいのですが…
チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…



539:login:Penguin
09/01/21 15:42:19 C3awCYv6
普通に抜き差しでok。sata_sil24のはずなので対応してる。
多分カーネルが古いのが原因。

540:login:Penguin
09/01/21 15:47:09 xqg3zZth
外す前にこれでHDDの電源を落としておく方が安全
# echo 1 > /sys/block/sdX/device/delete

541:login:Penguin
09/01/21 15:47:43 NpsqSYmx
ロット揃えたほうがパフォーマンス良さそうなのでRaidアレイ組むときは毎回揃えてるけど、
豪快なロット不良見ると怖くなるな。

542:538
09/01/22 02:32:04 9i3fv5RC
>>539,>>540
ありがとうございます。試してみたらできました。
というかオチがあります。

これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか?
たとえば、普通にfdisk -lには出てきます。

HDDを止めて再スピンアップさせることで初期化が行なわれて
現在接続されているHDDの情報に書き換わるという挙動のようです。

で、以前はHDDの停止と再スピンアップなどは行なわなかったために
差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に
ホットプラグが正常になされていないと判断していました orz


#/sys/block/sdX/device/下のファイルについては
#どこ探せば情報が見つかるものでしょうか…


543:login:Penguin
09/01/22 15:19:59 CwsVQNf2
>>541
> ロット揃えたほうがパフォーマンス良さそうなので

意味が分からない

544:login:Penguin
09/01/22 15:31:18 7lkmeW2Z
昔はRAID組むなら同一型番できればロットも揃えようっていう風潮だった。
型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。
その場合ベンチの結果も微妙に変わる。
アクセス速度近い方が効率よさそうじゃん。
当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから
ロットくらいはばらした方が良いって言う人もいたけど。

545:login:Penguin
09/01/22 20:50:46 u0UB26l/
ロットどころかメーカーからばらす。

まぁ結局はRAIDに何を求めるか、なわけだが、
あるのかかどうか分からないパフォーマンス向上を目当てに
同時故障リスクを採る選択は、俺はしないね

546:login:Penguin
09/01/22 21:43:17 xRfSeFjv
>>540
そんな/sysの下の物体の情報って、一体どこで見つけるの?ソース?
俺はいままで

 sdparm -C stop /dev/sda

とかしてたよ。

547:login:Penguin
09/01/22 21:57:04 u0UB26l/
>>546
基本はソースだけど、その場合むしろsdparmの方がいいんでは?
/sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる

548:login:Penguin
09/01/23 01:31:55 iL0wYbEo
>>544
昔って何十年前の話?

549:login:Penguin
09/01/23 01:35:42 gP0PPzWy
5年前

550:login:Penguin
09/01/23 03:37:27 93gY8ymT
ディスクアレイはロットは知らんがメーカーと型番くらいは揃ってるな。
メーカーバラバラだったら同じ所からは二度と買わんわw

551:login:Penguin
09/01/23 12:07:20 3M4C0RkK
>>549
俺の周辺の風潮では5年前でも
安全のためにロットは揃えるな
だったが。

ま、地方によって違うんだろうな。

552:login:Penguin
09/01/23 13:08:14 7Cxp47f1
まだDECがあったころ、導入したDECのサーバーは業者が段ボール箱から次々とHDDを
取り出して組み込んでいたから同じロットだったんじゃないかと思うんだが、記憶が確かではない。
それが俺のRAID初体験なのでロットのことまで気が回らなかった。

HDD組み込み済みのRAIDボックスはどうなんだろうか?同一ロットにならないようにしているのかな?

ちなみに自分で組むときは、新しく買ってきたやつと予備としてストックしてあるやつを混ぜて使うようにしている。





553:login:Penguin
09/01/24 04:31:39 ptL5pKyY
>>533
シーゲートのファームウェア不良の件、
ウインドウズ用には、不具合検出用のツールがあるが、
どうしてリナックス用にはないのだろう。
リナックスユーザーは多いだろうに。
それとも、あるんですか?



554:login:Penguin
09/01/24 07:30:04 u99vPwbM
>>553
切捨てられてるんだろう。いつものこと。

555:login:Penguin
09/01/24 13:11:53 Di00Ifqv
検出専用ソフトではなく
CD版のSeatoolsでブートすりゃいいんじゃないかと思うが

556:login:Penguin
09/01/24 21:47:35 ptL5pKyY
ありがとう



557:login:Penguin
09/01/28 00:26:06 ir2fam9u
#mdadm -C /dev/md0 -l5 -n4 /dev/sd[bcde]1
で、cat /proc/mdstatで状態見るとリビルドしてるけど なぜか[UUU_]
はあ?と思ってmdadm -D /dev/md0 してみると
/dev/sde1 がspare rebuildingになって勝手にspare扱いになってる。
意味がわからない。スペアなんか作りたくないし。そんな指定はどこにもしてない。
エスパーレスおながいします。

558:login:Penguin
09/01/28 00:38:08 LK11AqVS
>>557
zero superblockした?

559:login:Penguin
09/01/28 07:15:42 ir2fam9u
>>558
sdb1~sde1 全部にmdadm --zero-superblock してみましたが
変わりませんでした。

こうなるのも謎です。なぜ[4]なのか・・・
>md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]

560:login:Penguin
09/01/28 07:34:42 LK11AqVS
mdの構成対象外でも、システム内に3に相当するsuper-minor番号の
パーティションがあるとそうなるかも…
# mdadm --examine /dev/sdb1
するとどうなります?

561:login:Penguin
09/01/28 07:39:07 ir2fam9u
こうなりました

/dev/sdb1:

(長いので省略、多分あまりこの部分は関係なさそうです)

Number Major Minor RaidDevice State
this 0 8 17 0 active sync /dev/sdb1

0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty
4 4 8 65 4 spare /dev/sde1

562:login:Penguin
09/01/28 13:57:54 3QasENir
よく分からんけど、
単にhdeが故障してfaultyになっただけなんでわ。
hde交換してみれば?

>>431みたいなこともあるし、
SW-RAIDのハードウェア異常時の表示は
あまり信頼しない方がいい。

563:login:Penguin
09/01/28 13:59:12 3QasENir
なんか変だな。

× あまり信頼しない方がいい。
○ あまり信頼できない。

だね。

564:login:Penguin
09/01/29 01:18:01 PTiNMDCX
>>561
他のデバイスもexamineしてみると、違いから何か分かるかもしれない。
あと新規構築時にはパリティが不整合の状態なのでresyncするのが通常動作。
でもresync時の追加パーティションってspare表示になる仕様だったっけか?

565:login:Penguin
09/01/29 06:27:34 12B6/rA+
mdadmでRAID5を設定してるんですが、RAIDを構成してる各ディスクを
hdparmでスタンバイに移行するように設定しても大丈夫でしょうか?

566:561
09/01/29 07:16:39 WiRmM86x
[UUU_]でリビルド完了を待ったところ[UUUU]になって
sde1[3]になりました。原因はよくわかりません。

567:login:Penguin
09/01/29 19:37:09 PTiNMDCX
>>566
たぶん構築時リビルドだろう
ためしに1台をfaulty removeしてもう一回追加、同じ現象になったら間違いない

568:561
09/01/30 21:48:37 pZmCaYyi
>>567
今回は初めての事象なんですが
Linuxかmdadmがアレイ対象のドライブではないどこかに情報覚えてるってことですよね
それを消せればいいような気がします

569:login:Penguin
09/01/31 21:10:43 INV0scHx
>>568
調べるとしたら設定ファイルとしてはmdadm.conf
場所は/etcとか/etc/mdadmとか

570:login:Penguin
09/02/08 22:42:30 Ey2JVBl4
全国のmdadmファンのじょしこうせいのみなさ~ん
みんな知ってるかなぁ?RAID0ってgrowでボリュームを大きくできないんですよ。
で、当然のごとく、RAID10もできないのですよ。

4wayのRAID5をでかいHDDに差し替えていって、grow機能で
250GBx4から500GBx4に移行したことがあったんだけど…

今回は1TBx4に差し替えつつ500GBパーティションx4の
RAID5とRAID10を作った上で、データを移し
1TBパーティションx4に移行しようとして
いざそこまできてgrowできないことを知ったという orz

こういうのをトホホって言うんだと思った。
まぁ、reiserfsからXFSへの切り替えもあったし
なんとかmissing付きでRAID10を起動したりして片付けた。

将来もっとでかいHDDに移行するときは
それなりの用意をせざるをえないなぁ…


571:login:Penguin
09/02/08 23:27:56 Nj6iWNXA
えらくピンポイントだなw

572:login:Penguin
09/02/09 12:39:22 9FAXyoAI
LVM組み合わせれば
RAID自体のボリューム拡張できなくても
実用上は問題ないんじゃ

573:login:Penguin
09/02/09 12:46:53 Eg6suWBI
>>571,572
えらいおっさん臭いじょしこうせいだな

574:初心者の通りすがり
09/02/16 21:37:32 4jXnyPos
お忙しいところ恐縮ですが、質問があるのですが、
誰かお助けを・・

1、mdadmなどのソフトウェアRAIDで、HDDの不良セクタを自動回避するプログラムは組み込まれているのでしょうか?
それとも、セクタ不良の箇所が出た時点で、HDD交換になってしまうのでしょうか?

2、もし、上記のシステムが組まれている場合、HDDに標準で搭載されている機能として、実際に使用者が確認出来る不良セクタは
ハードディスクの隠れ領域の余裕空間に代替された不良セクタがそれ以上代替出来る空間がなくなって現れる使用(いまどきのHDDはみなそうですよね?)はずですが、
代替のセクタが現れている時点でセクタのゆとりがなくなっているわけで、そのため、そのセクタを不良セクタとして認識する必要があると思います。
しかし、RAIDの場合、すべてのHDDの同じアドレスのセクタを使用不能にする必要(仮に他のHDDのセクタが正常でも、1うのHDDが以上であれば)があると考えられますが、
これらの対応はされているのでしょうか?

3、可能であれば、RAIDとしてアレイに組み込む前に、HDDのセクタチェックをしてから、アレイに組み込めればと思うのですが、
そのようなLinuxプログラムはあるのでしょうか?(ものすごい時間かかるPGのような気がしますが・・)

RAIDその他に関して、初心者で的外れな質問の可能性がありますが、お教えいただければ幸いです。
よろしくお願いします。



575:初心者の通りすがり
09/02/17 01:22:44 FIlRA3Ek
自己レスです。
3、のセクタチェックは、mkfs の -c オプションがその任を担っている事が分かりました。
またbadblocks という同じ機能を持つものも発見しました。ただどうやらRead checkだけのようです。


576:login:Penguin
09/02/17 01:34:14 rlTL3AkS
つ badblocks -w

577:login:Penguin
09/02/17 01:56:17 ljmr48rY
>>574
1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
mdのレイヤだと特になし。FSは実装次第。
SMARTで異常値が出るような状態なら普通は交換処置。

2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
従って
>すべてのHDDの同じアドレスのセクタを使用不能にする必要
はない

3: 上に書いたようにセクタチェックは別のレイヤの仕事。
RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが

578:login:Penguin
09/02/17 02:17:44 IoPZgIsc
rebuild 時に sw RAID1 が壊れたという話をちらほら聞くけど、
これどうなってるの

579:初心者の通りすがり
09/02/17 02:26:38 FIlRA3Ek
お返事ありがとうございます!

> 1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
> mdのレイヤだと特になし。FSは実装次第。
> SMARTで異常値が出るような状態なら普通は交換処置。
なるほど、それではRAIDにおける致命的なHDDの時期というのは、HDDが認識しなくなったような場合だけと
いうことでしょうか?(ここでの質問では適切なHDD交換時期、不良セクタが多くなった場合などを考慮せず、
まったく使えないという状態におけるHDDの交換についての件です)

ここで、疑問なのですがinode領域などのセクタにおいても、RAID 1なり5なりでデータを復旧できる場合には、
問題なく利用できると考えても大丈夫なのでしょうか?

また無学で恐縮なのですが、このSMARTについて少しご教授いただけませんか?

> 2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
> そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
> 従って
> >すべてのHDDの同じアドレスのセクタを使用不能にする必要
> はない



580:初心者の通りすがり
09/02/17 02:28:11 FIlRA3Ek
認識が違っているかもしれませんが・・
このLBAの自動交換は、HDDの代替セクタがある場合そうだと思うのですが、すでに代替
セクタが無い場合、表に見えてしまうと思いますが、mdadmなどはブロックデバイスとして
活動しているということは、LBA(シリンダとセクタから計算されるやつですよね、たしか・・)
を基準に管理されているとなれば、ミラーリングなどで、データをそっくりコピーする仕組みのもの
などは、不良セクタによって、大きな問題になるのではないでしょうか?

よくWEBでも見かけるのは、死んだHDDの代わりにスペアHDDをいれて、Rebuildしている最中に、
不良セクタが発見されて、両方死んでしまったという話も聞きます。

ここでもし、不良セクタ(セクタという言い方が悪いかもしれませんのが、LBA(Logical Block Address)と読み替えていただければ幸いです)
を発見したときに、正常なHDD側のデータを他の未使用セクタに移動させ、不良セクタとして使用不可にして、すべてのセクタの同期を取ることができれば、問題は小さいのではと
考えた次第です。

> 3: 上に書いたようにセクタチェックは別のレイヤの仕事。
> RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
> ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが

すみません、そうですよね・・mkfsではRAID構築後なのでどのような動きになるのか、
ちょっと分かりませんが、RAIDシステムがセクタ不良とか見えなくしてしまいますよね。
ちょっと勘違いをしていました。ということは、HDDをセクタ単位でチェックするして
、不良セクタがあったら故障フラグを立てる機能のものはない感じでしょうか?

こんな遅い時間にお答えいただきすみません。


581:初心者の通りすがり
09/02/17 02:48:36 FIlRA3Ek
SMART分かりました!
URLリンク(hddbancho.co.jp)

なるほど、HDDの持っている情報のことだったんですね。
このページの考え方からすと、代替セクタがなくなったら、HDDは故障と見做すため、
RAIDシステムでは、このような表に出てきたセクタ不良を解決できていない可能性が高いですね。
ただ、ここにもあるように定期的なリフレッシュが無いと唐突なセクタ不良が、代替セクタの有無に関係なく
でるので、やはり本当はRAIDで対応したほうがよい気がします。(役割的に)

もちろん、Googleの研究成果(不良セクタが出始めたら(代替セクタがなくなったら)HDDの寿命が2次曲線的に劣化する)
もあるのでHDDの交換時期については議論が分かれると思いますが、上記の問題はちょっと違う気もします。


582:HDDからSSDへ
09/03/12 09:35:49 yKkrCTUa
SSDを使うようになれば、もうRAIDは必要なくないですか。



583:login:Penguin
09/03/12 10:14:53 sI0gyPRm
必要ないと思うならそれでいいんじゃないの。

584:login:Penguin
09/03/12 11:55:03 nculPVj6
>582
つ冗長化

585:login:Penguin
09/03/12 12:24:21 unsLfwpp
そうだね。
SSDは故障することは
絶対にないから
RAIDなんて不要になるね。
すばらしいことだね。

586:login:Penguin
09/03/12 22:00:05 yKkrCTUa
SSDの書き込み速度はともかく、読み込み速度は、SLCではかなり高速なので、
冗長化のために、RAIDを使うという意味合いも薄れてくるように思える。
これから、SSDの容量も現在のHDD並に増えていくだろうと思う。

RAIDとSSDとの関係は本当にどうなるのだろう。


587:login:Penguin
09/03/12 22:03:50 f8xSmkwI
>>586
冗長化の意味間違って覚えていないか?

588:login:Penguin
09/03/12 22:21:41 yKkrCTUa
あっ、ごめん。
今読み返したら、おかしいって思った。

ssdは壊れないので冗長化する必要はない、と使うべき。
でも、ストライピングのことは日本語でなんていうんだろう。



589:login:Penguin
09/03/12 22:47:16 nculPVj6
へー壊れないの?すごいね

590:login:Penguin
09/03/12 23:17:36 ZcXhWDBc
春だなぁ

591:login:Penguin
09/03/12 23:36:46 xwF18dEu
まだ基幹システムとかではフラッシュメモリのSSDは使われていないからね
あの分野でのSSDといえばDRAMをバックアップ電源で保護しているものだからな

592:login:Penguin
09/03/13 00:18:53 xF/8kpEU
>>591
Acard ANS-9010ですね。わかります。

593:login:Penguin
09/03/13 00:21:33 gAax1MH3
今普及している方のバックアップ電源不要のSSD(SLCタイプ)の寿命は伸びているし、
そもそも、稼動部分がないので、壊れないと考えてもいいんじゃないですかね。



594:login:Penguin
09/03/13 00:24:13 khYqmRB3
               .|   |  | |   |    |  | |   |   |   || | |
               .|   |  | レ  |    |  | |   |  J   || | |
    ∩___∩    |   |  |     J    |  | |  し     || | |
    | ノ\   ,_ ヽ  .|   レ |      |  レ|       || J |
   /  ●゛  ● |   .J      し         |     |       ||   J
   | ∪  ( _●_) ミ             .|    し         J|
  彡、   |∪|   |              .J                レ
 /     ∩ノ ⊃  ヽ
 (  \ / _ノ |  |
  \  "  /  | |
   \ / ̄ ̄ ̄ /

595:login:Penguin
09/03/13 00:31:59 HFjGgXnG
ID:gAax1MH3

596:login:Penguin
09/03/13 00:34:36 gAax1MH3
不良セクタですか?


597:login:Penguin
09/03/13 00:37:05 FglLNM8V
SSDの仕組みの説明だけ読んで
長所短所の説明は読んでいない人っている?

そもそもWindowsだとRAID0がRAIDの中心みたいに考えている人も多いけど
一般的にはRAIDの中心にあるのは、可用性の向上にあるわけで
SSDを用いることで、RAIDが不要になるってことは、かけらほどにも無い要素でしょ?

速度面では、SSDがSATAの速度を満たしたとしても
メモリーバスよりはるかに遅いストレージにストライピングが不要ということは無いし
大容量のものほど割高なストレージの特性からも、ストライピングは有用。

可用性においては、フラッシュメモリーSSDの耐久性は
無限なわけでもなく、加速テスト的な使い方で壊して見せている人もいる。
RAID1,5,10が不要なわけがない。
というか、たとえDRAMだって、壊れることはあるし
SSDの制御基盤レベルの故障だって、理論上はある。

#まじれすかこわるい


598:login:Penguin
09/03/13 00:39:47 E2+gGF86
まじれすかっこいい

599:login:Penguin
09/03/13 00:48:09 gAax1MH3
>>597
私は、リナックスでソフトレイドで、ミラーリングしか使ったことがありません。

SSDでも物理レベルで壊れるんですか。
ということは、SSDでさえもミラーリングが要りますね。
すみません。マジレスありがとうございます。

でもわからない点がいくつか。

可用性とはどういう意味なのでしょうか。耐久性の向上という意味なのでしょうか。
マジで、意味がわかりません。可用という単語を私は日本人なのですが辞書で引きました。
載っていません。直訳してみれば、「用いることができる性質」ということですよね。
専門用語らしいので、どういう意味を一般的に指すのかピンときません。



600:login:Penguin
09/03/13 01:02:52 nEmQi6SY
>>599
「可用性」でぐぐれよ……。最初に答えが出てきてるのに。
つか、RAIDを語るのに可用性を知らんて、議論以前の問題だろ。

あと、SSDが壊れないってどれだけ頭がお花畑ー。
データセンタじゃ、HDDどころか、電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ。

601:login:Penguin
09/03/13 01:17:57 gAax1MH3
>電源もマザーもCPUもメモリもRAIDコントローラもネットワークカードも毎日のように壊れてるぞ

密封固体コンデンサになったんで、もう、茶色い花が咲くことはないだろうと喜んでいたんですが、
やっぱりこれも甘いですか。

でも、いったいどうして、それらのデバイスは壊れるんでしょうかねえ。
どうして、見たところどうもなっていない電源が壊れているのかわかりません。
どこが物理的に壊れているんでしょう。

ソフトウェアは壊れない。ハードウェアが壊れるんだ。
私のつくったソフトは壊れたことがないですが、ハードウェアが壊れるんで、
放っておくことができなくひどく残念です。
ハードウェアさえ壊れなければ、安泰なのになあ。
(すみません、Windowsと、Linuxが壊れてしまったら私のもだめですよね)



602:login:Penguin
09/03/13 02:45:00 IObRXwbU
gAax1MH3が壊れてる件について

603:login:Penguin
09/03/13 02:56:17 gAax1MH3
ついに、ばれたかー。602は、なかなか鋭いな。

そう、わたしの本体は、ハカセがつくった人工知能プログラム。
だから、低レイヤーのことはアクセスできず何もわからないんだー。

以上の冗談はおいて、おいて、
>>601について、マジレスを希望しています。



604:login:Penguin
09/03/13 04:37:32 B/yX40Kk
ソニータイマーと同じ。
以上


605:login:Penguin
09/03/13 05:41:36 HFjGgXnG
>>602
それをニヨニヨしながら見守るのが今の流れです

606:login:Penguin
09/03/13 07:13:37 gAax1MH3
>ソニータイマー

そういうのもあるんですね。初めて知りました。
でも、たとえば半導体なら、どういう機序で破壊されていくのでしょうかねえ。
タイマーが短い素子ってなんでしょうか。

CPUや、DRAMのタイマーは何がそうしているんでしょうか。内部の細い線の蒸発?



607:login:Penguin
09/03/13 12:09:30 4rdjPXAi
形あるものは、何であれ、いずれは壊れるよ。
こんな当たり前のことを知らないなんて、
リアル小学生か?

608:login:Penguin
09/03/13 15:23:16 HSB+9X6W
SSDでもHDDでもRAIDで雑誌に取り上げられるのはRAID0での性能ばかり
なんでRAID0使う理由があるの?冗長性が無いじゃん

609:login:Penguin
09/03/13 16:13:48 6eQQWDsF
スレが妙な流れなので、清めます。

もっちゃらへっぴ~もけもけさ~

610:login:Penguin
09/03/13 22:55:58 OBlhHJW3
SSDはディスククラッシュはないから、SMARTでの寿命予測の信頼性が
上がって、結果としてRAID0でもOKOKとなる可能性はあるね。それでも
事故時には全部吹っ飛ぶけど、最大の事故要因が潰れるだけでも
従来のRAID0よりははるかに安心できる。

611:login:Penguin
09/03/13 23:34:38 HSB+9X6W
性能を上げたければRAID0+1にすればいいのに
なんで冗長性の無いRAID0にするのか良く分からん

612:login:Penguin
09/03/14 00:18:48 AaTK9Cfj
そこはそれ、RAID10(0+1ではなく1+0)が注目されたのは
HDDの低価格化がより進んだ最近のことだから
まだ、雑誌記事としての啓蒙が進んでいないんじゃないかな。

うちは今年になってから
500GBx4のRAID5を1TBx4のRAID10に切り替えた。
WDのgreenを選んだから、読み出しは500GB(7200rpm)の頃と
比較していないけど、書き込みは速くなって満足してる。


個人的には、動画のCMカット(無再圧縮加工)には
少しでも速いストレージが欲しいと思ったことがある。
Windowsだと、起動速度に執着している人が多いかのように思える。
そういうところにRAID0需要はあるんだと思う。

一基のHDDで大容量を求めるのは、割高でありながら…
故障時のダメージも相対的に大きくなるから
RAIDで複数のHDDをまとめつつ、可用性も高めてウマー
(1TBのRAID10は2TBのRAID1より安上がりって話)



613:login:Penguin
09/03/14 03:04:45 +IDPI/cW
>>611
01なんて普通なら使わないです。
信頼性を考慮すると10が常識。

614:login:Penguin
09/03/14 06:40:18 eu5MmVwN
IBMとかは01しか対応していなかった気がする。

615:login:Penguin
09/03/14 15:38:20 2/177OkX
RAIDの0+1と1+0、10と01はどっちがどっちか定義が無いのでは?
普通はボリュームの故障の確率が低い方の実装にしているのでは?

616:login:Penguin
09/03/14 16:54:41 eu5MmVwN
>>615
正式な定義はないけど、1の0か、0の1か使い分ける人は多い。
可用性が違うからね。

617:login:Penguin
09/03/14 17:18:40 Knf4U3C2
普通は複数のミラーセットに対してストライプするもんじゃないの?

618:login:Penguin
09/03/15 01:26:01 olaDXg82
そうでないメーカーがあるから困る。


619:login:Penguin
09/03/15 08:21:40 Fo/VUGZ3
そうでないパターンって、複数のストライプセットに対してミラーするってことだよな、
それは嫌だな… 例えばどこのメーカ?

620:login:Penguin
09/03/24 04:51:17 Fl6r1xEy
>>610
raidなしでssdだけでも、hddを用いる場合に比べれば、
はるかにましですよね。


621:login:Penguin
09/03/24 06:54:13 GdGyk/Hx
SSDをそれだけ信じる根拠がどこにあるのかな?

加速試験で壊して見せている人はいるわけで
壊れないわけでは無いことはわかっている。

それに対して、SMARTが万全の予測情報を
提供できているか?が鍵だと思います。

"HDDよりはまし"とするためには
もっと実績が積み上げられた後で
やっと言えることだと思います。

HDDにおいてもSMART信者を裏切る結果は
部品の突発故障によるところが大きかったとして
電子部品の突発故障が無いわけではありませんし…

SSDだからといって、設置環境を甘く考えることもできないと思います。




622:login:Penguin
09/03/24 06:59:52 yXjFESP8
>>620
頻度が低かろうが、故障時にサービス停止するんだから全然ましじゃないだろ

623:login:Penguin
09/03/24 20:14:58 VoImn6kH
Linux(CentOS5.2) のソフトウェアRAIDで以下のことができますか?

今ある 1TB HDD のデータを
3台の 1T RAID5 に移動
移動後に RAID5 を4台にマイグレーション

624:login:Penguin
09/03/25 09:41:42 sNgyW6do
>>623
mdadm -C /dev/md0 -l 5 -n 4 /dev/sda{2,3,4} missing
mdadm /dev/md0 -a /dev/sda1

かな。要するに構築時に1台missingという名前でエントリだけ確保して、
後から突っ込んでやればいい。




625:login:Penguin
09/03/25 20:13:36 1HBgtKKu
Tyan の h2000m に sil3124 と sil3132 をさしてますが、
共に UDMA100 で connection?link? を張っているようです。
HDD は UDMA133 capable です。133 にする方法、
ご存知でしたら是非教えてください。
kernel-2.6.27 です。


626:625
09/03/26 00:48:23 s/iQ1Fg+
well known issue のようですね。
じぶんで sata_sil24.c をごにょごにょします。。


627:login:Penguin
09/03/28 18:21:28 xjWJzCpR
320x5→1Tx5に移行中
12時間以上経過してるぉ

628:login:Penguin
09/03/29 06:55:07 caGsjIVd
>>627
Raid5 1TBx4 を 1TBx5 に grow したときは丸一日
かかったかなあ。5400rpm だし遅くて遅くて。

>>624
-C (create) には -f (force) が要るかも。忘れちゃった。
あと /dev/sd[a-c]1 missing とかじゃね?


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch