RAID総合スレッド No.4at LINUX
RAID総合スレッド No.4 - 暇つぶし2ch175:login:Penguin
08/07/08 15:11:58 ciEROQW6
一般的にRAID組むときにはシステム絡みもRAIDに入れるんですか?


176:login:Penguin
08/07/08 15:51:45 II4/+Uhu
ここにもRAIDとバックアップは違うと理解出来てない奴が

177:login:Penguin
08/07/08 19:45:28 wACpQR7T
>>175
RAID導入によるメリットの8割ぐらいが
HDD故障時にもシステムを稼働し続けられる
だからね~
とうぜんそれなりのホストはシステムもRAID
残りのメリットはバックアップの間隔での更新データが救えること

素人はよく高速化を挙げるけど
RAIDで高速化なんていうのは副次的なものにすぎないし
実装によっては速くならない


178:login:Penguin
08/07/08 19:47:42 wFB79b2r
>>173
えげつない天使だなおいww 99.9%ってw

179:login:Penguin
08/07/09 09:09:58 nLnkgGAg
>>177

なるほどね!
ありがとうございました。

180:login:Penguin
08/07/09 23:06:04 RNssxI9R
CentOS5.2を、500GBx2のHDDをミラーリングにしてインストールしたいと思います。
このときのパーティションはどうきるのが良いのでしょうか?
私用のFedora8だと、200MBの/bootと、残りがLVMに分けられて
LVMの中に2GBの/swapと/homeがある感じなんですが、
同じでよいです?
あるサイトに管理を容易にするために/swapも個別のパーティションにする・・
というようなことが書いてあったので気になりました。
よろしくお願いします。

181:login:Penguin
08/07/09 23:33:03 gRDljDJc
>>180
/swapって何よ

適当に
/boot
/
/home
swap
みたいな感じで4つミラーボリューム作りながらインストールでいいんじゃないの?
あるいは、でかいミラーボリューム作ってその上でLVM

182:login:Penguin
08/07/10 01:03:05 YVLKQ6q3
>>180

RAIDならシステムの入れ替えがほとんど無いので、
後々の容量の引き延ばし(と、いうか同容量のHDDが市場から無くなる;)
とかを考えて/homeを一番最後にしてる。

HDDのメーカーごとにシリンダー数が違うので最後の/homeは
最終シリンダーまで切らずに鼻くそ程度残してます。
あと、サーバーと言うことで/var は多めに切ってます。



183:180
08/07/10 10:43:28 iJDD8Fmx
>>181-182
ありがとうございます。
RAID(ミラーリングを)するってことに関しての
特別な配慮ってことはない感じですね。
とりあえずやってみます。

184:login:Penguin
08/07/11 01:25:06 MF2t883a
/bootってハードウエア構成に依存するけど、専用パーティションに
しなくてokな事が多いね
GRUB使ってるおかげ?

185:login:Penguin
08/07/11 04:29:32 rOZ8wBgX
/をXFSにするときは念のため分割

186:login:Penguin
08/07/14 11:01:55 9UdAIkjR
妙にスレが伸びてると思ったら、raid5の性質を
raid全般に広げて語るニワカが発生してたのか。

業務やっているなら、いくら思い込みの強いアホでも
そこでraid6が出てこないってのはあり得ない。


>>185
GRUBと合わないんだっけか。
自分は/だけreiserfsにしてるわ。

187:login:Penguin
08/07/15 18:47:44 yaiFvTOZ
どのインターフェイス(SCSI0とか)に繋がったHDDにどんなデバイスファイル名(/dev/sdaとか)が割り当てられているのか確認する方法はありますか?
RAIDで全部同一のHDDを使っているので、このインターフェイスに繋がったHDDはsdaだとか判らないと交換できないのです。


188:login:Penguin
08/07/15 18:55:33 rrCKPMUT
>>187
/sys/block


189:login:Penguin
08/07/15 21:52:28 pdkdPVvb
smartctl

190:login:Penguin
08/07/16 00:03:37 voyUTL5p
>>186
GRUBの2nd Stageがsuperblockだか何かを上書きする?とからしい
最近調べてないから、大丈夫になってるかも

191:login:Penguin
08/07/16 00:27:28 wxA8/vYd
>>188,189
シリアルナンバーでディスクを識別する事にしました。
ただ、当方debian etchなのですが、
/sys/block/sda/device/serial
は見つからず、
smartctl -a /dev/hda (PATAのディスク)
smartctl -a -d ata /dev/sda (SATAのディスク)
で、シリアルナンバーを確認できました。

ありがとうございました。

192:login:Penguin
08/07/16 00:59:49 LX357c/f
>>191
うちもそれやってるけど、SATAコントローラが複数ある場合は起動時の
認識順で /dev/sdX と Serial: XXXXXXX のマッピングが変わるんで注意。
電源断までは有効な情報だからドライブ交換には問題ない。

193:login:Penguin
08/07/16 01:05:10 vwN5urnw
そのsd*,hd*認識順の問題すごく悩まされるんだけど、解決策としては

・新パーティション形式にしてラベルつける
・MDにしてmd[0-9]で認識させてから使う
・LVMにして(同様)

しかない?古来からの方式でパーティション切ってしまったのでカーネルが
変わるたびにころころテンポラリディスクのデバイス名が変わってばたばたする。

194:login:Penguin
08/07/16 07:26:45 5QiXFeI7
構築の時にどのシリアルナンバーのHDDを何段目に積んだかメモっとくといざというとき便利だね

195:login:Penguin
08/07/16 07:36:48 2XS3TY3h
UUIDで識別をしないのかな?

196:login:Penguin
08/07/16 19:59:03 LX357c/f
それで物理位置がわかるならな。

197:login:Penguin
08/07/16 20:05:37 rsgG64I0
lsscsiとか使わないの?

198:login:Penguin
08/07/17 01:46:36 ZWA78awn
UUIDでmd組むようにしてる > 認識順が変わる対策

199:login:Penguin
08/07/17 04:34:16 nqSSZGey
>>198
今問題にしてるのはコンポーネントデバイスの識別の話だからそれじゃ解決にならない

200:login:Penguin
08/07/17 19:04:35 pwb5+Hyk
ベンチマーク
URLリンク(opentechpress.jp)

201:login:Penguin
08/07/21 15:38:10 QHVhiNmM
個人用ファイルサーバで、同一ホスト上でのDisk to Diskバックアップを計画しています。
ドライブは750Gx8台です。同原因同時故障と、バックアップメディアを物理的に
別の場所に置けないこと以外に高まるリスクはありますか?
また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?

202:login:Penguin
08/07/21 16:02:45 bfdmMxFQ
>>201
消費電力が2倍
コピー中に更新があると整合性がなくなる
帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
複数世代のバックアップを残せない
RAID1に対するメリットがほとんど無い

素直にRAID1にして
バックアップは外付けにtarか何かでとるほうがいい

>また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?
RAID10でいいんじゃないの?

203:login:Penguin
08/07/21 19:20:08 Kok+C1hM
>>202
お題目はおなかいっぱい。
個人用だと書いてあるだろ?

>消費電力が2倍
ディスクだけが2倍なのに、どういうロジック?

>コピー中に更新があると整合性がなくなる
>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
個人用だから、そういうのを自分で避ければいいだけ。

>複数世代のバックアップを残せない
複数世代ってなにに使うんだよ。実際に使ったことあるのか。

204:login:Penguin
08/07/21 19:53:45 eDgO9JCd
理想を言えばRAIDハードウェアのスナップショットを利用して
別のRAIDグループへコピーが一番安心できる
問題はそのようなハードウェアは日立とかEMC、富士通とかになること

205:login:Penguin
08/07/21 21:51:52 r1tueaXR
>消費電力が2倍
回転止めたらいいんじゃないの? 馬鹿なの?

>コピー中に更新があると整合性がなくなる
スナップショット使わない理由がわからない。馬鹿なの?

>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
オプション1つで制限できるんだからすればいいじゃない。馬鹿なの?

>複数世代のバックアップを残せない
複数世代のバックアップを残せるソフト使えばいいじゃない。馬鹿なの?

>RAID1に対するメリットがほとんど無い
それのどこがリスクなの?馬鹿なの?


206:login:Penguin
08/07/21 22:45:34 +Von4bjZ
また心の問題ですか

207:login:Penguin
08/07/22 05:33:29 FG3KF+O+
>アレイを2つ作って
に対して
>>RAID10でいいんじゃないの?

と書いてあるので何も分かってないようですね

208:login:Penguin
08/07/22 07:00:34 IDlKlKUZ
>>202がフルボッコにされててワロス

209:login:Penguin
08/07/24 22:55:47 Y/yDJ5QP
>>207
>>202 は業務とか書いてるしな。
質問を理解せずにどっかからコピペしたのかも。

210:login:Penguin
08/07/25 18:22:23 7bWPoJgN
こんな記事がでたぞ~

ハードウェアRAIDとLinuxカーネルによるソフトウェアRAIDのベンチマーク比較
URLリンク(www.itmedia.co.jp)

211:login:Penguin
08/07/25 22:05:00 dHu8XFEz
>>210
お前は10個上のレスすら読めんのか

212:210
08/07/25 22:55:25 7bWPoJgN
あー、同じなのか…
単にベンチマークしか書いてなかったから、スルーしてた…OTZ

213:login:Penguin
08/08/04 13:46:13 jBaI/IVg
性能分析のお供に
URLリンク(opentechpress.jp)
次回の方が役に立ちそうだけど

214:login:Penguin
08/08/07 08:00:07 RuVT+4E9
1TのHDD6台買ってきたんだがRAID6にするか5にするかで一晩悩んだが結論が出なかった。

215:login:Penguin
08/08/07 12:45:30 gou1IcwA
とりあえず6面RAID1にしておいて慣らし。
満タンになったら、その時にまた考えるってのはどうだ?


216:login:Penguin
08/08/11 00:33:45 lkIu9a0L
/をxfsにするいい方法はありませんか?

OSはcent5.2です。


217:login:Penguin
08/08/11 00:41:08 QeT4W3NU
>>216
スレ違い。
スレリンク(linux板:731番)

218:login:Penguin
08/08/11 01:28:58 lkIu9a0L
>>217

>>185
が書いていたので。

219:login:Penguin
08/08/11 18:36:11 AGF2t4QA
>>218
見苦しい言い訳だな

220:login:Penguin
08/08/12 16:41:20 jyLw7NZh
>>216
CentOSならそっちのスレで聞いてみたらいいんじゃないか?
ぶっちゃけRAID関係もよっぽど詳しい人がそろってるしw

221:login:Penguin
08/08/12 16:56:10 YIDfUhGW
>>220
もう聞いてるみたいよ。>>217

222:login:Penguin
08/08/12 17:11:26 IDhTWp2o
/**ファイルシステム総合スレ その8**/
スレリンク(linux板)

回答があるかわからんけど、マルチな質問はちゃんとクローズレスして、もう一度きいたら?

223:login:Penguin
08/08/14 18:37:41 rw0zL6g/
質問なのですが、raidtoolsで作成したボリュームは、mdadmにソフトウェアRAIDを
変更した場合、そのまま使えるのでしょうか?
要するに、raidtoolsとmdadmのデータ構造の互換性の問題なのですが。
一旦バックアップを取って、RAID構成後に書き戻す必要がありますか?

「raidtools mdadm 互換性」などとぐぐってみたのですが、答えを見つけられませんでした

224:login:Penguin
08/08/19 01:07:45 8EwaAh3C
実際にやってみればいい。
VirtualBoxなりVMWareなりの仮想環境を入れれば楽勝

225:login:Penguin
08/08/25 15:26:56 A4bL2852
ポートマルチプライヤ・ハブを使ってRAID5で使っていたが、
ハブが(熱?)故障したらしく現在、別環境でリペア中…
後10時間ほどかかるらしい。終わったらバックアップとっとこ。

226:login:Penguin
08/08/25 18:46:19 hmNDIIPy
あれはメチャ熱くなるよ

227:login:Penguin
08/09/01 05:30:02 FJQeXGzD
並列ランダムリード重視したいんだけど、
RAID5 <= 単体 <= RAID10 < RAID1+LVM
って理解であってる?

228:login:Penguin
08/09/01 15:30:06 URN2jkvk
どれも実装次第じゃないの?
大抵は全部単体より速くなると思うが。

229:login:Penguin
08/09/01 19:19:46 FJQeXGzD
>>228
じゃあ、さしあたりmd限定で。
で、その大抵が通用しないのがランダムアクセスだったりするわけで…

230:質問ノ
08/09/02 00:26:54 +OCnqEcR
RAID0って、データを複数のHDDに分散して同時に記録するから
早いのですよね?
ということは、1台のHDDで、データをフラッタごとに分散して同時
に記録したら、すごく早くならないのかなぁ?
フラッタ5枚のHDDなら5倍???

231:login:Penguin
08/09/02 00:53:44 svkuPaeg
ReadもWriteも早いのか?

232:login:Penguin
08/09/02 00:58:11 3FnQIo0B
シーケンシャルオンリー(かつ大昔のHDDのテクノロジ)ならね。
ランダムアクセスだと1台に集中することでかえって遅くなる。
今のHDDはプラッタ毎にヘッド位置調整をするために同時アクセスは難しいし、
5倍に速くなってもインタフェースの転送速度が追いつかない。

233:理解!
08/09/02 01:06:27 +OCnqEcR
なるほどねぇ
インターフェースが追いつかなきゃ意味ないですね^^;
ごもっとも^^

234:login:Penguin
08/09/02 05:45:29 JL3ZUwv4
ソースを読むほどのスキルはないんだけど、未だにRAID1で読み取り性能だけ2倍にする方法は解明されてない?
相変わらずmanpageに書いてあることとは違うままなのかな。

235:login:Penguin
08/09/02 08:50:52 xIov+WO6
性能がスループットという意味なら倍になるよ。
CPUが2つでプロセス2つで読んでればだけど。

読み出しロジックは読み出し処理を2つのディスクに並列分散させるのではなく、
単に空いているorヘッド位置が都合がいい方のディスクを選択するだけだから
あるプロセス1つから見たら別に速くなるわけではなさそう。


236:login:Penguin
08/09/02 17:54:33 JL3ZUwv4
あのmanpageに書いてあることは、そういうことだったのか!?
だったらmanpageにもそのように書いてくれればいいのにねぇ。
ネット上でも、たまに悩んでいる人がいるし。

237:login:Penguin
08/09/03 09:36:58 GOWpJIT8
ソース見ると、こういうことだべ。

2.6.18のraid1.c
* This routine returns the disk from which the requested read should
* be done. There is a per-array 'next expected sequential IO' sector
* number - if this matches on the next IO then we use the last disk.
* There is also a per-disk 'last know head position' sector that is
* maintained from IRQ contexts, both the normal and the resync IO
* completion handlers update this position correctly. If there is no
* perfect sequential match then we pick the disk whose head is closest.
*
* If there are 2 mirrors in the same 2 devices, performance degrades
* because position is mirror, not device based.
*
* The rdev for the device selected will have nr_pending incremented.
*/
static int read_balance(conf_t *conf, r1bio_t *r1_bio)


238:login:Penguin
08/09/03 10:31:37 E4hwRJkf
1ビットだか1バイトずつ交互に読み書きするから読み書き2倍ってのは嘘か

239:login:Penguin
08/09/03 19:50:17 Yeu4fcGq
raid5=raid0<raid1
程度だと思われるが実装によって逆転する。


240:login:Penguin
08/09/03 21:37:57 xUNUra92
>>234-236
裏技と言うほどのことじゃないけど、それを実現したいなら、

mdadm -C /dev/md0 -l 10 -p f2 -n 2 /dev/sda1 /dev/sdb1

こうやって、2 台だけで RAID10 を組んでみたら?
きちんとミラーリングされた上で、読み取り速度は
シングル スレッドでも 2 倍になるよ。

241:login:Penguin
08/09/04 00:12:57 B1PfYM1l
234が想定アクセスパターンを言わないと何の議論もできんと思われ
並列アクセスするプロセス数と、ランダム・シーケンシャルの別、それからリード・ライト比率

242:login:Penguin
08/09/04 00:58:57 UTrxmu/B
>>241
じゃあ極端な例ということで、100MB/sのシーケンシャルI/O性能を持つHDD2台のRAID-1で

 1.1プロセス、シーケンシャルリード100%の場合
 2.2プロセス、片方シーケンシャルライト、片方シーケンシャルリード100%の場合

この場合に期待できる

 a.各プロセス単位でのリード性能(MB/s)
 b.計算機全体で達成されるリード性能(MB/s)

はおおよそどうなる?2プロセス時はI/O時間が均等に回ってくるとして。

争点は1aが100MB/sなのか200MB/sなのか、2bが100MB/sなのか
150MB/sなのかということかと思うが。



243:login:Penguin
08/09/04 19:35:51 B1PfYM1l
アクセス単位とかスケジューラでとんでもなく変わるだろうけど、とりあえず計算
つっこみよろしく

1a 並列読み出し (α)27.2MB/s (β)100MB/s (γ)200MB/s 片ディスク読み出し 100MB/s
2b 2.56MB/s

仮定として、
RAID1
7200rpm 平均シークタイム 8ms
noopスケジューラ
ファイルシステムを考えない(メタデータ読み書きがない)
mdドライバのリクエスト振り分けは理想的
リード・ライト対象領域はそれぞれ連続
各プロセスのアクセス単位64KB

1aα アクセス単位ごとに回転待ちが発生する場合
1000ms / (回転待ち 4.17ms + データ読み出し 0.655ms) * 64KB * 2 = 27.2MB/s

1aβ 2つのディスクの回転角が一致している場合には回転待ちは省略できるが、
次の目的セクタに行くまでの回転時間は両ディスク同じなので結局変わらない。

1aγ 2つのディスクの回転角がそのトラックでのアクセス単位分だけずれている場合
リードリクエストが来た瞬間にヘッドが目的セクタ上にあるので回転待ちも省略可能

2b 片ディスク読み出し
書きこみオペが来ると両ディスクが書き込み先までシークする必要がある。
1aβ/γのように回転待ちの省略が期待できないので
1000ms / (読み 0.655ms + シーク8ms + 回転待ち4.17ms + 書き 0.655ms + シーク8ms + 回転待ち4.17ms) / 64KB = 2.56MB/s

244:login:Penguin
08/09/04 19:48:19 B1PfYM1l
すまん、1aβ変なこと書いてる…

1aβ リード完了地点からアクセス単位分だけ先に次の目的セクタがあるので、
回転待ちは最小限で済むが、一方の回転待ち時間=他方の読み出し時間なので結局変わらない。

で。

245:login:Penguin
08/09/04 23:56:09 WdYxWaI1
1TB*4でraid組みたいのですが、raid5にするのと、raid1にするのでは
どちらが生存性が高いでしょうか?
現状では500GB*2でraid1を組んでいます。

246:login:Penguin
08/09/05 02:43:09 /T+bWScm
RAID5は1台の破損まで復旧可能で3TB利用可能
RAID1だと1台の破損まで復旧可能で1TB利用可能なドライブが2つ
確率だけでいえば当然RAID1


RAID10だと1台の破損は復旧可能、2台の破損はミラーしてるペアでなければ復旧可能で2TB利用可能

247:login:Penguin
08/09/05 04:45:32 1sBBnm+4
>>245
RAID5だと再構築時にアレイの他のディスクにアクセスしに行くから
負荷も危険性も上がる。RAID1なら対となるディスクのみアクセス。

243-244だけど、1aαも1aγも実際にはまず起こらないだろうから
1プロセスで同じ領域を読む限り、1aについては100MB/sでFAかと。

248:login:Penguin
08/09/05 04:56:12 GrlZSlCm
FA(笑)

249:245
08/09/05 06:16:01 aZwTzuar
>>246,247
速度は気にしていないので、raid1で組むことにします。
ついでなので1TB*6で3TBにする事にします。
ありがとうございました。

250:login:Penguin
08/09/05 10:34:09 2aSQ8pMt
mysqlのマスターのためにはどんな構成がよいですか?
今は高速回転のディスクでにRAID1にしてます。


251:login:Penguin
08/09/05 13:29:39 1sBBnm+4
そういや3台以上でRAID1組むと3台以上に分散してくれるんだろうか
並列ランダムリード中心ならうまいことレイテンシ隠蔽できそうだけど

252:login:Penguin
08/09/06 16:52:55 mklTZhL5
>>250
メモリ山ほど積んでオンメモリインデックス
それかSSD

253:login:Penguin
08/09/07 01:22:02 AQmY2t2w
>>240
そんなことができるのか。知らんかった。
確かにhdparmでは2倍になってるし、片方のHDDを外してもデータに問題はなかったから、
ミラーリングもされてるみたいね。
RAID10って時点で絶対に4台必要なんだと思って、考えたこともなかったよ。

254:login:Penguin
08/09/07 02:08:53 dwiRmWpQ
2台のRAID10って一体データはどういう風に乗ってるんだ?

255:login:Penguin
08/09/07 02:52:54 AQmY2t2w
>>254
240氏のやり方だと、RAID10ってのはあくまでも名前だけで、
実際は234氏が言ってるような読み込みだけが速いRAID1状態になってる。

書き込みは単体のときと(たぶん)同じ速度。読み込みは約2倍。
で、1台外してもデータには問題なくて、そのときは読み込みも単体と
同じ程度の速度に落ちる、って感じ。

実際のHDDにどうやってデータが書き込まれているのかは、俺にはわからん。

256:login:Penguin
08/09/07 09:00:17 3IVMMvgf
>>255
man md

257:login:Penguin
08/09/09 10:43:41 XWIPazgz
[root@puchiko root]# cat /proc/mdstat
Personalities : [raid5] [raid4] [raid1]
md2 : active raid5 sdc1[3] sdd1[2] sdb1[0]
490223232 blocks level 5, 32k chunk, algorithm 2 [3/2] [U_U]
[>....................] recovery = 0.0% (118528/245111616) finish=275.4min speed=14816K/sec

md1 : active raid1 sde1[2] sda1[0]
199141632 blocks [2/1] [U_]
[>....................] recovery = 0.4% (991424/199141632) finish=123.3min speed=26775K/sec

md3 : active raid5 sdl1[3] sdk1[2] sdj1[1] sdi1[0] sdh1[4] sdg1[6]
2441919680 blocks level 5, 32k chunk, algorithm 2 [6/5] [UUUUU_]
[>....................] recovery = 2.8% (13738880/488383936) finish=421.5min speed=18766K/sec

unused devices: <none>

豪勢にリカバリー中・・・コケないことを祈る

258:login:Penguin
08/09/09 10:53:35 a8VHVsbk
  .: + ...:.    ..:...:.. :. +
  . ..: .. .   + .. : .. .
  ..  +   ..:.  ..  ..
 +     :.     .  +..
  .    : ..    +  .. .
  .. :..    >>257  ..
  .    +   |: |
          |: |
      .(二二X二二O
          |: |    ..:+ ..
     ∧∧ |: |
     /⌒ヽ),_|; |,_,,
_,_,,_,~(,,  );;;;:;:;;;;:::ヽ,、
"   "" """""""",, ""/;
 "" ,,,  """  ""/:;;
 ""   ,,""""" /;;;::;;

259:login:Penguin
08/09/09 22:05:16 XWIPazgz
終了したよ! sdcが壊れててmd2はRAID1にしたけど。。。
md3はRAID6にするべきではないか考え中。チラ裏スマソ

260:login:Penguin
08/09/10 04:30:01 wQXa/rnK
おつ

261:login:Penguin
08/09/10 21:04:02 6XTL7ehC
いまフツーにRAID1してるんですけど、
単体のSSDに替えたら信頼性はUp?Down?
答えが出ないので教えてください

IntelのSSD良さげですよね

262:login:Penguin
08/09/10 21:23:58 mTxqzEnL
>>261
既存のHDD RAIDをSSD RAIDにしたらどうなるかってこと?
単純にMTBF比較であればHDDが市販のもので60万時間程度、
SSDが200万時間程度なので、信頼性は上がるだろう。

とはいっても確率論だが。

263:261
08/09/10 21:36:09 6XTL7ehC
HDD RAID1→SSD1個非RAIDです。

数字上は信頼性ちょいアップだけど...
何万台も運用するわけではないので運次第ってとこですかね?



264:login:Penguin
08/09/10 22:39:23 mTxqzEnL
>>263
運の要素が大きいだろうな。
HDDだとクラッシュの危険があるし、SSDだと書き込み回数の制限がある
(ある程度は散らしているが確実なものではない)。

265:login:Penguin
08/09/11 13:52:38 t86QBmcU
>>262
> 単純にMTBF比較であればHDDが市販のもので60万時間程度、
> SSDが200万時間程度なので、信頼性は上がるだろう。

あれ?
HDDの方はRAID1なんだから
「60万時間程度」が同時に二つ壊れる可能性との比較になるよね。
HDD RAIDの方が信頼性上なんじゃない?
正確な計算法が分からんけど。

266:login:Penguin
08/09/11 13:54:54 czapuPka
SSDもRAIDじゃないのか?

267:login:Penguin
08/09/11 19:45:48 x4yKwbl5
>>266
>>261を声に出して100回読め

268:266
08/09/11 22:53:18 czapuPka
ごめん、262しか読んでなかったorz

269:login:Penguin
08/09/12 21:58:14 AhnXV+bh
教えてください。

dmraidで作ったRAIDデバイスと、
フツーにLinux上で作ったソフトウェアRAIDって性能は一緒だよね?

dmraidってのは(Intel Matrix Strageみたいな)BIOSで作ったRAID情報を読み取って、
LinuxソフトウェアRAIDを自動的に構成するツールだと考えてるんだが、この理解は正しい?

あとdmraidで構成したRAIDデバイスが壊れたときは、BIOSで修復かけてもいいのでしょうか?


270:login:Penguin
08/09/13 05:43:54 yFc3xM/P
mdとdmraidの性能比較みたいなページがないか検索してみたらいいよ


271:login:Penguin
08/09/13 16:57:51 LK2wbKHe
>>264
フラッシュ寿命問題って、単に代替セクタ機能でカバーできるんじゃないの?
当然書き込み先を散らすといった手立てをした上での話だけど。

同じく疲労するDVD-RAMとかだって似たような対策打ってるんだから、
よほど書き込みアクセスが反復する用途でない限り大丈夫なんじゃないかと。

272:login:Penguin
08/09/13 17:50:12 ch1kjtqk
書き込み分散とかセクタ代替も込みで製品としてのMTBF出してるだろうから
外から見る限り、書き込み分散とかセクタ代替機能は特に考慮しなくても問題ない

…というのが理想なんだけど、
書き込み分散方式とアクセスパターンとの兼ね合いがあるだろうからなあ

273:login:Penguin
08/09/14 16:09:17 aCb6t4HK
>>269
dmraid知らんけど、互換性があるなんて聞いたことないな。

URLリンク(sourceforge.jp)

ここのを読むとプロプライエタリなソフトRAIDに対してのラッパーみたいなもの?
mdadmとはあまり関係なさそうな。

274:login:Penguin
08/09/14 22:01:49 IYFhfqhh
まあラッパーでいいのかな。BIOS(RAIDカードとかの)で切った
RAID構成のパラメータをLinux側に取り込んでそのまま扱えるようにする
わけだから。

こうするとRAID構成の一部はLinux、別の部分はWindowsみたいな
共存ができるけど、そういう部分切り出し利用しないならOS側の
ソフトRAID機能を使った方がいいというのは百万回くらいいわれてる通り。


275:login:Penguin
08/09/14 23:38:16 JSPVgMYR
> 百万回くらいいわれてる

暇なときでいいんで、リストくれ

276:ヒャクマンハウソ、スマソ
08/09/15 11:53:48 a7BuBquH
>>275
リストを出すのは簡単なのだが、2ちゃんのスレはあまりにも
容量が厳しすぎるので勘弁してください mOm

277:login:Penguin
08/09/15 16:04:26 gKAquFIw
>>276
ここに貼り付ける必要なくね。
圧縮してどこかのアップローダに置いて、ここには URL 一行書けばいいよ。

278:login:Penguin
08/09/19 05:28:28 BR3MquqB
>>225-226
サウスのヒートシンクが貧弱なマザーなら、サウスが熱でやられる。
サウスを冷やせ。
側面にファン取り付け穴が二つ開いてるケースなら、下の方だ。

279:login:Penguin
08/09/20 12:32:05 2jxpiAok
HDD RAIDの仕組みがよく分からないのですが、
例えば、RAID1で500GBで組む、
とした場合、
この500GBと組んだ、という情報は
RAIDカードのみが認識することになるんでしょうか?
(HDD自体には特にRAID云々の情報は書き込まれない?)

現在500GBでRAID1組んでいて、1TBに変えたのですが、
ユニット拡張機能がRAIDカードについていないため、
500GBで認識されてます。

この場合、
一旦関係ない1TB載せて、再度RAID1組んで、
(RAIDカードに1TB情報載せて)
関係ない1TBをはずして、500GBと認識されてた1TB HDDを
載せれば、拡張目的果たせるんでしょうか?

ちなみに3wareの8006-2lp使ってます

280:login:Penguin
08/09/20 15:56:49 9fflWZZq
>>279
ふつうはRAIDに関する情報をハードディスクのどこか(ふつうはディスクの先頭などの
固定の場所)に書き込む。そうでないものもあるにはあるが。

ユニット拡張機能とやらが何なのか知らんが、3wareのユーティリティなどで
できるのではないか。

281:279
08/09/20 16:39:03 2jxpiAok
>>280
うわーーー
おっしゃるとおりですね。
試してみましたが、だめでした。

ユニット拡張は、
いわゆるRAIDカードが構築した論理?ドライブを
実際のディスク容量に拡張するものです。
現在はRAID1作成時のディスク容量で実HDD容量ではないので
それを実HDDの容量に補正したいわけですが、
3wareのCLIでは無いよう何です(汗


何か代替方法ないでしょうか・・・。

282:279
08/09/20 19:18:27 2jxpiAok
結局HDDにRAID情報が書き込まれてるんで、
別HDDへ、ddやコピー系でコピーしてもダメポなんですよね・・・

ああ激しく鬱だ orz

283:login:Penguin
08/09/24 10:25:25 NY4tqg7z
mdadm -Aで無理やり起動したら
failed to RUN_ARRAY /dev/md0: Input/output error
これってどういう事……汗

284:login:Penguin
08/09/24 15:31:23 3ffijfuO
コンポーネントデバイスがご臨終

285:login:Penguin
08/09/25 21:02:44 LfvtnWd8
RAID5におけるresyncについて教えてください

debianで構築したGLANTANKにUSB接続で6台のHDDでRAID5を構築していました。

帰宅したところHDDに頻繁にアクセスしているのでtelnet接続したところ、下記のような状況でResync状態にあるようです。
fumifumi@GLANTANK:~$ sudo cat /proc/mdstat
Password:
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
1562842880 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
[>....................] resync = 4.3% (13630588/312568576) finish=2230.8min speed=2232K/sec

md0 : active raid1 hdb3[1] hda3[0]
77649600 blocks [2/2] [UU]

この状態でmd1のデータは無事に復旧しますでしょうか?
残り一日以上かかりそうですが、完了時にはデータが空っぽにならないか心配です。

ちなみにdfコマンドでは
/dev/md1 1538319916 1457990512 2187260 100% /share/usb
と表示されており、昨日までの使用状況とは変わっていません。(現時点では。。)

/shaer/usbにアクセスしようとしても反応がない状況です。
どんどんデータが開放されているのでしょうか?

力量不足で情けないですが、このまま待つのがよいのか?データは保持されるのか?
アドバイス・ご教示お願いします。

ps.resyncとrebuildはちがいますよね?


286:login:Penguin
08/09/25 22:29:45 hqNskNnF
((((´д'))))

287: ◆Zsh/ladOX.
08/09/25 23:03:20 uxBh3s9z
待つしかない。
(rsync中も遅いだけで使えた稀ガス)

反応が無いって
cd /share/usb
しても
・cdが成功しない
・cdはできるがその後lsとかでコマンドの反応が無い
ってこと?

288:login:Penguin
08/09/25 23:43:29 LfvtnWd8
>>287

早速のレスありがとうございます。

cd /share/usbに反応しませんでした。
プロンプトに戻ってこなかったです。

先の書き込みをした後は
sudo cat /proc/mdstat
にて状況を見ていたのですが、先ほど急にtelnetが切断して接続不能になりました。
#resync中でも再起動可能とのことだったのでsudo reboot等試みましたが、リブートはしませんでした。
それ以外はmdstatしたりdfして状況を見てました。

telnet接続できない現在でも、USB接続のHDDには相変わらずアクセスし続けているので、引き続きresyncは実行されているようですが、pingも利かない状態におちいってます。
GLANTANKのパワー不足?かもしれません。

繰り返しで申し訳ないですが、データは無事と思ってよいでしょうか?
その他書き込みした事項以外で確認すべきことがあればアドバイスください。
返答よろしくお願いします。

敬具

289: ◆Zsh/ladOX.
08/09/26 00:02:45 uxBh3s9z
>>288
まず、データは無事です。
> GLANTANKのパワー不足?かもしれません。
現状はこれかな。


最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
そのPCにHDDを6台接続してresyncした方が良い鴨
(USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)


290: ◆Zsh/ladOX.
08/09/26 00:11:25 D+db+I6m
あーでも今GRANTANKシャットダウンできないのか。
電源ボタンぽちしてシャットダウンしたりするのかなぁ。
どうすっぺねぇ

291:login:Penguin
08/09/26 00:19:03 7oAA51Rx
>>289

> まず、データは無事です。
ありがとうございます。気長に待つことにします。
先の書き込みでお分かりのように大事なデータや怪しいデータなどなど目いっぱい詰め込んで快適につかっていたのですが、初トラブルで、心配です。
希望が出てきたので、おとなしく観測します
#容量いっぱいなので、入れ替えながらかつかつ運用です。。

> > GLANTANKのパワー不足?かもしれません。
> 現状はこれかな。
やはりそうでしょうか。外部アクセスを拒絶してしまってます。
先ほどまでworkhroupにいたGLANTANKがいなくなってますし、resyncに専念してしまっているのかな?
なんとかがんばってくれぇ>SH
#感情的で申し訳ないです。こういう時ほど落ち着いて対処ですよね

> 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
> そのPCにHDDを6台接続してresyncした方が良い鴨
いまさらこのようなことが可能なのでしょうか?
リブートできない状況ではリスクが大きいかと。。
どちらにしてもLinuxな環境がないので乗り換えは厳しいです。

> (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
説明不足ですいません。
6台はい~るに6台のHDDを詰め込んでますので使用UBSポートは1つで大丈夫です。
#それにしてもなぜ?このような状態に。。。

有益なアドバイスいただきありがとうございました。
何か思いつかれたら、また返答いただければ幸いです。

敬具

292: ◆Zsh/ladOX.
08/09/26 00:35:12 D+db+I6m
> どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
CDブートのlinuxを使えば良い。
が、どっちにしろgrantankを上手く落とせた場合の話になってしまうけど


ではもう寝るので健闘を祈ります。

293:login:Penguin
08/09/26 00:52:55 7oAA51Rx
>>292

いろいろお世話になりました。

とりあえず現状のまま様子をみます。

夜遅くまでお付き合いいただきありがとうございました。

敬具


294:login:Penguin
08/09/26 11:36:30 UHMIOaKO
>>293
resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
WD10EACS-D6B0 x 4でRAID5を使ってるけど、80MB/secから最終的に40MB/secに落ちる程度の速度は出るよ。
どれかのHDDが壊れかけで足引っ張ってたりするんじゃないかと想像するんだけど。
dmesgとかsmartを確認した方が良さそう。

あと、あんまりかつかつまで使わない方が良いと思うよ。
環境依存かもしれないけど、2.7TB中50GB程度空きになった状態で何度かフリーズを経験してて、
空きが結構ある状態では一度もフリーズしてない。
(OS:Fedora9、FS:XFS)


295:login:Penguin
08/09/26 20:14:20 7oAA51Rx
>>294

> resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
よく覚えてませんが、たぶん構築時もこんなものだったような??

> dmesgとかsmartを確認した方が良さそう。
寄せ集めの320GB-IDEをUSB接続なのでこんなものかと。。
いただいた情報をヒントに調べてみます。

> あと、あんまりかつかつまで使わない方が良いと思うよ。
余裕を持ちたいのは山々ですが。。いろいろ詰め込んじゃうんですよね。
どこもかしこもかつかつで。。貧乏性で消せない性格がいけませんね。
速度よりも容量重視でこうなっちゃいました。。



296:login:Penguin
08/10/05 10:49:30 Ze8uaqdI
/proc/mdstatがcheckになるのは、なぜですか?
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid6 sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
2930279808 blocks level 6, 64k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] check = 0.7% (7653376/976759936) finish=3794.0min speed=4256K/sec

/var/log/messages
Oct 5 01:06:01 host kernel: md: data-check of RAID array md1
Oct 5 01:06:01 host kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk.Oct 5 01:06:01 host kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
Oct 5 01:06:01 host kernel: md: using 128k window, over a total of 976759936 blocks.
md0についても同じメッセージが出ています。
ファイルシステムは、md0, md1ともにXFSです。

1時6分から何かが始まっていますが、cron.dailyは6時25分に設定されているので
cronによって起動された何かが原因ではありません。
OSを再起動したとか、ホットスワップしたタイミングでもありません。

OS: Debian GNU/Linux 4.1(etch)
カーネル: 2.6.26.5へ入れ替え
です。

297:login:Penguin
08/10/05 13:12:24 rOZmgU0Y
/etc/cron.d/mdadm じゃね?

298:296
08/10/05 14:55:41 Ze8uaqdI
おっしゃるとおりです。
6 1 * * 0 root [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ] && /
usr/share/mdadm/checkarray --cron --all --quiet
となってました。

どうもありがとうございました。

299:login:Penguin
08/10/11 18:12:33 ZuxskNzz
SATAのHDDが10個ぐらいのRAID組みたいのだが
一番安く済む方法教えてほしい

300:login:Penguin
08/10/11 20:12:37 0pLPQ9Sw
普通はエントリーモデル買って100万円ぐらいじゃない?

301:login:Penguin
08/10/11 23:40:03 qfaubBp2
>>300
80 万くらいの差額はどうするべ?

302:login:Penguin
08/10/12 00:04:53 0pLPQ9Sw
80万円の差額ってなぁに?
たしかにボッてるとおもうけど
冗長性のあるコントローラや電源だと
このくらいするかなと思います

そもそも家庭向けだとスロット数が4つぐらいだよ

303:login:Penguin
08/10/12 00:07:47 MFK5+p1z
冗長性云々必要なの?

> SATAのHDDが10個ぐらいのRAID組みたいのだが

としか書かれてないよ。

304: ◆Zsh/ladOX.
08/10/12 00:16:53 BnTxnZIJ
サウスにSB700とかSB750とかICH9とかICH10のマザー
+
クロシコSATA2I2-PCIeを2個使う

ってところか。
HDDはお好きなのでどうぞ。

305:login:Penguin
08/10/14 16:22:59 NijeoAer
最近Supermicroのベアボーンが、実はかなりコストパフォーマンスが高いことに気付いた。
SOHO向けのファイルサーバ用途なんかだと、かなりいい感じだと思う。
バラでパーツ集めるより安心確実安上がり。

306:login:Penguin
08/10/15 01:00:02 MFbQNNJJ
もしドライブベイ4つあるサーバーあったら

①SASでraid1+0
②SASでraid6
③SATAでraid1+0
④SATAでraid6

のうちどれが良いと思います?
速度、コスト、耐障害、障害時復旧等
それぞれの面から教えてください。

307:login:Penguin
08/10/15 02:07:17 ZK7oP6Ef
>>306
シーケンシャルなら24
ランダムなら13
コストなら34
耐障害なら24
ディスク負荷高い場合は障害復旧での負荷13

308:login:Penguin
08/10/17 23:47:36 yE7dhqMk
>>306
これ見て思い出したんだけど
RAID1+0ってRAID0+1って言うのもあったんだね
1+0のほうが耐障害で0+1が速度だっけ?

309:login:Penguin
08/10/18 03:28:34 CvVG09ig
>>308
その2種類の動作は呼び方が定義されていない
普通採用される方式は
RAID0の各HDDがミラーリングされている方式
もう一つは信頼性ガタ落ちの
RAID0をミラーリングした方式
速度はどっちも同じ(リトライ処理とか考えると異なるかもしれんが)

310:login:Penguin
08/10/22 23:03:41 OER6wkY9
>>308
ミラーリングボリュームのストライピングか
ストライピングボリュームのミラーリングか、だね
ストライプサイズ近辺のアクセス粒度だと、シークとアクセス振り分けの関係で
性能特性が微妙に違ってきそうな感じ。分かるような違いは出ないと思うけど…

ちなみにmdのRAID10はさらに別物

311:login:Penguin
08/10/25 23:44:02 WFYSKaa5
mdadmでRAID1を組んでext3でフォーマットしました。
別のext3のディスクからディレクトリを
cp -a
でコピーし、
du
で見たところディレクトリ全体の容量が微妙に違います。

ですが、ディレクトリ内の各ファイルの容量はそれぞれ一致しています。
これは、ジャーナリングのメタデータの容量が違うから、ですか?
それとも、RAIDに起因するものですか?

312:login:Penguin
08/10/26 01:23:25 Z2w8/cR8
その「微妙」というのが何KBなのか何MBなのか、そしてどっちが多いのか
エスパーじゃない俺には全然わからないけど
単にディレクトリエントリの消去済み領域の分だったりしないかね。

313:login:Penguin
08/10/26 02:35:57 J0AWp7Ql
コピー元と先のそれぞれ上の階層で
ls -l すると 4096B だけコピー先のディレクトリが小さいので、
おっしゃる通りですね。勉強になりました。

314:login:Penguin
08/10/28 15:40:50 OkmvC/aL
3wareの9500Sで700GB*8のRAID5を構築したのですが、
ファイルシステムが上手く作れなくて大変困っております。
使用しているのはFedora Core 7です。

# parted /dev/sdb
GNU Parted 1.8.6
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number Start End Size Type File system Flags

(parted) mkpart primary ext2 0 -0
(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number Start End Size Type File system Flags
1 512B 852GB 852GB primary ext2

となって、5250GBと表示されているのに、パーティションを作ろうとすると
852GBのパーティションしかできません。

RAIDの最初期化なども行ってみたのですが症状は変わりませんでした・・

どなたか、アドバイスを下さいませんでしょうか?

315:login:Penguin
08/10/28 16:02:30 7kZ3n49D
> Partition Table: msdos

なあ、DOSパーティションテーブルで扱えるサイズに上限があるの知ってる?

316:314
08/10/28 16:11:53 OkmvC/aL
できました!大変ありがとうございました。

(parted) p
Model: AMCC 9500S-8 DISK (scsi)
Disk /dev/sdb: 5250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number Start End Size File system Name Flags
1 17.4kB 5250GB 5250GB primary


317:login:Penguin
08/10/28 17:16:12 XbLUcb3e
え~っと
ネタ……だよね?

318:login:Penguin
08/10/28 17:29:33 XbLUcb3e
しかし、ドライブが普通にTBクラスになってくると
それまで遭遇したことのない状況に直面することも多そうだな。
1TB 1万円の時代がこんなに早くやって来ようとは…

319:login:Penguin
08/11/02 00:36:09 36V/uKQX
すまんが教えてくれ。

500GBx4(RAID5)を構成してたうちの1台が故障したんで、容量アップもかねて
1TBx3(RAID5)に変更した。
データ移行は全HDDを同時に搭載して、md0(500GBx4)とmd1(1TBx3)を作成して
コピーした。
500GBx4を取り外して1TBx3だけにしたんだが、再起動後もmd0じゃなくmd1として
認識される。
今までデバイス名はmd0を使っていたんで、これからもそうしようと思ってたんだが。
CentOS5を使ってるんだが、これをmd0に直すことは出来ないか?

困ってるというほどじゃないんだけど、気持ち悪くて・・・orz

320:login:Penguin
08/11/02 01:09:58 n6/w/1q1
>>319
私も現在稼働中のRAIDの容量アップを狙ってましてその件について気になります。
憶測ですが、

/etc/mdadm/mdadm.conf
/etc/fstab
/boot/grub/menu.lst

の3つを編集すればmd1をmd0にできるかもしれません。
mdadm.confをいじったらmdadmコマンドを実行しないといけないかもしれません。
RAID初心者なのであまり信用しないでください。
判断の材料になればと思いまして書かさせていただきました。

くれぐれもいきなりファイルを書き換えたりせず調べてから行ってくださいね。

321:login:Penguin
08/11/02 01:29:20 36V/uKQX
>>320
レスありがとう。

/etc/mdadm/mdadm.conf
 →今までmd0だったのをコメントアウトし、md1として記載していたのをmd0に書き換えた。
/etc/fstab
 →md0でマウントして欲しかったので、記載は変更せず。
/boot/grub/menu.lst
 →ルートパーティションもカーネル置き場もRAIDの対象外にしてあるので、変更せず。

この状態で、1TBx3(RAID5)がmd1で、md0にはデバイスが何も割り当てられていない。
仕方ないので今は、/etc/fstabを修正し(md0→md1)で動作させてる。

何をすれば直るんだろう・・・

322:login:Penguin
08/11/02 04:27:52 yzuijVl/
>>319
mdボリューム自体に書き込まれてる番号を見てるんで
superblock弄らないと直せない
やめておいたほうがいい

323:login:Penguin
08/11/02 08:56:30 36V/uKQX
>>322
ああ、そうなんだ・・・
わかった。ありがとう。
あきらめることにするよ

324:login:Penguin
08/11/07 08:51:39 1rUaDWwq
アロハですべて解決だお田口くん^^

325:login:Penguin
08/11/08 20:24:12 dUpxLcHs
アロハ田口君、使えないRAID・使えないクソ板というならここにはこないでくれ!

326:login:Penguin
08/11/08 22:09:50 1FtiGeqJ
md raid1なデバイスが開始しなくなったのですが、
縮退も何もしていないようなので原因が掴めずにいます。
再構成すれば正常に復帰することは確認していますが、
どのような原因でこの状況になり、どのような対応をするべきなのか、
勉強のために助言をいただければ大変ありがたいのですが。

# cat /proc/mdstat
md1 : inactive sdb1[0] sda1[1]
12345678 blocks super 1.0

# mdadm --detail /dev/md1
/dev/md1:
Raid Level : raid1
Raid Devices : 2
Total Devices : 2
Preferrer Minor : 2
Persistence : Superblock is persistent
State : active, Not started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

# mdadm --examine /dev/sd[ab]1
/dev/sda1
State : clean
Checksum : 1234abcd - correct
Events : 4
/dev/sdb1
State : active
Checksum : 56789abc - correct
Events : 5

327:login:Penguin
08/11/08 22:30:16 vwNnhBNG
>>326
raid1ドライバは起動時にロードされてる?
パーティションタイプの設定は間違ってない?

328:326
08/11/08 22:39:01 1FtiGeqJ
>>327
全く同様に作成した複数のRAID1デバイスがありますが、このデバイスのみ開始しません。
ちなみにパーティションは/としてマウントされる設定になっています。

329:326
08/11/08 23:01:02 1FtiGeqJ
昨日までは問題なく機能していたのですが、一体何が原因なのやら。
念のため、パーティションテーブルとmdadm.confも
バックアップと比較してみましたが、完全に一致しています。

330:login:Penguin
08/11/08 23:12:58 vwNnhBNG
ルートってのが怪しい気も・・・
# dmesg | grep md
とか

331:326
08/11/08 23:42:00 1FtiGeqJ
>>330
# cat /var/log/boot.msg | grep_wetware md
mdadm: /dev/md0 has been started with 2 drives.
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error
mdadm: /dev/md2 has been started with 2 drives.
mdadm: No arrays found in config file

このシステムは普通のinitrdだと起動しないので、
今Knoppixを改造する方法を調べていますが、メディアがないという・・・。

332:326
08/11/09 00:02:30 1FtiGeqJ
システム自体は自動復旧できるので、あまり困ってはいませんが、
復旧スクリプトはOSをカスタムクリーンインストールするだけなので、
原因究明に必要そうなデータは全部消えてしまいます。

全く関係ありませんが、M/BのRAID機能(Fake RAID)には
SB等のオンチップなもの、別途チップを搭載したオンボードなものがあります。
後者の場合、搭載チップが大手デベロッパのもの(Silicom Imageとか)なら、
全く同じチップを搭載したRAIDカードが簡単に手に入ります。
「Fake RAIDを使いたいが、拡張カードに余裕がない。しかしオンチップでは不安」
という場合にはそのようなM/Bを選ぶのもいいかもしれません。
また、PATA・SATAなどが搭載されているものでも、似た型番のファームウェアで(略
他のOSと共用しないのであれば、LinuxでFake RAIDを選ぶ理由はそうないと思いますが。

333:326
08/11/09 21:20:22 DGt7Zimz
どうも最近のカーネルで同じような現象が出るようです。
いくつかのフォーラムで話題に上っていましたが、いずれも原因は不明でした。
大きな実害はない(RAIDでシステムが起動しなくなるのは実害ですが)ため、
週末も終わりますので、このあたりで調査を打ちきりたいと思います。
付き合ってくださった方、ありがとうございました。

334:326
08/11/09 21:47:37 DGt7Zimz
同様の現象に遭遇された場合は、RAIDを構成し直すことでデータロスなく復旧できます。
私の環境では復旧作業はメンテナンスモードで完結しましたが、
カスタムinitrdなので、他の環境ではレスキューCDやLive CDが必要かもしれません。

復旧するには、RAIDを再構成し、必要であれば適当に同期します。
UUIDが変化している場合は、UUIDを元に戻すか、mdadm.confに反映してください。
# ルートをRAID構成にしているような方は理解していると思いますが、
# /boot/initrd/etc/mdadm.confです。念のため。
私の環境ではinternal bitmapが正しく認識されませんでした。
このあたり詳しくないので分からないのですが、作り直してやれば問題なく動くようです。

一応、エラーなくブートすることは確認していますが、
結局初期化してしまったため、正常に運用できることは確認していません。
また、この現象は再現性があるようなので、再び発現するかもしれません。
カーネルを大体2008年上半期のものに戻せば、再発しなくなる"らしい"ですが。

335:login:Penguin
08/11/14 17:41:14 SvkwSzc6
うちは64bit Ubuntu環境だが、書き込み負荷が大きいとRAIDが応答しなくなる。
非RAIDのシステムディスクも巻き込んで書き込めなくなっているらしく、
Fxの設定なんかが戻ってる。シャットダウンも途中でバスエラーで止まるし。

対処法は >>334 に同じ。

P35のサウスが腐ってるのか、ドライバが腐ってるのか。

なんでやー

336:login:Penguin
08/11/22 20:07:08 Jtc1qcI2
CentOSでSATAのHDDをミラーリングしたいのだが
ハードウェアRAIDで2台を接続できるやつでお勧めありませんか?
そんなに高性能でなくて構いません

337:login:Penguin
08/11/22 20:32:30 eQKAaNGp
べつにソフトウェアでやればよくね

338:login:Penguin
08/11/22 20:42:46 pwVAVQnO
個人的にはLinuxと言えば3wareのイメージが強い

339:login:Penguin
08/11/23 10:20:29 NMmGdMk5
沖縄に外国人3000万人受け入れ計画
URLリンク(life.bbs.thebbs.jp)

こんな法案が可決したら日本は破綻する
(ちなみに東京の人口は1280万人)
選挙権がある方は良く考えて投票してください



340:login:Penguin
08/11/23 14:17:08 xbEoWaWj
まず物資の輸送が不可能
餓死させるのが計画のうちなら知らんが。

>>337
ブートローダのメンテが若干面倒だから、そのあたりを嫌うなら
透過的に扱えるHW-RAIDの方が良いかも。

341:login:Penguin
08/11/24 13:53:42 nIHbOfOU
3ware Escalade 9500S-4LP
adaptec Serial ATA RAID 2410SA
どっちを買おうか悩んでます
ハードウェアRAIDの方がよいらしいのですが
どうやって見分けるかがわかりません。
エロい人教えてください

342:login:Penguin
08/11/24 14:17:15 gPfZJ3UU
>>341
PC外付けタイプならまず確実にハードウェアRAID。
その2つもハードウェアだと思うけど。
Adaptecの方はややスペックが落ちるから3wareでいいんじゃ?

(使ったことないし、ぷらっとオンラインの説明見て書いてるだけだけど)

343:login:Penguin
08/11/24 16:16:07 hCv1ixFI
質問です。

現在CentOS5のmdadmを使用してRAID5構築しています。
これをRAID6に変換したくてGoogle先生に聞いたのですがサイト見つかりませんでした。
①可能なのか?
②検索するキーワード、もしくはお勧めのサイト
をご教示いただけると幸いです。


344:login:Penguin
08/11/24 16:45:51 VO9j9Wmt
知る範囲ではフルバックアップ+リストアしかないと思われ
最新のmdadmは知らないから、サイト見つけてman読んでくれ

345:login:Penguin
08/11/24 21:36:30 GzuV7Usu
高価なストレージでもRAIDレベル変換は命がけだよ
なにしろメモリ上にしかデータがない瞬間があるからね

346:login:Penguin
08/11/24 22:24:15 l3Kl+Jqd
>>343
可能だったとしても君には無理だと思うよ。

347:login:Penguin
08/11/25 00:09:58 dBliCIAC
>>343
>>107-111

348:login:Penguin
08/11/25 00:11:10 dBliCIAC
IDにCIA… ガタガタブルブル(違

349:login:Penguin
08/11/29 22:26:04 jRDp7xVJ
RAID構築してた二つのHDDを
普通に使用しようとしてフォーマットしたら
エラーでフォーマットできないんだが
どうすればいいのでしょうか?
DESTROYで完全消去しようとしても
エラーで消去できません(泣

350:login:Penguin
08/11/29 22:44:47 jRDp7xVJ
ローレベルフォーマットも無理だった・・・orz
俺の知識じゃなんともならん・・・
誰か助けてください。

351:login:Penguin
08/11/29 23:01:17 vVaLqDtx
>>350
もしかしてRocetRaid?
HDDの設定値書き換えるらしいので他環境では使えなくなるらしいよ。

352:login:Penguin
08/11/30 02:12:02 oiqzRYao
adaptec 1210SA っていうやつなんだけど・・・


353:login:Penguin
08/11/30 02:12:49 oiqzRYao
途中で書き込んだかも

adaptec 1210SA っていうやつなんだけど・・・
RocketRAIDでは違うようです。


354:login:Penguin
08/11/30 02:46:09 pP7UJGw1
>>349
どうしても他の方法が駄目なら試してみて。
もう一度、同じRAIDを構築する。
それからRAIDのレベルを1にして再構築。
そしてバラしてから一個づつフォーマット。

355:login:Penguin
08/11/30 03:27:32 oiqzRYao
>>354
RAID1を構築しようとすると
開始直後から固まって動いてくれないです

356:login:Penguin
08/11/30 05:07:23 pP7UJGw1
>>355
最初のレベルは何?
最初RAID 0なら、同じようにRAID 0で構築しないといけないよ。
それで問題ないなら、次にRAID1で再構築。
同じカードなら、これができないはずはないと思うけど。
もちろんOSは別のHDDだよね。
後は、プロンプト開いてfixmbrしてみるしかないかな?
使い方はググってくれ。

357:login:Penguin
08/11/30 06:13:18 I/61r+v7
ふつーに物理的に壊れたんじゃんないの

358:login:Penguin
08/11/30 12:40:13 oiqzRYao
>>356
OSは同じHDDですorz

まだ購入して一週間ぐらいしか経過していないんだが・・・汗

359:login:Penguin
08/11/30 14:28:11 lQ5yOOgC
この書き方だと導入時のHDDテストもしてないっぽいな

360:login:Penguin
08/11/30 14:41:41 oiqzRYao
powermaxっていうツールで
Advanced Test (Full Scan Test) っていうテストぐらいしかしてないです


361:login:Penguin
08/11/30 17:06:27 lQ5yOOgC
んー、それならテストとして最低ラインはクリアか
フォーマットが無理ならddで全領域ゼロうめとか
# dd if=/dev/zero of=/dev/sdX bs=1M
LBAで見える以外の領域に何かされてたらこれじゃ解決しない

どのレベルでどんな問題が起こってるのかきちんと書かれてないな
RAIDカードのBIOSなのか、OSレベルなのか、ローレベルフォーマットって
いうならメーカ製ツールなのか。半ばエスパー質問化してる

362:login:Penguin
08/12/09 23:45:42 cEZNK+Gg
長文失礼します、
DELL ワークステーション 450GB 15000回転×4枚 検討中ですが
SAS RAID5 か SAS RAID10でヒジョーに悩んでおります・・

一般論では RADID5のほうが良くない(書き込み遅い・2枚壊れたらアウト)
と言われます。
が、DELLに言わせれば それは主にSATAの話であって、
SAS RAID5 の場合 PERC 6 SASコンが演算する?ので
書き込み速度もそれほど遅くならないし、HDDが同時に2枚壊れるなんて
ほとんど有り得ないから大丈夫との回答・・

もし本当なら やはり作業領域の広い RAID5にしたい気持ちですが、
それを押し切ってでも あえてRAID10にする決定的なメリットを
ご存知のかた いませんでしょうか?
(RAID10の速さ・安心感も捨てがたいのも事実です)




363:login:Penguin
08/12/09 23:59:13 3GSXNjdZ
>>362
PERC 6 SASコンの演算性能を確認してからでもよくない?

>HDDが同時に2枚壊れるなんて
>ほとんど有り得ないから大丈夫との回答
逝ったらデータ保証してくれるのか、って言ってみたいね。
多分なーんにも考えずに言ってるだろうから。

364:login:Penguin
08/12/10 00:13:28 wgpxAUYw
RAID10だったとしてもデータ保証は無いし、そもそもRAIDの守備範囲じゃない
何にも考えてなさそうなのは同意だが

365:login:Penguin
08/12/10 00:31:00 OPHXMwCC
>>363
早速のアドバイス有難うございます。
RAID5特有の データとパリティ情報を分散して記録する手間ってヤツですよね

今回の場合、

RAID5→作業可能領域:1350GB バックUP領域:450GB
    読み速度:○ 書き速度:△ 故障時復旧:2枚逝ったらアウト

RAID10→作業可能領域:900GB バックUP領域:900GB
    読み速度:◎ 書き速度:◎ 故障時復旧:3枚逝ったらアウト

といったところでしょうが HDDの壊れ具合やHDD作業領域の大きさ等、
未体験ゆえ 何かに例えようもなく、
さて どうしたもんかという感じでざいます・・



366:login:Penguin
08/12/10 00:34:11 4CJ8G9lA
>>365
RAID10は組み合わせによっちゃHDD2二つ死んでもアウトじゃないか?

367:login:Penguin
08/12/10 00:36:52 OPHXMwCC
>>366
すみません まだあまり詳しくはないですが
0+1 と 1+0 の違いということでしょうか?

368:login:Penguin
08/12/10 00:42:14 4CJ8G9lA
>>367
URLリンク(itpro.nikkeibp.co.jp)
の後半部分

369:login:Penguin
08/12/10 00:48:16 wgpxAUYw
>>365
データ守りたいの?可用性を上げたいの?
データを守りたいだけならRAIDは無意味だから
JBOD2つ作ってバックアップしなさい

370:login:Penguin
08/12/10 01:04:08 OPHXMwCC
>>368 わかりやすいページでした、有難う御座います
   この場合 当然1+0ですね

>>369 以下のような説明文を見つけたのですが
   そう簡単に一安心というのも なかなか難しいものですねw

実際、JBODは複数のディスクを単に1つにまとめて
大容量の単一ディスクに見せかけるだけの技術だ。
パリティなど冗長コードの仕組みはなく、
耐障害性は向上するどころか悪くなる。

冗長性がないという点で JBODはRAID 0とよく似ている。
しかし、RAID 0が複数のディスクを並行して読み書きすることで性能を高めているのに対し、
JBODでは基本的に1台ずつ読み書きされるので性能は向上しない。


371:login:Penguin
08/12/10 01:20:23 OPHXMwCC
やはり どちらにしてもバックUPは欠かせないように思いました。

・作業領域重視なら まめにバックUPをとりつつ RAID5
・作業速度重視なら たまにバックUPをとりつつ RAID10

という2つの選択理由で最終的な悩みに突入してみます。
結局は 作業領域450GBの差・互いの体感速度差 が
なかなか想像できないという悩みなワケですが・・

372:login:Penguin
08/12/10 01:34:19 Ual94Maq
書き込みの早さは、
RAID10 > 5 > 6
の認識であってますか?

373:login:Penguin
08/12/10 01:36:45 4CJ8G9lA
レイテンシは逆に増えるからね、
よほど大容量データを転送しない限り体感できないに一票

RAIDは間違ってデータ消したとか、
ウイルスがデータ壊したとか、
ソフトウエアの問題から起きるデータ消滅には無力。

HDDが故障する確率と間違ってデータ消す確率、
どちらが高いかを考えるとバックアップの重要性に気づくはず。

374:login:Penguin
08/12/10 02:01:36 OPHXMwCC
しかし 最もポピュラー且つ 全てのバランスがとれているのはRAID5だ
という意見もあるしな~ 聞けば聞くほど迷ってしまうところです

375:login:Penguin
08/12/12 16:45:01 n9kgBBfI
>>370
JBODって何のためにあるのか分からんよな・・・
障害発生しても別にいいやってスタンス(例えば2ch鯖w)で使うもんなんかな?

376:login:Penguin
08/12/12 19:38:52 IRfMgGF6
昔のドライブあたりの容量が小さかった時代には
有効な手段だったんだよ。
今となっては無価値だが。

377:login:Penguin
08/12/12 20:46:10 uz8EwwXm
全然分かってないな…。

メリットはドライブごとのアクセス並列化。
XFSみたいな、ファイルシステム内で複数のアロケーション単位に
分散して使っていくファイルシステムと組み合わせて、
並列入出力のアクセス時間を隠蔽する。
RAID1+0だと、アクセス単位がストライプ単位より大きい場合は
並列入出力が事実上不可能。

378:login:Penguin
08/12/12 20:51:14 7DMsWCHl
J(ust)BOD

379:login:Penguin
08/12/15 20:30:18 cQdvEHh1
>>377
まじか
したら>>370の説明は間違いってことじゃん

つーことは、RAID0と違って、JBOD中の1台が死んでも全体が死ぬわけじゃない?

380:login:Penguin
08/12/16 05:33:07 habB3SiC
>>379
1台死亡でボリュームが死ぬのは一緒。RAID0だと領域が櫛状に死亡するから、
完全な形で救出できるファイルが極端に少なくなるけど。

381:login:Penguin
08/12/16 12:40:23 V99gDv+F
JBODの実装次第なんじゃないの?
例えばどのハードウェアRAIDでも必ず >>377,380 と言える
保証はどこにもないと思う。

382:login:Penguin
08/12/16 14:57:27 habB3SiC
何当たり前の事を……。
370も377も必ずその動作になるとは言っていないぞ?

380もそりゃ実装次第だが、RAID0を名乗る以上実装はストライピングだろうし、
JBODを名乗るなら領域連結だろう

383:login:Penguin
08/12/16 17:00:56 KlJRATvp
小学生の口ゲンカみてーだな

> 「必ず」とは言ってない

そんなこといつ言った?
何時何分何秒だ?

とか続きそうw

384:login:Penguin
08/12/16 17:15:15 O0nTK2wv
>>383
そうなの?死ぬの?

385:login:Penguin
08/12/16 18:47:07 MbHpuTDI
よく分からなくなってきた
RAIDだとJBODのような並列入出力はできないわけ?

386:login:Penguin
08/12/16 23:29:57 habB3SiC
JBODだろうがRAIDだろうが並列入出力できるかは実装次第。
RAID0系(5/6含む)はほぼ不可能というかできても実用的じゃない。

387:login:Penguin
08/12/17 10:12:16 mORUj6fC
並列入出力って、
RAIDよりもNCQとかその辺の仕事では?

388:login:Penguin
08/12/17 12:42:06 lUpz3ShW
ここまでの話の要約

JBODとRAID0のメリット・デメリットは実装次第で、
絶対的な話として、どちらがどうとは言えない

389:login:Penguin
08/12/17 15:22:26 BsydUkOG
ほんとか?

390:login:Penguin
08/12/17 15:34:12 Q+zvZB24
JBODのメリットはディスクの容量が異なっていても全部使えることじゃないのかな

391:login:Penguin
08/12/17 22:56:00 n45DK9NO
みんな意見バラバラだな・・・w
まぁほとんどの人は接点がないってことだろうな。プロの鯖缶でもない限り

392:login:Penguin
08/12/18 01:10:30 glsjl0AW
>>387
ボリュームレベルの話とドライブレベルの話は区別するべし
並列っていうからには同時に複数箇所アクセスできないといけないけど
NCQ使ったところでアーム1個だから無理

393:login:Penguin
08/12/18 10:21:59 +frKg3uB
>>383
あんた、理解しないで突っ込んでるだろw

パリティデータも実データも全ディスクに分散して書き込むのがRAID5,6の肝。
その副産物として >>377 に挙げられてるメリットが出てくる。

それに対して、JBODは、概念的に並列化となんの関連もない。
だから「並列化された実装」かどうかの保証はない。

394:login:Penguin
08/12/18 16:56:41 glsjl0AW
377はJBODのメリットを言っている件

395:login:Penguin
08/12/18 18:09:57 OhRt4tvK
393が一番文脈読まずに書いてる気がする件

396:login:Penguin
08/12/18 20:10:23 7mUfa8Uh
そろそろFAを頼む
初心者の俺を混乱させるなよお前ら

397:login:Penguin
08/12/19 04:36:05 I6X68B5n
>>393
全然ダメ。構造と振る舞いが区別できてない。

RAIDもJBODも記憶領域の構造をどうするかという話。
それ単体では並列化とは何の関係もない。
分散されたそれぞれの書き込みオペを逐次にやったとしてもRAID0だし、
各ドライブに並列的に書き込んでもRAID0。
逆にJBODで複数ドライブにまたがる書き込みを並列で処理しても良い。

>>396
RAIDもJBODも単なるストレージ構成法の一つ。
本質的なところではパフォーマンスとは何の関係ないが、
ストレージの構造は並列化等の実装に影響を与えるわけで、
それがパフォーマンス特性になって出てくる。
なので、個々の製品のパフォーマンスについては
RAIDやJBODの種類と同時に実装もきちんと見ていかないとまずい。

398:login:Penguin
08/12/19 09:39:33 N95hrrbA
>>397
横から見ていた者だが、"並列"の意味が377と違うんでないか?
377はボリュームに対する並列アクセス、397はドライブに対する並列アクセス
を前提に書いてる気がする。

あと、
>RAIDもJBODも単なるストレージ構成法の一つ。
>本質的なところではパフォーマンスとは何の関係ないが、
これは違うべ。
何らかの性能を上げるために構造を考えるんだろ。

399:login:Penguin
08/12/19 09:50:41 HVbKjCGk
そもそも冗長性確保のためのデータの配置が定義されているわけで
性能については実装任せなんだが

400:login:Penguin
08/12/19 12:28:20 ZzooiCVr
RAID Level 0については確実に性能はアップするでしょ。
仕組み上。
Level 0そのものは正確には"RAID"ではない
(RAIDのRはRedundant = 「冗長性のある」だが、Level 0 は冗長性なし)けど、
速度向上目的で他のLevelと組み合わせて使うRAID技術の「一部」だよね。

JBODは"Just Bunch Of Disks"。
基本的には名前の通り「単にディスクをまとめただけ」で
それが性能向上に繋がるかどうかは実装次第。

では。

401:login:Penguin
08/12/19 13:37:26 W75DRFXy
「パフォーマンス」「性能」の定義がバラバラな気がする。

402:login:Penguin
08/12/19 16:18:22 I6X68B5n
>>398
>何らかの性能を上げるために構造を考えるんだろ。

だからわざわざ「本質的なところでは」って書いたんだが。

>>400
>RAID Level 0については確実に性能はアップするでしょ。
少なくとも構造上はアップしない。以下再掲。
分散されたそれぞれの書き込みオペを逐次にやったとしてもRAID0だし、
各ドライブに並列的に書き込んでもRAID0。
RAID0がRAIDかどうかってのは、本筋には何の関係もない蘊蓄。

>>399
同意見

403:login:Penguin
08/12/19 16:21:37 HakcTdSU
これだから原理主義者は

404:login:Penguin
08/12/19 16:28:34 I6X68B5n
そりゃ原理理解できてなきゃ話にならんからね。

405:login:Penguin
08/12/19 20:28:43 N95hrrbA
>>402
もう1行引いておくべきだったか。
おまいさんの言う"本質的なところ"はおかしくないか?、ってのが言いたかった。

単一I/Oに対するバースト転送速度を上げたい、ってのが目的で、
それが期待できる記憶領域の構造の一つとしてRAID0があるんだろ。
だから俺は、単一I/Oに対するバースト転送速度を上げたい、ってのがRAID0の本質だと思う。

もちろん、どんなRAID0でもこの目的が達成できるわけじゃなくって、
実装もちゃんと見ていかなくてはまずい、って点には同意。

極端な例で、例えばドライブ一台にパーティション二個切ってRAID0組めば、
RAID0だけど性能はグダグダ。


406:login:Penguin
08/12/19 20:41:15 AyOb8rM1
>>405
どんな目的で選ばれたり、どんな実装をされるかに関わらず、
RAID0(ストライピングの方が正確か)は構造を指した用語なんだから構造が本質。
それに、第3段落で言っているように「どんなRAID0でもこの目的が達成できるわけじゃな」いということは、
それはRAID0すべてに成り立つ特性ではない。つまり本質ではないということになる。

407:login:Penguin
08/12/19 21:34:55 N95hrrbA
う~ん、おれは目的が本質だと思っているんで、
「RAID0の本質を誤った実装」みたいな言い方をするんだが、
おまいさんは定義が本質か。


408:login:Penguin
08/12/19 23:02:52 HVbKjCGk
RAID0もバカみたいな実装にすれば

Disk1のストライプ1
Disk2のストライプ1
:
DiskNのストライプ1
Disk1のストライプ2
Disk2のストライプ2
:
DiskNのストライプ2

なんて単体ディスクよりはるかに遅い実装で作れる
でもRAID0なのよね

409:login:Penguin
08/12/19 23:05:43 zWWlzXIk
ストライピングの定義が構造のみで振る舞いは全く含まれてないなんてどっかにソースあるのか?
一方は振る舞いを含む、一方は振る舞いは含まないという話になってるんだから、
大本の定義をもってこなきゃ水掛け論だろ。

おれはRAIDでいうストライピングの一番の目的はスピード向上であって、
それを達成できていないものはたとえデータを縞々に入れてても、
ストライピングとは言わないと思うがな。
プログラミングでいうデータ構造の概念とは違うんじゃないだろうか。

410:login:Penguin
08/12/19 23:07:28 HVbKjCGk
まずはヘネシー、パターソンの原典を読んでこいよ

411:login:Penguin
08/12/19 23:20:22 zWWlzXIk
読むのはいいけど「原典」という名の資料はないのだが。
具体的な書籍名なり論文名なりを提示してもらわないとわからん。

412:login:Penguin
08/12/19 23:34:42 I6X68B5n
409自己否定してどうするw
データを縞々に入れるのがストライピングだ

413:login:Penguin
08/12/19 23:44:37 asZoZApZ
RAIDが最初に定義された論文
URLリンク(www.cs.cmu.edu)
書籍は
『コンピュータアーキテクチャ 定量的アプローチ 第4版』
がヘネパタの日本語訳の最新版なのでこれがいいんじゃないですかね。
ってもヘネシーRAID0については定義してないんじゃなかったっけ・・・?

414:login:Penguin
08/12/20 01:00:39 qv2fz/ke
そもそもなんでJBODなんて新しいネーミングを作ったんだ?
構成としてはRAID0まんまなわけで・・・

415:login:Penguin
08/12/20 01:25:33 +TD+IQmn
どういうボケだよ

416:login:Penguin
08/12/20 10:26:30 JWNLY8jx
>>412
データが縞々であるのは必要条件であって十分条件でないのではと言ってるんだろ。
それと「原典読め→原典って具体的にはどれ?→思いっきり無視」ってどういうことよ?
ほんとに「原典」を知ってたらすぐにこれだと言えたんだろうけどな。

>>413
サンクス。これっぽいな。
URLリンク(itpro.nikkeibp.co.jp)
によると、これでlevel1~level5まで発表したが、
あとでlevel0とlevel6を追加したらしい。
JBODの説明も書いてあるな。>>370はこれを参照したんじゃないだろうか。

というわけでlevel0に関しては記述がなかったが、
>>386で以下のように書いてあるからlevel5のところを参照した。たぶん同じやつの書き込みだろう。
縞々でパフォーマンス向上を目指してるのは変わらんしね。

113~114ページによると、level3では1グループで一つのI/Oしか実現できなかったのを、
level4では「parallelism」を通して小さな転送のパフォーマンスを改善したとある。
parallelism→一度に一つ以上のI/Oを行うこと。
ディスクの動作を非同期にして独立させて動かすんだな。
大きな転送についてはディスクが同期して動いても「待ち」があまりないから、
結果としてlevel3と速度的には変わらないらしいな。比較の表がおもしろい。

んで発展型としてlevel5はチェック情報を分散させるとある。
「sequential」の可能性があったチェック情報の書き込みの問題が解決されるから、
小さい変更だが効果は大きいとあるな。

というわけで「原典」にも並列アクセスについて思いっきり言及されてると思うのだが。
おれのつたない英語力のせいで誤解があったら言ってくれ。

大先生たちもとんでもない曲解に苦笑いだろうな。
「ワタシタチノイトヲゼンゼンリカイシテナイヨ・・・」

417:login:Penguin
08/12/20 18:40:52 +TD+IQmn
>>416
おまいさん、なんか相手取り違えて同一人物認定してないか?
とりあえず落ち着け。

で、だ。原典を神聖視するのはまあ悪いことではないが、
初学者にありがちな失敗でもある。原典から研究が進むにつれて
解釈が変わっていくことはままあるということにも気をつけてくれ。

418:login:Penguin
08/12/20 21:39:58 JWNLY8jx
どんな切り返しだよ

419:login:Penguin
08/12/21 02:30:28 A3gaIsOr
猿真似で返しか
結局まともな反論は出来ないわけね

420:login:Penguin
08/12/21 18:23:06 fQM9DRN3
なんか基地外がわいてるな
スレをあらさないでほしいのだが

421:login:Penguin
08/12/21 22:35:58 nIipvi9z
マターリで何気に良スレだったのにね

422:login:Penguin
08/12/22 00:13:56 Fbk41wIC
そういえばそろそろ冬休みだったな

423:login:Penguin
08/12/22 07:07:57 iFW65CKw
3wareのRAIDカードでAlt+3でBIOSに入ったのですが
そこからどうすればミラーリングできるのかが
いまいち設定方法等わかりません
どなたか教えてください

424:login:Penguin
08/12/22 07:40:58 Fbk41wIC
>>423
URLリンク(www.3ware.com)

425:login:Penguin
08/12/22 11:17:44 iFW65CKw
>>424
表示上ではうまいことRAIDになってるのですが
そのドライブにWindowsXPを入れようとすると
ブルースクリーンになってしまってます(泣
なぜなのでしょうか?

426:login:Penguin
08/12/22 14:07:13 wBxKXJqm
>>425
F8かなんか押してドライバは入れた?

427:login:Penguin
08/12/22 15:06:49 iFW65CKw
>>426
正規品のCD使ってたのですが、バックアップしたCDでインストールしたら
普通にインストールできました。
で、インストール完了して再起動♪って思ってたらマザーのBIOSで
HDDが見つからないって、言われるorz
マザーのBIOSで確認すると、HDDを選択するところにRAIDカードがない!(汗
再度、WindowsXPのCDを入れてみたが、普通に見えてる・・・
もしかして、RAIDカードで起動ドライブに指定することができないのかな??
。・゚・(ノД`)・゚・。 ウワーン
なんか特殊な設定が必要なの?それともマザーのせい?
マザーはAOpen i965GMt-LA使ってます

428:login:Penguin
08/12/23 02:37:53 uzKBah8c
>>427
URLリンク(download.aopen.com.tw)
ここのマニュアル見る限り、
Advanced BIOS Feature > Boot Other Device
の設定でいけるんじゃないかと思った。
試してみてちょ。

429:login:Penguin
08/12/24 13:49:52 T5ngbbX3
 色々調べたり、質問スレで聞いたりしたのですが、分からなかったので質問します。
ICH10RでRAID0を構築しているのですが、ここに既存のNTFSを残したままFedora10を
インストールする事は出来ないでしょうか。
KNOPPIXでEXT3*2とSWAP*1を用意する事には成功しています。Ext2Fsdでも認識しています。
ところが、Fedora10をインストールしようとした時だけ、パーティーションテーブルが読み込めないという
エラーを出します。
これはどのようにFedoraをインストールすればいいのでしょうか。


430:login:Penguin
08/12/24 13:55:48 RefXxMd7
>>529
あきらめれ
URLリンク(forums.fedoraforum.org)

431:login:Penguin
08/12/25 18:08:23 0Q8kCwwH
mdadmでPATA×5台のRAID5アレイを組んでるんだけど、先日ハードウェアいじってないのに突然rebuildが始まり、
途中でOSごとフリーズ(無反応化)する、という現象に遭遇した。
ハードリセット掛けると一旦OSは正常起動するが、やっぱりrebuild途中で死亡。
/proc/mdstatを見ると、rebuild中であるにもかかわらず、[UUUUU]の表示でどれがイカれてるのか分からない。
その後、フリーズ中もアクセスランプが点きっぱなしになってるドライブを見つけ、
新しいドライブと交換したら無事rebuild→正常動作となった。

一台ドライブが故障しても正常に動き続けてくれなきゃRAIDの意味がない。
ましてやOSごと落ちるってのは最悪。(RAID上はデータ領域のみで、システムは別ドライブだったのに)
この種の現象はLinuxのソフトウェアRAIDではしばしば起こるものなの?
別PCのハードウェアRAIDではこんな経験したことないんで、ちょいとソフトウェアRAIDに対する信頼感が弱まった。

432:login:Penguin
08/12/25 19:08:37 zW/EYcXM
参考のためカーネルのバージョン報告よろしく

433:login:Penguin
08/12/25 19:10:58 BVWOzN/G
PATAコントローラの種類もよろしく

434:login:Penguin
08/12/25 19:16:48 ezPuey+U
昔SCSIのRAIDだけど、
HDDのバスコントローラ死亡→同じSCSIバスのHDD全部アクセス不可→SCSIドライバ悩む
の流れで固まったことがある。
ドライバできちんとエラー処理して、OS本体を巻き込まないようにしてくれないと…


435:login:Penguin
08/12/26 00:04:12 fn7jsL/s
>>431
それはSW-RAIDというよりディスクコントローラの問題では?
mdレイヤとしては下位のディスクコントローラの報告を信用するしか無いわけで、
ディスクが死んでてもコントローラが正常と報告すればUUUUUになるし、そのまま
アクセスすれば何らかの問題が起こって、ドライバがカーネルモードならフリーズとかね。
推測だけど、その問題のディスクには単体でアクセスしてもフリーズしたんじゃないかな。

でもって、HW-RAIDでも当然実装次第で同様の問題は起こりうる。
組み合わせが限定できるから実際にはトラブルは少なめとは思うけど。

436: ◆Zsh/ladOX.
08/12/26 00:16:59 PlTA5U0q
なんだ、圧倒的じゃないか。
URLリンク(www.theinquirer.net)

437:login:Penguin
08/12/26 00:47:13 W2RM7LsO
そういえばHW-RAIDの癖に片方failした時にご丁寧にLinuxにも
アクセスエラーを返してOSごとお亡くなりにしてくれた"HW"-RAIDもあったな・・・


438:login:Penguin
08/12/26 15:40:43 w2+94DnQ
>>432-433
現在入ってるのは kernel 2.6.16、mdadm 2.5.5。
問題のRAIDアレイは2.4時代の raidtools→mdadmと移行して、合計三年くらいは運用しているもの。
PATAコントローラは Promise TX2(PDC20269)が二枚とクロシコのIT8212のやつが一枚の
合計三枚挿しで計6ポートのうち5ポートを使って各1台ずつのドライブ。
(クロシコのは比較的最近追加した)

トラブったドライブはTX2につながってた分。

439:login:Penguin
08/12/26 15:43:29 w2+94DnQ
>>435
> それはSW-RAIDというよりディスクコントローラの問題では?

それはそうなんだけどポイントは、結局の所、RAIDとディスクコントローラとが
同じシステム上にあるから、ディスク側のトラブル発生で「OSごと死亡」の可能性が高い
(独立したサブシステムであるハードウェアRAIDに比べて)というのがソフトウェアRAIDの
弱点なんだな~、というとこ。
ま、それは >>435さんも書いてるけど。

RAIDの目的を考えると、これはちょっと、というか実は結構大きな弱点だよね。

ハードウェアRAIDのメリットは運用上の利便性がほとんどで、
信頼性はソフトウェアでもハードウェアでも大差ないだろ、
とわりと気楽に思ってたんで、今回ちょっと考え方を改めた、というお話。

440:439
08/12/26 15:47:17 w2+94DnQ
あ、書き間違いだ。

> RAIDとディスクコントローラとが

「OSとディスクコントローラとが」でした。

さらに書き忘れたけど、
当然のことながら >>438-439 = >>431です。

441:login:Penguin
08/12/26 23:57:44 4qL9WRZf
>>439
なるほど。
完全に1デバイスに見えるタイプのHW-RAIDはSATA/SAS IFが
システム境界になって影響が波及しないから、その点では安心ですね。
PCI/PCIe式のHW-RAIDの場合はSW-RAIDに近い問題を抱えるかも?
構成の柔軟性を取るならSW、パフォーマンスとかシステムコンポーネントの
独立性をとるならHWってところですかね。

442:login:Penguin
08/12/27 00:16:21 DstI2+OC
SASなりFCなりで接続する別ボックスで
コントローラや電源なども冗長化されてないと安心して使えないよ

443:login:Penguin
08/12/27 00:22:48 CHbsSHY3
まぁ、そこらへんは目的に合わせたトレードオフでしょう。
安心に存分にコストを掛けられるなら442が適してるでしょうし。

444:login:Penguin
08/12/27 20:07:44 eSSKLpWE
>>428
最終手段・・・aopenに問い合わせてみた。

平素より弊社製品をご利用頂きありがとうございます。
先日ご報告頂いた件について確認いたしましたところ、
BIOSの欠陥を確認いたしました。
現在、本社技術部門で修正BIOS等について検討中でございますので、
結果回答については、今しばらくお待ち頂けますようお願い申し上げます。
ご迷惑をお掛けしておりますことを深くお詫び申し上げます。

って返信来ました。
皆様、ありがとうございました。

445:login:Penguin
08/12/27 20:27:15 CHbsSHY3


446:login:Penguin
08/12/27 22:03:41 siPqVhlW
>>444
乙。たぶん他で悩んでた何百人かがこれで救われたな。

447:login:Penguin
08/12/27 22:13:23 yXeo6tkq
>>438
PDCなんて、動いてるときはいいけど、なんかトラブるととたんに最悪に
なるチップだというのに。ご愁傷様。

448:login:Penguin
08/12/29 14:12:36 sawoMW0p
>>447
このスレ(過去スレ含む)見てると、
HW-RAIDはRAIDコントローラのハード的故障の可能性があるが、
SW-RAIDにはそれがないので、信頼性はむしろ高い、てな話が何度か出てたと思うけど、
現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。

つか、OS共倒れになる危険性や、多ポートを利用するために複数のコントローラを
用意しなければならないことを考えると、SATA/PATAに関してはSW-RAIDの方が
ハードウェア的なリスクが高い、というパラドックスすら。
ま、HDD 2台でのRAID 1程度ならばM/Bオンボードのコントローラだけで賄えると思うが。

449:login:Penguin
08/12/29 14:13:19 sawoMW0p
すると、Level 4 以上のSW-RAIDを使うならSCSI使えってことになるんだろうけど、
こうなるとコストの点でのメリットは皆無になるんだよな。
SATAの「まともな」HW-RAIDを選んで買った方がトータルでは安上がりだろう。
(そも、SATAは「まとも」なのか、というのは置いといて)

結局SW-RAIDのメリットって、本当に「構成の柔軟性」だけってことになっちゃうのか?
(信頼性を犠牲にすれば超安上がり可能、というコストパフォーマンス面での柔軟性も含めて)

450:login:Penguin
08/12/29 21:18:25 W2yC0jiU
>>448-449
>現実にはコントローラの信頼性に依存するという点では両者変わらない、ということか。

そんなに単純な話じゃないよ
種類の違うリスクだから、足し算引き算みたいな単純な比較には何の意味もないし、
故障の可能性っていう一面だけを見るのもどうかと。

故障の可能性も重要だが、運用コストや復旧の容易さなど
考えないといけないことは沢山ある。
例えばmdでのRAIDなんかは操作にroot権限が必要だけど、HW-RAIDなら
極端な話HDD抜いて入れればOKだから一般オペレータでも対処可能で
実運用での分業をしやすい、とか。
そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。

451:login:Penguin
08/12/29 22:38:14 UoG3grAC
一般オペレーターって具体的にどんな感じかよくわからんが、
「一般」な人たちにマシンのハードディスクを抜いたりさしたりしてほしくないのだが・・・

452:login:Penguin
08/12/30 02:18:12 XDcWQoWA
>>450
> 故障の可能性っていう一面だけを見るのもどうかと。

一面だけを見てるのではなく、それがSW-RAIDのメリットだと言われてたことが
実際にはそうでもないよな、という点を書いただけだが?

> そういう対処の迅速化もサービス停止のリスク回避、つまり信頼性に寄与しうる。

そういう「運用上の利便性」がHW-RAIDのメリットだというのは
既にさんざん書かれてるんで、誰でも知ってる。
豊富な知識を開陳したいならば、
むしろ、SW-RAIDのメリットは他にないの? というところに答えて欲しいものだ。

453:login:Penguin
08/12/30 04:28:56 bFaePHo0
まーroot持ってる奴は少ない方が安全だろう
少なすぎるのもトラックナンバー的にアレだが

>>452
そーいう態度は周りが話しづらくなるからおまいさんの得にもならんよ
なんか嫌なことでもあったの?

454:login:Penguin
08/12/30 08:59:43 1n4+uaKz
ストライピングは速くなるとは限らないのやつ、まだいたのかよ

455:login:Penguin
08/12/31 02:54:03 dG9Ns93a
ん、実際に速くなるとは限らないけど?

456:login:Penguin
08/12/31 13:46:49 wmBwgOvB
またバカがわいてきたか。
大掃除も終わって暇だからソースを出せと煽ってみる。どうせ出せないだろうけど。

457:login:Penguin
08/12/31 13:57:16 dG9Ns93a
ほれ。
URLリンク(www.runser.jp)

RAID0のストライプ単位よりアクセス単位が大きい場合、
複数のヘッドがシークする必要があるけど、
その場合シークタイムが最悪値に合わせられるのが原因。
特にストライプ単位より小さいランダムアクセスで問題になる。

458:login:Penguin
08/12/31 14:13:29 dG9Ns93a
間違えた。
特にストライプ単位より小さい→特にストライプ幅より小さい

あと、俺は454の言ってる奴とは多分別人。残念。

459:login:Penguin
08/12/31 15:05:32 wmBwgOvB
CPUの性能を比較するのに浮動小数点演算にフォーカスするのと変わらんね。
速くなる場合もある、遅くなる場合もある、なんて一個一個つまんでも無意味。
実際使う場合に全体のパフォーマンスがどうなるかが重要でしょ。

せめてOSの起動時間とかアプリ使用時の速度とか大容量ファイルの入出力とかデータベースのアクセス時間とかで計測しないと。
おれはシステム作ってるがデータベースに関しては完全にスピードアップで議論の余地ないね。
データ容量に対してメモリ容量が少ないときほど効果的。当たり前だけど。

460:login:Penguin
08/12/31 15:45:02 dG9Ns93a
ソース出されて涙目
必死に論点すげ変えようとしても無駄だよ

461:login:Penguin
08/12/31 16:08:42 VoiH1vp1
最近無意味に偉そうな人多いよね

462:login:Penguin
08/12/31 16:22:17 NaughPYZ
>>457
ストライプサイズは大きすぎても小さすぎても駄目という、
当たり前の事が示されたに過ぎないと思うんだが、
リンク先の内容はそれ以上の何か意味があるの?

RAID-0がランダムアクセスに弱いのは常識でしょ?
極端な例を出せば1byteのデータ書き込みはRAID-0でも絶対に速くならない。

463:login:Penguin
08/12/31 16:36:19 wmBwgOvB
>>460
おまえのシステム構成に関する考え方が根本的にずれてるだけ。
来年はもっとがんばれよ。

じゃあ今年おつかれ。

464:login:Penguin
08/12/31 22:17:20 zy8sz8rj
上のほうで話題になってる
SW-RAIDで、ディスク不調になるとシステムごと固まるのって結構痛いよね
RAID専用のLinuxマシン立ち上げてsmbmountかNFS使うしかないのか?

465:429
09/01/01 15:37:19 bpOiYOEo
openSUSE 11.1を試したら、GRUB以外はインストールは出来たのですが、
GRUBのみインストールが出来ません。MBRにもPBRにもインストール
出来ません。
1TB*2 のRAID0です。
フロッピーからsuper grub diskを使っても読み込めませんでした。
/boot以外のファイルは、Ext2Fsdで見てもちゃんとあります。
現在のMBRのブートローダーはMBMです。
出来れば、二段階ブートにしたいのですが、
どうすればいいでしょうか。

466:login:Penguin
09/01/03 23:22:51 t9OrvzZp
あけおめ

>>462
> RAID-0がランダムアクセスに弱いのは常識でしょ?

うん、だから>>455なわけで。

>>463
元の流れにない勝手な俺仮定を持ち出してよく言うw

467:login:Penguin
09/01/04 09:47:01 jNugnejt
ミラーリングの場合、ライト時は二つのディスクに書き込んでいるのはわかるけど、
リード時は、どうなんだろう。
やはり、二つのディスクから読み出しているのかな。あるいは、どっちか片方からなのかな。



468:login:Penguin
09/01/04 14:46:39 U5nW6Zhm
>>467
たしか両方から半分ずつ読み出すようなアルゴリズムになってた気がする
だからWriteは単体時と同じか遅いけど、Readは単体時よりも早いはず

469:login:Penguin
09/01/04 14:48:08 U5nW6Zhm
拡張されてる場合は↑みたい

wikipediaより
本来RAID 1の読み出しは、一つのドライブのみにアクセスし、もう片方は、完全なバックアップドライブである。これを双方から読み出すようアルゴリズムを拡張することで、理論上、単体ディスクの2倍の速度で読み出しを行える。

470:login:Penguin
09/01/04 23:55:36 jNugnejt
>>468 >>469
オンボードのbios_raidじゃあ、いくら最新のgigabyteマザーでも[拡張]ではなさそうだなあ。
でももし「拡張」だったら、ミラーリングでも、raid0の分散高速読み出しの恩恵を受けられるのか。
なんか、読み出しだけだけど得した気分だな。



471:login:Penguin
09/01/05 00:56:01 tYf1sft+
>>467
結論から言うと実装次第。並列読みも可能だし、片方からの場合もある。
mdのmanによると、速くなりそうなときだけ並列読み。
Windowsのミラーリングだと高負荷時のみ並列だったか。
他はそれぞれの説明書読んだり問い合わせすべし。

>>468
また来たか

472:login:Penguin
09/01/05 01:29:27 HmcpyJ9r
>>471
ああそうか、mdデバイスに拠るんだね
勘違いしていました。ハードウェアに「拡張」実装されているんじゃないんだ
ソフトウェアレイドの方が、拡張などがあって、融通が利きそうだと思った



473:login:Penguin
09/01/05 01:48:25 tYf1sft+
>>470
並列読みだしできるRAID1として、シーケンシャルアクセスだと
トラックシーク+回転待ち時間 < データ読みだし時間 じゃないと恩恵は無い。
ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り

474:login:Penguin
09/01/05 03:09:42 HmcpyJ9r
片方のディスクでトラックシーク+回転待ち時間を待ったとして、
それでもデータ読み出し時間で得があれば、並列読み出しraid1がなされるわけか
なるほど。
確かに、連続した収まり方をしたデータの読み出しの場合は片方のディスクを作動させるのは余計に時間がかかるなあ

>ランダムアクセスとかシーク多発な並列シーケンシャルアクセスなら効果有り しかし、そういう時間を計算して並列読み出しをするか決めるmdシステムはすごいと思う。
納得できました。

しかし、そういう時間の損得を計算して、並列読み出しを決定するmdデバイスってすごい!




475:login:Penguin
09/01/05 11:22:48 HmcpyJ9r
cat /proc/mdstat に何も表示されない場合、
それは、fedora10が、オンボードbios_raidミラーリングをハードウェアraidとして認識しているからでしょうか。
bios上ではraidアレイはfunctionalになっていたし、
インストーラーでも、確かにraid構成を見ることができていました。

dfでは次のように表示されます

/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm




476:login:Penguin
09/01/05 11:35:50 DlvIpe94
>>475
多分なってないよ。それ。dmesg貼ってみれ

477:login:Penguin
09/01/05 15:46:14 DdhiA30p
>>475、それ、BIOSでRAIDサポートしてて、有効にしてるんなら、mdでなく、dmraidが動いてないけ?
# dmraid -s
# dmraid -n
# dmraid -r
とか叩くとなんかでないか?

478:login:Penguin
09/01/05 16:19:36 HmcpyJ9r
>>476
関係ありそうな部分だけ貼ってみます
その1
<略>
ahci 0000:00:11.0: version 3.0
ahci 0000:00:11.0: PCI INT A -> GSI 22 (level, low) -> IRQ 22
ahci 0000:00:11.0: AHCI 0001.0100 32 slots 6 ports 3 Gbps 0x3f impl RAID mode
ahci 0000:00:11.0: flags: 64bit ncq sntf ilck pm led clo pmp pio slum part
<略>
ata1: softreset failed (device not ready)
ata1: failed due to HW bug, retry pmp=0
ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata1.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata1.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata1.00: configured for UDMA/133
ata2: softreset failed (device not ready)
ata2: failed due to HW bug, retry pmp=0
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata2.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata2.00: configured for UDMA/133



479:login:Penguin
09/01/05 16:21:12 HmcpyJ9r
その2
scsi 0:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sda: sda1 sda2
sd 0:0:0:0: [sda] Attached SCSI disk
sd 0:0:0:0: Attached scsi generic sg0 type 0
scsi 1:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdb: sdb1 sdb2
sd 1:0:0:0: [sdb] Attached SCSI disk
sd 1:0:0:0: Attached scsi generic sg1 type 0





480:login:Penguin
09/01/05 16:21:42 HmcpyJ9r
その3
<略>
device-mapper: multipath: version 1.0.5 loaded
EXT3 FS on dm-0, internal journal
kjournald starting. Commit interval 5 seconds
EXT3 FS on sda1, internal journal
EXT3-fs: mounted filesystem with ordered data mode.
Adding 3604472k swap on /dev/mapper/VolGroup00-LogVol01. Priority:-1 extents:1 across:360
4472k


481:login:Penguin
09/01/05 16:24:04 HmcpyJ9r
>>477
それらしきものが、出ました
# dmraid -r
/dev/sdb: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
/dev/sda: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0

# dmraid -s
*** Set
name : pdc_cbabhifjd
size : 976642048
stride : 128
type : mirror
status : ok
subsets: 0
devs : 2
spares : 0


482:login:Penguin
09/01/09 13:18:07 +j59FScV
このスレの人たちって、自作板のRAIDカードスレのように自分でインスコ、設定とかやったことあるの?
あっちはLinuxユーザが少なくて情報得るのに苦労してるわ・・

483:login:Penguin
09/01/09 13:22:01 R08Zc+c9
Linuxユーザーは「本物の」RAIDカードしか使わないからじゃないの?

484:login:Penguin
09/01/09 19:09:59 /ZwuDsYt
俺が使ってる3wareなら今じゃドライバは標準で入ってるし、
ユーティリティ類も普通にインストーラで入るし。
kernel2.4のときはドライバはtar玉から入れてたけど
それも特に苦労をした記憶はないな。
少なくとも俺は。
書いてある通りにやれば普通に入った。
まともなメーカーのを使えば、どれでもそんなもんじゃないの?

ソフトウェアRAIDだって、
ちょっと検索すりゃ親切丁寧な解説サイトは
いくらでもあるし。

一体何をそんなに苦労してるんだか知らんけど。

485:login:Penguin
09/01/09 20:26:31 +j59FScV
>>483
本物ってハードウェアRAIDのこと?あのスレの連中はそっちのほうが多いけど。
自分の印象では、ジサカーと違ってLinuxユーザはハードに大金をかけない人が多い気がする。
RAIDもmdraidのミラー程度でささやかにやってるイメージ。
あ、馬鹿にしてるわけじゃないぞw

>>484
標準的な鳥を使う分にはほとんど問題ないけど、変にメーカーがカスタムしたやつだとトラブるときがある。
メーカーに聞いても「そんなの知らん」で終わりなんで、自力でやるしかない。

486:login:Penguin
09/01/09 22:25:36 +wvRjhFl
Windows特有なのが、RAID0で起動を高速化って文化じゃないかな?
それがあるから、フェイクRAIDが大人気。

Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから
結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。
Windowsにmdドライバやmdadmが移植されれば
フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ?

つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win
「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz


487:login:Penguin
09/01/09 23:52:35 Al1IJSIe
mdと、dmってどう違うの?
意図して文字列を逆にしているみたいに思える。

488:login:Penguin
09/01/10 01:48:52 loOCjssc
>>487
md: LinuxのソフトウエアRAIDドライバ
dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

>>485
本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。
例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。
具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。

個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch