LVMを語らせていただけませんか?at LINUX
LVMを語らせていただけませんか? - 暇つぶし2ch113:login:Penguin
04/01/28 16:07 p//kBex1
RAIDの話とかでてるし、この図見てたらハードディスク1つの人には
関係ない話なのかなぁと思っただけ。
URLリンク(www.itmedia.co.jp)

おもしろそうだからさっそく試してみるか。

114:login:Penguin
04/01/28 22:42 B1flgUdw
>>113
ディスク1本でもパーティション分けてる人は有効だよん
動的に拡張できるし

115:login:Penguin
04/02/05 17:55 N4wUKkZN
TabとSpaceとEnterで操作できる工具が欲しいよぅ


116:login:Penguin
04/02/05 19:28 pweqheS2
質問というか確認。kernel 2.4.21 での LVM1 は PE サイズを大きくしても
2TB 以上の LV を作れないようだが、

[mona@2ch mona]# /sbin/vgcreate -s256m work /dev/sda1
vgcreate -- INFO: maximum logical volume size is 2 Terabyte
vgcreate -- doing automatic backup of volume group "work"
vgcreate -- volume group "work" successfully created and activated

これはそういうものなのかな? ちょうど 3TB (fs の制限にはひっか
からない) の Volume を作りたいのだが。
対案も募集。LVM2 だと幸せになれたりする?

117:login:Penguin
04/02/05 19:41 pweqheS2
ついでに LVM のうれしさについて一席ぶつ。
旧来は、disk 容量たりなくなったー、といったら新しい disk を
/home1,/home2,/home3 とか増やしていって、容量の調整の mv で
無駄な時間を費やしていたわけだ。これはどこにおいたらいいんだ?
もストレス。

これを単一の /home にまとめて扱えて、しかも動的に増やしたり
減らしたり(あまりないけど) できたら便利だと思わないか。
つーかふつー LVM

使うだけなら >>110 の言うこの2文書読めば死角なし。細かい
用語はそのうちわかってくる。ただし、冗長化はしないので、
>>100 の言う通り、raid1,5 の上で使うのがベストではある。

URLリンク(www.linux.or.jp)
URLリンク(www.itmedia.co.jp)

118:login:Penguin
04/02/06 12:49 OjypMQGg
LVMにreiserfs作ろうとすると
reiserfs_create_journal: cannot create a journal of 8193 blocks with 18 offset on 8192 blocks
って出て失敗するんだけど、どうしたらいいの?
ちなみにPEは32Mでext3とxfsは問題なく作れる

119:login:Penguin
04/02/08 16:28 aFzkEREw
>>116
man vgcreateによれば、Block Deviceのサイズ制限(2TB)らしいが。
2.6系ならCONFIG_LBDがある。2TBなんてディスク無いんで未確認だけど。

>CONFIG_LBD:
>Say Y here if you want to attach large (bigger than 2TB) discs to
>your machine, or if you want to have a raid or loopback device
>bigger than 2TB. Otherwise say N.

ただ、LVM2(device-mapper)がまだ怪しいんで、単一のファイルが
2TBを越えないなら2.4系で複数のLVに分けた方がいいと思う。
俺はかなり久しぶりにファイルシステム壊した。
2.6.0の頃の話なので、最新Versionでは改善してるかもしれんが…
LVM2でやったらレポート希望

120:login:Penguin
04/02/09 22:29 KbcU0gyW
>>119
むー、単にファイルサーバじゃなく 上でじゃがじゃがやるマシンなので、
LVM2/2.6.x はヤメとくことにした。情報ありがとう。

まだマシンの本稼働までには時間があるので、時間があれば試すだけは試してみる。

121:login:Penguin
04/02/10 19:37 t+3Za9lM
家はLVM2/2.6.2だけど全然問題ないよ

122:login:Penguin
04/02/10 21:58 ZJuqC/70
2.4のXFSでたまに気がつくとファイルの中身が全部0になっていること
があるんだか、そんな経験ないですか?うちは覚えているだけで2回目。
/boot以外全部XFSでのマシンで。

123:login:Penguin
04/02/10 21:59 ZJuqC/70
>122
すまん、スレ違い。レスは該当スレにヨロシク。


124:login:Penguin
04/02/12 12:17 Rdb56AUc
vgextendでVGに割り当てたディスクをVGから外すとき、pvremoveしても問題ない?

125:login:Penguin
04/02/12 13:31 0EKzsiYE
以前使っていたマシーンからvgexportでVGを取り出して
新しいシステムに移し、vgimportを実行しましたが上手く取り込めないのです。

vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- found exported volume group "discPV_EXPPV_EXPPV_EXP"
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group

vgimport disc /dev/hd[bdefh]1
vgimport -- ERROR: wrong number of physical volumes to import volume group "disc"

こんなエラーが出てしまうのです。
そもそも何故"discPV_EXPPV_EXPPV_EXP"になってしまったのが解らないのですが・・・

vgimport discPV_EXP /dev/hd[bdefh]1
vgimport discPV_EXPPV_EXP /dev/hd[bdefh]1

試しにこのようにしてみたのですが結果は同上でした。



126:125
04/02/12 13:32 0EKzsiYE
必要なディスクは全てあるのを確認しております。

--- List of physical volume UUIDs ---
001: cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA
002: sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p
003: nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z
004: ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq
005: YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF

PV Name /dev/hdb1
PV UUID nIF6Zr-uE5h-Fq6W-n8FY-eD50-4E2D-ZZko4z

PV Name /dev/hdd1
PV UUID ExsNWE-DOb6-k2NN-cOfs-Qxl8-6GtZ-UZ9elq

PV Name /dev/hde1
PV UUID sdtuUo-ayhh-MdWh-JYZv-67HD-uE6r-kc250p

PV Name /dev/hdf1
PV UUID cigRmZ-xMzR-PzV5-tk47-EmFy-pB9z-0BCuTA

PV Name /dev/hdh1
PV UUID YruuGn-NAQR-5RWy-YFaU-bBaz-qxa6-0MPCoF

何が悪い(原因)なのかお心当たり有る方、是非ご教授頂けませんでしょうか?
よろしくお願いします。VGに納められているデータは絶望的なのでしょうか・・・


127:login:Penguin
04/02/12 14:00 oIFlb4da
>>125
PV_EXPはvgexportするときにLVMがつけるようですね。
URLリンク(www.spinics.net)

LVMのバグでimport出来ない場合があるようです。
URLリンク(www.spinics.net)

128:125
04/02/12 14:21 0EKzsiYE
>>127
フォローどうもです。
私も色々調べていたのですが、如何せん英語が苦手で・・・
PV_EXPの件は問題なさそうですね。データはまだ生きているのだろうか・・・

ちなみにimport出来ない件ですが・・・

Use 1.0.7.

と教えて頂いたサイトには書いてありましたが私が使っているDebianの
woodyでは lvm10_1.0.4-4_i386.deb (Source Code: [lvm10_1.0.4.orig.tar.gz])
なので 1.0.8 以降の sarge で無いとインポート出来ないのですか・・・
woodyで作ったものをインポート出来ないのはかなり辛いですね。

とりあえず、まだデータは生きている可能性が高そうなので希望を捨てずに
頑張ってみます。



129:125
04/02/12 14:43 0EKzsiYE
感激感謝雨霰
>>127さん本当にありがとうございました。

とりあえずDebianをsargeにアップグレードして
lvmを1.0.8にアップグレード後vgimportを行うと
今までの不安と失望を吹き飛ばすぐらいあっさりと
importすることが出来ました。

もうダメだろうと思って一からやり直そうと9割方データ
を諦めていて、最後にlvmを導入するきっかけになった
このスレに戻り、思い切って質問させて頂いたのですが
本当に良かったです。

本当に、本当にありがとうございました。


130:login:Penguin
04/02/12 21:31 NYEuOy2Y
>>129
よかったね。一番恐い不具合だよなぁ。

# バックア…ま、ひとのことは言えない

131:login:Penguin
04/03/31 08:45 p4gnyIqI
保守あげ

132:login:Penguin
04/03/31 08:45 p4gnyIqI
下げてた
首吊ってきます

133:login:Penguin
04/03/31 21:19 FzS93x89
LVMはすごく情報が少ないような気がする

134:login:Penguin
04/04/06 16:27 EUJs3rTZ
質問させて下さい。

二台のHDDでLVMを利用しVGを構成しているのですが
片方のHDDが電源を入れても動かなくなりました。
こういう場合、電源が入る片方のHDDに有るデータで
無事なものを抜き出すことは可能ですか?それとも
全データを失ってしまったのでしょうか?

135:login:Penguin
04/04/07 02:09 Wbtjz5Vb
>>134
多分無理だと思う。

テストで、
1)2つのパーティションをPVにしてVG作成
2)LVを2つのPVを跨ぐように作成&ファイルシステム作成
3)VGを非活動化してから、ddで片方のパーティション上書き
4)vgchange -a y でVGを活動化できず。VG死亡

2)でPVを跨がなかった場合は試してない

とりあえず生き残った方の中身をddでバックアップor別ディスクにコピーしてから
vgchangeが効くかどうか試してみては?


136:login:Penguin
04/04/07 19:35 yMwiLEKO
>>135
レスありがとうございました・・・。
でも、どんなに頑張っても無理でした・・・。
もちろんバックアップを取っていない私が悪いのですが(TT
今後はバックアップを取るように気をつけます・・・。

137:login:Penguin
04/04/07 21:04 tbnmpj7T
>>135-136
URLリンク(www.linux.or.jp)
8.2 なぜストライピングしないのか
ストライピングだけを行うと、「ビット単位」で破壊が起こる危険が出てきます。ディスクが駄目になると、
論理ボリュームの内容がおしゃかになってしまいます。
データを連続して置いてあれば、ファイルシステムの一部だけで済ませられます。

Stripingしてなかったらファイルシステムの一部を失うだけで助かるんじゃないの??
俺はずっとそう思っていたんだが。もしそうじゃなかったら俺も今すぐバックアップ
取らないと行けないな。かなり油断していた。

ソフトウエアRAID(md)と組み合わせてLVM作るのが一番無難か??

138:login:Penguin
04/04/07 21:20 YkSh897y
えっ、やってないの?

139:login:Penguin
04/04/08 17:21 KVyl6Huz
>>137
URLリンク(linux.msede.com)
壊れたドライブにデータが無かったら大丈夫らしい(?)が
複数のドライブで一つのパーテーションを実現するような使い方をしているとダメ臭いね。

やっぱり何はともあれバックアップが重要って事で。

140:login:Penguin
04/04/08 17:23 KVyl6Huz
上で>>135が言ってるけど

2)でPVを跨がなかった場合は試してない

これに関してはMailing Listの書き込みを見る限り大丈夫っぽい
って事追記するの忘れてた。

連続ポストスマソ。

141:login:Penguin
04/04/08 20:49 MyiCZN16
正直、PV をまたいだ LV で fs を使うのは危険だと思ってます。
リカバリ時に意味のある単位で backup できないから。
PV の I/O error がでた部分にどのファイルが書かれていたか、
あとからわからない限りはダメだと思ってるんですが。


142:141
04/04/08 20:52 MyiCZN16
ところで、 kernel-2.6.5 の device-mapper で、
LV を 13個以上切って使えてる香具師いますか?
なんで 13なのか とつっこまれそうだが、漏れがその辺りから使えなかったので ...


143:login:Penguin
04/04/09 19:49 sJAe50d2
LVMって実際に使い物になるの?AIXでもクリティカルな用途では
それほど、使われてないって聞いたけど。

144:login:Penguin
04/04/10 06:25 i9h2mmLK
>>143
使ったことないだけ?
使い方知らないだけ?
逆にAIXでLVM使わないでFS作る方法を教えてほしいっすよ。
漏れは、LinuxでもインストーラがLVM+ReiserFSに対応してないのは使う気になれんが。

145:login:Penguin
04/04/11 17:37 Z/hVhcsh
>>142
微妙に環境違うと思うけど、以下の環境でLV26個できてるよ。
Debian(sarge) Linux 2.6.5-mm2 + Device-mapper unstable(2.6.5-udm3)
device-mapper 1.00.15 / LVM2 2.00.11(2004-04-08)

試してて気づいたんだけど、reiserfsがのってるLVをmountしても
Open LVとしてカウントされないんだけど。。。ウチだけ?
↓26LV全部mountしてもOpenLVが16になってる
# vgdisplay
--- Volume group ---
VG Name               rootvg
System ID             
Format                lvm2
Metadata Areas        1
Metadata Sequence No  75
VG Access             read/write
VG Status             resizable
MAX LV                255
Cur LV                26
Open LV               16
Max PV                255
Cur PV                1
Act PV                1
VG Size               111.25 GB
PE Size               32.00 MB
Total PE              3560
Alloc PE / Size       1608 / 50.25 GB
Free  PE / Size       1952 / 61.00 GB
VG UUID               bnxgSD-J5Hb-70Io-TUic-EJGu-y0X5-mnvXRB


146:141
04/04/14 10:53 uDiO3j/8
>>145
情報ありがトン。
udm の patch を調べて別のマシンで実験してみます。
っていうか、こんな機能使うのに kernel-ML をチェックしていなかった漏れがバカでした(;_;


147:login:Penguin
04/05/03 23:05 xF+EBQEG
結局のところVGサイズが最大2TBの制限って解決したんでしょうか??

148:135
04/05/06 23:53 zmQQH789
>>145のreiserfsがOpenLVとしてカウントされない現象ですが、
以下の環境をゼロから作り直したら解消しました。原因は調べてませんが。

Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)

で、正直に白状すると俺は135なんだけど、>>135のレスはアホでした。
>>134には謝っておきます。すまんでした。 _o_

お詫びに以下のURLの情報をテストしてみた。
URLリンク(www.redhat.com)

149:135
04/05/06 23:56 zmQQH789
■PVを跨がない場合の仕込み
Debian(woody) / Linux 2.4.25 / lvm_1.0.8

(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成
(2)LV&ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkreiserfs /dev/testvg/hda5lv

(3)適当にファイルコピー
(4)umount→testvgを停止後、ddでhda6(全PE未使用)を埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6

(5)testvgをactiveにしようとするが当然エラー
# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- ERROR "vg_read_with_pv_and_lv(): current PV" can't get data of volume group "testvg" from physical volume(s)
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group

# /sbin/vgchange -ay
vgchange -- no volume groups found

以前はここで止めてたんで>>135みたいなレスだった。

150:135
04/05/06 23:59 zmQQH789
■PVを跨がない場合のリカバリ

破壊したhda6と同サイズ・同パーティションタイプ(LinuxLVM:8e)のhda7を使ってリカバリ

# pvcreate /dev/hda7
pvcreate -- physical volume "/dev/hda7" successfully created

○hda6のメタデータをhda7にリストアする。
# vgcfgrestore -n testvg -o /dev/hda6 /dev/hda7
vgcfgrestore -- INFO: using backup file "/etc/lvmconf/testvg.conf"
vgcfgrestore -- VGDA for "testvg" successfully restored to physical volume "/dev/hda7"

# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- found inactive volume group "testvg"
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group

# /sbin/vgchange -ay
vgchange -- volume group "testvg" successfully activated

# mount /dev/testvg/hda5lv /mnt/test/

全ファイル生還・md5一致

151:135
04/05/07 00:04 moBi7VqE
■PVを跨った場合の仕込み&リカバリ

PV,VGの作成は同じなので省略
以下のようなLVを使用してテスト。hda5/hda6から512Mずつ使用
# lvdisplay -v /dev/testvg/mixlv の結果(一部)

--- Distribution of logical volume on 2 physical volumes ---
PV Name         PE on PV   reads   writes
/dev/hda5        16      0     2
/dev/hda6        16      0     0

hda6の破壊方法とその後のリカバリ方法は上と同じなので省略
mount前にreiserfsck --checkすると、"--rebuild-treeを実行しろ"と言われるの実行

# reiserfsck --rebuild-tree /dev/testvg/mixlv
# mount -o ro /dev/testvg/mixlv /mnt/test

結果
全175ファイル
復旧 96 ( うち33ファイルはlost+foundに数字のファイル名で救出)
破壊 79 ( 消失17 + md5不一致62)

ファイルはmp3でサイズはまちまち。
計算してないけどファイルサイズ的には半分だと思う

152:135
04/05/07 00:14 moBi7VqE
★PVを跨がない場合・仕込み(LVM2)
Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)

(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成

(2)LV & ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkfs.reiserfs /dev/testvg/hda5lv

(3)他のファイルシステムから適当にコピー

(4)umount→testvg停止後、ddでhda6を0で埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6

(5)testvgをactiveに変更しようとするが、当然エラー
# vgchange -ay testvg
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find all physical volumes for volume group testvg.
Unable to find volume group "testvg"

153:135
04/05/07 00:17 moBi7VqE
★方法(a):代替PVを用意してvgcfgrestoreでメタデータをリストアする。(LVM2)

(a)-(1)破壊したhda6と同サイズのhda7でPVを作成。この際、hda6で使用していたUUIDを指定する。
# pvcreate --uuid MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa /dev/hda7
No physical volume label read from /dev/hda7
Physical volume "/dev/hda7" successfully created

(a)-(2)testvgの情報をリストアする。
# vgcfgrestore -f /etc/lvm/backup/testvg testvg
Restored volume group testvg

(a)-(3)testvgをactiveにする。
# vgchange -ay testvg
1 logical volume(s) in volume group "testvg" now active

(a)-(4)mountする

☆全ファイル生還。md5一致

154:135
04/05/07 00:18 moBi7VqE
★方法(b):生きてるPV(hda5)だけでtestvgをactiveにする。(LVM2)

(b)-(1)vgchangeに"-P"オプション(Partial mode)を追加して実行
# vgchange -ay -P testvg
Partial mode. Incomplete volume groups will be activated read-only.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
1 logical volume(s) in volume group "testvg" now active

(b)-(2)mountする
# mount /dev/testvg/hda5lv /mnt/test
mount: block device /dev/testvg/hda5lv is write-protected, mounting read-only

☆全ファイル生還。md5一致

155:135
04/05/07 00:23 moBi7VqE
★PVを跨いだ場合(LVM2)

PV,VG作成方法は同じなので省略
LV作成では両方のPVから512Mずつ使用
# lvdisplay -v --maps /dev/testvg/mixlvの結果(一部)
--- Segments ---
Logical extent 0 to 127:
Type linear
Physical volume /dev/hda5
Physical extents 0 to 127

Logical extent 128 to 255:
Type linear
Physical volume /dev/hda6
Physical extents 0 to 127

破壊の方法はPVを跨がない場合と同じ(hda6を破壊)
リカバリ方法は(a)の代替PVを使う方法しか使えない模様
(b)の方法だと(テストした環境では)
device-mapper ioctl cmd 9 failed: Invalid argument
と表示される。
結果:全176ファイル => 生還83 / 消失12 / md5不一致 81

あと、(a),(b)いずれの場合もvgchange一発で/dev以下にファイルができない現象が
頻発したけど、もう1回すると問題なくできた。

156:135
04/05/07 00:31 moBi7VqE
あと、LVM2限定で結果だけ。
ReiserFS+hda5破壊 = 12ファイル生還(ただしlost+foundに数字のファイル名)
XFS+hda5破壊 = 65ファイル生還
XFS+hda6破壊 = 66ファイル生還
(ファイル数はいずれも176でサイズバラバラのmp3)

おしまい。

157:login:Penguin
04/05/07 20:23 JJMbJYW4
SoftRAID(RAID1)上にLVを切ろうとしています。
切ること自体はできたのですが、起動時に自動検出してくれません。
起動時のメッセージは
Starting up RAID device: md0(skipped) md1(skipped)
です。
起動後、raidstartとvgscanをやれば、有効になるんですが・・・

fstabで、LVをマウントするようにしています。
OSはRedHat9です。

何かわかりますかねぇ

158:login:Penguin
04/05/07 23:28 saczY0qF
initrd作りなおせオマンコ

159:login:Penguin
04/05/08 11:16 J2fTDgwN
157です。
mkinitrdやってみましたが、結果ダメです。
手順は以下のとおり。
1./etc/modules.confに以下の行追加
alias md-personality-3 raid1
alias block-major-58 lvm-mod
alias block-major-109 lvm-mod

2.mkinitrd
mkinitrd -v -f /boot/initrd_raid-2.4.22-1.2188.nptl.img \
$(uname -r)

3.grub.confをeditし、initrd_raidをロードするようにする

4.再起動

dmesgでは以下のようなメッセージが出ており、うまくいっているように
見えます。
RAMDISK: Compressed image found at block 0
Freeing initrd memory: 168k freed
VFS: Mounted root (ext2 filesystem).
Journalled Block Device driver loaded
md: raid1 personality registered as nr 3
kjournald starting.  Commit interval 5 seconds
EXT3-fs: mounted filesystem with ordered data mode.

ちなみに上はfedoraでやってみました。
うーん、何がおかしいんでしょう。

160:login:Penguin
04/05/08 13:33 9BQlLz7P
raidstartしてからmkinitrdしたマンコか?
mkinitrdは/proc/mdstatを見てオマンコよ。
だから/etc/modules.confを編集する必要はないマンコ。

161:157
04/05/08 14:45 pmAGqXMP
すばらしい!うまくいったです。オマンコさん、どうもありがとう。

もうLVMの話じゃないですが、ついでに教えてください。
ひょっとして、mdxデバイスを追加するたびに、mkinitrdしなきゃダメですか?
#まあやってみりゃいいんですが。

162:login:Penguin
04/05/08 16:22 9BQlLz7P
>>161
悲しい事に追加や変更のたびにやらにゃいかマンコ。っていいかげんこの語尾やめたいw
カーネルを再構築してRAID関係をモジュールにしなければ自動認識になるよ。
FC2でどうなってるのかは未確認。

163:login:Penguin
04/05/08 21:10 5z7Jk+RY
157っす
>>162
うーん、つかえねえToT
カーネル再構築は、やったことないし、up2dateが使えなくなりそうなので、やめときます。
まあとりあえず現状で満足することにします。
どうもありがとう。

164:login:Penguin
04/05/16 14:46 VitpnX4s
lvm上に作ったファイルシステムって
WindowsのExplore2fsとかから見えるのかな。

165:login:Penguin
04/05/16 15:02 aVnYK0wB
見エマセぬ

166:login:Penguin
04/05/18 20:07 aktDVrQJ
>>148-156
非常に参考になったわ。
こんなにLVMの事を検証している人を見たのは貴殿が初めてだわ。
これはLVM HOWTOに載せて欲しいぐらいの内容だね。

167:login:Penguin
04/05/28 23:19 PYZd4d/f
pv→HDD3本でひとつのvgを組んでます。
ここから生成されたlvはreiserfsでフォーマットされています。
で、最近 fsck.reiserfsをすると
ディスクにハード障害があります云々いわれます。

この場合、
1.やっぱりHDDに物理的な障害がある。
2.vgになんかの障害がある。

1にせよ2にせよ、fsck以外の修復コマンドとかって存在するのでしょうか??

もしあれば、誰か助けてください。。。。
いま、めちゃブルーです。


168:login:Penguin
04/05/29 03:10 Xtz3Va5J
>>167

3.ファイルシステムが壊れているとか

reiserfsckはデフォルトではcheckだけじゃないの?
--rebuild-treeとか付けんと。>>151みたいに
もちろん、やる前にはバックアップとってな。

HDDの物理的障害だったらdmesgになんか出てると思うけど

>>147
VGじゃなくてLVでしょ。
Unix Magazine 2004年6月号で2.5TBのLV作ってるよ

169:167
04/05/30 23:48 OnGdtw98
>>168
回答ありがとうございます。

いろいろ試してみたのですが、拉致があかなかったため、とうとう
rebuild-treeしたところ、途中でrebuild-treeがAbortしてしました。

bread: Cannot read the block (31329): (Input/output error).
Aborted

ただ、以下のメッセージが出ていることから/dev/hddの物理障害は間違いないっぽいです。。。

hdd: dma_intr: error=0x40 { UncorrectableError }, LBAsect=251175, high=0, low=251175, sector=251175
end_request: I/O error, dev hdd, sector 251175
Buffer I/O error on device dm-0, logical block 31341

そこで、badblocksコマンドにてlv(/dev/lvm/hogehoge)のbadblockを書き出して、
badblocks -o out.txt /dev/lvm/hogehoge

再びreiserfsckをかけました。
reiserfsck --badblocks out.txt --rebuild-tree /dev/lvm/hogehoge

が、上記と同様にAbortされてしまいます。

reiserfsck --rebuild-treeは、不良ブロックがあるために、強制終了されているように見えます。


reiserfsck --rebuild-treeを最後まで終了させるよい方法はないでしょうか??


170:login:Penguin
04/05/31 01:30 hhvzfuis
>>169
dd_rescueでバックアップを作成し、reiserfsckする

「Bad block handling in ReiserFS」
URLリンク(namesys.com)

[dd_rescue]
URLリンク(www.garloff.de)


171:login:Penguin
04/05/31 02:48 lsYmUrdk
dd_rescueなんてあるんですね。
LVM使ってないけど、reiserfsのパーティションが壊れたときは、
私もrebuild-treeが途中で失敗してしまう状況でした。
結局、普通のddで何とかしましたけど。
結構なファイルがlost+found行きになりました。

172:login:Penguin
04/05/31 06:23 OXeGSEwS
えー、ここはLilyVMのスレということで異論ありませんね?


はい、ないようなのでLilyVMスレ@Linux板と決定いたします。

UNIX板のスレはこちら。
【Usermode】LilyVMってどうですか 01【NetBSD】
スレリンク(unix板)

173:login:Penguin
04/05/31 06:29 cSlLkb+0
↓何事も無かったかのように次どうぞ

174:login:Penguin
04/05/31 07:03 OXeGSEwS
URLリンク(lilyvm.sf.net)

IPAの金で作られたUsermodeなNetBSDでつ。Linuxだとそのまま動くけどNetBSDではパッチが必要。
どうですか。

175:良い子のお約束
04/05/31 13:00 KXn0+fEs
(1)日本人が作ったものは40%割り引いて考える。
(2)IPAの金で作られたものは信用しない。
(3)任天堂のゲームには近付かない。

176:login:Penguin
04/06/20 02:44 M3ZdqO8W
インストーラでlvmが使えると楽やね。

177:login:Penguin
04/06/26 21:41 NWOwsSX3
PE Sizeのことで質問させてください。

PE Size = x として、作成するLVは、x * n (0 < n < 65535)なので、
たとえば、PEが4MBのときは、作成できるLVのサイズが4MBの倍数になり、
32MBのときは、32MBの倍数になる。

PE = 4MB の時は、36MBとかのLVを無駄なく作成できるが、
PE = 32MB のときは、LVが32MBか、次は64MBになってしまうので無駄が出来る、、
という理解で正しいでしょうか。

inodeの最小ファイルサイズ(アロケーションサイズ)とは無関係、、ですよね?(^-^:;
PEを32MBで作った後で「PEが大きすぎると無駄が生じやすくなる」とか書かれてる
記事を見つけて焦ってしまったんですが。


178:login:Penguin
04/07/01 12:02 Ua6cWiFK
無駄無駄無駄ぁぁぁ!!!

179:login:Penguin
04/08/31 17:29 mhv4SZxs
LVMって生で使うより重いの?

180:login:Penguin
04/09/01 01:21 hMUQSwG3
>>179
軽い道理が無いだろ(w
でも386や486クラスでもなきゃ、あんまり変わったような気はしないが。

181:login:Penguin
04/09/13 22:02:18 vib1TXoh
LVをルート(/)にマウントしている場合、そのLVをいじりたいときはどうしますか?
ファイルシステムはext3、ディストリはFedora2です。

/boot /dev/hda1
/    /dev/mapper/Volume00-LogVol00

/dev/hda1がext3
/dev/hda2がLinux LVM
/dev/hda3がswap

KNOPPIX3.4をCD-ROM起動して、pvscan,vgscanを試しましたがダメでした。(エラーのメッセージはメモり忘れたスマソ)

182:login:Penguin
04/09/13 22:51:09 vO7Y51N9
ちょっと考えれば、/でlvmを使う意味が無いことくらい気が付くからな。


183:181
04/09/14 21:29:21 PwK9BewZ
でも既にこの構成になってしまっているのですよ。
なにか方法ないですかね?


184:login:Penguin
04/09/14 21:54:41 16qryvOq
FS自体壊れてはいないんだよね?
漏れだったら、dump/restore でLVとパーティションを切り直す。
>>182の言うとおり、/ をLVMにするのは後々にも無用な手間がかかるだけだし。
まあ、勉強と思ってなんとかする方法を考えてみるのもいいけど(この後役に立つ場面があるかどうか・・・)。


185:181
04/09/15 01:11:51 KT7pbieC
>>184
壊れてないです。
方法がなければ切り直そうかと思ってるんですけど、

>勉強と思ってなんとかする方法を考えてみる
ってことでココに書き込んでみた次第でございます。


186:login:Penguin
04/09/17 20:59:29 b4dp+fcm
SLVMって使えんの?

187:login:Penguin
04/09/18 10:22:30 Nmvwrsgi
>>181
スワップを/にして、LVMから/をはずしとけ。スワップはLVMの中にでも
作りなおせ。

188:login:Penguin
04/09/21 23:05:19 F8lCx2GU
>>181

亀レスですまんが、KNOPPIX3.4でもLVMは使えるぞ。

カーネルモジュールがロードされてないギミなので depmod -a して modprobe lvm-mod してみれ。


189:login:Penguin
04/09/22 02:04:49 tY0jOet7
>>188
KNOPPIXのLVMってLVM1じゃなかったっけ?

以前、LVM2環境をミスって起動不能にした時、
データ抜き出そうとして使ったけど、LVM2を操作できなかったと思う
(結局、LVM2環境を新しく作ってHD繋げて吸い出した)

>>181
新しく/用にLV作って必要なものコピー、
そっちを/にマウントするようにして起動ってのは?
Fedoraでどうやるか知らないけど。

FedoraのLVM2環境の起動の仕組みって↓とは全然違う?
URLリンク(www.poochiereds.net)


190:181
04/09/24 01:19:17 JORLx4Uz
>>188
なるほど。試してみたいんだけど、もうパーティションを切りなおしてしまいますた。。。

>>189
そうゆう手がありましたか。でも例えば/の容量を増やしたい場合は、
/のLVの容量 + 増やしたい容量
のLVを作らないといけないんですよねぇ。一時的に倍以上のHDDが必要になるのはちょっとムリぽ。。。

191:login:Penguin
04/09/27 13:12:09 mojAcgNu
そういった事態を想定して、PVは細切れ(数GB単位)で作ってVGに登録しておくことを
学んでおくことにしましょうね >>190

私も一昨年ぐらいにそれを経験して、それ以降/は非LVMな素のパーティションにしました。


192:login:Penguin
04/09/30 00:26:14 9J1+0UZc
オンラインリサイズできるファイルシステム(Reiserfs,xfs)を
使い、各LVは必要最小限のサイズで作りませう

私は/boot+swap+PV1個の3パーティションで節約生活してますよ
(´-`).。oO(なんかさ、LVM使ってるとケチになるよね…)

193:login:Penguin
04/10/04 00:33:55 PdEJi7TQ
 

194:login:Penguin
04/10/17 02:02:36 HoEJPIc+
lvmかますことによってパフォーマンス落ちる?
導入を検討しとるのだが、ディスクアクセスが遅くなるなら躊躇する。

195:login:Penguin
04/10/17 03:54:32 IwSy/hON
>>194
>>179-180

196:login:Penguin
04/10/18 00:06:23 CENiT07H
定期チェックでfreiserfs@LVMにfsckかけたら
bad sectorが出てAbortしてしまう・・・
複数のHDDがVG登録されていて
物理的にどのHDDがbad sector出してるのか判別もできず・・・
こんな場合どいった手順で復旧していけばいいんでしょうか?

197:login:Penguin
04/10/18 00:07:07 CENiT07H
× freiserfs
○ reiserfs
うぅ・・・

198:login:Penguin
04/10/18 00:58:41 IHK36xr/
>>196
そのファイルシステムがmount可能なら
今すぐバックアップを作る。
その後で>>170かな

人柱になって報告したいなら>>151

199:196
04/10/20 07:26:55 GE+TE0oK
壊れてるHDDが物理的にどれなのかを判別できたんですが
新しくHDD買ってきてPV増やした上で
このHDDをpvmoveしたりするのは自殺行為・・・・ですよね?

syslogにガンガンエラー吐いてるけど復旧する時間が無い~
週末まで耐えてくれ・・・

おとなしく
>>198
でいくべきかな、やはり

200:login:Penguin
04/10/22 20:13:06 6KWwn4ly
>>199
無事?
とりあえず、バックアップとった後で
pvmove試してくれるなら是非人柱希望

ただし、LVM1で"/"がLVM上にあるような環境の場合はヤバいと思う
pvmove中、不良セクタ踏んだ瞬間にフリーズ
→仕方ないので電プチ
→PV死亡。VG活動化できず起動不能
ってなるかも

201:196=199
04/10/23 02:49:17 U8sO2JHE
とりあえず、物理的にどのHDDがBadSector出してるのかを判別できたので

・新しく買ったHDDに新しいVG割り当て
・BadSectorの出るHDDの含まれたVGの読めるデータを買ってきたHDDのVGに移動
・空きが増えたらresize_reiserfsして縮小
・lvのサイズを縮小
・HDD一個分のVGの空きができたらBadSectorの出ているHDD以外のやつをpvmove
・壊れたHDDのVGから切り離して新しく買って来た側のVGに割り当て
・上を繰り返して壊れたHDDのみがVGに登録されている状態にする

という感じで玉突きしてみようかと検討してますが
resize_reiserfsでコケる気が激しくする・・・

アイオーのLinkPlayer+Einキャプチャ機+Samba
でレコーダー代わりにしてたデータ領域で
HDDが4台、データ領域が1TB近くある・・・


202:201
04/10/24 03:56:24 SET3wOLA
壊れたHDDと同じVGに所属しているが壊れたデータの格納されていないLVの
データ避難・LV削除はできましたが
壊れたデータの入ってるLVのresize_reiserfsできず・・・・

203:login:Penguin
04/10/27 11:21:45 EqiaD7Nc
/home にあったデータが一瞬で消えた・・・orz

83→データいれる→8e したら駄目だったのか・・・?


204:login:Penguin
04/10/27 16:44:35 pDldRhuo
そりゃ駄目だ。

205:login:Penguin
04/10/27 17:27:20 lhKPiB/N
やっちまったな

206:login:Penguin
04/12/02 00:01:54 BsejacY+
linuxのmdでraid5デバイスを作成して、その上にLVをきろうと思います。
この場合、ディスク増設>raid5再構築>LV拡張>パーティション拡張等
をオンラインでデータを保持したまま出来るものなのでしょうか。
また、こういうmd上のLVの拡張、VG切り離しなどの情報など有用なURLが
あれば教えていただけないでしょうか。

207:login:Penguin
04/12/02 00:31:11 ZSpotIbt
>>206
そもそもLinuxのmdはraid5の構成を変更して再構築なんか出来たっけ?


208:login:Penguin
04/12/02 07:36:22 LnTTlRFZ
linuxというか、そもそも一般的なraid5でそんなことできるのかどうか。

209:login:Penguin
04/12/02 07:43:07 Bm8JDMsv
raidreconf使えば例えば250GB x 3を250GB x 4にするは出来る
Arrayをオンラインのままでは無理だったかと
250GB x 3を300GB x 3に、は知らんけど
RAIDカードもオンライン拡張可能と書いてあれば大体出来るんじゃない?

210:login:Penguin
04/12/03 02:01:38 du/UIkAw
>>207
URLリンク(www.heart-pot.co.jp)
ここに事例がありました。
しかしmdの上にLVMって普通やらないのでしょうか。
raidカード要らずでメリットが大きいと思うのですが。

211:login:Penguin
04/12/04 02:07:45 BbxGDoDA
> こういうmd上のLVの拡張、VG切り離しなどの情報など

LVとVGはmd上かどうかは関係ないだろ。普通にLVやVG作った場合と同じやりかたでOKだと思う。
問題は、

> ディスク増設>raid5再構築

によって、PV(に割当ててるパーティション)のサイズが増えること。
LVM側でもいろいろ操作が必要。vgcfgbackupして、pvcreate -uして、vgcfgresoreするとか。
ただし、raid5の再構築といい、それにからんだLVMの操作といい、全データが吹っ飛ぶ
可能性が十分考えられるから普通やらない。少々ディスク効率が悪かろうが、別途mdを構成して、
PVに割り当てる方が賢明。
バックアップをちゃんととって、md上の全データ吹っ飛ぶ覚悟ができてるならやってもいいが。

> しかしmdの上にLVMって普通やらないのでしょうか。

普通にやるとおもうけど。raid LVMとかでぐぐってみ。
その場合に、raidを再構築するのがレアなだけ。


212:login:Penguin
04/12/04 17:22:52 BTKpaP2z
>>211
なるほど。そもそもraidとバックアップをきちんと考えわけ
ないといけないですね。
とりあえずディスクが2つあいているので、ミラーセットをつ
くっていろいろ試してみます。

213:login:Penguin
04/12/12 19:04:45 AoK/hzny
複数のPVが1つのVGとLVで構成されているデータ領域の
HDD一台が㌧でしまいました。
復旧にあたって死んでいない残り3台のHDDのデータを
救い出しつつ復旧するにはどうすればよいでしょうか?

来週末までに壊れたHDDよりも容量の大きいHDDを買ってきて
vgrestoreする予定なのですが
これだと死んでないHDD3台のデータも拾えないんでしたっけ?

214:login:Penguin
04/12/12 19:29:21 sTtCJRM0
dd_rescue

215:login:Penguin
04/12/13 02:06:30 PGw1X2t2
>>213
コマンドはvgcfgrestore
>>149以降でテストしてる

生きてるHDD上のデータは救出できるけど
あまり期待しない方がいいよ
死んだHDDにちょっとでも乗っていたファイルは
助からないはず

216:login:Penguin
04/12/26 23:53:59 kkeu0ykE
仕事上必要があってwindows XP 64bit-editionを入れたら
見事に別ディスクのLVM領域は破壊してくれた
何でこういうイヤガラセするかなぁ


217:login:Penguin
05/01/03 02:58:23 mM5fO6TV
Redhat9のkernelを2.6に上げたのでdevice-mapper+LVM2をインストールして
/sbin/mkdmnodで、/dev/mapper/controlをつくりました。
これで起動スクリプトにvgchange -a などを追記して既存ボリュームを認識し
てくれたのですが、以降rebootやシャットダウンの度に最後に
「md0: switching to read-only mode」~「md1X: switching to ...」
というmd関連のメッセージがずらっと表示されるようになりました。
LVMはVer1.Xを使っていますがmd(raid)なんか一個も組んでいません。
これは何が悪いのでしょうか。
どうもカーネルモジュールのmd.cにそういうメッセージを出すところがあ
るみたいですが私ではそれをどうしてよいかもわからないんです。

218:
05/01/28 00:00:53 O4GA9oN8
スナップショットをとる
しばらくその後スナップショット時点の状態に戻すことは可能?

管理情報は残ってるわけだからできそうなんだけど


219:login:Penguin
05/01/28 00:11:59 inuf15bo
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
在宅ワーカー募集します!!日給7800円以上可能!!

詳しいことはホームページに書いてあるのでご覧下さい。

URLリンク(advanced7success.fc2web.com)

尚、お申込みの際は

ID『sa01』が必要になります。

★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★

220:login:Penguin
05/02/24 12:40:30 FPH7Nh1+
保守

221:login:Penguin
05/03/04 02:17:33 DeSP1Kyo
補修

222:login:Penguin
05/03/31 15:24:49 chtc/3VW
ほちゅ

223:login:Penguin
05/03/31 16:18:41 7faVLxYM
RHEL4でext2onlineがサポートされて、だいぶ使いやすくなったけど、
LVMでext3ってどうよ?


224:login:Penguin
05/04/11 19:50:02 1cYagJnp
カーネル2.6のLVM2ってIO負荷が重い状態でボリュームのスナップショットを取ると
メモリ不足でハングアップしてしまうがこれの解決はまだか。

225:login:Penguin
05/04/26 16:16:45 PT/DpSg5
保守

226:login:Penguin
05/04/30 20:18:09 mAb4X/xF
教えてママン

160GBのHDDをFireWireで二つ直列に繋いだ状態で動作しているのですが、
LVMでこの二つをまとめて一つにして(無問題で?)パフォーマンスでるのかしらん?

ためしゃいいじゃんっていうかもしれんが、160GBもデータが入ってると試すのが鬱でね・・・

227:login:Penguin
05/04/30 20:22:21 47MVGwh5
あんまり出ないだろうな。
ファイルシステムが跨る分だけ、安全性に不安があるし。

228:login:Penguin
05/05/01 12:54:41 +L1YW0MG
lvcreate すると以下のようなエラーが出てしまいます。

lvcreate --size 10M --snapshot --name snap /dev/VolGroup00/LogVol_01

Rounding up size to full physical extent 32.00 MB
device-mapper ioctl cmd 9 failed: メモリを確保できません
Couldn't load device 'VolGroup00-snap'.
Problem reactivating origin LogVol_01

物理メモリの残りが少ない時に同事象が発生するようなのですが、出来る時もあり、規則性がありません。
swapも1Gぐらいにしてみましたが同じです。

( >>224 の事象と同じ?)

なにか解決方法はないでしょうか。

229:& ◆R7PNoCmXUc
05/05/01 22:09:16 D6WravXD
金曜日の夜 土曜日の昼 土曜日の夜 日曜日の昼 日曜日の夕 日曜日の夜
    ↓     ↓      ↓        ↓      ↓     ↓
                            ┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   ∧ ∧   ∧∧     ∧ ∧   ┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   (・∀・)  ∩∀・)    (・∀・)∩  ┃:::∧∧::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
   / ⊃⊃ ヽ  ⊃ノ   /⊃ /  ....┃:::('д` )::::::::::::::∧∧:::::::::::::::::::::::::::::::::::
 ~(  (    ヽ  )つ ~( ヽノ  ......┃:::と  ヽ::::::::: ('д` ):::::::(   )⌒ヽ;::::::::::
   (/(/'      (/     し^ J  ......┃:::⊂,,_UO~:::(∩∩ ):::::|/.|/uと  )~:::::
                                         ↑ 今このへん

230:login:Penguin
05/05/08 02:56:13 5XzYn+h8
>>228
2.6カーネルのsnapshotは不安定で実用に耐えないから諦めろ。

231:login:Penguin
05/05/11 10:01:20 5vDYgAyC
>>230
了解。もう諦めて kernel2.4に戻しました。

232:login:Penguin
05/05/17 11:15:10 Ck8u3X4H
# vpvmove /dev/sda15
なんてして
No extents available for allocation
このエラーが出る場合、何を確保してやれば移動が可能になるんでしょうか

233:login:Penguin
05/05/17 11:53:52 vyhwtx4J
>>232
extents for allocation、つまり空き領域。
マウント中のファイルシステムをpvmoveすると固まるのはなんとかならんかなぁ。
snapshotが固まるのと原因同じ気がする。

234:login:Penguin
05/05/17 13:32:14 Ck8u3X4H
>>233
お返事どうもありがとうございました。
lvextend -L-hogeGして減らします。>232はs/vpvmove/pvmove/でした。
そういえば、pvmoveするときはアンマウントしてからやってました。
関係ありませんが、xfsはサイズを増やすことはできても減らすことができないと知って後悔しました。



235:login:Penguin
05/05/23 09:18:37 Ja/BWgyJ
保守

236:login:Penguin
05/05/30 14:02:18 d6Jlq03m
lvm3マダー?

237:login:Penguin
05/06/02 04:36:32 0Nz4wDQN
Fedora2でLVM使ってファイルサーバー立ててますが、quotaを使う必要があり、
fstabにLVMをつかっている/homeの箇所にquotaに記述して、再起動かけたら、
quotaつかえない旨のメッセージがでてきました。
Kernelのquota機能とLVMって共存できないんでしょうか?
以下書き換えた場所です。

LABEL=/ /   ext3 defaults 1 1
LABEL=/boot /boot   ext3 defaults 1 2
none     /dev/pts devpts gid=5,mode=620 0 0
none /dev/shm tmpfs defaults 0 0
/dev/Volume00/LogVol00 /home ext3 defaults 1 2 ←ここにquotaを記述
none /proc proc defaults 0 0
none /sys sysfs defaults 0 0
LABEL=/tmp /tmp ext3 defaults 1 2
LABEL=/var /var ext3 defaults 1 2
/dev/hda2 swap swap defaults 0 0
/dev/cdrom /mnt/cdrom udf,iso9660 noauto,owner,kudzu,ro 0 0

(読みづらかったらごめんなさい)

238:login:Penguin
05/06/03 22:23:53 HOSvdRwa
SGI-XLV移植キボンヌ

239:login:Penguin
05/06/16 18:09:58 Szie+yKv
保守

240:login:Penguin
05/06/30 18:33:39 +uN+drXM
ほちゅ

241:login:Penguin
05/07/12 17:40:23 1+WKcMXD
LVM

242:login:Penguin
05/07/26 19:12:00 GY/+NBD0
LVM2


243:login:Penguin
05/08/25 21:00:10 fWErEiK8
LVM2上にXFSのパーティションがあって、snapshot取りたいんだけど、
xfs_freeze -fしてlvcreate --snapshotすると固まってしまいます。別ttyでxfs_freeze -uするとlvcreateできましたが。
もしかしてxfs_freeze不要?kernelは2.6.12.5ですけどまだ不安定なのかな?

244:login:Penguin
05/08/30 22:24:46 IOjQmEM/
>243
まずはぐぐれよ。
URLリンク(marc.theaimsgroup.com)
あと、MLとのマルチポスト禁止な。


245:login:Penguin
05/09/02 17:34:27 jSBJjcXW
>>228です。
CentOS4.1(2.6.9-11)で久しぶりに試してみたらsnapshot普通にできるように
なっていました!!
lvm2-2.01.08-1.0RHEL4

改善されたんですね。よかった^^

246:login:Penguin
05/09/03 22:06:00 bax3TQFR
>>245
え~~~っと。やっぱりダメでした。
ちょっとスペックの悪いPCで試してみたらまったくダメだ(>_<)

kernel2.4のlvmできちんと動いたPCなんですけどね。ぬか喜びだった(泣)

247:login:Penguin
05/09/13 10:05:53 ERgf6oSn
ほちゅちゅ

248:login:Penguin
05/09/24 11:03:27 2QiD6Syt
HDD 10G の PC を入手したので Debian をインストールしています。

/dev/hda1 256M /
/dev/hda5 512M swap

として残りの 9G で LVM を使って /usr や /var, /home にしてみようと考え
ています。

そこで疑問なのですが、残りのパーティションの切り方は 9G を1つにしちゃっ
ていいんでしょうか。2G 程度をいくつか切ったりするほうがいい?
それぞれのメリット/デメリットがいまいち判らんとです…。

249:login:Penguin
05/09/24 11:51:02 fVJogvpr
/tmpはええのん?

250:login:Penguin
05/09/24 11:55:07 2QiD6Syt
>>249
あ、/tmp も LVM で作るつもり。

251:login:Penguin
05/09/24 12:17:33 frt9ybjp
DebianでLVMはやめたほうがいいよ。壊れるから。

252:login:Penguin
05/09/24 12:39:50 2QiD6Syt
>>251
うは、マジすか? あんまり聞いたことないけど、いままで LVM に縁が無かっ
たから見逃したかな…。ちょっとググってみるす。

253:login:Penguin
05/09/24 12:44:01 96A0EVGi
>>251
ソースは?

254:login:Penguin
05/09/24 14:10:44 UWNeNGSP
LVM2ってもう安定した?

255:login:Penguin
05/09/24 14:27:37 frt9ybjp
LVM2は開発が止まっているようだ。EVMSにしとけばよかったのに。

256:login:Penguin
05/09/24 17:50:45 fVJogvpr
ところで、そんな小さい容量のディスク1本でLVMするメリットなんてあんの?

257:login:Penguin
05/09/25 18:33:45 QLhf2tye
debian potatoからLVM使ってるからもう5年くらいになるが一度も壊れたことないぞ。
LVMも当然 1.0→2.0になってるけど移行時でも問題無かったし。

258:login:Penguin
05/09/25 18:38:59 NYE4yBcb
DebianはLVMが不安定は釣りネタだろうけど
5年間一度も壊れたことないも嘘くせぇw

259:login:Penguin
05/09/25 20:54:57 QLhf2tye
LVM2のsnapshotが安定しないのは閉口ものだが破壊は無かったな。
御疑いなら耐久テストでもしてみることだ。
5年といってもlogical volumeの構成を替える頻度は知れているから、
script組んで耐久テストすることは時間がかかることでは無いわけだし。

260:login:Penguin
05/10/17 03:26:25 llqPomCQ
保守

261:login:Penguin
05/11/08 19:53:15 XbU3MUL4
ほっしゅ

262:login:Penguin
05/11/08 20:41:33 Fqaji/ZY
snapshotってLVMだけでできるん?
FSがサポートしてなきゃだめなんちゃう?

263:login:Penguin
05/11/08 23:16:09 g/AaqPIy
nbd+LVM運用してる人いますか?

264:login:Penguin
05/11/16 12:21:22 jdJfJmQO
vgexportしないでHDD外してしまって、マシンはすでにない
場合、別のマシンに差して中を見る手段はないのかな。
PVがあることは認識出来るんだけど・・・


265:login:Penguin
05/11/16 21:31:24 NvCPL6WD
vgimport じゃ駄目なの?

266:264
05/11/16 22:25:30 rFvkJp3N
VGの情報が見つからない、みたいなことを言われて
駄目だった。(いま別の場所なので、詳細なエラー
メッセージは忘れたが)
vgexportしてないからだと思う。。。

267:login:Penguin
05/11/16 22:35:17 Vdp/hGgb
>>266

#man vgimport

VGIMPORT(8)

NAME
vgimport - make volume groups known to the system

OPTIONS
-f, --force
Force import of volume group even though it is not flagged exported. This
option allows the importing of volume groups from broken systems.

この辺りドウヨ?
(もちろん自己責任で宜しく)


268:264
05/11/17 12:26:25 1Ik63xyP
アドバイスありがとう。

でもダメですた。
-fオプションつけても、
Unable to find exported volume group "hogehoge"
だって。そうだよなあ、exportしてないもんなあ...orz

269:login:Penguin
05/11/17 16:35:43 UqsPVSxa
だめなんかぁ。

新しいシステムでpvscanをしてVG情報を確認後、
vginmport -f VGname
でなんとかなるんじゃ無いかと思っていただけに驚き。

270:login:Penguin
05/11/21 09:39:13 SEUWJCPL
ちょっと納得いかん挙動やね。
じゃぁ、なんで起動時にドライブスキャンするんだろ。


271:login:Penguin
05/11/21 09:57:12 fSDPZtCV
仕様に虐ギレカコヨス


272:login:Penguin
05/12/10 09:21:32 APO7XYXK
保守

273:login:Penguin
05/12/23 01:04:08 1o/HU5Zy
hoshu

274:login:Penguin
06/01/16 08:49:38 oy3iDMab
fedora core 4 のデフォルトインストールでLVMを使用して80GのHDDに
/dev/VolGroup00/LogVol00
を/(ルート)にマウントされてます。
今回160GのHDDを追加してWebminでPV追加。
コマンドでlvextend -L+100Gで論理ボリュームを拡張まで成功しました。
あとはファイルシステムの拡張だけですが、ext2onlineで
JBD: ext2online wants too many credits (2050 > 2048)
ext2online: ext2_ioctl: No space left on device
とエラーメッセージが出てできない。ググってみたが英語でバグ報告みたいなのが
あるだけでよくわからない。
resize2fsを使おうとしてinit 1でシングルユーザーモードにして
umount /dev/VolGroup00/LogVol00
としてから
resize2fs /dev/VolGroup00/LogVol00
とすると
/dev/VolGroup00/LogVol00 is mounted; can't resize a mounted filesystem!
とでてアンマウントできていない様子。
/bootにCDしてからやっても同じ。
LVMそのものに悩むんじゃなくてこんなところでつまずくとは思わなかった。
もう少し修行してきます。

275:login:Penguin
06/01/16 12:37:43 ojCdqT7z
>>274
間違ってたらごめんなさい。
FC4 の rescue disk を使って、起動時に /mnt/sysimage にマウントするか?と
聞いてくるので、マウントしないで起動する。
その状態だと VG が INACTIVE な状態にあるので、
lvm vgchange -a y とかやって、/dev/VolGroup00/LogVol00 が見えるようにしてやる。
そして、resize2fs 実行。
私はこんな感じで LVM 管理下の / (ルートパーティション) を lvreduce (危険を承知で orz) できました。

276:login:Penguin
06/01/16 13:00:11 oy3iDMab
おお!情報ありがとうございます。
まさに私がやりたいことです。
漠然とKNNOPIXなど使わないといけないのかなと思っていましたが、VGに関する
注意点まで書いていただいて感謝です。
一度やってみます。もちろん自己責任で。

277:login:Penguin
06/01/20 12:23:32 aqSLHR49
 _, ,_
( ゚∀゚)

278:login:Penguin
06/01/28 19:17:57 VUb2MggI
 _, ,_
( ゚∀゚)

279:login:Penguin
06/02/13 01:36:33 gjfNOHrh
いままで素のRAID1でmd0(hda1+hdc1)、md1(hda2+hdc2)とパーティションを
作り、定期バックアップを同容量のディスクに

 dd if=/dev/hda of=/dev/hde

として取っていたんだけど、RAID1+LVM にしてもこの方法有効ですか?

上では hde1, hde2 がそれぞれマウント可能なパーティションとして
バックアップされるのだけど、LVM が上に載ってくると、PV 自体は
md0, md1 の上にある形になるので、hde 単体でデータアクセス可能か
不安に思ってます。

同様の経験がある方、いかがでしょうか?


280:login:Penguin
06/02/13 01:46:10 3S74cKwo
LVMがあろうが無かろうが同じ事。完全にコピー出来ていれば動く。
しかし単純にコピーするとhdaとhdeに同じ名前のVGを検出して混乱する。

281:login:Penguin
06/02/13 02:21:49 gjfNOHrh
なるほど、考えてみれば RAID の方の autodetect で hde 上の RAID を
検出しておかしくならなかったのは

dd if=/dev/md1 of=/dev/hde2

と実際にはパーティション個別に dd して、hde* の partition type が
Linux RAID autodetect にならないようにしていたためでした。

今回だと md1 -> hde2 のようにパーティション単位で dd すると
partition type をどれにしても問題が生じる(Linux LVM にすれば
混乱するし、しない場合は hde 単独稼動できない)ので、

dd if=/dev/vgname/volname of=/dev/hde2

で hde の partition type を Linux とするのが唯一の解でしょうか。
ただ、これだとボリューム構成が変わるとバックアップ側の hde の
パーティション構成も追随させないといけないので、結局この簡易
バックアップ手段は RAID1+LVM では使えないかな。

とりあえずやるだけやってみて、駄目なら LVM は諦める事にします。


282:login:Penguin
06/02/13 02:36:25 3S74cKwo
コピー先のボリューム構成を自動的にコピー元に合わせるスクリプト書けばいい

283:login:Penguin
06/02/13 10:22:07 gjfNOHrh
ちょっとチラシの裏っぽくなってきてすみません。

どうやら vgchange -an で autodetect 無効にしてやれば
いけそうです。RAID の方は autodetect にしておいて、
lvm.conf の方には /dev/md* だけをスキャン対象として
書けばバックアップデバイスの hde は完全無視でいってくれそう。

週が明けてしまったので後になると思いますが、できたら
報告しますです。

284:login:Penguin
06/02/24 12:31:49 9ziRUFrf
だいぶ前から不思議に思っていたんだが、
fedoraとかのインストール時に、自動でパーティションを
区切らせると、swapをLVMに置きやがる。

どうせパーティションなんて、手動で区切るから、無視してたんですが、
もしかして、swapをLVM上に置くと、なんかよいことあるんですかね?


285:login:Penguin
06/02/24 12:43:11 AVQ1/ICR
swap領域を簡単に大きく出来る。
swap専用のパーティションが不要。
Solarisパーティションに間違える心配が無くなる。
LVM上に置く事のデメリットが特に無い。
俺は手動で切る時もLVMを使っている。

286:login:Penguin
06/02/25 11:31:04 QwNemt6b
むむ、最近は swap も LVM 上に取るのがトレンドなのか。思い付かなかったな。

287:login:Penguin
06/02/25 15:43:08 CRfylwA+
suspend, resume にswap領域を使うというのはどうなったんでしょう。
今もそうなら使い方によってはマズそう。

288:login:Penguin
06/02/25 15:49:54 XYGtXGls
LVMのスワップにもsuspend出来るようになったけど、それはつい最近の事だからな

289:login:Penguin
06/02/25 18:52:59 vFrh6tPm
swapを万が一のときのためのプライマリィパーティションとして
を使うからなぁ。LVMにはできん


290:login:Penguin
06/02/25 19:56:32 f8TziOip
>>289
万が一って例えばどんなとき?


291:login:Penguin
06/02/25 19:59:39 RKgmengN
業務用なんかでLinux専用で使うんであれば、swapは単独で切っとくな。
rootと/usr以外と外付けは必ずLVMにするだろうけど。


292:login:Penguin
06/02/25 21:29:42 QwNemt6b
>>291
んーと root と /usr は LVM にしないってことか。それはなにゆえ?

293:login:Penguin
06/02/25 21:51:44 7D7kEu1i
/と/usrは大きく容量が増えたりしないからLVMで管理する必要が無いって事だろ。
/と/usrを後生大事にするのは王より飛車を可愛がるようなもんだがな。

294:login:Penguin
06/02/25 23:35:46 f8TziOip
ってことは /usr/local とかは別パーテーションにするのかい?

295:login:Penguin
06/02/27 20:43:44 E8yShcwl
最近swapはファイルで済ませちゃってるな。
LVM使うのは/homeだけだ。

296:login:Penguin
06/02/27 23:45:15 ogY+RzDz
>>294
業務用で実運用中に/usr/localが増えるのはどうかと

297:login:Penguin
06/03/17 16:47:29 pa0JYMTy
ほちゅん

298:login:Penguin
06/03/20 00:40:08 Z/stLUW1
# vgcreate test /dev/hdb2 /dev/hda3
とやって、2つのPVにまたがったVGを作りました。

んで、lvcreate で LVを作るとき、/dev/hda3 だけに作ってくれとか
そういう指定はできない??


299:login:Penguin
06/03/20 00:44:19 3FBcKPyB
>>298
VGの後にPV指定すればいい

300:login:Penguin
06/03/20 00:54:16 Z/stLUW1
>>299
うお、まじで~。

ってmanみたら書いてありました・・・すまんす。



301:login:Penguin
06/03/20 09:18:30 NKUFVZgB
>>298
参考のためになんでhda3だけにLV作ろうと思ったの?
なんか有るならおしえてほぢい。

302:login:Penguin
06/03/20 20:33:13 Z/stLUW1
>>301
実際には hda4 と hdd1 にまたがったVGで hdd は後で追加した。
hdd1 の最後のほうに LV を作りたかった。

hdd が hda に比べて古い HD なので、遅いし、いつ壊れるかわからん。
HDの後ろのほうはさらに遅いので、ここにゴミデータをおきたかった。

てなかんじの、あまり参考にならん理由です。


303:login:Penguin
06/03/20 22:46:38 NKUFVZgB
>>302
なるほど。ありがとう。

304:login:Penguin
06/03/21 05:54:10 qn7ptd8S
>>285
便乗質問で悪いけど
LVMの中にswapパーティション置いても2GBの制限はなくならないよね?

> swap領域を簡単に大きく出来る。
を誤解してるわけじゃないです

305:login:Penguin
06/03/21 06:33:54 GNxk/W6H
>>304
なくならない


306:login:Penguin
06/03/21 10:59:31 qn7ptd8S
>>305
ありがとう

307:login:Penguin
06/03/23 16:32:23 zYoXh2XX
LVMとは直接関係ないことだけど swap の話が出たので。

うちはメモリーを512MB以上積むようになってからは、
swapパーティションを切らないようになった。
現在はアプリケーションサーバとしては動かしていなので
問題は起きてないのですが、メモリ食いのアプリを
動かすようになったら考慮しないといけないかも。

ファイルサーバーやWebサーバー、DNSやルーター程度なら不要だよね?

308:login:Penguin
06/03/23 18:03:00 dgXyXwqo
俺んちFC4だが、swapの2GB制限ないよ~?
1つのパーティションでswap 3GB に設定してあって
今、実験してみたら3GBフルに使えた。


309:login:Penguin
06/03/24 20:40:48 oFxp8fco
Linuxの場合、LVMとソフトRAIDが別機能ってのが、わかりづらいな。
VG作るときにミラーとかストライピングが指定できるようになれば、かなり使いやすくなるのになぁ。


310:login:Penguin
06/03/25 02:03:59 ldYGxjMi
>>310
何言ってんのかわからん。MirrorDisk/UXだって別売りだろ?

311:login:Penguin
06/03/25 03:01:06 VNcGuME2
確かに、VxVMやDiskSuiteなんかは、LVMとSW-RAIDを明確に分けてないな。
物理ディスクをまとめるときに、普通にミラーやらRAID5を指定して作れる。


312:login:Penguin
06/03/25 12:01:24 ldYGxjMi
VxVやMDiskSuiteに、LVMは含まれてないと思うんだが。

313:login:Penguin
06/03/25 12:47:07 jFeUU+q+
LVMに相当する機能のことだろ。
DiskSuiteの用語で言えば、「ソフトパーティション」
それにSolaris9からは、DiskSuiteのこと自体を「LVM」と詠んでるしな。


314:login:Penguin
06/03/26 23:53:14 +ilWfbVR
「くだらねえ質問は…」から引っ越してきました。
元の質問はこれです。
スレリンク(linux板:827番)
で、いろいろやりとりがあったわけですが、…
スレリンク(linux板:881番)
スレリンク(linux板:884番)
スレリンク(linux板:888番)
スレリンク(linux板:889番)
スレリンク(linux板:892番)
スレリンク(linux板:893番)
vgchange -a y VolGroup00 をやりましたが、/dev 以下には
何の変化もないようです。

あと、向こうのスレで書き忘れていたことを書いておきます。
現在インストールされているOSはFC5で、これはこれでLVMに
なっています(/bootが/dev/hda1で/dev/hda2がLVM。その中に
swap と /)。で、外付けに付いているディスクは FC3 で使用
していたものですが、構成は同じです(/dev/sda1 が /boot で
/dev/sda2 が LVM。その中に swap と /)。

ということで、この現在外付けにある LVM の中の / をマウント
する方法を教えてください。よろしくお願いします。


315:login:Penguin
06/03/27 00:15:20 J/oPtjaT
1. とりあえず祈る。
2. 古いディスク(/dev/sda)で起動する。
3. lvm情報を消す。(vgchange -a n VolGropu00したあと、vgexport VolGropu00)
4. 新しいディスク(/dev/hda)で起動する。
5. 古いディスクを付ける。
6. vgimport vg01 /dev/sda2、 vgchange -a y vg01
7. /dev/vg01/???をマウント。

URLリンク(www.linux.or.jp)
日頃の行いが良いことを願え。

もしくはもっと安全な方法を誰かが教えてくれることを。

316:login:Penguin
06/03/27 00:17:58 J/oPtjaT
しかし、マウントしているディスクは vgchange -a n
できないんじゃないかなぁ。

なんとなく、もう1回インスコしなおしてインストール時に
VG名を変えた方が簡単な気がする。

317:login:Penguin
06/03/27 00:26:17 J/oPtjaT
>>316
knoppixとかを起動してlvm情報を消すの方がいいかも。


318:login:Penguin
06/03/27 00:31:22 LGc9eKUw
Knoppixなぞ使わんでFedoraのインストールCDでレスキューモードに入ればいい。
その時一時的にBIOSで/dev/hdaを殺しておくといいだろうな。
そのうえでvgrenameで/dev/sda上のVGを変名。
あとは普通に起動してlvscanすれば見えるはず。

319:login:Penguin
06/03/27 00:40:04 J/oPtjaT
>>218
ありがとう。俺も参考になったよ。

320:314
06/03/27 01:10:03 SywC2/7h
皆様いろいろありがとうございます。
レスキューモードためしてみます。


321:314
06/03/27 02:28:07 SywC2/7h
ダメでした。
BIOS で内蔵HDDをNoneにしてからレスキューで起動すると
外付けHDDがマウントされるんですが、vgrename は vgchange -an
をした後でないとできません。しかし mount されているので
vgchange はエラーとなります。umount すればいいんでしょうが、
そうすると vg* のコマンドがレスキューに入っていない、というか、
それ以前の問題として、/etc 以下が見えなくなります。


322:login:Penguin
06/03/27 02:36:09 LGc9eKUw
>>321
レスキューCDでLVMを操作する時はlvmコマンドを使うんだ。
lvm vgscan
lvm vgrename ほげ ふが
のように使う。
そもそもvgほげほげやlvほげほげはlvmへのシンボリックリンク。

323:login:Penguin
06/03/27 02:51:07 SywC2/7h
>>322
なるほど。しかし /mnt/sysimage の umount はできませんでした。
たしかオープンしているというようなエラーが出てました。
これだとどうにもできないですよね?

KNOPPIX で起動してみるというのもやってみたんですが、
KNOPPIX 4.0.2 には lvm が入っていないため、そのまま
では何もできませんでした。

324:login:Penguin
06/03/27 03:01:55 LGc9eKUw
>>323
umount /mnt/sysimage/boot
umount /mnt/sysimage/proc
umount /mnt/sysimage/sys
umount /mnt/sysimage
ていうかレスキューモードで起動する時にmountしないを選べ。

325:login:Penguin
06/03/27 04:03:06 SywC2/7h
>>324
あー!そういえばマウントしないってありましたねえ。
うっかり惰性で毎回マウントしてた。orz

でも、もうひとつの方法に気がつきました。
スレリンク(linux板:904番)
ようはVGの違うマシンにつなげばいいんじゃないか? ということですが。

ま、とにかく、続きは明日やります。
いろいろとありがとうございました。

326:login:Penguin
06/03/27 10:51:35 DhLB5I7L
LVMって使わない場合と比較してもファイル操作の速度はほとんど落ちないんだね。

327:login:Penguin
06/03/27 20:32:55 J08GeQnt
むしろ、ストライプの場合は、上がるんじゃね?

328:325
06/03/27 22:10:35 SywC2/7h
やった! マウント成功!

BIOSで /dev/hda を None にしてからFC5のレスキューでHDDを
マウントしないで起動して lvm rename で名前を変えたら2つVG名が
出てきました。で、リブートして BIOS で HDD を戻して起動後に
vgscan したら出ました。んで /dev に新たにVG名のディレクトリと
LVのデバイスができていたのでマウントしたらできました。

ということで皆様大変ありがとうございました。これでファイルを救えます。


329:login:Penguin
06/04/10 19:36:59 vi3HRBbu
LVMの中でSWAPのサイズをでかくするのはどうやってやるのですか?

330:login:Penguin
06/04/11 01:39:14 taYacMjR
lvextendかlvresizeででかくして、swapoff;mkswap;swapon

331:login:Penguin
06/04/11 02:26:32 bPJLOCKr
hahaha

332:login:Penguin
06/04/11 03:09:22 taYacMjR
hahahaじゃでかくはならんぞ

333:login:Penguin
06/04/11 09:14:22 FTvKraHL
>>329
まあ、まず swapoff する必要はあるだろうなあ。
その後スワップ用パーティションをでかくして、
それが終わったらそのパーティションに対して
mkswap して、それから swapon で追加。


334:329
06/04/11 12:10:49 +JtsdC+X
>>330,>>333
ありがとうございます。無事増やす事が出来ました

335:login:Penguin
06/04/11 20:06:16 SajR50yj
mdマジで使いにくいなぁ。
LVMの方でミラーをサポートする計画ないんかな?


336:login:Penguin
06/04/14 01:08:29 CGlDZwjN
無いみたい。MDは今後も活発に開発が続く。いっぽうLVMのほうは怪しい雲行き。

337:login:Penguin
06/04/25 13:27:45 V1nepZR+
教えてママン
例えば、外部ストレージをLVMで使ってたとするじゃん。
で、OS再インスコして、その外部ストレージのデータに再度アクセスするには、
具体的には、どのような手順で復旧すればいいんじゃろか?

RHEL4,LVM2で説明してくれるとありがたい。


338:login:Penguin
06/04/25 14:09:12 zXm32lfy
>>337
vgexport

339:login:Penguin
06/04/25 16:13:56 V1nepZR+
>>338
早々のレスポンスありがとうございます。
vgexport,vgimportは、ディスクの移設用途に有用だと思いますが、
自分のご享受頂きたいのは、復旧用途です。

質問内容を以下に変えます。
外部ストレージにLVMを使用しているOSがあったとします。
で、/etc/lvm以下は、他サーバにでもコピってあるとします。

その状態で、そのOSを再インスコして、LVMの構成情報なくなったとすると、
単純に、/etc/lvm/*をコピーって復元すれば、
もとのストレージ上のLVにアクセスできるんでしょうか?
だめなら、どうすればできるでしょうか。

LVMの構成のバックアップの観点からすると、
/etc/lvmのバックアップを考えてますが、
他になんかありますでしょうか。

340:login:Penguin
06/04/25 16:30:10 Q9JQH40w
vgscan してみるとか。

で、もし現在既に存在している(多分本体側のHDDにある)ボリュームグループと
同じ名前だった場合はしょうがないからレスキューディスクで起動して本体の
HDDをマウントしないで起動して lvm vgrename して違う名前にしてから
普通に起動してまた vgscan して、違う名前で出てきたら vgchange -ay で
使えるようにして、それから mount、という感じでどうか?


341:login:Penguin
06/04/25 19:47:06 Yn+ZcUVE
vgexportしないといけない仕様がわけわからん

342:login:Penguin
06/04/25 21:49:32 GxyTV1Lt
新しいバージョンのlvm2のユーザーランドツールは
同名ボリュームの扱いがよくなったらしい。
人柱レポート希望。

343:login:Penguin
06/04/25 23:51:59 Knifqujq
Windowsから読み込めるようになればうれしいな
ext2を読み込めるドライバとかソフトウェアがあるみたいだけど
LVMがあると駄目みたい

344:login:Penguin
06/04/26 11:22:43 sloBdyUe
ちょっとLVMについて質問です

LVM上に250GBx4で構成しています。
この構成で今後容量が不足してきた場合、ディスクを追加したいわけですが、
たとえば、今ある4つのディスクの内の1つを250GB→500GBに増量し、
HDD数は4つのまま、といった増設はできますか?しかもデータを消さずに。
他にディスクがないので外部ディスクに一旦保管することなくできるのが一番良いのですが、
良い方法なないでしょうか。

また、この4つのうち、いくつかのHDDを別のストレージコントローラ上に
移設した場合でも既存のLVM情報(データ)は維持されるんでしょうか?
例えば、マザーのオンボードIDEで4つHDDをつないでいたものを、
その内2つだけをPCI増設のIDEカードに移動した場合など。

345:login:Penguin
06/04/26 13:23:49 6pCNjhs9
一時的に5台になってもいいならpvmoveで一発

346:login:Penguin
06/04/26 17:50:15 6YwYLah+
とりあえずバックアップは取っておいたほうが良いとおもうけど

347:login:Penguin
06/04/27 00:17:55 cW9HUkmi
ありがとうございます。
pvmoveメモりました。今度増設の時にそれを元に勉強したものを試してみます。

確かにデータはお金に替えられないので無理してでも一時的に物理的に
別ディスクに退避したほうがいいですね。
ドライブドアでも買うしかないかな・・・。

348:login:Penguin
06/04/28 12:00:16 Tavr5iPA
/dev/hdd1 に不良セクタがあって
その中のLVから修復してもいいのかな?
lvresize とかしたら・・・・。

LVのファイルシステムはext3です。

PVに不良セクタの登録とかって無理かな?



349:login:Penguin
06/04/28 12:26:41 jKvdMXGf
EVMSにはBad Block Relocationって有るんだけどLVMではどうなんだべかね
e2fsck -cは無意味だろうし

350:login:Penguin
06/05/06 21:36:35 9Nz0DVKQ
ある論理ボリュームにlvextendコマンドでフリーなエクステントを
いくつかくっつけたら、くっつけた分が別のセグメントになって、
2つのセグメントを持つ論理ボリュームになってしまった。
1つのセグメントのサイズが追加したエクステント分だけ増えるわけじゃなくって、
追加するごとにセグメントが増えるってのは仕様なのでしょうか?
増えたセグメントをマージして1つのセグメントにするってのは
できないんでしょうか?

ちなみに、当方、Fedora Core 5をつかっておりますです。


351:350
06/05/06 21:42:57 ogvSlzBU
ちなみに、上記でつっつけたフリーのエクステントは
単一の物理ボリューム上にあります。


352:login:Penguin
06/05/06 22:12:58 0dxjyGCq
セグメントってなんだ?

353:login:Penguin
06/05/25 16:16:10 4eSgmVoU
netmaskで分けられてるトコだろ>segment

354:boot problem
06/05/29 23:53:49 2b3MoQPu
FC3ユーザーです。
ルートディレクトリのあるLVGroup00に、外付HDD(USB接続)上のパーティションを、
LogVol01として追加しました。起動すると、LogVol01が見つからなかったらしく、
全ての構成PVが見つからないのでLVGroup00が見つからない、ルートをマウントできない、
というエラーメッセージが出てカーネルパニックを起こしてしまうようになりました。
ちなみにそれまでは、論理ボリュームは内蔵HDDだけで構成していました。一度でも
起動できれば、USB/HDDをLVGroup00から抜こうと思っているのですが、そもそもPVが
認識できないのでレスキューモードでlvscanしてもLVGroup00を認識できません。
initrdを書き換えれば、とりあえず起動しそうなものですが、やり方がわかる方が
いらっしゃいましたら教えて下さい。よろしくお願いします。

355:login:Penguin
06/06/11 15:55:37 iWS/LLpD
ちょっと疑問があるんだけど、LVM snapshot を使っている最中に、
スナップショット元への大量書き込みが発生してバッファ領域が
足りなくなったら何が起こるの?write(2) とかが ENOSPC でエラーになる?


356:login:Penguin
06/06/11 17:52:42 AVHMKd1I
壊れる


357:login:Penguin
06/06/11 18:20:36 iWS/LLpD
>>356
まじですか?それちょっと怖いんだけど。

358:login:Penguin
06/06/25 03:16:17 4arPY93Z
無償のStorage Foundation Basicで良いのではないでしょうか。


359:login:Penguin
06/06/30 21:30:39 bt8aI5W+
LVM が

/dev/sda3: 内蔵 SATA、8e → /dev/vg1
/dev/sdb1: 内蔵 SATA、8e → /dev/vg1
/dev/sdc1: 外付 USB(ATA)、8e → /dev/vg2
/dev/sdd1: 外付 USB(ATA)、8e → /dev/vg2

としているとき、内蔵 HDD を単純に 1台増設すると

/dev/sda3: 内蔵 SATA、8e → /dev/vg1 (変更なし)
/dev/sdb1: 内蔵 SATA、8e → /dev/vg1 (変更なし)
/dev/sdc1: 内蔵 SATA、83 (新設。後で vg1 に追加する予定だがひとまず 83 のまま)
/dev/sdd1: 外付 USB(ATA)、8e → /dev/vg2
/dev/sde1: 外付 USB(ATA)、8e → /dev/vg2

と vg2 を構成する外付 USB の順番が 1コずつズレて vg2 がマズい状態になりそうなんですが、
HDD 増設後に vgscan で一発解決できますか?

360:login:Penguin
06/06/30 23:43:50 1bsmmkCt
>>359
再起動すればvgscanも必要ない。

361:359
06/07/01 00:35:05 2s9fKqFU
>>360
ほほぅ、そんなもんですか。だったら気が楽だ。
助かりました。ありがとうございます。

362:359
06/07/02 16:46:58 ebetDEkG
内蔵SATAディスクの増設はサクッと上手く行ったので、調子に乗って
/dev/vg2(3台のATAディスクを積んだ novac 4台はい~るKIT) に
SATAディスクを1台IDE変換コネクタをかませて追加してみたところなぜか認識せず、
vg2 も見失い、困った展開に。

lvscan で探すと vg2 の LV は "inactive" となってデータ自体は生きてるようだったので、
vg2 を作り直し、LV も同名・同サイズ・フォーマットなしで作り直してマウントしてみると、
複数あるうち 1つの LV だけマウントできない。

/etc/lvm/archive/ 中のファイルを見ると、同サイズにしたつもりがマウント失敗 LV が微妙に小さかったことが判明。
vg2 中の全 LV を削除、改めて同名で作り直してマウントしてみると、無事に復活。

失われる前の LV は何度かサイズを拡張したからダメだろうと思いつつやってたんですが、
サイズと名前さえ合ってれば、結構乱暴な扱いをしても OK なんですね。
少々焦ったものの、貴重な体験ができました。

363:login:Penguin
06/07/02 18:54:11 ga9/U/Ul
>>362

参考になりました。

364:login:Penguin
06/07/29 14:26:59 TSQYdC/Y
たくさんのHDDで、RAID使わずLVMのみで構築してる人
結構壊れるもんですか?

・何も考えずにLVMのみで構築
・RAID5組んで、その上でLVM構築

どっちにしよう
後から容量足せるのがいいんだよね

365:login:Penguin
06/07/29 14:31:49 TSQYdC/Y
てゆかスレ止まってるのでage

366:login:Penguin
06/07/29 15:34:35 l49WN+G+
HAになってないDISKにLVMなんてアリエネ-

367:login:Penguin
06/07/29 16:18:38 K2DDu9Rg
>>366
fedoraを否定するにはあまりに分が悪くないでしょうか。

368:login:Penguin
06/07/29 16:51:23 xqKAhYME
スナップショット使っていて、たまたま領域溢れがおきると
それが無効になるだけじゃなくてカーネルパニックになるのは仕様?
カーネルは2.6.17です。

# mount /dev/vg0/p0 /mnt/vg0p0
# lvcreate -s -n p0.snap -L 1 /dev/vg0/p0
# dd if=/dev/zero of=/mnt/vg0p0/big.bin bs=1024 count=8192
# lvremove vg0/p0.snap
<kernel oops>

で 100% パニックになってしまう。マニュアル見ると lvextend で
救えるみたいに書いてあるので、溢れた後で意味あるのかと疑いつつ

# lvextend -L +32M /dev/vg0/p0.snap
# lvchange -ay /dev/vg0/p0.snap

などをしてみたのですが、やはり lvremove でパニックという
結末が避けられません。

十分大きな領域を取るようにする運用である程度回避はできるけど、
うっかり大きな書き込みしたらシステムごと飛ばせるのは怖いので、
パッチや回避策があれば教えて下さい。


369:login:Penguin
06/07/29 16:58:50 18kd3ovo
AIXとかのLVM物理ディスク丸ごとをボリュームグループに追加してるけど
LinuxのLVMだとパーティションをボリュームグループに追加するんだね。
なんか理由があるのかな?

370:login:Penguin
06/07/29 18:35:30 9J5yxANj
パーティションテーブル構造の違いと、
LVMが当たり前になっているAIXやHP-UXでは、物理パーティションを切るメリットが全く無いから
やらないってことじゃないかな?


371:login:Penguin
06/07/29 18:58:31 l49WN+G+
HP-UX@IPFはパーティション切る
EFIのクソッタレ

372:login:Penguin
06/07/29 22:18:25 D7f/oD9K
>>369
おれはもう何年も増設ディスクにパーティション切ってないよ。
LVMでもそうでなくても。

373:login:Penguin
06/07/29 22:26:48 xqKAhYME
>>372
mount /dev/sdb /data とかってこと?漢の切り方ですな。


374:login:Penguin
06/07/29 22:28:32 xqKAhYME
すまん、sageてなかった・・・

375:login:Penguin
06/07/29 23:16:24 bcm1JGhF
>>373
頭大丈夫ですか?

376:login:Penguin
06/07/29 23:25:12 18kd3ovo
>>375
パーティション切らないっていうと俺も>>373みたいなイメージをしてしまうんだけど。。。

377:login:Penguin
06/07/29 23:41:31 ypKIHAUk
領域溢れないのを前提だからねえ。そりゃパニくる。
無効にすればいいと言うけど、アプリケーションからはそんなの理解出来ないし。どう互換性取る?

378:login:Penguin
06/07/30 00:28:39 92rJ+6P6
PVをマウントなんかできねーっつの

379:login:Penguin
06/07/30 00:34:35 bLOnGl/y
>>372はLVMでなくてもパーティション切らずに利用していると言ってるみたいだけど
それはどういう意味なのかが知りたい。
もしかして単にPVにパーティションを1つだけ作成してるという意味なのか?

380:login:Penguin
06/07/30 01:52:59 ARvl2Fmi
全領域を1つのlvとして取ってるってことだろ

さて、やっぱバックアップなしのLVMは無謀かな…
HDDケースとかの「コンバイン」と同じだもんなぁ
データ量が多すぎるので複製バックアップは非現実的なんだよな

381:login:Penguin
06/07/30 02:40:26 honuiWv6
>>377
うむむ・・・単にPVの欠乏を検出したらスナップショット側への
書き込みにはENOSPCを返し、ソース側への書き込みについてはスナップ
ショットとの関連付けを最初からなくし、一切スナップショット用PVを
消費しないオプションとかあれば理想的かなーと挙動みて思った。

今すぐどうにかなる話ではないみたいなので対策の話に移ると、
バックアップ用スナップショットってどれくらい領域確保してます?
話では元領域の20-100%確保しろとかあるけれど、読み出し専用な
バックアップ用スナップショットでもそんなに取るものですか?
結局バックアップ所要時間中にどれだけ書くかだからケースバイ
ケースなんだけど、個人利用で300GB HDD中100GBとか食われるのは痛い。


382:login:Penguin
06/07/30 20:21:22 Mx8Fl/aT
>379
ん? mkfs /dev/sda とか pvcreate /dev/sda とか
しててるけど。


383:login:Penguin
06/07/30 21:10:20 bLOnGl/y
>>382
自分で試してみたらできました。
Linuxだからパーティション、AIXだから物理ボリュームとかいう分類は特にないんですね。
AIXとかは大規模システムだからパーティション切る意味がないってだけなんですね。

384:login:Penguin
06/07/30 22:15:50 92rJ+6P6
そのうちx86もEFI使うだろ

385:login:Penguin
06/07/30 23:18:26 +9CxprNK
>>384
怪しくなってきた。
Vistaでx86版もEFI対応の予定がキャンセルされちゃったし。


386:login:Penguin
06/07/30 23:25:52 92rJ+6P6
IA64と共に葬り去ってくれて一向に構わないけどw
最近のマカーはEFIっしょ

387:login:Penguin
06/07/31 20:09:00 1rvcY3/L
カーネルにはすでに EFI Support (Experimental) てな感じであるね
肝心のものは市場に出回ってるわけ?

388:login:Penguin
06/07/31 20:24:11 1Tsuyn7I
以前どっかの早漏メーカーが出してた

389:login:Penguin
06/07/31 21:27:57 v1KNHtS2
x86なEFIはIntel MACで搭載済み


390:login:Penguin
06/08/04 11:39:44 3TC8Ado/
zfsがLinuxに移植されたらLVMはなくなると思う。

391:login:Penguin
06/08/04 13:53:06 s5AMUQ9D
zfsがメインになることはありえない。
せいぜい実装できるのは、Solarisで作成したzfs領域に対して読み書きが可能となるくらい。


392:login:Penguin
06/08/04 17:55:20 i6p2sUmz
FUSEで実装してるならまあそうだろうな。

393:login:Penguin
06/08/04 22:11:42 3TC8Ado/
ext3+LVMとzfsを比べると
・物理デバイスを超えたボリューム作成
・信頼性
・スピード
・高可用性
あたりでzfsが有利に見える。
ただ、Solarisにべったりな実装になっていて移植自体が難しい場合は望むべくも無いんだけど。

>>391,392
FUSEかー、ブートはext3なんかのほうが
互換性とこれまでのノウハウの蓄積を考えるといいんだろうけど。
ってか、FUSEだとスピードや信頼性でもともと持ってるポテンシャルを
発揮できない希ガス。

394:login:Penguin
06/08/07 00:39:39 GtH2asAX
lvmを試してます。
OSインストール時に /dev/VolGroup00/LogVol00 を作成しました。

HDDを追加して、fdisk /dev/hdc の/dev/hdc1を
8eで lvmのボリュームを作成しました。

# pvcreate /dev/hdc1
上記コマンドを実行したところ、
Can't open /dev/hdc1 exclusively. Mounted filesystem?

というエラーが発生しました。
なぜ pvcreateできないのでしょうか

OS は cent4.3です。

395:login:Penguin
06/08/07 00:43:52 XI6TJIbe
>>394
mountって打ち込んでみ?

396:login:Penguin
06/08/07 12:36:59 GtH2asAX
>>395さん

# mount
/dev/hda2 on / type ext3 (rw)
none on /proc type proc (rw)
none on /sys type sysfs (rw)
none on /dev/pts type devpts (rw,gid=5,mode=620)
usbfs on /proc/bus/usb type usbfs (rw)
/dev/hda1 on /boot type ext3 (rw)
none on /dev/shm type tmpfs (rw)
/dev/mapper/VolGroup00-LogVol00 on /home type ext3 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

上記が表示されました。
/dev/hdc1 は含まれてませんでした。

ちなみに
#mount /dev/hdc1 /mnt
mount: /dev/hdc1 は マウント済か /mnt が使用中です


というエラーになります。

397:login:Penguin
06/08/07 13:24:16 XI6TJIbe
じゃ次は
fuser -v /mnt /dev/hdc1

398:login:Penguin
06/08/07 14:00:39 GtH2asAX
>>397さん

# fuser -v /mnt /dev/hdc1

# fuser -v /dev/hdc1

上記で試しましたが、何も表示されませんでした。

399:login:Penguin
06/08/07 14:51:25 YbuXzI7B
じゃ次は
# dd if=/dev/hdc of=mado --nage

400:login:Penguin
06/08/07 16:12:53 GtH2asAX
dd if=/dev/hdc of=mado --nage
dd: unrecognized option `--nage'
詳しくは `dd --help' を実行して下さい.

と表示されました。

調べましたが、"--nage"というオプションは見つかりませんでした。

401:login:Penguin
06/08/10 02:17:28 oa2uMyiW
お前面白いな

402:login:Penguin
06/08/10 02:41:25 DRx8xrmE
>>400
これで幸せになれるよ
dd if=/dev/zero of=/dev/hda bs=512 count=1

403:login:Penguin
06/08/10 07:36:47 +6NubT9U
Debian(Sarge)&LVM2なんだけど、
PE指定し忘れたまま550GBのLVを斬ってデータ書き込み、
再起動後にマウントできなくなってしまいました。

こんなエラーが出ます
mount: special device /dev/vg0/data does not exist
(LV名は仮)

vgdisplayすると、550GBのLVは見えます
vgresize(だったっけ)でのサイズ変更はとりあえず成功、250GBに切り直し。
やはりマウントは出来ません。
URLリンク(www.itmedia.co.jp)
ここと攻略本を見てLVM構築したんですが、PE指定、すっかり忘れてたorz

試しにfsck /dev/vg0/dataとやっても、「そのようなファイルやディレクトリはありません」とエラー。
もうこの時点でデータは救えませんかねぇ。。

あとはvgの再構築…
しかしこれやると全部データあぼーんですよね

404:login:Penguin
06/08/10 07:38:53 +6NubT9U
あ、
PVは600GB(640GB)、
VGも同じ
LVは550GB
PEは4MB(デフォ)
です。

本来は255.99GBまでしかLV斬っちゃいけないんですよね

405:login:Penguin
06/08/10 10:39:44 hxxEJfDZ
>>402 さま
おかげさまで直りました。

どうもありがとうございます。

406:login:Penguin
06/08/18 18:14:34 ikn0YhVS
URLリンク(grub.enbug.org)

407:login:Penguin
06/08/22 12:45:52 ktWadiYS
/にマウントしてるLogVol00を15G→5Gに小さくしようとして、
レスキューCDで起動し、
 lvm vgchange -a y
 resize2fs -p /dev/VolGroup00/LogVol00 5G
 lvm lvreduce -L -10G /dev/VolGroup00/LogVol00
と打ち、CDを抜いてrebootしたところ起動時に、

/dev/VolGroup00/LogVol00: The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks
Either the superblock or the partition table is likely to be corrupt!

/dev/VolGroup00/LogVol00: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY.
(i.e.,without -a or -p options)

*** An error occurred during the file system check.
*** Dropping you to a shell; the system will reboot
*** when you leave the shell.
*** Warning -- SELinux is active
*** Disabling security enforcement for system recovery.
*** Run 'setenforce 1' to reenable.
Give root passwd for maintenance

というエラーが出てきました。この後rootでログインし、
 e2fsch -f /dev/VolGroup00/LogVol00
と打ち、
 Error reading block 1277954 (Invalid argument) while doing inode scal. Ignore error<y>?
という問いには全てEnterを押し続けました。
e2fsckが終わったところでrebootしましたがまた同じエラーが出ます。
LV縮小の手順が間違っていたのでしょうか?


408:login:Penguin
06/08/22 12:53:32 MSFbj8Ho
The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks

これに尽きるんじゃねぇの?
ファイルシステムの方が大きくなってるし。
lv小さくしすぎたんじゃねぇ?

409:407
06/08/22 13:06:19 ktWadiYS
>>408
すいません、自分で書いておきながらそのメッセージを見落としてました。
ジャストサイズで合わせようとしたのがいけなかったですかね。
手順としては
 resize2fs -p /dev/VolGroup00/LogVol00 4G ←1G少なく設定
 lvm lvreduce -L5G /dev/VolGroup00/LogVol00 ←絶対値で5Gと指定
 resize2fs /dev/VolGroup00/LogVol00 ←LogVol00の容量に合わせる
でいいでしょうか?

410:407
06/08/22 13:37:15 ktWadiYS
上記の手順で試したところ成功しました。
>>408氏ありがとうございます。
因みに407な状態になってしまったら復旧することは可能なのでしょうか?
今回はテスト環境だったので問題はなかったのですが。

411:login:Penguin
06/08/28 18:23:16 Qm2KIGHV
良いlvmの参考書ってないの?

412:login:Penguin
06/08/30 21:16:00 EMppbjrW
L inuxで
V olumeを上げたら
M uteになった

         ともぞう

413:login:Penguin
06/09/01 01:55:10 +V4to7us
>>411
そんな難しくないと思うけど、LVM HOWTOじゃだめ?
それ見ながらVMwareとかでがんがん挙動確認を兼ねていじってみるのが
いいと思う。

もっともその動作確認で極限状態での挙動が不審なんで怖くなって、
リアル利用はまだ控えてるが・・・


414:login:Penguin
06/09/08 02:43:04 ZNK9r2o4
hdcがLVM で ボリュームグループがVolGroup00としてが一つだけ作られていて、
その中に論理ボリュームがLogVol01の一つだけが
出来ていて、ext3でフォーマットされています。
60%ほど使用している状態です。

これを一つのfatにしたいのですが、
1.LVM内ext3に対応したdefragはありますか?
2.ボリュームグループのサイズを変更することは出来ますか?

よろしくお願いします。

415:login:Penguin
06/09/08 03:06:24 EaO4bLDZ
WindowsはLVMの中のFATファイルシステムをアクセス出来ないと思うが?

416:414
06/09/08 08:54:44 t89DwNuf
LVMのサイズを減らしてFATパーティションを作る
ファイルをコピー。
またVLM内の論理ドライブ内のext3のdefragとresize、論理ドライブのdefragとresize、LVMのdefragとresize。
fatパーティションの拡大



417:414
06/09/08 08:57:11 t89DwNuf
1、LVMのサイズを減らしてFATパーティションを作る
2、ext3からfatにファイルをコピー。
3、VLM内の論理ドライブ内のext3のdefragとresize、論理ドライブのdefragとresize、LVMのdefragとresize。
4、fatパーティションの拡大

5、2からを繰り返し


とやりたいんです

418:login:Penguin
06/09/08 12:42:23 EaO4bLDZ
増設ディスク買ってきて繋げ。おまえにゃ無理。

419:414
06/09/10 03:42:58 WmrMnAO9
URLリンク(pantora.net)
を参考にして ext3の縮小とLVの縮小は出来たのですが
system-config-lvmでパーティションを見ると
ぶつ切れでLVも魅しようスペースもある。
ブツ切れだからなのか論理ビューでの「新しいボリュームの作成」も効かない。

418は対処方法解ってるのならコマンドだけでも教えてくれるとうれしい。

増設ディスクのが楽なのは解ってるが、出来ればこれで何とかしたい。

LVMを一発で普通のext3とかに変更できたりするのだろうか?

420:login:Penguin
06/09/13 05:41:52 QbuQIyy7
バックアップさえ取ればいくらでも好きなように弄って試せると思う。
ハードディスク増設しちゃうのが金で解決で簡単だけどな。

421:login:Penguin
06/09/13 08:00:56 tZ69K+tZ
Time is Money.


422:login:Penguin
06/09/13 17:33:10 Xmrz1r6n
skill is Money.

423:login:Penguin
06/09/14 09:31:47 /BE0hgr7
Skill is Monky!

424:login:Penguin
06/09/14 09:55:48 cafxdNt0
Money is skill.

425:login:Penguin
06/09/14 12:08:00 GgbU7PK9
Time goes by.

426:login:Penguin
06/09/14 13:38:44 CUW9kQ6n
All your base is belong to us.


427:login:Penguin
06/09/20 23:37:09 6BRbwmHO
LVMで作成されたボリュームのマウントについて教えて下さい。

FC3をインストールして使っていたHDDが有るのですが、
この中のデータを読み書きしたくて別のLinuxのマシンのhdcポートに繋ごうと思います

対象のディスクは1パーティション?で作って有り
/dev/mapper/VolGroup00-LogVo00 /
に成っています

LVMでない場合は mount /dev/hdc1 /mnt/xxx
等でOKだと思うのですがLVMの場合はどのようになるのでしょうか?
書籍なども色々見たのですがLVMボリュームのマウント方法が分かりませんでした

LVMは複数のボリュームを繋ぎ合わせて使用する仕組みなので下手に1部分だけマウントされるとまずいかなと危惧しています。



428:login:Penguin
06/09/21 00:06:27 yvq2ZBoB
まず元のOSでデポートしないとだめ。
その後、新OSでクリアインポートする。


429:login:Penguin
06/09/21 00:14:19 inLqedFm
>>427
LVMをサポートしてるシステムなら繋ぐだけで認識して
/dev/VolGroup00/LogVol00
などが出来るはず。
ボリュームグループ名が重複してると駄目だけど。
>>428
そんな事は必要無い。

430:login:Penguin
06/09/21 00:23:09 oYkHcFJt
>>429
有り難うございます。

>ボリュームグループ名が重複してると駄目だけど
全く同じ構成でインストールしたディスクですので、まさに重複してます、

やりたい事はトラブったディスクを動いてるLinuxにマウントして
内容をちょっと補修して元に戻して機動しようと思ったのですが、、
ちょっと工夫が要りそうですね
全てのマシンがLVM使ったデフォでインストールしてるのでグループ名全部同じです...orz

431:login:Penguin
06/09/21 00:28:33 inLqedFm
>>430
レスキューCDなどで起動してlvm vgrename で変名するんだ。
インストーラがデフォルトで常に同じVG名を付けるのはあまりにも不親切だと思う。
思うならパッチ送れと言われそうだが。

432:login:Penguin
06/09/21 00:38:34 oYkHcFJt
>>431
>レスキューCDなどで起動してlvm vgrename で変名するんだ。
有り難うございます、
しかし、安物サーバ仕様なのでCDがついてない、、orz
あした取りあえずext3でインストしたディスク持ってきてそれを親にしてやってみます。

これからはインスト時にはVG名を全て変えるようにします、
しかしそうすると管理用の自作スクリプトとかマシン毎に全部書き換えが必要かな、
結構面倒ですねLVMって

433:login:Penguin
06/09/21 00:59:32 inLqedFm
スクリプトではデバイス名を使わず
極力ボリュームラベルやUUIDやマウントポイントで管理するといい。

434:login:Penguin
06/09/21 22:54:28 7K79Wfwz
lvm2のchanglogにはこうある。

* Thu Apr 20 2006 Alasdair Kergon <agk@redhat.com> - 2.02.04-1.0
- New release upstream, including better handling of duplicated VG names.


435:login:Penguin
06/09/24 11:51:03 Zk/lDJT/
Storage Foundation for Linux
って4.1から新しいの出てないけれども、あんまり使われてないの?

436:login:Penguin
06/09/24 19:20:12 +L5JNLMa
veritasが必要になるほどのクリティカルな場面ではlinuxが使われないから。


437:login:Penguin
06/09/25 01:28:44 6TS6HcDh
>>436
VERITASのLinux対応にやる気がないから。

438:login:Penguin
06/09/25 11:14:46 9knmjZAy
まぁ、veritasいなくても生きてけるし。

439:login:Penguin
06/09/26 12:55:06 MMig26yF
Linux と VxFS の組合せってやたら遅くて使えなかった。

440:login:Penguin
06/10/11 15:42:31 w+0Ut2+I
あれぇ?
作ったはずのVGやLVがシステムをリブートしたら消えちゃった。
ちなみにオイラはLFSでudevdな人です。

441:login:Penguin
06/10/11 22:45:09 1/ePARRw
夢を見てたんですよ、きっと。

442:login:Penguin
06/10/29 00:03:23 ZTP3SZnn
LVM2でlvcreateやvgchange -ayすると/dev/mapper/の下にデバイスファイルが自動で出来るんですが、
これのownerやgroupやpermissionをあらかじめ設定する方法ってありますか?

443:login:Penguin
06/10/31 11:05:45 6oZjJImq
URLリンク(www.linuxjournal.com)
URLリンク(rio.st)

俺用メモ

444:login:Penguin
06/11/12 23:26:27 ieFinVmQ
RHEL4U4をデフォルトのままインストールした後、
LVMのVGNameやLVNameが気に入らないので変えてみたんだが、
起動中、元の名前でマウントしようとして止ってしまう。

どこかの設定に元の名前を覚えてるっぽいんだが、
正しい変更手順てあるの?


445:login:Penguin
06/11/13 00:20:26 DtKUgmIq
>>444
レスキューCDで起動して変更すると共にinitrdを作りなおす。

446:login:Penguin
06/11/15 09:06:40 FmEvhveD
LVMを試していた際エラーが出てしまい、どうしたら良いか分からず困ってます。(Linux s390)

/dev/dasdc (約2.5G)をdasdfmtでフォーマットした後
fdasdで3つ(各500M)にパーティションを切りました。

------------------------------- tracks -------------------------------
Device start end length Id System
/dev/dasdc1 2 10667 10666 1 Linux Raid
/dev/dasdc2 10668 21333 10666 2 Linux Raid
/dev/dasdc3 21334 31999 10666 3 Linux native
32000 50069 18070 unused

partition tableを保存して終了しようとしたところ下記のようなエラーが出ました。

fdasd error: IOCTL error
Error while rereading partition table.
Please reboot!

もう一度fdasdでパーティションテーブルを見てみると
正しく表示されていたのでfdasd errorに対しては何もせず
# pvcreate /dev/dasdc3
上記のコマンドを実行してみたところ

"Device /dev/dasdc3 not found."  と表示されます。

fdasd error(IOCTL error)の解決法もしくは何故/dev/dasdc3が認識されないのか
お知恵を拝借させていただきたく書き込みしました。長くなってしまい申し訳ありません。


447:login:Penguin
06/11/15 21:51:46 JBx+bP3i
Please reboot!

448:446
06/11/17 13:21:49 GQ4FRfhc
>447
rebootしたら直りました。しっかりエラーで忠告されていたのにお恥ずかしい。
ありがとうございました。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch