04/04/07 19:35 yMwiLEKO
>>135
レスありがとうございました・・・。
でも、どんなに頑張っても無理でした・・・。
もちろんバックアップを取っていない私が悪いのですが(TT
今後はバックアップを取るように気をつけます・・・。
137:login:Penguin
04/04/07 21:04 tbnmpj7T
>>135-136
URLリンク(www.linux.or.jp)
8.2 なぜストライピングしないのか
ストライピングだけを行うと、「ビット単位」で破壊が起こる危険が出てきます。ディスクが駄目になると、
論理ボリュームの内容がおしゃかになってしまいます。
データを連続して置いてあれば、ファイルシステムの一部だけで済ませられます。
Stripingしてなかったらファイルシステムの一部を失うだけで助かるんじゃないの??
俺はずっとそう思っていたんだが。もしそうじゃなかったら俺も今すぐバックアップ
取らないと行けないな。かなり油断していた。
ソフトウエアRAID(md)と組み合わせてLVM作るのが一番無難か??
138:login:Penguin
04/04/07 21:20 YkSh897y
えっ、やってないの?
139:login:Penguin
04/04/08 17:21 KVyl6Huz
>>137
URLリンク(linux.msede.com)
壊れたドライブにデータが無かったら大丈夫らしい(?)が
複数のドライブで一つのパーテーションを実現するような使い方をしているとダメ臭いね。
やっぱり何はともあれバックアップが重要って事で。
140:login:Penguin
04/04/08 17:23 KVyl6Huz
上で>>135が言ってるけど
2)でPVを跨がなかった場合は試してない
これに関してはMailing Listの書き込みを見る限り大丈夫っぽい
って事追記するの忘れてた。
連続ポストスマソ。
141:login:Penguin
04/04/08 20:49 MyiCZN16
正直、PV をまたいだ LV で fs を使うのは危険だと思ってます。
リカバリ時に意味のある単位で backup できないから。
PV の I/O error がでた部分にどのファイルが書かれていたか、
あとからわからない限りはダメだと思ってるんですが。
142:141
04/04/08 20:52 MyiCZN16
ところで、 kernel-2.6.5 の device-mapper で、
LV を 13個以上切って使えてる香具師いますか?
なんで 13なのか とつっこまれそうだが、漏れがその辺りから使えなかったので ...
143:login:Penguin
04/04/09 19:49 sJAe50d2
LVMって実際に使い物になるの?AIXでもクリティカルな用途では
それほど、使われてないって聞いたけど。
144:login:Penguin
04/04/10 06:25 i9h2mmLK
>>143
使ったことないだけ?
使い方知らないだけ?
逆にAIXでLVM使わないでFS作る方法を教えてほしいっすよ。
漏れは、LinuxでもインストーラがLVM+ReiserFSに対応してないのは使う気になれんが。
145:login:Penguin
04/04/11 17:37 Z/hVhcsh
>>142
微妙に環境違うと思うけど、以下の環境でLV26個できてるよ。
Debian(sarge) Linux 2.6.5-mm2 + Device-mapper unstable(2.6.5-udm3)
device-mapper 1.00.15 / LVM2 2.00.11(2004-04-08)
試してて気づいたんだけど、reiserfsがのってるLVをmountしても
Open LVとしてカウントされないんだけど。。。ウチだけ?
↓26LV全部mountしてもOpenLVが16になってる
# vgdisplay
--- Volume group ---
VG Name rootvg
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 75
VG Access read/write
VG Status resizable
MAX LV 255
Cur LV 26
Open LV 16
Max PV 255
Cur PV 1
Act PV 1
VG Size 111.25 GB
PE Size 32.00 MB
Total PE 3560
Alloc PE / Size 1608 / 50.25 GB
Free PE / Size 1952 / 61.00 GB
VG UUID bnxgSD-J5Hb-70Io-TUic-EJGu-y0X5-mnvXRB
146:141
04/04/14 10:53 uDiO3j/8
>>145
情報ありがトン。
udm の patch を調べて別のマシンで実験してみます。
っていうか、こんな機能使うのに kernel-ML をチェックしていなかった漏れがバカでした(;_;
147:login:Penguin
04/05/03 23:05 xF+EBQEG
結局のところVGサイズが最大2TBの制限って解決したんでしょうか??
148:135
04/05/06 23:53 zmQQH789
>>145のreiserfsがOpenLVとしてカウントされない現象ですが、
以下の環境をゼロから作り直したら解消しました。原因は調べてませんが。
Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)
で、正直に白状すると俺は135なんだけど、>>135のレスはアホでした。
>>134には謝っておきます。すまんでした。 _o_
お詫びに以下のURLの情報をテストしてみた。
URLリンク(www.redhat.com)
149:135
04/05/06 23:56 zmQQH789
■PVを跨がない場合の仕込み
Debian(woody) / Linux 2.4.25 / lvm_1.0.8
(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成
(2)LV&ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkreiserfs /dev/testvg/hda5lv
(3)適当にファイルコピー
(4)umount→testvgを停止後、ddでhda6(全PE未使用)を埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6
(5)testvgをactiveにしようとするが当然エラー
# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- ERROR "vg_read_with_pv_and_lv(): current PV" can't get data of volume group "testvg" from physical volume(s)
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group
# /sbin/vgchange -ay
vgchange -- no volume groups found
以前はここで止めてたんで>>135みたいなレスだった。
150:135
04/05/06 23:59 zmQQH789
■PVを跨がない場合のリカバリ
破壊したhda6と同サイズ・同パーティションタイプ(LinuxLVM:8e)のhda7を使ってリカバリ
# pvcreate /dev/hda7
pvcreate -- physical volume "/dev/hda7" successfully created
○hda6のメタデータをhda7にリストアする。
# vgcfgrestore -n testvg -o /dev/hda6 /dev/hda7
vgcfgrestore -- INFO: using backup file "/etc/lvmconf/testvg.conf"
vgcfgrestore -- VGDA for "testvg" successfully restored to physical volume "/dev/hda7"
# /sbin/vgscan
vgscan -- reading all physical volumes (this may take a while...)
vgscan -- found inactive volume group "testvg"
vgscan -- "/etc/lvmtab" and "/etc/lvmtab.d" successfully created
vgscan -- WARNING: This program does not do a VGDA backup of your volume group
# /sbin/vgchange -ay
vgchange -- volume group "testvg" successfully activated
# mount /dev/testvg/hda5lv /mnt/test/
全ファイル生還・md5一致
151:135
04/05/07 00:04 moBi7VqE
■PVを跨った場合の仕込み&リカバリ
PV,VGの作成は同じなので省略
以下のようなLVを使用してテスト。hda5/hda6から512Mずつ使用
# lvdisplay -v /dev/testvg/mixlv の結果(一部)
--- Distribution of logical volume on 2 physical volumes ---
PV Name PE on PV reads writes
/dev/hda5 16 0 2
/dev/hda6 16 0 0
hda6の破壊方法とその後のリカバリ方法は上と同じなので省略
mount前にreiserfsck --checkすると、"--rebuild-treeを実行しろ"と言われるの実行
# reiserfsck --rebuild-tree /dev/testvg/mixlv
# mount -o ro /dev/testvg/mixlv /mnt/test
結果
全175ファイル
復旧 96 ( うち33ファイルはlost+foundに数字のファイル名で救出)
破壊 79 ( 消失17 + md5不一致62)
ファイルはmp3でサイズはまちまち。
計算してないけどファイルサイズ的には半分だと思う
152:135
04/05/07 00:14 moBi7VqE
★PVを跨がない場合・仕込み(LVM2)
Debian(sarge) Linux 2.6.6-rc2-mm1 + Device-mapper unstable(2.6.6-rc1-udm1)
device-mapper.1.00.17 / LVM2 2.00.15 (2004-04-19)
(1)VolumeGroup: testvg (/dev/hda5 + /dev/hda6)作成
(2)LV & ファイルシステム作成(hda5のみ使用)
# lvcreate -L1g -n hda5lv testvg /dev/hda5
# mkfs.reiserfs /dev/testvg/hda5lv
(3)他のファイルシステムから適当にコピー
(4)umount→testvg停止後、ddでhda6を0で埋める
# vgchange -an testvg
# dd if=/dev/zero of=/dev/hda6
(5)testvgをactiveに変更しようとするが、当然エラー
# vgchange -ay testvg
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find all physical volumes for volume group testvg.
Unable to find volume group "testvg"
153:135
04/05/07 00:17 moBi7VqE
★方法(a):代替PVを用意してvgcfgrestoreでメタデータをリストアする。(LVM2)
(a)-(1)破壊したhda6と同サイズのhda7でPVを作成。この際、hda6で使用していたUUIDを指定する。
# pvcreate --uuid MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa /dev/hda7
No physical volume label read from /dev/hda7
Physical volume "/dev/hda7" successfully created
(a)-(2)testvgの情報をリストアする。
# vgcfgrestore -f /etc/lvm/backup/testvg testvg
Restored volume group testvg
(a)-(3)testvgをactiveにする。
# vgchange -ay testvg
1 logical volume(s) in volume group "testvg" now active
(a)-(4)mountする
☆全ファイル生還。md5一致
154:135
04/05/07 00:18 moBi7VqE
★方法(b):生きてるPV(hda5)だけでtestvgをactiveにする。(LVM2)
(b)-(1)vgchangeに"-P"オプション(Partial mode)を追加して実行
# vgchange -ay -P testvg
Partial mode. Incomplete volume groups will be activated read-only.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
Couldn't find device with uuid 'MkKhgl-c9Fl-WWGn-Jj4f-9quN-eG5N-4okVxa'.
1 logical volume(s) in volume group "testvg" now active
(b)-(2)mountする
# mount /dev/testvg/hda5lv /mnt/test
mount: block device /dev/testvg/hda5lv is write-protected, mounting read-only
☆全ファイル生還。md5一致
155:135
04/05/07 00:23 moBi7VqE
★PVを跨いだ場合(LVM2)
PV,VG作成方法は同じなので省略
LV作成では両方のPVから512Mずつ使用
# lvdisplay -v --maps /dev/testvg/mixlvの結果(一部)
--- Segments ---
Logical extent 0 to 127:
Type linear
Physical volume /dev/hda5
Physical extents 0 to 127
Logical extent 128 to 255:
Type linear
Physical volume /dev/hda6
Physical extents 0 to 127
破壊の方法はPVを跨がない場合と同じ(hda6を破壊)
リカバリ方法は(a)の代替PVを使う方法しか使えない模様
(b)の方法だと(テストした環境では)
device-mapper ioctl cmd 9 failed: Invalid argument
と表示される。
結果:全176ファイル => 生還83 / 消失12 / md5不一致 81
あと、(a),(b)いずれの場合もvgchange一発で/dev以下にファイルができない現象が
頻発したけど、もう1回すると問題なくできた。
156:135
04/05/07 00:31 moBi7VqE
あと、LVM2限定で結果だけ。
ReiserFS+hda5破壊 = 12ファイル生還(ただしlost+foundに数字のファイル名)
XFS+hda5破壊 = 65ファイル生還
XFS+hda6破壊 = 66ファイル生還
(ファイル数はいずれも176でサイズバラバラのmp3)
おしまい。
157:login:Penguin
04/05/07 20:23 JJMbJYW4
SoftRAID(RAID1)上にLVを切ろうとしています。
切ること自体はできたのですが、起動時に自動検出してくれません。
起動時のメッセージは
Starting up RAID device: md0(skipped) md1(skipped)
です。
起動後、raidstartとvgscanをやれば、有効になるんですが・・・
fstabで、LVをマウントするようにしています。
OSはRedHat9です。
何かわかりますかねぇ
158:login:Penguin
04/05/07 23:28 saczY0qF
initrd作りなおせオマンコ
159:login:Penguin
04/05/08 11:16 J2fTDgwN
157です。
mkinitrdやってみましたが、結果ダメです。
手順は以下のとおり。
1./etc/modules.confに以下の行追加
alias md-personality-3 raid1
alias block-major-58 lvm-mod
alias block-major-109 lvm-mod
2.mkinitrd
mkinitrd -v -f /boot/initrd_raid-2.4.22-1.2188.nptl.img \
$(uname -r)
3.grub.confをeditし、initrd_raidをロードするようにする
4.再起動
dmesgでは以下のようなメッセージが出ており、うまくいっているように
見えます。
RAMDISK: Compressed image found at block 0
Freeing initrd memory: 168k freed
VFS: Mounted root (ext2 filesystem).
Journalled Block Device driver loaded
md: raid1 personality registered as nr 3
kjournald starting. Commit interval 5 seconds
EXT3-fs: mounted filesystem with ordered data mode.
ちなみに上はfedoraでやってみました。
うーん、何がおかしいんでしょう。
160:login:Penguin
04/05/08 13:33 9BQlLz7P
raidstartしてからmkinitrdしたマンコか?
mkinitrdは/proc/mdstatを見てオマンコよ。
だから/etc/modules.confを編集する必要はないマンコ。
161:157
04/05/08 14:45 pmAGqXMP
すばらしい!うまくいったです。オマンコさん、どうもありがとう。
もうLVMの話じゃないですが、ついでに教えてください。
ひょっとして、mdxデバイスを追加するたびに、mkinitrdしなきゃダメですか?
#まあやってみりゃいいんですが。
162:login:Penguin
04/05/08 16:22 9BQlLz7P
>>161
悲しい事に追加や変更のたびにやらにゃいかマンコ。っていいかげんこの語尾やめたいw
カーネルを再構築してRAID関係をモジュールにしなければ自動認識になるよ。
FC2でどうなってるのかは未確認。
163:login:Penguin
04/05/08 21:10 5z7Jk+RY
157っす
>>162
うーん、つかえねえToT
カーネル再構築は、やったことないし、up2dateが使えなくなりそうなので、やめときます。
まあとりあえず現状で満足することにします。
どうもありがとう。
164:login:Penguin
04/05/16 14:46 VitpnX4s
lvm上に作ったファイルシステムって
WindowsのExplore2fsとかから見えるのかな。
165:login:Penguin
04/05/16 15:02 aVnYK0wB
見エマセぬ
166:login:Penguin
04/05/18 20:07 aktDVrQJ
>>148-156
非常に参考になったわ。
こんなにLVMの事を検証している人を見たのは貴殿が初めてだわ。
これはLVM HOWTOに載せて欲しいぐらいの内容だね。
167:login:Penguin
04/05/28 23:19 PYZd4d/f
pv→HDD3本でひとつのvgを組んでます。
ここから生成されたlvはreiserfsでフォーマットされています。
で、最近 fsck.reiserfsをすると
ディスクにハード障害があります云々いわれます。
この場合、
1.やっぱりHDDに物理的な障害がある。
2.vgになんかの障害がある。
1にせよ2にせよ、fsck以外の修復コマンドとかって存在するのでしょうか??
もしあれば、誰か助けてください。。。。
いま、めちゃブルーです。
168:login:Penguin
04/05/29 03:10 Xtz3Va5J
>>167
3.ファイルシステムが壊れているとか
reiserfsckはデフォルトではcheckだけじゃないの?
--rebuild-treeとか付けんと。>>151みたいに
もちろん、やる前にはバックアップとってな。
HDDの物理的障害だったらdmesgになんか出てると思うけど
>>147
VGじゃなくてLVでしょ。
Unix Magazine 2004年6月号で2.5TBのLV作ってるよ
169:167
04/05/30 23:48 OnGdtw98
>>168
回答ありがとうございます。
いろいろ試してみたのですが、拉致があかなかったため、とうとう
rebuild-treeしたところ、途中でrebuild-treeがAbortしてしました。
bread: Cannot read the block (31329): (Input/output error).
Aborted
ただ、以下のメッセージが出ていることから/dev/hddの物理障害は間違いないっぽいです。。。
hdd: dma_intr: error=0x40 { UncorrectableError }, LBAsect=251175, high=0, low=251175, sector=251175
end_request: I/O error, dev hdd, sector 251175
Buffer I/O error on device dm-0, logical block 31341
そこで、badblocksコマンドにてlv(/dev/lvm/hogehoge)のbadblockを書き出して、
badblocks -o out.txt /dev/lvm/hogehoge
再びreiserfsckをかけました。
reiserfsck --badblocks out.txt --rebuild-tree /dev/lvm/hogehoge
が、上記と同様にAbortされてしまいます。
reiserfsck --rebuild-treeは、不良ブロックがあるために、強制終了されているように見えます。
reiserfsck --rebuild-treeを最後まで終了させるよい方法はないでしょうか??
170:login:Penguin
04/05/31 01:30 hhvzfuis
>>169
dd_rescueでバックアップを作成し、reiserfsckする
「Bad block handling in ReiserFS」
URLリンク(namesys.com)
[dd_rescue]
URLリンク(www.garloff.de)
171:login:Penguin
04/05/31 02:48 lsYmUrdk
dd_rescueなんてあるんですね。
LVM使ってないけど、reiserfsのパーティションが壊れたときは、
私もrebuild-treeが途中で失敗してしまう状況でした。
結局、普通のddで何とかしましたけど。
結構なファイルがlost+found行きになりました。
172:login:Penguin
04/05/31 06:23 OXeGSEwS
えー、ここはLilyVMのスレということで異論ありませんね?
はい、ないようなのでLilyVMスレ@Linux板と決定いたします。
UNIX板のスレはこちら。
【Usermode】LilyVMってどうですか 01【NetBSD】
スレリンク(unix板)
173:login:Penguin
04/05/31 06:29 cSlLkb+0
↓何事も無かったかのように次どうぞ
174:login:Penguin
04/05/31 07:03 OXeGSEwS
URLリンク(lilyvm.sf.net)
IPAの金で作られたUsermodeなNetBSDでつ。Linuxだとそのまま動くけどNetBSDではパッチが必要。
どうですか。
175:良い子のお約束
04/05/31 13:00 KXn0+fEs
(1)日本人が作ったものは40%割り引いて考える。
(2)IPAの金で作られたものは信用しない。
(3)任天堂のゲームには近付かない。
176:login:Penguin
04/06/20 02:44 M3ZdqO8W
インストーラでlvmが使えると楽やね。
177:login:Penguin
04/06/26 21:41 NWOwsSX3
PE Sizeのことで質問させてください。
PE Size = x として、作成するLVは、x * n (0 < n < 65535)なので、
たとえば、PEが4MBのときは、作成できるLVのサイズが4MBの倍数になり、
32MBのときは、32MBの倍数になる。
PE = 4MB の時は、36MBとかのLVを無駄なく作成できるが、
PE = 32MB のときは、LVが32MBか、次は64MBになってしまうので無駄が出来る、、
という理解で正しいでしょうか。
inodeの最小ファイルサイズ(アロケーションサイズ)とは無関係、、ですよね?(^-^:;
PEを32MBで作った後で「PEが大きすぎると無駄が生じやすくなる」とか書かれてる
記事を見つけて焦ってしまったんですが。
178:login:Penguin
04/07/01 12:02 Ua6cWiFK
無駄無駄無駄ぁぁぁ!!!
179:login:Penguin
04/08/31 17:29 mhv4SZxs
LVMって生で使うより重いの?
180:login:Penguin
04/09/01 01:21 hMUQSwG3
>>179
軽い道理が無いだろ(w
でも386や486クラスでもなきゃ、あんまり変わったような気はしないが。
181:login:Penguin
04/09/13 22:02:18 vib1TXoh
LVをルート(/)にマウントしている場合、そのLVをいじりたいときはどうしますか?
ファイルシステムはext3、ディストリはFedora2です。
/boot /dev/hda1
/ /dev/mapper/Volume00-LogVol00
/dev/hda1がext3
/dev/hda2がLinux LVM
/dev/hda3がswap
KNOPPIX3.4をCD-ROM起動して、pvscan,vgscanを試しましたがダメでした。(エラーのメッセージはメモり忘れたスマソ)
182:login:Penguin
04/09/13 22:51:09 vO7Y51N9
ちょっと考えれば、/でlvmを使う意味が無いことくらい気が付くからな。
183:181
04/09/14 21:29:21 PwK9BewZ
でも既にこの構成になってしまっているのですよ。
なにか方法ないですかね?
184:login:Penguin
04/09/14 21:54:41 16qryvOq
FS自体壊れてはいないんだよね?
漏れだったら、dump/restore でLVとパーティションを切り直す。
>>182の言うとおり、/ をLVMにするのは後々にも無用な手間がかかるだけだし。
まあ、勉強と思ってなんとかする方法を考えてみるのもいいけど(この後役に立つ場面があるかどうか・・・)。
185:181
04/09/15 01:11:51 KT7pbieC
>>184
壊れてないです。
方法がなければ切り直そうかと思ってるんですけど、
>勉強と思ってなんとかする方法を考えてみる
ってことでココに書き込んでみた次第でございます。
186:login:Penguin
04/09/17 20:59:29 b4dp+fcm
SLVMって使えんの?
187:login:Penguin
04/09/18 10:22:30 Nmvwrsgi
>>181
スワップを/にして、LVMから/をはずしとけ。スワップはLVMの中にでも
作りなおせ。
188:login:Penguin
04/09/21 23:05:19 F8lCx2GU
>>181
亀レスですまんが、KNOPPIX3.4でもLVMは使えるぞ。
カーネルモジュールがロードされてないギミなので depmod -a して modprobe lvm-mod してみれ。
189:login:Penguin
04/09/22 02:04:49 tY0jOet7
>>188
KNOPPIXのLVMってLVM1じゃなかったっけ?
以前、LVM2環境をミスって起動不能にした時、
データ抜き出そうとして使ったけど、LVM2を操作できなかったと思う
(結局、LVM2環境を新しく作ってHD繋げて吸い出した)
>>181
新しく/用にLV作って必要なものコピー、
そっちを/にマウントするようにして起動ってのは?
Fedoraでどうやるか知らないけど。
FedoraのLVM2環境の起動の仕組みって↓とは全然違う?
URLリンク(www.poochiereds.net)
190:181
04/09/24 01:19:17 JORLx4Uz
>>188
なるほど。試してみたいんだけど、もうパーティションを切りなおしてしまいますた。。。
>>189
そうゆう手がありましたか。でも例えば/の容量を増やしたい場合は、
/のLVの容量 + 増やしたい容量
のLVを作らないといけないんですよねぇ。一時的に倍以上のHDDが必要になるのはちょっとムリぽ。。。
191:login:Penguin
04/09/27 13:12:09 mojAcgNu
そういった事態を想定して、PVは細切れ(数GB単位)で作ってVGに登録しておくことを
学んでおくことにしましょうね >>190
私も一昨年ぐらいにそれを経験して、それ以降/は非LVMな素のパーティションにしました。
192:login:Penguin
04/09/30 00:26:14 9J1+0UZc
オンラインリサイズできるファイルシステム(Reiserfs,xfs)を
使い、各LVは必要最小限のサイズで作りませう
私は/boot+swap+PV1個の3パーティションで節約生活してますよ
(´-`).。oO(なんかさ、LVM使ってるとケチになるよね…)
193:login:Penguin
04/10/04 00:33:55 PdEJi7TQ
194:login:Penguin
04/10/17 02:02:36 HoEJPIc+
lvmかますことによってパフォーマンス落ちる?
導入を検討しとるのだが、ディスクアクセスが遅くなるなら躊躇する。
195:login:Penguin
04/10/17 03:54:32 IwSy/hON
>>194
>>179-180
196:login:Penguin
04/10/18 00:06:23 CENiT07H
定期チェックでfreiserfs@LVMにfsckかけたら
bad sectorが出てAbortしてしまう・・・
複数のHDDがVG登録されていて
物理的にどのHDDがbad sector出してるのか判別もできず・・・
こんな場合どいった手順で復旧していけばいいんでしょうか?
197:login:Penguin
04/10/18 00:07:07 CENiT07H
× freiserfs
○ reiserfs
うぅ・・・
198:login:Penguin
04/10/18 00:58:41 IHK36xr/
>>196
そのファイルシステムがmount可能なら
今すぐバックアップを作る。
その後で>>170かな
人柱になって報告したいなら>>151
199:196
04/10/20 07:26:55 GE+TE0oK
壊れてるHDDが物理的にどれなのかを判別できたんですが
新しくHDD買ってきてPV増やした上で
このHDDをpvmoveしたりするのは自殺行為・・・・ですよね?
syslogにガンガンエラー吐いてるけど復旧する時間が無い~
週末まで耐えてくれ・・・
おとなしく
>>198
でいくべきかな、やはり
200:login:Penguin
04/10/22 20:13:06 6KWwn4ly
>>199
無事?
とりあえず、バックアップとった後で
pvmove試してくれるなら是非人柱希望
ただし、LVM1で"/"がLVM上にあるような環境の場合はヤバいと思う
pvmove中、不良セクタ踏んだ瞬間にフリーズ
→仕方ないので電プチ
→PV死亡。VG活動化できず起動不能
ってなるかも
201:196=199
04/10/23 02:49:17 U8sO2JHE
とりあえず、物理的にどのHDDがBadSector出してるのかを判別できたので
・新しく買ったHDDに新しいVG割り当て
・BadSectorの出るHDDの含まれたVGの読めるデータを買ってきたHDDのVGに移動
・空きが増えたらresize_reiserfsして縮小
・lvのサイズを縮小
・HDD一個分のVGの空きができたらBadSectorの出ているHDD以外のやつをpvmove
・壊れたHDDのVGから切り離して新しく買って来た側のVGに割り当て
・上を繰り返して壊れたHDDのみがVGに登録されている状態にする
という感じで玉突きしてみようかと検討してますが
resize_reiserfsでコケる気が激しくする・・・
アイオーのLinkPlayer+Einキャプチャ機+Samba
でレコーダー代わりにしてたデータ領域で
HDDが4台、データ領域が1TB近くある・・・
202:201
04/10/24 03:56:24 SET3wOLA
壊れたHDDと同じVGに所属しているが壊れたデータの格納されていないLVの
データ避難・LV削除はできましたが
壊れたデータの入ってるLVのresize_reiserfsできず・・・・
203:login:Penguin
04/10/27 11:21:45 EqiaD7Nc
/home にあったデータが一瞬で消えた・・・orz
83→データいれる→8e したら駄目だったのか・・・?
204:login:Penguin
04/10/27 16:44:35 pDldRhuo
そりゃ駄目だ。
205:login:Penguin
04/10/27 17:27:20 lhKPiB/N
やっちまったな
206:login:Penguin
04/12/02 00:01:54 BsejacY+
linuxのmdでraid5デバイスを作成して、その上にLVをきろうと思います。
この場合、ディスク増設>raid5再構築>LV拡張>パーティション拡張等
をオンラインでデータを保持したまま出来るものなのでしょうか。
また、こういうmd上のLVの拡張、VG切り離しなどの情報など有用なURLが
あれば教えていただけないでしょうか。
207:login:Penguin
04/12/02 00:31:11 ZSpotIbt
>>206
そもそもLinuxのmdはraid5の構成を変更して再構築なんか出来たっけ?
208:login:Penguin
04/12/02 07:36:22 LnTTlRFZ
linuxというか、そもそも一般的なraid5でそんなことできるのかどうか。
209:login:Penguin
04/12/02 07:43:07 Bm8JDMsv
raidreconf使えば例えば250GB x 3を250GB x 4にするは出来る
Arrayをオンラインのままでは無理だったかと
250GB x 3を300GB x 3に、は知らんけど
RAIDカードもオンライン拡張可能と書いてあれば大体出来るんじゃない?
210:login:Penguin
04/12/03 02:01:38 du/UIkAw
>>207
URLリンク(www.heart-pot.co.jp)
ここに事例がありました。
しかしmdの上にLVMって普通やらないのでしょうか。
raidカード要らずでメリットが大きいと思うのですが。
211:login:Penguin
04/12/04 02:07:45 BbxGDoDA
> こういうmd上のLVの拡張、VG切り離しなどの情報など
LVとVGはmd上かどうかは関係ないだろ。普通にLVやVG作った場合と同じやりかたでOKだと思う。
問題は、
> ディスク増設>raid5再構築
によって、PV(に割当ててるパーティション)のサイズが増えること。
LVM側でもいろいろ操作が必要。vgcfgbackupして、pvcreate -uして、vgcfgresoreするとか。
ただし、raid5の再構築といい、それにからんだLVMの操作といい、全データが吹っ飛ぶ
可能性が十分考えられるから普通やらない。少々ディスク効率が悪かろうが、別途mdを構成して、
PVに割り当てる方が賢明。
バックアップをちゃんととって、md上の全データ吹っ飛ぶ覚悟ができてるならやってもいいが。
> しかしmdの上にLVMって普通やらないのでしょうか。
普通にやるとおもうけど。raid LVMとかでぐぐってみ。
その場合に、raidを再構築するのがレアなだけ。
212:login:Penguin
04/12/04 17:22:52 BTKpaP2z
>>211
なるほど。そもそもraidとバックアップをきちんと考えわけ
ないといけないですね。
とりあえずディスクが2つあいているので、ミラーセットをつ
くっていろいろ試してみます。
213:login:Penguin
04/12/12 19:04:45 AoK/hzny
複数のPVが1つのVGとLVで構成されているデータ領域の
HDD一台が㌧でしまいました。
復旧にあたって死んでいない残り3台のHDDのデータを
救い出しつつ復旧するにはどうすればよいでしょうか?
来週末までに壊れたHDDよりも容量の大きいHDDを買ってきて
vgrestoreする予定なのですが
これだと死んでないHDD3台のデータも拾えないんでしたっけ?
214:login:Penguin
04/12/12 19:29:21 sTtCJRM0
dd_rescue
215:login:Penguin
04/12/13 02:06:30 PGw1X2t2
>>213
コマンドはvgcfgrestore
>>149以降でテストしてる
生きてるHDD上のデータは救出できるけど
あまり期待しない方がいいよ
死んだHDDにちょっとでも乗っていたファイルは
助からないはず
216:login:Penguin
04/12/26 23:53:59 kkeu0ykE
仕事上必要があってwindows XP 64bit-editionを入れたら
見事に別ディスクのLVM領域は破壊してくれた
何でこういうイヤガラセするかなぁ
217:login:Penguin
05/01/03 02:58:23 mM5fO6TV
Redhat9のkernelを2.6に上げたのでdevice-mapper+LVM2をインストールして
/sbin/mkdmnodで、/dev/mapper/controlをつくりました。
これで起動スクリプトにvgchange -a などを追記して既存ボリュームを認識し
てくれたのですが、以降rebootやシャットダウンの度に最後に
「md0: switching to read-only mode」~「md1X: switching to ...」
というmd関連のメッセージがずらっと表示されるようになりました。
LVMはVer1.Xを使っていますがmd(raid)なんか一個も組んでいません。
これは何が悪いのでしょうか。
どうもカーネルモジュールのmd.cにそういうメッセージを出すところがあ
るみたいですが私ではそれをどうしてよいかもわからないんです。
218:
05/01/28 00:00:53 O4GA9oN8
スナップショットをとる
しばらくその後スナップショット時点の状態に戻すことは可能?
管理情報は残ってるわけだからできそうなんだけど
219:login:Penguin
05/01/28 00:11:59 inuf15bo
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
在宅ワーカー募集します!!日給7800円以上可能!!
詳しいことはホームページに書いてあるのでご覧下さい。
URLリンク(advanced7success.fc2web.com)
尚、お申込みの際は
ID『sa01』が必要になります。
★★★★★★★★★★★★★★★★★★★★★★★★★★★★★★
220:login:Penguin
05/02/24 12:40:30 FPH7Nh1+
保守
221:login:Penguin
05/03/04 02:17:33 DeSP1Kyo
補修
222:login:Penguin
05/03/31 15:24:49 chtc/3VW
ほちゅ
223:login:Penguin
05/03/31 16:18:41 7faVLxYM
RHEL4でext2onlineがサポートされて、だいぶ使いやすくなったけど、
LVMでext3ってどうよ?
224:login:Penguin
05/04/11 19:50:02 1cYagJnp
カーネル2.6のLVM2ってIO負荷が重い状態でボリュームのスナップショットを取ると
メモリ不足でハングアップしてしまうがこれの解決はまだか。
225:login:Penguin
05/04/26 16:16:45 PT/DpSg5
保守
226:login:Penguin
05/04/30 20:18:09 mAb4X/xF
教えてママン
160GBのHDDをFireWireで二つ直列に繋いだ状態で動作しているのですが、
LVMでこの二つをまとめて一つにして(無問題で?)パフォーマンスでるのかしらん?
ためしゃいいじゃんっていうかもしれんが、160GBもデータが入ってると試すのが鬱でね・・・
227:login:Penguin
05/04/30 20:22:21 47MVGwh5
あんまり出ないだろうな。
ファイルシステムが跨る分だけ、安全性に不安があるし。
228:login:Penguin
05/05/01 12:54:41 +L1YW0MG
lvcreate すると以下のようなエラーが出てしまいます。
lvcreate --size 10M --snapshot --name snap /dev/VolGroup00/LogVol_01
Rounding up size to full physical extent 32.00 MB
device-mapper ioctl cmd 9 failed: メモリを確保できません
Couldn't load device 'VolGroup00-snap'.
Problem reactivating origin LogVol_01
物理メモリの残りが少ない時に同事象が発生するようなのですが、出来る時もあり、規則性がありません。
swapも1Gぐらいにしてみましたが同じです。
( >>224 の事象と同じ?)
なにか解決方法はないでしょうか。
229:& ◆R7PNoCmXUc
05/05/01 22:09:16 D6WravXD
金曜日の夜 土曜日の昼 土曜日の夜 日曜日の昼 日曜日の夕 日曜日の夜
↓ ↓ ↓ ↓ ↓ ↓
┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
∧ ∧ ∧∧ ∧ ∧ ┃::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
(・∀・) ∩∀・) (・∀・)∩ ┃:::∧∧::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
/ ⊃⊃ ヽ ⊃ノ /⊃ / ....┃:::('д` )::::::::::::::∧∧:::::::::::::::::::::::::::::::::::
~( ( ヽ )つ ~( ヽノ ......┃:::と ヽ::::::::: ('д` ):::::::( )⌒ヽ;::::::::::
(/(/' (/ し^ J ......┃:::⊂,,_UO~:::(∩∩ ):::::|/.|/uと )~:::::
↑ 今このへん
230:login:Penguin
05/05/08 02:56:13 5XzYn+h8
>>228
2.6カーネルのsnapshotは不安定で実用に耐えないから諦めろ。
231:login:Penguin
05/05/11 10:01:20 5vDYgAyC
>>230
了解。もう諦めて kernel2.4に戻しました。
232:login:Penguin
05/05/17 11:15:10 Ck8u3X4H
# vpvmove /dev/sda15
なんてして
No extents available for allocation
このエラーが出る場合、何を確保してやれば移動が可能になるんでしょうか
233:login:Penguin
05/05/17 11:53:52 vyhwtx4J
>>232
extents for allocation、つまり空き領域。
マウント中のファイルシステムをpvmoveすると固まるのはなんとかならんかなぁ。
snapshotが固まるのと原因同じ気がする。
234:login:Penguin
05/05/17 13:32:14 Ck8u3X4H
>>233
お返事どうもありがとうございました。
lvextend -L-hogeGして減らします。>232はs/vpvmove/pvmove/でした。
そういえば、pvmoveするときはアンマウントしてからやってました。
関係ありませんが、xfsはサイズを増やすことはできても減らすことができないと知って後悔しました。
235:login:Penguin
05/05/23 09:18:37 Ja/BWgyJ
保守
236:login:Penguin
05/05/30 14:02:18 d6Jlq03m
lvm3マダー?
237:login:Penguin
05/06/02 04:36:32 0Nz4wDQN
Fedora2でLVM使ってファイルサーバー立ててますが、quotaを使う必要があり、
fstabにLVMをつかっている/homeの箇所にquotaに記述して、再起動かけたら、
quotaつかえない旨のメッセージがでてきました。
Kernelのquota機能とLVMって共存できないんでしょうか?
以下書き換えた場所です。
LABEL=/ / ext3 defaults 1 1
LABEL=/boot /boot ext3 defaults 1 2
none /dev/pts devpts gid=5,mode=620 0 0
none /dev/shm tmpfs defaults 0 0
/dev/Volume00/LogVol00 /home ext3 defaults 1 2 ←ここにquotaを記述
none /proc proc defaults 0 0
none /sys sysfs defaults 0 0
LABEL=/tmp /tmp ext3 defaults 1 2
LABEL=/var /var ext3 defaults 1 2
/dev/hda2 swap swap defaults 0 0
/dev/cdrom /mnt/cdrom udf,iso9660 noauto,owner,kudzu,ro 0 0
(読みづらかったらごめんなさい)
238:login:Penguin
05/06/03 22:23:53 HOSvdRwa
SGI-XLV移植キボンヌ
239:login:Penguin
05/06/16 18:09:58 Szie+yKv
保守
240:login:Penguin
05/06/30 18:33:39 +uN+drXM
ほちゅ
241:login:Penguin
05/07/12 17:40:23 1+WKcMXD
LVM
242:login:Penguin
05/07/26 19:12:00 GY/+NBD0
LVM2
243:login:Penguin
05/08/25 21:00:10 fWErEiK8
LVM2上にXFSのパーティションがあって、snapshot取りたいんだけど、
xfs_freeze -fしてlvcreate --snapshotすると固まってしまいます。別ttyでxfs_freeze -uするとlvcreateできましたが。
もしかしてxfs_freeze不要?kernelは2.6.12.5ですけどまだ不安定なのかな?
244:login:Penguin
05/08/30 22:24:46 IOjQmEM/
>243
まずはぐぐれよ。
URLリンク(marc.theaimsgroup.com)
あと、MLとのマルチポスト禁止な。
245:login:Penguin
05/09/02 17:34:27 jSBJjcXW
>>228です。
CentOS4.1(2.6.9-11)で久しぶりに試してみたらsnapshot普通にできるように
なっていました!!
lvm2-2.01.08-1.0RHEL4
改善されたんですね。よかった^^
246:login:Penguin
05/09/03 22:06:00 bax3TQFR
>>245
え~~~っと。やっぱりダメでした。
ちょっとスペックの悪いPCで試してみたらまったくダメだ(>_<)
kernel2.4のlvmできちんと動いたPCなんですけどね。ぬか喜びだった(泣)
247:login:Penguin
05/09/13 10:05:53 ERgf6oSn
ほちゅちゅ
248:login:Penguin
05/09/24 11:03:27 2QiD6Syt
HDD 10G の PC を入手したので Debian をインストールしています。
/dev/hda1 256M /
/dev/hda5 512M swap
として残りの 9G で LVM を使って /usr や /var, /home にしてみようと考え
ています。
そこで疑問なのですが、残りのパーティションの切り方は 9G を1つにしちゃっ
ていいんでしょうか。2G 程度をいくつか切ったりするほうがいい?
それぞれのメリット/デメリットがいまいち判らんとです…。
249:login:Penguin
05/09/24 11:51:02 fVJogvpr
/tmpはええのん?
250:login:Penguin
05/09/24 11:55:07 2QiD6Syt
>>249
あ、/tmp も LVM で作るつもり。
251:login:Penguin
05/09/24 12:17:33 frt9ybjp
DebianでLVMはやめたほうがいいよ。壊れるから。
252:login:Penguin
05/09/24 12:39:50 2QiD6Syt
>>251
うは、マジすか? あんまり聞いたことないけど、いままで LVM に縁が無かっ
たから見逃したかな…。ちょっとググってみるす。
253:login:Penguin
05/09/24 12:44:01 96A0EVGi
>>251
ソースは?
254:login:Penguin
05/09/24 14:10:44 UWNeNGSP
LVM2ってもう安定した?
255:login:Penguin
05/09/24 14:27:37 frt9ybjp
LVM2は開発が止まっているようだ。EVMSにしとけばよかったのに。
256:login:Penguin
05/09/24 17:50:45 fVJogvpr
ところで、そんな小さい容量のディスク1本でLVMするメリットなんてあんの?
257:login:Penguin
05/09/25 18:33:45 QLhf2tye
debian potatoからLVM使ってるからもう5年くらいになるが一度も壊れたことないぞ。
LVMも当然 1.0→2.0になってるけど移行時でも問題無かったし。
258:login:Penguin
05/09/25 18:38:59 NYE4yBcb
DebianはLVMが不安定は釣りネタだろうけど
5年間一度も壊れたことないも嘘くせぇw
259:login:Penguin
05/09/25 20:54:57 QLhf2tye
LVM2のsnapshotが安定しないのは閉口ものだが破壊は無かったな。
御疑いなら耐久テストでもしてみることだ。
5年といってもlogical volumeの構成を替える頻度は知れているから、
script組んで耐久テストすることは時間がかかることでは無いわけだし。
260:login:Penguin
05/10/17 03:26:25 llqPomCQ
保守
261:login:Penguin
05/11/08 19:53:15 XbU3MUL4
ほっしゅ
262:login:Penguin
05/11/08 20:41:33 Fqaji/ZY
snapshotってLVMだけでできるん?
FSがサポートしてなきゃだめなんちゃう?
263:login:Penguin
05/11/08 23:16:09 g/AaqPIy
nbd+LVM運用してる人いますか?
264:login:Penguin
05/11/16 12:21:22 jdJfJmQO
vgexportしないでHDD外してしまって、マシンはすでにない
場合、別のマシンに差して中を見る手段はないのかな。
PVがあることは認識出来るんだけど・・・
265:login:Penguin
05/11/16 21:31:24 NvCPL6WD
vgimport じゃ駄目なの?
266:264
05/11/16 22:25:30 rFvkJp3N
VGの情報が見つからない、みたいなことを言われて
駄目だった。(いま別の場所なので、詳細なエラー
メッセージは忘れたが)
vgexportしてないからだと思う。。。
267:login:Penguin
05/11/16 22:35:17 Vdp/hGgb
>>266
#man vgimport
VGIMPORT(8)
NAME
vgimport - make volume groups known to the system
OPTIONS
-f, --force
Force import of volume group even though it is not flagged exported. This
option allows the importing of volume groups from broken systems.
この辺りドウヨ?
(もちろん自己責任で宜しく)
268:264
05/11/17 12:26:25 1Ik63xyP
アドバイスありがとう。
でもダメですた。
-fオプションつけても、
Unable to find exported volume group "hogehoge"
だって。そうだよなあ、exportしてないもんなあ...orz
269:login:Penguin
05/11/17 16:35:43 UqsPVSxa
だめなんかぁ。
新しいシステムでpvscanをしてVG情報を確認後、
vginmport -f VGname
でなんとかなるんじゃ無いかと思っていただけに驚き。
270:login:Penguin
05/11/21 09:39:13 SEUWJCPL
ちょっと納得いかん挙動やね。
じゃぁ、なんで起動時にドライブスキャンするんだろ。
271:login:Penguin
05/11/21 09:57:12 fSDPZtCV
仕様に虐ギレカコヨス
272:login:Penguin
05/12/10 09:21:32 APO7XYXK
保守
273:login:Penguin
05/12/23 01:04:08 1o/HU5Zy
hoshu
274:login:Penguin
06/01/16 08:49:38 oy3iDMab
fedora core 4 のデフォルトインストールでLVMを使用して80GのHDDに
/dev/VolGroup00/LogVol00
を/(ルート)にマウントされてます。
今回160GのHDDを追加してWebminでPV追加。
コマンドでlvextend -L+100Gで論理ボリュームを拡張まで成功しました。
あとはファイルシステムの拡張だけですが、ext2onlineで
JBD: ext2online wants too many credits (2050 > 2048)
ext2online: ext2_ioctl: No space left on device
とエラーメッセージが出てできない。ググってみたが英語でバグ報告みたいなのが
あるだけでよくわからない。
resize2fsを使おうとしてinit 1でシングルユーザーモードにして
umount /dev/VolGroup00/LogVol00
としてから
resize2fs /dev/VolGroup00/LogVol00
とすると
/dev/VolGroup00/LogVol00 is mounted; can't resize a mounted filesystem!
とでてアンマウントできていない様子。
/bootにCDしてからやっても同じ。
LVMそのものに悩むんじゃなくてこんなところでつまずくとは思わなかった。
もう少し修行してきます。
275:login:Penguin
06/01/16 12:37:43 ojCdqT7z
>>274
間違ってたらごめんなさい。
FC4 の rescue disk を使って、起動時に /mnt/sysimage にマウントするか?と
聞いてくるので、マウントしないで起動する。
その状態だと VG が INACTIVE な状態にあるので、
lvm vgchange -a y とかやって、/dev/VolGroup00/LogVol00 が見えるようにしてやる。
そして、resize2fs 実行。
私はこんな感じで LVM 管理下の / (ルートパーティション) を lvreduce (危険を承知で orz) できました。
276:login:Penguin
06/01/16 13:00:11 oy3iDMab
おお!情報ありがとうございます。
まさに私がやりたいことです。
漠然とKNNOPIXなど使わないといけないのかなと思っていましたが、VGに関する
注意点まで書いていただいて感謝です。
一度やってみます。もちろん自己責任で。
277:login:Penguin
06/01/20 12:23:32 aqSLHR49
_, ,_
( ゚∀゚)
278:login:Penguin
06/01/28 19:17:57 VUb2MggI
_, ,_
( ゚∀゚)
279:login:Penguin
06/02/13 01:36:33 gjfNOHrh
いままで素のRAID1でmd0(hda1+hdc1)、md1(hda2+hdc2)とパーティションを
作り、定期バックアップを同容量のディスクに
dd if=/dev/hda of=/dev/hde
として取っていたんだけど、RAID1+LVM にしてもこの方法有効ですか?
上では hde1, hde2 がそれぞれマウント可能なパーティションとして
バックアップされるのだけど、LVM が上に載ってくると、PV 自体は
md0, md1 の上にある形になるので、hde 単体でデータアクセス可能か
不安に思ってます。
同様の経験がある方、いかがでしょうか?
280:login:Penguin
06/02/13 01:46:10 3S74cKwo
LVMがあろうが無かろうが同じ事。完全にコピー出来ていれば動く。
しかし単純にコピーするとhdaとhdeに同じ名前のVGを検出して混乱する。
281:login:Penguin
06/02/13 02:21:49 gjfNOHrh
なるほど、考えてみれば RAID の方の autodetect で hde 上の RAID を
検出しておかしくならなかったのは
dd if=/dev/md1 of=/dev/hde2
と実際にはパーティション個別に dd して、hde* の partition type が
Linux RAID autodetect にならないようにしていたためでした。
今回だと md1 -> hde2 のようにパーティション単位で dd すると
partition type をどれにしても問題が生じる(Linux LVM にすれば
混乱するし、しない場合は hde 単独稼動できない)ので、
dd if=/dev/vgname/volname of=/dev/hde2
で hde の partition type を Linux とするのが唯一の解でしょうか。
ただ、これだとボリューム構成が変わるとバックアップ側の hde の
パーティション構成も追随させないといけないので、結局この簡易
バックアップ手段は RAID1+LVM では使えないかな。
とりあえずやるだけやってみて、駄目なら LVM は諦める事にします。
282:login:Penguin
06/02/13 02:36:25 3S74cKwo
コピー先のボリューム構成を自動的にコピー元に合わせるスクリプト書けばいい
283:login:Penguin
06/02/13 10:22:07 gjfNOHrh
ちょっとチラシの裏っぽくなってきてすみません。
どうやら vgchange -an で autodetect 無効にしてやれば
いけそうです。RAID の方は autodetect にしておいて、
lvm.conf の方には /dev/md* だけをスキャン対象として
書けばバックアップデバイスの hde は完全無視でいってくれそう。
週が明けてしまったので後になると思いますが、できたら
報告しますです。
284:login:Penguin
06/02/24 12:31:49 9ziRUFrf
だいぶ前から不思議に思っていたんだが、
fedoraとかのインストール時に、自動でパーティションを
区切らせると、swapをLVMに置きやがる。
どうせパーティションなんて、手動で区切るから、無視してたんですが、
もしかして、swapをLVM上に置くと、なんかよいことあるんですかね?
285:login:Penguin
06/02/24 12:43:11 AVQ1/ICR
swap領域を簡単に大きく出来る。
swap専用のパーティションが不要。
Solarisパーティションに間違える心配が無くなる。
LVM上に置く事のデメリットが特に無い。
俺は手動で切る時もLVMを使っている。
286:login:Penguin
06/02/25 11:31:04 QwNemt6b
むむ、最近は swap も LVM 上に取るのがトレンドなのか。思い付かなかったな。
287:login:Penguin
06/02/25 15:43:08 CRfylwA+
suspend, resume にswap領域を使うというのはどうなったんでしょう。
今もそうなら使い方によってはマズそう。
288:login:Penguin
06/02/25 15:49:54 XYGtXGls
LVMのスワップにもsuspend出来るようになったけど、それはつい最近の事だからな
289:login:Penguin
06/02/25 18:52:59 vFrh6tPm
swapを万が一のときのためのプライマリィパーティションとして
を使うからなぁ。LVMにはできん
290:login:Penguin
06/02/25 19:56:32 f8TziOip
>>289
万が一って例えばどんなとき?
291:login:Penguin
06/02/25 19:59:39 RKgmengN
業務用なんかでLinux専用で使うんであれば、swapは単独で切っとくな。
rootと/usr以外と外付けは必ずLVMにするだろうけど。
292:login:Penguin
06/02/25 21:29:42 QwNemt6b
>>291
んーと root と /usr は LVM にしないってことか。それはなにゆえ?
293:login:Penguin
06/02/25 21:51:44 7D7kEu1i
/と/usrは大きく容量が増えたりしないからLVMで管理する必要が無いって事だろ。
/と/usrを後生大事にするのは王より飛車を可愛がるようなもんだがな。
294:login:Penguin
06/02/25 23:35:46 f8TziOip
ってことは /usr/local とかは別パーテーションにするのかい?
295:login:Penguin
06/02/27 20:43:44 E8yShcwl
最近swapはファイルで済ませちゃってるな。
LVM使うのは/homeだけだ。
296:login:Penguin
06/02/27 23:45:15 ogY+RzDz
>>294
業務用で実運用中に/usr/localが増えるのはどうかと
297:login:Penguin
06/03/17 16:47:29 pa0JYMTy
ほちゅん
298:login:Penguin
06/03/20 00:40:08 Z/stLUW1
# vgcreate test /dev/hdb2 /dev/hda3
とやって、2つのPVにまたがったVGを作りました。
んで、lvcreate で LVを作るとき、/dev/hda3 だけに作ってくれとか
そういう指定はできない??
299:login:Penguin
06/03/20 00:44:19 3FBcKPyB
>>298
VGの後にPV指定すればいい
300:login:Penguin
06/03/20 00:54:16 Z/stLUW1
>>299
うお、まじで~。
ってmanみたら書いてありました・・・すまんす。
301:login:Penguin
06/03/20 09:18:30 NKUFVZgB
>>298
参考のためになんでhda3だけにLV作ろうと思ったの?
なんか有るならおしえてほぢい。
302:login:Penguin
06/03/20 20:33:13 Z/stLUW1
>>301
実際には hda4 と hdd1 にまたがったVGで hdd は後で追加した。
hdd1 の最後のほうに LV を作りたかった。
hdd が hda に比べて古い HD なので、遅いし、いつ壊れるかわからん。
HDの後ろのほうはさらに遅いので、ここにゴミデータをおきたかった。
てなかんじの、あまり参考にならん理由です。
303:login:Penguin
06/03/20 22:46:38 NKUFVZgB
>>302
なるほど。ありがとう。
304:login:Penguin
06/03/21 05:54:10 qn7ptd8S
>>285
便乗質問で悪いけど
LVMの中にswapパーティション置いても2GBの制限はなくならないよね?
> swap領域を簡単に大きく出来る。
を誤解してるわけじゃないです
305:login:Penguin
06/03/21 06:33:54 GNxk/W6H
>>304
なくならない
306:login:Penguin
06/03/21 10:59:31 qn7ptd8S
>>305
ありがとう
307:login:Penguin
06/03/23 16:32:23 zYoXh2XX
LVMとは直接関係ないことだけど swap の話が出たので。
うちはメモリーを512MB以上積むようになってからは、
swapパーティションを切らないようになった。
現在はアプリケーションサーバとしては動かしていなので
問題は起きてないのですが、メモリ食いのアプリを
動かすようになったら考慮しないといけないかも。
ファイルサーバーやWebサーバー、DNSやルーター程度なら不要だよね?
308:login:Penguin
06/03/23 18:03:00 dgXyXwqo
俺んちFC4だが、swapの2GB制限ないよ~?
1つのパーティションでswap 3GB に設定してあって
今、実験してみたら3GBフルに使えた。
309:login:Penguin
06/03/24 20:40:48 oFxp8fco
Linuxの場合、LVMとソフトRAIDが別機能ってのが、わかりづらいな。
VG作るときにミラーとかストライピングが指定できるようになれば、かなり使いやすくなるのになぁ。
310:login:Penguin
06/03/25 02:03:59 ldYGxjMi
>>310
何言ってんのかわからん。MirrorDisk/UXだって別売りだろ?
311:login:Penguin
06/03/25 03:01:06 VNcGuME2
確かに、VxVMやDiskSuiteなんかは、LVMとSW-RAIDを明確に分けてないな。
物理ディスクをまとめるときに、普通にミラーやらRAID5を指定して作れる。
312:login:Penguin
06/03/25 12:01:24 ldYGxjMi
VxVやMDiskSuiteに、LVMは含まれてないと思うんだが。
313:login:Penguin
06/03/25 12:47:07 jFeUU+q+
LVMに相当する機能のことだろ。
DiskSuiteの用語で言えば、「ソフトパーティション」
それにSolaris9からは、DiskSuiteのこと自体を「LVM」と詠んでるしな。
314:login:Penguin
06/03/26 23:53:14 +ilWfbVR
「くだらねえ質問は…」から引っ越してきました。
元の質問はこれです。
スレリンク(linux板:827番)
で、いろいろやりとりがあったわけですが、…
スレリンク(linux板:881番)
スレリンク(linux板:884番)
スレリンク(linux板:888番)
スレリンク(linux板:889番)
スレリンク(linux板:892番)
スレリンク(linux板:893番)
vgchange -a y VolGroup00 をやりましたが、/dev 以下には
何の変化もないようです。
あと、向こうのスレで書き忘れていたことを書いておきます。
現在インストールされているOSはFC5で、これはこれでLVMに
なっています(/bootが/dev/hda1で/dev/hda2がLVM。その中に
swap と /)。で、外付けに付いているディスクは FC3 で使用
していたものですが、構成は同じです(/dev/sda1 が /boot で
/dev/sda2 が LVM。その中に swap と /)。
ということで、この現在外付けにある LVM の中の / をマウント
する方法を教えてください。よろしくお願いします。
315:login:Penguin
06/03/27 00:15:20 J/oPtjaT
1. とりあえず祈る。
2. 古いディスク(/dev/sda)で起動する。
3. lvm情報を消す。(vgchange -a n VolGropu00したあと、vgexport VolGropu00)
4. 新しいディスク(/dev/hda)で起動する。
5. 古いディスクを付ける。
6. vgimport vg01 /dev/sda2、 vgchange -a y vg01
7. /dev/vg01/???をマウント。
URLリンク(www.linux.or.jp)
日頃の行いが良いことを願え。
もしくはもっと安全な方法を誰かが教えてくれることを。
316:login:Penguin
06/03/27 00:17:58 J/oPtjaT
しかし、マウントしているディスクは vgchange -a n
できないんじゃないかなぁ。
なんとなく、もう1回インスコしなおしてインストール時に
VG名を変えた方が簡単な気がする。
317:login:Penguin
06/03/27 00:26:17 J/oPtjaT
>>316
knoppixとかを起動してlvm情報を消すの方がいいかも。
318:login:Penguin
06/03/27 00:31:22 LGc9eKUw
Knoppixなぞ使わんでFedoraのインストールCDでレスキューモードに入ればいい。
その時一時的にBIOSで/dev/hdaを殺しておくといいだろうな。
そのうえでvgrenameで/dev/sda上のVGを変名。
あとは普通に起動してlvscanすれば見えるはず。
319:login:Penguin
06/03/27 00:40:04 J/oPtjaT
>>218
ありがとう。俺も参考になったよ。
320:314
06/03/27 01:10:03 SywC2/7h
皆様いろいろありがとうございます。
レスキューモードためしてみます。
321:314
06/03/27 02:28:07 SywC2/7h
ダメでした。
BIOS で内蔵HDDをNoneにしてからレスキューで起動すると
外付けHDDがマウントされるんですが、vgrename は vgchange -an
をした後でないとできません。しかし mount されているので
vgchange はエラーとなります。umount すればいいんでしょうが、
そうすると vg* のコマンドがレスキューに入っていない、というか、
それ以前の問題として、/etc 以下が見えなくなります。
322:login:Penguin
06/03/27 02:36:09 LGc9eKUw
>>321
レスキューCDでLVMを操作する時はlvmコマンドを使うんだ。
lvm vgscan
lvm vgrename ほげ ふが
のように使う。
そもそもvgほげほげやlvほげほげはlvmへのシンボリックリンク。
323:login:Penguin
06/03/27 02:51:07 SywC2/7h
>>322
なるほど。しかし /mnt/sysimage の umount はできませんでした。
たしかオープンしているというようなエラーが出てました。
これだとどうにもできないですよね?
KNOPPIX で起動してみるというのもやってみたんですが、
KNOPPIX 4.0.2 には lvm が入っていないため、そのまま
では何もできませんでした。
324:login:Penguin
06/03/27 03:01:55 LGc9eKUw
>>323
umount /mnt/sysimage/boot
umount /mnt/sysimage/proc
umount /mnt/sysimage/sys
umount /mnt/sysimage
ていうかレスキューモードで起動する時にmountしないを選べ。
325:login:Penguin
06/03/27 04:03:06 SywC2/7h
>>324
あー!そういえばマウントしないってありましたねえ。
うっかり惰性で毎回マウントしてた。orz
でも、もうひとつの方法に気がつきました。
スレリンク(linux板:904番)
ようはVGの違うマシンにつなげばいいんじゃないか? ということですが。
ま、とにかく、続きは明日やります。
いろいろとありがとうございました。
326:login:Penguin
06/03/27 10:51:35 DhLB5I7L
LVMって使わない場合と比較してもファイル操作の速度はほとんど落ちないんだね。
327:login:Penguin
06/03/27 20:32:55 J08GeQnt
むしろ、ストライプの場合は、上がるんじゃね?
328:325
06/03/27 22:10:35 SywC2/7h
やった! マウント成功!
BIOSで /dev/hda を None にしてからFC5のレスキューでHDDを
マウントしないで起動して lvm rename で名前を変えたら2つVG名が
出てきました。で、リブートして BIOS で HDD を戻して起動後に
vgscan したら出ました。んで /dev に新たにVG名のディレクトリと
LVのデバイスができていたのでマウントしたらできました。
ということで皆様大変ありがとうございました。これでファイルを救えます。
329:login:Penguin
06/04/10 19:36:59 vi3HRBbu
LVMの中でSWAPのサイズをでかくするのはどうやってやるのですか?
330:login:Penguin
06/04/11 01:39:14 taYacMjR
lvextendかlvresizeででかくして、swapoff;mkswap;swapon
331:login:Penguin
06/04/11 02:26:32 bPJLOCKr
hahaha
332:login:Penguin
06/04/11 03:09:22 taYacMjR
hahahaじゃでかくはならんぞ
333:login:Penguin
06/04/11 09:14:22 FTvKraHL
>>329
まあ、まず swapoff する必要はあるだろうなあ。
その後スワップ用パーティションをでかくして、
それが終わったらそのパーティションに対して
mkswap して、それから swapon で追加。
334:329
06/04/11 12:10:49 +JtsdC+X
>>330,>>333
ありがとうございます。無事増やす事が出来ました
335:login:Penguin
06/04/11 20:06:16 SajR50yj
mdマジで使いにくいなぁ。
LVMの方でミラーをサポートする計画ないんかな?
336:login:Penguin
06/04/14 01:08:29 CGlDZwjN
無いみたい。MDは今後も活発に開発が続く。いっぽうLVMのほうは怪しい雲行き。
337:login:Penguin
06/04/25 13:27:45 V1nepZR+
教えてママン
例えば、外部ストレージをLVMで使ってたとするじゃん。
で、OS再インスコして、その外部ストレージのデータに再度アクセスするには、
具体的には、どのような手順で復旧すればいいんじゃろか?
RHEL4,LVM2で説明してくれるとありがたい。
338:login:Penguin
06/04/25 14:09:12 zXm32lfy
>>337
vgexport
339:login:Penguin
06/04/25 16:13:56 V1nepZR+
>>338
早々のレスポンスありがとうございます。
vgexport,vgimportは、ディスクの移設用途に有用だと思いますが、
自分のご享受頂きたいのは、復旧用途です。
質問内容を以下に変えます。
外部ストレージにLVMを使用しているOSがあったとします。
で、/etc/lvm以下は、他サーバにでもコピってあるとします。
その状態で、そのOSを再インスコして、LVMの構成情報なくなったとすると、
単純に、/etc/lvm/*をコピーって復元すれば、
もとのストレージ上のLVにアクセスできるんでしょうか?
だめなら、どうすればできるでしょうか。
LVMの構成のバックアップの観点からすると、
/etc/lvmのバックアップを考えてますが、
他になんかありますでしょうか。
340:login:Penguin
06/04/25 16:30:10 Q9JQH40w
vgscan してみるとか。
で、もし現在既に存在している(多分本体側のHDDにある)ボリュームグループと
同じ名前だった場合はしょうがないからレスキューディスクで起動して本体の
HDDをマウントしないで起動して lvm vgrename して違う名前にしてから
普通に起動してまた vgscan して、違う名前で出てきたら vgchange -ay で
使えるようにして、それから mount、という感じでどうか?
341:login:Penguin
06/04/25 19:47:06 Yn+ZcUVE
vgexportしないといけない仕様がわけわからん
342:login:Penguin
06/04/25 21:49:32 GxyTV1Lt
新しいバージョンのlvm2のユーザーランドツールは
同名ボリュームの扱いがよくなったらしい。
人柱レポート希望。
343:login:Penguin
06/04/25 23:51:59 Knifqujq
Windowsから読み込めるようになればうれしいな
ext2を読み込めるドライバとかソフトウェアがあるみたいだけど
LVMがあると駄目みたい
344:login:Penguin
06/04/26 11:22:43 sloBdyUe
ちょっとLVMについて質問です
LVM上に250GBx4で構成しています。
この構成で今後容量が不足してきた場合、ディスクを追加したいわけですが、
たとえば、今ある4つのディスクの内の1つを250GB→500GBに増量し、
HDD数は4つのまま、といった増設はできますか?しかもデータを消さずに。
他にディスクがないので外部ディスクに一旦保管することなくできるのが一番良いのですが、
良い方法なないでしょうか。
また、この4つのうち、いくつかのHDDを別のストレージコントローラ上に
移設した場合でも既存のLVM情報(データ)は維持されるんでしょうか?
例えば、マザーのオンボードIDEで4つHDDをつないでいたものを、
その内2つだけをPCI増設のIDEカードに移動した場合など。
345:login:Penguin
06/04/26 13:23:49 6pCNjhs9
一時的に5台になってもいいならpvmoveで一発
346:login:Penguin
06/04/26 17:50:15 6YwYLah+
とりあえずバックアップは取っておいたほうが良いとおもうけど
347:login:Penguin
06/04/27 00:17:55 cW9HUkmi
ありがとうございます。
pvmoveメモりました。今度増設の時にそれを元に勉強したものを試してみます。
確かにデータはお金に替えられないので無理してでも一時的に物理的に
別ディスクに退避したほうがいいですね。
ドライブドアでも買うしかないかな・・・。
348:login:Penguin
06/04/28 12:00:16 Tavr5iPA
/dev/hdd1 に不良セクタがあって
その中のLVから修復してもいいのかな?
lvresize とかしたら・・・・。
LVのファイルシステムはext3です。
PVに不良セクタの登録とかって無理かな?
349:login:Penguin
06/04/28 12:26:41 jKvdMXGf
EVMSにはBad Block Relocationって有るんだけどLVMではどうなんだべかね
e2fsck -cは無意味だろうし
350:login:Penguin
06/05/06 21:36:35 9Nz0DVKQ
ある論理ボリュームにlvextendコマンドでフリーなエクステントを
いくつかくっつけたら、くっつけた分が別のセグメントになって、
2つのセグメントを持つ論理ボリュームになってしまった。
1つのセグメントのサイズが追加したエクステント分だけ増えるわけじゃなくって、
追加するごとにセグメントが増えるってのは仕様なのでしょうか?
増えたセグメントをマージして1つのセグメントにするってのは
できないんでしょうか?
ちなみに、当方、Fedora Core 5をつかっておりますです。
351:350
06/05/06 21:42:57 ogvSlzBU
ちなみに、上記でつっつけたフリーのエクステントは
単一の物理ボリューム上にあります。
352:login:Penguin
06/05/06 22:12:58 0dxjyGCq
セグメントってなんだ?
353:login:Penguin
06/05/25 16:16:10 4eSgmVoU
netmaskで分けられてるトコだろ>segment
354:boot problem
06/05/29 23:53:49 2b3MoQPu
FC3ユーザーです。
ルートディレクトリのあるLVGroup00に、外付HDD(USB接続)上のパーティションを、
LogVol01として追加しました。起動すると、LogVol01が見つからなかったらしく、
全ての構成PVが見つからないのでLVGroup00が見つからない、ルートをマウントできない、
というエラーメッセージが出てカーネルパニックを起こしてしまうようになりました。
ちなみにそれまでは、論理ボリュームは内蔵HDDだけで構成していました。一度でも
起動できれば、USB/HDDをLVGroup00から抜こうと思っているのですが、そもそもPVが
認識できないのでレスキューモードでlvscanしてもLVGroup00を認識できません。
initrdを書き換えれば、とりあえず起動しそうなものですが、やり方がわかる方が
いらっしゃいましたら教えて下さい。よろしくお願いします。
355:login:Penguin
06/06/11 15:55:37 iWS/LLpD
ちょっと疑問があるんだけど、LVM snapshot を使っている最中に、
スナップショット元への大量書き込みが発生してバッファ領域が
足りなくなったら何が起こるの?write(2) とかが ENOSPC でエラーになる?
356:login:Penguin
06/06/11 17:52:42 AVHMKd1I
壊れる
357:login:Penguin
06/06/11 18:20:36 iWS/LLpD
>>356
まじですか?それちょっと怖いんだけど。
358:login:Penguin
06/06/25 03:16:17 4arPY93Z
無償のStorage Foundation Basicで良いのではないでしょうか。
359:login:Penguin
06/06/30 21:30:39 bt8aI5W+
LVM が
/dev/sda3: 内蔵 SATA、8e → /dev/vg1
/dev/sdb1: 内蔵 SATA、8e → /dev/vg1
/dev/sdc1: 外付 USB(ATA)、8e → /dev/vg2
/dev/sdd1: 外付 USB(ATA)、8e → /dev/vg2
としているとき、内蔵 HDD を単純に 1台増設すると
/dev/sda3: 内蔵 SATA、8e → /dev/vg1 (変更なし)
/dev/sdb1: 内蔵 SATA、8e → /dev/vg1 (変更なし)
/dev/sdc1: 内蔵 SATA、83 (新設。後で vg1 に追加する予定だがひとまず 83 のまま)
/dev/sdd1: 外付 USB(ATA)、8e → /dev/vg2
/dev/sde1: 外付 USB(ATA)、8e → /dev/vg2
と vg2 を構成する外付 USB の順番が 1コずつズレて vg2 がマズい状態になりそうなんですが、
HDD 増設後に vgscan で一発解決できますか?
360:login:Penguin
06/06/30 23:43:50 1bsmmkCt
>>359
再起動すればvgscanも必要ない。
361:359
06/07/01 00:35:05 2s9fKqFU
>>360
ほほぅ、そんなもんですか。だったら気が楽だ。
助かりました。ありがとうございます。
362:359
06/07/02 16:46:58 ebetDEkG
内蔵SATAディスクの増設はサクッと上手く行ったので、調子に乗って
/dev/vg2(3台のATAディスクを積んだ novac 4台はい~るKIT) に
SATAディスクを1台IDE変換コネクタをかませて追加してみたところなぜか認識せず、
vg2 も見失い、困った展開に。
lvscan で探すと vg2 の LV は "inactive" となってデータ自体は生きてるようだったので、
vg2 を作り直し、LV も同名・同サイズ・フォーマットなしで作り直してマウントしてみると、
複数あるうち 1つの LV だけマウントできない。
/etc/lvm/archive/ 中のファイルを見ると、同サイズにしたつもりがマウント失敗 LV が微妙に小さかったことが判明。
vg2 中の全 LV を削除、改めて同名で作り直してマウントしてみると、無事に復活。
失われる前の LV は何度かサイズを拡張したからダメだろうと思いつつやってたんですが、
サイズと名前さえ合ってれば、結構乱暴な扱いをしても OK なんですね。
少々焦ったものの、貴重な体験ができました。
363:login:Penguin
06/07/02 18:54:11 ga9/U/Ul
>>362
乙
参考になりました。
364:login:Penguin
06/07/29 14:26:59 TSQYdC/Y
たくさんのHDDで、RAID使わずLVMのみで構築してる人
結構壊れるもんですか?
・何も考えずにLVMのみで構築
・RAID5組んで、その上でLVM構築
どっちにしよう
後から容量足せるのがいいんだよね
365:login:Penguin
06/07/29 14:31:49 TSQYdC/Y
てゆかスレ止まってるのでage
366:login:Penguin
06/07/29 15:34:35 l49WN+G+
HAになってないDISKにLVMなんてアリエネ-
367:login:Penguin
06/07/29 16:18:38 K2DDu9Rg
>>366
fedoraを否定するにはあまりに分が悪くないでしょうか。
368:login:Penguin
06/07/29 16:51:23 xqKAhYME
スナップショット使っていて、たまたま領域溢れがおきると
それが無効になるだけじゃなくてカーネルパニックになるのは仕様?
カーネルは2.6.17です。
# mount /dev/vg0/p0 /mnt/vg0p0
# lvcreate -s -n p0.snap -L 1 /dev/vg0/p0
# dd if=/dev/zero of=/mnt/vg0p0/big.bin bs=1024 count=8192
# lvremove vg0/p0.snap
<kernel oops>
で 100% パニックになってしまう。マニュアル見ると lvextend で
救えるみたいに書いてあるので、溢れた後で意味あるのかと疑いつつ
# lvextend -L +32M /dev/vg0/p0.snap
# lvchange -ay /dev/vg0/p0.snap
などをしてみたのですが、やはり lvremove でパニックという
結末が避けられません。
十分大きな領域を取るようにする運用である程度回避はできるけど、
うっかり大きな書き込みしたらシステムごと飛ばせるのは怖いので、
パッチや回避策があれば教えて下さい。
369:login:Penguin
06/07/29 16:58:50 18kd3ovo
AIXとかのLVM物理ディスク丸ごとをボリュームグループに追加してるけど
LinuxのLVMだとパーティションをボリュームグループに追加するんだね。
なんか理由があるのかな?
370:login:Penguin
06/07/29 18:35:30 9J5yxANj
パーティションテーブル構造の違いと、
LVMが当たり前になっているAIXやHP-UXでは、物理パーティションを切るメリットが全く無いから
やらないってことじゃないかな?
371:login:Penguin
06/07/29 18:58:31 l49WN+G+
HP-UX@IPFはパーティション切る
EFIのクソッタレ
372:login:Penguin
06/07/29 22:18:25 D7f/oD9K
>>369
おれはもう何年も増設ディスクにパーティション切ってないよ。
LVMでもそうでなくても。
373:login:Penguin
06/07/29 22:26:48 xqKAhYME
>>372
mount /dev/sdb /data とかってこと?漢の切り方ですな。
374:login:Penguin
06/07/29 22:28:32 xqKAhYME
すまん、sageてなかった・・・
375:login:Penguin
06/07/29 23:16:24 bcm1JGhF
>>373
頭大丈夫ですか?
376:login:Penguin
06/07/29 23:25:12 18kd3ovo
>>375
パーティション切らないっていうと俺も>>373みたいなイメージをしてしまうんだけど。。。
377:login:Penguin
06/07/29 23:41:31 ypKIHAUk
領域溢れないのを前提だからねえ。そりゃパニくる。
無効にすればいいと言うけど、アプリケーションからはそんなの理解出来ないし。どう互換性取る?
378:login:Penguin
06/07/30 00:28:39 92rJ+6P6
PVをマウントなんかできねーっつの
379:login:Penguin
06/07/30 00:34:35 bLOnGl/y
>>372はLVMでなくてもパーティション切らずに利用していると言ってるみたいだけど
それはどういう意味なのかが知りたい。
もしかして単にPVにパーティションを1つだけ作成してるという意味なのか?
380:login:Penguin
06/07/30 01:52:59 ARvl2Fmi
全領域を1つのlvとして取ってるってことだろ
さて、やっぱバックアップなしのLVMは無謀かな…
HDDケースとかの「コンバイン」と同じだもんなぁ
データ量が多すぎるので複製バックアップは非現実的なんだよな
381:login:Penguin
06/07/30 02:40:26 honuiWv6
>>377
うむむ・・・単にPVの欠乏を検出したらスナップショット側への
書き込みにはENOSPCを返し、ソース側への書き込みについてはスナップ
ショットとの関連付けを最初からなくし、一切スナップショット用PVを
消費しないオプションとかあれば理想的かなーと挙動みて思った。
今すぐどうにかなる話ではないみたいなので対策の話に移ると、
バックアップ用スナップショットってどれくらい領域確保してます?
話では元領域の20-100%確保しろとかあるけれど、読み出し専用な
バックアップ用スナップショットでもそんなに取るものですか?
結局バックアップ所要時間中にどれだけ書くかだからケースバイ
ケースなんだけど、個人利用で300GB HDD中100GBとか食われるのは痛い。
382:login:Penguin
06/07/30 20:21:22 Mx8Fl/aT
>379
ん? mkfs /dev/sda とか pvcreate /dev/sda とか
しててるけど。
383:login:Penguin
06/07/30 21:10:20 bLOnGl/y
>>382
自分で試してみたらできました。
Linuxだからパーティション、AIXだから物理ボリュームとかいう分類は特にないんですね。
AIXとかは大規模システムだからパーティション切る意味がないってだけなんですね。
384:login:Penguin
06/07/30 22:15:50 92rJ+6P6
そのうちx86もEFI使うだろ
385:login:Penguin
06/07/30 23:18:26 +9CxprNK
>>384
怪しくなってきた。
Vistaでx86版もEFI対応の予定がキャンセルされちゃったし。
386:login:Penguin
06/07/30 23:25:52 92rJ+6P6
IA64と共に葬り去ってくれて一向に構わないけどw
最近のマカーはEFIっしょ
387:login:Penguin
06/07/31 20:09:00 1rvcY3/L
カーネルにはすでに EFI Support (Experimental) てな感じであるね
肝心のものは市場に出回ってるわけ?
388:login:Penguin
06/07/31 20:24:11 1Tsuyn7I
以前どっかの早漏メーカーが出してた
389:login:Penguin
06/07/31 21:27:57 v1KNHtS2
x86なEFIはIntel MACで搭載済み
390:login:Penguin
06/08/04 11:39:44 3TC8Ado/
zfsがLinuxに移植されたらLVMはなくなると思う。
391:login:Penguin
06/08/04 13:53:06 s5AMUQ9D
zfsがメインになることはありえない。
せいぜい実装できるのは、Solarisで作成したzfs領域に対して読み書きが可能となるくらい。
392:login:Penguin
06/08/04 17:55:20 i6p2sUmz
FUSEで実装してるならまあそうだろうな。
393:login:Penguin
06/08/04 22:11:42 3TC8Ado/
ext3+LVMとzfsを比べると
・物理デバイスを超えたボリューム作成
・信頼性
・スピード
・高可用性
あたりでzfsが有利に見える。
ただ、Solarisにべったりな実装になっていて移植自体が難しい場合は望むべくも無いんだけど。
>>391,392
FUSEかー、ブートはext3なんかのほうが
互換性とこれまでのノウハウの蓄積を考えるといいんだろうけど。
ってか、FUSEだとスピードや信頼性でもともと持ってるポテンシャルを
発揮できない希ガス。
394:login:Penguin
06/08/07 00:39:39 GtH2asAX
lvmを試してます。
OSインストール時に /dev/VolGroup00/LogVol00 を作成しました。
HDDを追加して、fdisk /dev/hdc の/dev/hdc1を
8eで lvmのボリュームを作成しました。
# pvcreate /dev/hdc1
上記コマンドを実行したところ、
Can't open /dev/hdc1 exclusively. Mounted filesystem?
というエラーが発生しました。
なぜ pvcreateできないのでしょうか
OS は cent4.3です。
395:login:Penguin
06/08/07 00:43:52 XI6TJIbe
>>394
mountって打ち込んでみ?
396:login:Penguin
06/08/07 12:36:59 GtH2asAX
>>395さん
# mount
/dev/hda2 on / type ext3 (rw)
none on /proc type proc (rw)
none on /sys type sysfs (rw)
none on /dev/pts type devpts (rw,gid=5,mode=620)
usbfs on /proc/bus/usb type usbfs (rw)
/dev/hda1 on /boot type ext3 (rw)
none on /dev/shm type tmpfs (rw)
/dev/mapper/VolGroup00-LogVol00 on /home type ext3 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
上記が表示されました。
/dev/hdc1 は含まれてませんでした。
ちなみに
#mount /dev/hdc1 /mnt
mount: /dev/hdc1 は マウント済か /mnt が使用中です
というエラーになります。
397:login:Penguin
06/08/07 13:24:16 XI6TJIbe
じゃ次は
fuser -v /mnt /dev/hdc1
398:login:Penguin
06/08/07 14:00:39 GtH2asAX
>>397さん
# fuser -v /mnt /dev/hdc1
# fuser -v /dev/hdc1
上記で試しましたが、何も表示されませんでした。
399:login:Penguin
06/08/07 14:51:25 YbuXzI7B
じゃ次は
# dd if=/dev/hdc of=mado --nage
400:login:Penguin
06/08/07 16:12:53 GtH2asAX
dd if=/dev/hdc of=mado --nage
dd: unrecognized option `--nage'
詳しくは `dd --help' を実行して下さい.
と表示されました。
調べましたが、"--nage"というオプションは見つかりませんでした。
401:login:Penguin
06/08/10 02:17:28 oa2uMyiW
お前面白いな
402:login:Penguin
06/08/10 02:41:25 DRx8xrmE
>>400
これで幸せになれるよ
dd if=/dev/zero of=/dev/hda bs=512 count=1
403:login:Penguin
06/08/10 07:36:47 +6NubT9U
Debian(Sarge)&LVM2なんだけど、
PE指定し忘れたまま550GBのLVを斬ってデータ書き込み、
再起動後にマウントできなくなってしまいました。
こんなエラーが出ます
mount: special device /dev/vg0/data does not exist
(LV名は仮)
vgdisplayすると、550GBのLVは見えます
vgresize(だったっけ)でのサイズ変更はとりあえず成功、250GBに切り直し。
やはりマウントは出来ません。
URLリンク(www.itmedia.co.jp)
ここと攻略本を見てLVM構築したんですが、PE指定、すっかり忘れてたorz
試しにfsck /dev/vg0/dataとやっても、「そのようなファイルやディレクトリはありません」とエラー。
もうこの時点でデータは救えませんかねぇ。。
あとはvgの再構築…
しかしこれやると全部データあぼーんですよね
404:login:Penguin
06/08/10 07:38:53 +6NubT9U
あ、
PVは600GB(640GB)、
VGも同じ
LVは550GB
PEは4MB(デフォ)
です。
本来は255.99GBまでしかLV斬っちゃいけないんですよね
405:login:Penguin
06/08/10 10:39:44 hxxEJfDZ
>>402 さま
おかげさまで直りました。
どうもありがとうございます。
406:login:Penguin
06/08/18 18:14:34 ikn0YhVS
URLリンク(grub.enbug.org)
407:login:Penguin
06/08/22 12:45:52 ktWadiYS
/にマウントしてるLogVol00を15G→5Gに小さくしようとして、
レスキューCDで起動し、
lvm vgchange -a y
resize2fs -p /dev/VolGroup00/LogVol00 5G
lvm lvreduce -L -10G /dev/VolGroup00/LogVol00
と打ち、CDを抜いてrebootしたところ起動時に、
/dev/VolGroup00/LogVol00: The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks
Either the superblock or the partition table is likely to be corrupt!
/dev/VolGroup00/LogVol00: UNEXPECTED INCONSISTENCY; RUN fsck MANUALLY.
(i.e.,without -a or -p options)
*** An error occurred during the file system check.
*** Dropping you to a shell; the system will reboot
*** when you leave the shell.
*** Warning -- SELinux is active
*** Disabling security enforcement for system recovery.
*** Run 'setenforce 1' to reenable.
Give root passwd for maintenance
というエラーが出てきました。この後rootでログインし、
e2fsch -f /dev/VolGroup00/LogVol00
と打ち、
Error reading block 1277954 (Invalid argument) while doing inode scal. Ignore error<y>?
という問いには全てEnterを押し続けました。
e2fsckが終わったところでrebootしましたがまた同じエラーが出ます。
LV縮小の手順が間違っていたのでしょうか?
408:login:Penguin
06/08/22 12:53:32 MSFbj8Ho
The filesystem size (according to the superblock) is 1310720 blocks
The physical size of the device is 1277952 blocks
これに尽きるんじゃねぇの?
ファイルシステムの方が大きくなってるし。
lv小さくしすぎたんじゃねぇ?
409:407
06/08/22 13:06:19 ktWadiYS
>>408
すいません、自分で書いておきながらそのメッセージを見落としてました。
ジャストサイズで合わせようとしたのがいけなかったですかね。
手順としては
resize2fs -p /dev/VolGroup00/LogVol00 4G ←1G少なく設定
lvm lvreduce -L5G /dev/VolGroup00/LogVol00 ←絶対値で5Gと指定
resize2fs /dev/VolGroup00/LogVol00 ←LogVol00の容量に合わせる
でいいでしょうか?
410:407
06/08/22 13:37:15 ktWadiYS
上記の手順で試したところ成功しました。
>>408氏ありがとうございます。
因みに407な状態になってしまったら復旧することは可能なのでしょうか?
今回はテスト環境だったので問題はなかったのですが。
411:login:Penguin
06/08/28 18:23:16 Qm2KIGHV
良いlvmの参考書ってないの?
412:login:Penguin
06/08/30 21:16:00 EMppbjrW
L inuxで
V olumeを上げたら
M uteになった
ともぞう
413:login:Penguin
06/09/01 01:55:10 +V4to7us
>>411
そんな難しくないと思うけど、LVM HOWTOじゃだめ?
それ見ながらVMwareとかでがんがん挙動確認を兼ねていじってみるのが
いいと思う。
もっともその動作確認で極限状態での挙動が不審なんで怖くなって、
リアル利用はまだ控えてるが・・・
414:login:Penguin
06/09/08 02:43:04 ZNK9r2o4
hdcがLVM で ボリュームグループがVolGroup00としてが一つだけ作られていて、
その中に論理ボリュームがLogVol01の一つだけが
出来ていて、ext3でフォーマットされています。
60%ほど使用している状態です。
これを一つのfatにしたいのですが、
1.LVM内ext3に対応したdefragはありますか?
2.ボリュームグループのサイズを変更することは出来ますか?
よろしくお願いします。
415:login:Penguin
06/09/08 03:06:24 EaO4bLDZ
WindowsはLVMの中のFATファイルシステムをアクセス出来ないと思うが?
416:414
06/09/08 08:54:44 t89DwNuf
LVMのサイズを減らしてFATパーティションを作る
ファイルをコピー。
またVLM内の論理ドライブ内のext3のdefragとresize、論理ドライブのdefragとresize、LVMのdefragとresize。
fatパーティションの拡大
417:414
06/09/08 08:57:11 t89DwNuf
1、LVMのサイズを減らしてFATパーティションを作る
2、ext3からfatにファイルをコピー。
3、VLM内の論理ドライブ内のext3のdefragとresize、論理ドライブのdefragとresize、LVMのdefragとresize。
4、fatパーティションの拡大
5、2からを繰り返し
とやりたいんです
418:login:Penguin
06/09/08 12:42:23 EaO4bLDZ
増設ディスク買ってきて繋げ。おまえにゃ無理。
419:414
06/09/10 03:42:58 WmrMnAO9
URLリンク(pantora.net)
を参考にして ext3の縮小とLVの縮小は出来たのですが
system-config-lvmでパーティションを見ると
ぶつ切れでLVも魅しようスペースもある。
ブツ切れだからなのか論理ビューでの「新しいボリュームの作成」も効かない。
418は対処方法解ってるのならコマンドだけでも教えてくれるとうれしい。
増設ディスクのが楽なのは解ってるが、出来ればこれで何とかしたい。
LVMを一発で普通のext3とかに変更できたりするのだろうか?
420:login:Penguin
06/09/13 05:41:52 QbuQIyy7
バックアップさえ取ればいくらでも好きなように弄って試せると思う。
ハードディスク増設しちゃうのが金で解決で簡単だけどな。
421:login:Penguin
06/09/13 08:00:56 tZ69K+tZ
Time is Money.
422:login:Penguin
06/09/13 17:33:10 Xmrz1r6n
skill is Money.
423:login:Penguin
06/09/14 09:31:47 /BE0hgr7
Skill is Monky!
424:login:Penguin
06/09/14 09:55:48 cafxdNt0
Money is skill.
425:login:Penguin
06/09/14 12:08:00 GgbU7PK9
Time goes by.
426:login:Penguin
06/09/14 13:38:44 CUW9kQ6n
All your base is belong to us.
427:login:Penguin
06/09/20 23:37:09 6BRbwmHO
LVMで作成されたボリュームのマウントについて教えて下さい。
FC3をインストールして使っていたHDDが有るのですが、
この中のデータを読み書きしたくて別のLinuxのマシンのhdcポートに繋ごうと思います
対象のディスクは1パーティション?で作って有り
/dev/mapper/VolGroup00-LogVo00 /
に成っています
LVMでない場合は mount /dev/hdc1 /mnt/xxx
等でOKだと思うのですがLVMの場合はどのようになるのでしょうか?
書籍なども色々見たのですがLVMボリュームのマウント方法が分かりませんでした
LVMは複数のボリュームを繋ぎ合わせて使用する仕組みなので下手に1部分だけマウントされるとまずいかなと危惧しています。
428:login:Penguin
06/09/21 00:06:27 yvq2ZBoB
まず元のOSでデポートしないとだめ。
その後、新OSでクリアインポートする。
429:login:Penguin
06/09/21 00:14:19 inLqedFm
>>427
LVMをサポートしてるシステムなら繋ぐだけで認識して
/dev/VolGroup00/LogVol00
などが出来るはず。
ボリュームグループ名が重複してると駄目だけど。
>>428
そんな事は必要無い。
430:login:Penguin
06/09/21 00:23:09 oYkHcFJt
>>429
有り難うございます。
>ボリュームグループ名が重複してると駄目だけど
全く同じ構成でインストールしたディスクですので、まさに重複してます、
やりたい事はトラブったディスクを動いてるLinuxにマウントして
内容をちょっと補修して元に戻して機動しようと思ったのですが、、
ちょっと工夫が要りそうですね
全てのマシンがLVM使ったデフォでインストールしてるのでグループ名全部同じです...orz
431:login:Penguin
06/09/21 00:28:33 inLqedFm
>>430
レスキューCDなどで起動してlvm vgrename で変名するんだ。
インストーラがデフォルトで常に同じVG名を付けるのはあまりにも不親切だと思う。
思うならパッチ送れと言われそうだが。
432:login:Penguin
06/09/21 00:38:34 oYkHcFJt
>>431
>レスキューCDなどで起動してlvm vgrename で変名するんだ。
有り難うございます、
しかし、安物サーバ仕様なのでCDがついてない、、orz
あした取りあえずext3でインストしたディスク持ってきてそれを親にしてやってみます。
これからはインスト時にはVG名を全て変えるようにします、
しかしそうすると管理用の自作スクリプトとかマシン毎に全部書き換えが必要かな、
結構面倒ですねLVMって
433:login:Penguin
06/09/21 00:59:32 inLqedFm
スクリプトではデバイス名を使わず
極力ボリュームラベルやUUIDやマウントポイントで管理するといい。
434:login:Penguin
06/09/21 22:54:28 7K79Wfwz
lvm2のchanglogにはこうある。
* Thu Apr 20 2006 Alasdair Kergon <agk@redhat.com> - 2.02.04-1.0
- New release upstream, including better handling of duplicated VG names.
435:login:Penguin
06/09/24 11:51:03 Zk/lDJT/
Storage Foundation for Linux
って4.1から新しいの出てないけれども、あんまり使われてないの?
436:login:Penguin
06/09/24 19:20:12 +L5JNLMa
veritasが必要になるほどのクリティカルな場面ではlinuxが使われないから。
437:login:Penguin
06/09/25 01:28:44 6TS6HcDh
>>436
VERITASのLinux対応にやる気がないから。
438:login:Penguin
06/09/25 11:14:46 9knmjZAy
まぁ、veritasいなくても生きてけるし。
439:login:Penguin
06/09/26 12:55:06 MMig26yF
Linux と VxFS の組合せってやたら遅くて使えなかった。
440:login:Penguin
06/10/11 15:42:31 w+0Ut2+I
あれぇ?
作ったはずのVGやLVがシステムをリブートしたら消えちゃった。
ちなみにオイラはLFSでudevdな人です。
441:login:Penguin
06/10/11 22:45:09 1/ePARRw
夢を見てたんですよ、きっと。
442:login:Penguin
06/10/29 00:03:23 ZTP3SZnn
LVM2でlvcreateやvgchange -ayすると/dev/mapper/の下にデバイスファイルが自動で出来るんですが、
これのownerやgroupやpermissionをあらかじめ設定する方法ってありますか?
443:login:Penguin
06/10/31 11:05:45 6oZjJImq
URLリンク(www.linuxjournal.com)
URLリンク(rio.st)
俺用メモ
444:login:Penguin
06/11/12 23:26:27 ieFinVmQ
RHEL4U4をデフォルトのままインストールした後、
LVMのVGNameやLVNameが気に入らないので変えてみたんだが、
起動中、元の名前でマウントしようとして止ってしまう。
どこかの設定に元の名前を覚えてるっぽいんだが、
正しい変更手順てあるの?
445:login:Penguin
06/11/13 00:20:26 DtKUgmIq
>>444
レスキューCDで起動して変更すると共にinitrdを作りなおす。
446:login:Penguin
06/11/15 09:06:40 FmEvhveD
LVMを試していた際エラーが出てしまい、どうしたら良いか分からず困ってます。(Linux s390)
/dev/dasdc (約2.5G)をdasdfmtでフォーマットした後
fdasdで3つ(各500M)にパーティションを切りました。
------------------------------- tracks -------------------------------
Device start end length Id System
/dev/dasdc1 2 10667 10666 1 Linux Raid
/dev/dasdc2 10668 21333 10666 2 Linux Raid
/dev/dasdc3 21334 31999 10666 3 Linux native
32000 50069 18070 unused
partition tableを保存して終了しようとしたところ下記のようなエラーが出ました。
fdasd error: IOCTL error
Error while rereading partition table.
Please reboot!
もう一度fdasdでパーティションテーブルを見てみると
正しく表示されていたのでfdasd errorに対しては何もせず
# pvcreate /dev/dasdc3
上記のコマンドを実行してみたところ
"Device /dev/dasdc3 not found." と表示されます。
fdasd error(IOCTL error)の解決法もしくは何故/dev/dasdc3が認識されないのか
お知恵を拝借させていただきたく書き込みしました。長くなってしまい申し訳ありません。
447:login:Penguin
06/11/15 21:51:46 JBx+bP3i
Please reboot!
448:446
06/11/17 13:21:49 GQ4FRfhc
>447
rebootしたら直りました。しっかりエラーで忠告されていたのにお恥ずかしい。
ありがとうございました。
449:login:Penguin
06/11/19 01:22:27 foeXuT5h
>>446
s390でLinux運用してるような奴がここで質問南なんかするなよ、、、。
IちゃんのSEは最近何やってるの?
450:login:Penguin
06/12/02 03:23:43 5H4vnv91
LVMの運用考えているんですが、
HDDの繋ぐ位置を変えて、たとえば /dev/sda が /dev/sdb
になったりしてもデータ壊れたりしないですかね?
ルートは非LVMでの運用を考えているので起動には
影響ないんですが。
ちなみにこういう場合はどうやって復旧させれば
良いのですか?
451:login:Penguin
06/12/02 13:00:17 5H4vnv91
過去ログ読むと、まだまだ不安定そうですね。
複数のHDDをつなげてテラバイトのLV作ろうと思ってたのですが
やっぱ普通のext3で運用するのが適当かな・・。
452:login:Penguin
06/12/02 15:08:11 hDUZpZbY
うちは3TのLV作っているけど特に問題はないな
もうすでに枯れてきている技術だとおもうが
どこを見て不安定だと思ったのか?
453:login:Penguin
06/12/02 15:09:57 XO8VyELM
まず名前がだめだな extの方がいけてるぜ
454:login:Penguin
06/12/02 16:10:54 5H4vnv91
>>452
なんか3台のうちの一部が壊れたときとか
復旧した実績がないみたいなので・・。
LVM HOW-TOだとできるみたいな感じで書いてはあるんだけれど。
455:login:Penguin
06/12/02 16:50:46 kzjFlxSY
>>454
つか、RAIDじゃないんだから、一部壊れたらフツーおしまい。
456:login:Penguin
06/12/02 22:24:16 eQc2JRBC
LinuxではソフトウェアRAIDの品質が悪いので、エンタープライズ用途では
必ずハードウェアRAIDを使えといわれました。本当?
457:login:Penguin
06/12/02 22:37:37 gCRA9JZT
RAID総合スレッド No2
スレリンク(linux板)
458:login:Penguin
06/12/02 22:49:27 JUv9m8vq
まあ、本当。
整合性とか安定性とかだけじゃなく、故障ディスクの入れ換えもえらく面倒だった(3年以上前の経験なので今は改善されているかも)。
SolarisのDiskSuite(LVM)は、LVMとしての機能はちょー貧弱だけど、
ソフトウェアRAIDとしてはさすがによくできている。
459:login:Penguin
06/12/03 02:28:25 18r037ES
SolarisのSVMでトラブった経験は無いけど。
460:login:Penguin
06/12/03 12:59:20 tXqR4jsK
LVMってバックアップのとりやすさがうrじゃないの?
461:login:Penguin
06/12/04 00:44:32 PEKo/YR5
過去ログ見ると、Kernel 2.6.9ではsnapshotはやめといた方がよい?
462:login:Penguin
06/12/04 07:48:00 73bxYoAu
>>460 SVMだとmetaofflineでミラー切り離してバックアップ。
463:login:Penguin
06/12/04 09:44:53 JHet0fUL
>>462
それ自体はすごく便利な機能なんだけど、最近はSVMはシステムディスクのミラー化くらいにしか使われんからなぁ。
464:login:Penguin
06/12/04 21:06:47 73bxYoAu
最近のSunサーバはハードウェアRAID積むようになってきたからSVMも不要になる日は近い。
加えて、近い将来ZFSがrootファイルシステムをサポートするようになった日には。。。
465:login:Penguin
06/12/09 03:29:47 EBN5bRDP
ZFSあればそもそもLVMいらね
466:login:Penguin
06/12/09 21:53:37 6srhV/6+
最近居着いてるZFS厨はお前か。
残念ながら味方は居らぬようだぞ。
467:login:Penguin
06/12/10 01:46:43 tyXcoLby
味方というか、近いうちにはリリースされないのは明白だから放置状態なだけだろ
468:login:Penguin
07/01/18 09:49:40 OQ5FlAlV
badblocks の -n オプションは具体的にどういう原理で
非破壊的な検査をしているのでしょうか?
読み出しオンリーのときに badblocks が必要とするメモリを x とすると、
破壊的読み書きによる検査の時には 2x
非破壊的読み書きによる検査の時には 3x
のメモリが必要になるということなので、
元の情報をメモリに保持しておいて破壊的な読み書きによる検査をした後
元の情報を欠き戻すという動作をしているように思えるのですが、
この場合やはり badblocks 実行中に電源が吹っ飛んでしまったりすると
元の内容は失われてしまいますよね?
まぁ badblocks をかけるのはたいてい何も記録していない
ディスクとかだろうと思うので問題はないのかもしれませんが。
469:login:Penguin
07/02/13 23:17:55 1S/FhvJ/
スレリンク(mac板:64-66番) によると
LVM,セキュアOS,Xenは目糞鼻糞な技術だそうです
470:login:Penguin
07/02/13 23:32:05 WSnRQ6Pg
目糞でも鼻糞でも役に立つならそれでいいじゃない
471:login:Penguin
07/02/13 23:34:24 veakA3NE
Macに実装されたとたんにマンセーしだすに1ペソ
472:login:Penguin
07/02/14 01:20:54 PUSkSyv8
/usr LVMに置き換えたよ記念。
最初からもっと大きくしときゃよかったorz
homeはnfsなので当分大丈夫かな。
473:login:Penguin
07/02/14 10:18:23 MJJeb0Jw
ほちゅ
474:login:Penguin
07/02/21 17:51:23 GEUl/Slj
LVM2でpvsとかlvsとかvgsって入れたときに出てくるAttrのところの意味がわかんない
どこかにまとめページない?
475:login:Penguin
07/02/21 18:09:47 Cx7Ly8SD
man attr
476:login:Penguin
07/03/11 00:10:56 ukEOg9KI
Sarge 2.4.27にlvm2が入っております
PVはmd5とmd6とsdi5という構成です
500GBのmd6デバイスをVGから外すため、
新たに500GBのHDDをpvcreate→vgextendまで完了しました。
これでpvmoveで新HDDへデータ移行しようという段階ですが、
いざpvmove /dev/md6すると
mirror: Required device-mapper target(s) not detected in your kernel
というエラーが出ます。
このエラー文を具具って見たところ、
/etc/modulesに dm_snapshot を追加して
# update-modulesしる
と出てたのでやってみたが状況変わらずです
もちろんvgdisplayでNOT availableを確認済みです
URLリンク(www.itmedia.co.jp)
ここ見て作業してるんだけど、この環境はすんなり行ってるorz
もう止まった・・何をすればいいんだ。。
ボスケテ…
477:login:Penguin
07/03/11 00:11:29 ukEOg9KI
すみませんかなり過疎っぽいのでageます
478:login:Penguin
07/04/07 20:50:11 GOSiQcrK
LVMの完全解説本は出ないのかなぁ。
479:login:Penguin
07/04/08 01:35:33 3IlYmNEr
LVM+mdすげー便利。
いちいちLVMパーティション切らなくてもmdの上でlv作れるし。
mdadmのgrowでディスク追加しまくれるし、PVもそのままgrowできるし。
LVM+md+VMwareで愛用してます。
480:login:Penguin
07/04/09 23:09:10 OjYqpEl9
>>478
HP-UXの本とかホームページでも見れば?
481:その1
07/04/23 23:12:04 TAtKd+oU
(1/3)
古いHDDからデータがサルベージできなくなりました。
助けてください。。。
RedHat9で運用していたサーバのHDDを増設した。
SCSIハードディスクだけだったサーバに、IDEハードディスクを増設した。
増設したHDD(/dev/hda)に、Vine 4.1をインストールし、
BIOS設定の起動順序をIDE優先にした。
RH9(kernel2.4)では、/dev/sda2と/dev/sda6をlvm1にて、
ひとつのVGにまとめ、そこに、ひとつのLVを作って
/homeにマウントしていた。(/dev/vg01/lv_data)
482:その1
07/04/23 23:12:35 TAtKd+oU
(2/3)
新しくインストールしたVine(kernel2.6)起動後、
/dev/vg01/lv_dataが見えないので、
pvscan/vgscan/lvscanを実施したがlvm1だと警告が出て、
期待通りマウントできなかった。
明日の朝までにHDD増設を完了させなければならない案件だったので、
よく調べず、焦って、なにをトチ狂ったか、pvcreate/vgcreate/lvcreateを
/dev/sda2、/dev/sda6に実施し、/dev/vg01/lv_dataを作成した。
LVは作成できたが、mount -t ext3 /dev/vg01/lv_data /mnt/temp
してみると、ファイルシステムが正しくない旨のエラーが現れた。
(エラーメッセージはメモっておらず詳細不明)
483:その1
07/04/23 23:13:44 TAtKd+oU
(3/3)
BIOS設定の起動順序をSCSI優先に戻し、RH9環境に戻そうとしたが、
FSをマウントできない旨のエラーがでてRH9も起動しなくなった。
調べてみると、kernel2.6でlvm2に変わっていて、
vgconvertをすれば良かった事が判明した。
とんでもないことをやらかしてしまったことに気づいた。
orz... ←今ここ。
pvcreate/vgcreate/lvcreateは実施したものの、
ファイルシステムの作成はしていないので、
壊れた(上書きされた)のは、LVMの管理情報だけで、
実データは、まだ/dev/sdaに残っているはず。
なんとかサルベージしたい。。。
何卒お助けを。・・・もうだめです。
484:login:Penguin
07/04/23 23:40:20 hxiP9Yh0
古いシステムのバックアップは無いの?
/etc/lvm/の下にメタデータのASCIIテキストのバックアップがあるよ。
485:その1
07/04/24 00:43:51 TkXAc5rB
>>484
バックアップは無いんです。。
/etc/lvm/の下は明日、さっそく確認してみます。
ありがとうございます。
486:login:Penguin
07/05/19 16:21:03 FBnX1/62
>>485は復活できたかな?
やっぱ複雑だと恐いね。
ふつーにext3だけで運用していれば、他のパソコンに
くっつけてすぐマウントも簡単だし。
487:login:Penguin
07/05/28 07:59:18 JVkG/VZ5
定期バックアップにスナップショットを使おうかと考えているので質問。
ジャーナリングなfsを載せたLVのスナップショットを取るときって、
fsをアクティブに使っている状態のままlvcreateしてもいいんかな。
それともumountとかreadonly mountとかしてからの方がいい?