12/12/10 21:29:46.22 k70pWKb9
そんな情報仮想化大全にも載ってないし
KVMのひどいバグでしかない
351:login:Penguin
12/12/10 22:10:22.02 fodOkUeJ
おかしいな、普段使ってるPCはちゃんとコンセント抜いたりバッテリー外して電源切ってる?
まさかシャットダウンとかOSで操作してないだろうな
ちゃんと電源を途絶えさせて切らないとダメだぞ
352:login:Penguin
12/12/10 22:32:37.23 3H2aKQ6b
「ひとりH。私はけっこうしてます!」
353:login:Penguin
12/12/11 09:55:39.92 aNmgcVnF
KVMって、VMWAREのVSPHERE CLIENTみたな管理GUIのようなものってあるんですか?
354:login:Penguin
12/12/11 17:59:06.06 8Roeds6L
KVM専用というわけではないが、
virt-managerとかがある
355:login:Penguin
12/12/11 18:00:02.23 aNmgcVnF
>>354
レスありがとうございます。
調べてみたいと思います。
356:login:Penguin
12/12/11 18:04:16.75 aNmgcVnF
>virt-manager
>libvirt (virtualization API)を介して、
>Xen, Qemu, KVMなど異なるハイパーバイザーを一括して管理
なるほど。
まだ発展途上なわけですね。
最新版を使いたいなら、やっぱりFedoraを用いなければならないかな。
357:login:Penguin
12/12/11 18:09:36.01 8Roeds6L
新しい方がいいことは間違いないが、CentOSとかに入ってるバージョンでも
私はそれほど困ったことはない
358:login:Penguin
12/12/11 18:35:04.72 aNmgcVnF
>>357
ありがとうございます。
参考になります。
CentOS6で試してみようかなと思いました。
359:login:Penguin
12/12/12 00:30:51.96 b4uERQZx
KVMはちょっとしたことでデータ破損するので使いもに
ならないよ。
360:login:Penguin
12/12/12 01:58:20.92 dejHuP6U
ちょっとしたことって?
361:login:Penguin
12/12/12 02:01:23.63 hMwdySX1
もうその話はいいよ。
362:login:Penguin
12/12/12 02:08:48.07 dejHuP6U
上のほうでだらだらと発言があったみたいだな。
とても気になるけど、喧嘩を見に行くのはいや。
結局、その真意ってなんだったの?
363:login:Penguin
12/12/12 08:02:21.51 hMwdySX1
蒸し返すな。
364:login:Penguin
12/12/12 11:34:32.64 jgeq261i
Gnome-BoxesだとVirtualBoxみたいな感覚でKVMが扱えるね
365:login:Penguin
12/12/12 14:08:07.74 dejHuP6U
それって、virt-manager に類するものですか?
KVMって、自由だなあ。
366:login:Penguin
12/12/12 23:41:14.93 Bio04sD8
最近KVMいじり始めたが企業とかで運用するのもGUIでやってんのかな
367:login:Penguin
12/12/12 23:52:25.58 1b+Xc8bt
AQEMUも結構使えるね
368:login:Penguin
12/12/13 02:20:54.58 ypW8UxCX
virt-manager
Gnome-Boxes
AQEMU
いろいろ出てきたね
それぞれの長所短所が知りたい
369:login:Penguin
12/12/13 08:06:54.95 N2Ad+au1
>>368
比較というか、一覧表という感じだけど。
URLリンク(www.linux-kvm.org)
370:login:Penguin
12/12/13 08:43:32.04 SGXmDugi
つい先日からoVirtを使ってる
371:login:Penguin
12/12/13 15:28:24.27 ypW8UxCX
>>369
おお、よくまとまっています。
しかし、こんなにたくさんあるとは。驚きです。
372:login:Penguin
12/12/14 02:54:37.47 B52mAiWP
CentOS4で動いてる環境を、KVMに持ってきたいんですが
P2Vでおすすめソフトって、何かありますか?
出来れば、元のOSが稼働中でも出来るものがないかと探してます。
(VMConvertorみたいなもの)
373:login:Penguin
12/12/14 21:42:12.16 SDR8P8RR
もうメンテされてないOS使うな。正月出勤してCentOS6に更新しろ。
374:login:Penguin
12/12/14 21:50:55.77 QrQMuCk2
>>362-375
375:login:Penguin
12/12/14 22:31:04.25 SCNk/65k
(専ブラって全角安価でも機能するんだな…)
376:login:Penguin
12/12/15 00:22:18.87 CU6sL+7O
P2Vって、新しい(仮想の)ハードウェアに対応させるために、ドライバの組み換えもするんですよね。
すごいな。
OSを知り尽くしているのか。
377:login:Penguin
12/12/15 17:51:30.22 vAv2nqSC
>>372
試したことないけど、これかな
URLリンク(www.todo.ne.jp)
378:login:Penguin
12/12/17 04:03:33.38 WmujDxJ/
>>377
virt-p2v だと、Cold Cloningかな、
Mond Rescueなら、Hot Cloningでも、いけそう。
これを試してみます。
でも、373や376の意見をみてると、VMWareにした方がいいのかもしれない。
カーネル統合されてる。というので、KVM期待してたんだけど。
KVMでも、HotCloningいけそうなので、両方試してみよう
379:login:Penguin
12/12/17 06:30:45.90 84HDI9QJ
>KVM期待
良いと思う。
VMWAREはお金かかるよ
380:login:Penguin
12/12/17 22:38:16.12 Ca5vNOQV
>>378
KVMは危険だよ。業務で使うならVMWareしかないよ。
データ消えちゃってもいいの?
381:login:Penguin
12/12/17 23:04:40.26 Kt8LR7ud
普通に使ってたらデータは消えない
ちゃんと使えないクズは金払ってVMwareスレに行けばいいよ
クズの中のクズはスレチに粘着するらいがw
382:login:Penguin
12/12/18 00:23:14.86 Mc4G7qn0
どんな使い方すればデータが消えるんだ
383:login:Penguin
12/12/18 01:11:21.85 LR54vF+h
syncしてないのに停電で電源落ちちゃったとか
384:login:Penguin
12/12/18 04:02:57.58 9vHHBz3x
>382
318 名前:login:Penguin[sage] 投稿日:2012/12/05(水) 21:07:12.28 ID:a9npjCoE [2/2]
>>316
virsh destroyってコマンド実行して
普通に終了させただけだよ。
385:login:Penguin
12/12/18 07:49:51.44 Mc4G7qn0
なにやら無茶なことしたくせに、壊れた壊れたって叫んでいるだけのように聞こえるんだけど。
386:login:Penguin
12/12/18 08:06:50.48 mS9Q5J7b
もうその話はいいよ。
387:login:Penguin
12/12/18 10:46:24.63 vUNMiVCk
初心者お断りでいいだろ
388:login:Penguin
12/12/18 18:44:34.63 A8brrQvs
初心者以前に頭がおかしい
389:login:Penguin
12/12/18 20:05:18.47 SuJny0gj
馬鹿には無理
390:login:Penguin
12/12/18 21:05:22.75 FXZ2lyu5
>>380また君か壊れるなぁ(怒)
>>319が見たのってこれだよね
第22章 virsh でゲストを管理
ゲストを強制的に停止
virsh コマンドを使用してゲストの停止を強制します:
# virsh destroy {domain-id, domain-name or domain-uuid}
このコマンドは素早くに強引にシャットダウンして、指定したゲストを停止します。
virsh destroy を使用すると、ゲストのファイルシステムを 破損するかも知れません。
destroy オプションは、ゲストが 反応しない時にのみ使用して下さい。
para-virtualized ゲスト用には代わりに shutdown オプション ( ゲストのシャットダウン) を使用します。
やっぱり壊れるコマンドを実行してただけじゃないか(憤怒)
391:login:Penguin
12/12/18 21:10:13.96 EcemGpQ2
危険
壊れてる人に触ってはいけません
392:login:Penguin
12/12/18 21:26:40.94 9vHHBz3x
壊っちまえ(やっちまえ)ーーーー!!
virsh save ?virsh shutdown ?
そんなもの・・・
クソ喰らえだ!
そんなものは見えやしねーー!!
「a9npjCoE」の目にうつるものはただ一つ!!
virsh destroyーーーーー!!(デストローーーーーイ!!)
--――-- 、
/::::::::::::::::::::::::::::::::::::\
/:::::::::::::::::::::::::::::::::::::::::::::::\
|::::厂 ̄'''ー―一'' ̄ ̄|:::::|
|:::| |::::|
|:/ ____ /______ヽ:|
/^''Yニ -=ニ・ニ>卅彡ナナナ ニY''ヘ
| 久|ニ ー'´| `ー ニ|/ヘ| v V v V v V v V v V v
!.イ| ニ l| ニ|ヽ | > 二〃 フ | <
ヽ_|彡/ l|、_l 〕 ヽミ|_ノ > ノ へ |ヽ <
|`<// v======v ヽヾ>| < _ / <
|:::::`<// ヽ___/ ヾ>'::::| > |_| ー― /| <
| :l:::::::`< `―‐'′>'::::|:: | > <
| l ::::::::::\__/::::::: l | ハ 八 ハ 八 ハ 八 ハ 八 ハ
/ l ::::::::::::::::::::::::::::::: l \
393:login:Penguin
12/12/18 21:43:14.78 VwyzxG8/
問題なく起動してたのに、ビデオドライバをqxlにしたくてspice導入とか
色々やっていたら、KVMそのものが起動しなくなってしまった。
必要なファイルは一通り入れてるんだけどなぜか、QEMU/KVMのカーネルが
組み込まれてないとか、ハイパーバイザーのオプションがありません
やらのエラーが出るんだけど、どうすればいいんだろうか。
一回全部アンインストールしてみても駄目だったし、どうすればいいか分からない
関係あるか分からないけど、下のURLを参考にした後起動できなくなりました。
URLリンク(www.kkaneko.com)
394:login:Penguin
12/12/18 22:06:37.66 70qv2lsb
残念だが、これでわかったらエスパー。
KVMそのものが起動しないってのがまず判らない。
特定のゲストマシンが一つだけ起動しなくなったのか、
それとも、ホスト上の仮想マシンがすべて起動しなくなったのか。
エラーが出るなら、エラーメッセージと、それがどこで
出力されてるのかを書いてもらったほうが良いかも。
> QEMU/KVMのカーネルが組み込まれてないとか
これは、ホスト側の話だとすれば、
lsmod | grep kvm やってみて。
395:login:Penguin
12/12/18 22:49:55.99 VwyzxG8/
KVMそのものがって意味不明でしたね。新しい仮想マシンを作成しようとしても
できなくなった。その前に入れてたゲストOSも起動しなくなった。
ログにエラーの内容は書かれていないし、そのコマンドでも
きちんとカーネルは組み込まれてるんですよね。
操作はvirt-manager上でやっています。
396:login:Penguin
12/12/18 22:55:23.90 70qv2lsb
virt-manager使ってるとしたら、libvirtdはちゃんと動いてるのでしょうか。
virt-manager起動後に仮想マシンリストが表示されてるなら
多分そのへんは問題ないのだろうと思うけど。
CentOS6ベースでしか分からないけど、、
libvirtを使ってる場合は、 /vav/log/libvirt の下に
いくつかログを吐くから、そのへんで何かでてないですかね。
397:login:Penguin
12/12/18 23:05:44.63 70qv2lsb
>393のURLを見てみましたけど、
「Ubuntu で SPICE 対応の QEMU+KVM のインストール 」てのを
やってるとすると、Qemuのバイナリを入れ替えてるぽいから
これが原因かも。
運が良ければ、ここでインストールしたqemuを削除とか、
出来れば綺麗にアンインストールすればなんとかなるのかもしれない。
/usr/local/bin/qemuにSPICE対応が入ってて、
/usr/bin/qemuに、元々動いてたqemuが入ってたりしないでしょうか。
398:login:Penguin
12/12/18 23:18:26.20 VwyzxG8/
両方のフォルダにたくさんのqemu系ファイルがありましたね。
競合してるということなんでしょうかね。
とりあえず削除して様子見します
399:login:Penguin
12/12/18 23:26:58.84 lv7xhfZk
KVMなんて使うからこんな残念なことになるんだよ。
あほだろ
400:login:Penguin
12/12/19 00:17:22.63 innaWHo7
あほには使いこなせないことが証明された
401:login:Penguin
12/12/19 16:42:51.08 SanA93m2
俺でも使えるんだからアホでも使える筈
402:login:Penguin
12/12/19 23:50:42.11 AHLXHMNf
>>401
俺はお前ができる子だってわかってるぞ
403:login:Penguin
12/12/20 20:34:20.49 NP4MdNyh
CentOS5から6に乗り換えたのを契機にvirshを使うようにしたんだけど、
ゲストのCPU定義の仕方がよくわからん…。
qemu-kvm直接実行の時の-cpu=hostは、virshのXMLではどう書けばいい?
Windows8 32bit版のインストールDVDが起動できなくて困っている…。
404:login:Penguin
12/12/20 20:54:31.64 Uce93kpS
URLリンク(libvirt.org)
host-model か host-passthrough を使えば良いのでは?
405:login:Penguin
12/12/21 00:25:14.33 HMqQZGze
>>404
<cpu mode='host-passthrough'/> にしたら、-cpu hostで起動できた!
けど、起動できないのは相変わらず…。64bit版のインストールDVDは起動できるからさらに謎。
406:login:Penguin
12/12/21 03:54:15.90 0Uba8PEB
>>405
つ virtinst
407:login:Penguin
12/12/22 10:00:34.83 UN5rYgv9
よくわからん…。
困っている…。
相変わらず…。
さらに謎。
>>404,406
お前ら、優しいなw
408:login:Penguin
12/12/22 10:28:27.23 AElEyaZ9
>>407
KVMは意味不明なバグがまだ数千以上
存在するから使うの辞めたほうがいいよ
開発者自身もわかってないし
409:login:Penguin
12/12/22 10:37:10.37 CsfSZK+7
>>408 デマ乙
410:login:Penguin
12/12/22 20:20:06.52 afsOO5WS
ビデオドライバによって、画面の描写の一部分が変になるんだけど
(ゲストOSがWindowsなんだけど、チェックボックスで設定を変更するタイプの
メニューがうまく表示されない。一部のアプリケーションのメニューの操作が出来ない)
これは自分のPC構成による相性の問題なのかな。それともKVM自体の設定でどうにかできる
ものなんですかね?ドライバ形式を変えたらなくなるけど、重くなったりするからな。
411:login:Penguin
12/12/22 21:39:56.42 VmoVw93N
ゲストのwindowsのドライバがちゃんと当たってないとか?
412:login:Penguin
12/12/24 12:29:06.26 5d5T+TpU
KVMの深刻なバグなだけかと
413:login:Penguin
12/12/25 00:49:37.15 WmQAXySb
画面の描写はKVMと関係ないんじゃ?
VNCやspiceなんかの仕事でしょ
414:login:Penguin
12/12/25 01:31:35.26 4/Ls2NuA
んな部分にKVMが関係あってたまるか
415:login:Penguin
12/12/25 01:54:26.46 ff1HIYlW
居着いちゃったんだろ、スルーしとけ
416:分割 (1/2)
13/01/05 22:12:19.40 rDGd+NmS
PCIパススルーについて質問です。
B75チップセットのマザーで、libvirtを使ったPT1&PT2のパススルーがうまくいきません。
PT2の一枚だけPCに挿した状態であれば virsh start hostname で問題なく起動できるのですが
PT1とPT2の二枚を挿した状態で同じことをしようとすると、以下のようにエラーで起動できません。
# virsh start hostname
エラー: ドメイン hostname の起動に失敗しました
エラー: 内部エラー PCI デバイス 0000:06:01.0 をリセットできません: 内部エラー 0000:06:02.0 を持つバス上のアクティブな 0000:06:01.0 デバイス、バスのリセットをしていません
事前に nondev-dettach をすれば起動できるのですが、ゲストPC(Win7)上でパススルーされたデバイスを
使おうとするとデバイスマネージャー上で認識されているにも関わらず、オープンに失敗します。
# virsh nodedev-dettach pci_0000_06_01_0
# virsh nodedev-dettach pci_0000_06_02_0
# virsh start hostname
ドメイン hostname が起動されました
417:分割 (2/2)
13/01/05 22:14:14.15 rDGd+NmS
ホストはCentOS 6.3で、公式リポジトリに登録されているlibvirt 0.9.10以外にも
本家最新版の1.0.1ソースからコンパイルた物も試してみましたが、変わりませんでした。
libvirtを使わず、qemu-kvmのオプション指定で直接起動した場合はPT1&PT2の二枚構成でも
問題なく起動できているので、構成的にはクリアできていると思います。
# /usr/libexec/qemu-kvm -version
QEMU PC emulator version 0.12.1 (qemu-kvm-0.12.1.2), Copyright (c) 2003-2008 Fabrice Bellard
# lspci
00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev a4)
06:01.0 Multimedia controller: Xilinx Corporation Device 211a (rev 01)
06:02.0 Multimedia controller: Xilinx Corporation Device 222a (rev 01)
# lspci -t
-[0000:00]-+-00.0
+-1e.0-[06]--+-01.0
\-02.0
どうにかしてlibvirtで管理したいのですが、この問題を解決する方法はありますでしょうか?
libvirtでPT1やPT2の二枚挿しを正常に起動できているという方もいらっしゃいましたら教えてください。
418:login:Penguin
13/01/08 17:01:32.63 gQsMjpok
B75ってVT-d使えないんじゃなかったっけ
CPUもK付きやi3以下は使えない筈だし下手したら全取っ替えかな?
419:login:Penguin
13/01/08 17:36:21.80 Fx/IzK4b
ASRockのマザーではB75でVT-d使えてるよ
420:login:Penguin
13/01/08 21:21:06.02 wxN+x4rv
VT-dはノースブリッジの機能だからCPUに内蔵された現在はチップセットは関係ない
CPUとBIOSが対応してるかどうかだけが問題になる
Intelのサイトを見るとQ77以外はVT-d ×とか書いてあって混乱させられるけどな
421:login:Penguin
13/01/08 21:27:52.92 gQsMjpok
>>420
PCIなんかはサウス管轄になってるからチップセットにも関係してくる
しかもBIOSによっては両方対応してないとどっちも使えないとかが
あるからかなりややこしい
422:login:Penguin
13/01/08 21:36:53.66 Qn3iiCLi
>421
いずれにせよB75チップセットで問題になることはない。Q77マザー並に安牌。
423:login:Penguin
13/01/08 21:44:43.85 wxN+x4rv
>>420
その辺のレジスタもデータシートを見ればわかるけど、ノースブリッジ側にあるよ
が、デバイス自体にも対応が必要らしいんで若干不正確だった
Intel(R) 7 Series / C216 Chipset Family Platform Controller Hub (PCH) Datasheetより
> 5.29.2 Intel(R) VT-d Features Supported
> ・ The following devices and functions support FLR in the PCH:
> - High Definition Audio (Device 27: Function 0)
> - SATA Host Controller 1 (Device 31: Function 2)
> - SATA Host Controller 2 (Device 31: Function 5)
> - USB2 (EHCI) Host Controller 1 (Device 29: Function 0)
> - USB2 (EHCI) Host Controller 2 (Device 26: Function 0)
> - GbE Lan Host Controller (Device 25: Function 0)
> ・ Interrupt virtualization support for IOxAPIC
> ・ Virtualization support for HPETs
SKUごとの差異があるとは記述されてないのでどちらにしろどれでも問題はないようだ
424:login:Penguin
13/01/09 07:03:33.04 lfVB9LK0
若干どころかPCIバスの向こう側にも対応が必要だったらノースブリッジだけが
対応すればいいなんて到底言えないと思うんだが
425:416
13/01/09 08:04:41.56 KRvPAtXZ
>>416-417にも書いてますが、今回ハマってる組み合わせ(PTx二枚挿し+libvirt)以外では
パススルーも普通に使えています。
426:login:Penguin
13/01/09 11:04:52.99 nFTME/1e
ということは
PT1枚+libvirt や PT2枚 libvirtなし だと動いてる?
427:login:Penguin
13/01/09 11:47:12.76 7AzDV/7F
ここの人はvt-dでPCI透過させて、ゲストOSでTV見たりしてるの?
すごいね
428:416
13/01/09 11:53:59.52 KRvPAtXZ
>>426
そういうことになります。
PTxとは書いていますが、PT2+PT3+libvirtの組み合わせであれば
パススルーでゲストが認識できるところまでは確認しています。
またPT1&PT2が挿さっていると、libvirtで片方だけアタッチして起動しようとしても同じく失敗します。
以上のことから思うに、レガシーPCI配下に複数デバイスがぶら下がってると
libvirtがそれらのデバイスの割り当てに失敗するようです。
429:416
13/01/14 21:53:37.59 6+s7zXaj
新しいカーネルならもしや、と思ってUbuntu 12.10で試してみたけどダメだった・・・
# uname -a
Linux hostname 3.5.0-17-generic #28-Ubuntu SMP Tue Oct 9 19:32:08 UTC 2012 i686 i686 i686 GNU/Linux
# kvm --version
QEMU emulator version 1.2.0 (qemu-kvm-1.2.0+noroms-0ubuntu2, Debian), Copyright (c) 2003-2008 Fabrice Bellard
# virsh --version
0.9.13
皆さんレガシーPCIに二枚以上デバイスぶら下げて、あまつさえlibvirt使ってみたりしないんですか???
430:login:Penguin
13/01/14 22:32:18.32 nQuTdK11
3.5.0は新しいカーネルと言えるのか
431:login:Penguin
13/01/15 02:16:48.04 ncKcda7k
libvirtにレガシーPCI1枚なら使ってる
432:login:Penguin
13/01/15 07:05:07.05 cfAabvAh
win7 が2枚挿しに対応してなかったらウケる
433:login:Penguin
13/01/15 13:59:13.10 n5dIQ8vV
libvirtが同一デバイスを上手くハンドルできないんじゃ疑惑
434:login:Penguin
13/01/15 19:54:03.21 cfAabvAh
でした
libvirt が起動している qemu のコマンドライン引数と
素でうまくいくときの qemu のコマンドライン引数を
くらべてみたいお
435:416
13/01/16 01:04:31.44 qAaJHAuV
>>433
PT2+SAA7130キャプチャボード+libvirtという組み合わせも試してみてダメだったので、PT1やPT2がというより
レガシーPCIに複数のデバイスがぶら下がってること自体が原因のような気がします(PCIeと違って共有バスだから?)。
本当に上記が理由だとしたら比較的簡単に再現できると思います。しかしその割に、他で報告を聞かないのも変な気はしますが・・
私は最初PCIe→PCIブリッジチップを介しているのがいけないのかと思って、H67からB75に乗り換えたのですが
再現の仕方が同じなので、問題はそこではなさそうです。他にはZ68でも同じ状況でした。
残念ながらソースは読めない人なので、qemuに直接渡す場合とlibvirtで実行する場合とで
設定晒してみます。流石にUUIDとゲストの名前は(厨二過ぎる設定な為)書き換えてますが、ご容赦ください。
qemu-kvmを直接起動する場合
URLリンク(www1.axfc.net)
libvirt経由で実行する場合
URLリンク(www1.axfc.net)
436:login:Penguin
13/01/17 00:37:48.86 9/jodcOu
>>435
/var/log/ の下に libvirt のログない?
debian なら /var/log/libvirt/qemu/<仮想マシン名>.log とかなんだけど...
437:login:Penguin
13/01/17 22:24:59.25 XtFnxcvM
>>435
お前さ、何故libvirtdのデバッグログをうpしないの?
何で初心者ですみたいに、ソース読めない人なので
なんでも聞いていいですよね?解決してくださいって
調子に乗ってるの?
お前ってさ、qemu:commandlineに利用しているなら、直接引数
渡せば起動できるのわかってて、嫌がらせとか本当に
たちの悪い糞野郎だよな。
438:login:Penguin
13/01/24 16:59:24.47 KfPzxJNa
spice-guest-tools-0.3.exe
来てた
439:login:Penguin
13/01/27 01:34:05.11 2ob6N5kY
kvm のホストマシンで ZFS on Linux を使って作った zpool に,
kvm のゲストマシンからアクセスすることってできる?
440:login:Penguin
13/01/27 09:45:08.51 Pq3gHEzO
そもそもzpoolって、他のホストがアクセスできるような代物じゃないと
おもうんですが、違うの?
441:login:Penguin
13/01/27 10:27:27.84 2ob6N5kY
ホストで /dev/sdb を zpool に追加して,/dev/sdb をゲストに接続しておいて,
ゲスト上で
$ mount -t zfs /dev/sdb1 /mnt
みたいないことできないかなと思って質問しました.
(ほんとはゲスト上では /dev/sdb1 っていう名前じゃなくて違う名前だと思うけど便宜上こう書いてます)
442:login:Penguin
13/01/27 16:22:35.71 Pq3gHEzO
ZFSはFreeBSDで使ってて、ZFS on Linuxは使ってないけど・・・
zpoolは、一つか複数のディスクを一つのpoolにまとめる。
zpoolに参加してるディスクをダイレクトにいじろうとするのは
そもそもZFSの使い方としておかしいんじゃないかと。
例えば、ホスト上でtankというプールを作ってみる。
zpool create tank /dev/sdb ←tankというpoolを作ってsdbを参加させる
こんなふうにやった後は、/tankにディスクがマウントされている。
この後に/dev/sdbへ直接アクセスするような真似をしたら、
KVMとか関係なく、ZFSを壊すだけでは。
ブロックアクセスしたいならzvolを作るべきだと思う。
443:login:Penguin
13/01/27 21:37:34.50 2ob6N5kY
>>442
なるほど,zvol でブロックデバイスが作れるんだ.いいこと聞いた.
実は試しに,ゲストマシンに ZFS on Linux を導入してみた.
インストールは簡単にできて zpool も作れた.しかし
ホストとか他のゲストと共有するために sharenfs とか sharesmb を
使おうとしたら,未実装らしい.これだと ZFS on Linux を入れたあんま意味ない気もする.
ホストに導入するのが自分の用途によさそうだが,あんまりホストの
機能が肥大化するのも好きじゃない.悩ましいな.
444:login:Penguin
13/01/28 02:01:42.39 zF/H5QPk
KVMを本運用で使ってる所ってあるの?
安定度が気になる
445:login:Penguin
13/01/28 08:16:31.73 nzeHuQ//
山ほどあると思うが。
まあチューニングはガンガンにしてるだろうけどね。
446:login:Penguin
13/01/28 12:08:44.22 +AsPXpx1
使ってるけど、運用がキツい。俺しかいじれない
447:login:Penguin
13/01/31 02:56:52.02 cczNNa9Z
チューニング、ガンガンですか
そのあたりのおすすめ本とかありますか
448:login:Penguin
13/02/01 14:22:21.05 xi34RPkr
運用が厳しいということは、大規模ってことかね。
うちは殆ど吊るしで使ってるけど、チューニングって例えば何がある?
449:login:Penguin
13/02/01 17:47:02.24 6Lum/gKZ
そんなノウハウ企業秘密に決まってんだろバカか
450:446
13/02/01 18:44:24.42 1UY1399o
うちもほぼ吊るしだよ。
VMイメージをNFS上に置いてるけど、ちょっとそろそろ限界。
ホストもNFSサーバもNIC帯域も余裕なんだけど、
1つのVMが使えるNFS帯域に何かボトルネックがあるらしく
ゲストのうち、アクセスの多いWebサーバの動作が滞りだした。
もうこの環境は厳しいからiSCSIかなんかで立て直して移行する
451:login:Penguin
13/02/01 22:59:21.03 xi34RPkr
>1つのVMが使えるNFS帯域に何かボトルネックがあるらしく
自分の環境では1Gbpsまではちゃんと出たので、NFS帯域のボトルネックなんて無いと思うんです。
先にHDDの限界がくるんじゃないかな。
1台のストレージに何台本番が乗ってるの?
単純にHDDのシークタイムがオーバーヘッドになってるように思うのですが。
452:446
13/02/02 09:22:03.00 OWeSb/8E
>>451
KVMホストは5台、ゲストは20台ぐらい。
ある1ゲストだけ飛び抜けて高負荷なんだけど、
いずれにしてもそんなにストレージへのアクセスが頻繁なものではなくて、
そのゲストが高負荷な時でもNFSサーバ自体の負荷は余裕、
他ゲストからのNFSパフォーマンスも落ちない(常時70MB/s程度)。
ので、KVMonNFSそのものがもうキツいのかな…と思ったんだけど、
確かに載せすぎでシークタイムが厳しいのかも。
NFSサーバーは7本のRAID6。
453:login:Penguin
13/02/02 11:42:17.62 MLdeUHoW
その構成にゲスト20台ならストレージやNFS自体はまだ余裕あるはず。
ゲスト達がどんな動きしてるか解らんので妄想入ってますが。
最初に思いつくのは、そのゲストに当ててるCPUやメモリが足りないとか、
それ以外のDBとかが足引っ張ってる可能性もあるとおもふ。
そのゲストがWindowsの場合はCPU使用率とかメモリ利用率を見て、足りないなら足せばいいいし、
Linuxの場合はロードアベレージは当てにならんから、CPU使用率を見てCPU負荷が高いのか、
IOウェイトが発生してるのかを見れば、原因がどこにあるかが判るはず。
あとは、ストレージのネットワーク速度すかね。
454:login:Penguin
13/02/02 12:04:05.27 M7wDuqSH
>>452
NFSサーバが余裕なのは、本当に処理負荷がひくいからなのかな。
NFSサーバがリソースを使いきれるようにチューニングされていなくて、NFSクライアントを待たせながらのんびり動いてからかもよ。
455:login:Penguin
13/02/02 12:06:56.75 MLdeUHoW
>>454
それだとKVMホストのロードアベレージがやたら上がるはずなのよね。
456:login:Penguin
13/02/02 12:19:52.49 M7wDuqSH
>>455
あがらないだろ。
ioとかnfsのqueueが長くなるだけだから。
nfs しばらく使ってないのではずしてると思うが、概念的にはworkerが足りないときとは処理要求は多いのにcpuの負荷は低くなると思うが、そんなケースがないかと想像してる。
457:login:Penguin
13/02/02 12:28:00.61 MLdeUHoW
>456
ううん、NSFサーバがNFSクライアントを待たせると、
クライアント側ではCPUのウェイトのパーセンテージが上がって、
それでロードアベレージがあがるんですよ。
クライアントはデータの読み書きをサーバに依頼するけど、
サーバがモタモタしてると、クライアントは自分のHDDの処理が遅いような認識になって、
ロードアベレージがあがるんです。
ロードアベレージって実行待ちプロセスの平均値でしょ、だからそうなるの。
458:login:Penguin
13/02/02 12:44:33.71 wmtiBWeW
その「1台だけ高負荷なKVMゲスト」の
何の負荷が高いのかから調査して行かないと厳しそうでは。
459:446
13/02/02 13:21:45.53 OWeSb/8E
・その高負荷ゲスト(Linux)では、とあるWebグループウェアが稼働。DBも同居。ゲストは8CPU/32GB
・高負荷なので臨時にホストをそのゲスト1台で占有使用させてる。ホストは12コア36GB
・高負荷時、ゲスト上でiowait30~50、ロードアベレージ7程度
・高負荷時、ホスト上でiowait20~40、ロードアベレージ4~6程度
・高負荷時でも、他のノードからNFS転送速度を計測すると普通に80MB/sとか出る(無負荷時で90MB/s程度)し、
他ゲストのパフォーマンスにはさほどの低下がみられない
・各物理危機はL2機器で直結
・NFSサーバーはほぼ吊るし設定。CPUもIOもtopで見る限りまったく余裕
こんな状態です。
460:login:Penguin
13/02/02 14:13:22.25 MLdeUHoW
NFSのマウントオプションはどうなってる?
syncかasyncでかなり違う。
NFSのバージョンも気になるけど、v3以降ならパフォーマンス面の不安はほとんど無いはず。
NFSってかなりオプションあるけど、いくつか押さえておけば基本的に吊るしでおk。
NFSクライアントで
nfsstat -m
NFSサーバで
exportfs -v
だったと思う、ステータスが確認できるお。
461:login:Penguin
13/02/02 16:52:24.68 wmtiBWeW
高負荷な時の、そのゲストに使用してるNFS転送速度ってのは
調べられないのかな。
462:login:Penguin
13/02/02 17:18:03.98 GmTgwL/U
そのゲスト上で
dstat -fd
入ってなければyumかrpmで
許可要るだろうけど、あると便利ですよ
463:login:Penguin
13/02/04 00:02:16.54 vfNYlBcm
Xeon E3-1270v2 で CentOS 6.3 の KVM で FreeBSD 9.1 amd64 のインストール
をしようとすると、カネールのロードのところでフリーズしてしまうのだが、
何が原因だろう…?
別メーカーの Xeon E3-1270v2 でも FreeBSD はダメ
Xeon E5-2670 では FreeBSD OK
E3-1270v2 でも Linux 系は問題無くブートする。。
464:456
13/02/04 01:48:38.64 AYy/M0Gd
>>459
すまん。テキトウなこと書いてしまった。ただ、load averageはなんか起きてるってのがわかるくらいで、原因の特定にはならないのでほかの指標見た方がよいですよ。
465:login:Penguin
13/02/05 01:37:12.13 ok1ZznSG
>>463
ゲストに見せるCPUの設定変えてみてもダメなのかな。ゲストのxmlの<model>xxx</model>のとことか
466:login:Penguin
13/02/05 09:57:39.94 ZH9FB+ON
>>465
Xeon E5 はデフォルトの cpu64-rhel6 でも SandyBridge でもどっちでもいけるんだけど、
Xeon E3 はどっちもダメです。
467:login:Penguin
13/02/05 19:51:00.76 8w4Y5+pZ
>>466
GPUまわりかな。いずれにしてもFreeBSD側でカーネルデバッグをしてみるといいだろう。
468:login:Penguin
13/02/05 23:59:12.79 ZH9FB+ON
>>467
Xeon E3-1270v2 なので、GPU 無しです。
Host で top とか sar でみると、CPU を 100% くってるので、どこかでループしてそうな感じです。
469:login:Penguin
13/02/06 20:36:09.06 aB8u49PF
何が原因か分からんね。物理に直接インストールしてみたり、仮想デバイス変えてみたりして地道に切り分けて行くしかないのかな
470:login:Penguin
13/02/06 20:56:38.01 44A2GJXi
>>469
物理だと問題無いんですよね。あと、KVM 無しの QEMU でも問題無かったです。
Xeon E3-1200v2 の仮想化支援機能に何か問題があるんじゃないかなーと思ってます。。
ひとまず、E5 を使うことで切り抜けたのですが、
他の方々は E3 で問題無く、FreeBSD 9.1 amd64 disk1 の起動できます?
471:login:Penguin
13/02/07 18:39:36.28 2mak0S6u
>>470
BIOSで何らかのオプションが無効になってるとか?
vなしのE3-1245にSL6.3の環境ですが
怪しい感じも無くインストール、ログインまでいけましたよ
472:login:Penguin
13/02/08 01:56:44.07 EJKL/a7r
>>471
CPUとしては全然別物
473:446
13/02/08 09:29:49.76 s+XsNCZ6
ちょっとなかなか高負荷にならず、間空いちゃってすいません。
>>460
rw,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,proto=tcp,timeo=56,retrans=2,sec=sys,
mountaddr=**,mountvers=3,mountport=58074,mountproto=udp,local_lock=none,addr=**
asyncは指定してません。デフォなのでおそらくsyncですね。
>>461
ddで100MBのファイルを5回書き込み、1MBのファイルを500回書き込みとやってみましたが
いずれもキャッシュに載ってしまって200MB/sとかです。
それ以上のサイズは、本稼働中なんでちょっと厳しいw
>>462
readが0~8000kで平均1000k、writeが0~5000kで平均1500kといった感じでした。
474:login:Penguin
13/02/08 09:58:47.24 sq66tPlr
>473
乙です。
NFSの引数はあまりわかってないですが、
今のところ、見せてもらった情報からは、
NFSがボトルネックのような内容見えてない気がします。
iowaitは気になりますが、コア8つでロードアベレージが
7ってことは、コア単位で言えば、待ちは1つ以下になるし。
使ってるグループウェアの仕様上のボトルネックみたいな
ものはないんでしょうか。同時接続数がいくつまで・・とか、
無駄にiowaitを生じさせるような動作をしてるとか・・・
475:login:Penguin
13/02/08 10:21:13.30 EJKL/a7r
>>473
NFSのオプションにいくつかイケてない内容があるです
それはクライアント側のマウントオプションだけど、
rsize=8192,wsize=8192 これもっと大きい数字にできる。
うちはrsize=1048576,wsize=1048576
mountproto=udp これ事故る元。
tcpに変えた方がいいです。
syncかasyncかはサーバ側で exportfs -v しないと解らないです。
そこに必ず表記が出ます。
476:474
13/02/08 10:26:33.85 sq66tPlr
NFSの引数について判らなかったために
随分適当なことを言ってしまったみたいですね、
すみません。
rsize, wsizeは昔は8192にするのは定石だったと思いますが、
今はもっとずっと大きいんですね・・・
477:login:Penguin
13/02/08 10:42:02.04 EJKL/a7r
NFSは枯れててあまり最新のネタって無いですからね、仕方ないと思います。
適当でも普通に動いちゃうし。
dstatの結果を見る限り、かなりディスクに負荷かかってるんじゃないかと思います。
ランダムアクセスで常時Read/Writeが1~2MB/sって、そこそこリソース食ってると思う。
ストレージの無負荷のDiskMark値がないとなんとも言えんけど、
HDD2台のRAID1構成のNFSサーバに、KVMゲストからDiskMarkしたときは、
4kランダムで1~4MB/sくらいでした。
RAID6遅いし、使ってるディスクの仕様が解らんけど、ストレージもある程度酷使されてると予想。
478:login:Penguin
13/02/08 10:46:20.85 onEADul2
>>475
proto=でなくmountproto=だからあまり問題ないんでは?
479:446
13/02/08 10:57:16.80 s+XsNCZ6
何度もありがとう、参考になります。
>>474
メーカーにさんざん調べさせた結果、もうどう叩いてもこちら側の問題ではなく
サーバー側ディスクIOパフォーマンスの問題である、というのが最終回答でした。
実際、仮想化物理ホストのローカルHDDに載せてしまえば、現スペックでも
こんな程度のユーザー数、アクセス数は余裕で裁ける程度なんですよね。
>>475
なるほど、rwsizeは拡大方向で、計測しながら変更してみます。
mountprotoは無指定なのでデフォ値ですね。これもtcpに変えたら
どれくらいパフォーマンスが落ちるかを計測しつつ検討してみます。
ちなみにfstabのマウントオプションは rsize=8192,wsize=8192,timeo=56,hard,nointr です。
で、nfsサーバー側でexportfs -v をしたところ、asyncでした。
<world>(rw,async,wdelay,insecure,no_root_squash,no_subtree_check)
実際nfsサーバー側で見てる限り、iowaitなんか全くないし
その他負荷もさっぱりなんですよね。
深夜の無負荷時にhdparmでも実行してみます。
480:login:Penguin
13/02/08 10:59:43.83 EJKL/a7r
これは確かにネタが少なくて調べるの大変なんですが、
NFS マウントオプション tcp
これでぐぐったら出てくるよ。(修行中とか言われてリンク貼れなかったorz)
この辺りに書いてあるです。
481:login:Penguin
13/02/10 01:50:32.82 LJwjzQu7
さくらとかの、VPSってKVMつかっているんでしょ
仮想マシンイメージファイルのダウンロード、バックアップって、許可されていないんだろうか
482:login:Penguin
13/02/10 22:37:49.70 UUWVgmws
自分でバックアップとったのをダウンロードして
手元のkvmで動かしたけど、許可必要だったのかー
483:login:Penguin
13/02/10 23:26:32.03 LJwjzQu7
>>482
仮想マシンイメージファイルのレベルで、ダウンロードできるんだ?
484:login:Penguin
13/02/10 23:44:05.39 V8FzsEi4
仮想マシンイメージのダウンロード、アップロード機能提供したら、
-ちょっとでも価格の安い事業者へユーザーが引っ越しちゃう
-繁忙期以外にも無駄に契約させておく事が出来なくなる
なので、余程自信のあるところ以外はやらないでしょ
一応、Amazonが(Xenだけど)提供してたはず。他は聞いたこと無い
485:login:Penguin
13/02/11 00:31:05.13 Cpvy0uGk
さくらのクラウドは対応してるよ。
486:login:Penguin
13/02/11 14:07:29.26 3/TB2HI+
>>485
じゃ、自宅のKVMで仮想マシンをつくったのを、
さくらVPSでそのままアップロードしてつかえるのかな?
487:login:Penguin
13/02/11 15:06:50.87 Cpvy0uGk
>>486
VPSはできない。
488:login:Penguin
13/02/11 19:36:49.11 3/TB2HI+
○さくらのクラウド
×さくらのVPS
同じものだと思っていました。
ちがうってことですね?
489:login:Penguin
13/02/11 19:37:53.74 3/TB2HI+
クラウドの定義ってあるんですか
VPSのことがクラウドだと思っていた
490:login:Penguin
13/02/11 19:41:52.54 u2cb6J4c
ぐぐればすぐわかることをいちいち聞くキチガイは
死んだほうがいいと思うよ。
491:login:Penguin
13/02/11 19:46:46.29 3/TB2HI+
K O W A I !
492:login:Penguin
13/02/16 00:39:37.80 dPtclbyw
KVM使ってて、たまにVirtual Machine Manager越しに
This usually means that QEMU or KVM is not installed on your machine, or the KVM kernel modules are not loaded.
って出て新規ゲストが作れなかったり、マイグレーション出来なくなることってない?
調べてもわかんねーんだが。
ログにもたいした内容出てないし。
493:login:Penguin
13/02/22 14:23:41.62 2+V5LRUA
ホストとゲストに同じディスクの同じパーティションをマウントしてます.
片方でそのパーティションを変更しても,もう片方ではその変更が
同期されないんですけど,同期させるにはなにかオプションとか
必要ですか?
494:login:Penguin
13/02/22 16:52:21.66 Zu99WWbz
何がどうなってんのか詳しく書かないと解らんです。
どうやってマウントしてるのか、ゲストのOSは何なのか、
何をマウントしてるのか。
495:login:Penguin
13/02/22 17:04:47.58 2+V5LRUA
>>494
どうも,詳しく書かせてもらいます.
OSはホスト,ゲスト共に Debian squeeze です.
「ホストの /dev/sdf というディスクをホスト,ゲスト両方で使いたい」というのが目的です.
/dev/sdf は3TBのHDDでパーティションは1つのみ,ファイルシステムはext4でフォーマットしてます.
ホストでは普通に
host# mount /dev/sdf1 /mnt
でマウントしていて,中身がきちんと見れます.
ゲストの方は,libvirt で /dev/sdf を disk device として接続しており,
ゲストでは /dev/vdd として認識されています.これで
guest# mount /dev/vdd1 /mnt
とやると普通にマウントができて,最初にマウントした時は両者とも
/mnt 内のファイルは一致していました.
しかし,片方で新しいファイルを作ったり削除しても,もう片方のほうでは
それが反映されません.というのが問題点です.
mount のオプションかなー,とおもって どちらのマウントも sync にして見ましたが,
結果変わらずでした.なにかご意見お願いします.
496:login:Penguin
13/02/22 17:15:57.85 2+V5LRUA
また,/dev/sdf のディスク以外もゲストに接続しているので,
そのディスクでもホスト,ゲスト両方でマウントして,
同様に内容を編集してみましたが,やはり内容の編集は
反映されませんでした.特定のディスクの問題という
わけではないようです.
今までは各ディスクはゲストのみで使うようにしていて,
ゲスト,ホスト両方で使う用途がなかったので気づきませんでした.
497:login:Penguin
13/02/22 17:20:25.80 2+V5LRUA
連レスすいません.
詳しいバージョンを書いておきます.
デフォルトの sueeze の kvm と libvirt が古かったので,
backports の新しいものをインストールしています.
カーネル: 2.6.32-5-amd64
kvm: QEMU emulator version 1.1.2 (qemu-kvm-1.1.2+dfsg-5~bpo60+1, Debian)
libvirt: 0.9.12
498:login:Penguin
13/02/22 18:27:41.60 Xu/vRH7T
共有想定してないファイルシステムを複数箇所からマウントすると壊れないか?
499:login:Penguin
13/02/22 19:10:09.21 4MroaQFK
クラスタファイルシステム使わないとダメかと。でもNFS使った方がお手軽かも
500:login:Penguin
13/02/22 19:37:40.04 2+V5LRUA
>>498-499
なるほど,同時マウントってやってはダメなんですね.
やりたいのは,ホストで録画したファイルがあるディスクを
ゲストの SAMBA サーバで共有したいんですよね.
ホストにはできれば,SAMBA 入れたくなくて.
とすると,
ホストで NFS 共有 -> ゲストで NFS マウント -> ゲストで SAMBA で公開
になるのかな.ややこしや.
501:login:Penguin
13/02/22 23:15:16.12 wscWw5WI
KVMでvirtualbox用のかそーディスクの.OVAを
インポートして使えたりできないんですかね?
502:login:Penguin
13/02/22 23:27:42.43 7MDnyQx1
>>500
なんでやねーん
503:login:Penguin
13/02/22 23:59:52.44 2+V5LRUA
>>502
え,だめだった?
NFS 共有できない Windows マシンとかもあるから SAMBA で
公開したいんだけど.あとユーザ認証したいし.
504:login:Penguin
13/02/23 00:01:52.48 H0h2xM9L
sambaで共有したいけど、ホストにsamba入れたくないならそれでおkなような
505:503
13/02/23 01:34:08.38 VIKqv7zQ
ちょっと考えなおして,
ゲストでディスクをマウント -> ゲストで SAMBA 公開 -> ホストで smbmount してそこに録画
のほうがいいかと思い始めた.
で,ちょっと聞きたいんだけど,
SAMBA 公開するゲストが起動したタイミングで,
自動的にホストに smbmount させることってできるかな?
ゲストからホストの操作って可能?
506:login:Penguin
13/02/23 02:03:49.17 K/wRctdB
>>505
そうそう
ゲストからホストを操作するのも色々やりようはある気がする。例えば、ssh使う方法。
1. ゲストでssh-keygenして空パスフレーズで鍵ペア作る
2. ホストのrootのauthorized_keysにゲストの公開鍵を追記
3. ゲスト起動時に下のようなスクリプトが走るようにする
# ssh -l root ホスト mount XXX
これで一応できるはず。もちろんsambaの認証が自動でされるようにホストの/etc/fstabなりに予め設定しておくのは前提ね。
507:login:Penguin
13/02/23 02:34:17.03 VIKqv7zQ
>>506
うむ,やっぱり ssh か.まあそれが楽か.
ホストの fstab に書いちゃうとホスト起動時にマウントしようとして,
ゲストの SAMBA サーバが起動していないからマウントに失敗すると思うんだが.
fstab でマウントはせずに認証だけすることってできるの?
508:login:Penguin
13/02/23 02:39:18.19 K/wRctdB
mountオプションにnoautoでいけるんじゃないかな
509:login:Penguin
13/02/23 02:51:04.94 VIKqv7zQ
>>508
おー,なるほどー.そんなオプションがあったのか.
ごめんなさい,mount のオプション多すぎてよく覚えとらん.
アドバイスありがとう.その方針でやってみます.
510:login:Penguin
13/02/23 14:06:52.17 ZRdOiKVb
ここにあんま書かれないけど、KVMもかなり新機能出てきてるっぽいね。
511:login:Penguin
13/02/23 15:38:53.21 VbcJVGPt
>>510
例えば?
それにしても、企業がqemu-KVMなんて使うとは思えない。
512:login:Penguin
13/02/23 15:50:29.21 YSd8r4L6
無知を自慢されても困りますぅ
513:login:Penguin
13/02/23 19:36:10.49 pxCX6VeX
>>511
514:login:Penguin
13/02/24 00:42:57.68 Kk3axBme
よっこら
性能を改善したオープンソースのエミュレータ「QEMU 1.4」が公開 - SourceForge.JP Magazine : オープンソースの話題満載
URLリンク(sourceforge.jp)
515:login:Penguin
13/02/24 09:58:37.40 poWB60P8
>>511
>>511
>>511
>>511
またおまえか
516:511
13/02/24 13:04:25.61 TrfgiyV9
さくらVPSってのは、qemuっぽいみたいですね。失礼いたしました。
517:login:Penguin
13/02/24 13:17:29.57 VH5HcKPu
いやいや、思うのは勝手だからいいですよ
だたあんま偉そうにすんな
518:login:Penguin
13/03/08 23:23:58.14 AeeaW3/j
一台のサーバーにkvmでホストOSとしてdebianとWindowsServerを入れて、 両方Webサーバを動かそうとしてるんだけど
2つのホストOSそれぞれに違うドメインを割り当てたいんだけどそういう 事できる?
ホストでapache動かしてバーチャルドメイン使えば手っ取り 早いんだろうけど
サイトをまとめて運用したくないし、一つはIISじゃないと困った事になるの で・・・
519:login:Penguin
13/03/08 23:34:46.96 1loOFSwU
>>518
>2つのホストOS
はい?
520:login:Penguin
13/03/09 00:21:39.14 1EKqgfpG
きっとマルチブート環境
521:login:Penguin
13/03/09 00:49:32.66 0yK7mC13
kvmなんか使わなくても、iisでよくね?
なんで1台のwebサーバで2サイトやりたくないのか解らんけど、
ホストヘッダー設定したら目的は達成できるでしょ。
全然問題ないからやってみ。
522:login:Penguin
13/03/09 02:29:55.08 g5Zjov3F
2つのゲストOSの間違いだったしにたい。
素直にiisでやります。
523:login:Penguin
13/03/11 23:24:25.85 G6kbvRfs
qemu-kvmを-no-kvmオプションでVBOX上のCentOS6で動かしたいのですが可能ですか?
virshや、virt-managerからはkvm-intel or kvm-amdがないのでエラーとなっているようです。
長いオプションを指定して起動するしか方法がないでしょうか?
524:login:Penguin
13/03/13 20:28:30.25 ddqrRsai
vmのネストをやりたいんだと思うけど、
条件をぶった切って、
ホスト機→vmware player→fedora17以上→kvm
なら実現できるはず。
バーチャルボックスが仮想化支援を引き継げるなら、バーチャルボックスでもおk
Cent6でもネストは可能だけど、マンドクセので勧めません
上記はできるはずってだけで、自分もこれから実施予定
525:login:Penguin
13/03/13 20:38:54.33 SHSmxLbV
ごめん、ボケてました。
ホスト機→VMWwarePlayer→Cent6→KVM
これでOKだね。
VMWwarePlayerなら仮想化支援引き継げます。
526:login:Penguin
13/03/14 01:35:34.78 1pgF5NI7
>>525
VMPlayerでできました。ありがとうございます。
527:login:Penguin
13/03/28 11:24:35.73 0oUKlWo6
CentOS6.3 x86_64にyumでKVM入れたんだけど
qemu-nbdはどこにあるんでしょ?
リポジトリあれば教えてください
528:login:Penguin
13/03/28 21:51:20.93 LU0XAv6w
"qemu-nbd centos"はぐぐってみたの?
529:login:Penguin
13/03/29 12:03:55.21 xPDMNO1O
ググっても出てこないですねぇ
# yum list | grep qemu
gpxe-roms-qemu.noarch 0.9.7-6.9.el6 @anaconda-CentOS-201207061011.x86_64/6.3
qemu-guest-agent.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-img.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm-tools.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-guest-agent-win32.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
EPELにもないみたいです
530:login:Penguin
13/03/29 16:22:31.03 xPDMNO1O
qemu-nbdなさそうなのでソースからコンパイルしました
お騒がせしました
531:login:Penguin
13/03/29 19:54:55.00 ndurgvQR
なんか殺伐
532:login:Penguin
13/03/30 13:05:23.09 ee0pZ3h1
>>529
パッケージの名前に「nbd」が入っていると思い込んでるから見つからないんじゃ
今5分くらい探したらRHEL6用のこーゆーのは見つかったよ
Content of RPM :
(中略)
/usr/bin/qemu-mips
/usr/bin/qemu-mipsel
/usr/bin/qemu-nbd
/usr/bin/qemu-ppc
/usr/bin/qemu-ppc64
533:login:Penguin
13/04/06 08:09:27.87 oUfXD2kP
ググって単語さえヒットすれば存在するという・・・
なんというかとてもメルヘンで幻想的な・・・
534:login:Penguin
13/04/06 22:34:54.25 5/9SBv43
つか
普通に RPM Search で検索したら
10秒で見つかるじゃねーかw
535:login:Penguin
13/04/23 02:01:30.43 KJdVms1h
すんません質問です
KVMで稼働中のゲストイメージファイル(raw)を停止させずにバックアップ取りたいんですが
普通にcpしても壊れますよね
LVMとかFS側でスナップショット撮ってコピーする手段が適当でしょうか?
もし他に方法があれば教えてください
536:login:Penguin
13/04/23 08:43:00.41 EGsKWz2v
VMレベルでIOをサスペンドして、スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいいよ。
理想的にはVM上のOSにもちゃんとフラッシュしてもらうか、書き込みをordered writeでしてるようにしとくべし。
537:login:Penguin
13/04/23 09:34:06.19 KJdVms1h
すみません
>>スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいい
がよくわからないんですが、つまりどういうことでしょうか?
538:login:Penguin
13/04/23 16:25:17.11 EGsKWz2v
流れとしては
1. VMが例えばイメージファイルfoo.img上で動いている
2. スナップショット分岐させ、foo-snap.img(backing store: foo.img) 上で稼動する状態にする
3. 書き込みはfoo-snap.imgにしか反映しないので、foo.imgは(ゲスト側の問題を別にして)安全にコピーできる
4. コピーが終わったら、foo.imgにfoo-snap.imgの内容を書き戻す
5. foo-snap.imgの内容をfoo.imgに書き戻す形で再統合し、VMもfoo.img上で動くように構成を戻す
ということ。
昔やったときは結構面倒だったけど、いまだとsnapshot_blkdevとblock_streamで1-5に近いことはできると思う。あと、もっと簡単かつ柔軟にする方法も今後出てくる予定だったはず。
539:login:Penguin
13/04/23 20:26:42.05 6kq/oZZ+
Rawってスナップショットとれるん?
Qcow2だけかと思ってた。
LVMでスナップショットとるのが良いような気がする。
540:login:Penguin
13/04/23 22:33:26.30 EGsKWz2v
そりゃゲストOSかホストOSの中でそういう操作ができるのなら、
アプリのスナップショット機能使う理由はあんまりない。
541:login:Penguin
13/04/25 00:54:12.31 ll+bCTSm
ありがとうございます
rawはqemuではスナップショット撮れないって認識あったんですが(実際試したことはないです)
スナップショットとれるFSなりLVMなり低い層でのバックアップをしたほうがよいってことですね
マイグレーションついでにデュプリケートもしてくれるような機能あったら大歓迎なんですけどね
542:login:Penguin
13/04/28 21:48:57.77 TIPSb/v1
長文失礼します。
当方KVMでiscsiを使って共有ストレージを組もうとしています。
多分一般的だと思っているのですが、例えばKVMホスト2台、ストレージ1台の構成で、
ストレージはiscsiターゲット、KVM2台はイニシエータとします。
OSは全てCentOS6.4 64bitで、ゲストのイメージはストレージに置きます。
1台のKVMから新規ゲストを作って、それをライブマイグレーションすると、
マイグレーションは完走するんですが、ゲストのディスクが見えなくなってしまい、
ゲストがIOエラーを吐きます。
iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
原因は他方のKVMホスト上のストレージプールにデータが認識されていないためかと思います。
(それなのに、なんでマイグレーションが完走するのか謎)
iscsiは多対一の構成を推奨していないようですが、KVMではどうやって導入したらよいでしょうか。
現在は共有ストレージでNFSを使っていますので、NFSのような挙動を望むのですが、
中々上手いこといかずに悩んでおります。
543:login:Penguin
13/04/28 23:43:13.33 g0SfUFFc
>>542
> iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
こわれるのあたりまえ。
ブロックデバイスそのままつかいな。
544:login:Penguin
13/04/29 06:21:39.09 huGBYEKF
エスパーありがとうございます。
その辺りの手順をきちんと書いてなくてすみませんでした。
ターゲットホスト上でscsiターゲットの設定
↓
イニシエータからターゲットを参照
↓
イニシエータからターゲットにログイン(fdisk -l で認識OK&パーティション切り)
↓
イニシエータホスト上で、認識したブロックデバイスをフォーマット
例:mkfs -t ext4 /dev/sda1
↓
イニシエータホスト上で、ファイルシステムにマウント(df -h で確認できるようになる)
例:mount /dev/sda1 /mnt
↓
virt-managerを使ってローカルディレクトリとしてプールに追加
という手順で行っていました。
今度はブロックデバイスでそのままプールに追加という手順でやってみます。
また結果報告しますmm
545:login:Penguin
13/04/29 11:19:03.02 QbAX9dsD
ホスト2台から同じiSCSIボリュームをマウントして使うってことよね
iSCSIのボリュームを複数台から共有する場合は、ext4じゃなくて共有に
対応したGFS2みたいなファイルシステム使わないとダメなはず。
URLリンク(aikotobaha.blogspot.jp)
同じ事やってファイルシステムぶっ壊したのでiSCSIペンディングしてるw
546:login:Penguin
13/04/29 11:57:13.04 huGBYEKF
こんにちは、542です。
>> 543
> ブロックデバイスそのままつかいな。
これはつまり、ストレージ側でVMのイメージをddやqemu-imgなんかで予め作成し、
そのイメージファイルをscsiターゲットとして共有するという理解でOKでしょうか。
/etc/tgt/targets.confの内容を書くと、
<target iqn.2013-04.com.iscsi-tgt:tgt>
backing-store /mnt/test.img
backing-store /mnt/foo.img
backing-store /mnt/hoge.img
・・・
・・
・
write-cache off
</target>
というように、新しいVMを作るたびに書き連ねて行くと。
なんかかなり面倒な感じですが、誤解してますか?
547:login:Penguin
13/04/29 12:05:45.08 huGBYEKF
>> 545
アドバイスありがとうございます。
取り合えず上のやり方でイメージを作って、
それにインストールしたゲスト上で設定変更やマイグレーション、再起動、シャットダウンなんかは上手く動いたっぽいんですが、
新しいVMのイメージ追加なんかが上手くいかない状態です。
(これはiscsiの使い方判ってないだけだと思います)
VM起動したままtgtdのリスタートや、イニシエータでログアウトなんかをしてたら、VMのイメージが壊れたっぽいですが。
どこかに設定を持ってるのか、今までの情報を保持してるような挙動で、
VMのイメージファイルパスをtargets.confに書き足したら、元からあったのが表示されなくなってしまったり。
ここら辺はスレチですが。
なんか、かなり斜め上いってる予感。
548:login:Penguin
13/04/29 21:59:33.10 huGBYEKF
こんばんは、542です。
なんとか形になった(?)ので、ご報告いたします。
まずiSCSIターゲット(ストレージ)での作業
/mntにゲスト用イメージ作成
# dd if=/dev/zero of=test0.img bs=1M count=10000
/etc/tgt/targets.confに以下を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
# /etc/init.d/tgtd start
次にイニシエータ(KVMホスト)での作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIP 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-0
virt-managerからiscsiストレージをプールに追加
ターゲットパス:/dev/disk/by-path
ホスト:ターゲットのIPアドレス
ソースパス:iqn.2013-04.com.iscsi-tgt:lun-0
これで追加が完了するはず。
549:login:Penguin
13/04/29 22:04:24.97 huGBYEKF
続いてゲストイメージの追加方法。
ターゲットで新しいイメージファイルを作る。
# dd if=/dev/zero of=test1.img bs=1M count=10000
/etc/tgt/targets.confに新しいターゲット分を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
<target iqn.2013-04.com.iscsi-tgt:lun-1>
backing-store /mnt/test1.img
write-cache off
</target>
confのアップデート
# tgt-admin -update ALL
イニシエータでの作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIPアドレス 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-1
上と同じ要領で、virt-managerからiscsiをストレージプールに追加。
こんな結論に至ったんですが、もっと良い方法ないですか・・・。
550:login:Penguin
13/04/30 01:17:07.34 Ls3ntxnl
どうしてもiSCSIにこだわるならclvm使うかな
でもNFSのが楽だよ
551:login:Penguin
13/04/30 08:09:39.48 lMty1lR3
おはようございます。542です。
ゲストのディスクIOの帯域制限をしたくて、
cgroup→iscsiと行き着いたんです。
NFSだと、ホストから見るとネットワークIO扱いですよね。
552:login:Penguin
13/04/30 09:49:11.09 K8i5YuLi
>>549
ターゲットも LVM 使ったほうがいいよ。
553:login:Penguin
13/04/30 10:41:37.16 lMty1lR3
こんにちは、542です。
>>552
ありがとうございます。
お恥ずかしながらLVMをほぼ使ったことがなくて、
virt-managerでどう使えばよいのか全くイメージが湧かないのです。。。
LVMスナップショットなんかが便利そうなので、目下勉強中なのですが、
具体的にどういう手順になるんでしょうか?
自分が書いたような、ファイルを作ってそれをiSCSIターゲットにするのは模範解答じゃないと思うので、
LVMで倫理パーティションを切って、ファイルを作らずにその領域をそのままターゲットとして共有するという認識になりますか?
/etc/tgt/targets.confの書き方で言うと、
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img <-- ext4ファイルシステム上の1ファイル
write-cache off
</target>
↓
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /dev/vg_target00/lv_target00 <-- 論理ボリューム
write-cache off
</target>
みたいな書き方になると。
554:login:Penguin
13/04/30 10:54:30.56 K8i5YuLi
>>553
それで、OK
555:login:Penguin
13/04/30 11:41:49.19 lMty1lR3
>>554
大きなヒントをありがとうございます。
リトライして、また結果報告しますmm
556:login:Penguin
13/05/04 23:21:46.12 jGMt74IN
kvm上にXP入れてqxlドライバ入れてspiceで動かしてみたがやっぱ
windows使うならvmwareの方がいいな
557:login:Penguin
13/05/05 09:35:10.63 2fREtWNb
WindowsならRDP使えばいいじゃん
VMwareでも普通そうするだろ
558:login:Penguin
13/05/06 03:11:04.66 YM4l0zXI
KVMでVMwareのvCenter Server+Clientみたいに、複数のKVMホストをまとめて管理できるツールはまだないの?
OpenStackとかCloudStackは違うっぽいし・・・。
oVirtというのにあたったけど、現状Fedora限定みたいなので、そういうツールがあったら教えて欲しい。
できればUbuntuで動作するもの。
559:login:Penguin
13/05/06 09:46:32.79 xn6mUUYh
>>558
virsh
560:login:Penguin
13/05/06 11:12:31.93 Sm68VQ/P
>>558
oVirtで良いんじゃない
URLリンク(www.ovirt.org)
561:login:Penguin
13/05/06 13:43:07.44 YM4l0zXI
558です。
>>559 >>560 ありがとう。
皆詳しいな。VMwareのスレとは雰囲気が違う。
562:login:Penguin
13/05/06 16:28:51.54 I0TfZVDW
探すと結構あるから色々試して自分に合ったの使うといいよ
563:login:Penguin
13/05/06 17:28:37.32 5DS/UBKc
>>557
SPICEはGNOME?向けかな
564:login:Penguin
13/05/06 19:53:14.64 M8Arsomv
Xでドライバ持ってるからGNOME関係ないんじゃ
565:login:Penguin
13/05/06 23:46:02.22 5DS/UBKc
ん!どういうこと?
566:login:Penguin
13/05/07 19:49:10.05 VCDV4BQZ
>>565
URLリンク(www.linux-kvm.org)
URLリンク(spice-space.org)
SPICEは従来の仮想デスクトッププロトコルと違って、マルチモニタとか動画再生支援・リモートUSB対応とかWindowsゲストでもいろいろ便利
567:login:Penguin
13/05/08 10:14:54.72 VM9WDrCF
えーっと、RDP……
568:login:Penguin
13/05/09 15:04:13.10 t1+IozcG
>>558
ProxmoxVE
569:login:Penguin
13/05/13 09:01:46.97 P1qbqJQM
こんばんは、542です。
おかげさまで、LVM+DRBD+iSCSI+KVMの組み合わせが上手くいきそうです。
ところでDRBDのソースデバイスとしてLVMを使い、セカンダリノードでスナップショットのバックアップを取ってやろうと目論んでみたのですが、
そのLVMをどう扱えば中身が見えるのか首を傾げている状態です。
やっていることはこうです。
/dev/sda4からLVを切り出します。
仮に/dev/test/drbdとします。
で、その切り出したLVをソースのブロックデバイスとして、DRBDを構築します。
仮に/dev/drbd0とします。
さらにそのDRBDをブロックデバイスとして、VM用のLVを切り出して生のままVMに使わせます。
ちょうどDRBDがLVでサンドイッチされているような状態ですが、この状態で/dev/test/drbdのスナップショットを撮れば、
セカンダリノード側で/dev/drbd0のバックアップが取れると思うのですが、どのようにして良いか考えあぐねております。
/dev/sda4や/dev/test/drbdはフォーマットされていないので、そのままマウントできるはずもないですよね?
ddでそのまま書き出して、擬似環境に戻すくらいしか思いつかないんですが、やられてる方、どうやってやってますか?
570:login:Penguin
13/05/16 16:14:30.78 PhyXXppx
kvmホストをCentOSから入れ替えようと思うんだが
ubuntu serverとfedoraどっちがいいかな。
571:login:Penguin
13/05/16 18:57:17.90 +H2FmqS6
CentOSになんか不満があるの?
572:login:Penguin
13/05/16 19:04:54.82 PhyXXppx
>>571
Kernelを入れ替えないと、Intel nestedが使えないのと、
Openvswitchが標準でないところが不満。
573:login:Penguin
13/05/17 00:06:40.26 P+GQKeHR
>>569
スレリンク(linux板)
574:login:Penguin
13/05/25 00:37:13.16 XbYcB/9E
>>569
セカンダリでそれやるには、プライマリとセカンダリの接続を切らねばならない。
プライマリでやっとけ。
575:login:Penguin
13/05/25 02:47:29.87 jBR2M8yZ
>>568
ありがとう。vSphere Web Clientっぽいですね。試してみます。
576:login:Penguin
13/06/02 21:28:34.99 /QpfH3F2
KVMでwin2003やwin xp を動かすと、
Win側で何もしてなくても(通信やデスクトップ表示)、
ホストのCPU使用率がかなり上がってしまうんですが、
これってゲストOSの問題なんですかね?
CentOS6やUbuntu12を動かしてもこういう現象は起きません。
577:login:Penguin
13/06/04 03:45:44.85 3XWHXsTr
ブリッジ(物理NIC無し)に2ノード以上の仮想マシン追加すると
うまくルーティングできなくなるのですが原因解る人いますかね。
br0(eth0) ----+---- br1(eth1)
.|
+---br2----+
| .|
tap0(VMA) tap1(VMB)
こんな感じで br0(eth1)をWANと想定してしてbr0/br2からのトラフィックをSNATしようとしてるのですが、
br0->br1 は問題無くとも tap0/1 -> br1 をルーティングする場合に iptables でログを取ると PHYSOUT=tap0/1
になってしまいパケットがSNATされずにbr1(eth1)に出ていってしまうという状況です。
ちなみにVMA/VMB何れかをシャットダウンすると PHYSOUT=br1 となり想定した通りにルーティング
されるようになります、br0->br1 については問題ありません。
(br0にも何台かVMをぶら下げていますが、こちらはbr2の様な挙動をする事はありませんでした)
KVMではなく物理NICの有り・無しに起因するブリッジの問題だと思うのですけど質問させてください。
578:login:Penguin
13/06/04 10:43:47.14 DxL9xcFl
KVMのVGAパススルー、苦労したけど動いたぜ。
苦労したのはVT-dが動くハードの調達だけだったがな。
579:login:Penguin
13/06/04 11:54:24.95 T3vfCEGl
ASRockにしたの?
580:login:Penguin
13/06/04 12:18:42.36 njnMhcQm
HWとSWの構成も書き記してくれると嬉しいんだよ
581:login:Penguin
13/06/04 19:35:31.72 v6juovnj
kvmスレッド、盛り上がってきたな
ユーザーがだんだん増えてきたのかな
582:login:Penguin
13/06/05 15:53:04.75 ZwfxmbMA
VGAパススルーならML110 G7(C204)+XeonE3(1235)+HD7750でWin8動いたぞ
HD5850は駄目だった拡張ROM読めんのが原因っぽいXもWinもダメ
583:login:Penguin
13/06/05 22:32:37.13 fAYkCvl2
578はML110 G6 + Core i7 870 + HD5450 + Win7
全部古いな。
584:login:Penguin
13/06/21 09:31:15.30 i1WVXxHC
H87のマザボにPCIブリッジがついていて、vt-dを有効にすると、dmesgにこんなん出るんだけど、なんですかね?
[ 0.336527] PCI-DMA: Intel(R) Virtualization Technology for Directed I/O
[ 0.336563] ------------[ cut here ]------------
[ 0.336569] WARNING: at /build/buildd/linux-3.8.0/drivers/pci/search.c:46 pci_find_upstream_pcie_bridge+0x55/0x80()
[ 0.336572] Hardware name: To Be Filled By O.E.M.
[ 0.336573] Modules linked in:
[ 0.336576] Pid: 1, comm: swapper/0 Not tainted 3.8.0-25-generic #37-Ubuntu
[ 0.336578] Call Trace:
[ 0.336582] [<ffffffff810587ef>] warn_slowpath_common+0x7f/0xc0
[ 0.336584] [<ffffffff8105884a>] warn_slowpath_null+0x1a/0x20
[ 0.336587] [<ffffffff8137c345>] pci_find_upstream_pcie_bridge+0x55/0x80
[ 0.336592] [<ffffffff815a25eb>] intel_iommu_add_device+0x4b/0x1f0
[ 0.336594] [<ffffffff81599ff0>] ? bus_set_iommu+0x60/0x60
[ 0.336596] [<ffffffff8159a023>] add_iommu_group+0x33/0x60
[ 0.336600] [<ffffffff8145403d>] bus_for_each_dev+0x5d/0xa0
[ 0.336602] [<ffffffff81599fdb>] bus_set_iommu+0x4b/0x60
[ 0.336606] [<ffffffff81d474b5>] intel_iommu_init+0x34f/0x41d
[ 0.336610] [<ffffffff81d0e3f3>] ? memblock_find_dma_reserve+0x13d/0x13d
[ 0.336613] [<ffffffff81d0e405>] pci_iommu_init+0x12/0x3c
[ 0.336616] [<ffffffff8100215a>] do_one_initcall+0x12a/0x180
[ 0.336619] [<ffffffff81d05d32>] kernel_init_freeable+0x13e/0x1c6
[ 0.336621] [<ffffffff81d05582>] ? loglevel+0x31/0x31
[ 0.336625] [<ffffffff816a9cc0>] ? rest_init+0x80/0x80
[ 0.336627] [<ffffffff816a9cce>] kernel_init+0xe/0xf0
[ 0.336631] [<ffffffff816d3fac>] ret_from_fork+0x7c/0xb0
[ 0.336634] [<ffffffff816a9cc0>] ? rest_init+0x80/0x80
[ 0.336638] ---[ end trace 34a1982ad5ee97a4 ]---
585:login:Penguin
13/06/21 09:33:55.38 i1WVXxHC
> 584
vt-dを有効にした状態でPCIデバイス(FXSボード)のドライバをホストで読み込むと、こんなエラーが出力して、使えないのです。。
dahdi: Version: 2.7.0
dahdi: Telephony Interface Registered on major 196
dmar: DRHD: handling fault status reg 3
dmar: DMAR:[DMA Read] Request device [04:00.0] fault addr ffffe000
DMAR:[fault reason 06] PTE Read access is not set
ちなみに、vt-dを有効にしなければ問題なく使えます。
OSはUbuntu 13.04 x86_64です。
586:login:Penguin
13/06/21 10:37:38.53 uYkvb73k
pci_find_upstream_pcie_bridge なんて関数名での失敗はPCIツリーが正しく認識できていないような気がするけど
lspci -vv の結果をpastebin辺りに貼っておけば解る人が居るかもしれない(俺はたぶん解らん)
後H87はIntel公式にはVT-dサポートしてないみたいだけどそこの所どうなん?
Z/Qシリーズかサーバ向けのCシリーズ以外は基本VT-dを提供しないがIntel公式発表だったよーな
URLリンク(ark.intel.com)
VT系のデータシート見てるとVT-d自体はCPU側のみ有効化出荷されている事が重要で
マザーでのFW対応次第にも見えるけどね
587:login:Penguin
13/06/21 13:59:38.25 i1WVXxHC
>> 586
lspci -vv貼り付けました。
URLリンク(pastebin.com)
PCIツリーは、lspci -tvでツリーをみる限り、認識してそうなのですが。。
# lspci -tv
-[0000:00]-+-00.0 Intel Corporation Haswell DRAM Controller
+-01.0-[01]----00.0 Device 188b:5220
+-02.0 Intel Corporation Haswell Integrated Graphics Controller
+-16.0 Intel Corporation Lynx Point MEI Controller #1
+-19.0 Intel Corporation Ethernet Connection I217-V
+-1a.0 Intel Corporation Lynx Point USB Enhanced Host Controller #2
+-1c.0-[02]--
+-1c.3-[03-04]----00.0-[04]--+-00.0 Digium, Inc. Wildcard TDM410 4-port analog card
| \-01.0 Intel Corporation 82545GM Gigabit Ethernet Controller
+-1d.0 Intel Corporation Lynx Point USB Enhanced Host Controller #1
+-1f.0 Intel Corporation Lynx Point LPC Controller
+-1f.2 Intel Corporation Lynx Point 6-port SATA Controller 1 [AHCI mode]
\-1f.3 Intel Corporation Lynx Point SMBus Controller
VT-dサポートは、
URLリンク(wiki.xen.org)
をみて、AsrockのH87なのですが対応してそうだったので試したみてるとこです。
588:login:Penguin
13/06/21 14:01:47.14 i1WVXxHC
問題のデバイスは、これです。
04:00.0 Ethernet controller: Digium, Inc. Wildcard TDM410 4-port analog card (rev 11)
ちなみに、xenのDom0でやってみたら、問題なく使えました。。
同じカーネルオプションなんですけどね。
589:login:Penguin
13/06/21 23:47:15.62 v4KutgWh
intel_iommu=onとか?
590:login:Penguin
13/06/24 06:07:05.36 IxMYVUF7
ASM1083ならXonerDSXってカードの先のAV66で
ホストでもゲストのパススルー動作でも問題なかった
つか吹っ飛び不浄test
591:login:Penguin
13/06/24 09:37:59.91 da2O6Lp4
588 です。
ACPI無効でとりあえず、dmesgにエラーはなくなった。
ACPIを無効にすると、電源管理(バッテリーとかシャットダウンとか)の問題くらいですかね?自宅サーバだったら、いらない?
ちなみに、現在のKernelパラメータです。
/boot/vmlinuz-3.8.0-25-generic root=UUID=d2910c49-1af4-483c-914c-f25ff64a02fc ro intel_iommu=on apparmor=0 mtrr_gran_size=2M mtrr_chunk_size=256M acpi=off
592:login:Penguin
13/06/24 09:43:41.33 da2O6Lp4
>>591
書き忘れた。
デバイスも問題なく使えた。
593:login:Penguin
13/06/24 10:01:47.35 da2O6Lp4
>>591
vt-dが使えなくなった。。
594:login:Penguin
13/06/24 10:32:22.89 MlFNcQox
>>593
ズコーだな
595:login:Penguin
13/06/24 13:04:31.41 IxMYVUF7
VT-dのDMAリマッピングレポートレジスタのアドレスががAPCI情報に乗ってくるとかどーのこーのと
参考
Intel® Virtualization Technology for Directed I/O 8.1 DMA Remapping Reporting Structure
596:login:Penguin
13/06/26 08:25:26.64 etyBsEKx
vgaパススルーしようとするとブルースクリーンorz
597:login:Penguin
13/06/26 08:57:29.89 yxR4e8XR
VGAパススルーはなかなか成功しないよな。
2~3年すれば普通に使えるようになるかも、と期待しつつ、あきらめてる。
598:login:Penguin
13/06/26 20:32:21.79 nnXtplIi
そのうち、VGAとかもSR-IOVできるようになるんだろうか
599:login:Penguin
13/06/28 23:40:47.87 SnvfdTJt
GPGPU向けではSR-IOVが来るかもっていうか、すでに出てた気もするけど、
表示用はどうかねぇ。。。
そのうちってレベルでは来ない気がする。
600:login:Penguin
13/06/30 17:11:47.93 WKsx8NPZ
SandyBridgeからHaswellに変えたら>>584と同じエラーが出た。
でもVT-dも使えてるみたいだし今のところ実害はないかな?
Fedora 18 kernel 3.9.4 Q87
これか?
URLリンク(bugzilla.redhat.com)
601:login:Penguin
13/07/02 NY:AN:NY.AN 9dAX6Kvl
>>599
VMとデスクトップが絡むのは産業的にはVDIで、
それだとグラフィクカード関係ないからどこも力入れなさそう。
GPU高速アクセスのための開発はされるだろうけど、
それでデスクトップ環境まで改善するのかというと、微妙?
602:login:Penguin
13/09/06 13:57:54.85 Hgj1h/xK
603:login:Penguin
13/09/17 11:38:51.78 sXDEiJW1
vcpu ってコア数とか同時スレッド数とか指定できないですよね
ゲストのwindows8がvcpu2個までしか認識してくれなくて困ってるのですが、回避方法ってあるのでしょうか
604:login:Penguin
13/09/17 14:58:03.18 XP6cMANQ
CPUの設定のトポロジでソケット数1にしてコア数増やすか
スレッド数ふやしたらどう?
605:login:Penguin
13/09/17 17:13:55.30 l2s975Rn
認識してないって、タスクマネージャーのパフォーマンスタブで2個(ソケット1、仮想プロセッサ2に見えている)しか見えてないだけでしょ
KVMだと例えば3つわり当てても上では2しか見えない(恐らく仕様)
・リソースモニター(3CPUグラフが見える
・パフォーマンス(プロセッサカウンタで3CPU見える
・タスクマネージャーの詳細タブ(プロセス右クリックして関係の設定で3CPU見える
くらいは見てるのか?
606:603
13/09/19 00:41:03.96 z8RYKSjI
>>604 を実施してもダメだったのですが、さらにバージョンを最新にしたらできました
cpuのトポロジの設定がCentOS標準のqemu-kvm 0.12では対応していなかったようです
ありがとうございました
607:login:Penguin
13/09/19 21:30:22.28 2iz6gPCp
CentOS6.1のホスト上に2つのゲストを乗せているんですが(ゲスト1はWindowsServer2008 R2、ゲスト2はCentOS6.1)、
ゲスト1からゲスト2、また、その逆でも、普通のping(データ長が32バイトか56バイト)は普通に通るのですが、
データ長を指定して50000バイトとかにすると通信できないばかりか、しばらく普通のpingも通らなくなるのです。
(30秒くらい放っておくとまた普通のpingは通るようになりますが)
こういう事例って聞いたことありますか?
ゲストの仮想NICの設定が標準のままrtl8139であるのが若干気になるのですが。
608:login:Penguin
13/09/20 15:15:26.52 +zN9RhiI
>>607
止められない環境じゃなければアップデートしたら?
ただ6.1→6.2以降は予め起動させとくサービスが増えてるからminimumで動かしてる場合は注意
609:login:Penguin
13/09/20 22:09:54.76 eASNhbta
>>608
ありがとうざいます。
でも、今はサービスが動いているので止められないんですよね。。。。保守環境では50000バイトのpingもちゃんと通るしわけわからんです。
設定を比べてもどちらも同じだし。
610:login:Penguin
13/10/16 19:22:24.68 TxtdJnjc
【PVE】Proxmox VE【KVM, OpenVZ】
スレリンク(linux板)
専用スレたてました!
よろしければこちらでproxmox VEの情報集めませんか?
611:login:Penguin
13/10/17 08:19:13.23 jXG1omiL
専スレの需要あるの?
612:login:Penguin
13/10/17 08:54:36.24 PN0/SP/2
一度インスコして以来使ってないな・・・
613:login:Penguin
13/10/17 12:49:25.83 6G31qANs
>>611
KVMとはまた使い勝手がだいぶ違うし、一つの独立したソリューションなので、分けた方が良いと思いまして。
614:login:Penguin
13/12/03 22:18:41.49 rCAgVGcA
超過疎ってるな。
615:login:Penguin
13/12/05 19:56:08.74 6LJOnuIz
KVMでvt-dしたいんだけど、MSIに対応してなくて、irqが他のと共有しちゃってできないんだけど、なんとかする方法ないかな?
616:login:Penguin
13/12/05 19:57:15.82 6LJOnuIz
ここの最後に書いてある条件ね。
URLリンク(www.linux-kvm.org)
617:login:Penguin
13/12/09 23:15:42.87 QsSko8MY
ゲストへPCI-Passthroughでリアルデバイス割り当ててる状態で、当該のゲストを
libvirtからsaveしようとすると、以下のようなエラーが出て弾かれてしまいます。
> エラー: 内部エラー QEMU コマンド 'migrate' を実行できません: An undefined error has ocurred
まぁこの現象自体は仕方がないと思っていますが、ホストを再起動すると
上記エラーのせいで当該ゲストが毎回強制シャットダウンされてしまうのは困ります。
なので代わりにACPIでシャットダウンシグナルを送りたいのですが、ホスト停止時に
発行されるコマンドを、設定で変更することってできますか?
618:login:Penguin
13/12/10 21:00:03.61 +3JQN/Qj
/etc/sysconfig/libvirt-guestsのON_SHUTDOWNの設定とか?
619:login:Penguin
13/12/21 20:33:13.10 id4UT1hx
Windows 8.1のQXL Driverってまだ出てないの?
620:login:Penguin
13/12/28 19:42:22.24 8Gsd9wHI
kvmからLibgfapiを使ってGlusterFSに繋ぎたいんですが、
どこかいいサイト知りませんか。
やり方が全く判らなくて困ってます。
621:login:Penguin
14/01/02 20:32:29.22 8mE3nhQT
cpu, memoryのオーバーコミットの運用基準とかって示されてる?
workload依存だとは思うけど、イントラでどの程度まで無茶していいのか基準がほしい。amazonとかのパブリッククラウドもオーバーコミットしてるのかな?
622:login:Penguin
14/01/03 23:33:48.19 cT53l55I
>>621
ちなみにamazonはxenな
RHELの仮想化ガイドで見た気がする
正月休みで職場じゃないからソース出せんですまんが
623:login:Penguin
14/01/08 20:47:38.32 NpGf2iv+
qemu-kvmで動かしているWindowsXPに物理CPUコアを
4つ割り当てたいのですが、2コア4スレッドの
CPUとして割り当てることは可能ですか?
リモートデスクトップの制限でWindowsが2コアまでしか使ってくれません。
しかしホストOSのCPUは余ってるのでXPに4コア使って欲しいです。
624:login:Penguin
14/01/08 21:16:48.29 NpGf2iv+
>>623
すんません、すぐ上に書いてありました。
具具ってやってみます。
625:login:Penguin
14/01/11 14:52:14.02 hiNmv+CW
libvirtとqemu-kvmのバージョンって相性ありますか?
yumデフォルトが古かったので、最新のqemu1.7.0入れたらデフォルトのlibvirt(ver0.8.)が
「libvir: エラー : バイナリ /usr/bin/qemu-system-x86_64 を実行できません: 許可がありません」
みたいなエラーだしてVM起動ができなくなった。
virsh uriではqmeu:///system見えてるし、sysinfoも取れてるのに何故か起動だけができない。
ちなみにqemu-system-x86_64のパーミションは777。
virsh通さずにqemu-system~コマンド直接実行すればVM起動するので、エラーログの通り
libvirtdがVM起動するのに失敗してるだけだと思うんだが原因が不明。
libvirtdの実行者もrootにしてるし、qmeu:///systemへのコマンドに失敗してるならvirsh uriも通らないはず。
qemuはroot権限で起動するようにしてるからqemu-system-x86_64の依存先で権限エラーになってるとしか思えない。
ログも上のエラーしか出ないから対処ができない。
そんでlibvirtを1.2.0に上げたら上手く起動できるようになった。
qemuのバージョンを1.0、1.2、1.7で試してみたけど、libvirt1.2+qemu1.7だけ動いて
デフォルトlibvirt+新しめのqemuだと上記エラーになる。
libvirt1.2+qemu1.7使うと上手く動くが、virsh define xmlやったときに何故かXMLの
<qemu:commandline>
<qemu:arg value='-k'/>
<qemu:arg value='ja'/>
</qemu:commandline>
の部分が消えてしまってパススルー設定が使えなくなってしまう。これも原因不明でよくわからない。
古いqemu-kvmだとusb音源使ったときに「husb: out of buffers for iso stream」エラー頻発して
音にノイズ入るので、バグフィックスされたqemu1.5以上にしたいんだけど、1.7にすると
上記XMLが消える現象でUSB自体が使えなくなる。
とりあえず2日色々やった結果メモ
626:login:Penguin
14/01/12 08:40:04.81 KuBCVlIw
前の部分は俺がapparmorでハマったときと似てる
627:login:Penguin
14/01/13 13:24:19.99 8qkMFCEG
畳とlibvirtは新しいほどよい。
628:login:Penguin
14/01/13 13:29:31.49 ObEbUnRv
じゃぁlibvirtだけ1.2インストールしてみようかな。
629:login:Penguin
14/01/13 13:54:49.70 ObEbUnRv
libvirt1.2.0とyum最新のqemu-kvm-0.12.1.2で動作できました。
USBについても正常に動いてるので、あとはqemuのバージョンを1.5以上にして
安定すれば良いのですが・・・
<qemu:commandline>
<qemu:arg value='-k'/>
<qemu:arg value='ja'/>
</qemu:commandline>
も消えてないのでvirsh defineで上記XMLが消えるのはqemuの問題みたいですね。
630:login:Penguin
14/01/13 15:04:58.33 ObEbUnRv
libvirt1.2.0と最新のqemu1.7.0で試した結果
[root@www qemu]# lsusb
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 001 Device 002: ID 8087:07db Intel Corp.
Bus 001 Device 003: ID 041e:3015 Creative Technology, Ltd Sound Blaster Digital Music LX
Bus 001 Device 004: ID 0511:0025 N'Able (DataBook) Technologies, Inc.
Bus 001 Device 005: ID 046b:ff01 American Megatrends, Inc.
Bus 001 Device 006: ID 046b:ff10 American Megatrends, Inc.
virsh defineしても <qemu:commandline> タグは消えなくなったけど、winxp.xmlファイルから
<hostdev mode='subsystem' type='usb' managed='no'>
<source>
<vendor id='0x041e'/>
<product id='0x3015'/>
</source>
</hostdev>
の記述が消えてしまい、やはりUSBが使えなくなってる。
ちなみにwinxp.xmlを
<qemu:commandline>
<qemu:arg value='-k'/>
<qemu:arg value='ja'/>
<qemu:arg value='-device'/>
<qemu:arg value='usb-host,bus=usb.0,hostbus=1,hostport=1.1,id=usbaud'/>
</qemu:commandline>
こんな感じにすると、
631:login:Penguin
14/01/13 15:05:44.94 ObEbUnRv
>>630続き
2014-01-13 05:45:16.830+0000: starting up
LC_ALL=C PATH=/sbin:/usr/sbin:/bin:/usr/bin QEMU_AUDIO_DRV=none /usr/bin/qemu-system-x86_64
-name winxp -S -machine pc-i440fx-1.7,accel=kvm,usb=off -m 2048 -realtime mlock=off
-smp 4,sockets=1,cores=4,threads=1 -uuid 0686ff50-19ea-ebd7-f04f-5825a5a944fc
-no-user-config -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/winxp.monitor,server,nowait
-mon chardev=charmonitor,id=monitor,mode=control -rtc base=localtime
-global kvm-pit.lost_tick_policy=discard -no-shutdown
-device piix3-usb-uhci,id=usb,bus=pci.0,addr=0x1.0x2
-drive file=/data/windows_xp.img,if=none,id=drive-ide0-0-0,format=raw
-device ide-hd,bus=ide.0,unit=0,drive=drive-ide0-0-0,id=ide0-0-0,bootindex=1 -netdev tap,fd=17,id=hostnet0
-device rtl8139,netdev=hostnet0,id=net0,mac=。。。。。。。。,bus=pci.0,addr=0x3 -chardev pty,id=charserial0
-device isa-serial,chardev=charserial0,id=serial0 -device usb-tablet,id=input0 -vnc 0.0.0.0:1 -k ja
-device cirrus-vga,id=video0,bus=pci.0,addr=0x2 -device usb-host,hostbus=1,hostaddr=3,id=hostdev0
-device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x4 -k ja
-device usb-host,bus=usb.0,hostbus=1,hostport=1.1,id=usbaud
Domain id=2 is tainted: custom-argv
char device redirected to /dev/pts/1 (label charserial0)
qemu-system-x86_64: -device usb-host,hostbus=1,hostaddr=3,id=hostdev0: Parameter 'driver' expects device type
2014-01-13 05:45:17.131+0000: shutting down
なエラーになる。
上のqemu-kvm-0.12.1.2では、これらの設定でUSB1.1動いてたのですが、アドバイスお願いします。
632:login:Penguin
14/01/13 15:16:12.87 ObEbUnRv
すみません。よく確認したら上記
<hostdev mode='subsystem' type='usb' managed='no'>
<source>
<vendor id='0x041e'/>
<product id='0x3015'/>
</source>
</hostdev>
が消えるとの記述は間違っていました。virsh defineやってもUSB定義は消えていませんでした。
USB定義を
<hostdev mode='subsystem' type='usb' managed='no'>
<source>
<vendor id='0x041e'/>
<product id='0x3015'/>
</source>
</hostdev>
で指定しても、もしくは
<qemu:arg value='-device'/>
<qemu:arg value='usb-host,bus=usb.0,hostbus=1,hostport=1.1,id=usbaud'/>
で指定しても
「qemu-system-x86_64: -device usb-host,hostbus=1,hostaddr=3,id=hostdev0: Parameter 'driver' expects device type」
エラーになってしまうのが現状の問題です。
633:login:Penguin
14/01/13 15:38:30.87 ObEbUnRv
qemu-system-x86_64 -S -machine pc-i440fx-1.7,accel=kvm,usb=on -nographic -monitor stdio -usb
info usb
とかやってもUSB一覧が表示されないのが原因なのかな?
634:login:Penguin
14/01/13 15:43:35.43 VAbOpbp1
ここの人はどんなMB使ってるんですか?
635:login:Penguin
14/01/13 16:08:46.38 ObEbUnRv
qemu-system-x86_64 -S -machine pc-i440fx-1.7,accel=kvm,usb=on -nographic -monitor stdio -usb
QEMU 1.7.0 monitor - type 'help' for more information
(qemu) info usbhost
USB host devices not supported
駄目だなぁ。
>>634
自分はAsrock c2750D4I使ってます
636:login:Penguin
14/01/15 06:05:35.49 ok4VZMQh
qcow2のイメージファイルが壊れたようなんですが
どなたか復旧方法知りませんか?
637:login:Penguin
14/01/16 00:31:26.34 7kBQTINv
CentOS6.5でQUMOを動かして仮想ホストにCentOSを入れてみました。
仮想ホストの起動がやたら遅くて数10分かかります。
CPUも100%使いきってます。
しばらくするとloginできるのですが。起動するたび、毎度時間がかかります。
画面も真っ黒のままなので何がおきているのかまったくわかりません。
原因のあたりがつく方、いますか?
638:login:Penguin
14/01/16 00:47:23.96 u/UBpRyK
QUMOって何だ?
KVM有効になってないとか?
639:login:Penguin
14/01/16 00:58:44.24 7kBQTINv
QUMOじゃなくてQEMUでした。
たしかに、新規作成するときに注意で「KVMが動いてない」とか出てますね。
kvm関係のパッケージはこれらが入ってますが、これじゃだめなのかな?
libvirt-daemon-kvm-1.0.3-1.el6.x86_64
qemu-kvm-tools-0.12.1.2-2.415.el6_5.3.x86_64
qemu-kvm-0.12.1.2-2.415.el6_5.3.x86_64
640:login:Penguin
14/01/16 01:34:18.49 7kBQTINv
kvmのモジュールも入ってるようですし、パッケージもOKみたい。
modprobe -l | grep kvm
kernel/arch/x86/kvm/kvm.ko
kernel/arch/x86/kvm/kvm-intel.ko
kernel/arch/x86/kvm/kvm-amd.ko
なんで新規作成でkvm.koがないっていわれるんだろう?
641:login:Penguin
14/01/16 02:02:55.94 7kBQTINv
続けざまで申し訳ないですが。
仮想ホスト(ゲスト)が起動すると、
モニタ上ではCPUは100%、HDDアクセスもずっと。これが30分くらい続きます。画面も真っ暗なまま。
そして、それがおわるとOSが起動するみたい。起動自体は4分くらいで終わります。
/var/log/messagesをみたら、起動自体はそんな感じでした。
なぜ毎回ハードディスクのチェックをするのだろう?
642:login:Penguin
14/01/16 06:29:37.32 JQFa7n1F
断片的な作業ログを日記帳のように書き綴るならチラシの裏でも書けばいいだろう
エラーメッセージとか出てるなら正確に記述しろよ
行き当たりばったりで調べても意味がねぇんだよ
643:login:Penguin
14/01/16 08:27:11.56 /8rvFqvD
>>640
CentOSは良く知らんけどintel用とamd用が一緒に入ってるのはおかしいような
644:login:Penguin
14/01/16 09:11:35.22 UKEXOZQn
>>641
>>仮想ホスト(ゲスト)が起動すると、
ホストかゲストかどっちが起動する時なんだ?
645:login:Penguin
14/01/16 12:50:59.60 sNHcFbg3
>>643
modprobeで出てくるのは問題ない
lsmodで出てきたら変だが
646:login:Penguin
14/01/16 15:19:24.20 ZI1vjDkb
>>641
30分もディスクチェックするのは、異常だよ
ファイルシステムの先頭にある、
管理情報が壊れているのでは?
それとも、ファイルシステムはext2ですか?
ext2はジャーナル機能がないから、
ディスクを全部調べるから、
チェックに時間がかかる
647:login:Penguin
14/01/18 00:23:22.56 4oUj5v5R
>>635です。
libvirt1.2.0とqemu1.6.2でUSB音源が安定動作しましたのでメモしておきます。
>>625で書いた「husb: out of buffers for iso stream」のエラーも改善しており
音源のノイズも以前よりマシになりました。
未だUSB2.0の地デジボードは動いていませんが、USB1.1の音源が安定したので
暫くはこのバージョンで使いたいと思います。
648:login:Penguin
14/01/27 22:22:50.75 yssq8Ymi
ゲストのUbuntuのQXLが固まりまくる…
ドライバ入れたり消したり入れたり消したり日曜日中やってた
けど解決出来ず結局QXL諦めた
デュアルディスプレイにしたかったのに
649:login:Penguin
14/01/28 08:55:27.88 ZExyjeIS
>>647です。
>>647の環境でWindows7が動作することを確認しました。
ただしOSインストールした後にCPUコア数やMACアドレスなどを変更すると、復旧インストール画面になりますので注意が必要です。
VNCなどを起動しないと復旧インストールが始まってしまうのが判らないので、リモートデスクトップ画面しか使ってない場合は要注意です。
650:login:Penguin
14/01/28 16:36:33.41 4K5xmXzq
OS1個しか使ってないから、仮想化とか縁がない
651:login:Penguin
14/01/28 17:30:50.05 skRw6j95
はいはい、それがどうした
652:login:Penguin
14/01/28 18:17:41.69 ztjHi/xR
OSの数と関係ないやん
653:login:Penguin
14/04/14 18:22:39.49 LbPEe71k
CentでWS2008入れてる人いますかぁ
654:login:Penguin
14/04/15 11:54:58.16 tbnFK1r5
Ubuntuで2012なら
655:login:Penguin
14/04/15 12:46:36.69 hj6dHvf4
ウブの方が安定してるんかなぁ。
Centもkvmで走らせる方が無難かも。
656:login:Penguin
14/04/22 12:25:58.08 HNLkmT1U
Ubuntuスレから誘導されて来ました。
新たにkvmを導入して使おうと考えています、想定OSはUbuntu14.04LTSです。
仮想マシン同士をv2v(KVM⇔VMware player)したり、あるいは別のUbuntuの同VM(ハードウェア1ブートのUbuntuのkvm→ハードウェア2ブートUbuntuのkvm)したときのゲストから見たハードウェア構成って原則変わるものなのでしょうか?
メインのUbuntu+サブの仮想winをUSBドライブで室内運搬しつつ使おうかと思ってるものの、窓には例のハードウェア構成変わると認証云々が来てしまうのでUbuntuのほうごと運搬してハードウェア構成は仮想マシンで固定に見せられないかなとか思ってます
657:login:Penguin
14/04/22 12:48:09.70 0bAeodvM
KVM⇔VMware player
ハード構成全く別物。起動させることすら難しいかもね。
ハードウェア1ブートのUbuntuのkvm→ハードウェア2ブートUbuntuのkvm
こっちは、変なことしてなければ平気。
658:login:Penguin
14/04/22 16:24:29.24 TkivOE48
KVM→VMware playerはやったことあるよ、その時ハードディスクの容量も
ついでに増やせたよ。
659:login:Penguin
14/04/24 08:08:21.65 Kyfpx+PU
>>657
>>658
返答遅くなりました、kvm間では行けそうだけど他vm経由するとゲストから見て別のハードに見えると言う解釈でよさそうですね。
環境構築ためしてみます!
660:login:Penguin
14/04/26 23:22:39.16 0NqF7Ne/
Windowsゲストだとレジストリ書き換えないと他種VM間の
移動は無理だった
661:login:Penguin
14/04/29 08:08:27.04 Gd0pBxy3
VMware Server→KVMなら前にやったな
662:login:Penguin
14/06/01 02:09:39.08 bkiOeGf2