12/09/27 21:54:50.71 VxnnAe8w
MAX_DEV_ASSIGN_CMDLINE(8)で思いっきりハードコーディングされてるのか…
ダメじゃん…OTL
なんでこんな制限設けてるんだ
201:login:Penguin
12/09/27 22:57:17.69 6X5UlGgz
自己解決してダメな理由がわからん・・・
202:199
12/09/28 07:12:47.99 GOAlBBHa
ハードコーディング=弄れる設定ではないってことです。
ちょっと事情があって自前でビルドできないので。
ダメ元で提供元に依頼をしてみる。
203:login:Penguin
12/09/28 07:16:40.40 CrktLMJR
エミュレートしているBIOS/PCIブリッジの仕様だったりはしない?
204:login:Penguin
12/09/28 16:04:07.98 bLELQSo+
最近KVMに興味出てきたんだけど
ESXi上でKVMて動く?
205:login:Penguin
12/09/28 21:28:25.83 1yeDHNw7
仮想化支援引き継ぐように設定されてれば条件満たすけど?
206:login:Penguin
12/10/02 09:04:01.20 0vUgjynj
nested(入れ子)VMに対応したCPUなら出来る
207:login:Penguin
12/10/03 15:05:23.99 n/jXMATd
NestedVMって概念を初めて知った。 メインフレームとかその手の技術かと思ったら
Intel VT 詰んだその辺のマシンとVMWareでも出来るんだな、、、 便利に成ったもんだなー
208:login:Penguin
12/10/03 16:51:40.32 6QA4zBLD
ESXi上でESXi動いたけどその環境ならESXi上でKVMも動かせるって事か
209:login:Penguin
12/10/03 17:53:13.24 uZ6rw6ee
>>207
intelVTだけじゃ動くかどうか判らないよ
210:login:Penguin
12/10/03 20:47:20.68 AjtmYvAd
Hyper-VとかVMware Workstationとかでもできるらしい。
URLリンク(social.technet.microsoft.com)
なので、CPUじゃなくて仮想化ソフトの対応如何ではないのかな。
211:login:Penguin
12/10/03 23:07:33.14 u7bRcuhb
できたとして何の意味があるんだ?
212:login:Penguin
12/10/03 23:16:21.14 muWXwcAS
>211
実機じゃなくてもハイパーバイザーの検証ができるとか
213:login:Penguin
12/10/03 23:18:57.15 JlaNVD+y
>>211
仮想環境ごと仮想化できるメリットを理解できないとかw
214:login:Penguin
12/10/04 14:29:32.16 FfMnjpn1
>>212はわかるけど
>>213はわからん
>>212以外の必要性ってあるのかよ
215:login:Penguin
12/10/04 14:35:43.29 TjmnGqR7
わかんない人は関係ない人だから聞いてもわかんないよ、どうせ。
でもわかんない人の関係のない世界では、多重の仮想化はもはや欠かせない
技術になっている。できないと崩壊するくらいに必須。
216:login:Penguin
12/10/04 17:21:49.20 cBwz1t3p
仮想の多重化って単なるCPUの無駄遣いじゃん
217:login:Penguin
12/10/04 17:35:32.07 L0c9qQoO
ポンコツな「パーソナルコンピュータ」しか触ったことのない人って見ててかわいそうだよね
218:login:Penguin
12/10/04 17:37:14.10 A/G96wnm
我々セキュリティ分野の人間としてもだな
219:login:Penguin
12/10/04 17:42:11.94 bY0+U2g4
雑談はそのくらいで。
220:login:Penguin
12/10/05 09:32:25.44 LuQ5o4B5
>>215
どこの世界だよ
221:login:Penguin
12/10/05 16:28:20.82 7nte1d0g
仮想の多重化て実験以外の必要性が思い浮かばないのだが
いったいどんな時に必要になるんだ?
222:login:Penguin
12/10/05 19:09:52.42 +F0T3Vjz
>>215を可能な限り好意的に解釈してみると
仮想ホストを乗っかってるゲストごとライブミグラチオンするとか
仮想ホストを乗っかってるゲストごとFT鯖化するとか
メーカーも機種も異なる屑鯖の山でハードウェアリソースをプールして仮想ホスト&ゲストを乗っけるとか
実験にしか使えんな
223:login:Penguin
12/10/05 19:52:31.32 qtfbwiZZ
ミグラチオンってどこの方言だ。
224:login:Penguin
12/10/05 21:15:15.75 vqnmKomu
エレクチオン方面と思われ
225:login:Penguin
12/10/05 21:58:48.96 yD1gPq6t
メインフレームとかPowerPCやItaniumみたいな非x86_64積んだのや
VMwareESXなんかの複数台をまとめて1仮想ホストで使える環境でなら、
仮想環境上にx86_64linuxなりを入れて更にxenやらKVM使うことはあるよ。
メリットは管理運用上や、ゲストOS・中間ホストOSで発生する各種上限の回避じゃないかな
226:login:Penguin
12/10/05 23:26:38.51 LuQ5o4B5
マジでそんなアホな案件通す会社があるのか?
仮想化使う保守管理費用がすげー事になりそうだが
227:login:Penguin
12/10/06 01:01:44.03 IZgLFjQF
>>226
メインフレームのリプレースやサーバー数百台以上の統合レベルの案件だったら十分あるでしょ。
すでにハードウェアの保守管理費用がすげー事になってたはずだし、移行費用とランニングコスト次第じゃないかね。
228:login:Penguin
12/10/06 01:02:49.05 IZgLFjQF
無駄に多い改行は無視してください。
229:login:Penguin
12/10/06 19:44:02.05 IVDMFwJ/
ゲストOS/中間ホストOSで発生する各種上限の回避ってのが、
例えばESXiサーバの上にKVM用のLinuxを立てたとして、そのLinuxは
ESXiの制限に縛られるものなんじゃないの?
逆もまた然りで。
230:login:Penguin
12/10/06 19:47:15.10 Y44+1Oqn
けっこうぬるい仕事しかしてない奴がほとんどなんだな。
VM on VMの利点すら考えつかないなんて、そうとうに楽して
稼いでいる感じ。
231:login:Penguin
12/10/06 20:25:11.94 xq9+YzHa
>>230
データセンタで監視のお仕事ご苦労様です。
明日も出勤頑張ってくださいね。
232:login:Penguin
12/10/06 20:27:55.66 Swzh4TQG
>>230
取り敢えずその利点とやらを教えてくれ
233:login:Penguin
12/10/06 20:39:18.41 zVU1Et/+
もうかまうな。
234:login:Penguin
12/10/08 18:04:40.21 KlHQY+aV
仮想マシン上で仮想マシンを動かす3つのメリット
URLリンク(blog.livedoor.jp)
次世代のクラウドのためのネストされた仮想化
URLリンク(www.ibm.com)
235:login:Penguin
12/10/08 18:16:59.03 5YUui7Wd
>>234
1:Windows 7上のXPモードが使える
2:ハイパーバイザのデバッグ(=開発)が簡単になる
3:組み込みハイパーバイザでも柔軟性が高まる
一般ユーザだとせいぜい1ぐらいしかメリット無くないか?
それも製品版XP持ってたらメリット無いしLinuxメインだと全然関係無いね
まぁ全く意味ないと言う事ではないが必死に必要性を力説する程じゃないな
236:login:Penguin
12/10/08 23:56:09.40 Rp++mQlA
>>230
カッコいいなお前。最先端で。
237:login:Penguin
12/10/09 11:52:58.39 iUSQitPR
商用の仮想アプライアンスはESXiで動く前提のものが多いから、
KVM上でESXiを動かせば多少はメリットがあるかな。
ただ、オーバーヘッドは気になる。
238:login:Penguin
12/10/09 13:18:23.50 RnVO90O/
そう考えるとVMonVMというよりはESXionVMって感じか
239:login:Penguin
12/10/10 08:15:04.14 NU/vnwCr
お前らは VMware 商用クラウドのVM上で XenDesktop 動かしたいとか言い出す変態SIerをパートナーに持ってないだけ幸せだよ
まあうちのクラウドサービスではネスト許可してないんだけどな
240:login:Penguin
12/10/10 09:21:02.05 AfZllghd
中古のPCでも目の前にドンて置いてやって「好きなだけ動かしな!(ペッ」って言ってやれ
241:login:Penguin
12/10/10 10:21:26.20 peeSwnYg
>>239
お前がさくらだったら愚痴言いたい
そろそろ使えるようにしないと更新時期に出てきますよ…
でてって VM on VM 可能な VPS なんて CPU 貧弱であろう Core Cloud VPS 位か…
Phenom 9550 の 4 Core 中 1 Core じゃなぁ… 上位プランまだすk
242:login:Penguin
12/10/10 16:51:19.10 q1tk7/JN
ところでなんで商用利用が前提になってるの?
243:login:Penguin
12/10/10 17:40:16.65 taXZKCZ9
厳しい仕事で苦労して稼いでいる空気が出せるから?
244:239
12/10/11 19:30:35.50 PuMHn6y9
遅レス。スレタイ100回音読してた
>>240 力関係がSIer>>>>>>インフラ屋だったから。「こんなのいつもやってますよ当たり前ですよ」だって
客まで洗脳されて「何でダメなの」って言い出すんだぜ。何なのこれ
案の定空中分解してSIer自身も失注したけど
>>241 違います。さくらは安すぎて怖いよねー。個人的にも使いたくないね
>>242 突っ込みどころは「KVMじゃないからスレ違い」だろ?
>>243 自分語りで目立ちたかったからじゃないの?
というわけで以下KVMの話題↓ スマン
245:login:Penguin
12/10/11 19:41:58.43 65VCCuLg
興味本位で聞くんだけど多段ネストって出来るの?
やったこと有る人は最高何段?
246:login:Penguin
12/10/11 22:41:15.95 qPE0pUK8
1段だけだな
247:245
12/10/12 17:49:27.40 NX9WsntC
>246
実機で動いているVMの上で、VMを動かしてOSを動かしている状態?
つまり3段重ねって事でしょうか? ベンチじゃなくて雑感としてで
ケッコウですが、処理速度は実機の何割くらいの感触になるんですか?
248:login:Penguin
12/10/13 18:54:35.89 CpMpfge8
>>247
うん
処理速度的にはネイティブの2割~3割位かな
色々パススルー駆使しまくってもね
あと思ってる以上に安定性悪いよ、10年以上前のvmware使ってるような感じ
249:245
12/10/13 19:08:58.31 tQQxLeIu
>248
情報有難う御座います。 思ったよりパフォーマンス高いですね。
ハードによるサポートのお陰かな。
安定性が低いのはどうしてなんだろう? 仮想化がちゃんと行われて
いるのなら子プロセスで行われる作業も孫プロセスでの処理も変らない筈、、、
オーバーヘッドが大きくて処理待ちしている間に、親の方でエラー扱いに
してしまっている、、とかかな
250:login:Penguin
12/10/13 20:06:51.65 FOjV/hNL
「ネイティブの2割~3割位」ってことは
1/3~1/5倍速って感じだよね
それで「思ったよりパフォーマンス高い」のかw
251:login:Penguin
12/10/13 20:17:11.50 dbEMDyqm
WANとLANを繋ぐルーターを仮想マシン上に委譲しようと思う。
生回線と比べてどんだけ性能低下するんだ?
252:login:Penguin
12/10/13 20:22:02.97 1bu1XMel
>>250
ここは日本語の勉強をするスレではありませんよ。
日本語が理解できるようになってから来てくださいね。
253:login:Penguin
12/10/13 20:30:06.24 JJZUcU4i
>>250の言ってることは何も間違ってないと思うのは俺だけか?
254:login:Penguin
12/10/13 20:43:44.43 dbEMDyqm
2割~3割位 20% ~ 30%
1/3~1/5倍速 33.3..% ~ 20%
255:login:Penguin
12/10/13 22:50:17.28 OTspD6Bv
>>250
その速度だとホスト型の方が速そうだw
>>251
元々のルータが一般に市販されてるルータだとしたら
ホストの処理能力によるけど普通に市販ルータよりはスループット高いと思う
256:login:Penguin
12/10/13 23:17:54.22 dbEMDyqm
>>255
すいません。元はLinuxルーターです。
257:login:Penguin
12/10/13 23:59:09.64 zDVIDOJD
>>251
GbE-[VM NAPT]-GbE, 他の負荷無し, NAPT 1session でiperf計測900Mbpsぐらい
258:login:Penguin
12/10/14 00:02:57.77 POn30xsf
BGPでフルルート食わせても、10GbEで8Gbpsくらい出てるよ。
259:login:Penguin
12/10/14 00:04:34.43 b5vSNQ9j
>>257
VM無だとどれぐらいですか?
260:login:Penguin
12/10/14 12:15:29.09 3BAE4YKf
>>259
ホストマシン上で直接ってのはやってないのでわかんない。
環境としては、
A)iperf送信側 Dell PowerEdge R210II / Xeon E3-1270 3.40GHz / 16GB
CentOS 6.2(64) 2.6.32-220.7.1.el6.x86_64 #1 SMP
VM qemu-kvm-0.12.1.2-2.209.el6_2.4.x86_64 / 1vcpu / 2GB
CentOS 6.2(64) 2.6.32-220.13.1.el6.x86_64 #1 SMP
iperf 2.0.4 (7 Apr 2008) pthreads
仮想ブリッジは Open vSwitch 1.4
B)iperf受信側 Dell PowerEdge2950 / Xeon E5405 2.00GHz / 2GB
CentOS 5.7(32) k 2.6.18-274.12.1.el5 #1 SMP
iperf 2.0.4 (7 Apr 2008) pthreads
C)vyatta HP DL120 G7 / Xeon E3-1240 3.30GHz / 16GB
CentOS 6.2(64) 2.6.32-220.7.1.el6.x86_64 #1 SMP
VM qemu-kvm-0.12.1.2-2.209.el6_2.4.x86_64
仮想ブリッジは Open vSwitch 1.4
vyatta-livecd-virt_VC6.3-2011.07.21_i386.iso
1 cpu / 512MB 割り当て
A -> C 直接 941Mbps (ovs で tag/untag処理入り)
A -> B -> C 870~941Mpbs 平均で930Mbpsぐらい (ovs で tag/untag処理入り)
vyattaでやってるのは192.168アドレスからグローバルアドレスへのNAPT処理のみ
iperfのデータしか流してない低負荷状態なのでピーク性能でこんなもんって目安になれば。
261:login:Penguin
12/10/14 16:38:27.96 b5vSNQ9j
ありがとうございました。
262:login:Penguin
12/10/15 11:03:20.99 s4DqyIVs
ミグラチオン
263:login:Penguin
12/10/18 22:25:03.79 rYelEqcg
KVMは使いものにならないゴミだから
調べる価値もないよ。
マイグレーションはESXいの10倍かかるし
HAすらできないゴミだし。
264:login:Penguin
12/10/19 00:18:04.50 jnRU4PyZ
良く調べもせずに客に提案して先輩に怒られたの?
265:login:Penguin
12/10/19 00:25:00.47 u1DTBKm1
KVMは実際にゴミ大手は絶対に使わない。
266:login:Penguin
12/10/19 07:04:36.20 gzjnU+kF
>>265
>>さくら
267:login:Penguin
12/10/19 09:41:46.74 a4ym/k91
>>265 >>266
> KVMは実際にゴミ
> 大手は絶対に使わない。
じゃないか?大規模商業ベースで使うにはいまいち信頼できないな。
個人で遊ぶには丁度いいと思うが。
268:login:Penguin
12/10/19 13:08:39.17 VaDwkZq+
大手のVPSサーバーは
大抵KVMだけど
269:login:Penguin
12/10/19 22:59:54.99 u1DTBKm1
>>268
そんなウソよくねーぞ?
270:login:Penguin
12/10/19 23:25:07.41 CqeVFMh2
KVMが使えないのは確か。
ただ、タダ。w
271:login:Penguin
12/10/19 23:40:57.37 zfwRsSkM
URLリンク(www-03.ibm.com)
> We use KVM to provide the underlying hypervisor for this IBM public cloud
ほい
272:login:Penguin
12/10/19 23:43:45.92 u1DTBKm1
>>271
IBMは商用で使った実績ないぞ嘘つくな
あと研究所の記事載せるな。
273:login:Penguin
12/10/20 00:03:18.63 MOWlzJdA
何を見て研究所の記事だと思ったのかはてさて。
簡単な英語も読めない池沼さんですか。
しゃーないから日本語の記事見つけてきてやったぞ
URLリンク(news.mynavi.jp)
>>IBMが全世界で展開するパブリック・クラウドサービス「IBM SmarterCloud Enterprise」にもKVMが使用されている。
274:login:Penguin
12/10/20 00:44:55.37 f4s+jbJG
>>273
それを「記事」と呼ぶか。「広告」じゃね?
広告用に150ノードだけ置いてある、だけ、か?
8箇所で150とかどんだけ~。
非公開って書いてあるし、実際のサービスはVMw ゲフンゲフン
URLリンク(www-935.ibm.com)
275:login:Penguin
12/10/20 01:04:16.80 zto/vE/7
IBMはもろにKVMのスポンサーだろ。推進側企業。
276:login:Penguin
12/10/20 03:54:37.07 O+1IMtZn
Redhat<・・・
277:login:Penguin
12/10/20 07:08:57.01 pmi7s9tI
6SyncとかJoyentとかRackspaceとかGoogleみたいな普通のVPSを言えばいいのになぜIBM…
278:login:Penguin
12/10/20 14:01:20.20 d8EAhAZZ
6Syncはシックスセンスにかけてるのかな?
279:login:Penguin
12/10/22 11:28:23.09 o7doLgIp
さくらってKVMよね?
さくらクラウドとVPSがKVMなはず。
「さくらは大手じゃねぇ」と突っ込まれる場合は、規模感を定義してくれ。
280:login:Penguin
12/10/22 11:58:25.36 BU9PX9Sa
おなまえ.comのVPSもKVMですね
281:login:Penguin
12/10/22 22:14:30.14 MvOZdkd5
むしろKVM以外のが少ないわ。
282:245
12/10/23 00:09:21.48 Es9X5S0d
openvzのVPS借りてるけどカーネルのバージョンがあげられないから
セキュリティ的にちょっと心配。 さくらかお名前に変えようかな、、、
283:login:Penguin
12/10/23 00:59:15.83 Y0WQ3qy/
openvzからkvmとか、kvmからlxcとか自分でやってたら簡単なんだけど、サービスとして使ってたらどうなんだろ。
284:login:Penguin
12/10/27 00:35:04.77 ZNGg/pVZ
OpenVZのVPSかりてて他に行きたいけど
100円のとこがここしかないから移れない
285:login:Penguin
12/10/27 12:39:57.18 /1FBhTx+
CIAっていう、画面転送プロトコルは通信帯域がもっとも小さいと聞きました
KVMもCIAというプロトコルは採用しているのでしょうか
仮想マシンとしてWIN7を動かして、その画面をCIAでクライアントへ送って使うことはできますか?
286:login:Penguin
12/10/27 17:04:54.22 eQkgyIvy
>>285
Citrix ICAの間違いだとして、
> KVMもCIAというプロトコルは採用しているのでしょうか
いいえ。
287:login:Penguin
12/10/27 22:16:58.25 /1FBhTx+
>>286
レスありがとうございました
ICAの間違いです。どうして勘違いしちゃったんだろう
対応は今のところはXENだけでしょうか
288:login:Penguin
12/10/28 23:12:54.64 3/dT9Dvg
特許があるんじゃないかな<ICA
別にVDI的なことやるんでなければ普通のプロトコルでもよさそうな。SPICEとかどうなの
289:login:Penguin
12/10/29 13:38:05.37 PuSws+aR
>>288
レスありがとうございました。
SPICEなんていう画面転送プロトコルは初耳でした。
すごいですね、WINDOWSでも使える。
勉強して使ってみます!
290:login:Penguin
12/11/03 05:14:06.64 5qrKm+PN
だれか教えてください~ つДT)
ホストOSにCentOS6.3、ゲストOSにWIndowsXP
で仮想マシンを作り、下記URLで配布されているvirtio-win-0.1-30.isoで
URLリンク(www.linux-kvm.org)
virtioドライバを組み込んだのですが、
ゲストのXPでFilleZillaを起動して、外部サーバのファイルをFTPで
samba越しにホストのディスクにダウンロード&保存すると
ファイルの書き込みが失敗しましたとFTP転送が止まったり、
RemoteDesktopのコネクションが切れたりします。
3年前の情報
スレリンク(os板:23-25番)
の症状に非常に似通っています。
これは未だに治ってない症状でしょうか?
291:290
12/11/03 05:16:21.43 5qrKm+PN
(改行が多すぎるって怒られたので分割)
>>290の続き
virtioドライバの配布場所に英語で
latest drivers are of version "15", dated "15-Jun-2011",
with the CD image being virtio-win-0.1-mm34.iso.
In that image, WindowsXP drivers does not seem to work,
it is impossible to install them using regular winXP driver interface.
But the previous drivers, version "14" as found on this Directory,
dated "13-Jan-2011", from CD image named "virtio-win-1.1.16.iso",
installs on winXP fine.
と書いてあります。
英語読解0なりに
最新バージョンはXPで動かないよ。
前のバージョンを試すんだルーク。
virtio-win-1.1.16.isoをDLしろっ
てな感じに読めるのですが、this Directoryのリンク先には
virtio-win-0.1-30.isoしか置いてなく、肝心のvirtio-win-1.1.16.isoがありません。
KVM + XP + virtioでうまく安定稼働させる助言をお願いします
292:login:Penguin
12/11/03 08:41:47.07 x4u+yq7+
そこまでわかってれば探せばどっかにそのファイルが残ってるんじゃないの。
URLリンク(www.findthatfile.com)
とりあえずここにはあったよ。
293:290
12/11/03 14:24:14.91 5qrKm+PN
290です
>>292さん、ありがとうございます!!
書き込みの前にググっても見つけられなくて困ってました。
ただ、IP直打ちで素性の分からないホストでの公開でmd5かsha1での
ハッシュ値の比較で本物か確認ができなかったので、更に探してみました。
せっかく教えていただいたのに、失礼ですみません。
でも、最近、警察による誤認逮捕、自白の強要とかあったことだし…
睡眠とるまえは頭が回ってなかったのですが、
wayback machineを思い出して再度探したらDLできました
URLリンク(web.archive.org)
fedoraprojectとWBを信頼した上での話ですが、
ハッシュ値は教えていただいた奴とWBので一致しました。
で、ネットワークのドライバを差替えたところ>>290で報告した症状は改善しました。
ありがとうございました。
294:login:Penguin
12/11/04 13:59:36.24 B/Nw1E+s
まあどうせドライバは署名されてないし、それぐらい検証すれば
十分じゃないかな。動いてよかったね。
295:login:Penguin
12/11/05 22:20:21.84 2YGDwAto
windows の仮想化はKVMよりESXiのほうがずっと速いと思ってたんだけど
1割り程度しか改善しないんだね。
倍速くらい出るとおもってたのに俺の土日はなんだったんだ。
296:login:Penguin
12/11/19 15:59:33.19 HMAtrWlL
暇な人、教えて下さい。
ホストOS→Centos 6.3
ゲストOS→Win XP Pro SP3
液晶ディスプレイ→Mitsubishi RDT234WLM-D
教えてほしいのは、ゲストOSで画面解像度「1920x1080」を表示させる方法。
ホストOSの「VGA」設定だと、「1920x1080」がない。
※1920x1200はあるんだけど、文字や線がにじんでいる。
「VMVGA」設定だと、ゲストOS起動から、黒画面のまま。
取り敢えず、こっちで試してダメだったのはKVMのビデオカード設定を、
【VGA設定】
WindowsXPの画面解像度に、「1920x1080」の設定が無い。
「Monitor Asset Manager」と「DTD Calculator」で、無理くり1920x1080の解像度を作ろうとしたけど、
“Intel Graphic Registry Key not Found”と怒られ断念。
※仮想環境な為、当然と言えば当然。
【VMVGA設定】
WindowsXPに「vmwarevga32-kvm.iso」をインストール。
ゲスト終了→ビデオカードを「vmvga」に設定変更→ゲスト起動→画面黒のまま
※参考にしたURL→URLリンク(www.linux-kvm.com)
流石に、詰んでる感が出てきたので…最後に、此処で聞いてみようかと…。
宜しくお願い致します。
※質問なので、一応ageときますね。
297:login:Penguin
12/11/19 17:34:41.86 2LqeOj8x
URLリンク(www.linux-kvm.org)
298:login:Penguin
12/11/19 18:35:03.55 3GAKpiDJ
リモート・デスクトップ接続の画面サイズを変更する - @IT URLリンク(www.atmarkit.co.jp)
299:login:Penguin
12/11/19 18:48:15.67 TtAvRQRN
>WindowsXPに「vmwarevga32-kvm.iso」をインストール。
あたまおかしいの?
300:login:Penguin
12/11/19 18:52:17.16 k71EPk/l
そこまで調べられるのになんで正解にたどり着けないんだろうか…
301:296
12/11/19 21:46:13.41 HMAtrWlL
>>297
有難うございます。
無事上手くいきました。
補足すると…。
ゲストOS側(WinXP)に、「spice-guest-tools-0.2.exe」をインストールして、
ゲストOS再起動後に、画面解像度に「1920x1080」が表示されました。
※まぁ…当然っちゃあ当然ですが…。
また、WinXPに「avast!」を入れてる場合、
上記ソフトをマルウェア検知し、マウスが効かなくなりますが、
キーボード操作で、インストール先フォルダのみ除外設定にすると、
無事、マウスも反応するようになり、大変満足しております。
本当に有難うございました。
>>298
有難うございます。
勉強になりました。
>>299
すいません…当方、学も何もないもので…。
ご迷惑お掛けしました。
>>300
こういう問題が発生した場合、解決するには…センス(才能)としか…。
以上です。
本当にありがとうございました。
302:296,301
12/11/20 00:19:00.11 LoiTdiVM
本日は、本当にありがとうございました。
私も将来、
>>297-300さんのように、
博識で、人の役に立ち、尊敬されるようなエンジニアに、なりたいと思います。
本当にありがとうございした。
では、また何処かの板でm(_ _)m
303:login:Penguin
12/11/21 20:53:07.18 zJ32Pg6y
>本当にありがとうございました。
この文字列見て反射的に縦読み部分探してしまう俺は脳が腐ってるんだよな・・・
304:login:Penguin
12/11/29 20:28:40.20 +HKffjRL
centos6.3でvirt-p2vを使ってライブマイグレーションをしようと思っているのですが、誰か実際にやった方いらっしゃいますか?
305:login:Penguin
12/11/29 21:16:59.33 FeWUffwo
>脳が腐ってるんだよな・・・
だな
306:login:Penguin
12/11/29 21:17:18.20 khXw5Iq1
>>304
知ってる単語を並べてみただけですか?
307:login:Penguin
12/11/30 16:00:43.31 wXkQREto
わろたw
308:login:Penguin
12/12/01 14:06:44.21 KqBvvc+S
kvmってイメージファイル破損するけどなんでなの?
309:login:Penguin
12/12/01 20:16:36.92 mFHH6MJE
サーバとして2年以上使ってるけど破損したことがない。
310:login:Penguin
12/12/02 02:53:06.47 TviS8dYr
>>308
KVM が壊すんじゃなくて、
仕様外の運用してるからこなわれるんだろ?
311:login:Penguin
12/12/02 09:15:05.19 lh5ulQzR
>>308
何したら破損したの?
312:login:Penguin
12/12/05 01:13:15.38 a9npjCoE
>>311
何もしてないのに
プロセス強制的に落とすとディスク壊れた。
VMwareだと大丈夫なのに
313:login:Penguin
12/12/05 01:27:08.84 uov5VueO
で、でたー!www何もしてないのに壊れたとか言う奴www
314:login:Penguin
12/12/05 01:40:59.90 0mOSLkje
>>312
VMware 使ってろ
2度とこっちくんなw
315:login:Penguin
12/12/05 07:41:17.56 SrlE13I9
「何もしてないのに」
「プロセスを強制的に落とすと」
という点ですでに矛盾を感じるんだが、ともかくも実PCで
いうところの電源ぶち抜きをしてるようなものだから、
そりゃディスク書込み中だったら壊れるんじゃないか。
VMWareで壊れなかったっていうのも、偶然だと思うよ。
もしくは「強制的に」のレベル感が異なっていて、VMWareは
実際には強制的に落としては居ないのかもしれない。
316:login:Penguin
12/12/05 07:49:04.43 1DwxwDD5
>>312
具体的にどういう操作をしたの?
317:login:Penguin
12/12/05 10:31:19.90 jt5dTk2f
釣られすぎだろ
318:login:Penguin
12/12/05 21:07:12.28 a9npjCoE
>>316
virsh destroyってコマンド実行して
普通に終了させただけだよ。
319:login:Penguin
12/12/05 21:29:19.44 SrlE13I9
"virsh destroy"でぐぐると、RedHatのマニュアルにもちゃんと
「virsh destroy を使用すると、ゲストのファイルシステムを
破損するかも知れません。」って書いてあるな。
320:login:Penguin
12/12/06 01:05:40.91 edA0oSjD
vmを強制終了(電源オフ)させてもvm wareだとデータ破損しないのか
あ~すげぇすげぇ()
321:login:Penguin
12/12/06 05:19:06.39 pZfYoz3N
こんなスレで笑かさないでくれよ
322:login:Penguin
12/12/06 12:53:06.33 dEQ3bSPL
>>318
普通に終了させるのは
virsh shutdown
323:login:Penguin
12/12/06 13:13:12.46 V9xGLoMS
仮想上でsyncした上でホスト側でsyncしてればvirsh destroyでもほぼ大丈夫でしょ
そんな面倒なことしないだろうけど
324:login:Penguin
12/12/07 00:25:37.00 cyryNa2m
>>320
VMWareは破損しないですね。心配になったら
問い合わせましたけどVMotionがあるから絶対
大丈夫ですって言わましたけど?
KVMだけが機能的なバグで普通に使ってても
破損するってことは理解できましたよ。
325:login:Penguin
12/12/07 02:16:49.99 fZ0xS47U
>>324 文盲か?2度と来んなカス
テメェにとって機能が足りなくてもそれが仕様なんだよ
勝手に勘違いしてギヤーギヤー騒いでないで、黙って必要とする機能をもったツールを使ってろ
カスが目障りなんだよ
2度とくんなカス
326:login:Penguin
12/12/07 02:59:32.76 XpB51jfi
まだ何もしてないのに壊れたと考えてるらしい
327:login:Penguin
12/12/07 03:12:48.51 1Hzu8c7H
本当に何もせずぶっ壊れたならハードに問題あるのかもよ
HDDがSMART見たら危なかったりMemがエラー吐いてたり
328:login:Penguin
12/12/07 03:54:51.57 UB2dH6/e
VMのプロセスを殺す話をしてVMotionがあるから大丈夫なんて回答が帰ってくるとは思えないが・・・
329:login:Penguin
12/12/07 04:12:43.51 LA+JKjHO
オレもVMwareに対する巧妙な逆ステマかと思ったw
330:login:Penguin
12/12/07 07:25:18.38 Ox5+0tOa
>>324
なんでマイグレーション機能が関係あるんだ?
強制終了して無事であることとのさ関係がさっぱりわからん。
331:login:Penguin
12/12/07 08:32:20.73 b3oWy0bJ
>>324
もっと自身の理解を深めてください。曲解した知識で他人を巻き込まないでください
332:login:Penguin
12/12/07 08:38:02.36 HfsHz0LJ
>KVMだけが機能的なバグで普通に使ってても
>破損するってことは理解できましたよ。
バグじゃなくて仕様どうりの動き。
ついでに言うと、ゲストの強制的な終了ととvmotionは関係ないから、騙されてるか問題を勘違いしてるとおもうよ。
333:login:Penguin
12/12/07 08:39:39.48 hzpIEk5V
「どおり」な。
334:login:Penguin
12/12/07 14:19:48.43 CUH+lMaq
お前以外はちゃんと脳内変換できてる
335:login:Penguin
12/12/07 14:22:16.75 8MqS0fHO
まだグダグダ続けるんなら
VMware Part10
スレリンク(linux板)
こっちでやればいいと思うの
336:login:Penguin
12/12/07 21:35:01.76 b3oWy0bJ
このスレで起きた事を他スレになすりつける行為をすんのか?
お前はグダグダ続けてる馬鹿共以下だな
337:login:Penguin
12/12/07 23:07:31.89 cyryNa2m
ゲストが破損するような危険な機能を仕様です。
とかいっちゃうお前らって頭湧いてるよな
338:login:Penguin
12/12/07 23:19:17.28 UKAZSJd9
検定中
339:login:Penguin
12/12/07 23:36:24.66 i3t589zd
これは試練
340:login:Penguin
12/12/07 23:38:47.60 b3oWy0bJ
>>337
>大丈夫ですって言わましたけど?
じゃあ、大丈夫なんだろ。おめでろう。よかったな。
だから引っ込んでろよウジ虫
341:login:Penguin
12/12/08 02:43:11.75 L41HC5Vv
似非業者モドキが大した検証もなしに客に納品して
大事なデーターぶっ飛ばして八つ当たりって感じですかね。
342:login:Penguin
12/12/08 08:28:58.98 SaKS/u91
>337
マニュアルも読まずに使う人に言われても・・・
virsh destroyは、実機での強制電源断を
シミュレートしたい人が使えばいいんじゃね?
343:login:Penguin
12/12/08 09:24:09.72 HgOs/e+r
PCの電源の切り方は電源ボタンを長押しすることだと思っていた一昔前のオバサンみたいだな。
それを正しい操作だと思っていて壊れるとヒステリックに逆切れする。
344:login:Penguin
12/12/08 21:16:57.79 1ikXxdD/
>>337
VMwareでもパワーオフ押せば同じことが出来るぞ
しかも右クリックでかんたんにできる
345:login:Penguin
12/12/08 21:30:10.76 HVMTGhA9
ていうかゲストが壊れるような操作もきちんとできないとVMとしては片手落ちじゃないか?
346:login:Penguin
12/12/08 22:15:16.91 PWGJxeD0
とりあえず壊れてざまぁだね
347:login:Penguin
12/12/08 22:40:29.65 m+Xe9oaW
vmware使ってデータ破損するんだろうな
348:login:Penguin
12/12/09 01:30:01.31 vkw3qd3e
> VMWareは破損しないですね。心配になったら
> 問い合わせましたけどVMotionがあるから絶対
> 大丈夫ですって言わましたけど?
こんなスレで聞いてないでKVMも問い合わせてみたらいいんじゃないの
349:login:Penguin
12/12/09 08:38:06.95 +p0YpYHs
もうほっとけよ。
350:login:Penguin
12/12/10 21:29:46.22 k70pWKb9
そんな情報仮想化大全にも載ってないし
KVMのひどいバグでしかない
351:login:Penguin
12/12/10 22:10:22.02 fodOkUeJ
おかしいな、普段使ってるPCはちゃんとコンセント抜いたりバッテリー外して電源切ってる?
まさかシャットダウンとかOSで操作してないだろうな
ちゃんと電源を途絶えさせて切らないとダメだぞ
352:login:Penguin
12/12/10 22:32:37.23 3H2aKQ6b
「ひとりH。私はけっこうしてます!」
353:login:Penguin
12/12/11 09:55:39.92 aNmgcVnF
KVMって、VMWAREのVSPHERE CLIENTみたな管理GUIのようなものってあるんですか?
354:login:Penguin
12/12/11 17:59:06.06 8Roeds6L
KVM専用というわけではないが、
virt-managerとかがある
355:login:Penguin
12/12/11 18:00:02.23 aNmgcVnF
>>354
レスありがとうございます。
調べてみたいと思います。
356:login:Penguin
12/12/11 18:04:16.75 aNmgcVnF
>virt-manager
>libvirt (virtualization API)を介して、
>Xen, Qemu, KVMなど異なるハイパーバイザーを一括して管理
なるほど。
まだ発展途上なわけですね。
最新版を使いたいなら、やっぱりFedoraを用いなければならないかな。
357:login:Penguin
12/12/11 18:09:36.01 8Roeds6L
新しい方がいいことは間違いないが、CentOSとかに入ってるバージョンでも
私はそれほど困ったことはない
358:login:Penguin
12/12/11 18:35:04.72 aNmgcVnF
>>357
ありがとうございます。
参考になります。
CentOS6で試してみようかなと思いました。
359:login:Penguin
12/12/12 00:30:51.96 b4uERQZx
KVMはちょっとしたことでデータ破損するので使いもに
ならないよ。
360:login:Penguin
12/12/12 01:58:20.92 dejHuP6U
ちょっとしたことって?
361:login:Penguin
12/12/12 02:01:23.63 hMwdySX1
もうその話はいいよ。
362:login:Penguin
12/12/12 02:08:48.07 dejHuP6U
上のほうでだらだらと発言があったみたいだな。
とても気になるけど、喧嘩を見に行くのはいや。
結局、その真意ってなんだったの?
363:login:Penguin
12/12/12 08:02:21.51 hMwdySX1
蒸し返すな。
364:login:Penguin
12/12/12 11:34:32.64 jgeq261i
Gnome-BoxesだとVirtualBoxみたいな感覚でKVMが扱えるね
365:login:Penguin
12/12/12 14:08:07.74 dejHuP6U
それって、virt-manager に類するものですか?
KVMって、自由だなあ。
366:login:Penguin
12/12/12 23:41:14.93 Bio04sD8
最近KVMいじり始めたが企業とかで運用するのもGUIでやってんのかな
367:login:Penguin
12/12/12 23:52:25.58 1b+Xc8bt
AQEMUも結構使えるね
368:login:Penguin
12/12/13 02:20:54.58 ypW8UxCX
virt-manager
Gnome-Boxes
AQEMU
いろいろ出てきたね
それぞれの長所短所が知りたい
369:login:Penguin
12/12/13 08:06:54.95 N2Ad+au1
>>368
比較というか、一覧表という感じだけど。
URLリンク(www.linux-kvm.org)
370:login:Penguin
12/12/13 08:43:32.04 SGXmDugi
つい先日からoVirtを使ってる
371:login:Penguin
12/12/13 15:28:24.27 ypW8UxCX
>>369
おお、よくまとまっています。
しかし、こんなにたくさんあるとは。驚きです。
372:login:Penguin
12/12/14 02:54:37.47 B52mAiWP
CentOS4で動いてる環境を、KVMに持ってきたいんですが
P2Vでおすすめソフトって、何かありますか?
出来れば、元のOSが稼働中でも出来るものがないかと探してます。
(VMConvertorみたいなもの)
373:login:Penguin
12/12/14 21:42:12.16 SDR8P8RR
もうメンテされてないOS使うな。正月出勤してCentOS6に更新しろ。
374:login:Penguin
12/12/14 21:50:55.77 QrQMuCk2
>>362-375
375:login:Penguin
12/12/14 22:31:04.25 SCNk/65k
(専ブラって全角安価でも機能するんだな…)
376:login:Penguin
12/12/15 00:22:18.87 CU6sL+7O
P2Vって、新しい(仮想の)ハードウェアに対応させるために、ドライバの組み換えもするんですよね。
すごいな。
OSを知り尽くしているのか。
377:login:Penguin
12/12/15 17:51:30.22 vAv2nqSC
>>372
試したことないけど、これかな
URLリンク(www.todo.ne.jp)
378:login:Penguin
12/12/17 04:03:33.38 WmujDxJ/
>>377
virt-p2v だと、Cold Cloningかな、
Mond Rescueなら、Hot Cloningでも、いけそう。
これを試してみます。
でも、373や376の意見をみてると、VMWareにした方がいいのかもしれない。
カーネル統合されてる。というので、KVM期待してたんだけど。
KVMでも、HotCloningいけそうなので、両方試してみよう
379:login:Penguin
12/12/17 06:30:45.90 84HDI9QJ
>KVM期待
良いと思う。
VMWAREはお金かかるよ
380:login:Penguin
12/12/17 22:38:16.12 Ca5vNOQV
>>378
KVMは危険だよ。業務で使うならVMWareしかないよ。
データ消えちゃってもいいの?
381:login:Penguin
12/12/17 23:04:40.26 Kt8LR7ud
普通に使ってたらデータは消えない
ちゃんと使えないクズは金払ってVMwareスレに行けばいいよ
クズの中のクズはスレチに粘着するらいがw
382:login:Penguin
12/12/18 00:23:14.86 Mc4G7qn0
どんな使い方すればデータが消えるんだ
383:login:Penguin
12/12/18 01:11:21.85 LR54vF+h
syncしてないのに停電で電源落ちちゃったとか
384:login:Penguin
12/12/18 04:02:57.58 9vHHBz3x
>382
318 名前:login:Penguin[sage] 投稿日:2012/12/05(水) 21:07:12.28 ID:a9npjCoE [2/2]
>>316
virsh destroyってコマンド実行して
普通に終了させただけだよ。
385:login:Penguin
12/12/18 07:49:51.44 Mc4G7qn0
なにやら無茶なことしたくせに、壊れた壊れたって叫んでいるだけのように聞こえるんだけど。
386:login:Penguin
12/12/18 08:06:50.48 mS9Q5J7b
もうその話はいいよ。
387:login:Penguin
12/12/18 10:46:24.63 vUNMiVCk
初心者お断りでいいだろ
388:login:Penguin
12/12/18 18:44:34.63 A8brrQvs
初心者以前に頭がおかしい
389:login:Penguin
12/12/18 20:05:18.47 SuJny0gj
馬鹿には無理
390:login:Penguin
12/12/18 21:05:22.75 FXZ2lyu5
>>380また君か壊れるなぁ(怒)
>>319が見たのってこれだよね
第22章 virsh でゲストを管理
ゲストを強制的に停止
virsh コマンドを使用してゲストの停止を強制します:
# virsh destroy {domain-id, domain-name or domain-uuid}
このコマンドは素早くに強引にシャットダウンして、指定したゲストを停止します。
virsh destroy を使用すると、ゲストのファイルシステムを 破損するかも知れません。
destroy オプションは、ゲストが 反応しない時にのみ使用して下さい。
para-virtualized ゲスト用には代わりに shutdown オプション ( ゲストのシャットダウン) を使用します。
やっぱり壊れるコマンドを実行してただけじゃないか(憤怒)
391:login:Penguin
12/12/18 21:10:13.96 EcemGpQ2
危険
壊れてる人に触ってはいけません
392:login:Penguin
12/12/18 21:26:40.94 9vHHBz3x
壊っちまえ(やっちまえ)ーーーー!!
virsh save ?virsh shutdown ?
そんなもの・・・
クソ喰らえだ!
そんなものは見えやしねーー!!
「a9npjCoE」の目にうつるものはただ一つ!!
virsh destroyーーーーー!!(デストローーーーーイ!!)
--――-- 、
/::::::::::::::::::::::::::::::::::::\
/:::::::::::::::::::::::::::::::::::::::::::::::\
|::::厂 ̄'''ー―一'' ̄ ̄|:::::|
|:::| |::::|
|:/ ____ /______ヽ:|
/^''Yニ -=ニ・ニ>卅彡ナナナ ニY''ヘ
| 久|ニ ー'´| `ー ニ|/ヘ| v V v V v V v V v V v
!.イ| ニ l| ニ|ヽ | > 二〃 フ | <
ヽ_|彡/ l|、_l 〕 ヽミ|_ノ > ノ へ |ヽ <
|`<// v======v ヽヾ>| < _ / <
|:::::`<// ヽ___/ ヾ>'::::| > |_| ー― /| <
| :l:::::::`< `―‐'′>'::::|:: | > <
| l ::::::::::\__/::::::: l | ハ 八 ハ 八 ハ 八 ハ 八 ハ
/ l ::::::::::::::::::::::::::::::: l \
393:login:Penguin
12/12/18 21:43:14.78 VwyzxG8/
問題なく起動してたのに、ビデオドライバをqxlにしたくてspice導入とか
色々やっていたら、KVMそのものが起動しなくなってしまった。
必要なファイルは一通り入れてるんだけどなぜか、QEMU/KVMのカーネルが
組み込まれてないとか、ハイパーバイザーのオプションがありません
やらのエラーが出るんだけど、どうすればいいんだろうか。
一回全部アンインストールしてみても駄目だったし、どうすればいいか分からない
関係あるか分からないけど、下のURLを参考にした後起動できなくなりました。
URLリンク(www.kkaneko.com)
394:login:Penguin
12/12/18 22:06:37.66 70qv2lsb
残念だが、これでわかったらエスパー。
KVMそのものが起動しないってのがまず判らない。
特定のゲストマシンが一つだけ起動しなくなったのか、
それとも、ホスト上の仮想マシンがすべて起動しなくなったのか。
エラーが出るなら、エラーメッセージと、それがどこで
出力されてるのかを書いてもらったほうが良いかも。
> QEMU/KVMのカーネルが組み込まれてないとか
これは、ホスト側の話だとすれば、
lsmod | grep kvm やってみて。
395:login:Penguin
12/12/18 22:49:55.99 VwyzxG8/
KVMそのものがって意味不明でしたね。新しい仮想マシンを作成しようとしても
できなくなった。その前に入れてたゲストOSも起動しなくなった。
ログにエラーの内容は書かれていないし、そのコマンドでも
きちんとカーネルは組み込まれてるんですよね。
操作はvirt-manager上でやっています。
396:login:Penguin
12/12/18 22:55:23.90 70qv2lsb
virt-manager使ってるとしたら、libvirtdはちゃんと動いてるのでしょうか。
virt-manager起動後に仮想マシンリストが表示されてるなら
多分そのへんは問題ないのだろうと思うけど。
CentOS6ベースでしか分からないけど、、
libvirtを使ってる場合は、 /vav/log/libvirt の下に
いくつかログを吐くから、そのへんで何かでてないですかね。
397:login:Penguin
12/12/18 23:05:44.63 70qv2lsb
>393のURLを見てみましたけど、
「Ubuntu で SPICE 対応の QEMU+KVM のインストール 」てのを
やってるとすると、Qemuのバイナリを入れ替えてるぽいから
これが原因かも。
運が良ければ、ここでインストールしたqemuを削除とか、
出来れば綺麗にアンインストールすればなんとかなるのかもしれない。
/usr/local/bin/qemuにSPICE対応が入ってて、
/usr/bin/qemuに、元々動いてたqemuが入ってたりしないでしょうか。
398:login:Penguin
12/12/18 23:18:26.20 VwyzxG8/
両方のフォルダにたくさんのqemu系ファイルがありましたね。
競合してるということなんでしょうかね。
とりあえず削除して様子見します
399:login:Penguin
12/12/18 23:26:58.84 lv7xhfZk
KVMなんて使うからこんな残念なことになるんだよ。
あほだろ
400:login:Penguin
12/12/19 00:17:22.63 innaWHo7
あほには使いこなせないことが証明された
401:login:Penguin
12/12/19 16:42:51.08 SanA93m2
俺でも使えるんだからアホでも使える筈
402:login:Penguin
12/12/19 23:50:42.11 AHLXHMNf
>>401
俺はお前ができる子だってわかってるぞ
403:login:Penguin
12/12/20 20:34:20.49 NP4MdNyh
CentOS5から6に乗り換えたのを契機にvirshを使うようにしたんだけど、
ゲストのCPU定義の仕方がよくわからん…。
qemu-kvm直接実行の時の-cpu=hostは、virshのXMLではどう書けばいい?
Windows8 32bit版のインストールDVDが起動できなくて困っている…。
404:login:Penguin
12/12/20 20:54:31.64 Uce93kpS
URLリンク(libvirt.org)
host-model か host-passthrough を使えば良いのでは?
405:login:Penguin
12/12/21 00:25:14.33 HMqQZGze
>>404
<cpu mode='host-passthrough'/> にしたら、-cpu hostで起動できた!
けど、起動できないのは相変わらず…。64bit版のインストールDVDは起動できるからさらに謎。
406:login:Penguin
12/12/21 03:54:15.90 0Uba8PEB
>>405
つ virtinst
407:login:Penguin
12/12/22 10:00:34.83 UN5rYgv9
よくわからん…。
困っている…。
相変わらず…。
さらに謎。
>>404,406
お前ら、優しいなw
408:login:Penguin
12/12/22 10:28:27.23 AElEyaZ9
>>407
KVMは意味不明なバグがまだ数千以上
存在するから使うの辞めたほうがいいよ
開発者自身もわかってないし
409:login:Penguin
12/12/22 10:37:10.37 CsfSZK+7
>>408 デマ乙
410:login:Penguin
12/12/22 20:20:06.52 afsOO5WS
ビデオドライバによって、画面の描写の一部分が変になるんだけど
(ゲストOSがWindowsなんだけど、チェックボックスで設定を変更するタイプの
メニューがうまく表示されない。一部のアプリケーションのメニューの操作が出来ない)
これは自分のPC構成による相性の問題なのかな。それともKVM自体の設定でどうにかできる
ものなんですかね?ドライバ形式を変えたらなくなるけど、重くなったりするからな。
411:login:Penguin
12/12/22 21:39:56.42 VmoVw93N
ゲストのwindowsのドライバがちゃんと当たってないとか?
412:login:Penguin
12/12/24 12:29:06.26 5d5T+TpU
KVMの深刻なバグなだけかと
413:login:Penguin
12/12/25 00:49:37.15 WmQAXySb
画面の描写はKVMと関係ないんじゃ?
VNCやspiceなんかの仕事でしょ
414:login:Penguin
12/12/25 01:31:35.26 4/Ls2NuA
んな部分にKVMが関係あってたまるか
415:login:Penguin
12/12/25 01:54:26.46 ff1HIYlW
居着いちゃったんだろ、スルーしとけ
416:分割 (1/2)
13/01/05 22:12:19.40 rDGd+NmS
PCIパススルーについて質問です。
B75チップセットのマザーで、libvirtを使ったPT1&PT2のパススルーがうまくいきません。
PT2の一枚だけPCに挿した状態であれば virsh start hostname で問題なく起動できるのですが
PT1とPT2の二枚を挿した状態で同じことをしようとすると、以下のようにエラーで起動できません。
# virsh start hostname
エラー: ドメイン hostname の起動に失敗しました
エラー: 内部エラー PCI デバイス 0000:06:01.0 をリセットできません: 内部エラー 0000:06:02.0 を持つバス上のアクティブな 0000:06:01.0 デバイス、バスのリセットをしていません
事前に nondev-dettach をすれば起動できるのですが、ゲストPC(Win7)上でパススルーされたデバイスを
使おうとするとデバイスマネージャー上で認識されているにも関わらず、オープンに失敗します。
# virsh nodedev-dettach pci_0000_06_01_0
# virsh nodedev-dettach pci_0000_06_02_0
# virsh start hostname
ドメイン hostname が起動されました
417:分割 (2/2)
13/01/05 22:14:14.15 rDGd+NmS
ホストはCentOS 6.3で、公式リポジトリに登録されているlibvirt 0.9.10以外にも
本家最新版の1.0.1ソースからコンパイルた物も試してみましたが、変わりませんでした。
libvirtを使わず、qemu-kvmのオプション指定で直接起動した場合はPT1&PT2の二枚構成でも
問題なく起動できているので、構成的にはクリアできていると思います。
# /usr/libexec/qemu-kvm -version
QEMU PC emulator version 0.12.1 (qemu-kvm-0.12.1.2), Copyright (c) 2003-2008 Fabrice Bellard
# lspci
00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev a4)
06:01.0 Multimedia controller: Xilinx Corporation Device 211a (rev 01)
06:02.0 Multimedia controller: Xilinx Corporation Device 222a (rev 01)
# lspci -t
-[0000:00]-+-00.0
+-1e.0-[06]--+-01.0
\-02.0
どうにかしてlibvirtで管理したいのですが、この問題を解決する方法はありますでしょうか?
libvirtでPT1やPT2の二枚挿しを正常に起動できているという方もいらっしゃいましたら教えてください。
418:login:Penguin
13/01/08 17:01:32.63 gQsMjpok
B75ってVT-d使えないんじゃなかったっけ
CPUもK付きやi3以下は使えない筈だし下手したら全取っ替えかな?
419:login:Penguin
13/01/08 17:36:21.80 Fx/IzK4b
ASRockのマザーではB75でVT-d使えてるよ
420:login:Penguin
13/01/08 21:21:06.02 wxN+x4rv
VT-dはノースブリッジの機能だからCPUに内蔵された現在はチップセットは関係ない
CPUとBIOSが対応してるかどうかだけが問題になる
Intelのサイトを見るとQ77以外はVT-d ×とか書いてあって混乱させられるけどな
421:login:Penguin
13/01/08 21:27:52.92 gQsMjpok
>>420
PCIなんかはサウス管轄になってるからチップセットにも関係してくる
しかもBIOSによっては両方対応してないとどっちも使えないとかが
あるからかなりややこしい
422:login:Penguin
13/01/08 21:36:53.66 Qn3iiCLi
>421
いずれにせよB75チップセットで問題になることはない。Q77マザー並に安牌。
423:login:Penguin
13/01/08 21:44:43.85 wxN+x4rv
>>420
その辺のレジスタもデータシートを見ればわかるけど、ノースブリッジ側にあるよ
が、デバイス自体にも対応が必要らしいんで若干不正確だった
Intel(R) 7 Series / C216 Chipset Family Platform Controller Hub (PCH) Datasheetより
> 5.29.2 Intel(R) VT-d Features Supported
> ・ The following devices and functions support FLR in the PCH:
> - High Definition Audio (Device 27: Function 0)
> - SATA Host Controller 1 (Device 31: Function 2)
> - SATA Host Controller 2 (Device 31: Function 5)
> - USB2 (EHCI) Host Controller 1 (Device 29: Function 0)
> - USB2 (EHCI) Host Controller 2 (Device 26: Function 0)
> - GbE Lan Host Controller (Device 25: Function 0)
> ・ Interrupt virtualization support for IOxAPIC
> ・ Virtualization support for HPETs
SKUごとの差異があるとは記述されてないのでどちらにしろどれでも問題はないようだ
424:login:Penguin
13/01/09 07:03:33.04 lfVB9LK0
若干どころかPCIバスの向こう側にも対応が必要だったらノースブリッジだけが
対応すればいいなんて到底言えないと思うんだが
425:416
13/01/09 08:04:41.56 KRvPAtXZ
>>416-417にも書いてますが、今回ハマってる組み合わせ(PTx二枚挿し+libvirt)以外では
パススルーも普通に使えています。
426:login:Penguin
13/01/09 11:04:52.99 nFTME/1e
ということは
PT1枚+libvirt や PT2枚 libvirtなし だと動いてる?
427:login:Penguin
13/01/09 11:47:12.76 7AzDV/7F
ここの人はvt-dでPCI透過させて、ゲストOSでTV見たりしてるの?
すごいね
428:416
13/01/09 11:53:59.52 KRvPAtXZ
>>426
そういうことになります。
PTxとは書いていますが、PT2+PT3+libvirtの組み合わせであれば
パススルーでゲストが認識できるところまでは確認しています。
またPT1&PT2が挿さっていると、libvirtで片方だけアタッチして起動しようとしても同じく失敗します。
以上のことから思うに、レガシーPCI配下に複数デバイスがぶら下がってると
libvirtがそれらのデバイスの割り当てに失敗するようです。
429:416
13/01/14 21:53:37.59 6+s7zXaj
新しいカーネルならもしや、と思ってUbuntu 12.10で試してみたけどダメだった・・・
# uname -a
Linux hostname 3.5.0-17-generic #28-Ubuntu SMP Tue Oct 9 19:32:08 UTC 2012 i686 i686 i686 GNU/Linux
# kvm --version
QEMU emulator version 1.2.0 (qemu-kvm-1.2.0+noroms-0ubuntu2, Debian), Copyright (c) 2003-2008 Fabrice Bellard
# virsh --version
0.9.13
皆さんレガシーPCIに二枚以上デバイスぶら下げて、あまつさえlibvirt使ってみたりしないんですか???
430:login:Penguin
13/01/14 22:32:18.32 nQuTdK11
3.5.0は新しいカーネルと言えるのか
431:login:Penguin
13/01/15 02:16:48.04 ncKcda7k
libvirtにレガシーPCI1枚なら使ってる
432:login:Penguin
13/01/15 07:05:07.05 cfAabvAh
win7 が2枚挿しに対応してなかったらウケる
433:login:Penguin
13/01/15 13:59:13.10 n5dIQ8vV
libvirtが同一デバイスを上手くハンドルできないんじゃ疑惑
434:login:Penguin
13/01/15 19:54:03.21 cfAabvAh
でした
libvirt が起動している qemu のコマンドライン引数と
素でうまくいくときの qemu のコマンドライン引数を
くらべてみたいお
435:416
13/01/16 01:04:31.44 qAaJHAuV
>>433
PT2+SAA7130キャプチャボード+libvirtという組み合わせも試してみてダメだったので、PT1やPT2がというより
レガシーPCIに複数のデバイスがぶら下がってること自体が原因のような気がします(PCIeと違って共有バスだから?)。
本当に上記が理由だとしたら比較的簡単に再現できると思います。しかしその割に、他で報告を聞かないのも変な気はしますが・・
私は最初PCIe→PCIブリッジチップを介しているのがいけないのかと思って、H67からB75に乗り換えたのですが
再現の仕方が同じなので、問題はそこではなさそうです。他にはZ68でも同じ状況でした。
残念ながらソースは読めない人なので、qemuに直接渡す場合とlibvirtで実行する場合とで
設定晒してみます。流石にUUIDとゲストの名前は(厨二過ぎる設定な為)書き換えてますが、ご容赦ください。
qemu-kvmを直接起動する場合
URLリンク(www1.axfc.net)
libvirt経由で実行する場合
URLリンク(www1.axfc.net)
436:login:Penguin
13/01/17 00:37:48.86 9/jodcOu
>>435
/var/log/ の下に libvirt のログない?
debian なら /var/log/libvirt/qemu/<仮想マシン名>.log とかなんだけど...
437:login:Penguin
13/01/17 22:24:59.25 XtFnxcvM
>>435
お前さ、何故libvirtdのデバッグログをうpしないの?
何で初心者ですみたいに、ソース読めない人なので
なんでも聞いていいですよね?解決してくださいって
調子に乗ってるの?
お前ってさ、qemu:commandlineに利用しているなら、直接引数
渡せば起動できるのわかってて、嫌がらせとか本当に
たちの悪い糞野郎だよな。
438:login:Penguin
13/01/24 16:59:24.47 KfPzxJNa
spice-guest-tools-0.3.exe
来てた
439:login:Penguin
13/01/27 01:34:05.11 2ob6N5kY
kvm のホストマシンで ZFS on Linux を使って作った zpool に,
kvm のゲストマシンからアクセスすることってできる?
440:login:Penguin
13/01/27 09:45:08.51 Pq3gHEzO
そもそもzpoolって、他のホストがアクセスできるような代物じゃないと
おもうんですが、違うの?
441:login:Penguin
13/01/27 10:27:27.84 2ob6N5kY
ホストで /dev/sdb を zpool に追加して,/dev/sdb をゲストに接続しておいて,
ゲスト上で
$ mount -t zfs /dev/sdb1 /mnt
みたいないことできないかなと思って質問しました.
(ほんとはゲスト上では /dev/sdb1 っていう名前じゃなくて違う名前だと思うけど便宜上こう書いてます)
442:login:Penguin
13/01/27 16:22:35.71 Pq3gHEzO
ZFSはFreeBSDで使ってて、ZFS on Linuxは使ってないけど・・・
zpoolは、一つか複数のディスクを一つのpoolにまとめる。
zpoolに参加してるディスクをダイレクトにいじろうとするのは
そもそもZFSの使い方としておかしいんじゃないかと。
例えば、ホスト上でtankというプールを作ってみる。
zpool create tank /dev/sdb ←tankというpoolを作ってsdbを参加させる
こんなふうにやった後は、/tankにディスクがマウントされている。
この後に/dev/sdbへ直接アクセスするような真似をしたら、
KVMとか関係なく、ZFSを壊すだけでは。
ブロックアクセスしたいならzvolを作るべきだと思う。
443:login:Penguin
13/01/27 21:37:34.50 2ob6N5kY
>>442
なるほど,zvol でブロックデバイスが作れるんだ.いいこと聞いた.
実は試しに,ゲストマシンに ZFS on Linux を導入してみた.
インストールは簡単にできて zpool も作れた.しかし
ホストとか他のゲストと共有するために sharenfs とか sharesmb を
使おうとしたら,未実装らしい.これだと ZFS on Linux を入れたあんま意味ない気もする.
ホストに導入するのが自分の用途によさそうだが,あんまりホストの
機能が肥大化するのも好きじゃない.悩ましいな.
444:login:Penguin
13/01/28 02:01:42.39 zF/H5QPk
KVMを本運用で使ってる所ってあるの?
安定度が気になる
445:login:Penguin
13/01/28 08:16:31.73 nzeHuQ//
山ほどあると思うが。
まあチューニングはガンガンにしてるだろうけどね。
446:login:Penguin
13/01/28 12:08:44.22 +AsPXpx1
使ってるけど、運用がキツい。俺しかいじれない
447:login:Penguin
13/01/31 02:56:52.02 cczNNa9Z
チューニング、ガンガンですか
そのあたりのおすすめ本とかありますか
448:login:Penguin
13/02/01 14:22:21.05 xi34RPkr
運用が厳しいということは、大規模ってことかね。
うちは殆ど吊るしで使ってるけど、チューニングって例えば何がある?
449:login:Penguin
13/02/01 17:47:02.24 6Lum/gKZ
そんなノウハウ企業秘密に決まってんだろバカか
450:446
13/02/01 18:44:24.42 1UY1399o
うちもほぼ吊るしだよ。
VMイメージをNFS上に置いてるけど、ちょっとそろそろ限界。
ホストもNFSサーバもNIC帯域も余裕なんだけど、
1つのVMが使えるNFS帯域に何かボトルネックがあるらしく
ゲストのうち、アクセスの多いWebサーバの動作が滞りだした。
もうこの環境は厳しいからiSCSIかなんかで立て直して移行する
451:login:Penguin
13/02/01 22:59:21.03 xi34RPkr
>1つのVMが使えるNFS帯域に何かボトルネックがあるらしく
自分の環境では1Gbpsまではちゃんと出たので、NFS帯域のボトルネックなんて無いと思うんです。
先にHDDの限界がくるんじゃないかな。
1台のストレージに何台本番が乗ってるの?
単純にHDDのシークタイムがオーバーヘッドになってるように思うのですが。
452:446
13/02/02 09:22:03.00 OWeSb/8E
>>451
KVMホストは5台、ゲストは20台ぐらい。
ある1ゲストだけ飛び抜けて高負荷なんだけど、
いずれにしてもそんなにストレージへのアクセスが頻繁なものではなくて、
そのゲストが高負荷な時でもNFSサーバ自体の負荷は余裕、
他ゲストからのNFSパフォーマンスも落ちない(常時70MB/s程度)。
ので、KVMonNFSそのものがもうキツいのかな…と思ったんだけど、
確かに載せすぎでシークタイムが厳しいのかも。
NFSサーバーは7本のRAID6。
453:login:Penguin
13/02/02 11:42:17.62 MLdeUHoW
その構成にゲスト20台ならストレージやNFS自体はまだ余裕あるはず。
ゲスト達がどんな動きしてるか解らんので妄想入ってますが。
最初に思いつくのは、そのゲストに当ててるCPUやメモリが足りないとか、
それ以外のDBとかが足引っ張ってる可能性もあるとおもふ。
そのゲストがWindowsの場合はCPU使用率とかメモリ利用率を見て、足りないなら足せばいいいし、
Linuxの場合はロードアベレージは当てにならんから、CPU使用率を見てCPU負荷が高いのか、
IOウェイトが発生してるのかを見れば、原因がどこにあるかが判るはず。
あとは、ストレージのネットワーク速度すかね。
454:login:Penguin
13/02/02 12:04:05.27 M7wDuqSH
>>452
NFSサーバが余裕なのは、本当に処理負荷がひくいからなのかな。
NFSサーバがリソースを使いきれるようにチューニングされていなくて、NFSクライアントを待たせながらのんびり動いてからかもよ。
455:login:Penguin
13/02/02 12:06:56.75 MLdeUHoW
>>454
それだとKVMホストのロードアベレージがやたら上がるはずなのよね。
456:login:Penguin
13/02/02 12:19:52.49 M7wDuqSH
>>455
あがらないだろ。
ioとかnfsのqueueが長くなるだけだから。
nfs しばらく使ってないのではずしてると思うが、概念的にはworkerが足りないときとは処理要求は多いのにcpuの負荷は低くなると思うが、そんなケースがないかと想像してる。
457:login:Penguin
13/02/02 12:28:00.61 MLdeUHoW
>456
ううん、NSFサーバがNFSクライアントを待たせると、
クライアント側ではCPUのウェイトのパーセンテージが上がって、
それでロードアベレージがあがるんですよ。
クライアントはデータの読み書きをサーバに依頼するけど、
サーバがモタモタしてると、クライアントは自分のHDDの処理が遅いような認識になって、
ロードアベレージがあがるんです。
ロードアベレージって実行待ちプロセスの平均値でしょ、だからそうなるの。
458:login:Penguin
13/02/02 12:44:33.71 wmtiBWeW
その「1台だけ高負荷なKVMゲスト」の
何の負荷が高いのかから調査して行かないと厳しそうでは。
459:446
13/02/02 13:21:45.53 OWeSb/8E
・その高負荷ゲスト(Linux)では、とあるWebグループウェアが稼働。DBも同居。ゲストは8CPU/32GB
・高負荷なので臨時にホストをそのゲスト1台で占有使用させてる。ホストは12コア36GB
・高負荷時、ゲスト上でiowait30~50、ロードアベレージ7程度
・高負荷時、ホスト上でiowait20~40、ロードアベレージ4~6程度
・高負荷時でも、他のノードからNFS転送速度を計測すると普通に80MB/sとか出る(無負荷時で90MB/s程度)し、
他ゲストのパフォーマンスにはさほどの低下がみられない
・各物理危機はL2機器で直結
・NFSサーバーはほぼ吊るし設定。CPUもIOもtopで見る限りまったく余裕
こんな状態です。
460:login:Penguin
13/02/02 14:13:22.25 MLdeUHoW
NFSのマウントオプションはどうなってる?
syncかasyncでかなり違う。
NFSのバージョンも気になるけど、v3以降ならパフォーマンス面の不安はほとんど無いはず。
NFSってかなりオプションあるけど、いくつか押さえておけば基本的に吊るしでおk。
NFSクライアントで
nfsstat -m
NFSサーバで
exportfs -v
だったと思う、ステータスが確認できるお。
461:login:Penguin
13/02/02 16:52:24.68 wmtiBWeW
高負荷な時の、そのゲストに使用してるNFS転送速度ってのは
調べられないのかな。
462:login:Penguin
13/02/02 17:18:03.98 GmTgwL/U
そのゲスト上で
dstat -fd
入ってなければyumかrpmで
許可要るだろうけど、あると便利ですよ
463:login:Penguin
13/02/04 00:02:16.54 vfNYlBcm
Xeon E3-1270v2 で CentOS 6.3 の KVM で FreeBSD 9.1 amd64 のインストール
をしようとすると、カネールのロードのところでフリーズしてしまうのだが、
何が原因だろう…?
別メーカーの Xeon E3-1270v2 でも FreeBSD はダメ
Xeon E5-2670 では FreeBSD OK
E3-1270v2 でも Linux 系は問題無くブートする。。
464:456
13/02/04 01:48:38.64 AYy/M0Gd
>>459
すまん。テキトウなこと書いてしまった。ただ、load averageはなんか起きてるってのがわかるくらいで、原因の特定にはならないのでほかの指標見た方がよいですよ。
465:login:Penguin
13/02/05 01:37:12.13 ok1ZznSG
>>463
ゲストに見せるCPUの設定変えてみてもダメなのかな。ゲストのxmlの<model>xxx</model>のとことか
466:login:Penguin
13/02/05 09:57:39.94 ZH9FB+ON
>>465
Xeon E5 はデフォルトの cpu64-rhel6 でも SandyBridge でもどっちでもいけるんだけど、
Xeon E3 はどっちもダメです。
467:login:Penguin
13/02/05 19:51:00.76 8w4Y5+pZ
>>466
GPUまわりかな。いずれにしてもFreeBSD側でカーネルデバッグをしてみるといいだろう。
468:login:Penguin
13/02/05 23:59:12.79 ZH9FB+ON
>>467
Xeon E3-1270v2 なので、GPU 無しです。
Host で top とか sar でみると、CPU を 100% くってるので、どこかでループしてそうな感じです。
469:login:Penguin
13/02/06 20:36:09.06 aB8u49PF
何が原因か分からんね。物理に直接インストールしてみたり、仮想デバイス変えてみたりして地道に切り分けて行くしかないのかな
470:login:Penguin
13/02/06 20:56:38.01 44A2GJXi
>>469
物理だと問題無いんですよね。あと、KVM 無しの QEMU でも問題無かったです。
Xeon E3-1200v2 の仮想化支援機能に何か問題があるんじゃないかなーと思ってます。。
ひとまず、E5 を使うことで切り抜けたのですが、
他の方々は E3 で問題無く、FreeBSD 9.1 amd64 disk1 の起動できます?
471:login:Penguin
13/02/07 18:39:36.28 2mak0S6u
>>470
BIOSで何らかのオプションが無効になってるとか?
vなしのE3-1245にSL6.3の環境ですが
怪しい感じも無くインストール、ログインまでいけましたよ
472:login:Penguin
13/02/08 01:56:44.07 EJKL/a7r
>>471
CPUとしては全然別物
473:446
13/02/08 09:29:49.76 s+XsNCZ6
ちょっとなかなか高負荷にならず、間空いちゃってすいません。
>>460
rw,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,proto=tcp,timeo=56,retrans=2,sec=sys,
mountaddr=**,mountvers=3,mountport=58074,mountproto=udp,local_lock=none,addr=**
asyncは指定してません。デフォなのでおそらくsyncですね。
>>461
ddで100MBのファイルを5回書き込み、1MBのファイルを500回書き込みとやってみましたが
いずれもキャッシュに載ってしまって200MB/sとかです。
それ以上のサイズは、本稼働中なんでちょっと厳しいw
>>462
readが0~8000kで平均1000k、writeが0~5000kで平均1500kといった感じでした。
474:login:Penguin
13/02/08 09:58:47.24 sq66tPlr
>473
乙です。
NFSの引数はあまりわかってないですが、
今のところ、見せてもらった情報からは、
NFSがボトルネックのような内容見えてない気がします。
iowaitは気になりますが、コア8つでロードアベレージが
7ってことは、コア単位で言えば、待ちは1つ以下になるし。
使ってるグループウェアの仕様上のボトルネックみたいな
ものはないんでしょうか。同時接続数がいくつまで・・とか、
無駄にiowaitを生じさせるような動作をしてるとか・・・
475:login:Penguin
13/02/08 10:21:13.30 EJKL/a7r
>>473
NFSのオプションにいくつかイケてない内容があるです
それはクライアント側のマウントオプションだけど、
rsize=8192,wsize=8192 これもっと大きい数字にできる。
うちはrsize=1048576,wsize=1048576
mountproto=udp これ事故る元。
tcpに変えた方がいいです。
syncかasyncかはサーバ側で exportfs -v しないと解らないです。
そこに必ず表記が出ます。
476:474
13/02/08 10:26:33.85 sq66tPlr
NFSの引数について判らなかったために
随分適当なことを言ってしまったみたいですね、
すみません。
rsize, wsizeは昔は8192にするのは定石だったと思いますが、
今はもっとずっと大きいんですね・・・
477:login:Penguin
13/02/08 10:42:02.04 EJKL/a7r
NFSは枯れててあまり最新のネタって無いですからね、仕方ないと思います。
適当でも普通に動いちゃうし。
dstatの結果を見る限り、かなりディスクに負荷かかってるんじゃないかと思います。
ランダムアクセスで常時Read/Writeが1~2MB/sって、そこそこリソース食ってると思う。
ストレージの無負荷のDiskMark値がないとなんとも言えんけど、
HDD2台のRAID1構成のNFSサーバに、KVMゲストからDiskMarkしたときは、
4kランダムで1~4MB/sくらいでした。
RAID6遅いし、使ってるディスクの仕様が解らんけど、ストレージもある程度酷使されてると予想。
478:login:Penguin
13/02/08 10:46:20.85 onEADul2
>>475
proto=でなくmountproto=だからあまり問題ないんでは?
479:446
13/02/08 10:57:16.80 s+XsNCZ6
何度もありがとう、参考になります。
>>474
メーカーにさんざん調べさせた結果、もうどう叩いてもこちら側の問題ではなく
サーバー側ディスクIOパフォーマンスの問題である、というのが最終回答でした。
実際、仮想化物理ホストのローカルHDDに載せてしまえば、現スペックでも
こんな程度のユーザー数、アクセス数は余裕で裁ける程度なんですよね。
>>475
なるほど、rwsizeは拡大方向で、計測しながら変更してみます。
mountprotoは無指定なのでデフォ値ですね。これもtcpに変えたら
どれくらいパフォーマンスが落ちるかを計測しつつ検討してみます。
ちなみにfstabのマウントオプションは rsize=8192,wsize=8192,timeo=56,hard,nointr です。
で、nfsサーバー側でexportfs -v をしたところ、asyncでした。
<world>(rw,async,wdelay,insecure,no_root_squash,no_subtree_check)
実際nfsサーバー側で見てる限り、iowaitなんか全くないし
その他負荷もさっぱりなんですよね。
深夜の無負荷時にhdparmでも実行してみます。
480:login:Penguin
13/02/08 10:59:43.83 EJKL/a7r
これは確かにネタが少なくて調べるの大変なんですが、
NFS マウントオプション tcp
これでぐぐったら出てくるよ。(修行中とか言われてリンク貼れなかったorz)
この辺りに書いてあるです。
481:login:Penguin
13/02/10 01:50:32.82 LJwjzQu7
さくらとかの、VPSってKVMつかっているんでしょ
仮想マシンイメージファイルのダウンロード、バックアップって、許可されていないんだろうか
482:login:Penguin
13/02/10 22:37:49.70 UUWVgmws
自分でバックアップとったのをダウンロードして
手元のkvmで動かしたけど、許可必要だったのかー
483:login:Penguin
13/02/10 23:26:32.03 LJwjzQu7
>>482
仮想マシンイメージファイルのレベルで、ダウンロードできるんだ?
484:login:Penguin
13/02/10 23:44:05.39 V8FzsEi4
仮想マシンイメージのダウンロード、アップロード機能提供したら、
-ちょっとでも価格の安い事業者へユーザーが引っ越しちゃう
-繁忙期以外にも無駄に契約させておく事が出来なくなる
なので、余程自信のあるところ以外はやらないでしょ
一応、Amazonが(Xenだけど)提供してたはず。他は聞いたこと無い
485:login:Penguin
13/02/11 00:31:05.13 Cpvy0uGk
さくらのクラウドは対応してるよ。
486:login:Penguin
13/02/11 14:07:29.26 3/TB2HI+
>>485
じゃ、自宅のKVMで仮想マシンをつくったのを、
さくらVPSでそのままアップロードしてつかえるのかな?
487:login:Penguin
13/02/11 15:06:50.87 Cpvy0uGk
>>486
VPSはできない。
488:login:Penguin
13/02/11 19:36:49.11 3/TB2HI+
○さくらのクラウド
×さくらのVPS
同じものだと思っていました。
ちがうってことですね?
489:login:Penguin
13/02/11 19:37:53.74 3/TB2HI+
クラウドの定義ってあるんですか
VPSのことがクラウドだと思っていた
490:login:Penguin
13/02/11 19:41:52.54 u2cb6J4c
ぐぐればすぐわかることをいちいち聞くキチガイは
死んだほうがいいと思うよ。
491:login:Penguin
13/02/11 19:46:46.29 3/TB2HI+
K O W A I !
492:login:Penguin
13/02/16 00:39:37.80 dPtclbyw
KVM使ってて、たまにVirtual Machine Manager越しに
This usually means that QEMU or KVM is not installed on your machine, or the KVM kernel modules are not loaded.
って出て新規ゲストが作れなかったり、マイグレーション出来なくなることってない?
調べてもわかんねーんだが。
ログにもたいした内容出てないし。
493:login:Penguin
13/02/22 14:23:41.62 2+V5LRUA
ホストとゲストに同じディスクの同じパーティションをマウントしてます.
片方でそのパーティションを変更しても,もう片方ではその変更が
同期されないんですけど,同期させるにはなにかオプションとか
必要ですか?
494:login:Penguin
13/02/22 16:52:21.66 Zu99WWbz
何がどうなってんのか詳しく書かないと解らんです。
どうやってマウントしてるのか、ゲストのOSは何なのか、
何をマウントしてるのか。
495:login:Penguin
13/02/22 17:04:47.58 2+V5LRUA
>>494
どうも,詳しく書かせてもらいます.
OSはホスト,ゲスト共に Debian squeeze です.
「ホストの /dev/sdf というディスクをホスト,ゲスト両方で使いたい」というのが目的です.
/dev/sdf は3TBのHDDでパーティションは1つのみ,ファイルシステムはext4でフォーマットしてます.
ホストでは普通に
host# mount /dev/sdf1 /mnt
でマウントしていて,中身がきちんと見れます.
ゲストの方は,libvirt で /dev/sdf を disk device として接続しており,
ゲストでは /dev/vdd として認識されています.これで
guest# mount /dev/vdd1 /mnt
とやると普通にマウントができて,最初にマウントした時は両者とも
/mnt 内のファイルは一致していました.
しかし,片方で新しいファイルを作ったり削除しても,もう片方のほうでは
それが反映されません.というのが問題点です.
mount のオプションかなー,とおもって どちらのマウントも sync にして見ましたが,
結果変わらずでした.なにかご意見お願いします.
496:login:Penguin
13/02/22 17:15:57.85 2+V5LRUA
また,/dev/sdf のディスク以外もゲストに接続しているので,
そのディスクでもホスト,ゲスト両方でマウントして,
同様に内容を編集してみましたが,やはり内容の編集は
反映されませんでした.特定のディスクの問題という
わけではないようです.
今までは各ディスクはゲストのみで使うようにしていて,
ゲスト,ホスト両方で使う用途がなかったので気づきませんでした.
497:login:Penguin
13/02/22 17:20:25.80 2+V5LRUA
連レスすいません.
詳しいバージョンを書いておきます.
デフォルトの sueeze の kvm と libvirt が古かったので,
backports の新しいものをインストールしています.
カーネル: 2.6.32-5-amd64
kvm: QEMU emulator version 1.1.2 (qemu-kvm-1.1.2+dfsg-5~bpo60+1, Debian)
libvirt: 0.9.12
498:login:Penguin
13/02/22 18:27:41.60 Xu/vRH7T
共有想定してないファイルシステムを複数箇所からマウントすると壊れないか?
499:login:Penguin
13/02/22 19:10:09.21 4MroaQFK
クラスタファイルシステム使わないとダメかと。でもNFS使った方がお手軽かも
500:login:Penguin
13/02/22 19:37:40.04 2+V5LRUA
>>498-499
なるほど,同時マウントってやってはダメなんですね.
やりたいのは,ホストで録画したファイルがあるディスクを
ゲストの SAMBA サーバで共有したいんですよね.
ホストにはできれば,SAMBA 入れたくなくて.
とすると,
ホストで NFS 共有 -> ゲストで NFS マウント -> ゲストで SAMBA で公開
になるのかな.ややこしや.
501:login:Penguin
13/02/22 23:15:16.12 wscWw5WI
KVMでvirtualbox用のかそーディスクの.OVAを
インポートして使えたりできないんですかね?
502:login:Penguin
13/02/22 23:27:42.43 7MDnyQx1
>>500
なんでやねーん
503:login:Penguin
13/02/22 23:59:52.44 2+V5LRUA
>>502
え,だめだった?
NFS 共有できない Windows マシンとかもあるから SAMBA で
公開したいんだけど.あとユーザ認証したいし.
504:login:Penguin
13/02/23 00:01:52.48 H0h2xM9L
sambaで共有したいけど、ホストにsamba入れたくないならそれでおkなような
505:503
13/02/23 01:34:08.38 VIKqv7zQ
ちょっと考えなおして,
ゲストでディスクをマウント -> ゲストで SAMBA 公開 -> ホストで smbmount してそこに録画
のほうがいいかと思い始めた.
で,ちょっと聞きたいんだけど,
SAMBA 公開するゲストが起動したタイミングで,
自動的にホストに smbmount させることってできるかな?
ゲストからホストの操作って可能?
506:login:Penguin
13/02/23 02:03:49.17 K/wRctdB
>>505
そうそう
ゲストからホストを操作するのも色々やりようはある気がする。例えば、ssh使う方法。
1. ゲストでssh-keygenして空パスフレーズで鍵ペア作る
2. ホストのrootのauthorized_keysにゲストの公開鍵を追記
3. ゲスト起動時に下のようなスクリプトが走るようにする
# ssh -l root ホスト mount XXX
これで一応できるはず。もちろんsambaの認証が自動でされるようにホストの/etc/fstabなりに予め設定しておくのは前提ね。
507:login:Penguin
13/02/23 02:34:17.03 VIKqv7zQ
>>506
うむ,やっぱり ssh か.まあそれが楽か.
ホストの fstab に書いちゃうとホスト起動時にマウントしようとして,
ゲストの SAMBA サーバが起動していないからマウントに失敗すると思うんだが.
fstab でマウントはせずに認証だけすることってできるの?
508:login:Penguin
13/02/23 02:39:18.19 K/wRctdB
mountオプションにnoautoでいけるんじゃないかな
509:login:Penguin
13/02/23 02:51:04.94 VIKqv7zQ
>>508
おー,なるほどー.そんなオプションがあったのか.
ごめんなさい,mount のオプション多すぎてよく覚えとらん.
アドバイスありがとう.その方針でやってみます.
510:login:Penguin
13/02/23 14:06:52.17 ZRdOiKVb
ここにあんま書かれないけど、KVMもかなり新機能出てきてるっぽいね。
511:login:Penguin
13/02/23 15:38:53.21 VbcJVGPt
>>510
例えば?
それにしても、企業がqemu-KVMなんて使うとは思えない。
512:login:Penguin
13/02/23 15:50:29.21 YSd8r4L6
無知を自慢されても困りますぅ
513:login:Penguin
13/02/23 19:36:10.49 pxCX6VeX
>>511
514:login:Penguin
13/02/24 00:42:57.68 Kk3axBme
よっこら
性能を改善したオープンソースのエミュレータ「QEMU 1.4」が公開 - SourceForge.JP Magazine : オープンソースの話題満載
URLリンク(sourceforge.jp)
515:login:Penguin
13/02/24 09:58:37.40 poWB60P8
>>511
>>511
>>511
>>511
またおまえか
516:511
13/02/24 13:04:25.61 TrfgiyV9
さくらVPSってのは、qemuっぽいみたいですね。失礼いたしました。
517:login:Penguin
13/02/24 13:17:29.57 VH5HcKPu
いやいや、思うのは勝手だからいいですよ
だたあんま偉そうにすんな
518:login:Penguin
13/03/08 23:23:58.14 AeeaW3/j
一台のサーバーにkvmでホストOSとしてdebianとWindowsServerを入れて、 両方Webサーバを動かそうとしてるんだけど
2つのホストOSそれぞれに違うドメインを割り当てたいんだけどそういう 事できる?
ホストでapache動かしてバーチャルドメイン使えば手っ取り 早いんだろうけど
サイトをまとめて運用したくないし、一つはIISじゃないと困った事になるの で・・・
519:login:Penguin
13/03/08 23:34:46.96 1loOFSwU
>>518
>2つのホストOS
はい?
520:login:Penguin
13/03/09 00:21:39.14 1EKqgfpG
きっとマルチブート環境
521:login:Penguin
13/03/09 00:49:32.66 0yK7mC13
kvmなんか使わなくても、iisでよくね?
なんで1台のwebサーバで2サイトやりたくないのか解らんけど、
ホストヘッダー設定したら目的は達成できるでしょ。
全然問題ないからやってみ。
522:login:Penguin
13/03/09 02:29:55.08 g5Zjov3F
2つのゲストOSの間違いだったしにたい。
素直にiisでやります。
523:login:Penguin
13/03/11 23:24:25.85 G6kbvRfs
qemu-kvmを-no-kvmオプションでVBOX上のCentOS6で動かしたいのですが可能ですか?
virshや、virt-managerからはkvm-intel or kvm-amdがないのでエラーとなっているようです。
長いオプションを指定して起動するしか方法がないでしょうか?
524:login:Penguin
13/03/13 20:28:30.25 ddqrRsai
vmのネストをやりたいんだと思うけど、
条件をぶった切って、
ホスト機→vmware player→fedora17以上→kvm
なら実現できるはず。
バーチャルボックスが仮想化支援を引き継げるなら、バーチャルボックスでもおk
Cent6でもネストは可能だけど、マンドクセので勧めません
上記はできるはずってだけで、自分もこれから実施予定
525:login:Penguin
13/03/13 20:38:54.33 SHSmxLbV
ごめん、ボケてました。
ホスト機→VMWwarePlayer→Cent6→KVM
これでOKだね。
VMWwarePlayerなら仮想化支援引き継げます。
526:login:Penguin
13/03/14 01:35:34.78 1pgF5NI7
>>525
VMPlayerでできました。ありがとうございます。
527:login:Penguin
13/03/28 11:24:35.73 0oUKlWo6
CentOS6.3 x86_64にyumでKVM入れたんだけど
qemu-nbdはどこにあるんでしょ?
リポジトリあれば教えてください
528:login:Penguin
13/03/28 21:51:20.93 LU0XAv6w
"qemu-nbd centos"はぐぐってみたの?
529:login:Penguin
13/03/29 12:03:55.21 xPDMNO1O
ググっても出てこないですねぇ
# yum list | grep qemu
gpxe-roms-qemu.noarch 0.9.7-6.9.el6 @anaconda-CentOS-201207061011.x86_64/6.3
qemu-guest-agent.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-img.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-kvm-tools.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
qemu-guest-agent-win32.x86_64 2:0.12.1.2-2.355.0.1.el6.centos.2
EPELにもないみたいです
530:login:Penguin
13/03/29 16:22:31.03 xPDMNO1O
qemu-nbdなさそうなのでソースからコンパイルしました
お騒がせしました
531:login:Penguin
13/03/29 19:54:55.00 ndurgvQR
なんか殺伐
532:login:Penguin
13/03/30 13:05:23.09 ee0pZ3h1
>>529
パッケージの名前に「nbd」が入っていると思い込んでるから見つからないんじゃ
今5分くらい探したらRHEL6用のこーゆーのは見つかったよ
Content of RPM :
(中略)
/usr/bin/qemu-mips
/usr/bin/qemu-mipsel
/usr/bin/qemu-nbd
/usr/bin/qemu-ppc
/usr/bin/qemu-ppc64
533:login:Penguin
13/04/06 08:09:27.87 oUfXD2kP
ググって単語さえヒットすれば存在するという・・・
なんというかとてもメルヘンで幻想的な・・・
534:login:Penguin
13/04/06 22:34:54.25 5/9SBv43
つか
普通に RPM Search で検索したら
10秒で見つかるじゃねーかw
535:login:Penguin
13/04/23 02:01:30.43 KJdVms1h
すんません質問です
KVMで稼働中のゲストイメージファイル(raw)を停止させずにバックアップ取りたいんですが
普通にcpしても壊れますよね
LVMとかFS側でスナップショット撮ってコピーする手段が適当でしょうか?
もし他に方法があれば教えてください
536:login:Penguin
13/04/23 08:43:00.41 EGsKWz2v
VMレベルでIOをサスペンドして、スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいいよ。
理想的にはVM上のOSにもちゃんとフラッシュしてもらうか、書き込みをordered writeでしてるようにしとくべし。
537:login:Penguin
13/04/23 09:34:06.19 KJdVms1h
すみません
>>スナップショット取って、それをコピーしつつサスペンドは解除。コピーが終わったらスナップショット統合して単一イメージ構成に戻せばいい
がよくわからないんですが、つまりどういうことでしょうか?
538:login:Penguin
13/04/23 16:25:17.11 EGsKWz2v
流れとしては
1. VMが例えばイメージファイルfoo.img上で動いている
2. スナップショット分岐させ、foo-snap.img(backing store: foo.img) 上で稼動する状態にする
3. 書き込みはfoo-snap.imgにしか反映しないので、foo.imgは(ゲスト側の問題を別にして)安全にコピーできる
4. コピーが終わったら、foo.imgにfoo-snap.imgの内容を書き戻す
5. foo-snap.imgの内容をfoo.imgに書き戻す形で再統合し、VMもfoo.img上で動くように構成を戻す
ということ。
昔やったときは結構面倒だったけど、いまだとsnapshot_blkdevとblock_streamで1-5に近いことはできると思う。あと、もっと簡単かつ柔軟にする方法も今後出てくる予定だったはず。
539:login:Penguin
13/04/23 20:26:42.05 6kq/oZZ+
Rawってスナップショットとれるん?
Qcow2だけかと思ってた。
LVMでスナップショットとるのが良いような気がする。
540:login:Penguin
13/04/23 22:33:26.30 EGsKWz2v
そりゃゲストOSかホストOSの中でそういう操作ができるのなら、
アプリのスナップショット機能使う理由はあんまりない。
541:login:Penguin
13/04/25 00:54:12.31 ll+bCTSm
ありがとうございます
rawはqemuではスナップショット撮れないって認識あったんですが(実際試したことはないです)
スナップショットとれるFSなりLVMなり低い層でのバックアップをしたほうがよいってことですね
マイグレーションついでにデュプリケートもしてくれるような機能あったら大歓迎なんですけどね
542:login:Penguin
13/04/28 21:48:57.77 TIPSb/v1
長文失礼します。
当方KVMでiscsiを使って共有ストレージを組もうとしています。
多分一般的だと思っているのですが、例えばKVMホスト2台、ストレージ1台の構成で、
ストレージはiscsiターゲット、KVM2台はイニシエータとします。
OSは全てCentOS6.4 64bitで、ゲストのイメージはストレージに置きます。
1台のKVMから新規ゲストを作って、それをライブマイグレーションすると、
マイグレーションは完走するんですが、ゲストのディスクが見えなくなってしまい、
ゲストがIOエラーを吐きます。
iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
原因は他方のKVMホスト上のストレージプールにデータが認識されていないためかと思います。
(それなのに、なんでマイグレーションが完走するのか謎)
iscsiは多対一の構成を推奨していないようですが、KVMではどうやって導入したらよいでしょうか。
現在は共有ストレージでNFSを使っていますので、NFSのような挙動を望むのですが、
中々上手いこといかずに悩んでおります。
543:login:Penguin
13/04/28 23:43:13.33 g0SfUFFc
>>542
> iscsiは全てコマンドを使って設定し、最終的に各KVMホストでローカルディレクトリとして認識させています。
こわれるのあたりまえ。
ブロックデバイスそのままつかいな。
544:login:Penguin
13/04/29 06:21:39.09 huGBYEKF
エスパーありがとうございます。
その辺りの手順をきちんと書いてなくてすみませんでした。
ターゲットホスト上でscsiターゲットの設定
↓
イニシエータからターゲットを参照
↓
イニシエータからターゲットにログイン(fdisk -l で認識OK&パーティション切り)
↓
イニシエータホスト上で、認識したブロックデバイスをフォーマット
例:mkfs -t ext4 /dev/sda1
↓
イニシエータホスト上で、ファイルシステムにマウント(df -h で確認できるようになる)
例:mount /dev/sda1 /mnt
↓
virt-managerを使ってローカルディレクトリとしてプールに追加
という手順で行っていました。
今度はブロックデバイスでそのままプールに追加という手順でやってみます。
また結果報告しますmm
545:login:Penguin
13/04/29 11:19:03.02 QbAX9dsD
ホスト2台から同じiSCSIボリュームをマウントして使うってことよね
iSCSIのボリュームを複数台から共有する場合は、ext4じゃなくて共有に
対応したGFS2みたいなファイルシステム使わないとダメなはず。
URLリンク(aikotobaha.blogspot.jp)
同じ事やってファイルシステムぶっ壊したのでiSCSIペンディングしてるw
546:login:Penguin
13/04/29 11:57:13.04 huGBYEKF
こんにちは、542です。
>> 543
> ブロックデバイスそのままつかいな。
これはつまり、ストレージ側でVMのイメージをddやqemu-imgなんかで予め作成し、
そのイメージファイルをscsiターゲットとして共有するという理解でOKでしょうか。
/etc/tgt/targets.confの内容を書くと、
<target iqn.2013-04.com.iscsi-tgt:tgt>
backing-store /mnt/test.img
backing-store /mnt/foo.img
backing-store /mnt/hoge.img
・・・
・・
・
write-cache off
</target>
というように、新しいVMを作るたびに書き連ねて行くと。
なんかかなり面倒な感じですが、誤解してますか?
547:login:Penguin
13/04/29 12:05:45.08 huGBYEKF
>> 545
アドバイスありがとうございます。
取り合えず上のやり方でイメージを作って、
それにインストールしたゲスト上で設定変更やマイグレーション、再起動、シャットダウンなんかは上手く動いたっぽいんですが、
新しいVMのイメージ追加なんかが上手くいかない状態です。
(これはiscsiの使い方判ってないだけだと思います)
VM起動したままtgtdのリスタートや、イニシエータでログアウトなんかをしてたら、VMのイメージが壊れたっぽいですが。
どこかに設定を持ってるのか、今までの情報を保持してるような挙動で、
VMのイメージファイルパスをtargets.confに書き足したら、元からあったのが表示されなくなってしまったり。
ここら辺はスレチですが。
なんか、かなり斜め上いってる予感。
548:login:Penguin
13/04/29 21:59:33.10 huGBYEKF
こんばんは、542です。
なんとか形になった(?)ので、ご報告いたします。
まずiSCSIターゲット(ストレージ)での作業
/mntにゲスト用イメージ作成
# dd if=/dev/zero of=test0.img bs=1M count=10000
/etc/tgt/targets.confに以下を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
# /etc/init.d/tgtd start
次にイニシエータ(KVMホスト)での作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIP 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-0
virt-managerからiscsiストレージをプールに追加
ターゲットパス:/dev/disk/by-path
ホスト:ターゲットのIPアドレス
ソースパス:iqn.2013-04.com.iscsi-tgt:lun-0
これで追加が完了するはず。
549:login:Penguin
13/04/29 22:04:24.97 huGBYEKF
続いてゲストイメージの追加方法。
ターゲットで新しいイメージファイルを作る。
# dd if=/dev/zero of=test1.img bs=1M count=10000
/etc/tgt/targets.confに新しいターゲット分を追記
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img
write-cache off
</target>
<target iqn.2013-04.com.iscsi-tgt:lun-1>
backing-store /mnt/test1.img
write-cache off
</target>
confのアップデート
# tgt-admin -update ALL
イニシエータでの作業
# iscsiadm --mode discovery --type sendtargets --portal ターゲットのIPアドレス 127.0.0.1:3260,1 iqn.2013-04.com.iscsi-tgt:lun-1
上と同じ要領で、virt-managerからiscsiをストレージプールに追加。
こんな結論に至ったんですが、もっと良い方法ないですか・・・。
550:login:Penguin
13/04/30 01:17:07.34 Ls3ntxnl
どうしてもiSCSIにこだわるならclvm使うかな
でもNFSのが楽だよ
551:login:Penguin
13/04/30 08:09:39.48 lMty1lR3
おはようございます。542です。
ゲストのディスクIOの帯域制限をしたくて、
cgroup→iscsiと行き着いたんです。
NFSだと、ホストから見るとネットワークIO扱いですよね。
552:login:Penguin
13/04/30 09:49:11.09 K8i5YuLi
>>549
ターゲットも LVM 使ったほうがいいよ。
553:login:Penguin
13/04/30 10:41:37.16 lMty1lR3
こんにちは、542です。
>>552
ありがとうございます。
お恥ずかしながらLVMをほぼ使ったことがなくて、
virt-managerでどう使えばよいのか全くイメージが湧かないのです。。。
LVMスナップショットなんかが便利そうなので、目下勉強中なのですが、
具体的にどういう手順になるんでしょうか?
自分が書いたような、ファイルを作ってそれをiSCSIターゲットにするのは模範解答じゃないと思うので、
LVMで倫理パーティションを切って、ファイルを作らずにその領域をそのままターゲットとして共有するという認識になりますか?
/etc/tgt/targets.confの書き方で言うと、
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /mnt/test0.img <-- ext4ファイルシステム上の1ファイル
write-cache off
</target>
↓
<target iqn.2013-04.com.iscsi-tgt:lun-0>
backing-store /dev/vg_target00/lv_target00 <-- 論理ボリューム
write-cache off
</target>
みたいな書き方になると。
554:login:Penguin
13/04/30 10:54:30.56 K8i5YuLi
>>553
それで、OK
555:login:Penguin
13/04/30 11:41:49.19 lMty1lR3
>>554
大きなヒントをありがとうございます。
リトライして、また結果報告しますmm
556:login:Penguin
13/05/04 23:21:46.12 jGMt74IN
kvm上にXP入れてqxlドライバ入れてspiceで動かしてみたがやっぱ
windows使うならvmwareの方がいいな
557:login:Penguin
13/05/05 09:35:10.63 2fREtWNb
WindowsならRDP使えばいいじゃん
VMwareでも普通そうするだろ
558:login:Penguin
13/05/06 03:11:04.66 YM4l0zXI
KVMでVMwareのvCenter Server+Clientみたいに、複数のKVMホストをまとめて管理できるツールはまだないの?
OpenStackとかCloudStackは違うっぽいし・・・。
oVirtというのにあたったけど、現状Fedora限定みたいなので、そういうツールがあったら教えて欲しい。
できればUbuntuで動作するもの。
559:login:Penguin
13/05/06 09:46:32.79 xn6mUUYh
>>558
virsh
560:login:Penguin
13/05/06 11:12:31.93 Sm68VQ/P
>>558
oVirtで良いんじゃない
URLリンク(www.ovirt.org)
561:login:Penguin
13/05/06 13:43:07.44 YM4l0zXI
558です。
>>559 >>560 ありがとう。
皆詳しいな。VMwareのスレとは雰囲気が違う。
562:login:Penguin
13/05/06 16:28:51.54 I0TfZVDW
探すと結構あるから色々試して自分に合ったの使うといいよ
563:login:Penguin
13/05/06 17:28:37.32 5DS/UBKc
>>557
SPICEはGNOME?向けかな
564:login:Penguin
13/05/06 19:53:14.64 M8Arsomv
Xでドライバ持ってるからGNOME関係ないんじゃ
565:login:Penguin
13/05/06 23:46:02.22 5DS/UBKc
ん!どういうこと?
566:login:Penguin
13/05/07 19:49:10.05 VCDV4BQZ
>>565
URLリンク(www.linux-kvm.org)
URLリンク(spice-space.org)
SPICEは従来の仮想デスクトッププロトコルと違って、マルチモニタとか動画再生支援・リモートUSB対応とかWindowsゲストでもいろいろ便利
567:login:Penguin
13/05/08 10:14:54.72 VM9WDrCF
えーっと、RDP……
568:login:Penguin
13/05/09 15:04:13.10 t1+IozcG
>>558
ProxmoxVE
569:login:Penguin
13/05/13 09:01:46.97 P1qbqJQM
こんばんは、542です。
おかげさまで、LVM+DRBD+iSCSI+KVMの組み合わせが上手くいきそうです。
ところでDRBDのソースデバイスとしてLVMを使い、セカンダリノードでスナップショットのバックアップを取ってやろうと目論んでみたのですが、
そのLVMをどう扱えば中身が見えるのか首を傾げている状態です。
やっていることはこうです。
/dev/sda4からLVを切り出します。
仮に/dev/test/drbdとします。
で、その切り出したLVをソースのブロックデバイスとして、DRBDを構築します。
仮に/dev/drbd0とします。
さらにそのDRBDをブロックデバイスとして、VM用のLVを切り出して生のままVMに使わせます。
ちょうどDRBDがLVでサンドイッチされているような状態ですが、この状態で/dev/test/drbdのスナップショットを撮れば、
セカンダリノード側で/dev/drbd0のバックアップが取れると思うのですが、どのようにして良いか考えあぐねております。
/dev/sda4や/dev/test/drbdはフォーマットされていないので、そのままマウントできるはずもないですよね?
ddでそのまま書き出して、擬似環境に戻すくらいしか思いつかないんですが、やられてる方、どうやってやってますか?
570:login:Penguin
13/05/16 16:14:30.78 PhyXXppx
kvmホストをCentOSから入れ替えようと思うんだが
ubuntu serverとfedoraどっちがいいかな。
571:login:Penguin
13/05/16 18:57:17.90 +H2FmqS6
CentOSになんか不満があるの?
572:login:Penguin
13/05/16 19:04:54.82 PhyXXppx
>>571
Kernelを入れ替えないと、Intel nestedが使えないのと、
Openvswitchが標準でないところが不満。
573:login:Penguin
13/05/17 00:06:40.26 P+GQKeHR
>>569
スレリンク(linux板)
574:login:Penguin
13/05/25 00:37:13.16 XbYcB/9E
>>569
セカンダリでそれやるには、プライマリとセカンダリの接続を切らねばならない。
プライマリでやっとけ。
575:login:Penguin
13/05/25 02:47:29.87 jBR2M8yZ
>>568
ありがとう。vSphere Web Clientっぽいですね。試してみます。
576:login:Penguin
13/06/02 21:28:34.99 /QpfH3F2
KVMでwin2003やwin xp を動かすと、
Win側で何もしてなくても(通信やデスクトップ表示)、
ホストのCPU使用率がかなり上がってしまうんですが、
これってゲストOSの問題なんですかね?
CentOS6やUbuntu12を動かしてもこういう現象は起きません。
577:login:Penguin
13/06/04 03:45:44.85 3XWHXsTr
ブリッジ(物理NIC無し)に2ノード以上の仮想マシン追加すると
うまくルーティングできなくなるのですが原因解る人いますかね。
br0(eth0) ----+---- br1(eth1)
.|
+---br2----+
| .|
tap0(VMA) tap1(VMB)
こんな感じで br0(eth1)をWANと想定してしてbr0/br2からのトラフィックをSNATしようとしてるのですが、
br0->br1 は問題無くとも tap0/1 -> br1 をルーティングする場合に iptables でログを取ると PHYSOUT=tap0/1
になってしまいパケットがSNATされずにbr1(eth1)に出ていってしまうという状況です。
ちなみにVMA/VMB何れかをシャットダウンすると PHYSOUT=br1 となり想定した通りにルーティング
されるようになります、br0->br1 については問題ありません。
(br0にも何台かVMをぶら下げていますが、こちらはbr2の様な挙動をする事はありませんでした)
KVMではなく物理NICの有り・無しに起因するブリッジの問題だと思うのですけど質問させてください。
578:login:Penguin
13/06/04 10:43:47.14 DxL9xcFl
KVMのVGAパススルー、苦労したけど動いたぜ。
苦労したのはVT-dが動くハードの調達だけだったがな。
579:login:Penguin
13/06/04 11:54:24.95 T3vfCEGl
ASRockにしたの?
580:login:Penguin
13/06/04 12:18:42.36 njnMhcQm
HWとSWの構成も書き記してくれると嬉しいんだよ
581:login:Penguin
13/06/04 19:35:31.72 v6juovnj
kvmスレッド、盛り上がってきたな
ユーザーがだんだん増えてきたのかな
582:login:Penguin
13/06/05 15:53:04.75 ZwfxmbMA
VGAパススルーならML110 G7(C204)+XeonE3(1235)+HD7750でWin8動いたぞ
HD5850は駄目だった拡張ROM読めんのが原因っぽいXもWinもダメ