11/05/18 09:25:51.35 72ckzrEG0
レス、どぉも
>>746
仮想マシンのプロパティ - ハードウェア - シリアルポート - 接続 で、「物理シリアルポート」が指定できるので、いけるのかと思ったんだけどなぁ
>>417 では出来ている、と読めるんだけど
>>750
SU700J には USB インターフェースがない...
USBシリアル変換ケーブルって使える?
752:750
11/05/18 09:44:38.32 fy2kDIW40
>>751
USBシリアルか、その発想は無かった。試してみる
手持ち機材はML110G6,SUA500JBでESXi4.1U1
753:名無しさん@お腹いっぱい。
11/05/18 11:11:23.76 7NNfzbGE0
>>751
こんなの発見
URLリンク(kb.vmware.com)
ESXiではサポートしていない、と書いてあるように読める。
USBパススルー機能を使ってUSBシリアルを仮想マシンに割り当てたことなら俺もある。これは特に何もハマらなかった。
754:750
11/05/18 11:16:38.59 fy2kDIW40
今試す事出来ないんだけど
KB Article: 1030667
なんてのも邪魔してんのかなと
デフォルトで有効らしいし
755:名無しさん@お腹いっぱい。
11/05/18 19:08:10.93 n8/tWgDu0
SmartUPS700で、USBシリアル変換とUSBバススルーでvMAにいれたapcupsdと通信できてる。
特に問題なかったから、変換アダプタのドライバが汎用でいけるなら大丈夫なんじゃない?
756:名無しさん@お腹いっぱい。
11/05/18 21:40:44.65 wtcqhvH90
利用中のPCを丸ごとVMware形式の仮想マシンへ変換「VMware vCenter Converter」
URLリンク(www.forest.impress.co.jp)
757:名無しさん@お腹いっぱい。
11/05/18 22:17:27.66 624JCqEy0
何をいまさら?
758:名無しさん@お腹いっぱい。
11/05/18 22:33:09.67 QgoNJXIE0
かなーりいまさら
759:名無しさん@お腹いっぱい。
11/05/18 22:54:44.75 GpBEEbCBi
>>756が痛い子だと思ったら日付見てコーヒー噴いたわ
せめて最新版のコンバータ…
760:名無しさん@お腹いっぱい。
11/05/18 23:03:29.73 J9x0yVnL0
True Imageで作ったイメージをインポートできないっていう不具合は直ったのかな?
761:750
11/05/18 23:15:14.16 7h5ZpI1s0
>>755
RS232Cでやってみませんか?
USBデバイスって抜き指しするUSBポート場所変えると
デバイス毎消えるんだけど家だけ?
VIclientで治すのメンドクサイ
762:名無しさん@お腹いっぱい。
11/05/18 23:35:28.53 624JCqEy0
>>760
インポートできてるけど?
763:名無しさん@お腹いっぱい。
11/05/19 01:15:45.15 t3wEVcq10
>>751
あまり関係ない気はするが仮想マシンのBIOS設定のUARTまわりいじってみたら?
764:名無しさん@お腹いっぱい。
11/05/19 08:36:32.35 5RbQ412q0
まとめてレスで失礼
>>753
あぁ、これは「ESXiでは無理」の決定打かな?対象の Product Version にも含まれているしね
あと、実績ありのUSBシリアルの製品教えて
>>755
レポありがと
こちらも、USBシリアルの製品教えて
USBシリアルはvMAつまりCentOS 5.3(x86_64)で認識できれば使えるってことかな
>>750
情報ども
Misc.LogToSerialはデフォ有効だけど、VMKernel.boot.logPortがデフォ空で結局無効、と理解したけど
LogToSerialを0にしてやってみたけどだめだった
>>763
Advanced - I/O Device Configuration - Serial port A: ならやってみたことある
Auto を Enabled にして、Base I/O address を選択することしかできないけど、他にもいじれるとこある?
753 で結構諦めモードだけどね
765:名無しさん@お腹いっぱい。
11/05/19 11:52:48.50 pxpTlkaK0
なんだかわからんが、APCとその他のUPSをESXiホストにRS232Cで接続して、vmにシリアルデバイス追加して、普通にUPSの状況モニタできてるが。
そういう話じゃない?まぁ動かない→あきらめて別の方法という判断は正しいが。
766:名無しさん@お腹いっぱい。
11/05/19 13:12:56.33 5RbQ412q0
>>765
そういう話なんだが...
となると 753 の KB は間違ってる?
よければ、ESXiのバージョン、有償/無償、ホストサーバーの型式等晒して
767:名無しさん@お腹いっぱい。
11/05/19 13:21:59.06 wvYz7jAD0
>>766
765ぢゃないけど、私もホストの
シリアルポートをvm から使えて
ます。
esxi 410 260247
primergy rx 300s4
win nt ( vm )
サポートしてないってだけでは?
768:名無しさん@お腹いっぱい。
11/05/19 15:20:52.02 1ztYqgDVP
昔聞いたけどAPCのUPSはRS232と仕様が違うと聞いたことがある
ケーブルも専用のじゃないとダメとかなんとか
769:750
11/05/19 17:24:10.13 5a4JRC+m0
ダメなの共通はML110G6だからiLOのせい?
Serial over LANなんて機能もあるですよね(設定してないけど
>>768
当然、UPS添付の黒ケーブルが必要
770:名無しさん@お腹いっぱい。
11/05/19 19:16:05.78 5RbQ412q0
>>767
ありがと
>>769
745 に投稿したとおり、ML110G6 直接だと問題なかったんで「ESXiな何か」かなと
ここにもML110G6でNGな人が居た
URLリンク(communities.vmware.com)
回答なしだね
771:名無しさん@お腹いっぱい。
11/05/19 19:59:17.66 1TjqZwiZ0
>>766
4.1u1 無償 SC840 SC1435 ML115G1 RX200S3ほかhp,sun,ibm調べるのめどい
ホストのBIOS工場出荷にもどしてWinのVMいれてダメならそのマシン以外つかえば
772:名無しさん@お腹いっぱい。
11/05/19 20:18:27.48 UPd8NkDL0
>>764
>>755だが、使ったのは「ELECOM UC-SGT USB to シリアルケーブル」
実際には「PL2303」ってチップが使われているものならほぼ標準で認識するから、
安価に済ませたいなら秋月とかにもあったような
ESXな自作機の背面端子にシリアルが無かったからパススルーで対応してる
773:名無しさん@お腹いっぱい。
11/05/19 20:33:14.10 whHp1rmk0
vt-d対応じゃないとダメじゃなかったっけか
774:名無しさん@お腹いっぱい。
11/05/19 20:44:36.93 5RbQ412q0
>>771
おぉたくさん、ありがと
ホスト向けの手持ちのマシンは他にない状態...
>>772
ありがと
USBシリアル、どうにか試してレポするね
775:名無しさん@お腹いっぱい。
11/05/19 23:45:55.03 beGYTJU+0
>>773
USBは関係ないっしょ
776:名無しさん@お腹いっぱい。
11/05/20 12:44:24.69 MGYfL43K0
>>774
IO の USB-RSAQ2 でできた
vMA の仮想マシンのバージョンを7に上げてテストした
PL2303 で認識されていた
他に USB-RSAQ5 もテストできたんだけど、こちらは vMA でシリアルポートとして認識されなかった
ちなみに USB-RSAQ2 だが、USBケーブル - アダプター部 - ジェンダーチェンジャー とつながなければならないので、抜ける心配が有る部分がたくさんあってちょっと嫌な感じ
772 でレポしてもらった UC-SGT を入手して進めることにする
ということで、VMから物理シリアルポートを使うのは諦める
いろいろレスもらって助かった、ありがと
777:名無しさん@お腹いっぱい。
11/05/20 14:59:38.26 yxUM/p5/0
意外とつかえないもんなんだな
そういうのにあたったことがないので実感がわかないが、見てて参考になった
778:名無しさん@お腹いっぱい。
11/05/21 11:39:21.41 QwqCUuVr0
DiskIOに負荷がかかるとホストがフリーズして、
仮想マシンをシャットダウンさせようとすると95%で固まるんだけど
これってハード側の問題?
779:名無しさん@お腹いっぱい。
11/05/21 16:11:41.79 4pI23Yj30
>>778
環境も判らんのに答えようもないな
GbE環境で数百GB単位をコピーしてるけどホストのフリーズは経験無し
ちなみにホストがフリーズしてゲストが95%で固まる現象は、自分のある環境で発生して解消もしてる(はず
但しこれはDisk I/Oの問題じゃ無かったので違うとは思う
780:739 ◆QkPf4H2wzI
11/05/21 19:12:27.48 kkARtp2I0
>>778
固まる環境をkwsk。
>>779
同じく現象が発生した環境をkwsk。
781:名無しさん@お腹いっぱい。
11/05/22 01:06:49.32 tUYvdTuz0
いちいちコテ付けんでいいよ
782:名無しさん@お腹いっぱい。
11/05/22 09:09:41.28 k9DEbaPH0
いちいち仕切らなくて良いよ
783:名無しさん@お腹いっぱい。
11/05/22 11:26:43.01 tSrE/M/S0
一般にコテが鼻につくというのは事実。
わかれ。
784:名無しさん@お腹いっぱい。
11/05/22 11:32:11.24 QE2mRszt0
コテつけて、こてんぱん。
785:名無しさん@お腹いっぱい。
11/05/23 12:51:54.10 Bmb8fM+RO
x58でありVTーd項目がBIOSにあれば仮想化したさいもPCIを使うことができると思っていますが
現状それを行うことができないので構成に問題がある際は教えてください
MB VTーd対応
ホストOS WinXP Pro32bit
ESXiのためPlayerを使用しています
ゲストOS WinXP Pro32bit
使えために構造→ハードデバイス→詳細設定
のところまではわかりますがヘルプにかかれてある通りの色のついた文字が
出て来ない状態です
使うために構成状態に問題がありましたら教えてください
786:名無しさん@お腹いっぱい。
11/05/23 13:05:11.35 RlsYMEAY0
>>785
壮大な釣りですか?
787:名無しさん@お腹いっぱい。
11/05/23 13:22:49.65 Bmb8fM+RO
何点か構成に問題があるとは承知しているものの
検討を付けようにもわからないので聞いたしだいです
788:名無しさん@お腹いっぱい。
11/05/23 13:32:15.66 aRpFdASg0
そのへんの説明に書いてある構成と比較しませう
違っている所があるはずなので、それが問題点です
789:名無しさん@お腹いっぱい。
11/05/23 13:37:41.89 JaB3q9Qx0
釣りだとしてもつまらんな…
そんなんばっか。
790:名無しさん@お腹いっぱい。
11/05/23 14:27:03.83 RA71zFhDP
>>785
>ホストOS WinXP Pro32bit
>ESXiのためPlayerを使用しています
ダメです
791:名無しさん@お腹いっぱい。
11/05/23 18:08:26.52 QC+87sD30
RHEL6.1をNFSサーバにして
ESXi4.1からマウントしてゲストOS作成してるんだけど
途中でNFSセッションがきれたり、遅くなったりするんだよね
原因わかる人いない?
792:名無しさん@お腹いっぱい。
11/05/23 18:12:49.04 RA71zFhDP
NFSのチューニング設定してる?書き込みの処理とか
793:名無しさん@お腹いっぱい。
11/05/23 18:14:26.99 QC+87sD30
exportsの設定はasyncにしたりチューニングしてみたけど
変わらないです。
Gigabitの接続なのに1Mbpsも出ない
794:名無しさん@お腹いっぱい。
11/05/23 18:35:06.00 RA71zFhDP
そいつはおかしいな
ESXi以外からのNFSマウントでは正常?まずはその辺から見た方が良いかと
795:名無しさん@お腹いっぱい。
11/05/23 18:37:22.49 QC+87sD30
あーそれは確認してなかった。。
CIFSアクセスでは結構なスピード出てたんだよね。
OS依存の問題なのかなと思って今suse入れて試してる
796:名無しさん@お腹いっぱい。
11/05/23 19:06:52.99 G0KIHF7+0
>>785
>使うために構成状態に問題がありましたら教えてください
最大の問題はここ
>ホストOS WinXP Pro32bit
>ESXiのためPlayerを使用しています
ESXiの使い方をググればわかると思うよ
それかハイパーバイザでググってみれば?
797:793
11/05/24 08:46:52.24 pLqWwnKI0
なぜかわかりませんが、物理的にNICを新たに追加したところ
改善されました。。
798:名無しさん@お腹いっぱい。
11/05/28 19:13:01.17 YgatQP2a0
ノートPCでも使えたよage
799:名無しさん@お腹いっぱい。
11/05/30 19:03:22.52 oyqtnW3U0
ExpressじゃないPCIスロットなんですが、安くて対応しているNICって何かいいのありますか?
とりあえずIntelの1000Mbpsカードの中古探そうと思いますが
800:名無しさん@お腹いっぱい。
11/05/30 19:04:26.78 xVpqSrIt0
ググれば、腐る程 動作実績でてくるよ
801: ◆QkPf4H2wzI
11/05/30 19:09:45.76 W5Da7un20
>>799
淫照のNICなら大抵一発で認識する。
PRO1000の鯖とデスクトップは普通に認識した。
802:名無しさん@お腹いっぱい。
11/05/30 19:37:22.34 YAS82lPB0
100baseで十分な用途だったんでガチ鉄板のPRO/100Sを挿したら認識しなかった。
803:名無しさん@お腹いっぱい。
11/05/30 22:52:37.01 DMdu2sNU0
>>799
PRO1000GTがPCI-Xですな
804:名無しさん@お腹いっぱい。
11/05/31 09:26:55.40 7QafmVDU0
>>803
PCI-Xのカードって、PCIスロットに刺さるんですか?
805:名無しさん@お腹いっぱい。
11/05/31 09:54:13.42 Y/cAKpqL0
>>804
32bitPCIと64bitPCIとPCI-Xは変態スロットじゃなければ互換性があるから刺さればたいてい動く。
でもまともなパフォーマンスで動くかは物次第。
806:名無しさん@お腹いっぱい。
11/05/31 10:09:06.08 TeYvE9j+0
>>804
PRO/1000GT Desktop Adapter なら刺さるし動く
でも、PCI-Express が無いようなマザボで ESX が動くのかな。
あるけど単に埋まってるってだけ?
807:名無しさん@お腹いっぱい。
11/05/31 17:49:44.09 pS7FaanmI
シンプロビジョニングで割り当てたvmdkの中のデータが減った時に、
空き領域を開放してvmdkのサイズを縮小させるにはどうすればいいんだろうか。
シンディスクを指定してストレージvMotionすれば良いのかな?
808:名無しさん@お腹いっぱい。
11/05/31 18:12:53.94 J7tTcoE60
>>806
FoxconのAtom D525マザーです。
一応ESXiの動作報告はありますが、
IntelのNIC刺すか、蟹のドライバー組み込む必要があります。
809: ◆QkPf4H2wzI
11/05/31 18:58:23.43 XmALW1AA0
>>808
AtomのD510に、Virtualboxを入れた時には使い物にならなかったのだけど、
D525とESXiとの組み合わせ、使い心地はどう?
810:名無しさん@お腹いっぱい。
11/05/31 19:17:46.30 ynTiyQ/90
「日立、仮想ストレージを機能強化―NetAppのNASやVMwareと連携」
URLリンク(www.itmedia.co.jp)
811:名無しさん@お腹いっぱい。
11/05/31 20:57:40.91 TeYvE9j+0
>>807
圧縮 Thin Thick vmdk Tools
といったキーワードでググれ
812:名無しさん@お腹いっぱい。
11/06/01 21:11:58.19 nivYcWeT0
自作PCでESXiを導入しようとおもうのですが、
チップセットの対応はどこにのってますか?
>>1->>2はみてみた。
813:名無しさん@お腹いっぱい。
11/06/01 21:16:30.45 fn7i6WLd0
ドキュメント読んで下さい
814:名無しさん@お腹いっぱい。
11/06/01 21:59:02.12 nivYcWeT0
>>813ありがとう。
ICH9のマザー見つかるかな自作はむりそう
815:名無しさん@お腹いっぱい。
11/06/01 22:02:50.98 DHQ8Icfr0
評価版使ってみようと考えているのですが、
VMware vSpere4.1に対応している(サポートされているか、別途ドライバ無しで
稼働実績有り)
安鯖 or ノートPCってないでしょうか?
性能は求めていません。価格重視です。
816:名無しさん@お腹いっぱい。
11/06/01 22:12:10.40 QJjKbI0x0
なんでこうもググらないかね……
817:名無しさん@お腹いっぱい。
11/06/01 23:48:11.87 +gq2VETF0
>>814
ICH10 も使えたよ。Ibex Peak も使えた。Cougar Point SATA も使えたという
書き込みを海外のサイトで見たことはある。ネットワークは EXPI9301CT を
Amazon などで買って装着するというのが最も楽でかつ安く上がる方法。
ただ、自作に拘らないのなら NEC GT110b を NTT-X ストアなどで買って、
メモリを足すってのが楽だし結局は安いと思う。
>>815
上に同じ。ただメモリは多い方がいろいろと幸せになれるとおもわれる。
818:名無しさん@お腹いっぱい。
11/06/01 23:52:50.21 nivYcWeT0
>>817レスありがとう。
いや、非公式の情報はわかってます。
公式情報がしりたかったのですが、
載ってないことは調べようがなかったのです。
ICH9以外。
チートシート
URLリンク(blog.fosketts.net)
819:名無しさん@お腹いっぱい。
11/06/02 00:18:07.56 jJtcEJB80
>>817
すみません、ICH10の件貴方のとおりでした。
マニュアルと、Compatibility Guideが
食い違ってるようにみえるが。。。
820:名無しさん@お腹いっぱい。
11/06/02 02:35:29.06 Gu2kF3FF0
>>815
鼻毛鯖なら格安じゃないかね
自分はそこらに落ちてた安マザーにC2D載せてNICだけドライバ入れ替えで使ってるけど
821:名無しさん@お腹いっぱい。
11/06/02 06:40:34.86 CJt4Dfau0
>>818
ESXiってそもそも、パーツでの動作保証なんてしてないかと。
なので、公式情報としては、メーカー・機種決めうちの
情報しかないはず。
サポートリストに書かれていないハードは、
すべてサポート・保証外なので、
独自に確認・テストするしか無いぞ。
822:名無しさん@お腹いっぱい。
11/06/02 16:33:30.83 90gdDWq30
自分で構築するわけではないのですが教えてください
同じIPAddressを持つ仮想マシンを複数台用意して自動/手動で一台だけを
活性化しておくことができますか?
要するに冗長化なのですがどこまで可能なのかググりまくってもよくわからず
823:名無しさん@お腹いっぱい。
11/06/02 16:50:53.06 XM6FKnaZ0
VMware HAとか?
824:名無しさん@お腹いっぱい。
11/06/02 17:02:52.21 90gdDWq30
>>823
ありがとう
URLリンク(www.vmware.com)
この機能で>>822を実装できるのですね
825:名無しさん@お腹いっぱい。
11/06/02 17:12:56.05 Ywra3UxeP
HAやFTなら自動化できる
手動で上げるなら別に無償版でも出来る
826:名無しさん@お腹いっぱい。
11/06/02 17:16:24.63 90gdDWq30
>>825
ありがとう
開発者に伝えます
827:名無しさん@お腹いっぱい。
11/06/02 18:09:51.50 3G4w0QO10
ESXiにWHS2011をインストールした方いますか?
828:名無しさん@お腹いっぱい。
11/06/02 21:18:34.58 LXJETJew0
VMware スナップショット、Sync Driver(LGTO_Sync)の問題
URLリンク(www.putise.co.cc)
これ、なんとかしれくれんかな。
Oracleサーバーでは使い物にならん。
スナップショット作るときに ロックされ、消すときもロックされ、I/Oエラーで
止まってしまうんよ。
829:名無しさん@お腹いっぱい。
11/06/02 21:51:42.39 vmsx9nh00
>>827
WHS2011 on ESXi on 鼻毛 で運用中だよ。
録画サーバーも兼ねさせようと思ってたけど、USBパススルーのパフォーマンス
が良くなくて断念したこと以外は至って快調。
ちなみにWHS2011のデータドライブはRDMで使用中。
830:名無しさん@お腹いっぱい。
11/06/02 22:28:11.34 2YoVRnJk0
>>829
レスありがとうございます。
SMB2.0が使えるWindowsとしては安価で魅力的なんですよねぇ >WHS2011
購入の方、検討してみます。
…DSP版って、仮想マシンの場合はホストに対象ハード繋げとけばOKなのかな。
よくわかんないや。
831:名無しさん@お腹いっぱい。
11/06/02 23:56:53.55 AsyAYgxp0
>>828
VSSを使えないゲストOSを使用中ということ?
Linux だとそもそもクラッシュコンシステントなリカバリしかできないしな…
> スナップショット作るときに ロックされ、消すときもロックされ、I/Oエラーで
> 止まってしまうんよ。
SYNCドライバ自体を無効にしちまうという手もあるけどね。
VMをスナップショットへ切り戻しした場合は、OracleのREDOログによるロールフォワード処理に任せる。
少なくともVMスナップショットの取得やなんかのときに起こる、SYNCドライバ由来のI/Oの糞詰まり現象は無くなる。
こっちの方が結果的に幸せだった、という経験がある。
832:名無しさん@お腹いっぱい。
11/06/03 11:09:18.25 APQ0V8W40
>>831
レスありがとうございます。
>VSSを使えないゲストOSを使用中ということ?
Windows 2000 Server です。
> SYNCドライバ自体を無効にしちまうという手もあるけどね。
これは気づきませんでした。ありがとうございます。
普段VMware Tools のオプションなんて気にしていなかったので、SYNCドライバが
切り離せるなんて思っていませんでした。
早速、切り離した上でテストしています。
バックアップ時(Acronis B&R 10 Adv. Virtual Editionを使用)は、どうせORACLEを
止めるので、時間差による各種不整合は、Oracle に関しては無い筈です。
833:名無しさん@お腹いっぱい。
11/06/03 12:24:17.82 gp0eQ/2V0
>>832
> Windows 2000 Server です。
あれま。そんじゃ何も設定しないとVMのスナップショット取得時に
SYNCドライバが動いちゃいますな。
SYNCドライバの無効化手順は URLリンク(kb.vmware.com) の通り
にやればできると思うよ(既にやったみたいだけど)。
834:名無しさん@お腹いっぱい。
11/06/03 18:24:45.64 APQ0V8W40
>>833
VMware Tools のインストーラを再実行し、変更オプションで SYNCドライバを
外しました。
ところで、Acronis のマニュアルを見ていたら、仮想マシン上に直接インストー
ルできるエージェントプログラムがあることを知りました。即刻SYNCドライバ絡みの
テストを中止し、それをインストールしました(エージェント for Windows)。
エージェント for Windowsは、Acronis ネイティブの方法でバックアップが取れるので、
安定したバックアップを望んでいた私には朗報となりました。
Acronisが無駄な買い物にならなくてすみました。
835:名無しさん@お腹いっぱい。
11/06/04 13:13:42.95 KJFaaNaE0
VMware esxiでVT-dがあることによって何ができるようになるかがまとめられているサイトとかないですか
836:名無しさん@お腹いっぱい。
11/06/04 13:20:26.01 Ufo1hDfh0
その程度も自分で調べられない人には、正直向いてないぜ。
837:名無しさん@お腹いっぱい。
11/06/04 22:59:27.41 l1NBKHVi0
ずいぶん前(2009年)に、VMFSをLinux機でmountするドライバの話題があったのだけど、
その後どうなったのかググってみた。
提供元のところでも「readonly」のままだし、writeの需要がないのだろう、と思った。
838:名無しさん@お腹いっぱい。
11/06/05 17:20:54.21 hJ0AhzFN0
万一の時のサルベージ用途ということじゃね?
839:名無しさん@お腹いっぱい。
11/06/07 08:01:07.98 AMKb5uJi0
vSphere Client 345043 で仮想マシンの一覧を開いた時点で五十音順にソートされてないのだが之は仕様???
840:名無しさん@お腹いっぱい。
11/06/07 11:50:15.05 oQt1xB+G0
五十音てのが気になるが一覧ってどこのことだ
以前のVerでソートされていたが345043でソートされなくなった、という意味だよな?
841:名無しさん@お腹いっぱい。
11/06/07 16:04:20.81 xKzGjQML0
あいうえお順に並ぶのか。
目眩がするな。
842:名無しさん@お腹いっぱい。
11/06/07 19:44:09.91 AMKb5uJi0
>> 840 左ペインのホストを選択すると、右ペイン表示される「仮想マシン」タブにある一覧のことだ。
>以前のVerでソートされていたが345043でソートされなくなった、という意味だよな?
そのとおり、ESXi は 348481 に入れ替えたとたんに発生。
同画面で明示的に名前でソートすることはできるのだが、初期表示時にソートされてないと気持ち悪い。
843:名無しさん@お腹いっぱい。
11/06/08 08:57:49.04 DwYay4UG0
どうやったら、「いろはにほへと」順に並びますか?
844:名無しさん@お腹いっぱい。
11/06/08 10:58:20.90 juu0dXQK0
助けて下さい。
ESX 4.1で仮想マシンのディスクをRDMして作成し、その後 VMware vCenter Converter Standalone 4.3 でコンバートしようとしても途中でエラーになってしまいます。
「選択したマシンのハードウェア情報を取得できません。」というメッセージが出てしまいます。
iSCSIの接続状況は問題ありません。
ゲストOSも Converter のサポート対象だし、何がいけないのかわかりません。
お願いします。
845:名無しさん@お腹いっぱい。
11/06/08 11:01:36.25 fOGtdZkLP
RDMだとディスクの中に仮想ディスクの情報しかないよ
仮想マシンの他の設定ファイルはちゃんとある?
846:名無しさん@お腹いっぱい。
11/06/08 18:30:47.55 tLHuLkZh0
VMware、仮想マシン変換ソフト「vCenter Converter」v5.0のベータ版を無償公開
物理マシンから仮想マシンへの変換や仮想マシン間でのファイル形式の変換が可能
URLリンク(www.forest.impress.co.jp)
847:名無しさん@お腹いっぱい。
11/06/09 01:34:40.64 7OPzojMs0
>>842
こっちでは以前のVerからずっとソートされてなかった気がするがな
848:名無しさん@お腹いっぱい。
11/06/10 20:36:48.42 qvrl68US0
なんか調べ方が悪いのか結局調べ切れなかったんだけど
インテルの6シリーズのチップセットでVT-d対応してるのてどれ?
H61とかはなんか非対応っぽいんだけど
849:名無しさん@お腹いっぱい。
11/06/10 20:43:25.17 quAiWpm5P
HかQのみ
850:名無しさん@お腹いっぱい。
11/06/10 20:47:31.84 Oehu9Plv0
正式にはQ67とサーバー用のC20*だけじゃなかったっけ
851:名無しさん@お腹いっぱい。
11/06/10 20:54:31.32 AiNbujut0
>>848
チップセットが対応してても BIOS が対応してないとかあるからね。
マザーの型番の方がいいんじゃなイカ?
URLリンク(www.intel.com)
日本語の方は見ちゃだめだからね☆
852:名無しさん@お腹いっぱい。
11/06/10 21:06:36.68 qvrl68US0
なるほど
まだ細かい仕様は詰めてないんだけど
どのみちインテルマザーにすると思うのである程度型番絞れてきたら調べてみます
とりあえずHかQぐらいにあたりつけて探してみます
ありがとうございました
でもHも対象となるとH61も対応してる可能性あるのかな?
まぁメモリスロット2個しかないからESXi用としては選ばないだろうけど
853:名無しさん@お腹いっぱい。
11/06/10 21:13:01.85 AiNbujut0
>>852
ち・な・み・に。
DQ67SW で試したけど、ESXi 4.1u1 はインストールできなかったよ☆
KVM はうまく動いたけど。
854:名無しさん@お腹いっぱい。
11/06/10 21:50:36.30 6t6iQRIB0
>> 853
DQ67SWでESXi動かないのか。
LANは対応してないのは解ってたんだけど、XenClient 2.0 TechPreviewが動いたから油断してた。
855:名無しさん@お腹いっぱい。
11/06/11 06:29:19.91 5HAnbiG10
次のバージョンいつ出るの?
856:名無しさん@お腹いっぱい。
11/06/11 09:02:16.55 pNF5cs7S0
>>855
次のバージョンはわからんけど、最新パッチが 4/28 に出ていて、これが現時点で最新っぽい。
URLリンク(kb.vmware.com)
URLリンク(hostupdate.vmware.com)
857:名無しさん@お腹いっぱい。
11/06/12 14:11:23.59 xVWTrQCT0
DQ67SWで、確かにオンボードNICは使えませんでしたが、
対応NICさえ挿せば、マザーボード自体はESXiで使えますよ。
我が家はDQ67SW(B3) + Intel ET Dual Port Server Adapterで無事使えていて、
i5 2400SでVT-dがあるので、USBコントローラのVMDirectPathもできました。
858:名無しさん@お腹いっぱい。
11/06/12 14:48:51.82 7OZX5fwy0
>>857
ΩΩΩなんですってー!
ということは、マザーが原因じゃないのかぁ。
ちょっと再挑戦してみるる。情報ありがとー。
KVM でパススルーして PT2 で録画できたけど、
ESXi でできればうれしいなぁ。
859: ◆QkPf4H2wzI
11/06/12 14:57:15.21 iNEnn6DA0
>>858
多分ESXiのインスコ中に白い文字列の画面で止まったかと。
何回インスコしても同じ画面で止まる、と。
それ、NICが対応してない場合に表示される画面。
860:名無しさん@お腹いっぱい。
11/06/12 15:24:35.66 jYL2Zt9Z0
使えないってその程度のレベルの話だったのかよ
ちょっと調べればオンボNICの使い方なんて見つかるのに
861:853
11/06/12 18:11:11.54 7OZX5fwy0
穴がなかったら、掘ってでも入りたいです。
勉強になりました!(^_^)b
862:名無しさん@お腹いっぱい。
11/06/13 23:22:15.87 BebqeOPq0
以前、InfiniBandの話題が少し出ていたけど
実際に家庭で使ってる人っている? 使用感とかどうだろ。
自宅内に張り巡らすのはともかく、
ESXiのマシンとストレージサーバを直結するくらいなら導入しても良いかな~、と検討してるんだが。
863:名無しさん@お腹いっぱい。
11/06/14 00:16:26.36 FgBbxjPd0
>>862
ESXiでInfiniBand使用しSRPで接続ですが、以前の1GbEのiSCSIで使用してるときより
レイテンシ上がったのと転送速度が上がったのでかなり速くなった気がする。
vm上からddで簡易測定してみたけど、このくらいでてた。
# dd if=/dev/zero of=/var/tmp/test.dd bs=128k count=200000
200000+0 records in
200000+0 records out
26214400000 bytes (26 GB) copied, 94.8833 s, 276 MB/s
864:名無しさん@お腹いっぱい。
11/06/14 07:18:12.72 0fd9w0HB0
>>863
おぉ、さすがに早いね。
速度もそうだけど、やっぱりEthernetと違って低レイテンシなのも大きいのだろうな。
ちなみにHCAは何を使用されてます?
865:名無しさん@お腹いっぱい。
11/06/14 08:09:16.73 FgBbxjPd0
>>864
何回か測定したら200MB/s~300MB/sくらいでふらついてますね。
SRP Target側HCAがMHGH29-XTC、InitiatorがMHEA28-XTCです。
866:名無しさん@お腹いっぱい。
11/06/14 08:11:44.70 JAqWHy620
インフィニバンドってもう個人で手が出る範囲になってきたの??
まだ相当効果だと思うんだが…。
867:名無しさん@お腹いっぱい。
11/06/14 11:08:01.58 GEyTjXPd0
>>866
うちは、スイッチとカード3枚セットで中古で4万くらいでした。
868:名無しさん@お腹いっぱい。
11/06/14 11:11:17.59 JAqWHy620
>>867
マジで!?
秋葉原とかで買えるの!?
869:名無しさん@お腹いっぱい。
11/06/14 13:44:19.22 XpxcAJ9K0
>>866
eBay覗いてると、安いのは数十$であるよ。
しかし、InfiniBandの実測値がスレで出るのって初めてかな?
自分も興味湧いてきた。
低レイテンシってことで、ESXiのデータストアにするには最適っぽいし。
870:名無しさん@お腹いっぱい。
11/06/15 02:54:55.67 GIPQKpgH0
VMware vSphere4 を入れて使用できるノートPCってないでしょうか?
タワー型ですと、設置場所がなくて難しいです。。。
871:名無しさん@お腹いっぱい。
11/06/15 02:58:10.00 wSdrxr1/P
あるけど確実にどれが動くかは知らない
とりあえずCore i系で、NICがIntelのものを選ぶべし
ただひとつ言っておくけど、例え動いても検証程度にしか使えないよ
872:名無しさん@お腹いっぱい。
11/06/15 10:34:00.33 WsTFSG2r0
Workstation入れてそのゲストにすればCPU以外気にしなくて
いいんでないかい
ものすげー無駄な努力だが
873:名無しさん@お腹いっぱい。
11/06/15 14:43:42.05 h9nmquMz0
InfiniBandって、専用スレできてたんだな
InfiniBandについて語るスレ
スレリンク(hard板)
874:名無しさん@お腹いっぱい。
11/06/17 11:57:58.76 u/EMcieM0
ESXiのブート領域もミラーリング等で冗長化しようと思った場合って、
ハードウェアRAIDのカードにインストールするしかないのでしょうか?
現在はUSBメモリからブートさせているのですが、
これではそのUSBメモリが逝ったらアウトですよね?
データストアが無事なら、復旧自体はあまり難しくはないですが……
875:名無しさん@お腹いっぱい。
11/06/17 12:34:52.80 X35n6xVjP
冗長構成にしたいならNFSやiSCSIターゲット側でやった方が良いよ
876:名無しさん@お腹いっぱい。
11/06/17 12:44:15.79 e2dHd7pk0
PXEを使用してネットワークブートにしろ、ってことですかね?
877:名無しさん@お腹いっぱい。
11/06/17 12:54:29.99 X35n6xVjP
うん
NFSは無理かも。iSCSIブートはIntelのNICとかでいけるらしい
878:名無しさん@お腹いっぱい。
11/06/17 13:11:15.82 uMOYte460
USBメモリが逝くのと、RAIDボード死亡or全HDD死亡を比べたら
故障率に大差ない気がする。
879:名無しさん@お腹いっぱい。
11/06/17 13:18:27.69 e2dHd7pk0
>>877
レスありがとうございます。ID変わってますが874です。
やはりそうなりますか。
Solaris辺りでRAIDZにて巨大なストレージ作って、ブートもデータストアもそこから、
ESXiにはCPUとメモリだけでストレージは無し、というのがスマートなんですかねぇ。
あとはNICをチーミングでもすれば、家庭用としては充分でしょうか。
……先は長いです。
880:名無しさん@お腹いっぱい。
11/06/17 13:29:04.20 X35n6xVjP
家庭用ではむしろオーバースペックだと思うけど
でも気になるから作ったらレポよろ
881:名無しさん@お腹いっぱい。
11/06/17 13:35:16.19 HTAS5XLx0
>>879
そんなとこだろうね
M/Bや電源が逝くとこまで配慮すると、それはもvMotionとかの話になるし、
家庭でやるには少々過剰かも
882:名無しさん@お腹いっぱい。
11/06/17 14:55:54.21 tz7Cyu2e0
USBメモリを常時ミラーリングできたりしたらいいんだけどね
883:名無しさん@お腹いっぱい。
11/06/17 15:12:30.58 x+ZIZJ6U0
>>874
俺は vicfg-cfgbackup.pl でときどきバックアップするだけで十分に感じてるけど、
あまり使ってる人いないのかな。
884:名無しさん@お腹いっぱい。
11/06/17 15:13:28.46 hLfM5JHl0
ミラーするHDDケースにSSDぶち込んでUSB接続でよくね?
885:名無しさん@お腹いっぱい。
11/06/17 15:22:24.37 bRpv4daw0
頻繁にESXiの設定を変更するのでもなければ、
DDで定期的にイメージバックアップ取っとけばいいじゃない
と言うか、自分はそうしてる。
ESXi停止→別のUSBメモリからboot→Linux起動→DDでsambaにバックアップ
という具合。bootデバイス変更はSoLでやるので、実際にハードを弄ることはない。
そう簡単にESXiを止めるわけにはいかん、という人には向いてないが。
>>884
ソレって結局 元々の質問主が言ってるハードウェアRAIDだし、
そもそもUSB接続にする必要も無いような。>>258,308みたいな製品もあるし。
886:名無しさん@お腹いっぱい。
11/06/17 15:27:44.33 X35n6xVjP
ブートイメージは1回取って、個々の仮想マシン情報はバックアップスクリプトでvmdkと一緒にコピー取ってるかな
完全な冗長性があるわけじゃないが、家庭用マシンぐらいならこれで十分
887:名無しさん@お腹いっぱい。
11/06/17 16:00:02.05 mz9IQA4k0
>>883
自分も同じ。多少のダウンタイムが痛くない家庭用ならそれが無難だよね。
問題起きても、予めddで複製しておいたUSBメモリを差し替えて、リストアするだけ。数分で終わる。
888:名無しさん@お腹いっぱい。
11/06/17 16:12:14.36 dVOACIiv0
バックアップの話題が出てるので、ついでに質問させて下さい。
データストアをDASにしてる場合、vmdk他のバックアップはどうするのするが適切でしょうか?(速度等)
scpやvSphere Clientからなど、いくつか方法がありますよね。
ちなみに自環境ではホットバックアップである必要はありません。
889:名無しさん@お腹いっぱい。
11/06/17 16:34:16.07 5u/z6zng0
>>882
USBメモリを複数本挿して、それらをストライピングやミラーリングする機器があった筈
普通に単発で使うより、却って不安定になりそうな気がしないでもないが……
890:名無しさん@お腹いっぱい。
11/06/17 16:35:41.24 X35n6xVjP
>>888
scpとかClientからだと遅すぎて実用に耐えなかった
URLリンク(www.masatom.in)
この辺とか参考にしてスクリプト書くとすげー楽よ
891:名無しさん@お腹いっぱい。
11/06/17 17:32:43.84 WFdlS6At0
たしかそれスナップショット未対応
892:名無しさん@お腹いっぱい。
11/06/18 00:55:27.60 3S4WMLP40
>>890
scpが遅くて仕方無かったけど、NFSをマウントしてそっちにコピーすればいいのか、
今度やってみよう
893:名無しさん@お腹いっぱい。
11/06/18 14:13:50.03 FO+CLfdO0
ESXiのゲストOSで、HDDをRDMで繋げてソフウェアRAIDを組んでる方っていますか?
負荷や速度等、実用になるのか気になっています。
良好なようでしたら、WHS2011辺りでファイルサーバを立てたいところなのですけど…。
894:名無しさん@お腹いっぱい。
11/06/18 15:51:16.32 35kTatSy0
>893
こんな書き込みが。
URLリンク(zigsow.jp)
895:名無しさん@お腹いっぱい。
11/06/18 16:12:55.69 FO+CLfdO0
>>894
レスありがとうございます。
Solaris系のRAID-Zで30~50MB/sですか。
一見遅そうに見えますが、逆に言えばCPUが非力なAthlonII Neoでこれだけ出るってことですよね。
自分の場合はバックアップ先のファイル倉庫として使うつもりなので充分かもしれません。
WHS2011ならSMB2.0で更なる速度upも望めるかもしれませんし。
896:名無しさん@お腹いっぱい。
11/06/18 21:42:03.37 9wYajiqW0
>>895
実際にESXi上でWHS2011を動かし、データドライブはRDMで運用中。
私見だけど、倉庫をRAIDで構築するよりWHS2011のServerBackupを
使って日々バックアップを取るような運用をした方が実用的だと思う。
常に同時にアクセスをするRAIDと違い、倉庫用ドライブとバックアップ
ドライブが同時期に損傷するというケースも発生しにくいし、任意の
時点のバックアップから復元することも可能。
ダウンタイムを最小限にすることが最大目的であるならばRAIDは有用
だから、目的を明確にして手段を選ぶことをお勧めしたい。
897:名無しさん@お腹いっぱい。
11/06/19 00:49:49.61 vbxPJYhx0
既出かもしれないが、ぐぐってもあまり報告がないので、一応レポ。
ESXi4.1.0u1でGPUパススルーできた。
ML110 G6, i7-870, Radeon HD5570の組み合わせ。
898:名無しさん@お腹いっぱい。
11/06/19 01:33:26.34 sASZae6Y0
3wareの8500-8認識しない。。。9シリーズならドライバあるのになんてこった
899:名無しさん@お腹いっぱい。
11/06/19 02:19:13.57 QjEKwErk0
>>897
しっつもーん!
それって、OpenCL とかでけーさんにも使用できますか?
900:名無しさん@お腹いっぱい。
11/06/19 20:17:47.83 eDqSB/UO0
こちらでもGT110b,i870,Radeon HD5570の組み合わせで問題なく動いてる。
ATI StreamもHDMI Audioも使えるし、動画再生支援もOK。
ただVIDEO BIOSの違いか、安定動作するボードとしないボードがあったのでご注意を。
以前、ESXにそんなことを求めるのは間違っている的なことをいわれたことがあるのでこの辺で。
901:名無しさん@お腹いっぱい。
11/06/19 21:09:39.63 vbxPJYhx0
>>897
遅レスすまん
もともとGPGPU目当てで導入したので、先ほどからテスト計算させているが、十分な速度で動いてる。
あと、同じくML110 G6にAdaptecのASR 2405入れてみたがこちらも動く。
BDをRAWで扱いたかったので、持ってるカードで(RAIDだけど)試してみた。
ただし、Windowsの標準のドライバだとうまくドライブを認識しなかったので、Adaptecから最新のドライバをダウンロードすると問題なかった。
902:名無しさん@お腹いっぱい。
11/06/19 21:14:20.85 vbxPJYhx0
追加
玄人志向のSATA3I2-PCIeは無理でした。OSは起動するが、ドライバを更新しようとするとこける。
Marvellの88SE9128チップだが、ESXiが対応してないものはやっぱりパススルーしても無理っぽい。
903:名無しさん@お腹いっぱい。
11/06/19 21:47:39.60 QjEKwErk0
>>900-901
すっごい!できるんだ。
Xen だったかでできるようにしようとしてる人がいたのは見たけど。
情報ありがとう!
904:名無しさん@お腹いっぱい。
11/06/19 23:10:56.98 gG2QZLAs0
手っ取り早く冗長化するために、安価なRAID BOXを勧める人いるが
それらの製品で、実際に障害起きたときどうすんの?って問題があるよね。
そもそもディスクがfailしたときにアラート飛ぶどころか、検知さるかも怪しいの多いし。
905:名無しさん@お腹いっぱい。
11/06/19 23:20:40.07 RZqxbSsn0
ESXi 4.1u1で、MellanoxのInfiniBand アダプタ(ConnectX系)を使おうとしてトラブったので簡単にレポ。
ドライバとパッチの適用順間違えると、ドライバのインストールが失敗する。
新規インストールでESXi410-201104001のパッチ適用後に、ドライバのインストールしたらインストール出来なかった。
(エラーメッセージが出てインストールされない)
新規インストール -> MellanoxのIB ドライバ -> ESXiパッチ の順で適用すると動作した。
ドライバインストール後のデフォルト設定がetherになってる。
最初、vSphere Clientのネットワークでvmnicに表示されてたので、IP設定して他のIBホストにping打ってみたけど
返事が返ってこない。IB スイッチを挟んでたのでリンクのチェックしたら繋がってなかった。
Windowsで使用したときにドライバの初期設定がetherだったので、esxcfg-module で設定確認。
設定値が2 (ether) だった為 1 (IB)へ変更。マニュアルでは connectx_port_config 使って変更しろって書いてあるが、
設定するとモジュールのオプションが足らなくて起動時にドライバ読み込めなくなり認識しなくなるので注意。
確実に設定するには、コンソールがvSphere CLIでモジュールオプションの設定しましょう。
自分はsshでログインして「esxcfg-module -s 'port_type_default=1' mlx4_en」で設定しました。
906:名無しさん@お腹いっぱい。
11/06/20 00:58:25.30 JUzH79m40
URLリンク(www.arms-corp.co.jp)
DASの冗長化にコレどうだろ?
一応、LEDで障害検知もできるみたい。
907:名無しさん@お腹いっぱい。
11/06/20 07:56:37.82 DDqOZQtW0
【仮想化道場】 vSphere 4.1のベースとなるハイパーバイザーのESX/ESXi 4.1 -クラウド Watch
URLリンク(cloud.watch.impress.co.jp)
908:名無しさん@お腹いっぱい。
11/06/20 10:14:49.92 hmwYUuej0
>>904
障害がおきたらRS232C等経由で通知されてアラートメールが来るから
ホットスワップで引っこ抜いて交換すればいいと思うが、
どの辺に問題を感じてるの? ていうかESXとどう関係が?
909:名無しさん@お腹いっぱい。
11/06/20 10:21:29.26 DDqOZQtW0
>>908
ちゃんとしたストレージエンクロージャー ではなく、
上の方で挙がってる怪しいニコイチなデバイスのこと言ってるんではないかと
910:名無しさん@お腹いっぱい。
11/06/20 14:18:56.18 hmwYUuej0
む、そうか、読めてなかったスマソ
安価でアラート飛ばせるのを選びましょうということで。
911:名無しさん@お腹いっぱい。
11/06/20 14:22:16.98 gp/NBjY60
ReadyNASとQNAPどちらがお勧め?
912:名無しさん@お腹いっぱい。
11/06/20 14:23:16.21 h0RHhxHI0
>>911
QNAP
913:名無しさん@お腹いっぱい。
11/06/20 16:30:09.82 xWEH3b9W0
>911
EMCかNetApp
914:名無しさん@お腹いっぱい。
11/06/20 17:40:21.87 gsTPXx520
>>906
一瞬ハンダ付けキットものかと思った
915:名無しさん@お腹いっぱい。
11/06/20 19:07:09.42 u5F3C9YZ0
URLリンク(www.xenon-jp.com)
RAIDといえば、これは使ってる人いない?
何度かスレで名前挙がってるけど、動作実績はないみたいなんで。
公式では「使えるかもねー」みたいなことは言ってるが……
916:名無しさん@お腹いっぱい。
11/06/20 21:24:45.36 tl135woz0
>>911
Isilon
917:名無しさん@お腹いっぱい。
11/06/21 08:44:23.13 qIG8E/zB0
>>915
どうせなら初号機にすればよかったのに
918:名無しさん@お腹いっぱい。
11/06/21 09:00:30.43 TRBVpAHn0
>>915
これって、LEDは自分で付けなきゃいかんのか。メンドいな。
919:名無しさん@お腹いっぱい。
11/06/21 21:50:05.46 tdhMDl8o0
しかし、2TBの壁はどうにかならんのかね。
VMwareとしては、VMFSに置くのはあくまでシステムだけで
データ領域等は各ゲストが他のマシンからNFSやiSCSIで分けて貰え、ってことなのかな。
920:名無しさん@お腹いっぱい。
11/06/21 22:30:57.51 TZGPL1I80
ファイルサーバを仮想化するんかい。ファイルサーバのような帯域を使う
サーバは仮想化に向かない気がするんだがな。
921:名無しさん@お腹いっぱい。
11/06/21 22:31:21.44 TZGPL1I80
GPL! GPL!
922:名無しさん@お腹いっぱい。
11/06/21 22:42:34.22 TynLyPJK0
個人利用なんかだと、ファイルサーバも統合して物理マシン1台に出来るならメリット大きいよね。
VMwareは端からそんな輩は相手にしてないだろうが。
923:名無しさん@お腹いっぱい。
11/06/21 22:51:25.34 tJisBSfS0
しかしファイルサーバまで統合してしまうとアクセス集中した時全部巻き添えで低下しない?
924:名無しさん@お腹いっぱい。
11/06/21 22:58:04.79 dqzLtHR50
ファイルサーバと一言で言っても
実際にどの程度の帯域が必要かは
現場によってまったく違う
全部ひとまとめに語れるもんじゃないだろう
925:名無しさん@お腹いっぱい。
11/06/22 00:06:54.57 DvWKSPW0P
帯域はそれこそNICを分けたっていいしな
CPUは近年のマルチコア化を考えたら使い切る方が難しいし、メモリも劇的に安くなってる
仮想化はもはや使って当たり前のレベルかと
強いて言えばUSBパススルーの性能が低すぎるから、市販の外付けとかが気軽に使えないのはネックだな
926:名無しさん@お腹いっぱい。
11/06/22 15:18:48.51 +adu7YFO0
ESXiでサーバー仮想化しようと思ってるんだけど、ちょっと質問というか、
アドバイスして欲しくてカキコ。
ESXiホストに2つNICをつんで、1つはファイルサーバーとのアクセス用にする予定。
ファイルサーバーにはユーザーのホームディレクトリとかが保管されてる。
ゲストマシンは複数あって、それら全てはファイルサーバーの中を参照できるようにしたい。
ファイルサーバーとホスト間の通信はNFS使う予定なんだけど、
ゲストマシンごとにNFSマウントしていくのと、ESXiホストでマウントしてゲストマシンがそこを見に行くの、
どっちがオススメなんでしょーか。
927:名無しさん@お腹いっぱい。
11/06/22 15:29:36.70 mVwYoZ010
>>926
わからん。
Q1.ファイルサーバというハードはあるのか?
Q1がYESなら各ゲストがファイルーサーバをmountするだけだが?
Q1がNoで、ESXi上の仮想マシンの一つをファイルサーバにすうるなら、各ゲストが
それぞれmountすればすむ。
Q2/ESXiホストって何だ?マネジメント用コンソール用のシェルのことか?
928:名無しさん@お腹いっぱい。
11/06/22 15:32:33.02 DvWKSPW0P
各々のゲストから共有領域としてファイルサーバーを見たいなら前者じゃないと要求が満たせないぞ
929:名無しさん@お腹いっぱい。
11/06/22 15:38:12.12 MjZ5D+WC0
>>926
>>928も言ってる様に、ESXi側でNFSをマウントしても、
そこにvmdkやらを作れるだけで、ゲストからはその真っ新な仮想HDDの中身が見えるだけだよ。
930:名無しさん@お腹いっぱい。
11/06/22 18:25:42.18 EbfcQ3vo0
物理マシンは何台あってどういう編成で
どのようなネットワーク構成(トポロジ)で
どのようなユーザがどのような形態で利用したくて
結局のところ一体何がやりたいのか
が全然分からない質問になってるね
多分本人も何を聞いてんだかよく分かってないんだろう
931: ◆QkPf4H2wzI
11/06/22 18:41:04.71 1jqv2Z5g0
>>926
ESXiホストの動作を理解していない、としか思えない訳だが・・・。
932:名無しさん@お腹いっぱい。
11/06/23 00:48:00.58 BaRB0OnJ0
というより単語がよくわかっとらんのかね
セグメント違うのか帯域食らいたくないのかNIC2枚の理由はよーわからんのだけど
ゲストマシンってのはESXi上に作成した仮想マシンだろう、たぶん。
ファイルサーバーとホスト間ってのは、たぶん別途何かのサーバが立ってて
ESXiのデータストアにNFSマウントするのと、仮想マシンがNFS mountするのどっちがいい?って質問だと思う。
でもデータストアにNFSマウントした所で意味ないというか>>928 >>929の通り
なんで素直に各仮想マシンからファイルサーバとやらをNFSマウントしとき
933:名無しさん@お腹いっぱい。
11/06/23 01:50:52.44 es2+I2f+0
単純にhypervisorと分かってないとか?
934:名無しさん@お腹いっぱい。
11/06/23 08:24:02.27 BmD/4P7X0
ゲストOSからもESXからもアクセスできるファイルサーバがあれば
いいってことかな?
ならESXからNFSアクセスで、ゲストOSからはNFS、CIFSアクセスできるように
ファイルサーバを設定すればいいんじゃないか
935:名無しさん@お腹いっぱい。
11/06/23 09:26:59.53 jKcCefau0
最後の一行がおかしいだけ
>ゲストマシンごとにNFSマウントしていくのと、ESXiホストでマウントしてゲストマシンがそこを見に行くの、
どっちがオススメなんでしょーか。
ESXiホストでマウントしたからといってその領域を各ホストにシェアする訳ではない
936:名無しさん@お腹いっぱい。
11/06/23 14:09:31.38 pAarX0mSP
SANの共有ディスクを二台目からマウントしようとする時、フォーマットしないと次に進めないんだけどなんでやろか…?
中にデータ入っとるんに
937:名無しさん@お腹いっぱい。
11/06/23 14:50:40.74 9Du8ym/FP
前にも出たけどSAN側で共有できる数の制限とか変更してないんじゃね
938:名無しさん@お腹いっぱい。
11/06/23 15:29:27.35 Do4sOXbY0
上の話題と少し被るけど、ESXiとは別にデータストア用のサーバを立てる場合、
iSCSIとNFSのどちらを選ぶかは、利便性は別として、速度を重視するなら
実際に環境を構築して比較するしかない?
939:名無しさん@お腹いっぱい。
11/06/23 15:50:47.48 pAarX0mSP
>>938
ない
製品によって速度違うしねえ
940:名無しさん@お腹いっぱい。
11/06/23 16:01:01.54 9Du8ym/FP
製品やチューニングによって全然違うし、その辺はもう実際に検証するしかないかと
後は軽い時の負荷よりも、アクセスが多くなってきたときの耐負荷性を見た方が良い
941:名無しさん@お腹いっぱい。
11/06/23 16:18:07.17 Do4sOXbY0
>>939-940
レスあんがと。
やっぱりそうか。
家庭内利用だから勿論 専用品を買うお金なんてなく、
安鯖に3TB*6くらいでRAID-Z2にするつもりなんだけど、OSをどうしたもんかなーと。
定番はFreeNAS? でも仕切り直しされた新verが出たばかりでまだ機能少なく、
パフォーマンスもイマイチ、という話も。
ならZFS本家のSolarisか? となるが、こちらもOpenSolarisが死んで、
後継も分派しまくりでワケワケメ……。
942:名無しさん@お腹いっぱい。
11/06/23 18:07:45.20 9Du8ym/FP
Openfilerは?
FreeNASよりはiSCSIのパフォーマンスが良いと聞いた。
943:名無しさん@お腹いっぱい。
11/06/23 18:19:48.28 2YkBaMMN0
ESXiってSATAの2TBオーバーのHDDって普通に使えるのかな。
944:名無しさん@お腹いっぱい。
11/06/23 18:32:04.51 9Du8ym/FP
使えるけどいわゆるアラインをしないとダメとかどっかで聞いた
945:名無しさん@お腹いっぱい。
11/06/23 18:58:52.01 sDYYJjY10
アラインの前に、3TiB一つvolumeは作れなかったかと。
2TiB以下二つに切って、くっつければ使えると思った。
946:名無しさん@お腹いっぱい。
11/06/23 19:19:46.52 hmu99yFp0
でも2TB越えるvmdk作れないから、あまり意味なくね。
なんにしろ、DASなハードウェアRAIDで大きなディスクを有効に使うのは困難だね。
それぞれゲストからRawで使うというなら別だけど。
障害時の復旧も考えると、データドライブはそっちの方がいいか。
947:名無しさん@お腹いっぱい。
11/06/23 19:23:32.97 JJpbn0EwO
>>941
っOpenIndiana
OpenSolarisの後継プロジェクトだよ
948:名無しさん@お腹いっぱい。
11/06/23 20:08:09.06 hmu99yFp0
FreeNASスレではNexentaStorとかも名前挙がってたな。
ストレージ特化で、FreeNASのOpenSolaris版みたいなもんらしい。
949:名無しさん@お腹いっぱい。
11/06/23 20:32:38.65 xCNr5JTp0
OpenIndianaはstableがまだ出てないからな
もう少しで出そうな感じだけど
950:名無しさん@お腹いっぱい。
11/06/23 23:32:13.65 MnTnv/I/0
>>942
OpenfilerじゃZFS使えんでしょ
951:名無しさん@お腹いっぱい。
11/06/23 23:35:48.86 MnTnv/I/0
正確には、ver古いのとパフォーマンス振るわないので使い道にならない、か
952:936
11/06/24 01:27:34.58 R+H/EW6HP
>>937
レスしてくれてたのか。見落としてすまん。確認してみるね。
・・・でもSAN側にそんな高度な機能ないんだなw たぶん。
953:名無しさん@お腹いっぱい。
11/06/24 11:43:23.22 aMV2lHYG0
>>952
ESX側でできることは特にないと思うけどな。
ストレージが腐ってるんじゃね? としか。
954:名無しさん@お腹いっぱい。
11/06/24 19:09:13.52 VlXcN6lI0
Vmware ESXi4.1u1同士でsshでVMDKファイルをコピーしているのですが、
非常に遅いのですが、どうにかならんですかね。
Core2Duo同士のサーバでコピーしているのですが、瞬間最大風速では
13MByte/s出る事がありますが、平均しては7MByte/s程度しか出ません。
ちなみに仮想マシンは全部止めてコピーしてます。
955:名無しさん@お腹いっぱい。
11/06/24 19:10:51.11 /wvm4jHF0
>>954
コマンドは?
LAN環境は?
何で測定したの?
956:名無しさん@お腹いっぱい。
11/06/24 19:12:08.12 VlXcN6lI0
追記すると、速度が非常に不安定でして、1MByte/s ~ 13MByte/sで揺れてます。
仮想マシンが動いているなら揺れるのは納得出来るのですが、全部止めているので
ふにおちません。
957:名無しさん@お腹いっぱい。
11/06/24 19:20:25.91 VlXcN6lI0
>>955
Vmware ESXi同士でのコピーです。
sshでESXiサーバに直接ログインして、他のVmware ESXiサーバに
scpで直接コピーしています。
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx # ls
ISO freebsd6.0-base mint-nfs2 proxy
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx # cd mint-nfs2/
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx/mint-nfs2 # scp mint-nfs2*.vmdk dell08:/vmfs/volumes/datastore1/
root@dell08's password:
mint-nfs2_1-flat.vmdk 47% 24GB 8.6MB/s 51:39 ETA
環境は良く覚えてないのですが、双方Dell PowerEdge T100(Core2Duo)だったと思います。
一つのGbEスイッチ(HP Procurve,型番失念)で双方繋がっています。
958:名無しさん@お腹いっぱい。
11/06/24 19:25:08.59 /wvm4jHF0
>>957
ESXサーバの書き込み自体で遅いってことはない?
RAID5で構築してるとかでおそいとかじゃなくて?
ddコマンドで自分自身にwriteしたら想定された範囲の値で動作する?
959:名無しさん@お腹いっぱい。
11/06/24 19:27:19.27 +dzJ1wet0
>>957
過去ログによると、ESXiにNFSをマウントして そこにコピーすると比較的速いらしい。
なので、適当なNFSサーバをクッションにしてみては。
960:名無しさん@お腹いっぱい。
11/06/24 20:29:32.92 VlXcN6lI0
>>958
HDDはRAID無しで2本刺さってます。二つあるHDD同士のコピーを
ddで測ってみた所、
4687411200byteのdebian-6.0.1a-i386-amd64-source-DVD-1.isoが
# cd /path/datastore1
# date; dd if=/path/datastore2/debian-6.0.1a-i386-amd64-source-DVD-1.iso of=tmp.iso;date
Fri Jun 24 11:14:17 UTC 2011
9155100+0 records in
9155100+0 records out
Fri Jun 24 11:20:15 UTC 2011
という形で、13MByte/sしか出てませんね。sshのオーバーヘッドを考えると、
平均7MByte/sぐらいというのも悪い数字じゃなかったようです(^^;
しかしHDDがちょっと遅いな。在庫ってた古いのを挿したのですが、ちょっとHDDも
良いのを探してきた方がよさそうですね。。。
961:名無しさん@お腹いっぱい。
11/06/24 20:34:55.87 VlXcN6lI0
>>959
ありがとうございます。
962:名無しさん@お腹いっぱい。
11/06/24 22:23:35.41 9q3+zZUc0
一応、こっちにも投下。
ESXi上のWS2008R2にRDMで繋げたHDD(SATA500GB PVSCSI)に対して、
Win7(実機)からそれぞれSMB/NFS/iSCSIでベンチ取ってみた。
URLリンク(petite-soeur.dyndns.org)
詳細な環境は省くんで、絶対的な数値にあまり意味は無く、
あくまで相対的な比較程度ってことでお願い。
上記見る限り、ESXiでファイルサーバも結構 実用になるのかなー、と。
最近のHDDや複数ディスク束ねたりすれば、GbEがボトルネックになる程度には速度出そうだし、
RDMなら障害時のサルベージも割と容易。
963:名無しさん@お腹いっぱい。
11/06/24 22:55:32.99 fv618Z690
>>957
vmfsならscpよりvmkfstoolsの方が効率がいいってどっかでみた記憶があるけど
964:名無しさん@お腹いっぱい。
11/06/25 00:59:34.01 2GQ+BC8L0
VeeemFastSCPじゃ、ローカル環境経由になるから駄目かな?
965:名無しさん@お腹いっぱい。
11/06/25 01:02:37.59 uLrLU4lv0
cp は VMFS の特性と相性悪くてクソ遅いから vmkfstools がベスト
もう何年も前から有名な話だけど
966:名無しさん@お腹いっぱい。
11/06/25 02:07:05.06 ZbKgzUAB0
>>962
ディスクI/Oは実機の8割くらいで、SMB経由で更にマイナス1割、ってところか。
RAID5やRAID10するだけで簡単に100MB/s越えそうだな。
ますます高速なFCやIBが欲しくなる。
967:名無しさん@お腹いっぱい。
11/06/25 02:30:51.19 d00z0OIp0
うちは非対応のRAIDカードパススルーして、CentOSのサーバでsamba稼動させてるよ
ピークで600Mbpsぐらい出るから使いやすい
968:名無しさん@お腹いっぱい。
11/06/25 02:42:20.38 ZbKgzUAB0
>>967
Linuxでもそれだけ出るんだ。SMB2、ONにしてる?
あ、クライアントがWindowsとは限らないか。
あと、情報集積のためにもパススルーしてるカードの製品名も書いてくれると助かる。
969:名無しさん@お腹いっぱい。
11/06/25 02:46:09.04 d00z0OIp0
クライアントはWin7だね
昔報告したけどlspciではこんな感じ
03:00.0 SCSI storage controller: HighPoint Technologies, Inc. RocketRAID 230x 4 Port SATA-II Controller (rev 02)
sambaはこれ
samba-3.5.8-0.61.el5_1.wing
970:名無しさん@お腹いっぱい。
11/06/25 03:10:37.25 3DZ2CTeF0
>>968
WD20EARSを2発RAID1でmirrorしてる自宅環境だと、大体320Mbps程度かな
クライアントは Window7 64bit
実験用なんで色々ぶち込んでる
000:000:31.2 Mass storage controller: Intel Corporation 82801HR/HO/HH (ICH8R/DO/DH) 6 port SATA AHCI Controller [vmhba1]
000:004:00.0 Mass storage controller: Silicon Image, Inc. SiI 3512 SATARaid Controller [vmhba2]
000:004:01.0 Mass storage controller: Silicon Image, Inc. SiI 3512 SATARaid Controller [vmhba0]
000:004:04.0 Network controller: Marvell Technologies, Inc. Marvell 88E8001 Gigabit Ethernet Controller (Asus) [vmnic1]
CentOS release 5.6 (Final)
samba-3.0.33-3.29.el5_6.2
971:名無しさん@お腹いっぱい。
11/06/25 03:21:03.14 p27iJTzJ0
自分もファイルサーバを統合すべくOS選定中なんだけど、
如何せん、ZFSが使えるやつはどれもVMwareではパフォーマンス良くないんだよね。
NICやSCSIコントローラの準仮想化辺りが影響してるんだろうが、
DebianやCentOSといったメジャーどころのLinuxと比べると、
どうしても速度が劣る >Solaris&*BSD
972:962
11/06/25 15:35:58.27 qyaOIXi30
>>966
URLリンク(petite-soeur.dyndns.org)
ゲストOS上でそのまま測ったらこんな感じです。
いくつか遅くなってますが、ネットワーク経由の方はキャッシュが効いてるんですかね。
>>971
VMware Tools入らないOSは速度キビしいですよね。
入ってもPVSCSIやVMXNETが動かなかったりと。
973:名無しさん@お腹いっぱい。
11/06/26 19:32:07.99 oxquP9TN0
ESX使うならストレージは分けろよ
974:名無しさん@お腹いっぱい。
11/06/26 20:29:58.60 IWXvC+Ih0
そんなのユーザーの勝手
975:名無しさん@お腹いっぱい。
11/06/27 00:15:03.06 hiULiaC70
じゃあそのまま我慢して使えよ
976:名無しさん@お腹いっぱい。
11/06/27 00:50:07.92 kn+ZySaO0
コイツは何にキレてんだ?
977:名無しさん@お腹いっぱい。
11/06/27 00:56:55.65 dGWcaPZ60
小学生の口喧嘩が始まったと聞いて。
978:名無しさん@お腹いっぱい。
11/06/27 01:39:46.92 l8f4oGwH0
俺もESXiにHDD8台繋げてファイルサーバ組んでるけどね
物理マシンを増やしたくないし
979:名無しさん@お腹いっぱい。
11/06/27 10:31:40.34 fFHssH2tP
ストレージの共有化もESXiのメリットであるのは間違いない
ストレージに強烈に負荷をかける処理を複数回すのでなければ、同じHDDに仮想OSが複数のってても十分処理できるよ