11/06/18 00:55:27.60 3S4WMLP40
>>890
scpが遅くて仕方無かったけど、NFSをマウントしてそっちにコピーすればいいのか、
今度やってみよう
893:名無しさん@お腹いっぱい。
11/06/18 14:13:50.03 FO+CLfdO0
ESXiのゲストOSで、HDDをRDMで繋げてソフウェアRAIDを組んでる方っていますか?
負荷や速度等、実用になるのか気になっています。
良好なようでしたら、WHS2011辺りでファイルサーバを立てたいところなのですけど…。
894:名無しさん@お腹いっぱい。
11/06/18 15:51:16.32 35kTatSy0
>893
こんな書き込みが。
URLリンク(zigsow.jp)
895:名無しさん@お腹いっぱい。
11/06/18 16:12:55.69 FO+CLfdO0
>>894
レスありがとうございます。
Solaris系のRAID-Zで30~50MB/sですか。
一見遅そうに見えますが、逆に言えばCPUが非力なAthlonII Neoでこれだけ出るってことですよね。
自分の場合はバックアップ先のファイル倉庫として使うつもりなので充分かもしれません。
WHS2011ならSMB2.0で更なる速度upも望めるかもしれませんし。
896:名無しさん@お腹いっぱい。
11/06/18 21:42:03.37 9wYajiqW0
>>895
実際にESXi上でWHS2011を動かし、データドライブはRDMで運用中。
私見だけど、倉庫をRAIDで構築するよりWHS2011のServerBackupを
使って日々バックアップを取るような運用をした方が実用的だと思う。
常に同時にアクセスをするRAIDと違い、倉庫用ドライブとバックアップ
ドライブが同時期に損傷するというケースも発生しにくいし、任意の
時点のバックアップから復元することも可能。
ダウンタイムを最小限にすることが最大目的であるならばRAIDは有用
だから、目的を明確にして手段を選ぶことをお勧めしたい。
897:名無しさん@お腹いっぱい。
11/06/19 00:49:49.61 vbxPJYhx0
既出かもしれないが、ぐぐってもあまり報告がないので、一応レポ。
ESXi4.1.0u1でGPUパススルーできた。
ML110 G6, i7-870, Radeon HD5570の組み合わせ。
898:名無しさん@お腹いっぱい。
11/06/19 01:33:26.34 sASZae6Y0
3wareの8500-8認識しない。。。9シリーズならドライバあるのになんてこった
899:名無しさん@お腹いっぱい。
11/06/19 02:19:13.57 QjEKwErk0
>>897
しっつもーん!
それって、OpenCL とかでけーさんにも使用できますか?
900:名無しさん@お腹いっぱい。
11/06/19 20:17:47.83 eDqSB/UO0
こちらでもGT110b,i870,Radeon HD5570の組み合わせで問題なく動いてる。
ATI StreamもHDMI Audioも使えるし、動画再生支援もOK。
ただVIDEO BIOSの違いか、安定動作するボードとしないボードがあったのでご注意を。
以前、ESXにそんなことを求めるのは間違っている的なことをいわれたことがあるのでこの辺で。
901:名無しさん@お腹いっぱい。
11/06/19 21:09:39.63 vbxPJYhx0
>>897
遅レスすまん
もともとGPGPU目当てで導入したので、先ほどからテスト計算させているが、十分な速度で動いてる。
あと、同じくML110 G6にAdaptecのASR 2405入れてみたがこちらも動く。
BDをRAWで扱いたかったので、持ってるカードで(RAIDだけど)試してみた。
ただし、Windowsの標準のドライバだとうまくドライブを認識しなかったので、Adaptecから最新のドライバをダウンロードすると問題なかった。
902:名無しさん@お腹いっぱい。
11/06/19 21:14:20.85 vbxPJYhx0
追加
玄人志向のSATA3I2-PCIeは無理でした。OSは起動するが、ドライバを更新しようとするとこける。
Marvellの88SE9128チップだが、ESXiが対応してないものはやっぱりパススルーしても無理っぽい。
903:名無しさん@お腹いっぱい。
11/06/19 21:47:39.60 QjEKwErk0
>>900-901
すっごい!できるんだ。
Xen だったかでできるようにしようとしてる人がいたのは見たけど。
情報ありがとう!
904:名無しさん@お腹いっぱい。
11/06/19 23:10:56.98 gG2QZLAs0
手っ取り早く冗長化するために、安価なRAID BOXを勧める人いるが
それらの製品で、実際に障害起きたときどうすんの?って問題があるよね。
そもそもディスクがfailしたときにアラート飛ぶどころか、検知さるかも怪しいの多いし。
905:名無しさん@お腹いっぱい。
11/06/19 23:20:40.07 RZqxbSsn0
ESXi 4.1u1で、MellanoxのInfiniBand アダプタ(ConnectX系)を使おうとしてトラブったので簡単にレポ。
ドライバとパッチの適用順間違えると、ドライバのインストールが失敗する。
新規インストールでESXi410-201104001のパッチ適用後に、ドライバのインストールしたらインストール出来なかった。
(エラーメッセージが出てインストールされない)
新規インストール -> MellanoxのIB ドライバ -> ESXiパッチ の順で適用すると動作した。
ドライバインストール後のデフォルト設定がetherになってる。
最初、vSphere Clientのネットワークでvmnicに表示されてたので、IP設定して他のIBホストにping打ってみたけど
返事が返ってこない。IB スイッチを挟んでたのでリンクのチェックしたら繋がってなかった。
Windowsで使用したときにドライバの初期設定がetherだったので、esxcfg-module で設定確認。
設定値が2 (ether) だった為 1 (IB)へ変更。マニュアルでは connectx_port_config 使って変更しろって書いてあるが、
設定するとモジュールのオプションが足らなくて起動時にドライバ読み込めなくなり認識しなくなるので注意。
確実に設定するには、コンソールがvSphere CLIでモジュールオプションの設定しましょう。
自分はsshでログインして「esxcfg-module -s 'port_type_default=1' mlx4_en」で設定しました。
906:名無しさん@お腹いっぱい。
11/06/20 00:58:25.30 JUzH79m40
URLリンク(www.arms-corp.co.jp)
DASの冗長化にコレどうだろ?
一応、LEDで障害検知もできるみたい。
907:名無しさん@お腹いっぱい。
11/06/20 07:56:37.82 DDqOZQtW0
【仮想化道場】 vSphere 4.1のベースとなるハイパーバイザーのESX/ESXi 4.1 -クラウド Watch
URLリンク(cloud.watch.impress.co.jp)
908:名無しさん@お腹いっぱい。
11/06/20 10:14:49.92 hmwYUuej0
>>904
障害がおきたらRS232C等経由で通知されてアラートメールが来るから
ホットスワップで引っこ抜いて交換すればいいと思うが、
どの辺に問題を感じてるの? ていうかESXとどう関係が?
909:名無しさん@お腹いっぱい。
11/06/20 10:21:29.26 DDqOZQtW0
>>908
ちゃんとしたストレージエンクロージャー ではなく、
上の方で挙がってる怪しいニコイチなデバイスのこと言ってるんではないかと
910:名無しさん@お腹いっぱい。
11/06/20 14:18:56.18 hmwYUuej0
む、そうか、読めてなかったスマソ
安価でアラート飛ばせるのを選びましょうということで。
911:名無しさん@お腹いっぱい。
11/06/20 14:22:16.98 gp/NBjY60
ReadyNASとQNAPどちらがお勧め?
912:名無しさん@お腹いっぱい。
11/06/20 14:23:16.21 h0RHhxHI0
>>911
QNAP
913:名無しさん@お腹いっぱい。
11/06/20 16:30:09.82 xWEH3b9W0
>911
EMCかNetApp
914:名無しさん@お腹いっぱい。
11/06/20 17:40:21.87 gsTPXx520
>>906
一瞬ハンダ付けキットものかと思った
915:名無しさん@お腹いっぱい。
11/06/20 19:07:09.42 u5F3C9YZ0
URLリンク(www.xenon-jp.com)
RAIDといえば、これは使ってる人いない?
何度かスレで名前挙がってるけど、動作実績はないみたいなんで。
公式では「使えるかもねー」みたいなことは言ってるが……
916:名無しさん@お腹いっぱい。
11/06/20 21:24:45.36 tl135woz0
>>911
Isilon
917:名無しさん@お腹いっぱい。
11/06/21 08:44:23.13 qIG8E/zB0
>>915
どうせなら初号機にすればよかったのに
918:名無しさん@お腹いっぱい。
11/06/21 09:00:30.43 TRBVpAHn0
>>915
これって、LEDは自分で付けなきゃいかんのか。メンドいな。
919:名無しさん@お腹いっぱい。
11/06/21 21:50:05.46 tdhMDl8o0
しかし、2TBの壁はどうにかならんのかね。
VMwareとしては、VMFSに置くのはあくまでシステムだけで
データ領域等は各ゲストが他のマシンからNFSやiSCSIで分けて貰え、ってことなのかな。
920:名無しさん@お腹いっぱい。
11/06/21 22:30:57.51 TZGPL1I80
ファイルサーバを仮想化するんかい。ファイルサーバのような帯域を使う
サーバは仮想化に向かない気がするんだがな。
921:名無しさん@お腹いっぱい。
11/06/21 22:31:21.44 TZGPL1I80
GPL! GPL!
922:名無しさん@お腹いっぱい。
11/06/21 22:42:34.22 TynLyPJK0
個人利用なんかだと、ファイルサーバも統合して物理マシン1台に出来るならメリット大きいよね。
VMwareは端からそんな輩は相手にしてないだろうが。
923:名無しさん@お腹いっぱい。
11/06/21 22:51:25.34 tJisBSfS0
しかしファイルサーバまで統合してしまうとアクセス集中した時全部巻き添えで低下しない?
924:名無しさん@お腹いっぱい。
11/06/21 22:58:04.79 dqzLtHR50
ファイルサーバと一言で言っても
実際にどの程度の帯域が必要かは
現場によってまったく違う
全部ひとまとめに語れるもんじゃないだろう
925:名無しさん@お腹いっぱい。
11/06/22 00:06:54.57 DvWKSPW0P
帯域はそれこそNICを分けたっていいしな
CPUは近年のマルチコア化を考えたら使い切る方が難しいし、メモリも劇的に安くなってる
仮想化はもはや使って当たり前のレベルかと
強いて言えばUSBパススルーの性能が低すぎるから、市販の外付けとかが気軽に使えないのはネックだな
926:名無しさん@お腹いっぱい。
11/06/22 15:18:48.51 +adu7YFO0
ESXiでサーバー仮想化しようと思ってるんだけど、ちょっと質問というか、
アドバイスして欲しくてカキコ。
ESXiホストに2つNICをつんで、1つはファイルサーバーとのアクセス用にする予定。
ファイルサーバーにはユーザーのホームディレクトリとかが保管されてる。
ゲストマシンは複数あって、それら全てはファイルサーバーの中を参照できるようにしたい。
ファイルサーバーとホスト間の通信はNFS使う予定なんだけど、
ゲストマシンごとにNFSマウントしていくのと、ESXiホストでマウントしてゲストマシンがそこを見に行くの、
どっちがオススメなんでしょーか。
927:名無しさん@お腹いっぱい。
11/06/22 15:29:36.70 mVwYoZ010
>>926
わからん。
Q1.ファイルサーバというハードはあるのか?
Q1がYESなら各ゲストがファイルーサーバをmountするだけだが?
Q1がNoで、ESXi上の仮想マシンの一つをファイルサーバにすうるなら、各ゲストが
それぞれmountすればすむ。
Q2/ESXiホストって何だ?マネジメント用コンソール用のシェルのことか?
928:名無しさん@お腹いっぱい。
11/06/22 15:32:33.02 DvWKSPW0P
各々のゲストから共有領域としてファイルサーバーを見たいなら前者じゃないと要求が満たせないぞ
929:名無しさん@お腹いっぱい。
11/06/22 15:38:12.12 MjZ5D+WC0
>>926
>>928も言ってる様に、ESXi側でNFSをマウントしても、
そこにvmdkやらを作れるだけで、ゲストからはその真っ新な仮想HDDの中身が見えるだけだよ。
930:名無しさん@お腹いっぱい。
11/06/22 18:25:42.18 EbfcQ3vo0
物理マシンは何台あってどういう編成で
どのようなネットワーク構成(トポロジ)で
どのようなユーザがどのような形態で利用したくて
結局のところ一体何がやりたいのか
が全然分からない質問になってるね
多分本人も何を聞いてんだかよく分かってないんだろう
931: ◆QkPf4H2wzI
11/06/22 18:41:04.71 1jqv2Z5g0
>>926
ESXiホストの動作を理解していない、としか思えない訳だが・・・。
932:名無しさん@お腹いっぱい。
11/06/23 00:48:00.58 BaRB0OnJ0
というより単語がよくわかっとらんのかね
セグメント違うのか帯域食らいたくないのかNIC2枚の理由はよーわからんのだけど
ゲストマシンってのはESXi上に作成した仮想マシンだろう、たぶん。
ファイルサーバーとホスト間ってのは、たぶん別途何かのサーバが立ってて
ESXiのデータストアにNFSマウントするのと、仮想マシンがNFS mountするのどっちがいい?って質問だと思う。
でもデータストアにNFSマウントした所で意味ないというか>>928 >>929の通り
なんで素直に各仮想マシンからファイルサーバとやらをNFSマウントしとき
933:名無しさん@お腹いっぱい。
11/06/23 01:50:52.44 es2+I2f+0
単純にhypervisorと分かってないとか?
934:名無しさん@お腹いっぱい。
11/06/23 08:24:02.27 BmD/4P7X0
ゲストOSからもESXからもアクセスできるファイルサーバがあれば
いいってことかな?
ならESXからNFSアクセスで、ゲストOSからはNFS、CIFSアクセスできるように
ファイルサーバを設定すればいいんじゃないか
935:名無しさん@お腹いっぱい。
11/06/23 09:26:59.53 jKcCefau0
最後の一行がおかしいだけ
>ゲストマシンごとにNFSマウントしていくのと、ESXiホストでマウントしてゲストマシンがそこを見に行くの、
どっちがオススメなんでしょーか。
ESXiホストでマウントしたからといってその領域を各ホストにシェアする訳ではない
936:名無しさん@お腹いっぱい。
11/06/23 14:09:31.38 pAarX0mSP
SANの共有ディスクを二台目からマウントしようとする時、フォーマットしないと次に進めないんだけどなんでやろか…?
中にデータ入っとるんに
937:名無しさん@お腹いっぱい。
11/06/23 14:50:40.74 9Du8ym/FP
前にも出たけどSAN側で共有できる数の制限とか変更してないんじゃね
938:名無しさん@お腹いっぱい。
11/06/23 15:29:27.35 Do4sOXbY0
上の話題と少し被るけど、ESXiとは別にデータストア用のサーバを立てる場合、
iSCSIとNFSのどちらを選ぶかは、利便性は別として、速度を重視するなら
実際に環境を構築して比較するしかない?
939:名無しさん@お腹いっぱい。
11/06/23 15:50:47.48 pAarX0mSP
>>938
ない
製品によって速度違うしねえ
940:名無しさん@お腹いっぱい。
11/06/23 16:01:01.54 9Du8ym/FP
製品やチューニングによって全然違うし、その辺はもう実際に検証するしかないかと
後は軽い時の負荷よりも、アクセスが多くなってきたときの耐負荷性を見た方が良い
941:名無しさん@お腹いっぱい。
11/06/23 16:18:07.17 Do4sOXbY0
>>939-940
レスあんがと。
やっぱりそうか。
家庭内利用だから勿論 専用品を買うお金なんてなく、
安鯖に3TB*6くらいでRAID-Z2にするつもりなんだけど、OSをどうしたもんかなーと。
定番はFreeNAS? でも仕切り直しされた新verが出たばかりでまだ機能少なく、
パフォーマンスもイマイチ、という話も。
ならZFS本家のSolarisか? となるが、こちらもOpenSolarisが死んで、
後継も分派しまくりでワケワケメ……。
942:名無しさん@お腹いっぱい。
11/06/23 18:07:45.20 9Du8ym/FP
Openfilerは?
FreeNASよりはiSCSIのパフォーマンスが良いと聞いた。
943:名無しさん@お腹いっぱい。
11/06/23 18:19:48.28 2YkBaMMN0
ESXiってSATAの2TBオーバーのHDDって普通に使えるのかな。
944:名無しさん@お腹いっぱい。
11/06/23 18:32:04.51 9Du8ym/FP
使えるけどいわゆるアラインをしないとダメとかどっかで聞いた
945:名無しさん@お腹いっぱい。
11/06/23 18:58:52.01 sDYYJjY10
アラインの前に、3TiB一つvolumeは作れなかったかと。
2TiB以下二つに切って、くっつければ使えると思った。
946:名無しさん@お腹いっぱい。
11/06/23 19:19:46.52 hmu99yFp0
でも2TB越えるvmdk作れないから、あまり意味なくね。
なんにしろ、DASなハードウェアRAIDで大きなディスクを有効に使うのは困難だね。
それぞれゲストからRawで使うというなら別だけど。
障害時の復旧も考えると、データドライブはそっちの方がいいか。
947:名無しさん@お腹いっぱい。
11/06/23 19:23:32.97 JJpbn0EwO
>>941
っOpenIndiana
OpenSolarisの後継プロジェクトだよ
948:名無しさん@お腹いっぱい。
11/06/23 20:08:09.06 hmu99yFp0
FreeNASスレではNexentaStorとかも名前挙がってたな。
ストレージ特化で、FreeNASのOpenSolaris版みたいなもんらしい。
949:名無しさん@お腹いっぱい。
11/06/23 20:32:38.65 xCNr5JTp0
OpenIndianaはstableがまだ出てないからな
もう少しで出そうな感じだけど
950:名無しさん@お腹いっぱい。
11/06/23 23:32:13.65 MnTnv/I/0
>>942
OpenfilerじゃZFS使えんでしょ
951:名無しさん@お腹いっぱい。
11/06/23 23:35:48.86 MnTnv/I/0
正確には、ver古いのとパフォーマンス振るわないので使い道にならない、か
952:936
11/06/24 01:27:34.58 R+H/EW6HP
>>937
レスしてくれてたのか。見落としてすまん。確認してみるね。
・・・でもSAN側にそんな高度な機能ないんだなw たぶん。
953:名無しさん@お腹いっぱい。
11/06/24 11:43:23.22 aMV2lHYG0
>>952
ESX側でできることは特にないと思うけどな。
ストレージが腐ってるんじゃね? としか。
954:名無しさん@お腹いっぱい。
11/06/24 19:09:13.52 VlXcN6lI0
Vmware ESXi4.1u1同士でsshでVMDKファイルをコピーしているのですが、
非常に遅いのですが、どうにかならんですかね。
Core2Duo同士のサーバでコピーしているのですが、瞬間最大風速では
13MByte/s出る事がありますが、平均しては7MByte/s程度しか出ません。
ちなみに仮想マシンは全部止めてコピーしてます。
955:名無しさん@お腹いっぱい。
11/06/24 19:10:51.11 /wvm4jHF0
>>954
コマンドは?
LAN環境は?
何で測定したの?
956:名無しさん@お腹いっぱい。
11/06/24 19:12:08.12 VlXcN6lI0
追記すると、速度が非常に不安定でして、1MByte/s ~ 13MByte/sで揺れてます。
仮想マシンが動いているなら揺れるのは納得出来るのですが、全部止めているので
ふにおちません。
957:名無しさん@お腹いっぱい。
11/06/24 19:20:25.91 VlXcN6lI0
>>955
Vmware ESXi同士でのコピーです。
sshでESXiサーバに直接ログインして、他のVmware ESXiサーバに
scpで直接コピーしています。
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx # ls
ISO freebsd6.0-base mint-nfs2 proxy
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx # cd mint-nfs2/
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx/mint-nfs2 # scp mint-nfs2*.vmdk dell08:/vmfs/volumes/datastore1/
root@dell08's password:
mint-nfs2_1-flat.vmdk 47% 24GB 8.6MB/s 51:39 ETA
環境は良く覚えてないのですが、双方Dell PowerEdge T100(Core2Duo)だったと思います。
一つのGbEスイッチ(HP Procurve,型番失念)で双方繋がっています。
958:名無しさん@お腹いっぱい。
11/06/24 19:25:08.59 /wvm4jHF0
>>957
ESXサーバの書き込み自体で遅いってことはない?
RAID5で構築してるとかでおそいとかじゃなくて?
ddコマンドで自分自身にwriteしたら想定された範囲の値で動作する?
959:名無しさん@お腹いっぱい。
11/06/24 19:27:19.27 +dzJ1wet0
>>957
過去ログによると、ESXiにNFSをマウントして そこにコピーすると比較的速いらしい。
なので、適当なNFSサーバをクッションにしてみては。
960:名無しさん@お腹いっぱい。
11/06/24 20:29:32.92 VlXcN6lI0
>>958
HDDはRAID無しで2本刺さってます。二つあるHDD同士のコピーを
ddで測ってみた所、
4687411200byteのdebian-6.0.1a-i386-amd64-source-DVD-1.isoが
# cd /path/datastore1
# date; dd if=/path/datastore2/debian-6.0.1a-i386-amd64-source-DVD-1.iso of=tmp.iso;date
Fri Jun 24 11:14:17 UTC 2011
9155100+0 records in
9155100+0 records out
Fri Jun 24 11:20:15 UTC 2011
という形で、13MByte/sしか出てませんね。sshのオーバーヘッドを考えると、
平均7MByte/sぐらいというのも悪い数字じゃなかったようです(^^;
しかしHDDがちょっと遅いな。在庫ってた古いのを挿したのですが、ちょっとHDDも
良いのを探してきた方がよさそうですね。。。
961:名無しさん@お腹いっぱい。
11/06/24 20:34:55.87 VlXcN6lI0
>>959
ありがとうございます。
962:名無しさん@お腹いっぱい。
11/06/24 22:23:35.41 9q3+zZUc0
一応、こっちにも投下。
ESXi上のWS2008R2にRDMで繋げたHDD(SATA500GB PVSCSI)に対して、
Win7(実機)からそれぞれSMB/NFS/iSCSIでベンチ取ってみた。
URLリンク(petite-soeur.dyndns.org)
詳細な環境は省くんで、絶対的な数値にあまり意味は無く、
あくまで相対的な比較程度ってことでお願い。
上記見る限り、ESXiでファイルサーバも結構 実用になるのかなー、と。
最近のHDDや複数ディスク束ねたりすれば、GbEがボトルネックになる程度には速度出そうだし、
RDMなら障害時のサルベージも割と容易。
963:名無しさん@お腹いっぱい。
11/06/24 22:55:32.99 fv618Z690
>>957
vmfsならscpよりvmkfstoolsの方が効率がいいってどっかでみた記憶があるけど
964:名無しさん@お腹いっぱい。
11/06/25 00:59:34.01 2GQ+BC8L0
VeeemFastSCPじゃ、ローカル環境経由になるから駄目かな?
965:名無しさん@お腹いっぱい。
11/06/25 01:02:37.59 uLrLU4lv0
cp は VMFS の特性と相性悪くてクソ遅いから vmkfstools がベスト
もう何年も前から有名な話だけど
966:名無しさん@お腹いっぱい。
11/06/25 02:07:05.06 ZbKgzUAB0
>>962
ディスクI/Oは実機の8割くらいで、SMB経由で更にマイナス1割、ってところか。
RAID5やRAID10するだけで簡単に100MB/s越えそうだな。
ますます高速なFCやIBが欲しくなる。
967:名無しさん@お腹いっぱい。
11/06/25 02:30:51.19 d00z0OIp0
うちは非対応のRAIDカードパススルーして、CentOSのサーバでsamba稼動させてるよ
ピークで600Mbpsぐらい出るから使いやすい
968:名無しさん@お腹いっぱい。
11/06/25 02:42:20.38 ZbKgzUAB0
>>967
Linuxでもそれだけ出るんだ。SMB2、ONにしてる?
あ、クライアントがWindowsとは限らないか。
あと、情報集積のためにもパススルーしてるカードの製品名も書いてくれると助かる。
969:名無しさん@お腹いっぱい。
11/06/25 02:46:09.04 d00z0OIp0
クライアントはWin7だね
昔報告したけどlspciではこんな感じ
03:00.0 SCSI storage controller: HighPoint Technologies, Inc. RocketRAID 230x 4 Port SATA-II Controller (rev 02)
sambaはこれ
samba-3.5.8-0.61.el5_1.wing
970:名無しさん@お腹いっぱい。
11/06/25 03:10:37.25 3DZ2CTeF0
>>968
WD20EARSを2発RAID1でmirrorしてる自宅環境だと、大体320Mbps程度かな
クライアントは Window7 64bit
実験用なんで色々ぶち込んでる
000:000:31.2 Mass storage controller: Intel Corporation 82801HR/HO/HH (ICH8R/DO/DH) 6 port SATA AHCI Controller [vmhba1]
000:004:00.0 Mass storage controller: Silicon Image, Inc. SiI 3512 SATARaid Controller [vmhba2]
000:004:01.0 Mass storage controller: Silicon Image, Inc. SiI 3512 SATARaid Controller [vmhba0]
000:004:04.0 Network controller: Marvell Technologies, Inc. Marvell 88E8001 Gigabit Ethernet Controller (Asus) [vmnic1]
CentOS release 5.6 (Final)
samba-3.0.33-3.29.el5_6.2
971:名無しさん@お腹いっぱい。
11/06/25 03:21:03.14 p27iJTzJ0
自分もファイルサーバを統合すべくOS選定中なんだけど、
如何せん、ZFSが使えるやつはどれもVMwareではパフォーマンス良くないんだよね。
NICやSCSIコントローラの準仮想化辺りが影響してるんだろうが、
DebianやCentOSといったメジャーどころのLinuxと比べると、
どうしても速度が劣る >Solaris&*BSD
972:962
11/06/25 15:35:58.27 qyaOIXi30
>>966
URLリンク(petite-soeur.dyndns.org)
ゲストOS上でそのまま測ったらこんな感じです。
いくつか遅くなってますが、ネットワーク経由の方はキャッシュが効いてるんですかね。
>>971
VMware Tools入らないOSは速度キビしいですよね。
入ってもPVSCSIやVMXNETが動かなかったりと。
973:名無しさん@お腹いっぱい。
11/06/26 19:32:07.99 oxquP9TN0
ESX使うならストレージは分けろよ
974:名無しさん@お腹いっぱい。
11/06/26 20:29:58.60 IWXvC+Ih0
そんなのユーザーの勝手
975:名無しさん@お腹いっぱい。
11/06/27 00:15:03.06 hiULiaC70
じゃあそのまま我慢して使えよ
976:名無しさん@お腹いっぱい。
11/06/27 00:50:07.92 kn+ZySaO0
コイツは何にキレてんだ?
977:名無しさん@お腹いっぱい。
11/06/27 00:56:55.65 dGWcaPZ60
小学生の口喧嘩が始まったと聞いて。
978:名無しさん@お腹いっぱい。
11/06/27 01:39:46.92 l8f4oGwH0
俺もESXiにHDD8台繋げてファイルサーバ組んでるけどね
物理マシンを増やしたくないし
979:名無しさん@お腹いっぱい。
11/06/27 10:31:40.34 fFHssH2tP
ストレージの共有化もESXiのメリットであるのは間違いない
ストレージに強烈に負荷をかける処理を複数回すのでなければ、同じHDDに仮想OSが複数のってても十分処理できるよ