VMwareESX/ESXi専用スレPart5at SOFTWARE
VMwareESX/ESXi専用スレPart5 - 暇つぶし2ch855:名無しさん@お腹いっぱい。
11/06/11 06:29:19.91 5HAnbiG10
次のバージョンいつ出るの?

856:名無しさん@お腹いっぱい。
11/06/11 09:02:16.55 pNF5cs7S0
>>855
次のバージョンはわからんけど、最新パッチが 4/28 に出ていて、これが現時点で最新っぽい。
URLリンク(kb.vmware.com)
URLリンク(hostupdate.vmware.com)


857:名無しさん@お腹いっぱい。
11/06/12 14:11:23.59 xVWTrQCT0
DQ67SWで、確かにオンボードNICは使えませんでしたが、
対応NICさえ挿せば、マザーボード自体はESXiで使えますよ。
我が家はDQ67SW(B3) + Intel ET Dual Port Server Adapterで無事使えていて、
i5 2400SでVT-dがあるので、USBコントローラのVMDirectPathもできました。

858:名無しさん@お腹いっぱい。
11/06/12 14:48:51.82 7OZX5fwy0
>>857
ΩΩΩなんですってー!
ということは、マザーが原因じゃないのかぁ。

ちょっと再挑戦してみるる。情報ありがとー。
KVM でパススルーして PT2 で録画できたけど、
ESXi でできればうれしいなぁ。

859: ◆QkPf4H2wzI
11/06/12 14:57:15.21 iNEnn6DA0
>>858
多分ESXiのインスコ中に白い文字列の画面で止まったかと。
何回インスコしても同じ画面で止まる、と。
それ、NICが対応してない場合に表示される画面。

860:名無しさん@お腹いっぱい。
11/06/12 15:24:35.66 jYL2Zt9Z0
使えないってその程度のレベルの話だったのかよ
ちょっと調べればオンボNICの使い方なんて見つかるのに


861:853
11/06/12 18:11:11.54 7OZX5fwy0
穴がなかったら、掘ってでも入りたいです。
勉強になりました!(^_^)b

862:名無しさん@お腹いっぱい。
11/06/13 23:22:15.87 BebqeOPq0
以前、InfiniBandの話題が少し出ていたけど
実際に家庭で使ってる人っている? 使用感とかどうだろ。

自宅内に張り巡らすのはともかく、
ESXiのマシンとストレージサーバを直結するくらいなら導入しても良いかな~、と検討してるんだが。

863:名無しさん@お腹いっぱい。
11/06/14 00:16:26.36 FgBbxjPd0
>>862

ESXiでInfiniBand使用しSRPで接続ですが、以前の1GbEのiSCSIで使用してるときより
レイテンシ上がったのと転送速度が上がったのでかなり速くなった気がする。

vm上からddで簡易測定してみたけど、このくらいでてた。

# dd if=/dev/zero of=/var/tmp/test.dd bs=128k count=200000
200000+0 records in
200000+0 records out
26214400000 bytes (26 GB) copied, 94.8833 s, 276 MB/s

864:名無しさん@お腹いっぱい。
11/06/14 07:18:12.72 0fd9w0HB0
>>863
おぉ、さすがに早いね。
速度もそうだけど、やっぱりEthernetと違って低レイテンシなのも大きいのだろうな。

ちなみにHCAは何を使用されてます?

865:名無しさん@お腹いっぱい。
11/06/14 08:09:16.73 FgBbxjPd0
>>864
何回か測定したら200MB/s~300MB/sくらいでふらついてますね。

SRP Target側HCAがMHGH29-XTC、InitiatorがMHEA28-XTCです。

866:名無しさん@お腹いっぱい。
11/06/14 08:11:44.70 JAqWHy620
インフィニバンドってもう個人で手が出る範囲になってきたの??
まだ相当効果だと思うんだが…。

867:名無しさん@お腹いっぱい。
11/06/14 11:08:01.58 GEyTjXPd0
>>866
うちは、スイッチとカード3枚セットで中古で4万くらいでした。


868:名無しさん@お腹いっぱい。
11/06/14 11:11:17.59 JAqWHy620
>>867
マジで!?
秋葉原とかで買えるの!?

869:名無しさん@お腹いっぱい。
11/06/14 13:44:19.22 XpxcAJ9K0
>>866
eBay覗いてると、安いのは数十$であるよ。

しかし、InfiniBandの実測値がスレで出るのって初めてかな?
自分も興味湧いてきた。
低レイテンシってことで、ESXiのデータストアにするには最適っぽいし。

870:名無しさん@お腹いっぱい。
11/06/15 02:54:55.67 GIPQKpgH0
VMware vSphere4 を入れて使用できるノートPCってないでしょうか?
タワー型ですと、設置場所がなくて難しいです。。。

871:名無しさん@お腹いっぱい。
11/06/15 02:58:10.00 wSdrxr1/P
あるけど確実にどれが動くかは知らない
とりあえずCore i系で、NICがIntelのものを選ぶべし

ただひとつ言っておくけど、例え動いても検証程度にしか使えないよ

872:名無しさん@お腹いっぱい。
11/06/15 10:34:00.33 WsTFSG2r0
Workstation入れてそのゲストにすればCPU以外気にしなくて
いいんでないかい
ものすげー無駄な努力だが


873:名無しさん@お腹いっぱい。
11/06/15 14:43:42.05 h9nmquMz0
InfiniBandって、専用スレできてたんだな

InfiniBandについて語るスレ
スレリンク(hard板)

874:名無しさん@お腹いっぱい。
11/06/17 11:57:58.76 u/EMcieM0
ESXiのブート領域もミラーリング等で冗長化しようと思った場合って、
ハードウェアRAIDのカードにインストールするしかないのでしょうか?

現在はUSBメモリからブートさせているのですが、
これではそのUSBメモリが逝ったらアウトですよね?
データストアが無事なら、復旧自体はあまり難しくはないですが……

875:名無しさん@お腹いっぱい。
11/06/17 12:34:52.80 X35n6xVjP
冗長構成にしたいならNFSやiSCSIターゲット側でやった方が良いよ

876:名無しさん@お腹いっぱい。
11/06/17 12:44:15.79 e2dHd7pk0
PXEを使用してネットワークブートにしろ、ってことですかね?

877:名無しさん@お腹いっぱい。
11/06/17 12:54:29.99 X35n6xVjP
うん
NFSは無理かも。iSCSIブートはIntelのNICとかでいけるらしい

878:名無しさん@お腹いっぱい。
11/06/17 13:11:15.82 uMOYte460
USBメモリが逝くのと、RAIDボード死亡or全HDD死亡を比べたら
故障率に大差ない気がする。

879:名無しさん@お腹いっぱい。
11/06/17 13:18:27.69 e2dHd7pk0
>>877
レスありがとうございます。ID変わってますが874です。

やはりそうなりますか。
Solaris辺りでRAIDZにて巨大なストレージ作って、ブートもデータストアもそこから、
ESXiにはCPUとメモリだけでストレージは無し、というのがスマートなんですかねぇ。
あとはNICをチーミングでもすれば、家庭用としては充分でしょうか。
……先は長いです。

880:名無しさん@お腹いっぱい。
11/06/17 13:29:04.20 X35n6xVjP
家庭用ではむしろオーバースペックだと思うけど
でも気になるから作ったらレポよろ

881:名無しさん@お腹いっぱい。
11/06/17 13:35:16.19 HTAS5XLx0
>>879
そんなとこだろうね
M/Bや電源が逝くとこまで配慮すると、それはもvMotionとかの話になるし、
家庭でやるには少々過剰かも

882:名無しさん@お腹いっぱい。
11/06/17 14:55:54.21 tz7Cyu2e0
USBメモリを常時ミラーリングできたりしたらいいんだけどね

883:名無しさん@お腹いっぱい。
11/06/17 15:12:30.58 x+ZIZJ6U0
>>874
俺は vicfg-cfgbackup.pl でときどきバックアップするだけで十分に感じてるけど、
あまり使ってる人いないのかな。

884:名無しさん@お腹いっぱい。
11/06/17 15:13:28.46 hLfM5JHl0
ミラーするHDDケースにSSDぶち込んでUSB接続でよくね?

885:名無しさん@お腹いっぱい。
11/06/17 15:22:24.37 bRpv4daw0
頻繁にESXiの設定を変更するのでもなければ、
DDで定期的にイメージバックアップ取っとけばいいじゃない
と言うか、自分はそうしてる。
ESXi停止→別のUSBメモリからboot→Linux起動→DDでsambaにバックアップ
という具合。bootデバイス変更はSoLでやるので、実際にハードを弄ることはない。

そう簡単にESXiを止めるわけにはいかん、という人には向いてないが。

>>884
ソレって結局 元々の質問主が言ってるハードウェアRAIDだし、
そもそもUSB接続にする必要も無いような。>>258,308みたいな製品もあるし。

886:名無しさん@お腹いっぱい。
11/06/17 15:27:44.33 X35n6xVjP
ブートイメージは1回取って、個々の仮想マシン情報はバックアップスクリプトでvmdkと一緒にコピー取ってるかな
完全な冗長性があるわけじゃないが、家庭用マシンぐらいならこれで十分

887:名無しさん@お腹いっぱい。
11/06/17 16:00:02.05 mz9IQA4k0
>>883
自分も同じ。多少のダウンタイムが痛くない家庭用ならそれが無難だよね。
問題起きても、予めddで複製しておいたUSBメモリを差し替えて、リストアするだけ。数分で終わる。

888:名無しさん@お腹いっぱい。
11/06/17 16:12:14.36 dVOACIiv0
バックアップの話題が出てるので、ついでに質問させて下さい。

データストアをDASにしてる場合、vmdk他のバックアップはどうするのするが適切でしょうか?(速度等)
scpやvSphere Clientからなど、いくつか方法がありますよね。
ちなみに自環境ではホットバックアップである必要はありません。

889:名無しさん@お腹いっぱい。
11/06/17 16:34:16.07 5u/z6zng0
>>882
USBメモリを複数本挿して、それらをストライピングやミラーリングする機器があった筈
普通に単発で使うより、却って不安定になりそうな気がしないでもないが……

890:名無しさん@お腹いっぱい。
11/06/17 16:35:41.24 X35n6xVjP
>>888
scpとかClientからだと遅すぎて実用に耐えなかった
URLリンク(www.masatom.in)

この辺とか参考にしてスクリプト書くとすげー楽よ

891:名無しさん@お腹いっぱい。
11/06/17 17:32:43.84 WFdlS6At0
たしかそれスナップショット未対応

892:名無しさん@お腹いっぱい。
11/06/18 00:55:27.60 3S4WMLP40
>>890
scpが遅くて仕方無かったけど、NFSをマウントしてそっちにコピーすればいいのか、
今度やってみよう

893:名無しさん@お腹いっぱい。
11/06/18 14:13:50.03 FO+CLfdO0
ESXiのゲストOSで、HDDをRDMで繋げてソフウェアRAIDを組んでる方っていますか?
負荷や速度等、実用になるのか気になっています。

良好なようでしたら、WHS2011辺りでファイルサーバを立てたいところなのですけど…。

894:名無しさん@お腹いっぱい。
11/06/18 15:51:16.32 35kTatSy0
>893
こんな書き込みが。
URLリンク(zigsow.jp)

895:名無しさん@お腹いっぱい。
11/06/18 16:12:55.69 FO+CLfdO0
>>894
レスありがとうございます。

Solaris系のRAID-Zで30~50MB/sですか。
一見遅そうに見えますが、逆に言えばCPUが非力なAthlonII Neoでこれだけ出るってことですよね。
自分の場合はバックアップ先のファイル倉庫として使うつもりなので充分かもしれません。
WHS2011ならSMB2.0で更なる速度upも望めるかもしれませんし。

896:名無しさん@お腹いっぱい。
11/06/18 21:42:03.37 9wYajiqW0
>>895
実際にESXi上でWHS2011を動かし、データドライブはRDMで運用中。
私見だけど、倉庫をRAIDで構築するよりWHS2011のServerBackupを
使って日々バックアップを取るような運用をした方が実用的だと思う。

常に同時にアクセスをするRAIDと違い、倉庫用ドライブとバックアップ
ドライブが同時期に損傷するというケースも発生しにくいし、任意の
時点のバックアップから復元することも可能。

ダウンタイムを最小限にすることが最大目的であるならばRAIDは有用
だから、目的を明確にして手段を選ぶことをお勧めしたい。


897:名無しさん@お腹いっぱい。
11/06/19 00:49:49.61 vbxPJYhx0
既出かもしれないが、ぐぐってもあまり報告がないので、一応レポ。
ESXi4.1.0u1でGPUパススルーできた。
ML110 G6, i7-870, Radeon HD5570の組み合わせ。


898:名無しさん@お腹いっぱい。
11/06/19 01:33:26.34 sASZae6Y0
3wareの8500-8認識しない。。。9シリーズならドライバあるのになんてこった


899:名無しさん@お腹いっぱい。
11/06/19 02:19:13.57 QjEKwErk0
>>897
しっつもーん!
それって、OpenCL とかでけーさんにも使用できますか?

900:名無しさん@お腹いっぱい。
11/06/19 20:17:47.83 eDqSB/UO0
こちらでもGT110b,i870,Radeon HD5570の組み合わせで問題なく動いてる。
ATI StreamもHDMI Audioも使えるし、動画再生支援もOK。
ただVIDEO BIOSの違いか、安定動作するボードとしないボードがあったのでご注意を。

以前、ESXにそんなことを求めるのは間違っている的なことをいわれたことがあるのでこの辺で。

901:名無しさん@お腹いっぱい。
11/06/19 21:09:39.63 vbxPJYhx0
>>897
遅レスすまん
もともとGPGPU目当てで導入したので、先ほどからテスト計算させているが、十分な速度で動いてる。

あと、同じくML110 G6にAdaptecのASR 2405入れてみたがこちらも動く。
BDをRAWで扱いたかったので、持ってるカードで(RAIDだけど)試してみた。
ただし、Windowsの標準のドライバだとうまくドライブを認識しなかったので、Adaptecから最新のドライバをダウンロードすると問題なかった。

902:名無しさん@お腹いっぱい。
11/06/19 21:14:20.85 vbxPJYhx0
追加

玄人志向のSATA3I2-PCIeは無理でした。OSは起動するが、ドライバを更新しようとするとこける。
Marvellの88SE9128チップだが、ESXiが対応してないものはやっぱりパススルーしても無理っぽい。

903:名無しさん@お腹いっぱい。
11/06/19 21:47:39.60 QjEKwErk0
>>900-901
すっごい!できるんだ。
Xen だったかでできるようにしようとしてる人がいたのは見たけど。

情報ありがとう!

904:名無しさん@お腹いっぱい。
11/06/19 23:10:56.98 gG2QZLAs0
手っ取り早く冗長化するために、安価なRAID BOXを勧める人いるが
それらの製品で、実際に障害起きたときどうすんの?って問題があるよね。
そもそもディスクがfailしたときにアラート飛ぶどころか、検知さるかも怪しいの多いし。

905:名無しさん@お腹いっぱい。
11/06/19 23:20:40.07 RZqxbSsn0
ESXi 4.1u1で、MellanoxのInfiniBand アダプタ(ConnectX系)を使おうとしてトラブったので簡単にレポ。

ドライバとパッチの適用順間違えると、ドライバのインストールが失敗する。
新規インストールでESXi410-201104001のパッチ適用後に、ドライバのインストールしたらインストール出来なかった。
(エラーメッセージが出てインストールされない)
新規インストール -> MellanoxのIB ドライバ -> ESXiパッチ の順で適用すると動作した。

ドライバインストール後のデフォルト設定がetherになってる。
最初、vSphere Clientのネットワークでvmnicに表示されてたので、IP設定して他のIBホストにping打ってみたけど
返事が返ってこない。IB スイッチを挟んでたのでリンクのチェックしたら繋がってなかった。
Windowsで使用したときにドライバの初期設定がetherだったので、esxcfg-module で設定確認。
設定値が2 (ether) だった為 1 (IB)へ変更。マニュアルでは connectx_port_config 使って変更しろって書いてあるが、
設定するとモジュールのオプションが足らなくて起動時にドライバ読み込めなくなり認識しなくなるので注意。
確実に設定するには、コンソールがvSphere CLIでモジュールオプションの設定しましょう。
自分はsshでログインして「esxcfg-module -s 'port_type_default=1' mlx4_en」で設定しました。

906:名無しさん@お腹いっぱい。
11/06/20 00:58:25.30 JUzH79m40
URLリンク(www.arms-corp.co.jp)
DASの冗長化にコレどうだろ?
一応、LEDで障害検知もできるみたい。

907:名無しさん@お腹いっぱい。
11/06/20 07:56:37.82 DDqOZQtW0
【仮想化道場】 vSphere 4.1のベースとなるハイパーバイザーのESX/ESXi 4.1 -クラウド Watch
URLリンク(cloud.watch.impress.co.jp)

908:名無しさん@お腹いっぱい。
11/06/20 10:14:49.92 hmwYUuej0
>>904
障害がおきたらRS232C等経由で通知されてアラートメールが来るから
ホットスワップで引っこ抜いて交換すればいいと思うが、
どの辺に問題を感じてるの? ていうかESXとどう関係が?


909:名無しさん@お腹いっぱい。
11/06/20 10:21:29.26 DDqOZQtW0
>>908
ちゃんとしたストレージエンクロージャー ではなく、
上の方で挙がってる怪しいニコイチなデバイスのこと言ってるんではないかと

910:名無しさん@お腹いっぱい。
11/06/20 14:18:56.18 hmwYUuej0
む、そうか、読めてなかったスマソ
安価でアラート飛ばせるのを選びましょうということで。

911:名無しさん@お腹いっぱい。
11/06/20 14:22:16.98 gp/NBjY60
ReadyNASとQNAPどちらがお勧め?

912:名無しさん@お腹いっぱい。
11/06/20 14:23:16.21 h0RHhxHI0
>>911
QNAP

913:名無しさん@お腹いっぱい。
11/06/20 16:30:09.82 xWEH3b9W0
>911
EMCかNetApp

914:名無しさん@お腹いっぱい。
11/06/20 17:40:21.87 gsTPXx520
>>906
一瞬ハンダ付けキットものかと思った

915:名無しさん@お腹いっぱい。
11/06/20 19:07:09.42 u5F3C9YZ0
URLリンク(www.xenon-jp.com)
RAIDといえば、これは使ってる人いない?
何度かスレで名前挙がってるけど、動作実績はないみたいなんで。
公式では「使えるかもねー」みたいなことは言ってるが……

916:名無しさん@お腹いっぱい。
11/06/20 21:24:45.36 tl135woz0
>>911
Isilon

917:名無しさん@お腹いっぱい。
11/06/21 08:44:23.13 qIG8E/zB0
>>915
どうせなら初号機にすればよかったのに

918:名無しさん@お腹いっぱい。
11/06/21 09:00:30.43 TRBVpAHn0
>>915
これって、LEDは自分で付けなきゃいかんのか。メンドいな。

919:名無しさん@お腹いっぱい。
11/06/21 21:50:05.46 tdhMDl8o0
しかし、2TBの壁はどうにかならんのかね。

VMwareとしては、VMFSに置くのはあくまでシステムだけで
データ領域等は各ゲストが他のマシンからNFSやiSCSIで分けて貰え、ってことなのかな。

920:名無しさん@お腹いっぱい。
11/06/21 22:30:57.51 TZGPL1I80
ファイルサーバを仮想化するんかい。ファイルサーバのような帯域を使う
サーバは仮想化に向かない気がするんだがな。

921:名無しさん@お腹いっぱい。
11/06/21 22:31:21.44 TZGPL1I80
GPL! GPL!



922:名無しさん@お腹いっぱい。
11/06/21 22:42:34.22 TynLyPJK0
個人利用なんかだと、ファイルサーバも統合して物理マシン1台に出来るならメリット大きいよね。
VMwareは端からそんな輩は相手にしてないだろうが。

923:名無しさん@お腹いっぱい。
11/06/21 22:51:25.34 tJisBSfS0
しかしファイルサーバまで統合してしまうとアクセス集中した時全部巻き添えで低下しない?


924:名無しさん@お腹いっぱい。
11/06/21 22:58:04.79 dqzLtHR50
ファイルサーバと一言で言っても
実際にどの程度の帯域が必要かは
現場によってまったく違う

全部ひとまとめに語れるもんじゃないだろう

925:名無しさん@お腹いっぱい。
11/06/22 00:06:54.57 DvWKSPW0P
帯域はそれこそNICを分けたっていいしな
CPUは近年のマルチコア化を考えたら使い切る方が難しいし、メモリも劇的に安くなってる
仮想化はもはや使って当たり前のレベルかと
強いて言えばUSBパススルーの性能が低すぎるから、市販の外付けとかが気軽に使えないのはネックだな

926:名無しさん@お腹いっぱい。
11/06/22 15:18:48.51 +adu7YFO0
ESXiでサーバー仮想化しようと思ってるんだけど、ちょっと質問というか、
アドバイスして欲しくてカキコ。

ESXiホストに2つNICをつんで、1つはファイルサーバーとのアクセス用にする予定。
ファイルサーバーにはユーザーのホームディレクトリとかが保管されてる。
ゲストマシンは複数あって、それら全てはファイルサーバーの中を参照できるようにしたい。

ファイルサーバーとホスト間の通信はNFS使う予定なんだけど、
ゲストマシンごとにNFSマウントしていくのと、ESXiホストでマウントしてゲストマシンがそこを見に行くの、
どっちがオススメなんでしょーか。

927:名無しさん@お腹いっぱい。
11/06/22 15:29:36.70 mVwYoZ010
>>926
わからん。
Q1.ファイルサーバというハードはあるのか?
Q1がYESなら各ゲストがファイルーサーバをmountするだけだが?
Q1がNoで、ESXi上の仮想マシンの一つをファイルサーバにすうるなら、各ゲストが
それぞれmountすればすむ。
Q2/ESXiホストって何だ?マネジメント用コンソール用のシェルのことか?

928:名無しさん@お腹いっぱい。
11/06/22 15:32:33.02 DvWKSPW0P
各々のゲストから共有領域としてファイルサーバーを見たいなら前者じゃないと要求が満たせないぞ

929:名無しさん@お腹いっぱい。
11/06/22 15:38:12.12 MjZ5D+WC0
>>926
>>928も言ってる様に、ESXi側でNFSをマウントしても、
そこにvmdkやらを作れるだけで、ゲストからはその真っ新な仮想HDDの中身が見えるだけだよ。

930:名無しさん@お腹いっぱい。
11/06/22 18:25:42.18 EbfcQ3vo0
物理マシンは何台あってどういう編成で
どのようなネットワーク構成(トポロジ)で
どのようなユーザがどのような形態で利用したくて
結局のところ一体何がやりたいのか

が全然分からない質問になってるね
多分本人も何を聞いてんだかよく分かってないんだろう

931: ◆QkPf4H2wzI
11/06/22 18:41:04.71 1jqv2Z5g0
>>926
ESXiホストの動作を理解していない、としか思えない訳だが・・・。

932:名無しさん@お腹いっぱい。
11/06/23 00:48:00.58 BaRB0OnJ0
というより単語がよくわかっとらんのかね

セグメント違うのか帯域食らいたくないのかNIC2枚の理由はよーわからんのだけど
ゲストマシンってのはESXi上に作成した仮想マシンだろう、たぶん。

ファイルサーバーとホスト間ってのは、たぶん別途何かのサーバが立ってて
ESXiのデータストアにNFSマウントするのと、仮想マシンがNFS mountするのどっちがいい?って質問だと思う。
でもデータストアにNFSマウントした所で意味ないというか>>928 >>929の通り
なんで素直に各仮想マシンからファイルサーバとやらをNFSマウントしとき

933:名無しさん@お腹いっぱい。
11/06/23 01:50:52.44 es2+I2f+0
単純にhypervisorと分かってないとか?

934:名無しさん@お腹いっぱい。
11/06/23 08:24:02.27 BmD/4P7X0
ゲストOSからもESXからもアクセスできるファイルサーバがあれば
いいってことかな?
ならESXからNFSアクセスで、ゲストOSからはNFS、CIFSアクセスできるように
ファイルサーバを設定すればいいんじゃないか


935:名無しさん@お腹いっぱい。
11/06/23 09:26:59.53 jKcCefau0
最後の一行がおかしいだけ

>ゲストマシンごとにNFSマウントしていくのと、ESXiホストでマウントしてゲストマシンがそこを見に行くの、
どっちがオススメなんでしょーか。

ESXiホストでマウントしたからといってその領域を各ホストにシェアする訳ではない

936:名無しさん@お腹いっぱい。
11/06/23 14:09:31.38 pAarX0mSP
SANの共有ディスクを二台目からマウントしようとする時、フォーマットしないと次に進めないんだけどなんでやろか…?

中にデータ入っとるんに

937:名無しさん@お腹いっぱい。
11/06/23 14:50:40.74 9Du8ym/FP
前にも出たけどSAN側で共有できる数の制限とか変更してないんじゃね

938:名無しさん@お腹いっぱい。
11/06/23 15:29:27.35 Do4sOXbY0
上の話題と少し被るけど、ESXiとは別にデータストア用のサーバを立てる場合、
iSCSIとNFSのどちらを選ぶかは、利便性は別として、速度を重視するなら
実際に環境を構築して比較するしかない?

939:名無しさん@お腹いっぱい。
11/06/23 15:50:47.48 pAarX0mSP
>>938
ない

製品によって速度違うしねえ

940:名無しさん@お腹いっぱい。
11/06/23 16:01:01.54 9Du8ym/FP
製品やチューニングによって全然違うし、その辺はもう実際に検証するしかないかと

後は軽い時の負荷よりも、アクセスが多くなってきたときの耐負荷性を見た方が良い

941:名無しさん@お腹いっぱい。
11/06/23 16:18:07.17 Do4sOXbY0
>>939-940
レスあんがと。
やっぱりそうか。

家庭内利用だから勿論 専用品を買うお金なんてなく、
安鯖に3TB*6くらいでRAID-Z2にするつもりなんだけど、OSをどうしたもんかなーと。
定番はFreeNAS? でも仕切り直しされた新verが出たばかりでまだ機能少なく、
パフォーマンスもイマイチ、という話も。
ならZFS本家のSolarisか? となるが、こちらもOpenSolarisが死んで、
後継も分派しまくりでワケワケメ……。

942:名無しさん@お腹いっぱい。
11/06/23 18:07:45.20 9Du8ym/FP
Openfilerは?
FreeNASよりはiSCSIのパフォーマンスが良いと聞いた。

943:名無しさん@お腹いっぱい。
11/06/23 18:19:48.28 2YkBaMMN0
ESXiってSATAの2TBオーバーのHDDって普通に使えるのかな。

944:名無しさん@お腹いっぱい。
11/06/23 18:32:04.51 9Du8ym/FP
使えるけどいわゆるアラインをしないとダメとかどっかで聞いた

945:名無しさん@お腹いっぱい。
11/06/23 18:58:52.01 sDYYJjY10
アラインの前に、3TiB一つvolumeは作れなかったかと。
2TiB以下二つに切って、くっつければ使えると思った。


946:名無しさん@お腹いっぱい。
11/06/23 19:19:46.52 hmu99yFp0
でも2TB越えるvmdk作れないから、あまり意味なくね。

なんにしろ、DASなハードウェアRAIDで大きなディスクを有効に使うのは困難だね。
それぞれゲストからRawで使うというなら別だけど。
障害時の復旧も考えると、データドライブはそっちの方がいいか。

947:名無しさん@お腹いっぱい。
11/06/23 19:23:32.97 JJpbn0EwO
>>941
っOpenIndiana

OpenSolarisの後継プロジェクトだよ

948:名無しさん@お腹いっぱい。
11/06/23 20:08:09.06 hmu99yFp0
FreeNASスレではNexentaStorとかも名前挙がってたな。
ストレージ特化で、FreeNASのOpenSolaris版みたいなもんらしい。

949:名無しさん@お腹いっぱい。
11/06/23 20:32:38.65 xCNr5JTp0
OpenIndianaはstableがまだ出てないからな
もう少しで出そうな感じだけど

950:名無しさん@お腹いっぱい。
11/06/23 23:32:13.65 MnTnv/I/0
>>942
OpenfilerじゃZFS使えんでしょ

951:名無しさん@お腹いっぱい。
11/06/23 23:35:48.86 MnTnv/I/0
正確には、ver古いのとパフォーマンス振るわないので使い道にならない、か

952:936
11/06/24 01:27:34.58 R+H/EW6HP
>>937
レスしてくれてたのか。見落としてすまん。確認してみるね。

・・・でもSAN側にそんな高度な機能ないんだなw たぶん。

953:名無しさん@お腹いっぱい。
11/06/24 11:43:23.22 aMV2lHYG0
>>952
ESX側でできることは特にないと思うけどな。
ストレージが腐ってるんじゃね? としか。

954:名無しさん@お腹いっぱい。
11/06/24 19:09:13.52 VlXcN6lI0
Vmware ESXi4.1u1同士でsshでVMDKファイルをコピーしているのですが、
非常に遅いのですが、どうにかならんですかね。

Core2Duo同士のサーバでコピーしているのですが、瞬間最大風速では
13MByte/s出る事がありますが、平均しては7MByte/s程度しか出ません。

ちなみに仮想マシンは全部止めてコピーしてます。

955:名無しさん@お腹いっぱい。
11/06/24 19:10:51.11 /wvm4jHF0
>>954
コマンドは?
LAN環境は?
何で測定したの?

956:名無しさん@お腹いっぱい。
11/06/24 19:12:08.12 VlXcN6lI0
追記すると、速度が非常に不安定でして、1MByte/s ~ 13MByte/sで揺れてます。

仮想マシンが動いているなら揺れるのは納得出来るのですが、全部止めているので
ふにおちません。



957:名無しさん@お腹いっぱい。
11/06/24 19:20:25.91 VlXcN6lI0
>>955

Vmware ESXi同士でのコピーです。

sshでESXiサーバに直接ログインして、他のVmware ESXiサーバに
scpで直接コピーしています。


/vmfs/volumes/wwwwwww-xxxxxxxxxxxx # ls
ISO freebsd6.0-base mint-nfs2 proxy
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx # cd mint-nfs2/
/vmfs/volumes/wwwwwww-xxxxxxxxxxxx/mint-nfs2 # scp mint-nfs2*.vmdk dell08:/vmfs/volumes/datastore1/
root@dell08's password:
mint-nfs2_1-flat.vmdk 47% 24GB 8.6MB/s 51:39 ETA

環境は良く覚えてないのですが、双方Dell PowerEdge T100(Core2Duo)だったと思います。
一つのGbEスイッチ(HP Procurve,型番失念)で双方繋がっています。


958:名無しさん@お腹いっぱい。
11/06/24 19:25:08.59 /wvm4jHF0
>>957
ESXサーバの書き込み自体で遅いってことはない?
RAID5で構築してるとかでおそいとかじゃなくて?
ddコマンドで自分自身にwriteしたら想定された範囲の値で動作する?

959:名無しさん@お腹いっぱい。
11/06/24 19:27:19.27 +dzJ1wet0
>>957
過去ログによると、ESXiにNFSをマウントして そこにコピーすると比較的速いらしい。
なので、適当なNFSサーバをクッションにしてみては。

960:名無しさん@お腹いっぱい。
11/06/24 20:29:32.92 VlXcN6lI0
>>958
HDDはRAID無しで2本刺さってます。二つあるHDD同士のコピーを
ddで測ってみた所、

4687411200byteのdebian-6.0.1a-i386-amd64-source-DVD-1.isoが


# cd /path/datastore1
# date; dd if=/path/datastore2/debian-6.0.1a-i386-amd64-source-DVD-1.iso of=tmp.iso;date
Fri Jun 24 11:14:17 UTC 2011
9155100+0 records in
9155100+0 records out
Fri Jun 24 11:20:15 UTC 2011

という形で、13MByte/sしか出てませんね。sshのオーバーヘッドを考えると、
平均7MByte/sぐらいというのも悪い数字じゃなかったようです(^^;

しかしHDDがちょっと遅いな。在庫ってた古いのを挿したのですが、ちょっとHDDも
良いのを探してきた方がよさそうですね。。。

961:名無しさん@お腹いっぱい。
11/06/24 20:34:55.87 VlXcN6lI0
>>959
ありがとうございます。

962:名無しさん@お腹いっぱい。
11/06/24 22:23:35.41 9q3+zZUc0
一応、こっちにも投下。

ESXi上のWS2008R2にRDMで繋げたHDD(SATA500GB PVSCSI)に対して、
Win7(実機)からそれぞれSMB/NFS/iSCSIでベンチ取ってみた。
URLリンク(petite-soeur.dyndns.org)

詳細な環境は省くんで、絶対的な数値にあまり意味は無く、
あくまで相対的な比較程度ってことでお願い。

上記見る限り、ESXiでファイルサーバも結構 実用になるのかなー、と。
最近のHDDや複数ディスク束ねたりすれば、GbEがボトルネックになる程度には速度出そうだし、
RDMなら障害時のサルベージも割と容易。

963:名無しさん@お腹いっぱい。
11/06/24 22:55:32.99 fv618Z690
>>957
vmfsならscpよりvmkfstoolsの方が効率がいいってどっかでみた記憶があるけど


964:名無しさん@お腹いっぱい。
11/06/25 00:59:34.01 2GQ+BC8L0
VeeemFastSCPじゃ、ローカル環境経由になるから駄目かな?

965:名無しさん@お腹いっぱい。
11/06/25 01:02:37.59 uLrLU4lv0
cp は VMFS の特性と相性悪くてクソ遅いから vmkfstools がベスト
もう何年も前から有名な話だけど

966:名無しさん@お腹いっぱい。
11/06/25 02:07:05.06 ZbKgzUAB0
>>962
ディスクI/Oは実機の8割くらいで、SMB経由で更にマイナス1割、ってところか。

RAID5やRAID10するだけで簡単に100MB/s越えそうだな。
ますます高速なFCやIBが欲しくなる。

967:名無しさん@お腹いっぱい。
11/06/25 02:30:51.19 d00z0OIp0
うちは非対応のRAIDカードパススルーして、CentOSのサーバでsamba稼動させてるよ
ピークで600Mbpsぐらい出るから使いやすい

968:名無しさん@お腹いっぱい。
11/06/25 02:42:20.38 ZbKgzUAB0
>>967
Linuxでもそれだけ出るんだ。SMB2、ONにしてる?
あ、クライアントがWindowsとは限らないか。

あと、情報集積のためにもパススルーしてるカードの製品名も書いてくれると助かる。

969:名無しさん@お腹いっぱい。
11/06/25 02:46:09.04 d00z0OIp0
クライアントはWin7だね
昔報告したけどlspciではこんな感じ

03:00.0 SCSI storage controller: HighPoint Technologies, Inc. RocketRAID 230x 4 Port SATA-II Controller (rev 02)

sambaはこれ
samba-3.5.8-0.61.el5_1.wing

970:名無しさん@お腹いっぱい。
11/06/25 03:10:37.25 3DZ2CTeF0
>>968
WD20EARSを2発RAID1でmirrorしてる自宅環境だと、大体320Mbps程度かな
クライアントは Window7 64bit
実験用なんで色々ぶち込んでる

000:000:31.2 Mass storage controller: Intel Corporation 82801HR/HO/HH (ICH8R/DO/DH) 6 port SATA AHCI Controller [vmhba1]
000:004:00.0 Mass storage controller: Silicon Image, Inc. SiI 3512 SATARaid Controller [vmhba2]
000:004:01.0 Mass storage controller: Silicon Image, Inc. SiI 3512 SATARaid Controller [vmhba0]
000:004:04.0 Network controller: Marvell Technologies, Inc. Marvell 88E8001 Gigabit Ethernet Controller (Asus) [vmnic1]

CentOS release 5.6 (Final)
samba-3.0.33-3.29.el5_6.2

971:名無しさん@お腹いっぱい。
11/06/25 03:21:03.14 p27iJTzJ0
自分もファイルサーバを統合すべくOS選定中なんだけど、
如何せん、ZFSが使えるやつはどれもVMwareではパフォーマンス良くないんだよね。
NICやSCSIコントローラの準仮想化辺りが影響してるんだろうが、
DebianやCentOSといったメジャーどころのLinuxと比べると、
どうしても速度が劣る >Solaris&*BSD

972:962
11/06/25 15:35:58.27 qyaOIXi30
>>966
URLリンク(petite-soeur.dyndns.org)
ゲストOS上でそのまま測ったらこんな感じです。
いくつか遅くなってますが、ネットワーク経由の方はキャッシュが効いてるんですかね。

>>971
VMware Tools入らないOSは速度キビしいですよね。
入ってもPVSCSIやVMXNETが動かなかったりと。

973:名無しさん@お腹いっぱい。
11/06/26 19:32:07.99 oxquP9TN0
ESX使うならストレージは分けろよ

974:名無しさん@お腹いっぱい。
11/06/26 20:29:58.60 IWXvC+Ih0
そんなのユーザーの勝手

975:名無しさん@お腹いっぱい。
11/06/27 00:15:03.06 hiULiaC70
じゃあそのまま我慢して使えよ

976:名無しさん@お腹いっぱい。
11/06/27 00:50:07.92 kn+ZySaO0
コイツは何にキレてんだ?

977:名無しさん@お腹いっぱい。
11/06/27 00:56:55.65 dGWcaPZ60
小学生の口喧嘩が始まったと聞いて。

978:名無しさん@お腹いっぱい。
11/06/27 01:39:46.92 l8f4oGwH0
俺もESXiにHDD8台繋げてファイルサーバ組んでるけどね
物理マシンを増やしたくないし

979:名無しさん@お腹いっぱい。
11/06/27 10:31:40.34 fFHssH2tP
ストレージの共有化もESXiのメリットであるのは間違いない
ストレージに強烈に負荷をかける処理を複数回すのでなければ、同じHDDに仮想OSが複数のってても十分処理できるよ


最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch