11/05/16 22:25:36.24 uoQmaZZN.net
InfiniBand(IB)について語るスレ
普通に買うと高いけど、ebayなどで安価なHCAやスイッチを購入可能です。
主要ベンダ
URLリンク(www.mellanox.com)
URLリンク(www.qlogic.com)
規格・管理ソフト等
URLリンク(www.openfabrics.org)
使用可能OS
Windows・Linux・vSphere Server・Solaris・HP-UX・AIX
参考
URLリンク(www.atmarkit.co.jp)
URLリンク(ja.wikipedia.org)
2:不明なデバイスさん
11/05/16 22:25:52.29 uoQmaZZN.net
用語
HCA(HostChannnelAdapter)
ホストに刺す物理インターフェイス
SM(SubnetManager)
InfiniBandネットワークでは必須。ないと動かない
IPoIB(IP over IB)
InfiniBand上でIPネットワークをカプセル化するためのプロトコル
RDS(Reliable Datagram Sockets)
InfiniBandネイティブでUDPの変わりに使用するプロトコル
SDP(Socket Direct Protocol)
InfiniBandネイティブでTCPの変わりに使用するプロトコル
SRP(SCSI RDMA Protocol)
InfiniBand上のSCSIコマンドをカプセル化して使用するためのプロトコル
MPI(Message Passing Interface)
メモリ分散型の並列計算をサポートするためのライブラリ。
3:不明なデバイスさん
11/05/16 22:26:05.45 uoQmaZZN.net
必須ソフト等
・P2Pネットワークで組む場合には、OpenSM等のSubnetManagerが必須。
・スイッチを使用する場合でも、SubnetManagerが組み込み出ない場合には
OpenSM等を動かす必要がある。
・OpenSMはLinux・Windows用が提供されている。
ドライバ等
Windows・Linux
HCAメーカが配布してるパッケージでインストールするのと、
OFEDが配布しているパッケージでインストールするのがある。
メーカ配布のパッケージもOFEDのパッケージが元になってる。
vSphere Server
Mellanoxの場合はメーカの配布しているドライバを使用する。
Solaris・HP-UX・AIX
OSに標準でドライバが入っている。
※注意点
ファームウェアのバージョンによって対応ドライバが変わったりするので注意。
4:不明なデバイスさん
11/05/16 22:29:11.58 uoQmaZZN.net
IBスレが見あたらなかったので適当にまとめてたててみました。
ebayで探すと安いのは$20くらいからあるので10GbE導入するよりは安そうなんですが
iSCSI用に個人で使ってる人とか居ませんか?
個人じゃない方も大歓迎ですが
5:不明なデバイスさん
11/05/16 23:28:26.78 uoQmaZZN.net
InfiniBandのベンチ結果
SDR IPoIB
URLリンク(blog.systemworks.co.jp)
DDR iSER
URLリンク(blog.systemworks.co.jp)
色々条件が違うので単純に比較は出来ませんが
6:不明なデバイスさん
11/05/16 23:30:44.66 6iU56ni9.net
おうち用に使ってます。
IBって10GbEみたいに繋いで終了じゃないので、そこが取っつきにくいのかな?
あと、HPC関連がメインだったので他の用途だとあんまりつかわれてなかったのが大きいかも
ネタ的にほとんどでてこなかったし
7:不明なデバイスさん
11/05/16 23:36:27.73 0yxGtDwI.net
10GbE欲しいけど価格から躊躇してる人間としてはちょっと興味がある。
前提知識が全くないんだがiSCSIやるのに何を購入して何をセットアップすりゃいいの?
8:不明なデバイスさん
11/05/17 00:03:37.09 jzL2nqJU.net
>7
うちでiSCSIテストしたときは、クライアント二台だったんだけど
ハードはカードとケーブルだけでいける。
ソフトとドライバは、カードメーカかOFEDから落とせばおっけー。
OpenSMってソフト動かさないと実際にはIBネットワークには繋がらないので、
そのへん注意ね。
ただ、安いカードだとIPoIBの上でiSCSIが動くのでパフォーマンスがそれなりにおちる。
高いカードだと色々ハード側で処理してくれるのでそんなにパフォーマンス落ちないんだけどね。
で、うちはiSCSIの変わりにSRPってプロトコル使うようにした。
TargetにOpenSolaris使ったらWindowsのinitiatorから繋がらなかったけど、Linuxを使ってやったら繋がった。
ちなみに、OSは何使うんでしょ?
9:不明なデバイスさん
11/05/17 00:14:03.80 37nTlESG.net
InfiniBand興味あるけど、日本語の文献が少ないのがネックだな。
用語集に追加
RDMA(Remote Direct Memory Access)
リモートDMA。あるPCからリモートのPCへのDMA転送を行うこと
iSER(iSCSI Extensions for RDMA)
iSCSIのデータ転送をRDMAにて行うことによって速度を向上させる。
10:不明なデバイスさん
11/05/17 00:21:52.00 9sMttnxG.net
>>8
TargetはOpenSolarisでInitiatorはLinux(KVM)、ESXiあたりかな。
ひとまずKVMが使えればいいとおもってます。
カードとケーブルか・・・価格帯もピンキリですかね。
11:不明なデバイスさん
11/05/17 01:08:04.82 jzL2nqJU.net
>>10
その構成だったらOpenSolarisがカード選ぶので、そこを気をつけて。
うちは、全部MellanoxのMHEA28-XTC購入してたんですが、Solarisのドライバが対応してなくてはまりました。
ESXiはMellanoxのIBカードは対応してるので大丈夫。
LinuxもOEFDのソフトがあるディストリだったら大丈夫かと。
メーカ純正のドライバじゃないとまずいって話だったら、RHELかSLSとかになっちゃいますが
カードですが、現行のモデルのものはやっぱり高いです。
ケーブルはCX4(旧)とQSFP(新)の二種類ありますが、値段はそんなに変わらないかと。
自分買ったのはeBayの国際配送してくれる業者から買いましたが、新品カード一枚$50と中古3mケーブル1本$25くらいでした。
新しめのカードだと、IBだけじゃなくて10GbEが喋れたりすのですが、OEM物の安いので$150くらいでしたね。
あと、新しいIB環境のソフトで動かそうとすると、ファームのバージョンによっては動いてくれなかったりするので、
カードのファームとIB環境のソフトは推奨の物を使用するようにした方がよいです。(各ホスト単位の話です)
自分がテストしてみた事ならネタ吐き出してきますので。
12:不明なデバイスさん
11/05/17 01:21:46.19 jzL2nqJU.net
資料的な物
CISCOのInfiniBandについての説明
URLリンク(www.cisco.com)
HPのIBでのRDMAプロトコルの説明
URLリンク(h50146.www5.hp.com)
UbuntuでのInfiniband環境構築
URLリンク(www.sepia-days.org)
13:不明なデバイスさん
11/05/17 02:31:39.12 mxJmm7VE.net
最近、某通販でMellanox MHGA28-1TCの中古が2万円ちょっとで出ていたので3枚衝動買いした。
Dual port HCAなので3台をcable 3本で直結すればswitchなしでそれぞれ通信できる予定。
14:不明なデバイスさん
11/05/17 02:33:47.34 mxJmm7VE.net
Cableがまだ届かないので遊べない(-_-;
探した中でHPの10Gbase-CX4用(444477-B22)が安そうだったので購入。
10Gbase-CX4用だったらSDR Infinibandは確実にokなはず、
20GbpsのDDRでも多分動くと思うけど、届いて動作確認できたらまた書き込みマス。
15:不明なデバイスさん
11/05/17 12:41:06.69 AGSIiUzQ.net
おおお、ebayでHCAを個人輸入しようか迷っていたところにタイムリーなスレが。
月末あたりにIYHしちゃいそうだ。
16:不明なデバイスさん
11/05/17 13:08:18.90 5Mvxlyak.net
結構送料が掛かるから集団IYHしたいなー(チラッチラッ
17:不明なデバイスさん
11/05/17 16:01:46.63 jzL2nqJU.net
MellanoxのInfiniBandのカードで調べたことの個人的なまとめ
Infinihost
PCI-Xの世代のカード。eBayで$60くらいか
InfiniHost III Ex
PCIe Gen1 世代のDualPortカード。eBayで安いのは$50くらいから
型番は MH*A28
最初の*がEはSDR、GはDDR。
※メモリ付きはSolaris系で動作可。なしは動かず。
InfiniHost III Lx
PCIe Gen1 世代のSinglePortカード。eBayで安いのは$40くらいから
型番は MH*S18 MHES14
最初の*がEはSDR、GはDDR。
※Solaris系では動かず。
18:不明なデバイスさん
11/05/17 16:37:04.34 jzL2nqJU.net
MellanoxのInfiniBandのカードで調べたことの個人的なまとめ2
ConnectX
PCIe Gen2 対応が入る。eBayで$160くらいから
型番はMH*H**
最初の*がEはSDR、GとRはDDR、JとQはQDR。
RとQはコネクタがQSFPなので注意。それ以外はCX-4の形状。
二番目の*が1は1ポート、2は2ポート
最後の*が8はPCIe Gen1、9はPCIe Gen2。
この世代からは、10GbEも喋れたり FCoCも喋ったりで何でもあり。
ConnectX-2
PCIe Gen2 対応。eBayで$400くらいから
型番はMH*H*9A MH*H*9B MH*H*9C
ConnectXの型番の最後にAだのBだのが付いてたらConnectX-2。
チップのプロセスが変わって省電力・小サイズになってる模様。
型番の-以下三桁の意味
一桁目 Xはメモリなし、1が128M、2が256M、3が512M
二桁目 ブラケットの大きさ SはLowProfile、Tは普通のサイズ
三桁目 RoHSの対応なので(ry
19:不明なデバイスさん
11/05/17 19:36:14.30 5Nao61Kt.net
ESXiとoi直結して使いたいんだが、oiなどsolaris系で動くSMてあるのかな?
スイッチは高いしなによりうるさそうで。8ポートぐらいで静かなのあればそれでもまあいいんだけど。
20:不明なデバイスさん
11/05/17 20:51:14.84 jzL2nqJU.net
>>19
残念ながら今のところSolaris系で動くSMはないみたい
スイッチも安いやつだとSM入ってないのばっかりですわ
21:不明なデバイスさん
11/05/17 23:28:58.84 OXLsK0bK.net
これIsilonのハブになってるアレのことでつか?
22:不明なデバイスさん
11/05/18 01:00:28.29 cgorjo85.net
>>21
そうでつ。
ちなみにどちらのInfiniband Switchが付いてきました?
うちはシスコだったけど、最近変わったそうなので。
23:不明なデバイスさん
11/05/18 01:24:36.29 49SoN4a9.net
TopSpin 120 (CISCOSFS 7000 )はSM付いてるみたい
Voltaireо Grid SwitchTM ISR 9024 は不明
FlextronicsのシリーズはSMはなし
Mellanoxの高いのはSMがオプションでつけれる感じ
24:不明なデバイスさん
11/05/18 03:39:58.13 awUL+Jz8.net
>>18
これらはsolarisいけるの?
おもしろそうではあるが、自宅はESXiとoiのNFSに全部集約してしまったからSMが鬼門すぎるなあ・・・
8ポートのSM無しスイッチ買って、SM用にlinux1台立ち上げるのが自宅サーバで出来る範囲かな
25:不明なデバイスさん
11/05/18 09:15:36.04 49SoN4a9.net
>>24
うちではSolarisでConnectX使ってるけどIBは動いてる
ただSolarisだと、ドライバがIB以外の機能にいまのところ対応してなかったはず。
ごめん、誤解ある書き方だったね。
そういう構成だったらスイッチなくても動くよ。
PC1 -- PC2 -- PC3
PC2にDualポートのカードいるけど。
って繋ぎ方で動く筈。
使ってるOSがうちと一緒だから、週末にでも実験してみるよ。
26:不明なデバイスさん
11/05/18 11:48:33.87 FWkokymc.net
>>22
うちはCiscoでしたよ。
27:不明なデバイスさん
11/05/19 00:24:20.45 BcvamnEz.net
URLリンク(wikis.sun.com)
SolarisのInfinibandサポート状況
OpenSMをポーティングしてるって書いてあるね。
ReleaseはTBDになってるけど。
28:不明なデバイスさん
11/05/19 08:09:35.22 kAmay8pb.net
> この世代からは、10GbEも喋れたり FCoCも喋ったりで何でもあり。
ってのがわからんけど、物理層が同じだからファーム書き換えると
10GbEになったりIBになったりするってこと?それともシリーズ内に
10GbEのHCAやIBのHCAがあるってだけ?
29:不明なデバイスさん
11/05/19 17:10:10.14 nBF1lFc5.net
>>28
ドライバで10GbEやIBになる。
2ポートあると、片方はIBでもう一つは10GbEとか出来る。
ただし、対応してるOSが限定されている。
Windows、Linux、ESX(ESXi)しか対応してない。
Solarisは対応準
30:備中だったはず。 http://opensolaris.org/jive/thread.jspa?threadID=132304 ファーム違いで10GbEのみボードもある。
31:不明なデバイスさん
11/05/19 20:32:24.76 /NhMJPL1.net
あらおもしろい
32:不明なデバイスさん
11/05/19 20:41:18.70 kAmay8pb.net
じゃあIBが勝とうが10GbEが勝とうが、勝つのはMellanoxですか。
どっちが勝つか判らんうちから安心して買えると言うのは強いなぁ。
33:不明なデバイスさん
11/05/19 21:03:17.16 /NhMJPL1.net
さすがにebayでも$20レベルのものはシングルポートか
34:不明なデバイスさん
11/05/20 00:36:05.08 c4daKf1Z.net
>>31
10GbEは実際に試してないからわからないけど、マニュアル読むと動くみたい。
あと、コネクタの変換アダプタが必要ですが。
URLリンク(www.mellanox.com)
>>32
安いのはシングルポート、IB機能だけになるよ
IBの機能だけでいいのだったら安いので十分。
ConnectXがいい人は、OEMのメーカのやつだと安くでてたりするのでそっちを狙うのもありかな
35:不明なデバイスさん
11/05/20 09:15:01.43 GBq4tJE5.net
個人で中古のciscoルータやスイッチ買うような人間が、ちょっと手を伸ばしやすいIB スイッチはFlextronocs sdr 8port なのかな。もちろんSubnet Managerは別途手当てとして。
36:不明なデバイスさん
11/05/20 15:48:03.16 QfWu1eCb.net
>>34
買いやすいのは、言われてるようにFlextronicsのF-X430066ですね。
国内じゃ定価40万位するけど、海外だと$700切るくらい。
F-X430060使ってるけど、1Uサーバのファンが全開で回ってる位の騒音だしてるので
ぶっちゃけ24ポートのはお勧めしないw
8ポートのでもファンは付いてるみたいだけど、どの位の音するのかな?
使ってる人いたら是非レポートをw
37:不明なデバイスさん
11/05/20 15:55:28.61 gkIMASDV.net
>>35
やっぱりそうなのね。
個人で検証したいのでsdrレベルで一式揃えようかと画策してたり。送料とか込みでサーバ抜いて10万ぐらいあれば環境が整うのか。
38:不明なデバイスさん
11/05/20 20:32:59.58 Lvj8lyIq.net
>>35
職場でF-X430066使ってる。
HPの2U鯖(DL380G6)と一緒のラックに入っているが、
特にF-X430066がうるさい感じはしない。
単体で音を聞けば確かに音はするが、
そんなにひどくないように思う。
39:不明なデバイスさん
11/05/20 20:42:50.54 Lvj8lyIq.net
ついでに書くと、QSFPのConnectX-2(MHQH29CのHP向けOEM)とF-X430066を
CX4-QSFPのhybrid cableで繋いで問題なく使えてる。もちろん10Gbpsだけど。
F-X430066は中身MellanoxのInfiniscaleでfirmwareもMellanoxからでているぐらいなので、
見てくれは怪しいけど(?)普通に動く。
40:不明なデバイスさん
11/05/20 23:41:49.92 YrxIPrqk.net
>>37
家にラック置くとあまりのうるささにびっくりするぜ?
マシンルームだとそこら中でファンが回りまくってるからわからないけど
41:不明なデバイスさん
11/05/21 02:07:56.19 JoUxFHPP.net
>>37
使ってる人から書き込みが。
意外とうるさくないですか?
F-X430066って小径ファンが三つはいってるので、爆音なのかなとも思ってたんですが。
>>39
1GbEのスイッチがL3 Switchなのでかなり音がするなーと思ってたんですが、
今回入れた、F-X430060は、それをかき消してくれるような存在感ですw
ブックマークにあったIB関連の資料
日本語資料
しーごさんところ
URLリンク(www.viops.jp)
あるてらさんところ
URLリンク(www.altima.co.jp)
MSのHPCでの資料
URLリンク(technet.microsoft.com)
英語資料
OpenSMでのルータ設定
URLリンク(wiki.chpc.utah.edu)
42:不明なデバイスさん
11/05/22 23:59:22.02 WIbvPNze.net
37です
>>39 , >>40
職場の奴は専用のサーバー室じゃなくて事務所の一角でつかっています。
そのため、極力静かな鯖ということでHPのDL380(+防音ラック)を選んでいたりします。
DL380G6は調べてもらえば分かりますが動作時28dBAの音圧レベルです。
これと比べて大したことないので大きめに見積もってもF-X430066は
30dbA~35dbAぐらいじゃないでしょうか。
Z800 WorkstationのDVD読み取り中騒音が36dbAという数字で、
確かにDVDが全開で回っているのよりはF-X430066の方がマシと思えます。
43:不明なデバイスさん
11/05/23 00:00:35.88 WIbvPNze.net
>>41 続き
音の質からして、F-X430066のfanは割と低回転で回っているようで
メンテナンスで6台の鯖すべてを落とすと、IB switchの音が聞こえてくる
(防音ラックの前後扉開放状態で)という程度です。
爆音というレベルではないですがさすがに静かな自宅に置くとなると
多少耳障りかもしれません。
44:不明なデバイスさん
11/05/23 00:17:16.39 YyCzI+YK.net
Linuxで使っているので何点か情報提供。
(1)
Redhat Enterprise Linuxの場合、OFED相当のRPM packageが用意されているので
OFEDを別途入れなくてもInfinibandを使うことができる(ちょっと古いけど)。
ただ、RHEL<=5.4はbugがあるのかMPIがちゃんと動かなかった。
RHEL 5.5, 5.6, 6.0ではRHEL付属のpackageで問題なく動いている。
(2)
LinuxでNFS/RDMAを使おうと思っている人は期待しない方がよい。
大きなfileを書き込んだりするとNFS clientが止まってしまう。
OFED 1.5.2以降で安定性の問題からNFS/RDMAが外されてしまっているので、
開発元でも動きが怪しいのは認識されているっぽい。
そのうちまともに使えるようになるといいな。
NFS over IPoIB に関しては安定して動いている(が遅い)。
45:不明なデバイスさん
11/05/23 00:37:21.14 YyCzI+YK.net
(3)
RHEL 5.6 & 6.0の環境でConnectX-2のfirmwareを2.7.0から2.8.0にしたら
opensmがちゃんと動かない状態になった。
具体的には、rebootしたhostがあってもopensmが状態変更を検知できないのか、
reboot後にlink-upしないままになってしまう。
opensm.confで"force_heavy_sweep TRUE"にするとちゃんと動いているようにみえるが、
これが正しい解なのかはよくわからない。
46:不明なデバイスさん
11/05/23 09:14:45.81 jrVmGyIB.net
自宅でCisco SFS7000Pと
Mellanox MHGH28-XTCを使用しております。
SFS7000Pのファン交換をやってみましたのでご報告します。
今回採用したファンは以下の物となります。
URLリンク(www.ainex.jp)
交換自体は難しくないのですが、注意点があります。
工場出荷時に搭載されているTopSpinOS2.70だと
ブート時にエラー検出し、LEDが橙点灯となります。
その状態でTopSpinOS2.90に上げたところ、
エラー検出されず、LEDは緑点灯となりました。
以上、ご報告まで!
47:不明なデバイスさん
11/05/23 18:41:12.73 vKvabkkR.net
なんという濃い情報スレ。
これはブックマークせざるを得ない。
48:不明なデバイスさん
11/05/23 18:44:33.14 m2QhIic8.net
濃すぎる位だなw
うちも、ストレージ用に使ってみたいが、
今は先立つものが無い(泣
49:不明なデバイスさん
11/05/23 19:22:30.56 fivYbFgl.net
あやうくIB-HBAをいくつかとIBSWを買ってしまいそうになるヤバスレ
50:不明なデバイスさん
11/05/24 00:57:03.14 vePc/kCe.net
25です。
週末に25で書いた接続をテストしてみたんですが、カードがまずいのかOSがまずいか
わからないだけど、上手く動かなかった。動かなかったのは、NexentaCore 3.01 と
OpenSM動かしてるLinuxの間。
普段はIB Swichで動かしてるけど、そっちだと問題なしなので、カードとPCを追加で
確保して環境を変えてチャレンジしてみます。
Solaris + ESXi + SMマシンって構成のSwitchless運用の需要がありそうなので、
何とか動かしてみたいんだけど。
別でDebian sid + Windows 2008 R2 のケーブル直接続での、IPoIB・SRP接続
は普通に動いた。
自分が動かした SRP Terget はSCSTだったので標準パッケージになってないから、
自前でビルドしてインストール。
あと、Debian sidの入ってるOFEDのパッケージだと1.4.1と、ちょっと古いのでDebian OEFDの
サイトから、1.5.2のパッケージの元を引っ張ってきて、自前でpackage ビルドしてインストール
したけど、テスト環境のLinuxのDiskが遅いので150MB/sでSRPは頭打ち。
ネット上で見てると、SSDのRAID0で1GB/sとか出てるみたいだけど。
51:不明なデバイスさん
11/05/26 23:54:59.37 NnZG8Yuz.net
14です。
ようやくCX4 cable(HP 444477)届いた。
国内在庫がなかったのか半月ほど入荷に時間がかかった。
これだけかかるならeBay個人輸入の方が安くて良かったかも。
思惑どおり10Gbase-CX4用cableでDDR IB 20Gbpsの通信可能。
まあ、1mの短いやつだからDDRでもokなだけで、
長いとSDR IB 10Gbpsまでしか無理かもしれないけど。
※信号線1対あたりの伝送速度は
SDR IB 2500Mbps < 10Gbase-CX4 3125Mbps < DDR IB 5000Mbps
52:不明なデバイスさん
11/05/27 00:16:16.14 6SzE5UYA.net
RDMAのプログラミングってどうやってみんなやってるの?
排他制御関係の文献ってしりませんか?
53:743
11/05/27 18:53:44.86 t1meQjEb.net
サンプルコード様に頼り切りの世界。
大学のHPC方面の人なら夢で書けるレベルなんだろうな。
54: 忍法帖【Lv=18,xxxPT】
11/05/27 23:41:15.16 QkWBmJAU.net
RDMAはDBやクラスタアプリから利用するものであって
直接叩くものではないと思っていた
ツールキット開発者さんですか?
55:不明なデバイスさん
11/05/31 00:44:46.36 TL6QVeno.net
ツールキットは作ってないけど、RDMAのゼロコピー性とか、
リモートのメモリに直接アクセスできる機能は
使えるんじゃないかと思って試行錯誤してますよ。
56:不明なデバイスさん
11/05/31 13:52:55.91 YaCOyw5G.net
なんぞこれ
URLリンク(www.slideshare.net)
てか、ここの住人?
57: 忍法帖【Lv=2,xxxPT】
11/05/31 21:12:08.30 aHkwviVG.net
>>55
4CPUで済む用途ならIB奢るより4CPUサーバを調達した方が管理運用に手間がかからなそう
58:不明なデバイスさん
11/05/31 22:28:52.09 vhMeOsQy.net
>>56
DYIだからねw
某テレビ局のCG作成室にもIB転がってたし、
CG屋さんてけっこう高速I/F知ってるみたい
59: 忍法帖【Lv=2,xxxPT】
11/05/31 22:40:43.81 aHkwviVG.net
組立テスト管理工数に掛かる人件費を限りなくゼロと査定すればIBいいね
マザーCPUもメモリもトータルで安価だし
まるでどっかの原発みたいだなw
60:不明なデバイスさん
11/06/01 00:14:08.66 HxBFG9mg.net
>>54
排他制御どうしてるのですか?直接メモリにアクセスできるのはいいけど
メモリのアドレス勝手に変わってしまうし。かと言って、CASじゃ無理だし
どうすればいいの?
61:不明なデバイスさん
11/06/01 11:13:49.40 /Gb6XrGK.net
>>43
NFS over IPoIBって安定して動いてますか?
NFS/RDMA同様と大容量を送ろうとすると、
NFSclientがハングアップする現象に遭遇しておりますが><;;;
62: 忍法帖【Lv=3,xxxPT】
11/06/01 12:02:09.17 nVcMMHmM.net
LinuxのNFS()
63:不明なデバイスさん
11/06/01 18:08:27.45 FD6RSKjP.net
このスレ、過疎ってるかと思ったら勢いあってワロタwww
64:不明なデバイスさん
11/06/02 10:36:59.30 t8C/X1f7.net
eBay見てると安いのだと$40とかであるのな
日本でも気軽にこの値段で手に入れば自作マシンで遊びで使えるのに
65:不明なデバイスさん
11/06/02 20:12:58.75 rIFcC7xE.net
こんないいスレあったのか
自分はMHEA28-1TCを3枚で、Windows Server 2008 R2をiSCSIターゲットにしてESXi動かしてます
やっぱりCOMSTAR使いたい!
QlogicのFCoE CNAもあるんだけど、こっちはこっちで光トランシーバが高い
66:不明なデバイスさん
11/06/02 23:09:17.53 gAmt3Mh7.net
ブロックアクセスだと今はSRPが安定してるね。
パラメータさえ決まれば問題なく動く。
iSERはMellanoxのVSAでないとまともに動かないと思われ。
GlusterFSのRDMAアクセス試してみた人いる?
マニュアル見ると割と簡単に構築できそうだけど。
Lustreは一般ユースでは駄目ぽ、あれは完全に計算クラスタ用途だった。
67:不明なデバイスさん
11/06/03 23:07:56.17 sPzjPH3p.net
>>60
NFSv4 TCP なら安定して動いています。
環境はx86_64, RHEL5.6 (ただしkernelだけRHEL6の2.6.32-71を使用)、
Mellanox MHQH29C firmware 2.8.0 です。
HPC用途なので数GBの計算結果がまとめて書き出しされたりしていますが、
hang upしたりといったことは起こっていません。
68:不明なデバイスさん
11/06/04 07:51:45.99 2zicZIpD.net
>>66
ありがとうございます。
こちらもNFSv4 TCPなんですけどねぇ。
Firmware2.7から2.8にあげるか思案中です。
OSのカーネルもあげてみようかしら。
こちらもHPCで、いくつかのノードから20GB程度のファイルを
複数送信しようとすると、いくつかハングアップって感じです><;;;
69:不明なデバイスさん
11/06/16 10:12:26.34 o/wylCt6.net
ESXiのデータストア用にZFSなストレージサーバ組みたいけど、
ZFSとSMを両立するのって難しいのかな。
70:不明なデバイスさん
11/06/16 18:12:16.57 BEzIFhGo.net
>>68
自分もやってみたんですがSolarisのSMが見当たらないのでどうにもなりませんでした
システムワークスさんのツイートに触発されてSolaris11でSRPターゲットを作り、Hyper-V Serverで接続したときは300MB/sを超えるスピードを出したので
ぜひESXiホストにも使いたいと思ってるんですが
71:不明なデバイスさん
11/06/16 18:49:05.95 o/wylCt6.net
>>69
やっぱりSolarisにSMが無いのがネックになりますか、残念です。
ESXiに各種鯖を統合、HDDはSolarisに集約、という具合にして両者をIBで直結させたら
非常にスマートかなぁと妄想してたのですけど。
ESXi単体では難しい各種アラートの処理や、UPSとの連携をSolarisに担当させたりして。
IB使うなら CentOS辺りが無難なのかな。
ただそうなるとRAIDZが…う~む...
72:不明なデバイスさん
11/06/17 22:39:57.10 yRMUcWUs.net
IPoIB使うと、InfiniBandの利点の低レイテンシも損なわれたりする?
73:不明なデバイスさん
11/06/17 23:06:54.98 EbdMWyYy.net
そういったことをこまこまと試したいので手元にブツが欲しいのさ
74:不明なデバイスさん
11/06/19 20:40:20.10 jN7m8XFB.net
ebayで買った中古のF-X430066のスイッチが届いたんでレポ。
ちなみにかなりうるさい。これは自室に置いておくのは躊躇する。ML115が全開でファンがまわってるときと変わらない。
あと、ファームの更新もi2c経由でしか出来ないのかな。mlxburnで更新しようとしたけど駄目って言われる。
75:不明なデバイスさん
11/06/19 20:55:44.17 GCXklOT4.net
常にML115全開並ってのは凄いな。掃除機クラスか。
76:不明なデバイスさん
11/06/19 21:42:18.05 4bdRaneo.net
消費電力30Wとか書いてあるけど、爆音なのか?
分解してファンはずしちゃえ。
77:不明なデバイスさん
11/06/19 23:34:45.44 jN7m8XFB.net
>>74
確認でML115全開と聞き比べたけど、それよりかは静かだったよ。
リビジョンが何種類かあるので、上の方で書かれてる方のように最近のは静かになってるのかも
>>75
小径ファンが3つ付いてる状態なので、取っ払うのは流石に怖いw
暫く運用してみて、温度的にファン交換可能そうなら交換してみるか・・・
78:不明なデバイスさん
11/06/20 23:00:50.14 OGPYHtLA.net
F-X430066割とコンパクトでいいなぁ…と思ったんだけど
やっぱりSMはない…よね?
79:不明なデバイスさん
11/06/20 23:46:23.98 Npj7EgJt.net
>>77
残念ながら、SMはついてないですね。
80:不明なデバイスさん
11/06/21 00:24:21.32 vUI3pKms.net
MellanoxのサイトにConnectX-3のページがいつの間にか出来てるね。
FDR(56Gbps)のPCIe Gen3対応か・・・。
お値段どのくらいででてくるんだろう
81:不明なデバイスさん
11/06/25 07:17:30.12 NL9OWVZg.net
人いないなぁ...
eBayで安く手に入るとは言っても さすがにニッチすぎるか、家庭内IB。
82:不明なデバイスさん
11/06/25 10:52:21.00 vpPpvWLJ.net
まだ入手してないしな
83:不明なデバイスさん
11/06/25 11:15:27.34 PGof8tnT.net
とりあえず、IPoIB と nfs over rdma を3台くらい
試したいんだけど、どの SW とどの HCA 買えばいいかを
しりたいな
予算全部で10万ぐらい、solaris と linux で試す予定
84:不明なデバイスさん
11/06/25 15:32:40.86 my+ve5G+.net
>>82
個人的なお勧めは
SWはF-X430066。
Linux用カードは、基本何でも動くので気にしない。
Solarisはカード選ぶので、MellanoxのConnectX系かInfiniHost III Exのメモリ付きで。
上の構成だとebayの中古で買えば10万はかからないかと。
国内は物が少なすぎて微妙っすね。
うちで動作確認したカード
Windows・・・MHEA28-TXC,MHGA28-XTC,MHES18-XTC,MHGS18-XTC,MHEA28-1TC,MHGH29-XTC,MHQH19-XTC,MHQH19B-XTC
Linux・・・MHEA28-TXC,MHGA28-XTC,MHES18-XTC,MHGS18-XTC,MHEA28-1TC,MHGH29-XTC,MHQH19-XTC,MHQH19B-XTC
OpenSolaris・・・MHEA28-1TC,MHGH29-XTC,MHQH19-XTC,MHQH19B-XTC
ファームのバージョンとかドライバの組み合わせによっては動かない事のがあるので注意
85:不明なデバイスさん
11/06/25 16:06:14.35 4SqyV/vi.net
乙すぎる。
実質、この人一人でスレ回ってるんじゃなかろうか。
86:不明なデバイスさん
11/06/30 23:37:48.88 rLhDp1ew.net
ちとスレ違いかもしれんが、海外通販の
コツみたいのはありますか?
ボードはなんとか国内で揃えられたんだが
ケーブルが安く揃えられん・・・
87:不明なデバイスさん
11/07/01 00:52:26.92 af7NYHX5.net
国内だとCX4とかQSFPのケーブルは安くはないですね。
自分は中古をebayの業者から購入して、転送サービス使ってカードとケーブルをまとめて日本に発送ってやりました。
個別に買ったのだと、中国から3mのケーブルで一本あたり送料込みで$30くらいでした。
ケーブルがごついので長くなればそのぶん重量が増えるますのでご注意を。
88:不明なデバイスさん
11/07/02 17:44:49.37 R9lYTKS4.net
とあるスレみてたらInfinibandという言葉が出てきたので何ぞや?
と思い調べてみたら興味を持ちました。
Infiniband環境を構築するにあたり疑問点
・スイッチのSM有無によるメリットデメリット
・非力なPCにDDRやQDRのHCA搭載した場合のデメリット(CPU負荷が高くなりすぎるので他の作業ができなくなるなど)
89:不明なデバイスさん
11/07/02 21:15:59.88 ZQOVkE/d.net
>>87
スイッチにSMある場合のメリットは、SMの専用サーバが不要。
SMサーバのLinuxもしくはWindowsが不要。
SolarisとかESXiみたいにSMが乗っからない環境だけで構築できるのがメリット。
デメリットは、OpenSMだと色々拡張されていってるけど、スイッチのSMだとその機能拡張が
すぐには使えないのがデメリット
非力なPCってのがどのくらいか解らないけど、参考程度に
PC二台でのIPoIB計測結果。
PC1 Xeon X3430 X3420チップセット OpenSolaris 134b
PC2 Athlon X2 5000+ MCP55チップセット Linux Debian OFED 1.5.2
PC1のカードは、ConnectX使用。
PC2のカードは、InfiniHostExとConnectXの二種類で計測
接続はSDRのSW挟んでます。
iperf -w 128k -N での計測結果
PC2がInfiniHostExの場合
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 2.26 GBytes 1.94 Gbits/sec
PC2がConnectXの場合
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 4.79 GBytes 4.11 Gbits/sec
チューニングは全くしていない状態の結果です。
90:不明なデバイスさん
11/07/02 21:35:23.88 R9lYTKS4.net
>>88
丁寧な説明ありがとうございます。
一応以下の条件で組んでみようかと思っています。
[台数] 4台
[O S] 全部Windows
[CPU] Xeon搭載が1、他はAtomやらZacateの非力自作
[条件]
XeonPCは消費電力高すぎるのでたまにしか使用せず
メイン使用はZacatePC(常時稼動可)、他は未使用時電源断
↑の場合だとスイッチのSM有無はあまり関係なさそうですね?
SM無スイッチ+1ポートHCAx4(1台SM用サーバー化)という構成でお財布と相談してみようと思�
91:「ます。
92:不明なデバイスさん
11/07/02 22:30:47.34 ZQOVkE/d.net
>>89
Windows OnlyだとSM無しの安いSWで十分ですね。
カードサイズがほとんどPCIe x8なので刺さるかご注意を。
MHES14だけがPCIe x4です。
93:不明なデバイスさん
11/07/02 23:41:56.97 RVtffYdX.net
>>88
ConnectX同士でつないだときの速度がぱないな
DDRやQDRなら、OpenSM使って間にSW挟まずにConnectX同士を直結した場合は
もっと速くなるんでしょうか?
94:不明なデバイスさん
11/07/03 03:16:49.02 DH3OQKCt.net
>>91
現在運用中だから、今度サーバ再構成するときにでもConnectX同士でテストしてみるよ。
ただ、うちの環境は遅すぎる気がしてますがw
95:不明なデバイスさん
11/07/07 18:41:19.59 Jz1twUW9.net
FreeBSD CurrentにOFED1.5.3が入ってたのでInfiniBandが動くか試してみたけどダメだった orz
OFED有効にした userland と kernelのコンパイルは通ったけど、ドライバがロードできなかったよ
96:不明なデバイスさん
11/07/09 03:21:39.93 Na6r7+An.net
このスレに触発されて買っちゃった・・・
MHGA28-XTC、送料込みで2個 16,000円
ケーブルってSASで使ってたケーブルがそのまま使えるんでしょうか?
SASで使ってたやつはスクリュー型だけどそれはおいて置くとして。
97:不明なデバイスさん
11/07/09 15:11:50.11 jT0RsmWp.net
>>94
お、どこで買ったの?
結構安くね?
98:不明なデバイスさん
11/07/09 15:29:40.79 3U6rQuQD.net
>>94
MHGA28がそのお値段なら安いですね。
ケーブルなんですが、SASのケーブルだとDDRではリンクできなかったりするかも。
あと、カード側のラッチの固定部分とスクリューのネジ部分が干渉してつかない可能性が
別の話題ですが、ケーブルついでに、
10GbE-CX4のケーブルとInfiniBandのCX4ケーブルだとこういう違いがあったりします
URLリンク(www.gore.com)
99:不明なデバイスさん
11/07/10 17:25:40.63 894QQ/qI.net
CX4のケーブル買いたいンだけど、海の向こうじゃ半端なく安いな。
goreの5mでも\2000切るんだけど。
んで、送料で\4000取られる・・・3本だと送料\7000とか言われる
100:不明なデバイスさん
11/07/10 17:32:15.54 KOanqNFR.net
ならば1000本単位ぐらいで買えば一本あたりの送料は安くなるんじゃね?
101:不明なデバイスさん
11/07/10 18:31:22.86 ZWi46bTu.net
>>97
スピアネットとかで転送しても安くならない?
102:不明なデバイスさん
11/07/10 19:47:26.35 EE1BGMqP.net
>>97
自分がCX-4の2mケーブルをebayで買った業者だけど、ご参考に
URLリンク(cgi.ebay.com)
震災の時期に被ったので到着まで一週間くらいかかったけど
103:不明なデバイスさん
11/07/11 00:50:43.66 3cmD+WIe.net
>>100
Thanks. 送料安いね、そこ。
ただ、SAS用のケーブルってDDRでも大丈夫なのかちょっと気になる。短ければ
>50 みたいに行けそうだけど。
104:不明なデバイスさん
11/07/13 22:25:21.89 WWfQMii3.net
ちょっと聞きたいんだけど
X4ってのはまさかマシンの後ろに4本ケーブルが刺さってるってこと?
1本のケーブルに4軸入ってるってこと?
まさか4本刺すわけ…と思ったがケーブルが2本刺さるカードもあるし…とか考えちゃったよ
105:不明なデバイスさん
11/07/13 23:26:14.90 q8ka45Ix.net
>>102
4レーン
106:不明なデバイスさん
11/07/15 23:24:37.59 YIgsY4+t.net
WindowsでOpenSMを開始させようとすると下記エラーが出ます。
原因お分かりになる方いらっしゃいますか?
ローカルコンピュータのOpenSMサービスを開始できません。
エラー 1063:そのサービスは指定時間内に開始要求または制御要求に応答しませんでした。
環境は下記の通り
Windows2003 32bit & 64bit
Qlogic HCA 7104-HCA-LPX1P
107:不明なデバイスさん
11/07/16 03:02:28.32 2FtEqgxo.net
>>104
後欲しいの情報は入れた、OFEDのバージョンとかがないと解らないです。
Qlogicのメーカ純正のOFED入れたのか、それともOFED本家のバージョン入れたか。
あと、カード自体は認識されてますでしょうか?
OpenSMのバグってか使用で、カードが無い状態だと転けるってのがあった気が。
108:不明なデバイスさん
11/07/16 13:36:48.65 IytOh3Qz.net
カードだけ届いてケーブルがまだ来ない(´・ω・`)ショボーン
しかし、結構な値段がする割には、見た目はしょぼいね。特にメモリなしだと。
しかもこれで10Gbとか20Gb叩き出すとか一体。
10GBaseのnicとか見た目はもっとごついのに。
109:sagat
11/07/17 14:57:53.75 ubaITYh/.net
>>3
>ドライバ等
Windows・Linux
>OFEDが配布しているパッケージでインストールするのがある。
OFEDが配布しているWindows用パッケージってどこからdownloadすればいいんでしょうか?
OFAのページを探しても見つかりませんでした。
110:不明なデバイスさん
11/07/17 18:39:41.38 ckeIgqlU.net
>>107
URLリンク(www.openfabrics.org)
これじゃないの
111:不明なデバイスさん
11/07/17 18:50:22.92 04RP8GSy.net
>>107
URLリンク(www.openfabrics.org) のWinOFのしたですね。
Topのページからだとわかりにくいですけど、
メニューのOFED/OFA RECOURSES -> OFED for Linux / OFED for Windows -> Source Code Download
からいけます。
112:不明なデバイスさん
11/07/18 17:12:06.83 hxLwN5/0.net
このスレお見てIBに興味お持ったんですが、Windows間お直接繋ぐような使い方
でも導入に意味はありますでしょうか?WinServer2k8r2とwindows7を繋ぐ予定
です。
IBoIP、SMBという辺りがネックになって10GBaseとそんなに変わらない速度しか
出ないようなら素直に10GBase-TのNIC買った方がいいのかな、とも思ったんで。
113:不明なデバイスさん
11/07/18 18:44:24.11 o2pJezcj.net
>>110
SDRのIBでIPoIBだと10GbEと速度はあまり変わらないはず
ただし価格はだいぶ安い
114:不明なデバイスさん
11/07/18 18:45:08.29 qjg07J1o.net
>>108-109
どっちも一緒じゃない?
>>110
10GbE買うお金があるなら素直に10GbEにしたらいいんじゃないかな
SMBって時点でInfinibandの利点は価格ぐらいしか無い気がする
115:不明なデバイスさん
11/07/20 13:25:44.78 2a+1GaUt.net
>>112
価格面のメリットも薄いと思われ。安い10GBase-CX4なら1万切ってるし。
というか安いカードでWindows間を繋いだら、10GbEどころか1GbEとも差が無い程
度の速度しか出ないよ>IB
結局SRPとかで繋がないと真価を発揮しない辺りが個人ユーザにイマイチ普及しな
い原因ではないかと。
116:不明なデバイスさん
11/07/20 16:43:45.27 qTBnBHY+.net
個人向けに普及しない理由は個人向けじゃないからだと思うがw
117:不明なデバイスさん
11/07/20 20:16:49.60 +DnobmOy.net
InfiniBandで変わるデータセンター内通信(後編) - @IT
URLリンク(www.atmarkit.co.jp)
118:不明なデバイスさん
11/07/22 23:08:03.53 gRX2QWPt.net
COMSTARでSRPターゲット作ってストレージにして、2k8R2つないだら感動的な速度でした
自分が担当している教室のシステムがHPのMultiPoint Server 2011とシンクライアント構成になる予定なので
ストレージの性能が必要だと思い
119:、ストレージを別サーバにしてIB入れてSRP接続できないか提案しているところです ていうかむしろ俺にやらせろみたいな言い方してるんですがw でもそんな安い10GbEカードあるんですか?
120:不明なデバイスさん
11/07/23 11:39:45.21 1mXU3R0i.net
個人向けに普及、というフレーズはIBとは馴染まないこと馴染まないこと
まあ>>114なんだけど
121:不明なデバイスさん
11/07/24 01:02:30.92 e428/8Uh.net
ESXi 4.1u1での最新Mellanoxドライバの動作検証終わった。
Supported Host Channel AdaptersからInfiniHost系が消えてたので動くかチェックしてみた。
手持ちの、MHEA28-XTC MHGA28-XTC MHES18-XTC MHGS18-XTC MHEA-2TCのIPoIBでの動作は確認した。
122:不明なデバイスさん
11/07/24 15:10:52.04 ju95rzxV.net
乙
123:不明なデバイスさん
11/07/25 01:31:36.35 IkZEl5nQ.net
SRP TargetっていうとどうもCOMSTARばかりが話題になるようですが、誰か
LinuxでSCST使ってる方はいませんか?Mellanoxのメモリ無しのHCAなんで
Solarisという選択肢が無い、、、
124:不明なデバイスさん
11/07/25 02:02:21.96 HsVPxVWL.net
>>120
SCST、テスト動かした事はありますよ。
WindowsとLinuxで接続して動作させてました。
HDDが余ってなかったので二台のHDDをstrip化し、volumeをそのまま使用した環境で
200MB/s弱くらいは出てました。
長時間のテストはしなかったんで安定性については何ともです。
おまけで、機材一緒のままでLinuxのnative ZFS使用して同様の環境作りましたけど、
こっちは40MB/sと一台の時より遅かったです・・・
125:不明なデバイスさん
11/07/25 13:32:02.80 PbQPyy/F.net
やはりこの辺で遊ぶには、OpenIndiana辺りはマトモに管理できるように
練習しとかないとダメですかねぇ。
LinuxとWinServerだけしか普段弄らないので最初のハードルが…
126:不明なデバイスさん
11/07/25 20:48:56.37 RyRRAInK.net
>>122
Linuxとさほど変わらないから、違いだけ調べればいいんじゃね?
SMF、ZFSあたりと、細かい所でRUNLEVEL、NFS、mountコマンド...etcだけ把握するくらいで。
127:不明なデバイスさん
11/07/25 21:03:04.07 QpgtTAbI.net
>>122
自分もCOMSTARを知って初めてOpenSolarisに手を出したのですが
Linuxに慣れているならなんとかなりますよきっと
ZFSの黄色い本はおすすめです
128:不明なデバイスさん
11/07/25 22:02:39.94 PbQPyy/F.net
>>123-124
ああ、こんな独り言にちゃんとしたレスが。有難う。
取り敢えず、ESXiの上にOIインストールして、zfs/COMSTAR使えるように練習するよ!
一段落したらMellanoxのカード買ってみようかな。
129:不明なデバイスさん
11/07/27 22:46:13.43 GbTPRwJZ.net
ヤフオクにCiscoのSFS-HCA-E2S7-A1が出てたんで即行で落札してきた
ebayに比べたら高いんだろうけど
Ciscoの中身はTopspinのはずだからLion Cub SDRとして使えるはず
メモリもついているみたいだしね
ただロープロなんだよな~
130:不明なデバイスさん
11/07/27 23:52:29.21 GI1f1X31.net
>>126
ebayだと半値だけど、送料だの手間を考えるとヤフオクのが良い気がする。
国内の中古はロープロが多いね。2UとかでHPCやってたとこのがながれてるのかな
過去自分はebayで落札したら、チップがはがされた状態のカードが届いた事がある orz
131:不明なデバイスさん
11/07/27 23:54:09.05 GI1f1X31.net
参考までに、結果の一部省略してます。DDR接続でのベンチの結果
Number of qp's running 1
Number of iterations 5000
Massege size 65536
Mtu : 2048
------------------------------------------------------------------
#bytes #iterations BW peak[MB/sec] BW average[MB/sec]
2 5000 4.49 2.28
4 5000 8.98 4.56
8 5000 17.96 9.13
16 5000 17.96 15.98
32 5000 71.85 36.10
64 5000 143.70 72.48
128 5000 287.41 144.98
256 5000 287.41 276.33
512 5000 574.82 535.71
1024 5000 1149.63 780.73
2048 5000 1149.63 995.09
4096 5000 1149.63 1103.80
8192 5000 1226.27 1193.75
16384 5000 1226.27 1211.56
32768 5000 1226.27 1222.56
65536 5000 1226.27 1224.35
131072 5000 1226.27 1217.37
262144 5000 1138.51 1122.76
524288 5000 1123.30 1109.40
1048576 5000 1122.77 1108.25
2097152 5000 1123.57 1109.81
4194304 5000 1116.78 1109.91
8388608 5000 1117.90 1101.56
------------------------------------------------------------------
132:不明なデバイスさん
11/07/27 23:55:33.38 GI1f1X31.net
SDRだと、こんな感じ
Number of qp's running 1
Number of iterations 5000
Massege size 65536
Mtu : 2048
------------------------------------------------------------------
#bytes #iterations BW peak[MB/sec] BW average[MB/sec]
2 5000 2.25 1.82
4 5000 4.49 3.85
8 5000 8.98 8.05
16 5000 17.96 14.64
32 5000 35.93 26.34
64 5000 71.85 56.59
128 5000 143.70 134.10
256 5000 287.41 245.50
512 5000 574.81 411.93
1024 5000 766.42 667.77
2048 5000 919.70 859.63
4096 5000 919.70 823.72
8192 5000 919.70 895.42
16384 5000 919.70 904.50
32768 5000 931.34 907.27
65536 5000 919.70 914.02
131072 5000 931.34 903.33
262144 5000 929.87 888.43
524288 5000 895.22 888.63
1048576 5000 924.76 891.21
2097152 5000 913.28 889.02
4194304 5000 892.85 888.73
8388608 5000 888.80 888.44
------------------------------------------------------------------
133:不明なデバイスさん
11/07/27 23:57:35.09 GI1f1X31.net
上二つはWindows 7同士でRDMA使った状態での転送速度です。
ご参考までに。
IPoIBだと、tttcpで6Gb/sくらいが限界でした。
134:不明なデバイスさん
11/07/28 00:18:36.64 6P3uh70d.net
おお情報thx
やっぱりピーク性能にはそれなりに差があるもんだね
TopspinのPCI-Xのやつはたまーにヤフオクに出るし2枚あるけど
バスとかメモリ周りで差が出てる感じがする
とりあえず届いたらウチのMicroServerとMX130S1に載せて試してみるよ
135:不明なデバイスさん
11/07/30 14:12:48.29 9Qu0FVow.net
メモリレスなカードって、基本的に安価版でレイテンシとかはやや遅目っていう理解でいいのかな。
コネクション毎の管理情報の上限はメインメモリ使えるから緩いけど、性能は妥協してね、っこと?
ベンチ資料でそんなには変わりませんよとかMellanox出してはいるけど。
まとめるとビデオカードのUMAと同じ、でOK?
136:不明なデバイスさん
11/07/31 13:29:34.33 bIvYWTF/.net
ちょっと教えてほしいんだけど、何度かSolarisにSMが無いって話が出てるけど
たとえばSolarisにDualポートのカードつけて Linux-Solaris-ESXi とつないで
LinuxでSM動かせばSolaris-ESXi間もUPになるの?
137:不明なデバイスさん
11/07/31 18:34:37.74 tEJyCNWX.net
>>132
カードのメモリはバッファになるかと。AMDのビデオで例えるとSidePortメモリかな
昔のカードだと、CPUメモリに書き込みいくと処理追っつかないので、ある程度貯めて書く
最近のメモリ無しカードだと、都度書き込みいっても処理が追いつくのでメモリ無しになってると
レイテンシだけど、SDRスイッチ有り無しでこれくらい変わる
スイッチ無し
#bytes #iterations t_min[usec] t_max[usec] t_typical
138:[usec] 2 1000 2.97 25.27 2.97 4 1000 2.97 12.95 2.97 8 1000 2.97 14.44 3.19 16 1000 2.97 8.28 3.19 32 1000 3.61 8.28 3.82 64 1000 3.61 12.74 3.82 128 1000 3.82 11.68 4.03 256 1000 4.03 15.08 4.25 512 1000 4.46 25.70 4.88 1024 1000 5.95 20.17 6.16 スイッチ有り #bytes #iterations t_min[usec] t_max[usec] t_typical[usec] 2 1000 2.97 33.34 3.40 4 1000 3.19 10.83 3.40 8 1000 2.76 39.92 3.40 16 1000 2.97 557.46 3.40 32 1000 3.19 285.63 4.03 64 1000 3.19 24.42 4.25 128 1000 3.82 96.84 4.46 256 1000 4.25 319.82 4.88 512 1000 4.88 280.53 5.31 1024 1000 5.73 45.87 6.58
139:126
11/08/01 12:52:14.66 LYGmsPhs.net
特価で買ってきたCiscoのSFS-HCA-E2S7-A1
OpenIndianaにTavorドライバ入れてあっさり動いたよ
やっぱりInfiniHost III Ex(MT25208)と表示された
ヤフオクにまだあるみたい
140:不明なデバイスさん
11/08/02 02:28:09.34 BN0+z2Ml.net
>>135
動作確認乙
物はMHEA28-1TCかMHEL28-1TCな筈だったので動くだろうとは思ってたけど。
こっちは、MEHA28-2TCでSolaris 11 Expressでtavorの動作は確認。
SRPでWindowsと接続しようとしたらやっぱり駄目で迷走中
あと、Solaris 11 ExpressはOFEDのコマンド追加されてるって話だったので
試してみたら、libのバージョンが違うのかumad使ってるコマンドがエラーで動かないですね。
141:不明なデバイスさん
11/08/02 02:55:18.05 14tka3XQ.net
mellanoxのInfiniHostIIIってちょっと熱くなりすぎません?
日本のALPHAのヒートシンクが付いてたりするけど、ちょっと怖いほど高温に
なるんですが。かなり積極的に風を当てないと駄目ですかね。
142:不明なデバイスさん
11/08/03 00:55:42.08 y1JWtZCq.net
確かに発熱は気になるけど、もともと風洞みたいにファンの並んだラックサーバで使う前提設計だったんだろうしなぁ…
MX130S1に突っ込んだやつもかなり熱持ってるけど、アレイコントローラと五分五分なんで
まあその程度で壊れるやわなシロモノではないだろうと割り切ってる
ところで特価のCisco SFS-HCA-E2S7-A1だけど、ESXi4.1u1もMellanoxから落としてきたドライバで余裕でした
143:不明なデバイスさん
11/08/03 16:18:05.52 AJBYXtWy.net
何も考えずにヤフオクの「Cisco SFS-HCA-E2S7-A1」に
入札したけど、ケーブルとかわかってないんだけど。
どうしたらいいんだろう(´・ω・`)
とりあえず 2台の間を繋ぎたいだけだから、
適当な長さの CX4 のタイプ買えばいいのかな
144:不明なデバイスさん
11/08/03 20:28:52.21 9GEihJbI.net
>>133
その構成でやってみたけど、自分の技量では動かせなかった orz
この辺かなーって資料は、
URLリンク(www.mellanox.com)
のAppendixDが参考になるかな。
>>139
買うならスクリューじゃなくてラッチタイプのCX4ケーブルを買うといいよ。
上の方では10GbE CX-4用のでも動いたって動作報告あったけど
145:不明なデバイスさん
11/08/03 21:49:19.46 y1JWtZCq.net
>>139
SFF-8470というコネクタタイプのSASマルチレーンケーブルでも使えます
というかほとんど同じもの
自分は秋葉原のオリオスペックというお店で買ってきました
146:不明なデバイスさん
11/08/04 08:15:43.63 zLfXnY8+.net
olioは地味にぼったくりだからなぁ
147:不明なデバイスさん
11/08/04 13:56:08.98 S9scllI9.net
ケーブルならOTTOで買えるんじゃないの
前にMHEA28-1TCが置いてあったことがあるし
148:139
11/08/05 21:27:10.66 qsmBFmwN.net
皆さんありがとうございます。
SFF-8470 のケーブルは使ったことがあるので、
イメージが出来ました(`・ω・´)。
土日にでもケーブル探しに出かけてみます
149:不明なデバイスさん
11/08/05 23:47:22.20 O+9arxti.net
Solaris 11 ExpressのSRP TargetとWindows 7のSRP Initiatorでの接続動作確認。
WindowsのドライバをMellanox純正使わず、OFEDのWinOF 2.3でいけた。
次はSRPブートにチャレンジしてみるつもりだけど、失敗しそうだな。
150:不明なデバイスさん
11/08/08 20:44:41.69 0ivpUn1m.net
ワットチェッカーを手に入れたのでスイッチの無負荷消費電力測ってみた。
F-X430066(8Port) 22W
F-X430060(24Port) 26W
あと、新品のF-X430066はかなり静かでした
自分が買った中古のF-X430066がファンが終了しかけてるだけだっというオチ orz
151:不明なデバイスさん
11/08/12 00:33:13.28 I8VfOrHx.net
個人で買うようなデバイスじゃないだろ。業務用のサーバー用途だろ?
152:不明なデバイスさん
11/08/12 10:16:47.64 kDFd2bwC.net
>>147
自宅の鯖2台を直結してLAN高速化とか、個人でも中々便利
153:不明なデバイスさん
11/08/12 10:32:26.66 G5ROjnAY.net
うん、それは個人用途のレベルを超えていると思うよ
154:不明なデバイスさん
11/08/12 10:41:59.16 x6BXOvGg.net
違法行為じゃあるまいし、個人でどんなパーツ買って使おうが、
他人にとやかく言われる筋合いはないな。
155:不明なデバイスさん
11/08/12 10:53:44.92 HW8W/uhM.net
個人の趣味に業務用だからどーたらとか寝言ほざいてるバカがおる
156:不明なデバイスさん
11/08/12 20:58:56.21 LthufKGa.net
>>149
じゃあ、ファイルサーバーに置いた自炊エロ本のページめくり超高速化のためなら?
157:不明なデバイスさん
11/08/14 02:32:40.79 eeeEG5Sh.net
>>148
その使い方じゃあまり幸せになれない
DDR同士で直結してるけど、netperfで2GB/sしか出ないし、エクスプローラで
のファイル転送に至っては1000Base-Tに毛が生えた程度の速度。
158:不明なデバイスさん
11/08/14 05:07:52.10 Uwh/5Esp.net
2GB/sでれば万々歳だと思うけど。
159:不明なデバイスさん
11/08/14 14:15:46.50 UWMI6Ovp.net
>>153
ドライバをWinOF 2.3に変えて、IPoIBドライバの詳細設定でConnectModeをenableにするともう少しパフォーマンス上がるかも。
うちだと、sleep時にBSOD出るようになっちゃったが。
160:不明なデバイスさん
11/08/15 09:10:08.40 KKs7kM1K.net
>>153
DDRは20Gbpsといっても実質16Gbpsだろ?
それで2GB/sなら完全に出し切ってる。
2Gbpsの間違いなら、SDR直結でももっと出てるので、
性能が出し切れてないような。
161:不明なデバイスさん
11/08/16 20:24:10.48 PTWJ9/Uc.net
2GB/secか
夢がひろがりんぐ
162:不明なデバイスさん
11/08/26 10:44:43.01 nDP7RB3j.net
age
163:不明なデバイスさん
11/09/04 00:06:48.20 45Fw6R6/.net
IPoIBでHyper-V LiveMigration試してみた。
鯖:HP Proliant ML115 G5 [PhenomⅡ X4 940BE/8GB/160GB] ×2
HCA:MHGS18-XTC
ドライバ:メーカーサイトにあった最新
Hyper-VクラスタのLiveMigration時で平均320MB/S
netperfで計測したら 1.3GB/S位は出ているらしい
マイグレーションはCPUとメモリがネックになってるのかも
メインのクラスタがi7-860 DDR3 16GBなので
@2枚買ってきて、4枚で試してみる予定
164:不明なデバイスさん
11/09/04 01:30:26.98 cFyRtlB5.net
>>159
うお、速い。
ML115 G5でそれだけスピードでるんですね
165:。 うちもDDRだけど、netperfでそこまでスピード出てないです。 ちなみに、ドライバはMellanoxのでしょうか?
166:不明なデバイスさん
11/09/04 06:21:38.13 45Fw6R6/.net
>>160
Mellanoxのサイトから落としてきたやつです。
MLNX_WinOF_VPI-2_1_3_win7_x64
167:不明なデバイスさん
11/09/04 22:28:33.38 45Fw6R6/.net
二枚届いたので、IPoIBでHyper-V LiveMigration試してみた。
鯖:HP Proliant ML110 G6 [i7-860/16GB/160GB] ×4
HCA:MHGS18-XTC
ドライバ:>>159と同じ MLNX_WinOF_VPI-2_1_3_win7_x64
とりあえず、二台で試した結果
Hyper-VクラスタのLive
168:不明なデバイスさん
11/09/04 22:37:35.17 45Fw6R6/.net
途中で送信してしまった…
二枚届いたので試してみた。
鯖:HP Proliant ML110 G6 [i7-860/16GB/160GB] ×4
HCA:MHGS18-XTC
ドライバ:>>159と同じ MLNX_WinOF_VPI-2_1_3_win7_x64
とりあえず、2ノード直結で試した結果
Hyper-VクラスタのLiveMigration 380MB/s~530MB/s 結構幅がある、ML115 G5よりは少し早くなった
netperfで計測したら 80MB/s位とやたら遅い、トラフィックモニタ見ても何か壁に当たってる感じ、ぴったりそこで止まる。
メモリ13GBのゲストOSをLiveMigrationしたときの時間、5回実行して平均。
IPoIB:44秒
GBE:130秒
予想より遅いので色々弄ってみたものの変わらず
今度別のドライバで試してみる。
169:不明なデバイスさん
11/09/08 00:24:23.92 GjXTbwgh.net
ヤフオクVoltaire の10Gスイッチが49800であったので迷わずぽちってしまった。
SM搭載のISR9024S-M
ケーブルも6本CX-4が付属
関税やら運送費考えると、海外から取り寄せるよりおそらく安いかなぁと
今ケーブルとカードいつもより出品されてるので、チェックしてみるといいかもしれない。
カードは大量にあるので、使用感は別途レポート予定です。
NexentastorあたりでのSRPTargetにて環境構築予定
もしかしたらVMにのせてその上で動かすかもしれない。
170:不明なデバイスさん
11/09/08 05:29:32.28 af8CHQGe.net
>>164
うちはSFS7000Dを海外からぽちっと行きましたがなんだかんだで5万くらいでしたね。
SM搭載してるけど、未だにこっちは設定してないですわw
マニュアル読んでる最中なので。
丁度テストでNexentaCoreでSRPとiSCSIの環境作ってるのでレポートしますねん。
zfs stripeのシーケンシャルリードで1.2GB/sくらいのストレージが出来たのでw
クライアントはWindowsになるかと思いますが。
171:不明なデバイスさん
11/09/10 17:52:05.44 +Gl+1Y5W.net
Solarisの絡みの話になるのでここに書くのはちょっと気が引けるのですが、
Solaris系でSRP Target使いたいけどわからんって人向けに、とりあえず使えるようにする方法書いときます。
当方が使ってる環境がNexentaCoreなので、そこら辺は適時読み替えをお願いします。
SE11とかだと、標準ではsrpのドライバは入ってなかった筈なので、
@solaris:~# pkg search -r srp
INDEX ACTION VALUE PACKAGE
pkg.summary set Sun SRP COMSTAR Port Provider pkg:/driver/network/srpt@0.5.11-0.151.0.1
このドライバ入れてやりましょう。
Sunの使い方のページでみたい人はこっちでどうぞ。
URLリンク(wikis.sun.com)
InfiniBandのHCAでsrpが認識されているかチェック
root@nexenta:~# cfgadm -al | grep -G ib::srpt
ib::srpt,0 IB-PSEUDO connected configured ok
SRP TargetもCOMSTARの一部なので、ターゲット上げてやる必要があります。
root@nexenta:~# svcs -a | grep srp/target
online 23:55:20 svc:/system/ibsrp/target:default
になってればOK
なってなければ、
root@nexenta:~# svcadm enable -r ibsrp/target
で有効にしてやりましょう。
SRP Targetが動作しているか確認
root@nexenta:~# stmfadm list-target
Target: eui.0002C903000XXXX
つづく
172:不明なデバイスさん
11/09/10 18:11:38.17 +Gl+1Y5W.net
Target: eui.0002C903000XXXX
の、eui.以下の部分ですが、NODE GUIDになっているはずですので、ご確認を。
cfgadm -al | grep hca
で出てくる数値と2C以下のところは一緒な筈です。
たとえばポートが複数あるカードでもtargetとしては一つしか出来ませんのでご注意を
SRP Targetの場合iSCSIの場合と違って自動でTargetが作成されます。
あとは、iSCSIと同様にtarget-groupやviewやluを作成してやれば動作します。
注意事項
VMwareESX等では、そのままInfiniBandのドライバを追加してやれば、SRPのTargetに
接続できますが、Windowsの場合はOFEDの配布している最新の2.3を使用しないと
接続できません。また、うちの環境での話ですが、同一IBネットワーク上にSRP targetが
複数存在している場合には複数同時には使用できませんでした。
使用しないSRP targetのibsrpドライバを無効にしてやると動作はしました。
ちなみに、Windows上で最新のOFEDのドライバを使用しないと接続できないのは、
Solaris自体のバグです。OI最新/SE11でも直ってないみたいなのでだれかバグ報告をw
URLリンク(src.opensolaris.org)
で
49 SRP_IO_SUBCLASS = 0x690E
が
49 SRP_IO_SUBCLASS = 0x609E
に修正するだけなんですけどね。
OFEDのドライバ側にSolarisのSRP Targetの場合は間違えた値で処理するように変更が加えられてるので
動作するようです。
173:不明なデバイスさん
11/09/11 08:44:15.26 QOrC8UPf.net
>>165
opensmはトポロジの構成ポリシを選べると聞くけど、SFS-7000のsm設定は
あんまり設定項目自体がないので機能が低いとかあるんですかね?
IBでスイッチングポリシがどう決まるのかイマイチわかってない。
174:不明なデバイスさん
11/09/12 21:33:50.69 pTpZeoUy.net
>>168
自分、そのこら辺まで追っかけれてないので、いまいちよくわかってないのですが、
ファットツリーとトーラスとかのアルゴリズムのお話ですよね?
最近ofwのMLで話題になってた3Dトーラスのアルゴリズムが云々てのがありましたが。
一応、この辺のことなのかなーと言う資料は見つけたので、はっつけときます。
URLリンク(www.cisco.com)
これの「Subnet Manager のルーティング」って辺りですかね?
175:不明なデバイスさん
11/09/14 10:44:22.16 jclKgVIV.net
それそれ。まだ高速バカハブ状態でしか使ってないので、
routing/partition/virtual-laneをもっと真面目に詰めてみたい。
176:不明なデバイスさん
11/09/15 00:03:58.01 5IxCN9J3.net
すまない、このスレみたらInfinibandなるものが欲しくなってきた!
まだ調べ始めたばかりなんですが、とりあえずHCAとケーブルとSMが
必要なのはわかった!で、最小構成で検証しようとすると…
・SDRかDDRなHCAが2枚
177: ・CX4なケーブルが1本 ・Windowsが2台/もしくはLinuxが2台/もしくはWindowsが1台とLinuxが1台 でいずれか一方にOpenSMを入れて、2台をケーブルで直結すれば接続、 どちらかをストレージサーバに見立てて、もう片方をクライアント にって感じで可能なのかな?
178:不明なデバイスさん
11/09/15 00:06:24.10 5IxCN9J3.net
171だけど、連投疑問ですまない+いまさらなんだけど >>25 の構成例って
PC1<---+
|
+--->P
C
+--->2
|
PC3<---+
・PC1とPC3は1ポートのHCA搭載
・PC2は2ポートのHCA搭載で単なるIBスイッチ兼SMになってる
って理解でおk?
179:不明なデバイスさん
11/09/15 04:42:23.32 yVdqg89L.net
Windows2台を直結して使っても大して幸せになれない
現状、SRP targetが動くOpenSolaris系かLinusを1台含めないと大して恩恵はない。
180:不明なデバイスさん
11/09/15 07:30:43.61 c9Wr80wJ.net
Linusか・・・どうやって調達しようか。
181:不明なデバイスさん
11/09/15 22:51:05.27 h2p44VeH.net
>>172
25だけど、ごめんよー単純にそのままだと動かなかった。
Switch less InfiniBandでググれば事例がでてくるけど、
設定の細かいところまでは出てこなくて、動作のさせ方がいまいちわからんままなのよ。
ちなみに、最低限の構成は171の構成で動くよ。
>>173,174
吹いたわw
182:不明なデバイスさん
11/09/16 00:09:46.55 5Gp5R8c6.net
171です、ありがとー!
>>173 とりあえず最初は繋げてみるだけって検証かなーと思ってたんで、その後
は、確かにZFSを混ぜた構成を作ってみたいね。
>>175 Switch less InfiniBandのポイントありがとー!ちょっと調べてみる
よ!あと一応2台で最低限動かせるって分かって、助かりました!
>>174 同じく吹いちゃったよw
183:不明なデバイスさん
11/09/16 20:57:17.74 5YKcju3m.net
>>167
どっちにしてもSolarisとVMwareESXiの組み合わせじゃSM載せたスイッチ必要なんでしょ?
184:不明なデバイスさん
11/09/17 01:21:48.18 NnPwrZft.net
>>177
そうです。
って、最新のSolaris 11だとOpenSM入ってたりするか見てみるわ。
InfiniBand関係の修正が大量に入ってたので。
185:不明なデバイスさん
11/09/17 07:23:58.22 e9DYcXZA.net
InfiniBandのポートが8個ぐらいとGbEポートが32個ぐらいついたスイッチってないの?
ストレージサーバーをIBでつないで、クライアントをGbEでつなぎたいんだけど
186:不明なデバイスさん
11/09/17 16:38:27.50 AqMmxQix.net
ストレージならIBよりも、FC(FCoE)のほうが一般的じゃないか?
187:不明なデバイスさん
11/09/17 17:28:38.24 cCc0qfdC.net
>>179
そういう製品ある。
ただ、そこまでポート数は多くないけど。
多いやつもあるっちゃーあるが、1Uとかのサイズじゃなくなるよw
URLリンク(www.servants.co.jp)
ちなみにIB/10GbE/FCをブリッジしてくれる。
ただ、お値段は7ケタだったような
188:不明なデバイスさん
11/09/17 17:42:43.38 HZYfwgus.net
エンタープライズはともかく,1Gbps越えのローカルな通信だと
intel の lightpeek とかの方が現実的なコストで出来そうな気も
189:不明なデバイスさん
11/09/17 18:59:30.98 gXeLKjbG.net
>>165
NexentaCoreでinfinitband使う場合、やっぱメラのカードだとメモリ付きじゃ
ないと駄目なんでしょうか?メモリなしのXTCでも行けますか?
190:不明なデバイスさん
11/09/17 21:17:46.55 NnPwrZft.net
>>183
メラノックスの製品で言うと InifiniHostEX・Lxのメモリなしは動きません。
ConnectX系のメモリなしのは普通に動きます。てか、メモリなししかありませんが。
>>179
181だけど、業務での話よね?
よく考えてみたらら、10GbEのカードと10GbEが4ポート使えるスイッチでやるのが現実的かと。
FCoE使うとでは無ければ HP ProCurve Switch 2910al とか、DellのPowerConnect 6224とかで
やると比較的安くはなるけど。
個人だったら、そのクラスの中古を頑張って漁るんだ
191:不明なデバイスさん
11/09/21 23:54:19.23 hITJymLj.net
FreeBSDで物凄いpps性能のスタック作ったとか話聞いたから、そいつにIB-10GbEのルータとかさせたらいいのかも。
DMA機能あるんだからNIC間で勝手にフォーワーディングとか設定できないのだろうか。
192:不明なデバイスさん
11/09/21 23:55:48.70 hITJymLj.net
ConnectX2あたりからそんな機能ないのかな。どうもこの世代から色々断絶があって泣いてる。
193:不明なデバイスさん
11/09/24 02:42:44.94 OVoOXtwQ.net
>>186
ConnectX系だといけそうだけど、BridgeX売ってる関係上やらないんでしょうねー。
BridgeXのチップ自体の単体販売してるけど、PCIeのコントローラ付きで15W弱の
消費電力だったから、PCIeカードにすることも可能な気が。
194:不明なデバイスさん
11/09/24 02:46:26.93 OVoOXtwQ.net
あと、Solaris 11 Early Access版でIBの機能増えてるか試してみた。
残念ながら、OpenSMの機能は未実装だった。
あと、メモリ有りのInfiniHost Exは、動作した。
メモリなしのでも、週末にでも試してみるよ。
(たぶん、OracleがメモリなしのInfiniHostを売ってないので無理だとは思うけど)
195:188
11/09/28 19:40:03.97 ucm47yZS.net
Solaris 11 Early Access 版でも、メモリなしのInfiniHost Exは駄目ですな。
デバイスドライバで認識されないわ。
OpenSolaris 134bとかだと、ドライバのアタッチされて、このカードでは動かないよメッセージでてたんだけど
それすらでなくなってるね。
196:不明なデバイスさん
11/09/30 15:24:34.35 PRUUnQBj.net
SRPとかで使うんじゃなくてIPoIBしか使わない場合、ConnectX世代のカード
だと全然速いんでしょうか。
もしそうなら、10GBaseのNIC買う代わりになるのかなぁ、と思ったんですが。
197:不明なデバイスさん
11/10/01 01:40:33.57 vH/wN4Ss.net
>>190
IPoIBが無茶苦茶速くなるって事も無いかな。
家だと、チューニングなしで1.5倍くらいにはなったけど。
ちなみに、ConnextXは10GbEのNICにもなるよ。
ファーム上げてやらないと駄目だったかもしれないけど。
QSFP->SFP+の変換のアダプタがMellanoxから出てるんで、それ使えばSFP+で接続可能。
国内だと結構良い金額してるけど、海外で買う事に抵抗なければ$50弱くらいで変換アダプタ買えるし
198:不明なデバイスさん
11/10/01 01:43:59.20 vH/wN4Ss.net
肝心のスピード書いてなかった。
InfiniHost ExからConnectXに変えたら 4Gbit -> 6Gbit くらいにはなったよ。
あと、変換アダプタはConnectX-2対応って書いてた気がする。
ConnectXでは動作するかはちょっと解らないので博打になる可能性もあるからご注意を
199:不明なデバイスさん
11/10/05 09:51:57.22 t5R12IRJ.net
connectX世代だと中古漁りでも10gbeカードと大して値段変わらん気がするけど。
10gbeカードもメーカでスピードまちまちなんで、スピードの面で10gbeに期待するのはまちがいかと。
200:164
11/10/07 21:23:33.74 BJUPjlLf.net
ひとまず>166のおかげでOpenIndiana+napp-itで
SRP Targetの構築はできたけどWindows側のSRP InitiatorのIDの見方が不明
HostGroupとTargetGroupで接続制御したいので、HostのInitiatorIDが確認
できたらなぁと、何かしらのコマンドで見れるのかしら?
eui.xxxx の形式なんだろうけど情報がない>
201:< もしかして、Target作ったときのIDと同じ? (同じサーバでOS入れ替えて同じカード確認しているので) わかる人おりますか? カード:InfinihostⅢEx DualPort OS:Windows2008R2 WinOF:Ver2.3 SRP Driver導入済み
202:不明なデバイスさん
11/10/07 21:52:15.20 HxWg2i0P.net
>>194
Windows側じゃなくて、OpenIndiana側で良ければ
# stmfadm list-target -v
で、接続しているデバイスは解ると思う。
多分、eui.xxxxxのxxxx部分は、Windows側のNode GUIDじゃないかな?
windows 側から確認したったら、ibstatコマンド叩いて確認すれば解るよ。
0x1234567890123456 形式で表示されるので。
203:不明なデバイスさん
11/10/08 15:03:48.47 d+p2xxZ/.net
Fibre channel のスレ無いのでこのスレでおk?
ストレージサーバー5台ぐらいとクライアント(GbE)100台ぐらいをつなぐのに Fibre channel を
考えてるんだけど最近 FCoE を知りました。
FCoE カードがついたストレージサーバーとFC+CEEのスイッチさえあれば簡単に構築出来るの?
204:不明なデバイスさん
11/10/08 15:28:34.73 S6UWp2fC.net
どう考えてもスレチ
まだSCSIスレの方がマシだと思うが、それでもスレチ認定だろうな
205:不明なデバイスさん
11/10/08 21:32:31.11 GfdeDDww.net
>>196
FCoEなら、こっちのが良いかな
スレリンク(hard板)
206:196
11/10/09 00:47:35.70 egi+JrWx.net
>>197
スマン
でもFCスレって無いんだよなあ
>>198
ありがとう
そちらのスレにポストしてみるよ
207:不明なデバイスさん
11/10/09 15:44:57.09 QU9miVLk.net
>196 テラカワイソス(´・ω・)
563 : 不明なデバイスさん : 2011/10/09(日) 00:47:47.79 ID:egi+JrWx
Fibre channel のスレ無いのでこのスレでおk?
564 : 不明なデバイスさん : sage : 2011/10/09(日) 15:36:54.47 ID:cAvJgjP0
>>563
おkじゃないので、お帰りください
208:不明なデバイスさん
11/10/09 16:39:33.92 0roytR2h.net
メーカー依存話だったら通信技術のメーカースレでやれば良いとは思うがそうでもなさそうだしな
209:anonymous
11/10/11 13:23:07.14 oPjvvx4y.net
FiberChannelのスレ、って昔みた気がするんだけど。通信技術板かな。
210:不明なデバイスさん
11/10/13 03:26:54.15 CT6+S7kD.net
SCST+SRP targetとかtgt(Linux SCSI target framework)+iSERとか試してみたい
けど中々時間が取れない・・・
211:不明なデバイスさん
11/10/13 11:47:00.71 5RgjVfbP.net
おおお
URLリンク(docs.redhat.com)
>>iSCSI extension for RDMA (iSER) initiator and target
>>iSER initiator and target is now fully supported.
>>Red Hat Enterprise Linux can now function as an iSCSI initiator
>>and storage server in production environments that use
>>InfiniBand and where high throughput and low latency are
>> key requirements.
212:不明なデバイスさん
11/10/23 18:35:14.87 Mgpu9bCC.net
Dual port な HCA を使って冗長構成を取ってる人っています?
資料を探しても Cisco のコンフィギュレーションガイドが出てくるばっかりで。
具体的には ConnectX を積んだ PC 2台を2本の線で直結して、IPoIB でネットワークを作ろうと思ってる。
このときに1本が断線しても通信が続いてくれるのが目標なんだけど・・・・・
213:不明なデバイスさん
11/10/23 23:14:33.00 LQaf9qNz.net
>>205
OSはなんでしょ?
LinuxだったらIPoIBのBondingの設定はMellanoxのマニュアルに載ってたけど。
WindowsやSolarisだとちょっと解らないです。
214:不明なデバイスさん
11/10/24 04:40:36.75 62XHfwnu.net
IBってBondingできるの?!
215:不明なデバイスさん
11/10/24 18:52:44.34 +eooRvaQ.net
>>207
自分はそこまで突っ込んでやってないけどIB自体の冗長構成も出来たはず。
206の話はあくまでIPoIBでの話っす。
ググったらでてきた。アルテマさんのところの資料だけど
URLリンク(www.altima.co.jp)
216:206
11/10/24 19:12:45.64 lzrwZgjB.net
>>206
ありがとうございますー!
本当は Open Indiana 同士がいいんだけど、SM をどうしようもないんで
片一方は Linux の予定です。
確かに改めて調べてみたら IPoIB だと Bonding をサポートしてるという話が
ちらちら出てきたので、それを切り口に、もう少し探し回ってみようと思います。
なんか出てきたら報告しますねー
217:不明なデバイスさん
11/10/24 20:46:22.12 +eooRvaQ.net
>>209
OpenIndianaでも多分IPoIBのBondingは出来るんじゃないかな。
その辺できるようにIPoIBのドライバに大分手が入ってるから。
うちはNexentaCoreなのでその恩恵には預かれないけどw
218:不明なデバイスさん
11/10/24 21:46:52.65 +eooRvaQ.net
210に追加
URLリンク(download.oracle.com)
を見る限りSolaris11系だと、IPMPでは動くみたいですね。
219:不明なデバイスさん
11/10/30 21:16:46.77 cjjsNR0s.net
WinOF 3.0-RC1 出てるね。
IPoIBがConnected Modeが正式にサポートされてる。
これでWindowsのIPoIBの速度が上がるかな
220:不明なデバイスさん
11/10/30 22:45:55.96 SbwOU+6u.net
Solaris系OSでSRP targetが試してみたくてMHGA28-1TCをポチってしまった。
後悔はしていない。LowProfileのブラケットしか付いていないので送料込み
で90ドル。この瞬間だけは超円高マンセー
とりあえず簡単にNexentastorを試したい
221:不明なデバイスさん
11/10/31 00:22:45.24 UoieX4Kj.net
>>213
NexentaStoreだとSRPはWebGUI上から触れないよ
それがあってNexentaCoreにした
222:不明なデバイスさん
11/11/04 02:31:58.35 nUkUdMrc.net
あ、あれ?
FreeBSD-9.0RC1でMHGA28-XTCを認識しない。。。
どういうことなんだ?キバヤシ
223:不明なデバイスさん
11/11/04 10:10:04.86 KuHYChLX.net
>>215
過去に自分がFreeBSD 9.0-current(5月くらいかな)で試したときは、
自分が持ってるInfiniHost系は全滅でした。
当時はConnectX系持ってなかったのでテストできなかったんですが、
移植された方はConnectXのENモードで使ってるっぽい記述を見た記憶があるので、
近々、ConnectXでFreeBSD 9.0に再度チャレンジしてみます。
しかし、ドキュメントが全くないのでどういう状況なのかが全く分からないんですよね
224:不明なデバイスさん
11/11/04 10:50:05.61 w8qmjF1B.net
ソース真理教。
225:不明なデバイスさん
11/11/07 23:25:03.50 mBSUlx73.net
InfiniBand 全然知らないんだけど自宅でクライアント5台とIBを使った鯖をつないでみたい。
ものすごいスピードでIBの鯖のRAIDにアクセスしたい
クライアント達はGbEのハブでつながってるんだけど何があればIBを使った鯖をつなげるんだ?
このスレよんでると10GbEより安くてパフォーマンスがいいんだよね
226:不明なデバイスさん
11/11/08 03:11:48.63 wSYBbrGm.net
>>218
InfiniBandでその台数を繋ぎたかったら、スイッチが必須かも。
ちなみに、
227:iSCSIで接続とかSMBで接続って事だったら、無茶苦茶には速度上がらない。 うちだと、iSCSIで接続すると、シーケンシャルのReadが220MB/s Writeが120MB/sくらい。 SMBは試してないので不明。過去ログ読むと出てるけど。 ・クライアントとサーバにIBのHCAカード。 ・IBスイッチ ・スイッチとクライアント・サーバを接続するケーブル ってことろかな? サーバのOSとかクライアントのOS書いてもらえるともう少し突っ込んだ内容がかけるけど。 10GbEで5台以上接続するとなると、比較的高価なスイッチが必須。カード自体はそこそこのお値段かな。 IBだと、カードがヤフオクで8k円くらい(これもピンキリだが)、スイッチが3万で今は出てるね。 あと、ケーブルは欲しい長さの物があればヤフオクなりで。 ちなみに、個人的に検証したときはTCP/IPのパフォーマンスは、IBより10GbEのが1Gb/sくらい良かった。
228:不明なデバイスさん
11/11/08 13:02:59.07 9HdOCYcY.net
>>219
両方とも Linux (CentOS) です。
>ちなみに、個人的に検証したときはTCP/IPのパフォーマンスは、IBより10GbEのが1Gb/sくらい良かった。
これが気になったんですがIBじゃなくて10GbEで接続した方が管理もスピードも楽って事ですか?
SubnetManager も必要ないし・・・。
229:不明なデバイスさん
11/11/08 14:52:59.02 gi2tiSuM.net
IPoIB が 10GbE より優れてる点はコストぐらいじゃないかな
10G以上で繋ぎたいとか、IP以外(NFS/iSCSI)でも使いたいというときに、
はじめてコスト以外のメリットがあると思う。
ちなみに、今日から(だったっけ?)サービスが始まる
「さくらのクラウド」もIB使ってるらしい。
「さくらのクラウド」を例に見るネットワーク仮想化の設計と実装 ? さくらインターネット研究所
URLリンク(research.sakura.ad.jp)
# 資料の P.51~ IB 利用について説明
さくらは @IT とかの記事も書いてたから、かなり IB に
力入れてる印象があるから、あえて使ったのかもしれないが
230:不明なデバイスさん
11/11/08 17:09:31.11 VtaymO8o.net
>>220
219だけど、スピードはSDR(10Gb)接続の場合の話ね。
ConnectX系使って、DDR(20Gb)で接続するとIPoIBの方がパフォーマンス出たよ。
接続は、Solaris Express 11 と Windows 2008 R2 とで900MB/sくらい出た。
Windows側のOFEDは3.0-rc1使ってCMをonにしてる状態だけど。
個人的な意見だけど、一対一だと10GbEの方が楽だと思う。
これが複数の接続になるとコスト的にはIBに軍配上がるかな。
10GbEでフルスループット出るSwitchって、IB Switchに比べると倍以上違うので。
221さんが言われてるに自分も同意です。
>>221
さくらさんの場合は、ConnectX系使ってEoIBまで使ってるのが大きいかと。従来の
Etehrnet部分もIBに全部集約してるので、ケーブリングが単純になるのが大きいんで
しょうね。確かにストレージ系ネットワークもEthernetネットワークも全部IB上で集約する
ってのは合理的だなーと思います。
231:不明なデバイスさん
11/11/08 23:01:08.89 Y+Qguiin.net
また聞きだけど、さくら のストレージはIPoIBのNFSという話を聞いた。
232:不明なデバイスさん
11/11/09 10:30:22.48 /k5Q3TVO.net
>ちなみに、個人的に検証したときはTCP/IPのパフォーマンスは、IBより10GbEのが1Gb/sくらい良かった。
あれ、ベアラスピードは10GBeは10Gbpsだけど、SDRは8Gbpsじゃなかったっけ?
ひょっとしたらIBのほうがプロトコル効率いいのか??
233:不明なデバイスさん
11/11/09 11:43:23.89 wiWuojdl.net
某オクのCisco IBスイッチ
Paswd解除してやろうと思ったらデフォのままだった…
ちなみに↓のマニュアルの方法でリセットできるようだ
URLリンク(www.redbooks.ibm.com)
234:不明なデバイスさん
11/11/10 00:48:25.32 M1ZsPNQU.net
>>223 ほうほう、ってことはrNFS使ってるっぽいですね。 >>224 ベアラスピードは書かれてる通りですね。 計測したときは片側がWindowsだったんだけど、当時はConnected Mode対応じゃなかったので 余計に遅かったのもあるかも。手元の環境でIPoIBをiperf使ってチェックしてみたら、現状はこのくらいでてますね。 ちなみにLinux(Sientific6.1) - Solaris Express 11をDDRスイッチかまして接続してる状態です。 ------------------------------------------------------------ Client connecting to 192.168.17.7, TCP port 5001 TCP window size: 193 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.17.241 port 60775 connected with 192.168.17.7 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 11.5 GBytes 9.90 Gbits/sec 某オクでCiscoIBスイッチ落札された方向けネタを一つ。 最新のSFS-7000系のTopspinOSは、IBMからおとせれますよーっと。
236:225
11/11/10 01:18:17.69 A9d72Ii/.net
>>226
あんがとー
TopspinOS Release 2.9.0 Update 2 が最新かな?
既にそのVerのようでした
速度についてはレイテンシとオーバーヘッドの点でIBが優位ってとこなんでしょうかね
俺も早く試したいけど、まだHCAが1枚もない・・・
237:不明なデバイスさん
11/11/10 01:53:04.67 M1ZsPNQU.net
>>227
ありゃ、最新ですか。
うちで確認したところ、
OS loaded is TopspinOS 2.9.0 releng #170 06/26/2007 16:40:42
で最新な筈です。
DDRだったら10GbEとほぼ変らないスピード出ると思います。
Windows(WinOF 3.0-RC1) - Solaris Express 11(OS標準ドライバ)のIPoIBで900MB/sはでてますから。
ただ、DDRのカードの出物が少ないのでちょっと手に入れるのが大変かも。
SDRのカードだったらそれなりにオクに出てるんですが・・・。
238:不明なデバイスさん
11/11/10 02:28:42.29 A9d72Ii/.net
ふぅ。ラックにマウント完了・・・
>>228
レス恐縮です。
IPoIBで900MB/sなら10GbEと比べて遜色ないですね
DDRカードが欲しいのでeBay漁ってみようと思います
ちなみに、*BSDなZFS Storage(OS用)とESXiのIB接続、
別筺体のZFS Storage(ファイル鯖)とESXi GuestやClientPCの接続を考えてます。
前者は単にIB Switch<->HCAで良いと思うのですが、
後者はStorageServerに10GbE NICとHCAを挿して、ClientPCは10GbE UplinkがあるGbEエッジスイッチ経由、
ESXi GuestはHCA経由での接続が安上がりかなーと思ってます
IBド素人ながら、はてなさんの構成が激しく気になります
239:不明なデバイスさん
11/11/10 02:34:12.70 A9d72Ii/.net
はてなじゃないや、さくらたんだ。失礼しました。
240:不明なデバイスさん
11/11/10 06:48:37.62 YOghaSxJ.net
はてなたんってDQ45CBのまな板とか並べてたんじゃなかったっけ?
石狩のアレがそう(ブレードじゃない)ならちょっと笑う。
DDRといえばqlogicの9000 DDRがオクに安価で出てるけど、さすがに1枚目はメラのほうがいいだろーなー。
241:不明なデバイスさん
11/11/10 07:12:02.87 dQvOBEfS.net
Solaris 11が正式リリースされたよー
URLリンク(www.oracle.com)
242:不明なデバイスさん
11/11/10 09:17:57.94 M1ZsPNQU.net
>>229
*BSDでの動作って、今のところ移植された方のBlog見るとConnectX系でそれもETHモードでの動作だけな気がします。
近々、ConnectX積んだPCが空くのでそっちでFreeBSD 9.0をテストしてみる予定ですが。
FreeBSDのInfiniBandの移植ってLinuxKernelの必要なSystemCallをFreeBSDのSystemCallに置き換える層を
作って移植してるんですな。ソース見てて知りました。
>>231
ちょっと前に、ITmedi
243:aかなんかでさくらさんとはてなさんの対談が載ってたけど、はてなさん最近はメーカーもののサーバ使う ようになってるって話が出てた気がします。 Qlogicは、自分持ってないのではっきり言えないんですが、QlogicサイトのWebで見てるとWindowsとLinuxのみのサポート みたいですね。最新のQDRの物に関しては今のところLinuxのみのサポートみたいで。Windowsにも移植中ってのはOFED のML見てると書いてありましたが、WinOF3.0に間に合わないかも的なメールが流れてました。 >>232 情報ありがとうございます。 早速ダウンロードしました。仕事終わったら早速インストールしてみますw
244:不明なデバイスさん
11/11/10 15:36:02.46 lB6LKqjO.net
>>229
個人的な意見ですけど、DDRで揃えられるつもりなら、InfiniHost系よりもConnectX系をお勧めします。
それもConnectX系でもQSFPのポート方で。CX4のポートのもの(MHGH系)はサポート終了みたいなので。
OEM物でも、自己責任で最新ファームに書き換えできるようになってるので、安ければそれで。
ebayだったら出物がそれなりにあるので、根気よく探せば格安で手に入ると思います。
6月くらいまでは、refurbishedのConnectXが大量に流れてたんですが売れちゃったみたいで、最近はぼつぼつ出てる感じです。
あと、QSFP-CX4のケーブルが意外と値段しますので、その辺りをトータルで見ながら購入されるのがよろしいかと
245:不明なデバイスさん
11/11/10 17:55:16.13 YOghaSxJ.net
でもお高いんでしょう?
246:不明なデバイスさん
11/11/10 21:05:13.98 M1ZsPNQU.net
>>235
今ならなんと$65でって、その値段で先週まででてたんですけどねw
定期的に売りに出してる業者がいるからちょっと待てば$100くらいで出てくるかと。
在庫が200枚程あるからまとめ買い交渉受け付けるよって書いてましたが。
247:不明なデバイスさん
11/11/10 23:52:45.40 FSXMY8oa.net
IBoE に対応したスイッチって高いの?
IBoE と GbE を使った鯖、クライアントを混在させたいんだ
248:不明なデバイスさん
11/11/11 00:18:05.51 Xwcef8hc.net
>>237
GbEだったら安い中古のあるんじゃないかな。
eBayで何回か見かけた事ある。
10GbEになると、現行のBridgeXになるから100万越えになっちゃうけど。
249:不明なデバイスさん
11/11/11 00:34:24.53 Buer1oZq.net
>>238
スイッチ自体がGbEまでしか対応してないと IBoE もGiga止まりですよね?
そうなると困るのでせめて IBoE だけは 10GbE でつなげるようなスイッチって無いんですかね?
250:不明なデバイスさん
11/11/11 01:35:28.57 Xwcef8hc.net
>>239
残念ながら、EoIB、FCoIB等のプロトコル変換出来る機械は安いのがないんですよ。
古いものだと238であげたように、GbEしかついてないですし。
LinuxとかでEoIB-10GbEのGatewayが簡単に作れればいいんですけど、
現状ではそういう風になってないんですよね。
あと、EoIBを喋らせようと思うと現状ではEoIBを理解できるGatewayがいないと設定すら
出来ないと思います。ここら辺は、自分も勉強不足なので間違ってるかもしれません。
参考までに、現行品で挙げますが
URLリンク(www.xsigo.co.jp)
URLリンク(www.mellanox.com)
どちらも個人で買えるような代物ではないですね・・・
251:不明なデバイスさん
11/11/11 06:44:38.15 xvd3rYLC.net
>>240
ifをbridgeすればいいんじゃない? linuxならbrctl addif br0 eth0 eth1みたいに。
ただ、スループットは期待できないと思う。貧乏人のルータ、ってやつですな。
>>236
やっす。 connectXは10GBeにもなるからなあ。
252:不明なデバイスさん
11/11/11 17:11:42.8
253:4 ID:0f3BvgVE.net
254:不明なデバイスさん
11/11/11 17:26:49.47 xvd3rYLC.net
IBoEとEoIBで話がかみあってない気が。
いずれにせよ3桁万円コースだと思うけど。
255:不明なデバイスさん
11/11/11 22:52:14.60 Xwcef8hc.net
>>241
IPoIB - 10GbEのルータは作ってみるつもりです。
間違い無くフルレートは出ないでしょうけどw
オークション形式で出てるので、実際はもっと上がる可能性ありますけど、
それでも安いとは思います。普通だと$300くらいからスタートなので・・・
>>242
あー、ごめんなさい。勝手にEoIBと勘違いしてました。
ちょっと調べてみたところIBoE対応製品って比較的最近の物しかないかと思います。
CiscoのNEXUS 5000系は対応してるみたいですが。ポート数が少ないもので
言われてるような機能を持った製品はまだ市場に出てないんではないかと思います。
>>243
ご指摘ありがとうございます。その通りでした(汗)
どちらにしろ、お値段は3桁万円コースですね。
256:不明なデバイスさん
11/11/12 08:57:59.40 JAZFyoDP.net
>>5
systemworks ってFCほとんどあつかってないし、ベンチもないな
なんでIBはやってFCはやらないんだろう・・・
257:不明なデバイスさん
11/11/12 12:18:25.71 hfBB53D+.net
今さらFCでなにするよ。
先進性のあるもの取り上げないと、面白くないしね。
258:不明なデバイスさん
11/11/12 16:12:20.13 JAZFyoDP.net
FCoE とかか?
259:不明なデバイスさん
11/11/12 20:51:33.87 61ogkybw.net
>>245
あそこはHPC屋さんだからFCは殆どやってないのではないかと。
260:不明なデバイスさん
11/11/12 20:57:32.87 oL/AVp5D.net
linux のブリッジだとCPUがネックでろくな性能出ないんじゃないか。
少し前はGbE でもギリギリだったが
261:不明なデバイスさん
11/11/12 21:33:31.95 8K8Rsbn/.net
ブリッジングなら(EoIB)、最近のPCIeならそこそこ性能出るんじゃないかと。でも2G~3Gbpsぐらいだろうけど。
ルーティングだと(IPoIB)、遅そう。
って実際にやってみればいいんだけど、PCIex8が2本以上あるようなマザーがねーよ。というかショッパイPCしかない。
262:不明なデバイスさん
11/11/12 21:48:14.04 JAZFyoDP.net
>>248
HPCだとネットワークはやらないのか・・・
ネットワーク屋ってのが別にあるのかな?
263:不明なデバイスさん
11/11/12 22:26:57.27 bWVzVMqr.net
HPCで計算機結ぶのにFCなんざ使う理由がない
FCの話がしたいなら他所へ行け
264:不明なデバイスさん
11/11/12 23:09:24.27 oNSrxNQT.net
ストレージとESXiホストそれぞれにDual portなIB HBAを付けて2本の線で2台を接続、
それぞれのリンクを
・ESXiホスト <-(SRP)-> ストレージ
・VMs <-(NFS, IPoIB)-> ストレージ
にして運用する、とかできるのかな
265:不明なデバイスさん
11/11/13 08:06:51.88 Yqxpy+ON.net
SRPだとストレージはsolaris系?
SM搭載スイッチかlinux or windowsでSM立てないとリンク上がらんよ。
266:不明なデバイスさん
11/11/13 19:04:49.47 TC+oayOa.net
はやくSolaris11系かESXi5系でOpenSMが動くといいんだけどなぁ
267:不明なデバイスさん
11/11/13 19:57:39.05 Yqxpy+ON.net
ESXiの設計では、おそらく出ないと思われる。
基本的にホストOSでアプリを動かすようにできてない。
Solaris系は、OF次第じゃないかな。
268:不明なデバイスさん
11/11/13 20:38:58.94 DqZ1whGS.net
>>253
ESXi は SRP に対応してない、というより IB デバイスに対応してないよ。
Mellanox + ESXi だと、Mellanox ドライバが Etherデバイス + FCデバイス にみせかけてくれる。
FCoIB で FCターゲット
IPoIB で NFS
の2択じゃないかな。
269:不明なデバイスさん
11/11/14 00:06:22.29 A3KUkwg6.net
>>253
254さんの言われてるように、ストレージがSolarisだと現状は無理ですね。
LinuxでされるならSCSTをSRP Targetに使えば可能です。
あと、ESXiは5系をつかうとなるとInfiniBand自体が使えないので注意です。
ドライバがまだMellanoxから出てないので。
>>255
FreeBSDも忘れないであげてくださいw
調べてみたら、ESXではOpenSM動いてたみたいですね。
ESXiだと256さんが言われてるように、アプリが動かせないので無理じゃないかなーと。
>>256
OFの出来はどうなんでしょうね?
Solaris11でOFEDからかなり移植してるので、コンパイルだけで動いたりしないかなー。
>>257
言われてるように、ESXiは標準ではInfiniBandとSRPとIPoIBには対応してないですね。
ただ、Mellanox配布のOFEDドライバを入れるとSRPとIPoIBのドライバも入るのでSRPは動作します。
実際うちではそれで動いてますから。
URLリンク(www.mellanox.com)
でマニュアルみるとプロトコルの対応状況が書いてあります。今のところFCoIBの対応はしてなかったかと思います。
あとは、rNFSとかも対応してないですね。かなり機能限定されてるドライバなので。
ちなみに書かれてるのって、VMWareのサイトで配ってる以下のMellanoxの10GbEのドライバの方でしょうか?
URLリンク(downloads.vmware.com)
こっちだと、書かれてる内容的に納得なんですが。
270:不明なデバイスさん
11/11/14 00:36:19.45 H+ydeSaH.net
>>258
ご指摘ありがとうございます。
> ちなみに書かれてるのって、VMWareのサイトで配ってる以下のMellanoxの10GbEのドライバの方でしょうか?
おそらくそうです。10GbEの方で見た画面で間違って理解していました。
OFEDドライバも別にあったのですね、というかVMware公式で
配布しているのは10GbEでENが付いている製品用で、
OFEDドライバはENが付かないIB/VPI製品用なのですね。
271:不明なデバイスさん
11/11/14 00:52:08.68 A3KUkwg6.net
>>259
いえいえ、普通はVMware公式に有るとそっちで動くって思うでしょうし。
MellanoxのサイトにVMwareで配布してるものドライバのReleaseNoteがあったので
読んでみたんですが、10GbEドライバで使用できるものの中にはConnectXのENつく
もの以外の製品も有ったので、10GbEのみで使うならConnectX系(VPIが使用可能
な製品)は使えるのではないかと思います。調べてみたら、この辺ややこしいですね(汗)
どうなるか、一回テストしてみるのがよさそうなので環境組んでやってみます。
272:不明なデバイスさん
11/11/14 01:24:40.84 A3KUkwg6.net
OFEDの最新RC版がでてるので、人柱な方はどうぞ
OFED for Windows 3.0 RC2
URLリンク(www.openfabrics.org)
OFED-1.5.4-rc4 for Linux
URLリンク(www.openfabrics.org)
273:不明なデバイスさん
11/11/14 02:14:55.28 neCXws3K.net
【SAN,NAS】ストレージ鯖総合【iSCSI,FC,IB,10GbE】
スレリンク(hard板)
274:不明なデバイスさん
11/11/14 06:38:00.74 Exe1zPrl.net
>>260
チップ自体はENも非ENも変わらなくて、ENはPXEとかiSCSIブート用にEEPROM持ってるんじゃないか、と想像してます。
275:不明なデバイスさん
11/11/14 23:13:41.39 A3KUkwg6.net
>>263
チップ自体は一緒ですね。ENはほぼファームが違うだけだと思います。
あとはPCIのデバイスIDとかそこら辺が違うのかな。
で、BootROMはENとVPIのカードでも多分一緒ですね。
これFlexBootととして配布してるのが同じものなので。
VPIカードも書かれてるような、EhternetからのPXEとかiSCSIのBootが可能です。
すごく汎用的に出来てますね。
276:不明なデバイスさん
11/11/15 12:14:16.36 Oz8F4jwP.net
はじめての速度測定。両側:windows 7, Pentium D 2.8GHz, infinihost Lx DDR,直結。
netpipe371_win32_tcpで最高速度が1500Mbps・・・・・・うゎゎゎゎぁぁぁん。
やっぱりそれなりのマシンじゃないと速度でないのね(笑)
277:不明なデバイスさん
11/11/15 12:31:16.56 Oz8F4jwP.net
で
278:同じマシンでmyricom-CX4で接続すると最高速度は2500Mbps。 IBというかIPoIBって意外とCPU喰うん?
279:不明なデバイスさん
11/11/15 13:25:07.63 Oz8F4jwP.net
CPU使用率メモ。infinihostで50%、myricomで40%。one-threadっぽい動きなので50%でサチってる。
280:不明なデバイスさん
11/11/15 20:48:06.44 mXVOpU0d.net
>>267
CPUは何を使ってる?