InfiniBandについて語るスレat HARD
InfiniBandについて語るスレ - 暇つぶし2ch50:不明なデバイスさん
11/05/24 00:57:03.14 vePc/kCe.net
25です。

週末に25で書いた接続をテストしてみたんですが、カードがまずいのかOSがまずいか
わからないだけど、上手く動かなかった。動かなかったのは、NexentaCore 3.01 と
OpenSM動かしてるLinuxの間。
普段はIB Swichで動かしてるけど、そっちだと問題なしなので、カードとPCを追加で
確保して環境を変えてチャレンジしてみます。
Solaris + ESXi + SMマシンって構成のSwitchless運用の需要がありそうなので、
何とか動かしてみたいんだけど。

別でDebian sid + Windows 2008 R2 のケーブル直接続での、IPoIB・SRP接続
は普通に動いた。

自分が動かした SRP Terget はSCSTだったので標準パッケージになってないから、
自前でビルドしてインストール。
あと、Debian sidの入ってるOFEDのパッケージだと1.4.1と、ちょっと古いのでDebian OEFDの
サイトから、1.5.2のパッケージの元を引っ張ってきて、自前でpackage ビルドしてインストール
したけど、テスト環境のLinuxのDiskが遅いので150MB/sでSRPは頭打ち。
ネット上で見てると、SSDのRAID0で1GB/sとか出てるみたいだけど。

51:不明なデバイスさん
11/05/26 23:54:59.37 NnZG8Yuz.net
14です。

ようやくCX4 cable(HP 444477)届いた。
国内在庫がなかったのか半月ほど入荷に時間がかかった。
これだけかかるならeBay個人輸入の方が安くて良かったかも。

思惑どおり10Gbase-CX4用cableでDDR IB 20Gbpsの通信可能。
まあ、1mの短いやつだからDDRでもokなだけで、
長いとSDR IB 10Gbpsまでしか無理かもしれないけど。

※信号線1対あたりの伝送速度は
SDR IB 2500Mbps < 10Gbase-CX4 3125Mbps < DDR IB 5000Mbps




52:不明なデバイスさん
11/05/27 00:16:16.14 6SzE5UYA.net
RDMAのプログラミングってどうやってみんなやってるの?
排他制御関係の文献ってしりませんか?


53:743
11/05/27 18:53:44.86 t1meQjEb.net
サンプルコード様に頼り切りの世界。
大学のHPC方面の人なら夢で書けるレベルなんだろうな。

54: 忍法帖【Lv=18,xxxPT】
11/05/27 23:41:15.16 QkWBmJAU.net
RDMAはDBやクラスタアプリから利用するものであって
直接叩くものではないと思っていた
ツールキット開発者さんですか?

55:不明なデバイスさん
11/05/31 00:44:46.36 TL6QVeno.net
ツールキットは作ってないけど、RDMAのゼロコピー性とか、
リモートのメモリに直接アクセスできる機能は
使えるんじゃないかと思って試行錯誤してますよ。

56:不明なデバイスさん
11/05/31 13:52:55.91 YaCOyw5G.net
なんぞこれ
URLリンク(www.slideshare.net)

てか、ここの住人?

57: 忍法帖【Lv=2,xxxPT】
11/05/31 21:12:08.30 aHkwviVG.net
>>55
4CPUで済む用途ならIB奢るより4CPUサーバを調達した方が管理運用に手間がかからなそう

58:不明なデバイスさん
11/05/31 22:28:52.09 vhMeOsQy.net
>>56
DYIだからねw
某テレビ局のCG作成室にもIB転がってたし、
CG屋さんてけっこう高速I/F知ってるみたい


59: 忍法帖【Lv=2,xxxPT】
11/05/31 22:40:43.81 aHkwviVG.net
組立テスト管理工数に掛かる人件費を限りなくゼロと査定すればIBいいね
マザーCPUもメモリもトータルで安価だし
まるでどっかの原発みたいだなw

60:不明なデバイスさん
11/06/01 00:14:08.66 HxBFG9mg.net
>>54
排他制御どうしてるのですか?直接メモリにアクセスできるのはいいけど
メモリのアドレス勝手に変わってしまうし。かと言って、CASじゃ無理だし
どうすればいいの?

61:不明なデバイスさん
11/06/01 11:13:49.40 /Gb6XrGK.net
>>43
NFS over IPoIBって安定して動いてますか?

NFS/RDMA同様と大容量を送ろうとすると、
NFSclientがハングアップする現象に遭遇しておりますが><;;;


62: 忍法帖【Lv=3,xxxPT】
11/06/01 12:02:09.17 nVcMMHmM.net
LinuxのNFS()

63:不明なデバイスさん
11/06/01 18:08:27.45 FD6RSKjP.net
このスレ、過疎ってるかと思ったら勢いあってワロタwww

64:不明なデバイスさん
11/06/02 10:36:59.30 t8C/X1f7.net
eBay見てると安いのだと$40とかであるのな
日本でも気軽にこの値段で手に入れば自作マシンで遊びで使えるのに

65:不明なデバイスさん
11/06/02 20:12:58.75 rIFcC7xE.net
こんないいスレあったのか

自分はMHEA28-1TCを3枚で、Windows Server 2008 R2をiSCSIターゲットにしてESXi動かしてます
やっぱりCOMSTAR使いたい!

QlogicのFCoE CNAもあるんだけど、こっちはこっちで光トランシーバが高い

66:不明なデバイスさん
11/06/02 23:09:17.53 gAmt3Mh7.net
ブロックアクセスだと今はSRPが安定してるね。
パラメータさえ決まれば問題なく動く。
iSERはMellanoxのVSAでないとまともに動かないと思われ。

GlusterFSのRDMAアクセス試してみた人いる?
マニュアル見ると割と簡単に構築できそうだけど。
Lustreは一般ユースでは駄目ぽ、あれは完全に計算クラスタ用途だった。

67:不明なデバイスさん
11/06/03 23:07:56.17 sPzjPH3p.net
>>60

NFSv4 TCP なら安定して動いています。
環境はx86_64, RHEL5.6 (ただしkernelだけRHEL6の2.6.32-71を使用)、
Mellanox MHQH29C firmware 2.8.0 です。

HPC用途なので数GBの計算結果がまとめて書き出しされたりしていますが、
hang upしたりといったことは起こっていません。

68:不明なデバイスさん
11/06/04 07:51:45.99 2zicZIpD.net
>>66
ありがとうございます。
こちらもNFSv4 TCPなんですけどねぇ。

Firmware2.7から2.8にあげるか思案中です。
OSのカーネルもあげてみようかしら。

こちらもHPCで、いくつかのノードから20GB程度のファイルを
複数送信しようとすると、いくつかハングアップって感じです><;;;

69:不明なデバイスさん
11/06/16 10:12:26.34 o/wylCt6.net
ESXiのデータストア用にZFSなストレージサーバ組みたいけど、
ZFSとSMを両立するのって難しいのかな。

70:不明なデバイスさん
11/06/16 18:12:16.57 BEzIFhGo.net
>>68
自分もやってみたんですがSolarisのSMが見当たらないのでどうにもなりませんでした
システムワークスさんのツイートに触発されてSolaris11でSRPターゲットを作り、Hyper-V Serverで接続したときは300MB/sを超えるスピードを出したので
ぜひESXiホストにも使いたいと思ってるんですが

71:不明なデバイスさん
11/06/16 18:49:05.95 o/wylCt6.net
>>69
やっぱりSolarisにSMが無いのがネックになりますか、残念です。

ESXiに各種鯖を統合、HDDはSolarisに集約、という具合にして両者をIBで直結させたら
非常にスマートかなぁと妄想してたのですけど。
ESXi単体では難しい各種アラートの処理や、UPSとの連携をSolarisに担当させたりして。

IB使うなら CentOS辺りが無難なのかな。
ただそうなるとRAIDZが…う~む...

72:不明なデバイスさん
11/06/17 22:39:57.10 yRMUcWUs.net
IPoIB使うと、InfiniBandの利点の低レイテンシも損なわれたりする?

73:不明なデバイスさん
11/06/17 23:06:54.98 EbdMWyYy.net
そういったことをこまこまと試したいので手元にブツが欲しいのさ

74:不明なデバイスさん
11/06/19 20:40:20.10 jN7m8XFB.net
ebayで買った中古のF-X430066のスイッチが届いたんでレポ。
ちなみにかなりうるさい。これは自室に置いておくのは躊躇する。ML115が全開でファンがまわってるときと変わらない。
あと、ファームの更新もi2c経由でしか出来ないのかな。mlxburnで更新しようとしたけど駄目って言われる。

75:不明なデバイスさん
11/06/19 20:55:44.17 GCXklOT4.net
常にML115全開並ってのは凄いな。掃除機クラスか。

76:不明なデバイスさん
11/06/19 21:42:18.05 4bdRaneo.net
消費電力30Wとか書いてあるけど、爆音なのか?
分解してファンはずしちゃえ。

77:不明なデバイスさん
11/06/19 23:34:45.44 jN7m8XFB.net
>>74
確認でML115全開と聞き比べたけど、それよりかは静かだったよ。
リビジョンが何種類かあるので、上の方で書かれてる方のように最近のは静かになってるのかも

>>75
小径ファンが3つ付いてる状態なので、取っ払うのは流石に怖いw

暫く運用してみて、温度的にファン交換可能そうなら交換してみるか・・・

78:不明なデバイスさん
11/06/20 23:00:50.14 OGPYHtLA.net
F-X430066割とコンパクトでいいなぁ…と思ったんだけど
やっぱりSMはない…よね?

79:不明なデバイスさん
11/06/20 23:46:23.98 Npj7EgJt.net
>>77
残念ながら、SMはついてないですね。

80:不明なデバイスさん
11/06/21 00:24:21.32 vUI3pKms.net
MellanoxのサイトにConnectX-3のページがいつの間にか出来てるね。

FDR(56Gbps)のPCIe Gen3対応か・・・。
お値段どのくらいででてくるんだろう

81:不明なデバイスさん
11/06/25 07:17:30.12 NL9OWVZg.net
人いないなぁ...

eBayで安く手に入るとは言っても さすがにニッチすぎるか、家庭内IB。

82:不明なデバイスさん
11/06/25 10:52:21.00 vpPpvWLJ.net
まだ入手してないしな

83:不明なデバイスさん
11/06/25 11:15:27.34 PGof8tnT.net
とりあえず、IPoIB と nfs over rdma を3台くらい
試したいんだけど、どの SW とどの HCA 買えばいいかを
しりたいな
予算全部で10万ぐらい、solaris と linux で試す予定


84:不明なデバイスさん
11/06/25 15:32:40.86 my+ve5G+.net
>>82
個人的なお勧めは

SWはF-X430066。
Linux用カードは、基本何でも動くので気にしない。
Solarisはカード選ぶので、MellanoxのConnectX系かInfiniHost III Exのメモリ付きで。

上の構成だとebayの中古で買えば10万はかからないかと。
国内は物が少なすぎて微妙っすね。

うちで動作確認したカード
Windows・・・MHEA28-TXC,MHGA28-XTC,MHES18-XTC,MHGS18-XTC,MHEA28-1TC,MHGH29-XTC,MHQH19-XTC,MHQH19B-XTC
Linux・・・MHEA28-TXC,MHGA28-XTC,MHES18-XTC,MHGS18-XTC,MHEA28-1TC,MHGH29-XTC,MHQH19-XTC,MHQH19B-XTC
OpenSolaris・・・MHEA28-1TC,MHGH29-XTC,MHQH19-XTC,MHQH19B-XTC

ファームのバージョンとかドライバの組み合わせによっては動かない事のがあるので注意

85:不明なデバイスさん
11/06/25 16:06:14.35 4SqyV/vi.net
乙すぎる。

実質、この人一人でスレ回ってるんじゃなかろうか。

86:不明なデバイスさん
11/06/30 23:37:48.88 rLhDp1ew.net
ちとスレ違いかもしれんが、海外通販の
コツみたいのはありますか?
ボードはなんとか国内で揃えられたんだが
ケーブルが安く揃えられん・・・

87:不明なデバイスさん
11/07/01 00:52:26.92 af7NYHX5.net
国内だとCX4とかQSFPのケーブルは安くはないですね。
自分は中古をebayの業者から購入して、転送サービス使ってカードとケーブルをまとめて日本に発送ってやりました。
個別に買ったのだと、中国から3mのケーブルで一本あたり送料込みで$30くらいでした。
ケーブルがごついので長くなればそのぶん重量が増えるますのでご注意を。

88:不明なデバイスさん
11/07/02 17:44:49.37 R9lYTKS4.net
とあるスレみてたらInfinibandという言葉が出てきたので何ぞや?
と思い調べてみたら興味を持ちました。

Infiniband環境を構築するにあたり疑問点
・スイッチのSM有無によるメリットデメリット
・非力なPCにDDRやQDRのHCA搭載した場合のデメリット(CPU負荷が高くなりすぎるので他の作業ができなくなるなど)


89:不明なデバイスさん
11/07/02 21:15:59.88 ZQOVkE/d.net
>>87

スイッチにSMある場合のメリットは、SMの専用サーバが不要。
SMサーバのLinuxもしくはWindowsが不要。
SolarisとかESXiみたいにSMが乗っからない環境だけで構築できるのがメリット。
デメリットは、OpenSMだと色々拡張されていってるけど、スイッチのSMだとその機能拡張が
すぐには使えないのがデメリット

非力なPCってのがどのくらいか解らないけど、参考程度に
PC二台でのIPoIB計測結果。
PC1 Xeon X3430 X3420チップセット OpenSolaris 134b
PC2 Athlon X2 5000+ MCP55チップセット Linux Debian OFED 1.5.2
PC1のカードは、ConnectX使用。
PC2のカードは、InfiniHostExとConnectXの二種類で計測
接続はSDRのSW挟んでます。
iperf -w 128k -N での計測結果

PC2がInfiniHostExの場合
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 2.26 GBytes 1.94 Gbits/sec

PC2がConnectXの場合
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 4.79 GBytes 4.11 Gbits/sec

チューニングは全くしていない状態の結果です。

90:不明なデバイスさん
11/07/02 21:35:23.88 R9lYTKS4.net
>>88
丁寧な説明ありがとうございます。
一応以下の条件で組んでみようかと思っています。
[台数] 4台
[O S] 全部Windows
[CPU] Xeon搭載が1、他はAtomやらZacateの非力自作
[条件]
XeonPCは消費電力高すぎるのでたまにしか使用せず
メイン使用はZacatePC(常時稼動可)、他は未使用時電源断

↑の場合だとスイッチのSM有無はあまり関係なさそうですね?
SM無スイッチ+1ポートHCAx4(1台SM用サーバー化)という構成でお財布と相談してみようと思�


91:「ます。



92:不明なデバイスさん
11/07/02 22:30:47.34 ZQOVkE/d.net
>>89
Windows OnlyだとSM無しの安いSWで十分ですね。
カードサイズがほとんどPCIe x8なので刺さるかご注意を。
MHES14だけがPCIe x4です。

93:不明なデバイスさん
11/07/02 23:41:56.97 RVtffYdX.net
>>88
ConnectX同士でつないだときの速度がぱないな
DDRやQDRなら、OpenSM使って間にSW挟まずにConnectX同士を直結した場合は
もっと速くなるんでしょうか?

94:不明なデバイスさん
11/07/03 03:16:49.02 DH3OQKCt.net
>>91

現在運用中だから、今度サーバ再構成するときにでもConnectX同士でテストしてみるよ。
ただ、うちの環境は遅すぎる気がしてますがw

95:不明なデバイスさん
11/07/07 18:41:19.59 Jz1twUW9.net
FreeBSD CurrentにOFED1.5.3が入ってたのでInfiniBandが動くか試してみたけどダメだった orz
OFED有効にした userland と kernelのコンパイルは通ったけど、ドライバがロードできなかったよ

96:不明なデバイスさん
11/07/09 03:21:39.93 Na6r7+An.net
このスレに触発されて買っちゃった・・・
MHGA28-XTC、送料込みで2個 16,000円

ケーブルってSASで使ってたケーブルがそのまま使えるんでしょうか?
SASで使ってたやつはスクリュー型だけどそれはおいて置くとして。

97:不明なデバイスさん
11/07/09 15:11:50.11 jT0RsmWp.net
>>94
お、どこで買ったの?
結構安くね?

98:不明なデバイスさん
11/07/09 15:29:40.79 3U6rQuQD.net
>>94
MHGA28がそのお値段なら安いですね。

ケーブルなんですが、SASのケーブルだとDDRではリンクできなかったりするかも。
あと、カード側のラッチの固定部分とスクリューのネジ部分が干渉してつかない可能性が

別の話題ですが、ケーブルついでに、
10GbE-CX4のケーブルとInfiniBandのCX4ケーブルだとこういう違いがあったりします
URLリンク(www.gore.com)

99:不明なデバイスさん
11/07/10 17:25:40.63 894QQ/qI.net
CX4のケーブル買いたいンだけど、海の向こうじゃ半端なく安いな。
goreの5mでも\2000切るんだけど。

んで、送料で\4000取られる・・・3本だと送料\7000とか言われる

100:不明なデバイスさん
11/07/10 17:32:15.54 KOanqNFR.net
ならば1000本単位ぐらいで買えば一本あたりの送料は安くなるんじゃね?

101:不明なデバイスさん
11/07/10 18:31:22.86 ZWi46bTu.net
>>97
スピアネットとかで転送しても安くならない?

102:不明なデバイスさん
11/07/10 19:47:26.35 EE1BGMqP.net
>>97

自分がCX-4の2mケーブルをebayで買った業者だけど、ご参考に

URLリンク(cgi.ebay.com)

震災の時期に被ったので到着まで一週間くらいかかったけど

103:不明なデバイスさん
11/07/11 00:50:43.66 3cmD+WIe.net
>>100
Thanks. 送料安いね、そこ。
ただ、SAS用のケーブルってDDRでも大丈夫なのかちょっと気になる。短ければ
>50 みたいに行けそうだけど。

104:不明なデバイスさん
11/07/13 22:25:21.89 WWfQMii3.net
ちょっと聞きたいんだけど
X4ってのはまさかマシンの後ろに4本ケーブルが刺さってるってこと?
1本のケーブルに4軸入ってるってこと?
まさか4本刺すわけ…と思ったがケーブルが2本刺さるカードもあるし…とか考えちゃったよ

105:不明なデバイスさん
11/07/13 23:26:14.90 q8ka45Ix.net
>>102
4レーン

106:不明なデバイスさん
11/07/15 23:24:37.59 YIgsY4+t.net
WindowsでOpenSMを開始させようとすると下記エラーが出ます。
原因お分かりになる方いらっしゃいますか?

ローカルコンピュータのOpenSMサービスを開始できません。
エラー 1063:そのサービスは指定時間内に開始要求または制御要求に応答しませんでした。

環境は下記の通り
Windows2003 32bit & 64bit
Qlogic HCA 7104-HCA-LPX1P

107:不明なデバイスさん
11/07/16 03:02:28.32 2FtEqgxo.net
>>104

後欲しいの情報は入れた、OFEDのバージョンとかがないと解らないです。
Qlogicのメーカ純正のOFED入れたのか、それともOFED本家のバージョン入れたか。

あと、カード自体は認識されてますでしょうか?
OpenSMのバグってか使用で、カードが無い状態だと転けるってのがあった気が。

108:不明なデバイスさん
11/07/16 13:36:48.65 IytOh3Qz.net
カードだけ届いてケーブルがまだ来ない(´・ω・`)ショボーン

しかし、結構な値段がする割には、見た目はしょぼいね。特にメモリなしだと。
しかもこれで10Gbとか20Gb叩き出すとか一体。

10GBaseのnicとか見た目はもっとごついのに。

109:sagat
11/07/17 14:57:53.75 ubaITYh/.net
>>3

>ドライバ等
Windows・Linux
>OFEDが配布しているパッケージでインストールするのがある。

OFEDが配布しているWindows用パッケージってどこからdownloadすればいいんでしょうか?
OFAのページを探しても見つかりませんでした。

110:不明なデバイスさん
11/07/17 18:39:41.38 ckeIgqlU.net
>>107
URLリンク(www.openfabrics.org)
これじゃないの

111:不明なデバイスさん
11/07/17 18:50:22.92 04RP8GSy.net
>>107

URLリンク(www.openfabrics.org) のWinOFのしたですね。

Topのページからだとわかりにくいですけど、
メニューのOFED/OFA RECOURSES -> OFED for Linux / OFED for Windows -> Source Code Download
からいけます。

112:不明なデバイスさん
11/07/18 17:12:06.83 hxLwN5/0.net
このスレお見てIBに興味お持ったんですが、Windows間お直接繋ぐような使い方
でも導入に意味はありますでしょうか?WinServer2k8r2とwindows7を繋ぐ予定
です。

IBoIP、SMBという辺りがネックになって10GBaseとそんなに変わらない速度しか
出ないようなら素直に10GBase-TのNIC買った方がいいのかな、とも思ったんで。

113:不明なデバイスさん
11/07/18 18:44:24.11 o2pJezcj.net
>>110
SDRのIBでIPoIBだと10GbEと速度はあまり変わらないはず
ただし価格はだいぶ安い

114:不明なデバイスさん
11/07/18 18:45:08.29 qjg07J1o.net
>>108-109
どっちも一緒じゃない?

>>110
10GbE買うお金があるなら素直に10GbEにしたらいいんじゃないかな
SMBって時点でInfinibandの利点は価格ぐらいしか無い気がする

115:不明なデバイスさん
11/07/20 13:25:44.78 2a+1GaUt.net
>>112
価格面のメリットも薄いと思われ。安い10GBase-CX4なら1万切ってるし。
というか安いカードでWindows間を繋いだら、10GbEどころか1GbEとも差が無い程
度の速度しか出ないよ>IB

結局SRPとかで繋がないと真価を発揮しない辺りが個人ユーザにイマイチ普及しな
い原因ではないかと。

116:不明なデバイスさん
11/07/20 16:43:45.27 qTBnBHY+.net
個人向けに普及しない理由は個人向けじゃないからだと思うがw

117:不明なデバイスさん
11/07/20 20:16:49.60 +DnobmOy.net
InfiniBandで変わるデータセンター内通信(後編) - @IT
URLリンク(www.atmarkit.co.jp)

118:不明なデバイスさん
11/07/22 23:08:03.53 gRX2QWPt.net
COMSTARでSRPターゲット作ってストレージにして、2k8R2つないだら感動的な速度でした
自分が担当している教室のシステムがHPのMultiPoint Server 2011とシンクライアント構成になる予定なので
ストレージの性能が必要だと思い


119:、ストレージを別サーバにしてIB入れてSRP接続できないか提案しているところです ていうかむしろ俺にやらせろみたいな言い方してるんですがw でもそんな安い10GbEカードあるんですか?



120:不明なデバイスさん
11/07/23 11:39:45.21 1mXU3R0i.net
個人向けに普及、というフレーズはIBとは馴染まないこと馴染まないこと
まあ>>114なんだけど

121:不明なデバイスさん
11/07/24 01:02:30.92 e428/8Uh.net
ESXi 4.1u1での最新Mellanoxドライバの動作検証終わった。
Supported Host Channel AdaptersからInfiniHost系が消えてたので動くかチェックしてみた。
手持ちの、MHEA28-XTC MHGA28-XTC MHES18-XTC MHGS18-XTC MHEA-2TCのIPoIBでの動作は確認した。

122:不明なデバイスさん
11/07/24 15:10:52.04 ju95rzxV.net


123:不明なデバイスさん
11/07/25 01:31:36.35 IkZEl5nQ.net
SRP TargetっていうとどうもCOMSTARばかりが話題になるようですが、誰か
LinuxでSCST使ってる方はいませんか?Mellanoxのメモリ無しのHCAなんで
Solarisという選択肢が無い、、、

124:不明なデバイスさん
11/07/25 02:02:21.96 HsVPxVWL.net
>>120
SCST、テスト動かした事はありますよ。
WindowsとLinuxで接続して動作させてました。
HDDが余ってなかったので二台のHDDをstrip化し、volumeをそのまま使用した環境で
200MB/s弱くらいは出てました。
長時間のテストはしなかったんで安定性については何ともです。

おまけで、機材一緒のままでLinuxのnative ZFS使用して同様の環境作りましたけど、
こっちは40MB/sと一台の時より遅かったです・・・

125:不明なデバイスさん
11/07/25 13:32:02.80 PbQPyy/F.net
やはりこの辺で遊ぶには、OpenIndiana辺りはマトモに管理できるように
練習しとかないとダメですかねぇ。
LinuxとWinServerだけしか普段弄らないので最初のハードルが…

126:不明なデバイスさん
11/07/25 20:48:56.37 RyRRAInK.net
>>122
Linuxとさほど変わらないから、違いだけ調べればいいんじゃね?
SMF、ZFSあたりと、細かい所でRUNLEVEL、NFS、mountコマンド...etcだけ把握するくらいで。

127:不明なデバイスさん
11/07/25 21:03:04.07 QpgtTAbI.net
>>122
自分もCOMSTARを知って初めてOpenSolarisに手を出したのですが
Linuxに慣れているならなんとかなりますよきっと
ZFSの黄色い本はおすすめです

128:不明なデバイスさん
11/07/25 22:02:39.94 PbQPyy/F.net
>>123-124
ああ、こんな独り言にちゃんとしたレスが。有難う。
取り敢えず、ESXiの上にOIインストールして、zfs/COMSTAR使えるように練習するよ!
一段落したらMellanoxのカード買ってみようかな。

129:不明なデバイスさん
11/07/27 22:46:13.43 GbTPRwJZ.net
ヤフオクにCiscoのSFS-HCA-E2S7-A1が出てたんで即行で落札してきた
ebayに比べたら高いんだろうけど

Ciscoの中身はTopspinのはずだからLion Cub SDRとして使えるはず
メモリもついているみたいだしね
ただロープロなんだよな~

130:不明なデバイスさん
11/07/27 23:52:29.21 GI1f1X31.net
>>126
ebayだと半値だけど、送料だの手間を考えるとヤフオクのが良い気がする。
国内の中古はロープロが多いね。2UとかでHPCやってたとこのがながれてるのかな
過去自分はebayで落札したら、チップがはがされた状態のカードが届いた事がある orz

131:不明なデバイスさん
11/07/27 23:54:09.05 GI1f1X31.net
参考までに、結果の一部省略してます。DDR接続でのベンチの結果
Number of qp's running 1
Number of iterations 5000
Massege size 65536
Mtu : 2048
------------------------------------------------------------------
#bytes #iterations BW peak[MB/sec] BW average[MB/sec]
2 5000 4.49 2.28
4 5000 8.98 4.56
8 5000 17.96 9.13
16 5000 17.96 15.98
32 5000 71.85 36.10
64 5000 143.70 72.48
128 5000 287.41 144.98
256 5000 287.41 276.33
512 5000 574.82 535.71
1024 5000 1149.63 780.73
2048 5000 1149.63 995.09
4096 5000 1149.63 1103.80
8192 5000 1226.27 1193.75
16384 5000 1226.27 1211.56
32768 5000 1226.27 1222.56
65536 5000 1226.27 1224.35
131072 5000 1226.27 1217.37
262144 5000 1138.51 1122.76
524288 5000 1123.30 1109.40
1048576 5000 1122.77 1108.25
2097152 5000 1123.57 1109.81
4194304 5000 1116.78 1109.91
8388608 5000 1117.90 1101.56
------------------------------------------------------------------

132:不明なデバイスさん
11/07/27 23:55:33.38 GI1f1X31.net
SDRだと、こんな感じ
Number of qp's running 1
Number of iterations 5000
Massege size 65536
Mtu : 2048
------------------------------------------------------------------
#bytes #iterations BW peak[MB/sec] BW average[MB/sec]
2 5000 2.25 1.82
4 5000 4.49 3.85
8 5000 8.98 8.05
16 5000 17.96 14.64
32 5000 35.93 26.34
64 5000 71.85 56.59
128 5000 143.70 134.10
256 5000 287.41 245.50
512 5000 574.81 411.93
1024 5000 766.42 667.77
2048 5000 919.70 859.63
4096 5000 919.70 823.72
8192 5000 919.70 895.42
16384 5000 919.70 904.50
32768 5000 931.34 907.27
65536 5000 919.70 914.02
131072 5000 931.34 903.33
262144 5000 929.87 888.43
524288 5000 895.22 888.63
1048576 5000 924.76 891.21
2097152 5000 913.28 889.02
4194304 5000 892.85 888.73
8388608 5000 888.80 888.44
------------------------------------------------------------------

133:不明なデバイスさん
11/07/27 23:57:35.09 GI1f1X31.net
上二つはWindows 7同士でRDMA使った状態での転送速度です。
ご参考までに。

IPoIBだと、tttcpで6Gb/sくらいが限界でした。

134:不明なデバイスさん
11/07/28 00:18:36.64 6P3uh70d.net
おお情報thx
やっぱりピーク性能にはそれなりに差があるもんだね
TopspinのPCI-Xのやつはたまーにヤフオクに出るし2枚あるけど
バスとかメモリ周りで差が出てる感じがする

とりあえず届いたらウチのMicroServerとMX130S1に載せて試してみるよ

135:不明なデバイスさん
11/07/30 14:12:48.29 9Qu0FVow.net
メモリレスなカードって、基本的に安価版でレイテンシとかはやや遅目っていう理解でいいのかな。
コネクション毎の管理情報の上限はメインメモリ使えるから緩いけど、性能は妥協してね、っこと?
ベンチ資料でそんなには変わりませんよとかMellanox出してはいるけど。

まとめるとビデオカードのUMAと同じ、でOK?

136:不明なデバイスさん
11/07/31 13:29:34.33 bIvYWTF/.net
ちょっと教えてほしいんだけど、何度かSolarisにSMが無いって話が出てるけど
たとえばSolarisにDualポートのカードつけて Linux-Solaris-ESXi とつないで
LinuxでSM動かせばSolaris-ESXi間もUPになるの?

137:不明なデバイスさん
11/07/31 18:34:37.74 tEJyCNWX.net
>>132
カードのメモリはバッファになるかと。AMDのビデオで例えるとSidePortメモリかな
昔のカードだと、CPUメモリに書き込みいくと処理追っつかないので、ある程度貯めて書く
最近のメモリ無しカードだと、都度書き込みいっても処理が追いつくのでメモリ無しになってると
レイテンシだけど、SDRスイッチ有り無しでこれくらい変わる
スイッチ無し
#bytes #iterations t_min[usec] t_max[usec] t_typical


138:[usec] 2 1000 2.97 25.27 2.97 4 1000 2.97 12.95 2.97 8 1000 2.97 14.44 3.19 16 1000 2.97 8.28 3.19 32 1000 3.61 8.28 3.82 64 1000 3.61 12.74 3.82 128 1000 3.82 11.68 4.03 256 1000 4.03 15.08 4.25 512 1000 4.46 25.70 4.88 1024 1000 5.95 20.17 6.16 スイッチ有り #bytes #iterations t_min[usec] t_max[usec] t_typical[usec] 2 1000 2.97 33.34 3.40 4 1000 3.19 10.83 3.40 8 1000 2.76 39.92 3.40 16 1000 2.97 557.46 3.40 32 1000 3.19 285.63 4.03 64 1000 3.19 24.42 4.25 128 1000 3.82 96.84 4.46 256 1000 4.25 319.82 4.88 512 1000 4.88 280.53 5.31 1024 1000 5.73 45.87 6.58



139:126
11/08/01 12:52:14.66 LYGmsPhs.net
特価で買ってきたCiscoのSFS-HCA-E2S7-A1
OpenIndianaにTavorドライバ入れてあっさり動いたよ
やっぱりInfiniHost III Ex(MT25208)と表示された
ヤフオクにまだあるみたい

140:不明なデバイスさん
11/08/02 02:28:09.34 BN0+z2Ml.net
>>135
動作確認乙
物はMHEA28-1TCかMHEL28-1TCな筈だったので動くだろうとは思ってたけど。

こっちは、MEHA28-2TCでSolaris 11 Expressでtavorの動作は確認。
SRPでWindowsと接続しようとしたらやっぱり駄目で迷走中
あと、Solaris 11 ExpressはOFEDのコマンド追加されてるって話だったので
試してみたら、libのバージョンが違うのかumad使ってるコマンドがエラーで動かないですね。

141:不明なデバイスさん
11/08/02 02:55:18.05 14tka3XQ.net
mellanoxのInfiniHostIIIってちょっと熱くなりすぎません?
日本のALPHAのヒートシンクが付いてたりするけど、ちょっと怖いほど高温に
なるんですが。かなり積極的に風を当てないと駄目ですかね。

142:不明なデバイスさん
11/08/03 00:55:42.08 y1JWtZCq.net
確かに発熱は気になるけど、もともと風洞みたいにファンの並んだラックサーバで使う前提設計だったんだろうしなぁ…
MX130S1に突っ込んだやつもかなり熱持ってるけど、アレイコントローラと五分五分なんで
まあその程度で壊れるやわなシロモノではないだろうと割り切ってる

ところで特価のCisco SFS-HCA-E2S7-A1だけど、ESXi4.1u1もMellanoxから落としてきたドライバで余裕でした

143:不明なデバイスさん
11/08/03 16:18:05.52 AJBYXtWy.net
何も考えずにヤフオクの「Cisco SFS-HCA-E2S7-A1」に
入札したけど、ケーブルとかわかってないんだけど。
どうしたらいいんだろう(´・ω・`)
とりあえず 2台の間を繋ぎたいだけだから、
適当な長さの CX4 のタイプ買えばいいのかな

144:不明なデバイスさん
11/08/03 20:28:52.21 9GEihJbI.net
>>133

その構成でやってみたけど、自分の技量では動かせなかった orz
この辺かなーって資料は、
URLリンク(www.mellanox.com)
のAppendixDが参考になるかな。

>>139
買うならスクリューじゃなくてラッチタイプのCX4ケーブルを買うといいよ。
上の方では10GbE CX-4用のでも動いたって動作報告あったけど

145:不明なデバイスさん
11/08/03 21:49:19.46 y1JWtZCq.net
>>139
SFF-8470というコネクタタイプのSASマルチレーンケーブルでも使えます
というかほとんど同じもの
自分は秋葉原のオリオスペックというお店で買ってきました

146:不明なデバイスさん
11/08/04 08:15:43.63 zLfXnY8+.net
olioは地味にぼったくりだからなぁ

147:不明なデバイスさん
11/08/04 13:56:08.98 S9scllI9.net
ケーブルならOTTOで買えるんじゃないの
前にMHEA28-1TCが置いてあったことがあるし

148:139
11/08/05 21:27:10.66 qsmBFmwN.net
皆さんありがとうございます。
SFF-8470 のケーブルは使ったことがあるので、
イメージが出来ました(`・ω・´)。
土日にでもケーブル探しに出かけてみます

149:不明なデバイスさん
11/08/05 23:47:22.20 O+9arxti.net
Solaris 11 ExpressのSRP TargetとWindows 7のSRP Initiatorでの接続動作確認。
WindowsのドライバをMellanox純正使わず、OFEDのWinOF 2.3でいけた。

次はSRPブートにチャレンジしてみるつもりだけど、失敗しそうだな。

150:不明なデバイスさん
11/08/08 20:44:41.69 0ivpUn1m.net
ワットチェッカーを手に入れたのでスイッチの無負荷消費電力測ってみた。

F-X430066(8Port) 22W
F-X430060(24Port) 26W

あと、新品のF-X430066はかなり静かでした
自分が買った中古のF-X430066がファンが終了しかけてるだけだっというオチ orz

151:不明なデバイスさん
11/08/12 00:33:13.28 I8VfOrHx.net
個人で買うようなデバイスじゃないだろ。業務用のサーバー用途だろ?

152:不明なデバイスさん
11/08/12 10:16:47.64 kDFd2bwC.net
>>147
自宅の鯖2台を直結してLAN高速化とか、個人でも中々便利

153:不明なデバイスさん
11/08/12 10:32:26.66 G5ROjnAY.net
うん、それは個人用途のレベルを超えていると思うよ

154:不明なデバイスさん
11/08/12 10:41:59.16 x6BXOvGg.net
違法行為じゃあるまいし、個人でどんなパーツ買って使おうが、
他人にとやかく言われる筋合いはないな。

155:不明なデバイスさん
11/08/12 10:53:44.92 HW8W/uhM.net
個人の趣味に業務用だからどーたらとか寝言ほざいてるバカがおる

156:不明なデバイスさん
11/08/12 20:58:56.21 LthufKGa.net
>>149
じゃあ、ファイルサーバーに置いた自炊エロ本のページめくり超高速化のためなら?

157:不明なデバイスさん
11/08/14 02:32:40.79 eeeEG5Sh.net
>>148
その使い方じゃあまり幸せになれない
DDR同士で直結してるけど、netperfで2GB/sしか出ないし、エクスプローラで
のファイル転送に至っては1000Base-Tに毛が生えた程度の速度。

158:不明なデバイスさん
11/08/14 05:07:52.10 Uwh/5Esp.net
2GB/sでれば万々歳だと思うけど。

159:不明なデバイスさん
11/08/14 14:15:46.50 UWMI6Ovp.net
>>153
ドライバをWinOF 2.3に変えて、IPoIBドライバの詳細設定でConnectModeをenableにするともう少しパフォーマンス上がるかも。
うちだと、sleep時にBSOD出るようになっちゃったが。

160:不明なデバイスさん
11/08/15 09:10:08.40 KKs7kM1K.net
>>153
DDRは20Gbpsといっても実質16Gbpsだろ?
それで2GB/sなら完全に出し切ってる。

2Gbpsの間違いなら、SDR直結でももっと出てるので、
性能が出し切れてないような。

161:不明なデバイスさん
11/08/16 20:24:10.48 PTWJ9/Uc.net
2GB/secか
夢がひろがりんぐ

162:不明なデバイスさん
11/08/26 10:44:43.01 nDP7RB3j.net
age

163:不明なデバイスさん
11/09/04 00:06:48.20 45Fw6R6/.net
IPoIBでHyper-V LiveMigration試してみた。

鯖:HP Proliant ML115 G5 [PhenomⅡ X4 940BE/8GB/160GB] ×2
HCA:MHGS18-XTC
ドライバ:メーカーサイトにあった最新

Hyper-VクラスタのLiveMigration時で平均320MB/S
netperfで計測したら 1.3GB/S位は出ているらしい
マイグレーションはCPUとメモリがネックになってるのかも

メインのクラスタがi7-860 DDR3 16GBなので
@2枚買ってきて、4枚で試してみる予定



164:不明なデバイスさん
11/09/04 01:30:26.98 cFyRtlB5.net
>>159
うお、速い。
ML115 G5でそれだけスピードでるんですね


165:。 うちもDDRだけど、netperfでそこまでスピード出てないです。 ちなみに、ドライバはMellanoxのでしょうか?



166:不明なデバイスさん
11/09/04 06:21:38.13 45Fw6R6/.net
>>160
Mellanoxのサイトから落としてきたやつです。

MLNX_WinOF_VPI-2_1_3_win7_x64


167:不明なデバイスさん
11/09/04 22:28:33.38 45Fw6R6/.net
二枚届いたので、IPoIBでHyper-V LiveMigration試してみた。

鯖:HP Proliant ML110 G6 [i7-860/16GB/160GB] ×4
HCA:MHGS18-XTC
ドライバ:>>159と同じ MLNX_WinOF_VPI-2_1_3_win7_x64

とりあえず、二台で試した結果

Hyper-VクラスタのLive

168:不明なデバイスさん
11/09/04 22:37:35.17 45Fw6R6/.net
途中で送信してしまった…


二枚届いたので試してみた。

鯖:HP Proliant ML110 G6 [i7-860/16GB/160GB] ×4
HCA:MHGS18-XTC
ドライバ:>>159と同じ MLNX_WinOF_VPI-2_1_3_win7_x64

とりあえず、2ノード直結で試した結果

Hyper-VクラスタのLiveMigration 380MB/s~530MB/s 結構幅がある、ML115 G5よりは少し早くなった
netperfで計測したら 80MB/s位とやたら遅い、トラフィックモニタ見ても何か壁に当たってる感じ、ぴったりそこで止まる。

メモリ13GBのゲストOSをLiveMigrationしたときの時間、5回実行して平均。
IPoIB:44秒
GBE:130秒

予想より遅いので色々弄ってみたものの変わらず
今度別のドライバで試してみる。

169:不明なデバイスさん
11/09/08 00:24:23.92 GjXTbwgh.net
ヤフオクVoltaire の10Gスイッチが49800であったので迷わずぽちってしまった。
SM搭載のISR9024S-M
ケーブルも6本CX-4が付属
関税やら運送費考えると、海外から取り寄せるよりおそらく安いかなぁと
今ケーブルとカードいつもより出品されてるので、チェックしてみるといいかもしれない。

カードは大量にあるので、使用感は別途レポート予定です。
NexentastorあたりでのSRPTargetにて環境構築予定
もしかしたらVMにのせてその上で動かすかもしれない。

170:不明なデバイスさん
11/09/08 05:29:32.28 af8CHQGe.net
>>164
うちはSFS7000Dを海外からぽちっと行きましたがなんだかんだで5万くらいでしたね。
SM搭載してるけど、未だにこっちは設定してないですわw
マニュアル読んでる最中なので。

丁度テストでNexentaCoreでSRPとiSCSIの環境作ってるのでレポートしますねん。
zfs stripeのシーケンシャルリードで1.2GB/sくらいのストレージが出来たのでw
クライアントはWindowsになるかと思いますが。

171:不明なデバイスさん
11/09/10 17:52:05.44 +Gl+1Y5W.net
Solarisの絡みの話になるのでここに書くのはちょっと気が引けるのですが、
Solaris系でSRP Target使いたいけどわからんって人向けに、とりあえず使えるようにする方法書いときます。
当方が使ってる環境がNexentaCoreなので、そこら辺は適時読み替えをお願いします。
SE11とかだと、標準ではsrpのドライバは入ってなかった筈なので、
@solaris:~# pkg search -r srp
INDEX ACTION VALUE PACKAGE
pkg.summary set Sun SRP COMSTAR Port Provider pkg:/driver/network/srpt@0.5.11-0.151.0.1
このドライバ入れてやりましょう。

Sunの使い方のページでみたい人はこっちでどうぞ。
URLリンク(wikis.sun.com)

InfiniBandのHCAでsrpが認識されているかチェック
root@nexenta:~# cfgadm -al | grep -G ib::srpt
ib::srpt,0 IB-PSEUDO connected configured ok

SRP TargetもCOMSTARの一部なので、ターゲット上げてやる必要があります。
root@nexenta:~# svcs -a | grep srp/target
online 23:55:20 svc:/system/ibsrp/target:default

になってればOK
なってなければ、
root@nexenta:~# svcadm enable -r ibsrp/target
で有効にしてやりましょう。

SRP Targetが動作しているか確認
root@nexenta:~# stmfadm list-target
Target: eui.0002C903000XXXX

つづく

172:不明なデバイスさん
11/09/10 18:11:38.17 +Gl+1Y5W.net
Target: eui.0002C903000XXXX
の、eui.以下の部分ですが、NODE GUIDになっているはずですので、ご確認を。
cfgadm -al | grep hca
で出てくる数値と2C以下のところは一緒な筈です。

たとえばポートが複数あるカードでもtargetとしては一つしか出来ませんのでご注意を

SRP Targetの場合iSCSIの場合と違って自動でTargetが作成されます。
あとは、iSCSIと同様にtarget-groupやviewやluを作成してやれば動作します。

注意事項
VMwareESX等では、そのままInfiniBandのドライバを追加してやれば、SRPのTargetに
接続できますが、Windowsの場合はOFEDの配布している最新の2.3を使用しないと
接続できません。また、うちの環境での話ですが、同一IBネットワーク上にSRP targetが
複数存在している場合には複数同時には使用できませんでした。
使用しないSRP targetのibsrpドライバを無効にしてやると動作はしました。

ちなみに、Windows上で最新のOFEDのドライバを使用しないと接続できないのは、
Solaris自体のバグです。OI最新/SE11でも直ってないみたいなのでだれかバグ報告をw
URLリンク(src.opensolaris.org)

49 SRP_IO_SUBCLASS = 0x690E

49 SRP_IO_SUBCLASS = 0x609E
に修正するだけなんですけどね。

OFEDのドライバ側にSolarisのSRP Targetの場合は間違えた値で処理するように変更が加えられてるので
動作するようです。

173:不明なデバイスさん
11/09/11 08:44:15.26 QOrC8UPf.net
>>165
opensmはトポロジの構成ポリシを選べると聞くけど、SFS-7000のsm設定は
あんまり設定項目自体がないので機能が低いとかあるんですかね?
IBでスイッチングポリシがどう決まるのかイマイチわかってない。

174:不明なデバイスさん
11/09/12 21:33:50.69 pTpZeoUy.net
>>168
自分、そのこら辺まで追っかけれてないので、いまいちよくわかってないのですが、
ファットツリーとトーラスとかのアルゴリズムのお話ですよね?
最近ofwのMLで話題になってた3Dトーラスのアルゴリズムが云々てのがありましたが。

一応、この辺のことなのかなーと言う資料は見つけたので、はっつけときます。
URLリンク(www.cisco.com)
これの「Subnet Manager のルーティング」って辺りですかね?

175:不明なデバイスさん
11/09/14 10:44:22.16 jclKgVIV.net
それそれ。まだ高速バカハブ状態でしか使ってないので、
routing/partition/virtual-laneをもっと真面目に詰めてみたい。

176:不明なデバイスさん
11/09/15 00:03:58.01 5IxCN9J3.net
すまない、このスレみたらInfinibandなるものが欲しくなってきた!
まだ調べ始めたばかりなんですが、とりあえずHCAとケーブルとSMが
必要なのはわかった!で、最小構成で検証しようとすると…

・SDRかDDRなHCAが2枚


177: ・CX4なケーブルが1本 ・Windowsが2台/もしくはLinuxが2台/もしくはWindowsが1台とLinuxが1台 でいずれか一方にOpenSMを入れて、2台をケーブルで直結すれば接続、 どちらかをストレージサーバに見立てて、もう片方をクライアント にって感じで可能なのかな?



178:不明なデバイスさん
11/09/15 00:06:24.10 5IxCN9J3.net
171だけど、連投疑問ですまない+いまさらなんだけど >>25 の構成例って

PC1<---+
    |
    +--->P
       C
    +--->2
    |
PC3<---+

・PC1とPC3は1ポートのHCA搭載
・PC2は2ポートのHCA搭載で単なるIBスイッチ兼SMになってる
って理解でおk?

179:不明なデバイスさん
11/09/15 04:42:23.32 yVdqg89L.net
Windows2台を直結して使っても大して幸せになれない
現状、SRP targetが動くOpenSolaris系かLinusを1台含めないと大して恩恵はない。

180:不明なデバイスさん
11/09/15 07:30:43.61 c9Wr80wJ.net
Linusか・・・どうやって調達しようか。


181:不明なデバイスさん
11/09/15 22:51:05.27 h2p44VeH.net
>>172
25だけど、ごめんよー単純にそのままだと動かなかった。
Switch less InfiniBandでググれば事例がでてくるけど、
設定の細かいところまでは出てこなくて、動作のさせ方がいまいちわからんままなのよ。

ちなみに、最低限の構成は171の構成で動くよ。

>>173,174
吹いたわw

182:不明なデバイスさん
11/09/16 00:09:46.55 5Gp5R8c6.net
171です、ありがとー!
>>173 とりあえず最初は繋げてみるだけって検証かなーと思ってたんで、その後
は、確かにZFSを混ぜた構成を作ってみたいね。

>>175 Switch less InfiniBandのポイントありがとー!ちょっと調べてみる
よ!あと一応2台で最低限動かせるって分かって、助かりました!

>>174 同じく吹いちゃったよw



183:不明なデバイスさん
11/09/16 20:57:17.74 5YKcju3m.net
>>167
どっちにしてもSolarisとVMwareESXiの組み合わせじゃSM載せたスイッチ必要なんでしょ?

184:不明なデバイスさん
11/09/17 01:21:48.18 NnPwrZft.net
>>177
そうです。
って、最新のSolaris 11だとOpenSM入ってたりするか見てみるわ。
InfiniBand関係の修正が大量に入ってたので。

185:不明なデバイスさん
11/09/17 07:23:58.22 e9DYcXZA.net
InfiniBandのポートが8個ぐらいとGbEポートが32個ぐらいついたスイッチってないの?

ストレージサーバーをIBでつないで、クライアントをGbEでつなぎたいんだけど

186:不明なデバイスさん
11/09/17 16:38:27.50 AqMmxQix.net
ストレージならIBよりも、FC(FCoE)のほうが一般的じゃないか?

187:不明なデバイスさん
11/09/17 17:28:38.24 cCc0qfdC.net
>>179
そういう製品ある。
ただ、そこまでポート数は多くないけど。
多いやつもあるっちゃーあるが、1Uとかのサイズじゃなくなるよw

URLリンク(www.servants.co.jp)

ちなみにIB/10GbE/FCをブリッジしてくれる。
ただ、お値段は7ケタだったような

188:不明なデバイスさん
11/09/17 17:42:43.38 HZYfwgus.net
エンタープライズはともかく,1Gbps越えのローカルな通信だと
intel の lightpeek とかの方が現実的なコストで出来そうな気も

189:不明なデバイスさん
11/09/17 18:59:30.98 gXeLKjbG.net
>>165
NexentaCoreでinfinitband使う場合、やっぱメラのカードだとメモリ付きじゃ
ないと駄目なんでしょうか?メモリなしのXTCでも行けますか?

190:不明なデバイスさん
11/09/17 21:17:46.55 NnPwrZft.net
>>183
メラノックスの製品で言うと InifiniHostEX・Lxのメモリなしは動きません。
ConnectX系のメモリなしのは普通に動きます。てか、メモリなししかありませんが。

>>179
181だけど、業務での話よね?
よく考えてみたらら、10GbEのカードと10GbEが4ポート使えるスイッチでやるのが現実的かと。
FCoE使うとでは無ければ HP ProCurve Switch 2910al とか、DellのPowerConnect 6224とかで
やると比較的安くはなるけど。

個人だったら、そのクラスの中古を頑張って漁るんだ

191:不明なデバイスさん
11/09/21 23:54:19.23 hITJymLj.net
FreeBSDで物凄いpps性能のスタック作ったとか話聞いたから、そいつにIB-10GbEのルータとかさせたらいいのかも。

DMA機能あるんだからNIC間で勝手にフォーワーディングとか設定できないのだろうか。

192:不明なデバイスさん
11/09/21 23:55:48.70 hITJymLj.net
ConnectX2あたりからそんな機能ないのかな。どうもこの世代から色々断絶があって泣いてる。

193:不明なデバイスさん
11/09/24 02:42:44.94 OVoOXtwQ.net
>>186
ConnectX系だといけそうだけど、BridgeX売ってる関係上やらないんでしょうねー。
BridgeXのチップ自体の単体販売してるけど、PCIeのコントローラ付きで15W弱の
消費電力だったから、PCIeカードにすることも可能な気が。

194:不明なデバイスさん
11/09/24 02:46:26.93 OVoOXtwQ.net
あと、Solaris 11 Early Access版でIBの機能増えてるか試してみた。
残念ながら、OpenSMの機能は未実装だった。
あと、メモリ有りのInfiniHost Exは、動作した。
メモリなしのでも、週末にでも試してみるよ。
(たぶん、OracleがメモリなしのInfiniHostを売ってないので無理だとは思うけど)

195:188
11/09/28 19:40:03.97 ucm47yZS.net
Solaris 11 Early Access 版でも、メモリなしのInfiniHost Exは駄目ですな。
デバイスドライバで認識されないわ。
OpenSolaris 134bとかだと、ドライバのアタッチされて、このカードでは動かないよメッセージでてたんだけど
それすらでなくなってるね。

196:不明なデバイスさん
11/09/30 15:24:34.35 PRUUnQBj.net
SRPとかで使うんじゃなくてIPoIBしか使わない場合、ConnectX世代のカード
だと全然速いんでしょうか。

もしそうなら、10GBaseのNIC買う代わりになるのかなぁ、と思ったんですが。

197:不明なデバイスさん
11/10/01 01:40:33.57 vH/wN4Ss.net
>>190
IPoIBが無茶苦茶速くなるって事も無いかな。
家だと、チューニングなしで1.5倍くらいにはなったけど。

ちなみに、ConnextXは10GbEのNICにもなるよ。
ファーム上げてやらないと駄目だったかもしれないけど。
QSFP->SFP+の変換のアダプタがMellanoxから出てるんで、それ使えばSFP+で接続可能。
国内だと結構良い金額してるけど、海外で買う事に抵抗なければ$50弱くらいで変換アダプタ買えるし

198:不明なデバイスさん
11/10/01 01:43:59.20 vH/wN4Ss.net
肝心のスピード書いてなかった。
InfiniHost ExからConnectXに変えたら 4Gbit -> 6Gbit くらいにはなったよ。

あと、変換アダプタはConnectX-2対応って書いてた気がする。
ConnectXでは動作するかはちょっと解らないので博打になる可能性もあるからご注意を

199:不明なデバイスさん
11/10/05 09:51:57.22 t5R12IRJ.net
connectX世代だと中古漁りでも10gbeカードと大して値段変わらん気がするけど。
10gbeカードもメーカでスピードまちまちなんで、スピードの面で10gbeに期待するのはまちがいかと。

200:164
11/10/07 21:23:33.74 BJUPjlLf.net
ひとまず>166のおかげでOpenIndiana+napp-itで
SRP Targetの構築はできたけどWindows側のSRP InitiatorのIDの見方が不明
HostGroupとTargetGroupで接続制御したいので、HostのInitiatorIDが確認
できたらなぁと、何かしらのコマンドで見れるのかしら?

eui.xxxx の形式なんだろうけど情報がない>


201:< もしかして、Target作ったときのIDと同じ? (同じサーバでOS入れ替えて同じカード確認しているので) わかる人おりますか? カード:InfinihostⅢEx DualPort OS:Windows2008R2  WinOF:Ver2.3 SRP Driver導入済み



202:不明なデバイスさん
11/10/07 21:52:15.20 HxWg2i0P.net
>>194

Windows側じゃなくて、OpenIndiana側で良ければ
# stmfadm list-target -v
で、接続しているデバイスは解ると思う。

多分、eui.xxxxxのxxxx部分は、Windows側のNode GUIDじゃないかな?
windows 側から確認したったら、ibstatコマンド叩いて確認すれば解るよ。
0x1234567890123456 形式で表示されるので。

203:不明なデバイスさん
11/10/08 15:03:48.47 d+p2xxZ/.net
Fibre channel のスレ無いのでこのスレでおk?

ストレージサーバー5台ぐらいとクライアント(GbE)100台ぐらいをつなぐのに Fibre channel を
考えてるんだけど最近 FCoE を知りました。

FCoE カードがついたストレージサーバーとFC+CEEのスイッチさえあれば簡単に構築出来るの?



204:不明なデバイスさん
11/10/08 15:28:34.73 S6UWp2fC.net
どう考えてもスレチ
まだSCSIスレの方がマシだと思うが、それでもスレチ認定だろうな

205:不明なデバイスさん
11/10/08 21:32:31.11 GfdeDDww.net
>>196

FCoEなら、こっちのが良いかな
スレリンク(hard板)

206:196
11/10/09 00:47:35.70 egi+JrWx.net
>>197
スマン
でもFCスレって無いんだよなあ

>>198
ありがとう
そちらのスレにポストしてみるよ

207:不明なデバイスさん
11/10/09 15:44:57.09 QU9miVLk.net
>196 テラカワイソス(´・ω・)

563 : 不明なデバイスさん : 2011/10/09(日) 00:47:47.79 ID:egi+JrWx
Fibre channel のスレ無いのでこのスレでおk?

564 : 不明なデバイスさん : sage : 2011/10/09(日) 15:36:54.47 ID:cAvJgjP0
>>563
おkじゃないので、お帰りください


208:不明なデバイスさん
11/10/09 16:39:33.92 0roytR2h.net
メーカー依存話だったら通信技術のメーカースレでやれば良いとは思うがそうでもなさそうだしな

209:anonymous
11/10/11 13:23:07.14 oPjvvx4y.net
FiberChannelのスレ、って昔みた気がするんだけど。通信技術板かな。

210:不明なデバイスさん
11/10/13 03:26:54.15 CT6+S7kD.net
SCST+SRP targetとかtgt(Linux SCSI target framework)+iSERとか試してみたい
けど中々時間が取れない・・・



211:不明なデバイスさん
11/10/13 11:47:00.71 5RgjVfbP.net
おおお

URLリンク(docs.redhat.com)

>>iSCSI extension for RDMA (iSER) initiator and target
>>iSER initiator and target is now fully supported.
>>Red Hat Enterprise Linux can now function as an iSCSI initiator
>>and storage server in production environments that use
>>InfiniBand and where high throughput and low latency are
>> key requirements.

212:不明なデバイスさん
11/10/23 18:35:14.87 Mgpu9bCC.net
Dual port な HCA を使って冗長構成を取ってる人っています?
資料を探しても Cisco のコンフィギュレーションガイドが出てくるばっかりで。

具体的には ConnectX を積んだ PC 2台を2本の線で直結して、IPoIB でネットワークを作ろうと思ってる。
このときに1本が断線しても通信が続いてくれるのが目標なんだけど・・・・・

213:不明なデバイスさん
11/10/23 23:14:33.00 LQaf9qNz.net
>>205
OSはなんでしょ?
LinuxだったらIPoIBのBondingの設定はMellanoxのマニュアルに載ってたけど。
WindowsやSolarisだとちょっと解らないです。

214:不明なデバイスさん
11/10/24 04:40:36.75 62XHfwnu.net
IBってBondingできるの?!

215:不明なデバイスさん
11/10/24 18:52:44.34 +eooRvaQ.net
>>207
自分はそこまで突っ込んでやってないけどIB自体の冗長構成も出来たはず。
206の話はあくまでIPoIBでの話っす。
ググったらでてきた。アルテマさんのところの資料だけど
URLリンク(www.altima.co.jp)

216:206
11/10/24 19:12:45.64 lzrwZgjB.net
>>206
ありがとうございますー!
本当は Open Indiana 同士がいいんだけど、SM をどうしようもないんで
片一方は Linux の予定です。

確かに改めて調べてみたら IPoIB だと Bonding をサポートしてるという話が
ちらちら出てきたので、それを切り口に、もう少し探し回ってみようと思います。

なんか出てきたら報告しますねー

217:不明なデバイスさん
11/10/24 20:46:22.12 +eooRvaQ.net
>>209
OpenIndianaでも多分IPoIBのBondingは出来るんじゃないかな。
その辺できるようにIPoIBのドライバに大分手が入ってるから。
うちはNexentaCoreなのでその恩恵には預かれないけどw

218:不明なデバイスさん
11/10/24 21:46:52.65 +eooRvaQ.net
210に追加
URLリンク(download.oracle.com)
を見る限りSolaris11系だと、IPMPでは動くみたいですね。

219:不明なデバイスさん
11/10/30 21:16:46.77 cjjsNR0s.net
WinOF 3.0-RC1 出てるね。
IPoIBがConnected Modeが正式にサポートされてる。
これでWindowsのIPoIBの速度が上がるかな

220:不明なデバイスさん
11/10/30 22:45:55.96 SbwOU+6u.net
Solaris系OSでSRP targetが試してみたくてMHGA28-1TCをポチってしまった。
後悔はしていない。LowProfileのブラケットしか付いていないので送料込み
で90ドル。この瞬間だけは超円高マンセー

とりあえず簡単にNexentastorを試したい

221:不明なデバイスさん
11/10/31 00:22:45.24 UoieX4Kj.net
>>213
NexentaStoreだとSRPはWebGUI上から触れないよ
それがあってNexentaCoreにした

222:不明なデバイスさん
11/11/04 02:31:58.35 nUkUdMrc.net
あ、あれ?
FreeBSD-9.0RC1でMHGA28-XTCを認識しない。。。
どういうことなんだ?キバヤシ

223:不明なデバイスさん
11/11/04 10:10:04.86 KuHYChLX.net
>>215
過去に自分がFreeBSD 9.0-current(5月くらいかな)で試したときは、
自分が持ってるInfiniHost系は全滅でした。
当時はConnectX系持ってなかったのでテストできなかったんですが、
移植された方はConnectXのENモードで使ってるっぽい記述を見た記憶があるので、
近々、ConnectXでFreeBSD 9.0に再度チャレンジしてみます。

しかし、ドキュメントが全くないのでどういう状況なのかが全く分からないんですよね


224:不明なデバイスさん
11/11/04 10:50:05.61 w8qmjF1B.net
ソース真理教。

225:不明なデバイスさん
11/11/07 23:25:03.50 mBSUlx73.net
InfiniBand 全然知らないんだけど自宅でクライアント5台とIBを使った鯖をつないでみたい。
ものすごいスピードでIBの鯖のRAIDにアクセスしたい

クライアント達はGbEのハブでつながってるんだけど何があればIBを使った鯖をつなげるんだ?
このスレよんでると10GbEより安くてパフォーマンスがいいんだよね

226:不明なデバイスさん
11/11/08 03:11:48.63 wSYBbrGm.net
>>218

InfiniBandでその台数を繋ぎたかったら、スイッチが必須かも。
ちなみに、


227:iSCSIで接続とかSMBで接続って事だったら、無茶苦茶には速度上がらない。 うちだと、iSCSIで接続すると、シーケンシャルのReadが220MB/s Writeが120MB/sくらい。 SMBは試してないので不明。過去ログ読むと出てるけど。 ・クライアントとサーバにIBのHCAカード。 ・IBスイッチ ・スイッチとクライアント・サーバを接続するケーブル ってことろかな? サーバのOSとかクライアントのOS書いてもらえるともう少し突っ込んだ内容がかけるけど。 10GbEで5台以上接続するとなると、比較的高価なスイッチが必須。カード自体はそこそこのお値段かな。 IBだと、カードがヤフオクで8k円くらい(これもピンキリだが)、スイッチが3万で今は出てるね。 あと、ケーブルは欲しい長さの物があればヤフオクなりで。 ちなみに、個人的に検証したときはTCP/IPのパフォーマンスは、IBより10GbEのが1Gb/sくらい良かった。



228:不明なデバイスさん
11/11/08 13:02:59.07 9HdOCYcY.net
>>219
両方とも Linux (CentOS) です。

>ちなみに、個人的に検証したときはTCP/IPのパフォーマンスは、IBより10GbEのが1Gb/sくらい良かった。

これが気になったんですがIBじゃなくて10GbEで接続した方が管理もスピードも楽って事ですか?
SubnetManager も必要ないし・・・。

229:不明なデバイスさん
11/11/08 14:52:59.02 gi2tiSuM.net
IPoIB が 10GbE より優れてる点はコストぐらいじゃないかな
10G以上で繋ぎたいとか、IP以外(NFS/iSCSI)でも使いたいというときに、
はじめてコスト以外のメリットがあると思う。

ちなみに、今日から(だったっけ?)サービスが始まる
「さくらのクラウド」もIB使ってるらしい。
「さくらのクラウド」を例に見るネットワーク仮想化の設計と実装 ? さくらインターネット研究所
URLリンク(research.sakura.ad.jp)
# 資料の P.51~ IB 利用について説明

さくらは @IT とかの記事も書いてたから、かなり IB に
力入れてる印象があるから、あえて使ったのかもしれないが

230:不明なデバイスさん
11/11/08 17:09:31.11 VtaymO8o.net
>>220

219だけど、スピードはSDR(10Gb)接続の場合の話ね。
ConnectX系使って、DDR(20Gb)で接続するとIPoIBの方がパフォーマンス出たよ。
接続は、Solaris Express 11 と Windows 2008 R2 とで900MB/sくらい出た。
Windows側のOFEDは3.0-rc1使ってCMをonにしてる状態だけど。

個人的な意見だけど、一対一だと10GbEの方が楽だと思う。
これが複数の接続になるとコスト的にはIBに軍配上がるかな。
10GbEでフルスループット出るSwitchって、IB Switchに比べると倍以上違うので。

221さんが言われてるに自分も同意です。

>>221

さくらさんの場合は、ConnectX系使ってEoIBまで使ってるのが大きいかと。従来の
Etehrnet部分もIBに全部集約してるので、ケーブリングが単純になるのが大きいんで
しょうね。確かにストレージ系ネットワークもEthernetネットワークも全部IB上で集約する
ってのは合理的だなーと思います。

231:不明なデバイスさん
11/11/08 23:01:08.89 Y+Qguiin.net
また聞きだけど、さくら のストレージはIPoIBのNFSという話を聞いた。

232:不明なデバイスさん
11/11/09 10:30:22.48 /k5Q3TVO.net
>ちなみに、個人的に検証したときはTCP/IPのパフォーマンスは、IBより10GbEのが1Gb/sくらい良かった。
あれ、ベアラスピードは10GBeは10Gbpsだけど、SDRは8Gbpsじゃなかったっけ?
ひょっとしたらIBのほうがプロトコル効率いいのか??

233:不明なデバイスさん
11/11/09 11:43:23.89 wiWuojdl.net
某オクのCisco IBスイッチ
Paswd解除してやろうと思ったらデフォのままだった…

ちなみに↓のマニュアルの方法でリセットできるようだ
URLリンク(www.redbooks.ibm.com)

234:不明なデバイスさん
11/11/10 00:48:25.32 M1ZsPNQU.net
>>223 ほうほう、ってことはrNFS使ってるっぽいですね。 >>224 ベアラスピードは書かれてる通りですね。 計測したときは片側がWindowsだったんだけど、当時はConnected Mode対応じゃなかったので 余計に遅かったのもあるかも。手元の環境でIPoIBをiperf使ってチェックしてみたら、現状はこのくらいでてますね。 ちなみにLinux(Sientific6.1) - Solaris Express 11をDDRスイッチかまして接続してる状態です。 ------------------------------------------------------------ Client connecting to 192.168.17.7, TCP port 5001 TCP window size: 193 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.17.241 port 60775 connected with 192.168.17.7 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 11.5 GBytes 9.90 Gbits/sec 某オクでCiscoIBスイッチ落札された方向けネタを一つ。 最新のSFS-7000系のTopspinOSは、IBMからおとせれますよーっと。



236:225
11/11/10 01:18:17.69 A9d72Ii/.net
>>226
あんがとー
TopspinOS Release 2.9.0 Update 2 が最新かな?
既にそのVerのようでした

速度についてはレイテンシとオーバーヘッドの点でIBが優位ってとこなんでしょうかね
俺も早く試したいけど、まだHCAが1枚もない・・・

237:不明なデバイスさん
11/11/10 01:53:04.67 M1ZsPNQU.net
>>227
ありゃ、最新ですか。
うちで確認したところ、
OS loaded is TopspinOS 2.9.0 releng #170 06/26/2007 16:40:42
で最新な筈です。

DDRだったら10GbEとほぼ変らないスピード出ると思います。
Windows(WinOF 3.0-RC1) - Solaris Express 11(OS標準ドライバ)のIPoIBで900MB/sはでてますから。
ただ、DDRのカードの出物が少ないのでちょっと手に入れるのが大変かも。
SDRのカードだったらそれなりにオクに出てるんですが・・・。

238:不明なデバイスさん
11/11/10 02:28:42.29 A9d72Ii/.net
ふぅ。ラックにマウント完了・・・

>>228
レス恐縮です。
IPoIBで900MB/sなら10GbEと比べて遜色ないですね
DDRカードが欲しいのでeBay漁ってみようと思います


ちなみに、*BSDなZFS Storage(OS用)とESXiのIB接続、
別筺体のZFS Storage(ファイル鯖)とESXi GuestやClientPCの接続を考えてます。

前者は単にIB Switch<->HCAで良いと思うのですが、
後者はStorageServerに10GbE NICとHCAを挿して、ClientPCは10GbE UplinkがあるGbEエッジスイッチ経由、
ESXi GuestはHCA経由での接続が安上がりかなーと思ってます

IBド素人ながら、はてなさんの構成が激しく気になります

239:不明なデバイスさん
11/11/10 02:34:12.70 A9d72Ii/.net
はてなじゃないや、さくらたんだ。失礼しました。

240:不明なデバイスさん
11/11/10 06:48:37.62 YOghaSxJ.net
はてなたんってDQ45CBのまな板とか並べてたんじゃなかったっけ?
石狩のアレがそう(ブレードじゃない)ならちょっと笑う。

DDRといえばqlogicの9000 DDRがオクに安価で出てるけど、さすがに1枚目はメラのほうがいいだろーなー。

241:不明なデバイスさん
11/11/10 07:12:02.87 dQvOBEfS.net
Solaris 11が正式リリースされたよー
URLリンク(www.oracle.com)

242:不明なデバイスさん
11/11/10 09:17:57.94 M1ZsPNQU.net
>>229
*BSDでの動作って、今のところ移植された方のBlog見るとConnectX系でそれもETHモードでの動作だけな気がします。
近々、ConnectX積んだPCが空くのでそっちでFreeBSD 9.0をテストしてみる予定ですが。
FreeBSDのInfiniBandの移植ってLinuxKernelの必要なSystemCallをFreeBSDのSystemCallに置き換える層を
作って移植してるんですな。ソース見てて知りました。

>>231
ちょっと前に、ITmedi


243:aかなんかでさくらさんとはてなさんの対談が載ってたけど、はてなさん最近はメーカーもののサーバ使う ようになってるって話が出てた気がします。 Qlogicは、自分持ってないのではっきり言えないんですが、QlogicサイトのWebで見てるとWindowsとLinuxのみのサポート みたいですね。最新のQDRの物に関しては今のところLinuxのみのサポートみたいで。Windowsにも移植中ってのはOFED のML見てると書いてありましたが、WinOF3.0に間に合わないかも的なメールが流れてました。 >>232 情報ありがとうございます。 早速ダウンロードしました。仕事終わったら早速インストールしてみますw



244:不明なデバイスさん
11/11/10 15:36:02.46 lB6LKqjO.net
>>229
個人的な意見ですけど、DDRで揃えられるつもりなら、InfiniHost系よりもConnectX系をお勧めします。
それもConnectX系でもQSFPのポート方で。CX4のポートのもの(MHGH系)はサポート終了みたいなので。
OEM物でも、自己責任で最新ファームに書き換えできるようになってるので、安ければそれで。
ebayだったら出物がそれなりにあるので、根気よく探せば格安で手に入ると思います。
6月くらいまでは、refurbishedのConnectXが大量に流れてたんですが売れちゃったみたいで、最近はぼつぼつ出てる感じです。
あと、QSFP-CX4のケーブルが意外と値段しますので、その辺りをトータルで見ながら購入されるのがよろしいかと


245:不明なデバイスさん
11/11/10 17:55:16.13 YOghaSxJ.net
でもお高いんでしょう?

246:不明なデバイスさん
11/11/10 21:05:13.98 M1ZsPNQU.net
>>235
今ならなんと$65でって、その値段で先週まででてたんですけどねw
定期的に売りに出してる業者がいるからちょっと待てば$100くらいで出てくるかと。
在庫が200枚程あるからまとめ買い交渉受け付けるよって書いてましたが。

247:不明なデバイスさん
11/11/10 23:52:45.40 FSXMY8oa.net
IBoE に対応したスイッチって高いの?

IBoE と GbE を使った鯖、クライアントを混在させたいんだ

248:不明なデバイスさん
11/11/11 00:18:05.51 Xwcef8hc.net
>>237
GbEだったら安い中古のあるんじゃないかな。
eBayで何回か見かけた事ある。
10GbEになると、現行のBridgeXになるから100万越えになっちゃうけど。

249:不明なデバイスさん
11/11/11 00:34:24.53 Buer1oZq.net
>>238
スイッチ自体がGbEまでしか対応してないと IBoE もGiga止まりですよね?

そうなると困るのでせめて IBoE だけは 10GbE でつなげるようなスイッチって無いんですかね?

250:不明なデバイスさん
11/11/11 01:35:28.57 Xwcef8hc.net
>>239
残念ながら、EoIB、FCoIB等のプロトコル変換出来る機械は安いのがないんですよ。
古いものだと238であげたように、GbEしかついてないですし。
LinuxとかでEoIB-10GbEのGatewayが簡単に作れればいいんですけど、
現状ではそういう風になってないんですよね。
あと、EoIBを喋らせようと思うと現状ではEoIBを理解できるGatewayがいないと設定すら
出来ないと思います。ここら辺は、自分も勉強不足なので間違ってるかもしれません。

参考までに、現行品で挙げますが
URLリンク(www.xsigo.co.jp)
URLリンク(www.mellanox.com)
どちらも個人で買えるような代物ではないですね・・・

251:不明なデバイスさん
11/11/11 06:44:38.15 xvd3rYLC.net
>>240
ifをbridgeすればいいんじゃない? linuxならbrctl addif br0 eth0 eth1みたいに。
ただ、スループットは期待できないと思う。貧乏人のルータ、ってやつですな。
>>236
やっす。 connectXは10GBeにもなるからなあ。

252:不明なデバイスさん
11/11/11 17:11:42.8


253:4 ID:0f3BvgVE.net



254:不明なデバイスさん
11/11/11 17:26:49.47 xvd3rYLC.net
IBoEとEoIBで話がかみあってない気が。
いずれにせよ3桁万円コースだと思うけど。

255:不明なデバイスさん
11/11/11 22:52:14.60 Xwcef8hc.net
>>241
IPoIB - 10GbEのルータは作ってみるつもりです。
間違い無くフルレートは出ないでしょうけどw

オークション形式で出てるので、実際はもっと上がる可能性ありますけど、
それでも安いとは思います。普通だと$300くらいからスタートなので・・・

>>242
あー、ごめんなさい。勝手にEoIBと勘違いしてました。
ちょっと調べてみたところIBoE対応製品って比較的最近の物しかないかと思います。
CiscoのNEXUS 5000系は対応してるみたいですが。ポート数が少ないもので
言われてるような機能を持った製品はまだ市場に出てないんではないかと思います。

>>243
ご指摘ありがとうございます。その通りでした(汗)
どちらにしろ、お値段は3桁万円コースですね。

256:不明なデバイスさん
11/11/12 08:57:59.40 JAZFyoDP.net
>>5
systemworks ってFCほとんどあつかってないし、ベンチもないな

なんでIBはやってFCはやらないんだろう・・・

257:不明なデバイスさん
11/11/12 12:18:25.71 hfBB53D+.net
今さらFCでなにするよ。
先進性のあるもの取り上げないと、面白くないしね。


258:不明なデバイスさん
11/11/12 16:12:20.13 JAZFyoDP.net
FCoE とかか?

259:不明なデバイスさん
11/11/12 20:51:33.87 61ogkybw.net
>>245
あそこはHPC屋さんだからFCは殆どやってないのではないかと。

260:不明なデバイスさん
11/11/12 20:57:32.87 oL/AVp5D.net
linux のブリッジだとCPUがネックでろくな性能出ないんじゃないか。
少し前はGbE でもギリギリだったが

261:不明なデバイスさん
11/11/12 21:33:31.95 8K8Rsbn/.net
ブリッジングなら(EoIB)、最近のPCIeならそこそこ性能出るんじゃないかと。でも2G~3Gbpsぐらいだろうけど。
ルーティングだと(IPoIB)、遅そう。
って実際にやってみればいいんだけど、PCIex8が2本以上あるようなマザーがねーよ。というかショッパイPCしかない。

262:不明なデバイスさん
11/11/12 21:48:14.04 JAZFyoDP.net
>>248
HPCだとネットワークはやらないのか・・・
ネットワーク屋ってのが別にあるのかな?

263:不明なデバイスさん
11/11/12 22:26:57.27 bWVzVMqr.net
HPCで計算機結ぶのにFCなんざ使う理由がない
FCの話がしたいなら他所へ行け

264:不明なデバイスさん
11/11/12 23:09:24.27 oNSrxNQT.net
ストレージとESXiホストそれぞれにDual portなIB HBAを付けて2本の線で2台を接続、
それぞれのリンクを
・ESXiホスト <-(SRP)-> ストレージ
・VMs <-(NFS, IPoIB)-> ストレージ
にして運用する、とかできるのかな

265:不明なデバイスさん
11/11/13 08:06:51.88 Yqxpy+ON.net
SRPだとストレージはsolaris系?
SM搭載スイッチかlinux or windowsでSM立てないとリンク上がらんよ。


266:不明なデバイスさん
11/11/13 19:04:49.47 TC+oayOa.net
はやくSolaris11系かESXi5系でOpenSMが動くといいんだけどなぁ

267:不明なデバイスさん
11/11/13 19:57:39.05 Yqxpy+ON.net
ESXiの設計では、おそらく出ないと思われる。
基本的にホストOSでアプリを動かすようにできてない。
Solaris系は、OF次第じゃないかな。


268:不明なデバイスさん
11/11/13 20:38:58.94 DqZ1whGS.net
>>253
ESXi は SRP に対応してない、というより IB デバイスに対応してないよ。
Mellanox + ESXi だと、Mellanox ドライバが Etherデバイス + FCデバイス にみせかけてくれる。

FCoIB で FCターゲット
IPoIB で NFS
の2択じゃないかな。

269:不明なデバイスさん
11/11/14 00:06:22.29 A3KUkwg6.net
>>253
254さんの言われてるように、ストレージがSolarisだと現状は無理ですね。
LinuxでされるならSCSTをSRP Targetに使えば可能です。
あと、ESXiは5系をつかうとなるとInfiniBand自体が使えないので注意です。
ドライバがまだMellanoxから出てないので。

>>255
FreeBSDも忘れないであげてくださいw
調べてみたら、ESXではOpenSM動いてたみたいですね。
ESXiだと256さんが言われてるように、アプリが動かせないので無理じゃないかなーと。

>>256
OFの出来はどうなんでしょうね?
Solaris11でOFEDからかなり移植してるので、コンパイルだけで動いたりしないかなー。

>>257
言われてるように、ESXiは標準ではInfiniBandとSRPとIPoIBには対応してないですね。
ただ、Mellanox配布のOFEDドライバを入れるとSRPとIPoIBのドライバも入るのでSRPは動作します。
実際うちではそれで動いてますから。
URLリンク(www.mellanox.com)
でマニュアルみるとプロトコルの対応状況が書いてあります。今のところFCoIBの対応はしてなかったかと思います。
あとは、rNFSとかも対応してないですね。かなり機能限定されてるドライバなので。

ちなみに書かれてるのって、VMWareのサイトで配ってる以下のMellanoxの10GbEのドライバの方でしょうか?
URLリンク(downloads.vmware.com)
こっちだと、書かれてる内容的に納得なんですが。

270:不明なデバイスさん
11/11/14 00:36:19.45 H+ydeSaH.net
>>258
ご指摘ありがとうございます。

> ちなみに書かれてるのって、VMWareのサイトで配ってる以下のMellanoxの10GbEのドライバの方でしょうか?
おそらくそうです。10GbEの方で見た画面で間違って理解していました。

OFEDドライバも別にあったのですね、というかVMware公式で
配布しているのは10GbEでENが付いている製品用で、
OFEDドライバはENが付かないIB/VPI製品用なのですね。

271:不明なデバイスさん
11/11/14 00:52:08.68 A3KUkwg6.net
>>259
いえいえ、普通はVMware公式に有るとそっちで動くって思うでしょうし。

MellanoxのサイトにVMwareで配布してるものドライバのReleaseNoteがあったので
読んでみたんですが、10GbEドライバで使用できるものの中にはConnectXのENつく
もの以外の製品も有ったので、10GbEのみで使うならConnectX系(VPIが使用可能
な製品)は使えるのではないかと思います。調べてみたら、この辺ややこしいですね(汗)

どうなるか、一回テストしてみるのがよさそうなので環境組んでやってみます。

272:不明なデバイスさん
11/11/14 01:24:40.84 A3KUkwg6.net
OFEDの最新RC版がでてるので、人柱な方はどうぞ

OFED for Windows 3.0 RC2
URLリンク(www.openfabrics.org)

OFED-1.5.4-rc4 for Linux
URLリンク(www.openfabrics.org)

273:不明なデバイスさん
11/11/14 02:14:55.28 neCXws3K.net
【SAN,NAS】ストレージ鯖総合【iSCSI,FC,IB,10GbE】
スレリンク(hard板)

274:不明なデバイスさん
11/11/14 06:38:00.74 Exe1zPrl.net
>>260
チップ自体はENも非ENも変わらなくて、ENはPXEとかiSCSIブート用にEEPROM持ってるんじゃないか、と想像してます。

275:不明なデバイスさん
11/11/14 23:13:41.39 A3KUkwg6.net
>>263
チップ自体は一緒ですね。ENはほぼファームが違うだけだと思います。
あとはPCIのデバイスIDとかそこら辺が違うのかな。

で、BootROMはENとVPIのカードでも多分一緒ですね。
これFlexBootととして配布してるのが同じものなので。
VPIカードも書かれてるような、EhternetからのPXEとかiSCSIのBootが可能です。
すごく汎用的に出来てますね。

276:不明なデバイスさん
11/11/15 12:14:16.36 Oz8F4jwP.net
はじめての速度測定。両側:windows 7, Pentium D 2.8GHz, infinihost Lx DDR,直結。
netpipe371_win32_tcpで最高速度が1500Mbps・・・・・・うゎゎゎゎぁぁぁん。
やっぱりそれなりのマシンじゃないと速度でないのね(笑)

277:不明なデバイスさん
11/11/15 12:31:16.56 Oz8F4jwP.net



278:同じマシンでmyricom-CX4で接続すると最高速度は2500Mbps。 IBというかIPoIBって意外とCPU喰うん?



279:不明なデバイスさん
11/11/15 13:25:07.63 Oz8F4jwP.net
CPU使用率メモ。infinihostで50%、myricomで40%。one-threadっぽい動きなので50%でサチってる。

280:不明なデバイスさん
11/11/15 20:48:06.44 mXVOpU0d.net
>>267
CPUは何を使ってる?

281:不明なデバイスさん
11/11/15 21:06:44.30 Oz8F4jwP.net
>>268 >>265
ConnectXが速いのは、オフロード(チップ内処理)してるからでしょうね。

282:不明なデバイスさん
11/11/15 21:12:13.11 RTDTZQao.net
>>268
>>265に(遅くて熱い)Pentium D 2.8GHzと書いてあるねw

283:不明なデバイスさん
11/11/15 21:57:41.46 mDQ+OOPG.net
>>265
InfiniHost系なら、上に書いてるWinOF 3.0のRC版を入れるのがお勧め。
Connected Modeが使えるようになって速度が大幅に上がるはず。

っと、これだけだとアレなので、Firm更新してて気づいたネタを書いておこう。
ConnectXはEtherModeだとUDPのオフロードがないみたい。
ConnectX2はUDPオフロードしてくれる。

284:不明なデバイスさん
11/11/15 22:00:31.55 Oz8F4jwP.net
>>271
Connectedでも大して変わらんかったです。SMの仕事がちょっと減る、とかそんなもんかなー。

ConnectXとX2の違い、チップのブローシャ見てる限りはfloating point engineぐらいなんだけど(GPU offloadで使う?)、
微妙に内部のメモリ量とかオフロードエンジンのプログラミング能力とか違いそうですね。

285:不明なデバイスさん
11/11/16 00:22:56.87 ML89bY3o.net
>>272
あらま、変らなかったですか・・・。
DDR接続で InfiniHost Lx の Linux - ConnectX の Solaris 間のIPoIBで10Gb/sくらいでてました。
Linux側がML115 G1のAthlon X2 5000+ で Solaris側がXeon X3460です。

ConnectXとX2でファームが完全に分かれてるから、なんらかハードの差があるんでしょうね。
最初はそんなに差なんてないだろって思ってたんですが、同一環境上のConnectXとConnectX2で
BootMessageでUDPのオフロードが有効にならんよってメッセージが出て驚いたんですがw

286:不明なデバイスさん
11/11/16 01:04:24.46 m55q9mhU.net
興味は有るのだが、このスレ濃すぎて何言ってるのかわからん。
みんな本業が運用系のエンジニアって訳じゃないよね。
どうやって基礎知識得たの?

287:不明なデバイスさん
11/11/16 01:57:29.88 ML89bY3o.net
>>274
職場はコンピュータ系とは全く別の業種ですw
ネットワーク系のことは全くの趣味ですね。

基礎知識ってInfiniBandのですかね?
自分は元々ネットワークの技術ずっと追っかけしてたので、
最初に幾らか資料読んで、あとは実践でひたすら覚えていってる感じですね。
実質InfiniBandを触りだして半年くらいですから、そんなに詳しいわけでもないんでw

InfiniBand自体、技術的には昔からあるんですが、ノウハウの部分があんまり表に出てない
(というか、触ってる人が少ない)ので、自分がやってて貯まったノウハウとかを書込していってる
感じです。後からやろうとしてる人が楽できるように。

288:不明なデバイスさん
11/11/16 02:24:48.45 ML89bY3o.net
MellanoxのOEMもののカード使ってる人向けネタ

最新のファームの適用方法
URLリンク(forums.oracle.com)
PXEブートとかいらないんだったら、途中のiniファイルの編集は不要。

うちで書換を確認したのは、以下のカード
・VOLTAIRE HCA 410 Ex-D (InfiniHost Lx MHGS18-XTC)
・HP 380298-B21 (InfiniHostEx MHEA28-1TC かな?)
・HP 448397-B21 (ConnectX MHGH2


289:8-XTC) ・IBM 44R8728 (ConnectX MHGH29-XTC) VOLTAIREのカードは、iPXEの最新のBootROMを焼いてみたけど、 PC起動時にiPXEのメッセージが出てくるところまでは確認。 TopSpin(Cisco)のカードは上記方法では出来なかった。 1枚カードがあぼーんしたので注意を orz とりあえず、IBMのサイトから最初に入ってるイメージよりも新しいFirmは入手できたから そっちを突っ込んだ。



290:不明なデバイスさん
11/11/16 09:18:14.08 RIs8d0AX.net
>>276
tombstone化してしまいましたか(w
mst statでconfig側のインタフェースぐらい見えてるのなら、flintに強制書き込みモードがあった気がする。

291:不明なデバイスさん
11/11/16 17:09:42.38 dtxIRgpn.net
スパコンとストレージ用途以外の使い道ってあるのかな?


292:不明なデバイスさん
11/11/16 18:41:38.65 ML89bY3o.net
>>278
FCとかEtherとかをIBの上に乗っけれるので、ケーブルが集約出来るのはメリットかな。
さくらさんがIBで組んでるのは上記理由もあるかと。

最新のiPXEのInfiniHost系Memfree用(ExとLx用)のBootROM作ったけど、
人柱になってくれる人いるかな?
自分ところは、BootROMの書込までは出来たんだけど、SAN Bootの環境は
作ってないのでテストできないので実際Boot出来るかは不明なんで

293:不明なデバイスさん
11/11/17 10:20:31.95 AZ3cVfJP.net
EoIBのブリッジかFCoIBのブリッジが必要じゃない?>BoIB
ふつーの人は絶対持ってないような(w

infinihostIIIのファーム覗いてみたけどわけのわからんコード。どこのCPUだろ?全くの独自、ってわけではなさそうだけどなあ。

294:不明なデバイスさん
11/11/17 20:29:16.26 ymMYiwA7.net
>>280
いやいや、ブリッジいらんですw
IPoIB iSCSI Boot か SRP Bootになるんでw
起動用の環境つくるのが、ちょっと面倒なだけですわ

えらいもんおっかけされてますね。

295:不明なデバイスさん
11/11/18 06:32:18.65 WGcIiuKZ.net
>>281
失礼しました、IPoIB iSCSIでOKなんだ。だったらMS iSCSI target(最近無料化)でもいけるかな。

linux(debian)のnetpipe-mpi使ってMPIoverIBのスループット計りたいんだけどやり方さっぱりわからん。

296:不明なデバイスさん
11/11/18 21:24:16.77 WGcIiuKZ.net
linuxで速度測定。両側:debian6.0.3, Pentium D 2.8GHz, infinihost Lx DDR,直結。
netpipe-tcpで最高1150Mbps、connected modeで850Mbps、ちなみにmyricom CX4だと4100Mbps。
・Debianはmodprobe ib_ipoibだけでib0がifconfigに現れる。
・opensm及びinfiniband-diagsには要ib_umadモジュール。
・なんかますます10Gbeとの差が。貧弱なマシンはConnectX必須かと。

297:不明なデバイスさん
11/11/18 21:52:06.63 Ac+1XDLH.net
>>282
多分いけますよ。FlexBootのマニュアルみてると、ISC DHCPのサーバにパッチ適用しないと
駄目みたいですけど。

>>283
PCのスペックが低いとInfiniHost系だとしんどいんですね。
しかし、Connected modeのが遅いのが意外でしたわ。

ちなみに、Debianに標準で入ってるOFEDのベースは1.4.1とかだったはずなので、
ベースが古いってのもあるんですかね。自分は、sid(Kernel 2.6.38辺り)ベースで、
Debian-OFED(1.5.2)を突っ込んで試してみたことはあるんですが、標準のは使って
なかったので、比較出来ないです。

298:不明なデバイスさん
11/11/18 22:01:37.07 WGcIiuKZ.net
>>284
connectedは説明みると「UDPのでかいパケットか、TCPの特定条件だと速いよ」みたいな書き方だったので、
netpipe-tcpだと合致してないのかも。
新カーネルやofedは試してみたいところですが、ま、infinihostは見放されつつあるので期待はしてないです。

299:不明なデバイスさん
11/11/19 16:18:58.97 JhNlkJWS.net
もう


300:一度Win7で計り直したら、connectedのほうが速かった。すまん。 #再起動しないとだめなのかも。 connectedで2200Mbps、no connectedが1500Mbpsだった@Pentium D 2.8GHz。



301:不明なデバイスさん
11/11/21 02:15:30.70 aB9kUHsV.net
>>286
とりあえずちょっと速くなったようでなにより。
むむ、再起動すると大丈夫だったのね。以前WinOF 2.3でConnected ModeをOnに
してると、起動時にOnに出来なかったってメッセージが出てたから、ドライバの制限で
起動時だけ変更可能なんでしょうなー。

おまけ、ConnectXのブラケット見てて気づいた。
InfiniHostEx系のブラケットがそのまま使えるのね。
ConnectX2の1ポートだと、InfiniHostLxのブラケットがそのままいけそう。

302:不明なデバイスさん
11/11/21 02:28:48.08 /PxAlNbd.net
どっかにDualPortのInfinihostIIIのブラケットだけ落ちてないかな(´・ω・`)


303:不明なデバイスさん
11/11/21 03:10:55.23 YhwOt2i6.net
さてはロープロだったな

304:不明なデバイスさん
11/11/21 09:42:02.09 ORwXW+2F.net
>>287
connectedとdatagramは切り替わってたぽいんだけど、MTUが切り替わってなくてスピード変わらなかった感じ。
つまるところ、connectedでのスピード向上はMTU上昇による上位層での処理減少、って奴っぽい。
#icmpはうまく実装されてないみたいで、ping -l 10000 とかやるとインターフェースがdownします(笑)
debianでスピードが逆に落ちたのもMTUが変わってなかったからかも。
>>288
SFF8470、ケーブルごついからねー。24AWGだとアスパラガスぐらいあるし。
うちはPA-010ME(メッシュカバー)をハンドニブラで適当に加工した。どーせ趣味だし。

305:不明なデバイスさん
11/11/21 10:03:03.09 ORwXW+2F.net
補足。
・メッシュカバーはニッパでも加工可能。ニッパの歯が傷むかもしれないけど。
・ケーブルの太さと伝送距離の関係は下記参照。(パッシブケーブル)
www.meritec.com/productfiles/categ_24/4x%20Wire%20Gauge%20vs%20Performance%20Over%20Length%20Test.pdf
・ケーブル刺す時に接点のタイミング?で1Xでリンクアップする場合があるので、ibstatやvstatでちゃんとX4でリンクしてるか
確認したほうがいい。

306:287
11/11/22 02:58:39.55 cd+8LQp2.net
ConnextXのブラケットだけど、試してみたけど駄目だった orz
ConnectX2の1ポートのブラケットは、2mmくらい穴位置がずれて駄目。

なんで、スペアパーツで出ないかと思って調べてみたら、こんなのが
Mellanox Short Bracket MT90837A01 Mellanox InfiniHost III Ex Single-Port InfiniBand HCA Card
Mellanox Tall Bracket MT90839A01 Mellanox InfiniHost III Ex Single-Port InfiniBand HCA Card
物の写真がないので、不明なんだけど使えるんだろうか?

誰か人柱をw

307:不明なデバイスさん
11/11/23 12:30:40.22 qJQ4G9BY.net
ESXiのストレージ接続としてIB良いなぁと思うも、
SMをどうするかって問題が。

ZFS使ってるから、Solaris系かBSDでSM動いてくれないと・・・
ん~4Gbpsになっちゃうけど、環境整うまで
FCに逃げるしかないのかなぁ。

308:不明なデバイスさん
11/11/23 13:14:18.13 1GkMTiHn.net
>>293
IBスイッチでSM積んでるものあるから、そういうの選べば一応行けるけど。

309:不明なデバイスさん
11/11/23 15:51:06.10 ZxF+eDmL.net
>>293
家でやるなら デュアルポート片方をDirectPathI/Oで仮想マシンに生で見せる。
んで、仮想マシンにLinux+SM
もう片方のポートはESXに見せる

やったことないのでアイディアだけっす

310:不明なデバイスさん
11/11/23 18:02:26.38 pnhbD8t7.net
今ちょうど某オクにSM付きスイッチ出てるべ?

311:不明なデバイスさん
11/11/23 19:59:36.44 1GkMTiHn.net
>>295
残念ながらDualPortのカードって1枚にしか見えないからポート単位のDirectPathI/Oは不可能ですね。
あと、カードわけたとしてもESXiとLinuxの間がスイッチないと駄目ですね(スイッチ前提で考えてたらごめん)。
ESX4.1だったら、OpenSM動くんだけど。Solaris系をストレージに使うとなると色々制限が厳しい。

312:293
11/11/23 21:34:25.89 uialXv1r.net
>>294
>>296
やっぱSMスイッチですかねぇ。SDRってのがちょっと気にくわないというか、
どうせならDDR位と思っちゃう所もありまして。

>>295
>>297
実はその手も一瞬考えましたw
ただ、3台数珠繋ぎでのはっきりした動作例が無かったのと、
VT-dでまともに動いてくれるか?って所もありますし。

ESXi-ストレージ間の帯域増やせたら、あわよくば、単独で動いてる
ファイルサーバーまでESXiの上に乗っけちゃおうかと目論んではいるんですが、
なかなかいい手がないなー。


313:不明なデバイスさん
11/11/23 22:43:17.02 TA46mxrp.net
ESXiとSolaris系のZFSなストレージを組み合わせたいというニーズが大きいのはよくわかったw

314:不明なデバイスさん
11/11/23 23:42:18.38 1GkMTiHn.net
>>298
楽するならSMスイッチ。
ただ、自分はスイッチのSM設定ってした事ないので何とも言えずw
DDRになると、カードの値段がSDRに比べると無茶苦茶に高いわけじゃないですが
ちょっと高い気が。

VMwareのサイトで見たのは、ConnectXだったかをESXi上でパススルーすると
動作がおかしいってのは見た事あるけど、実際どうなのかは不明。


個人使用っぽいので、アレな方法を書いてみる。
とりあえずDirectPathI/Oが使えるのが前提
耐障害性がーって言われると困る構成&スレ違いネタになる部分が多々だけど
・ESXiでSolarisを動かすだけの最低限のデータストア用意
・ESXi上にSolarisインストール
・DirectPathI/Oで、ストレージカードとIBか10GbEをSolarisVMにマッピング
(ESXi側で共有かけたかったらネットワークカードのマッピングは不要)
・ストレージカードにZFSの共有かけるPoolのDiskを追加して、Pool作成
・作成したPoolの一部をESXiのデータストア用に切り出し、iSCSI Target設定
・SolarisVMのiSCSI TargetにESXiから接続。他のVM用のデータプールに。
・SolarisVMの余ったPool部分ははファイルサーバ用にも使える
元ネタは海外のサイトだけど。
この構成だと、IBなり10GbEに繋げるのは一台になっちゃう。
あと、IBだとSolarisVMと接続できるのは、WindowsかLinux限定になるか。

315:293
11/11/24 00:07:39.78 xCIMl9Wd.net
>>300
やっぱSMスイッチが一番楽ですよねぇ、構成縛られないから。
SSDでストレージ組んでる訳じゃないので、
ぶっちゃけSDRの帯域でも使い切ることは無いとは思ってますがw

で、アレな方法ですが、えぇ、思い切り個人使用です、はい。
で、なるほど~と思いつつ、よくよく考えてみたら、
その方法の場合、IB直結で別PCに繋ぐ必要が無いときって
IBいらなくないっすか?w
10GbEは別の意味で必要かもしれませんがw
内部SwitchをESXiのソフトだけで賄うと結構負荷が高いかも?
VT-cでも使って、10GbE AdapterをSwitch代わりに使えば、
負荷は問題なくなるかもだけど、余りにも贅沢な使い方にw
(物理ポートがLinkDownしてる状態で動くのだろうか・・・
いや、多分動かないだろうなw)

ストレージ部分だけDirectpathでVM直結で、
ESXi他はiSCSIでVMと内部Switchで接続って事ですよね。
確かに方法としては良さそうなんですが、
ZFS�


316:ゥ体メモリイーターなのと、ESXi上で、現状複数のVMに10G以上 メモリーを使われてる事を考えると、ESXiの鯖に 32GB付けないと、まかないきれないかも・・・?



317:不明なデバイスさん
11/11/24 01:07:54.96 /I0TOwaL.net
>>293
構成的には楽なんですけど、設定が楽なのかがよくわからないんですよね。
某オクに出てるのは、TopSpinOSのだから、このスレでも使ってる人が何人か
いますけど、スイッチのSM使ってる人っているのかな?

アレな方法ですけど、IBスレなのでなんとなくおまけで付けてただけですw
自分も接続するクライアントに速度が必要じゃなければ、いらないよなーと
思いながら書いてたのでw

ホストとゲストで内部Switch使う場合って、VMCIを有効にしても速くなら
ないんでしたっけ?実際に自分で試してみればいいんですけど・・・
他のVMが、大量にメモリ使ってるならちょっとアレな方法はしんどいですね。

318:不明なデバイスさん
11/11/24 09:25:32.79 txlbh1FE.net
ESXiってローカルループバックアダプタ(ダミーNIC)って設定できないの?

スイッチのSMってまああってもなくてもいいものだとは思います。結局Linuxこさえて繋げば同じことなので。
設定はいずれにせよ簡単(topspinのだとSMをデフォルト値でcreateするのみ)。
ただ、SMの目的のためにスイッチ買ったりlinuxこさえたりするぐらいなら、10GBeのほうがずっと簡単&安上がり、では?

3台またぎのスイッチなし、って結局サブネット2つできることになるので、だめじゃないかなー。誰か試したんだっけ?

319:不明なデバイスさん
11/11/24 09:35:00.24 txlbh1FE.net
しかし某オクの相場、ってよーわからんなあ。
super/superを知らないから安かったり、よくわからん製品だから安かったり。
まあユーザ(買う方)も少ないから釣り合い取れてるのかな。

320:不明なデバイスさん
11/11/24 20:29:36.24 /I0TOwaL.net
>>303
ローカルループバックアダプタ設定できますよ。
今回話題にしてるのは、そのローカルループバックアダプタのパフォーマンスがどの程度って話ですね。
ホストのスペックがそこそこあれば、十分パフォーマンスは出るみたいですけど。動いてるゲストの数とか
ゲスト側の負荷とかで色々条件が変るので。

スイッチのSMはそんな感じで設定するんですね。
うちも設定してみようかなー。ただ、セカンダリのSMに設定するとは思いますが。
台数少ないと、間違いなく10GbEの方が簡単で安上がりですね。
ただ、スイッチの出物がすごく少ないのがネックですね。

三台またぎのスイッチ無しはやった事ありますが、InfiniBandのネイティブだと設定の仕方が解らず挫折してます。
IPoIBだと、言われてるようにサブネット二つにしてルーティングしてやればTCP/IPでの通信はできました。
言われてるサブネットがInfiniBandのサブネットだったら意味なしの返答なのでご了承を。

確かに某オクの相場は意味不明ですなぁ。
知ってる人だったら、激安ってのが多々出てますね。出品者側が価値を解ってないからってのが大きいんだと。
特殊用途の製品&一般だとあまり知られてないってのが大きいんでしょうね。

321:不明なデバイスさん
11/11/24 21:30:10.15 txlbh1FE.net
infinibandのサブネットです。>数珠つなぎ
でサブネット間のルーティングって(infinibandの)ルータが必要じゃないのかな。
でinfinibandのルータ、ってたぶん死ねるような値段かと。

322:不明なデバイスさん
11/11/24 22:35:32.73 /I0TOwaL.net
自分でかなり最初に書いてたけど、OpenSMでこの設定したらルーティングできそうなんですよね。
(自分で書いておいてすっかり忘れてたw)
URLリンク(wiki.chpc.utah.edu)

あと、リング接続で動かされてる方も
URLリンク(www.slideshare.net)
出来そうってのは解るんですけど、どうやって設定するってのがよくわからない。

どちらにしろOpenSMが動作してる環境は必須なんですが。

323:不明なデバイスさん
11/11/24 22:43:47.68 txlbh1FE.net
2ポートのカードなら同一サブネット可能なんでしょうか?
なお、上のほうの「routing_engine」って同一サブネット内に複数経路ある場合の経路選択アルゴリズム、だと思います。

324:293
11/11/24 23:13:11.29 xCIMl9Wd.net
えぇ、色々考えて、今回はFCで行くことにしましたw
さすがに8Gbpsは高いので、4Gbpsですが。

実は、別にあるファイル鯖がWin機でそこにMS iSCSI targetを入れて
使ってた事もあったんですが、OSにパッチ当てる→要再起動のたびに、
ESXi上のVM全部落とすのが面倒で。
その為にBSD+ZFS+istgtで1台仮想鯖用にストレージ立てました。
Linuxはどうかと言えば、もうこれは宗教に近いと言いますか、
かれこれ20年近く鯖用にBSDしか扱ってこなかったんで、Linuxのお作法になじめないんですよね。
Solarisは仕事で触ってたことがあるんで、まだ良いんですが。
まぁ、ESXiも5.0に上げる予定が有ったので、ドライバ出るまで
SRPが使えないって問題もありますし。

FreeBSDか、SolarisでSMが動くようになってESXiにドライバ来たら
再度IBへの移行を考えるかも。
その時までFCで遊んでますw



次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch