09/10/08 17:44:46 /y2CvV6G
>>455
ということで、ターゲット側の能力次第で速度はかなり変わる。
本当に「遅い」のかはいろいろ実験してみないとよく分からんと思う。
ターゲットPCローカルで取ったベンチマークより速い数字が出てしまったりw
つか、そもそもRAID5は速くないと思うが。
仕組みからして、特に書き込みは単体ドライブよりも遅くなるはず。
464:login:Penguin
09/10/08 19:39:21 FK4Oe6Rv
>>462
iet.confで、type= を fileio, blockio どっちにした?
fileio にすると、OSのバッファキャッシュのフラッシュの
影響を受けるのか、ベンチマーク値が安定せずに
それこそ測定の度に2桁位ふらふらした記憶がある。
465:login:Penguin
09/10/10 20:25:12 +Jwo1/oB
>462
興味深いです
再度調査して報告していただけると嬉しいです
466:login:Penguin
09/10/10 22:47:17 q9tms2BH
スレチですまんが、MPIOターゲットになれるモジュールってある?
467:login:Penguin
09/10/11 08:07:09 QfEOf+JT
>>464
ベンチマークのためにキャッシュ切ってどうするww
fileioで安定しないのは、OSのファイルキャッシュ使うからだよ
468:login:Penguin
09/10/11 20:51:31 9+tePb7m
実際fileioは遅い。てかblockioがデフォルトではない理由が判らん。
469:login:Penguin
09/10/12 00:28:25 EpF7h3p5
VMwareのストレージとして使うときにfileioに変えたら
速くなったんだけど、どうなんだろうな。
メモリ多めに積んだからキャッシュがよく効いただけかも
470:login:Penguin
09/10/12 11:05:26 p+L4egqf
>>468
逆だろ
デフォがblockio
キャッシュ使うfileioが遅いって言うならメモリ買え
471:login:Penguin
09/10/12 16:13:02 /5O7rsxx
>>466
そもそもMPIO不可のiSCSIターゲットなんてあんの?
MC/Sなら対応してないのは多いけど。
472:login:Penguin
09/10/12 19:51:26 3dsgjc6H
マルチパス実装が中途半端でクソ扱いされてるのはイニシエータ側だっけか
473:login:Penguin
09/10/14 22:14:02 CDgM3BwZ
ietdでblockio使ったらsambaよりは断然早いけど、CPUがプアだと
まだまだ遅いですね。
474:login:Penguin
09/10/14 22:28:26 vmv5MAGQ
亀レスだけど
infinibandはスイッチが必須じゃない?
subnet managerが存在するスイッチネットワークが必要だと思った
でもIBスイッチ安いよ。10GEより全然コスパいい
ちなみにiSERはメモリにアクセスしてるうちは速い
前試したときは500MBpsは出てた
リード、ライトともにね
475:login:Penguin
09/10/16 00:58:51 mQNvovOU
>>474
OpenIBに含まれるopensmを起動しておけばOK。
switchless infinibandでぐぐると幾つか出てくるよ。
現状は低遅延広帯域ネットワークはInfinibandがベストだね。
CEEが複数ベンダから安いアダプタとスイッチが出てくるようなら、
将来は次点になるかもしれないけど、ちょっと難しそう。
476:login:Penguin
09/10/16 11:28:38 f/BQ9Mf5
>>475
スイッチレスで組めるんだ
知らなかったよ、ありがとう
RDMAoCEEが動くようになれば10GEて選択も出てくるね
RDMAエンジン搭載のCEE NICがまだ無いけど
でもTCPベースのiSCSIにも言えることだけど、
キャッシュ同期が取れる冗長が組めないと
危なくてテンポラリな空間にしか使えないよね
商用はそこ解決してるわけだけどさ
477:login:Penguin
09/10/17 02:43:55 j9nQlXrE
Infinibandって10GbEより圧倒的に安いんだね
超ハイエンドかと思ったが、いつの間にか部署内のサーバ間接続用なんかに
ちょっとした経費で買えそうな位まで安くなってるので驚いた
とりあえずスイッチレスで試すのに2枚買ってみようかな
iSERってiSCSIとワイヤレベルでのプロトコルが違うんだよね?
ターゲットもイニシエータも対応した奴を用意しないとパフォーマンスが出る出ない
以前に通信できないってことでおk?
478:login:Penguin
09/10/17 08:54:07 E2DiCTRI
>>477
> ターゲットもイニシエータも対応した奴を用意しないとパフォーマンスが出る出ない
> 以前に通信できないってことでおk?
Yes、TCPは使わないです
リモートホストのメモリに直接アクセス(RDMA)するんだけど、
RDMAのRead/WriteがSCSIのRead/Writeに相当する
iSERに対応してるのは今のところ、LinuxとOpenSolarisくらいかなあ
けどiSER評価するなら、NFS/RDMA使ったほうがいいかもよ?
そろそろLinux版がGAになるし、一番簡単
RDMA使ったストレージアクセスって、iSERもSRPもNFS/RDMAも
大してパフォーマンス変わらないもの
あと、日本語ドキュメントが皆無だから頑張ってね
How toだけなら公式wikiとかバンドルされてるドキュメントで何とかなると思う
IBの日本人エンジニアなんてほんとレアだしさ
FCと同じで案件(金)が絡まないと情報出てこないのよ
479:login:Penguin
09/10/17 10:32:48 rx/kYc3S
情報が少なすぎて、
「試しに買ってやってみるか」にはならないんだよな
FCなら、繋いで、インターフェースのBOOTROMで設定すれば、
あとは/dev/sd?で見えるようになって使えると思ったけど。
480:login:Penguin
09/10/17 10:57:04 29d+cIdh
9割がクラスタ案件だからね
入札出来るベンダも限られるし
飯のタネのノウハウは漏らさないだろうね
でもオープンな情報も多いから
英語読む気があれば色々ためせるよ
スレの本スジから外れてきちゃったね
他に行くところも無いんだけど
481:login:Penguin
09/10/17 22:51:09 qYCt/TXA
InfiniBandでスレ立てていいと思う。
情報が分断する気もするけど、
iSCSIとは直接関係ないしw
482:login:Penguin
09/10/17 23:20:03 9cTcAdGM
やっとiSCSIのスレを見つけた…
普通のPC、またはサーバ用のOS(?)で、
そのインストールしたPCをiSCSI用のストレージとして
認識させることの出来る奴の名称、誰か知ってたら教えてくださいorz
先月くらいにちょろっと見て、後で検証してみようと思ったんだが、
名前ど忘れ+ググっても出てこないorz
483:login:Penguin
09/10/17 23:21:05 qYCt/TXA
>>482
>>1 ?
484:login:Penguin
09/10/17 23:31:30 9cTcAdGM
>>483
ありがとう。
確かにコレでも同じ事出来るな、どこ見てんだ俺はorz
でも名前が違ったような気がするんだよなぁ…
仕様見に行ったときもっとグラフィカルなサイトだった気がするし
とりあえず>>1を試してみる、ありがとう!
485:login:Penguin
09/10/18 00:00:23 /Qo2jBjR
>>484
Openfilerかな?
スレリンク(mysv板)
486:login:Penguin
09/10/18 01:33:29 b+V3NSIx
Windowsで気軽に使えるクラスタファイルシステムマダー(・∀・ )っ/凵 ⌒☆チン
487:login:Penguin
09/10/18 03:21:13 DffD1WZE
>>484
sstorageかな?
URLリンク(storage.isp.jp)
488:login:Penguin
09/10/25 15:33:40 qTGYyK7q
次は10GbEが欲しくなる。
489:login:Penguin
09/10/25 21:26:23 DdsJmjpm
飽き足らずにInfinibandが欲しくなる
490:login:Penguin
09/10/28 20:15:47 /CZ6VZy0
10GbEは意外と安くならないね
491:login:Penguin
09/10/28 20:44:55 uXsj3Jvl
来年からIntelはオンボ10Gにするらしいけどね。
問題はL2スイッチが直ぐには安くなりそうもないこと。
492:login:Penguin
09/11/02 16:35:14 KNufd3Mp
iSCSI用途に限らないんだけど、今のLinuxで10Gのカードって
ノウハウ的にどこがおすすめ?
Intel,Broadcom,Chelsio,MallaoxあたりとBladeNetworksの
24portスイッチをつなげてみようかと思うんだけど。
493:login:Penguin
09/11/02 16:41:12 BWYuO9b/
ノウハウ的って意味が正確には判らないけど、
自分とこではChelsio買った部署があるな。
HPC屋が推してたらしい。
494:login:Penguin
09/11/02 17:56:11 KNufd3Mp
>>493
39s。阿鼻叫喚はとりあえず聞こえてきていないということですね。
495:login:Penguin
09/11/02 21:01:05 BWYuO9b/
とりあえず阿鼻叫喚は聞こえて来ないから、マトモに動かないと
いうことは無いんじゃない?
ただし、ToEはカード上で処理できるセッション数を超えた途端に
ホストCPU処理になってしまうため、用途によってはトラフィックごとに
アダプタを別けざるを得ず、ケーブリングでハマると聞いたことが
あるので、その辺は実際のワークロードをかけて幾つかの製品を
試したほうがいいと思う。
最近はCEEだ何だと言われる位なので、各社問題無くなってるのかも
しれないけど。
496:login:Penguin
09/11/03 18:20:41 hEI0AGsP
ToEってなに?
497:login:Penguin
09/11/03 18:34:26 0lf5dDD8
TOE == TCP Offloading Engine
単に"o"にツッコミたかった?
498:login:Penguin
09/11/03 19:26:31 hEI0AGsP
なんだTOEのことかよ
499:login:Penguin
09/11/04 19:33:51 pPw0VwW9
安NASでもtargetサービス有になってきてるんか
URLリンク(bb.watch.impress.co.jp)
500:login:Penguin
09/11/05 00:29:03 eTYM/A9G
>>499
こんな信頼性もパフォーマンスも無さそうなTargetの
使いどころが正直判らん。
VMwareとかHyper-Vとかのライブマイグレーションの練習用?
501:login:Penguin
09/11/05 08:59:28 8YM/bsDi
>>500
練習だったら自分で組んだ方が早いわな。
502:login:Penguin
09/11/05 12:52:00 uAt1KcU0
ソフトウェアによるイニシエータ/ターゲットの存在を
知らない人も世の中にはいるんだよw
いや、マジで。
503:login:Penguin
09/11/06 00:12:16 a7mq1JSi
>>502
そんな人がVMwareとかHyper-Vでシステムを仮想化とか、無茶じゃないか?
一人でVMware Player使うとかいうのとはわけが違う。
504:login:Penguin
09/11/06 03:27:31 xbeOQXg2
>>503
> そんな人がVMwareとかHyper-Vでシステムを仮想化とか、無茶じゃないか?
> 一人でVMware Player使うとかいうのとはわけが違う。
そんなに違うか?
所詮単なる道具だぜ?
505:login:Penguin
09/11/06 08:57:28 qWrsNhC4
>>504の意見に賛同
>>503は勘違い選民思想チビデブハゲってことでおk?
506:login:Penguin
09/11/06 13:09:44 ER2qYO7r
>>503
文章読解力がないようだが、>>502は>>500-501に対するresだ。
つまり「信頼性もパフォーマンスもなさそうなTarget」の存在意味。
仮想化云々はまったく関係ない。
iSCSIは従来のSCSI同様
専用のHBAと専用の機器の組み合わせで使うものだ
と思い込んでる人もいる、とゆー話。
# いや、某中古サーバ専門店の店員が。
# マジ驚いたよw
507:login:Penguin
09/11/06 20:56:28 TNWw1idW
ぉっと
508:login:Penguin
09/11/07 13:51:56 y30cOxiX
iSCSI HBA使うメリットって今あんのかな?
8GFCのスイッチとHBAの価格が4GFCと大して変わらんくらいまで落ちてきてんだよね
509:login:Penguin
09/11/13 11:39:49 N9FS5vq1
あるPC(Windows7)からiSCSIでマウントしてるディスクを
別PC(XP)からSambaでファイル共有して同時に読み書きってできるのかな
510:login:Penguin
09/11/13 23:11:58 WRG9kpVK
iSCSIは、SCSIであって、使い方はSATAやSASとほぼ一緒
なので、iSCSIをマウントしたPC/鯖とsambaで共有すればいい。
511:login:Penguin
09/11/13 23:52:51 f6I0Q3Z0
>>510
レスありがとうございます
この例はあぼーんするが
[PC1:Win7/NTFS] <---iSCSI---> [NAS鯖:Linux/EXT3] <---iSCSI---> [PC2:Win7/NTFS]
この例は大丈夫ってことですね
[PC1:Win7/NTFS] <---Samba--->
[PC3:XP/NTFS] <---Samba---> [NAS鯖:Linux/EXT3] <---iSCSI---> [PC2:Win7/NTFS]
[PC4:XP/NTFS] <---Samba--->
512:login:Penguin
09/11/14 00:21:38 +VAB2Vbe
どっちがどっちだ?
iSCSIはブロックデバイス、sambaはファイルシステム
ブロックデバイス(HDD)を適当なファイルシステムでフォーマットして
sambaで共有させれば、結果的にiSCSIの中にあるファイルを共有したことになる。
iSCSIのイメージをsambaで共有しても、HDDイメージファイルを共有したことにしかならない。
513:login:Penguin
09/11/14 01:43:55 VYhG1dBU
>>512
NAS鯖
・24h常時稼動
・iSCSI Target(物理ストレージ側)
・Sambaファイル共有サーバー
PC1~4
・電源ON/OFFのある完全なクライアントPC
・iSCSI Initiator
・Windowsファイル共有クライアント(Windowsファイル共有サーバーの設定はせず)
他PCがマウント中のHDDイメージの中身を、NAS鯖自信ならば読み書きできると勘違いしました
あくまでHDDイメージなんですね
514:login:Penguin
09/11/14 01:49:18 VYhG1dBU
>>511の上の例では、
NAS鯖内に複数の異なるHDDイメージを作成して、
それぞれマウントすればあぼーんすることはないが、
同一のHDDイメージをマウントするとあぼーんするわけですね
>>511の下の例では
PC2がマウント中のHDDイメージを、NAS鯖がマウントするとあぼーんするから、
PC2をWindowsファイル共有サーバーにする方法しかないと理解しました
経路も迂回するし、PC2が電源OFFの時は読み書きできずとうまくいかないもんですね
515:login:Penguin
09/11/14 02:28:02 BeeV1uH3
クラスタファイルシステムでも使えばよろし。
516:login:Penguin
09/11/14 11:14:06 uNeLWaHl
クラスタファイルシステム何種類かあるけど一番有力なのはどれだろう
Windowsでも一つくらいサポートしてもいいような
517:login:Penguin
09/11/15 15:16:24 ePzVhxKF
iSCSIをocfs2で使うのと、
iSCSIをサーバのどれかがNASになってNFS/SMBで共有するのは
どちらが性能いいのかな。Linuxのみで使うとして。
518:login:Penguin
09/11/17 06:14:39 a96ySKqK
ん?HDDイメージの場合、Targetとしてマウント中でも
HDDイメージそのものはそれがおいてある物理HDD上で
コピーしたりすることはできるよね?
519:login:Penguin
09/11/17 06:45:30 Pxf5jnD2
できるけど・・・・
イメージの前半と後半でコピーした時間が違うなんてことになるぜ
>>517
ocfs2は、CPU負荷が高くなると、同期・調停信号が遅れて、
ファイル壊れるとか消えるとか色々変な事が起きる。
ので、smbで済むような用途ならsmbの方が良い。
タイムスタンプの精度が必要とか、
inodeの値まで揃える必要があるような場合だとocfs2
520:login:Penguin
09/11/17 19:05:11 1HFYnidh
>>516
Windowsで使えるクラスタファイルシステムだとOCFSくらいじゃね?
521:login:Penguin
09/11/18 00:58:59 rJYbboFq
認識があってるかも分からんが
linuxのkernel-stageに /fs/dst つ~ブロックデバイスのネットワークプロトコルが入ってた
nfsの替わりもあってpohmelfsというらしい
5年後に名前が残ってるかさえわからんが…
522:login:Penguin
09/11/18 07:54:19 FFt/LoHq
>>518
それがやりたい人はSolaris使ってZFS pool上にiSCSI targetを構築しましょう。
523:login:Penguin
09/12/09 13:10:23 9E8Tibsd
LVMじゃ駄目なの?
524:login:Penguin
09/12/09 16:29:39 mfbKKGPQ
ハァ?
525:login:Penguin
09/12/09 20:11:48 6+62WSPY
>>523
とりあえず、SolarisのZFS + iSCSIがどう動作しているのか
お勉強してきた方がいい
526:login:Penguin
10/01/12 16:36:58 w40rcvma
ターゲットの0.4.16と1.4.19を比べて
特に高負荷時のパフォーマンス上がってますか?
527:login:Penguin
10/01/23 18:41:25 QbcguuY2
CentOS5.4(2.6.18-164.11.1.el5) + iet(1.4.19)
でターゲット構築してるんですがローカルで
iscsiam -m discovery -t sendtargets -p hogehoge
とやってもタイムアウトしてしまって、ターゲット名が表示
されません。
iscsiadm: socket 3 header read timed out
iscsiadm: Login I/O error, failed to receive a PDU
とあるので、iscsi-targetが接続要求に反応していないのではないかと
思うのです。ietd.confはデフォルトのLun 0 Path=の部分のみ書き換えて
後はそのままです。
#cat /proc/net/iet/session
tid:1 name:iqn.2001-04.com.example:storage.disk2.sys1.xyz
#cat /proc/net/iet/volume
tid:1 name:iqn.2001-04.com.example:storage.disk2.sys1.xyz
lun:0 state:0 iotype:fileio iomode:wt path:/dev/VG00/test
と出るので、IETの起動も一見正常に行われているように見えます。
ただ、この状態でservice iscsi-target stopとやると正常に停止できず、
psで見るとietadm --op deleteがうまくいっていなくて止まっているようです。
何かヒントだけでも頂けませんでしょうか?
528:login:Penguin
10/01/25 19:49:44 aSKgaJKw
3260番ポートを開けてない、とか?
ところで、単なる好奇心ですが
CentOS標準の tgtd ではなく
ietd を選んだのは何故でしょう?
529:login:Penguin
10/01/25 20:56:40 hFoz9GXq
CDNって分散fsって言っていい物?
530:login:Penguin
10/01/26 01:12:07 a1BNkstq
>>528
iptablesではローカルホスト、ローカルネットワークからは全部開けてて、
一応telnetで接続するとコネクションまでは出来てるっぽいです。
わざわざietを使う理由ですけど、クライアントでMacを使ってて、
GlobalSAN iSCSI initiatorとの相性が悪くてマウントは出来るけど
書き込みが出来ないんですね。Windowsでは普通に使えるんですけど。
で、仕方なくietを使おうとしている次第でした。
まぁ、バックアップ用途なので最悪NetatalkかSAMBAで代替とします。
531:login:Penguin
10/02/09 00:24:52 1/aTaa6E
VMware vSphere 4を試す【第三回】
iSCSIストレージをESXiサーバーに接続する
URLリンク(enterprise.watch.impress.co.jp)
532:login:Penguin
10/02/18 18:12:57 S4o+jKbV
tgtd でターゲットを作成する際、
過去に使った(既に消された) tid ってのは再利用不能なんでしょうか?
tgtadm --lld iscsi -m target -o show で何も表示されない
(ターゲットが一つも存在しない)状態でも
--tid=0 などと既に削除した ID を指定して新規作成しようとすると
tgtadm: 'tid' option is necessary と断られてしまいます。
もちろんまだ一度も使ってない ID を指定すれば作成可能なのですが、
これでは「どこまで使ったか」を別途記録しておかないといけないことになり
テストで作成/削除を繰り返した後など、非常に不便です。
これは「そういうもの」なんでしょうか?
また「既に使ったもの」はどこを見れば確認できるのでしょう?
使用 OSは CentOS 5.4です。
533:login:Penguin
10/02/18 21:36:17 ZSkw0RMa
ietdとscstは使ったけどietdは使ったこと無いな
534:login:Penguin
10/02/25 20:36:04 xfOpcbwI
kernel-2.6.33 で iscsitargetを利用したいのですがpatchなどありましたら教えてください
535:login:Penguin
10/02/26 13:02:46 3V2vXHVf
2.6.14以降なら普通に使えると思うが
何かパッチが必要なの?
536:login:Penguin
10/02/26 21:08:41 bdyWSyHq
ietdの場合は一応モジュール作らないとならないんじゃなかったかな
パッチが大量に当たっているディストリのkernelだとconflictすることもあるだろう。
そういう場合はディストリ配布のパッケージ使えばいいわけだけど。
537:login:Penguin
10/03/03 01:38:04 AYjFbTBQ
iscsitarget-1.4.19で、writeよりreadの方が圧倒的に遅いんだけど、こういうもの?
イメージではwriteの方が遅くなるよな気がしてたんだけどなぁ。
fileioでもblockioでも同じ結果。
>>534
RH系なら、rpmbuildでkmod出来るから、それを先にインスコすればおk
538:login:Penguin
10/03/03 01:57:01 6BwB45aL
以前動かしていたietdでは、read/writeによる速度差は感じなかった。
どちらかのNICが送信に弱い/受信に弱いとか、なんかあるんじゃね?
そもそも、ietdも動作おかしい点がいくつもあるけど。
539:login:Penguin
10/03/06 04:01:44 r/V4APzv
NICそのものかドライバが原因てのはあるかもね。
iperfだとワイヤースピード出るのに、
iometerでブロック流すとリードだけ安定しないってのは遭遇したことある。
その時はドライバ変えたら改善した。
とりあえずオフロード無効にしてみ?
540:login:Penguin
10/03/06 12:34:55 g68idANf
>>538-539
tgtdにしてみたら嘘みたいに解消した…。
負荷的にもtgtdの方がかなり有利みたい。
Cent雄5.4 x86_64環境。
まだ詳しく検証してないから、はっきりしたことは分からんけど、
NICドライバ周りも含めて色々調べてみる予定。
今のところ、
> そもそも、ietdも動作おかしい点がいくつもあるけど。
これには同意せざるを得ない感じ。
541:login:Penguin
10/03/26 00:27:05 H69kQD6z
ho
542:login:Penguin
10/04/08 00:57:57 I4A2fDWU
ze
543:login:Penguin
10/04/15 01:57:24 5j98vEiw
Hyper-V2.0 Live-Migration 用に、WSFC構築時のiSCSIとして、
ietdとtgtdを使ってみました。
すったもんだあって、結局・・・OpenSolarisのZFSでiSCSI-Targetを
使って、何となくWSFCを構成していますが、クラスタ検証テストはNG、
でも、Hyper-Vのクイックマイグレーション程度なら使えるっぽいです。
最初、dladmとか使ってNICチーミングしていた時は、ごまかしごまかしで
クラスタ検証テストも警告状態でスルーしたのですが、MPIOに切り替えると
クラスタ検証テストは完全にNGで終了しました。(涙
なお、NICはIntel系×4ポート、Mem16GB、Xeon3440、SATA1TB×4:Raid-5
構成の同一ハード仕様サーバを複数台使って検証しました。
#金出して、StoregeServerStandard以上を使えって事でしょうか?
まぁ、・・・ご参考まで。
544:527
10/05/12 23:33:11 5KXCICkg
超亀報告ですが、ietdのバグだったようで
正常に動作してなかったみたいです。1.4.20.1で
rpmパッケージを作成してインストールしてみたら、
あっさりつながった…。
545:login:Penguin
10/05/28 03:30:19 t2OL57fu
IETでBlockSize使うとWindowsからまともに使えないな
546:545
10/06/06 19:41:12 083/OJg7
冤罪だった
WindowsもIETも悪くない
VirtualBoxだ
547:login:Penguin
10/06/07 16:10:36 uzQTf5Qz
乙