08/11/29 21:37:11 /fC9cO28
参考までに今回、牧野教授がやっていたSTREAM Benchmarkの最新x86プロセッサによる結果す。
URLリンク(www.amd.com)
608:Socket774
08/11/29 21:39:17 Ila9AF2M
>>607
そこにNehalemも載せると楽しいだろうな
609:Socket774
08/11/29 22:08:58 /1+RhT2L
>>608
リンク先読めばわかるが、
もちろん、来月になって Nehalem がでてくるとメモリバンド幅の実力が Core 2 に比べて
3倍程度になるようなので、SX9 と同等になり、メモリバンド幅当りのコストとしては地球
シミュレータ当時と同様に x86 ベースの高い計算機とベクトル機で同等、 x86 で安く上げる
ことができれば1桁良い、ということになります。
とも言ってるぞ。
610:MACオタ>608 さん
08/11/29 22:26:15 /fC9cO28
>>608
-----------------
そこにNehalemも載せると楽しいだろうな
-----------------
Intelによる準公式の数値わ、下記の通りす。
URLリンク(journal.mycom.co.jp)
==================
Stream Benchmarkで測定したメモリバンド幅は、現状のCore 2プロセサであるHarpertown
では、クロック3.0GHz、FSB 1600MHzのチップに800MHzのDDR2メモリをつけた場合は
約9.8GB/sであるが、2.66GHzクロックのNehalemに 1066MHzのDDR3メモリを接続した場合
は33.4GB/sと3.4倍の向上を示している。
==================
611:Socket774
08/11/30 00:21:48 f0SaP70u
>33.4GB/sと
3ch DDR3 1066MHzの理論地より増えているんだが
612:MACオタ>611 さん
08/11/30 00:37:45 Cnm2ifs0
>>611
2-socketシステムでの値だと思われるす。
613:Socket774
08/11/30 03:48:46 iFAksI9b
大規模共有メモリがSXの大きな利点かと思っていたけど、
同程度のコストパフォーマンスなら楽できるSXの方が選ばれるだろうから
メモリバンド幅が壁になる分野ではマルチノードシステムも有用なんだな。
614:Socket774
08/11/30 10:40:36 BSLQ9HBk
似たような理由で、東大の情報基盤センターでも
ピーク性能が圧倒的に高いT2Kよりメモリバンド幅重視&大規模SMPのSR11000の方が
遥かに重用されてるらしい
LINPACKは通信量のオーダが計算量に比べて低いので、飾りにしかならないんだと
615:MACオタ>614 さん
08/11/30 13:45:17 Cnm2ifs0
>>614
それ、大学の計算機センターという利用形態のために複数ノードをまたぐような並列化アプリが
少ないというだけでわ?
箱の中だけで完結する並列化しか行っていない場合わ、当たり前だと思うす。
おそらくT2K仕様も、スーパーコンピュータとしてのコストパファーマンスの悪い4-socketノードを
選択したのも、同様の事情を考慮したものと思われるす。
616:MACオタ
08/11/30 16:54:09 Cnm2ifs0
なんとなく牧野教授の『スーパーコンピューティングの将来』シリーズの過去記事を読み直して
いたすけど、半年前のRoadrunnerの1PFlops越えについて、こんなこと書いているす。
URLリンク(www.artcompsci.org)
-----------------------
とはいえ、やはり、ボード 4 枚も使って CELL 4 チップ、400Gflops というのは、Opteron
とか Xeon だけのとどれくらい違うの?というのは非常に微妙なところでしょう。 同じボード
4枚構成で、Quad Core Xeon E5450 が載った IBM HS21 を使えばほぼ同じ性能が消費
電力も大きな差なしで実現できそうだからです。
-----------------------
今回のTop500で示された現実わ、下記の通りす。
- x86 (K10/2.3GHz): 1.059 PFlops, 6.95MW, 444.9 MFlops/W
- Cell (PowerXCell 8i): 1.105 PFlops, 2.48MW, 152.4 MFlops/W
URLリンク(www.top500.org)
URLリンク(www.green500.org)
617:Socket774
08/11/30 17:16:06 HaHh9MQf
MACヲタタタタタタタタアアアアアアアアアアアアアァァァァ……
618:Socket774
08/12/01 00:08:18 ZWHFUNmr
算数が出来ないMACオタ
619:MACオタ@訂正
08/12/01 05:16:22 IovCRttr
>>616わ電力効率が上下ひっくり返っていたす。
誤)
- x86 (K10/2.3GHz): 1.059 PFlops, 6.95MW, 444.9 MFlops/W
- Cell (PowerXCell 8i): 1.105 PFlops, 2.48MW, 152.4 MFlops/W
正)
- x86 (K10/2.3GHz): 1.059 PFlops, 6.95MW, 152.4 MFlops/W
- Cell (PowerXCell 8i): 1.105 PFlops, 2.48MW, 444.9 MFlops/W
620:Socket774
08/12/01 07:23:45 iuMrr0Pa
だが情報収集だけなら人一倍だぞ
621:Socket774
08/12/03 11:06:55 7jOTbXW8
東工大、世界初のGPU採用スパコンに進化した「TSUBAME 1.2」を解説
~NVIDIA CEOフアン氏は特別講演を実施
URLリンク(pc.watch.impress.co.jp)
622:MACオタ
08/12/03 22:12:02 Rm/iubZB
量子色力学計算用の専用システムQCDOCがBlue Geneの先祖だったことを知っている方も
多いと思うすけど、PowerXCellをコアにした専用システム"QPACE"を紹介するす。
今回もIBMがスポンサーになっているすから、次世代Blue Geneわ似たようなモノになる可能性
もあるす。
URLリンク(www.itwm.fhg.de)(Dirk_Pleiter_-_Desy).pdf
623:Socket774
08/12/04 21:33:34 xGCfhHhW
48時間以内に退職を選ばないと解雇する
正社員削減「このままだと自殺者」
URLリンク(www.asahi.com)
624:Socket774
08/12/05 00:26:27 aV6EPLQ5
>>622
これQCDOCに比べてあまりQCD計算専用と言えるような作りではないよね?
LS増やすかeDRAM付けるとか、そういうのはお金掛かるからダメなのかな。
625:Socket774
08/12/05 01:44:58 CILxL403
QCD専用機イラネ
理由:役に立たないから
626:Socket774
08/12/05 05:58:46 kT2GZMb3
QCDなんぞGPGPUでいいわ!
んじゃ次世代BlueGeneって何よ…
それこそTSUBAMEライクになるんか?
627:Socket774
08/12/05 15:51:16 f4SfpQjQ
日本IBM「加藤候補を3000人創出します」
スレリンク(news板)
628:Socket774
08/12/06 02:41:11 AmeHS/F+
>同労組には、これまでに70~80件の相談が寄せられているという。
_~~~~~~~
ほっとけつーのw こういう和田岩。本質に関係ないから。