03/11/28 00:44 lb/7Vi4d
もちろん、大型計算機を使うのは地球物理だけではなくて、例えば天体形成の
シミュレーション等だと、微粒子一個一個を追いかけたりすれば10億個どころで
は無く、莫大な主記憶を必要とするでしょう。しかしながら、現状ではそのよう
な計算を、単体で現実的な計算時間で行う計算機は無いように思われます。
主記憶におく必要があるデータが莫大な量=複数回計算に使用されるデータが莫大な量
=ものすごく莫大な計算量、というわけです。
>>306,310あたりで、一度でも参照され得る可能性のあるデータは常にメモリ上にある
のが理想的、といった意見がありましたが、まさに典型的DB屋の考えですね。
どちらが良い悪い、というわけではなくて、いわゆる数値計算とは本質的に思想が異なります。
DBの場合だと一瞬でもレスポンスが遅れるとだめで、アクセスが集中した一瞬のために、
99.9%の時間は遊ばせてでも性能を確保しますよね、
数値計算の場合には、全てのリソースがまんべんなく、大部分の時間帯でピーク
に近い性能で動いてくれればいいのです。
全体の一割の時間にディスクアクセスが入りもたついても、残り90%の時間で
ピーク性能がでていればよいわけです。トータルの計算時間だけが問題ですから。
支離滅裂になってしまいましたが、私の意見としては、科学技術系数値計算
を行うのであれば、200万出して一台の計算機を買うよりかは、10万の安PCで
16ノードのクラスタをつくってやったほうが、いろんな意味で効率的だと思います。
これはあくまで私の意見、であって必ず正しいわけでは全くありません。
どなたかがおっしゃったように、本当に2cpuのItaniumが私の常識を凌駕する
性能をもっているのであれば、是非とも購入してすばらしい研究をなさってく
ださい。