【GPGPU】くだすれCUDAスレ【NVIDIA】at TECH
【GPGPU】くだすれCUDAスレ【NVIDIA】 - 暇つぶし2ch446:デフォルトの名無しさん
09/03/05 06:23:04
数値計算なら兎も角、シミュレーション関係なら大いに有り得る話だな。
自分が知っていることが全てではないと認めることができれば世界は広がるのに。

447:デフォルトの名無しさん
09/03/05 20:24:13
他人を否定することでしか自分を正当化できない、ということか。

448:デフォルトの名無しさん
09/03/05 21:39:34
>>447
数値計算と近似計算の違いを教えてくれませんか?

449:デフォルトの名無しさん
09/03/06 04:35:50
>>448
1+1=2となるのは、数値計算ではあるが近似計算ではない。

450:デフォルトの名無しさん
09/03/06 08:57:12
CUDA 2.1 Notebook Drivers for Windows
URLリンク(forums.nvidia.com)

βだけども

451:デフォルトの名無しさん
09/03/06 14:44:51
>>446
とすると、貴方の世界ではシミュレーションとは近似計算をしてるってことですか?

452:デフォルトの名無しさん
09/03/06 15:05:56
物理にしろ確率モデルにしろコンピュータシミュレーションは近似計算だろ

453:デフォルトの名無しさん
09/03/06 15:08:22
整数演算は近似計算ではありません。

454:デフォルトの名無しさん
09/03/06 15:15:06
approximationの意味分かってるの

455:デフォルトの名無しさん
09/03/06 15:38:46
なんかめんどくさそうな人がいっぱいいますね。
どうでもいいですが、早いところストリーム用のプログラミング手法を確立して、ストリームに特有な技法を紹介する本を出してくださいな。

456:デフォルトの名無しさん
09/03/06 16:26:22
どうして煽りを入れる人ほど知識が足りないんだろう?


457:デフォルトの名無しさん
09/03/06 17:11:04
>>456
知識が足りないから煽るじゃないですかね?
そういう低脳な人は「煽ることしか出来ないよね」っとも言いますけど。
そんなことどうでもいいんで「ストリームんグ・プログラミング技法」とかいうブログを早く作ってくださいな。

「approximationの意味分かってるの」とかめんどくさそうな人との議論とかいかめしい顔した人が言う哲学に興味はないんで。

458:デフォルトの名無しさん
09/03/06 17:14:51

低脳な人の煽りの見本

459:デフォルトの名無しさん
09/03/06 18:03:55
458 名前: デフォルトの名無しさん [sage] 投稿日: 2009/03/06(金) 17:14:51

低脳な人の煽りの見本

460:デフォルトの名無しさん
09/03/06 19:56:54
プログラム板なんだから少しはプログラム出せって

461:デフォルトの名無しさん
09/03/06 20:18:50

低脳な人の煽りの見本

462:デフォルトの名無しさん
09/03/06 20:40:17

低脳な人の煽りの見本


463:デフォルトの名無しさん
09/03/06 20:41:28
>>448
1+1=2となるのは、数値計算ではあるが近似計算ではない。

464:デフォルトの名無しさん
09/03/06 22:21:12
VIPのまとめWikiに書いたこともあるが、今はネタがない。

あーそうそう、x16バスに繋がった8800GTの方がx8バスに繋がったGTX280よりも速かったってこと位か。
但し、転送量が多目の用途だからだとは思うが。

465:,,・´∀`・,,)っ-○◎●
09/03/06 22:22:16
VIPPERプログラミングスレの派生なのかここ?

466:デフォルトの名無しさん
09/03/06 22:23:45
大丈夫、私はvipには書いていないw
でも何故かまとめWikiには複数投稿している罠。

467:デフォルトの名無しさん
09/03/07 02:00:17
自分が知らない事はWeb見て知ったかぶらないで馬鹿げたレスする暇で
amazonで本の一冊でも買えばいいのに。

ところでCUDAで性能だすためのまとまった日本語の文書ないかな?

468:デフォルトの名無しさん
09/03/07 02:22:11
そもそもCUDAに関して有用な日本語資料がなくね?
公式でさえ日本語マニュアルはあんなだったし。

469:,,・´∀`・,,)っ-●◎○
09/03/07 02:25:00
大丈夫、英語資料すらろくなのないから。


470:デフォルトの名無しさん
09/03/07 02:30:32
やはり本家のドキュメントにあたるしかないのか。
めんどくせー。環境の開発もいいけどドキュメントの整備も力入れてほしいわ。

471:,,・´∀`・,,)っ-●◎○
09/03/07 07:18:34
逆に日本語ドキュメントがあっても大して意味無いよ。
IntelのプログラミングマニュアルなんていまだにPentium 4のことしか書いてないぞ。
日本法人仕事しなさすぎる。

CUDAを勉強するより前に英語アレルギーを克服したほうが何かと良くなるかも。



472:デフォルトの名無しさん
09/03/07 07:55:47
英語アレルギーってなに?

473:デフォルトの名無しさん
09/03/07 08:25:11
そう言いたくなるくらい、英語から目を背ける人は世の中に意外と多い。

474:デフォルトの名無しさん
09/03/07 08:45:27
俺の場合英語と日本語だと読むスピードが10倍~100倍違うorz.



475:デフォルトの名無しさん
09/03/07 11:19:36
母国語でないと読むスピードが遅いだけじゃなく小さなとこで思い
違いがでてきて結局後からまた参照したりして嫌だ。

476:デフォルトの名無しさん
09/03/07 11:23:45
技術的文書に機械翻訳はどの程度通用するんだろ。奇想天外な訳になってしまうのかな。連投スマソ


477:,,・´∀`・,,)っ-●◎○
09/03/07 11:41:59
英文学読めって言ってるんじゃないんだし、書ける・話せるも別問題。
技術ドキュメントの英語なんて、有る程度形式ばった言い回ししかやらないので
単語を摘み出すだけでも回数を重ねればそこそこ意味はわかるようになると思う。

慣れてくれば技術系ニュースサイトとかも読んでみたり。

478:デフォルトの名無しさん
09/03/07 11:51:27
だんごさんはどーゆーサイトみてますか
スレ違い申し訳ない

479:,,・´∀`・,,)っ-●◎○
09/03/07 12:17:36
Intelの開発者ブログとかRSSに入れてる

480:デフォルトの名無しさん
09/03/07 22:13:23
団子はGPGPU嫌いなんじゃなかったの?

481:,,・´∀`・,,)っ-○◎●
09/03/07 22:18:46
逆に、好きな奴いるのか?
非生産的で変態だけど性能のために仕方なく使う類のモノだろ

482:デフォルトの名無しさん
09/03/07 22:22:35
おれもGPGPUなんて嫌いだな。
開発したことあるけどPSシリーズも大嫌い。

483:,,・´∀`・,,)っ-●◎○
09/03/08 08:31:15
x86でいうMMX/SSEって、分岐が除去できるとか直列方向のパフォーマンスメリットがあった。
GPGPUって並列方向のスループットありきで、ホスト側のコードでお膳立てしてやらないといけない。


484:デフォルトの名無しさん
09/03/08 19:46:25
>非生産的で変態だけど
それってintelアーキのことじゃん。昔からずっと言われ続けてることだが。
mc68kやsparc,mipsの方がよっぽど素直に書ける。

けど市場規模のために仕方無く使わされてる。

485:デフォルトの名無しさん
09/03/08 20:10:12
アセンブラはmc68とx86しかやったことないけど、
mc68はかきやすかったな~。

欲を言えば16本すべて汎用レジスタだったらよかったんだけどw

486:,,・´∀`・,,)っ-●◎○
09/03/09 01:10:52
>>484
あー?
メモリアドレッシングモードが貧弱すぎるんだけどー?
まじうけるー?
パネェっすよ

487:デフォルトの名無しさん
09/03/09 01:20:53
インテルに慣れきってるとそう思うかもね。
どうせ団子はインテル一筋なんだろ?w

488:,,・´∀`・,,)っ-●◎○
09/03/09 02:18:43
> mc68とx86
その時代だと8086だろ。「x86」って基本的に32ビット以降のことを言うと思うんだけど。
32ビットだとぜんぜん自由度が違うっしょ。セグメントなんて使わなくていいし。
4GBの論理メモリ空間をリニアにアドレッシングできるし。
んで、案の定ローエンドサーバだけにとどまらずHPCもx86に惨敗して虫の息じゃないか
古くからあるRISCなんて。
MIPSも組み込みに逃げたけどARMに食われたね。

それはともかくSSE・MMXも経験ない男の人がCUDAなんて・・・




さて、CUDAの話なんだけど、基本的に最小の演算単位は32ビット×32のSIMDで
メモリロード・ストアも、各要素ごとに計算してscattering/gathering機構付きの
ロード・ストアユニットで、
このへんはCUDAのアーキテクチャマニュアルにも載ってる通り。

従来SIMDって基本的に連続的に並べないと性能出ないけど、
CUDAは動的にベクトルを再構成することで、一気に柔軟性が向上した。

逆にこの強力なロード・ストアユニットを載せたせいで、連続したデータに対する
ロードストアの効率が悪くなってね。
一時変数をどっかに置いとこうとした場合にも、32要素ごとにバラバラにアドレスを計算する
scattering/gathering機構つきのロード・ストアユニットに通す羽目になる。
これじゃエネルギー効率的にもよくないでしょ。

んで、レジスタにそのまま保持すればいいじゃないってことで、それで
1つのシェーダコアあたりのレジスタファイルが、32KBとか64KBみたいな巨大なことになってる。
それにしても一般のCPUのL1キャッシュよりレイテンシの大きいレジスタファイルって一体・・・

489:デフォルトの名無しさん
09/03/09 02:50:28
団子の脳みそがx86のアーキテクチャで凝り固まってて、現代風のプログラミングパラダイムについて来れないってことだろ。
あと10年もすればおまえの持ってる小手先業などは博物館の展示資料でしかないし、おまえの能書きなど頑固オヤジの戯言同じなるだろう。
インテルのブログで洗脳されまくっちゃうのもいいけど、アーキテクチャマニュアル云々よりも団子が頭の切り替えをできるかどうかのほうが問題なんじゃないの?

490:デフォルトの名無しさん
09/03/09 02:57:29
現代風のプログラミングパラダイムって何だ?

491:,,・´∀`・,,)っ-●◎○
09/03/09 03:33:26
斜め上をいく愚言に感謝する。

しかしながらscattering/gatheringによる柔軟なアクセスはSIMDの新時代を切り拓くものだ。
実際Intelも2~3年先のSIMD拡張では256ビット、512ビットと幅が広くなってるため、
AoS/SoAの変換をいかに効率よくこなすかがテーマになってくる。
(ちなみにLarrabeeにはscatter/gather命令そのものを導入する)

このへんはむしろCISC的なプロセッサの美学だと思うがね。
AltiVecとかCellのSPEでなら何十命令かかる命令を1命令でこなす。
1クロックサイクルスループットでこなせない命令を実装しないのがRISCだろ。
モダンなCPUではパイプラインの前半部分のほうがALU自体よりもコストがかかるしまってるから
それで処理単位がリッチなCISCのほうが効率がよくなってるわけさ。
このへんは スレリンク(i4004板:76番)あたりと同意見

しかしさ、16要素とか32要素とか、全部バラバラのアドレスだとしてみ?
とてもワーストケースで要素数分だけメモリアクセスが必要だぜ。
RISCの守備範囲じゃねーよ

んで、個人的にCUDAの問題は、scatter/gatherスカラ命令を備えないことなんだよね。
常に32並列単位で演算しないといけない。それで小回りがきかない。
スカラレジスタでアドレス指定するベクトル単位のロード・ストアと
scatter/gather
Larrabeeあたりがまさにこれをやってるわけだが。

> あと10年もすればおまえの持ってる小手先業などは博物館の展示資料でしかないし、おまえの能書きなど頑固オヤジの戯言同じなるだろう。

残念だが俺は流行りものの言語・フレームワークには目がない。
Ruby On Railsとか大好きだし。むしろ高級言語をより効率的に使うためにマシン語レベルで理解する必要があるんだよ。
たとえばさ、LLって性能的にはネイティブマシン語より遅いから、LL向けのJITコンパイラ書きたいとするじゃん。
どうしてもアセンブラの知識は必要なんだよね。もちろん業務じゃないよ。
ということでプロ高級言語er、趣味マシン語er
それでARM語もx86語もそれなりにたしなんでおきたいわけ。

492:,,・´∀`・,,)っ-●◎○
09/03/09 03:37:32
○んで、個人的にCUDAの問題は、スカラ命令を備えないことなんだよね。


493:デフォルトの名無しさん
09/03/09 03:52:38
頑固オヤジの戯言ごとと同じになるだろう。

ニート相手に5行も書くの面倒だから誤字脱字なおすのも面倒だよな。
「CISC的」とかいう概念がもう古いパラダイムってこと。
おまえみたいな純粋な「消費者」の戯言などどうでもいいけど、ストリームなのに128/256bits単位とか全く鼻糞だろ。
ストリーム演算やってるのに、「スカラ演算もやりたい!」「アドレッシング!」という考え自体を改めたほうがいいと思うけどね。

どうでもいいけど、ストリーミング・プログラミングの小技を集めたブログをはよ作ってよ。
C#だとスニペットというんだったか?そういうイディオム集みたいのでもいいから。

494:,,・´∀`・,,)っ-●◎○
09/03/09 03:59:04
Intelの中の人のブログって言っても、本当に自社製品のプログラミングがらみの話題って
月に1回出るかどうかのレベルだぜ
次期Windowsの話題だったり、XMLやLLなんかのWebまわりの技術がどうこうだったり。
中の人の興味のあることが書いてあるって感じだけど、頭の悪い技術系ゴシップサイト
よりはよっぽど為になる。さすが半導体総合メーカーだわって思うわ。

NVIDIAのニュースも購読してたけど本当に自社製品向けのコンピュータグラフィックスのノウハウとか
グラフィックよりの物理演算が中心で、そっち方面はそんなに深入りする気はないので読む価値なしと。
(そっち方面で食ってる人ごめんなさいね)


495:,,・´∀`・,,)っ-●◎○
09/03/09 04:01:57
>>493
> どうでもいいけど、ストリーミング・プログラミングの小技を集めたブログをはよ作ってよ。
> C#だとスニペットというんだったか?そういうイディオム集みたいのでもいいから。
プププププ


496:,,・´∀`・,,)っ-●◎○
09/03/09 04:11:02
ソースコード例文をいんたーねっつで検索してきてコピペをするのが
プログラミングだと思ってる人はそう言うのに本質を求めるよね。
いや、いいんだけどね。
俺とて業務では最高級の言語から低級言語で書かれたライブラリを使わせてもらってる立場だし。

497:,,・´∀`・,,)っ-●◎○
09/03/09 04:43:49
ちなみにマルチコアとかSIMDを使いこなして最適化コード書いたりできる人間は稀少性があるから
長い目でみれば食いっぱぐれしないよ。

今でこそ団塊COBOLerの後釜需要があったりするくらいだし
(徐々にJavaや.NETに置き換わってるので将来性を考えれば微妙だが)

自動並列化ランタイム環境使えばいいとか言うだろ?
そう言う考えの三流プログラマは食いっぱぐれる。間違いなく。
じゃあその並列化ランタイムは誰が書くんだと。書きもしないのに沸いてくるのかと。
最近流行のJavaScriptのJIT部分のコードでも見てみればいい。各CPU用のバイトコードの山だ。

その点、覚えさせれば小学生でも出来るような、コードをコピペして貼り合わせる能力なんて誰が評価するんだよ。
知識が無いと難しい作業こそ高い市場価値がある。

CUDAはまだ市場として育ってないがな。とがってる分、苦手なことが多すぎて。

498:デフォルトの名無しさん
09/03/09 05:31:36
俺の団子が火を吹くぜ!

499:,,・´∀`・,,)っ-○◎●
09/03/09 05:54:25
っていうか、電子の移動度の限界とか云々でクロックが上がらないのでフリーランチ終焉、
SIMDやマルチコアを明示的に使いこなさないと性能出ませんよ
これ以上1スレッドの負荷の重たいソフト書くなよ、なんて、何年も前から言われてることなのに
「価値がなくなる」だとか何を妄言はいてるんだか。
10年後に100GHzとか200GHzとかいくのかよ。
数十コアとか数百コアになって最適化屋の需要拡大することはあっても、縮小することなんてねーよ

要するにSIMD・マルチコア使いは10年先もナウい。パネェ

500:デフォルトの名無しさん
09/03/09 06:07:53
最適化できる奴は別にたくさん要らないよなぁ・・・
結局ライブラリ作って終わりだし。
そういうライブラリがなかったり高額だったら、誰も使わないからあまり流行らないわけで、どんどん忘れ去れていく技術なだけだしなぁ・・・
GPUとは関係ないけど、MSの提唱してる技術とかかなり不発が多くて流行らずに忘れ去れてるの多いでしょ。
(スカラの)マルチコアとライバル関係だけど、運が悪いとGPU(ストリーム)の方が流行らずに終わってしまうことだってある。PCってのはそういう世界だったよな。
どうでもいいけど人柱がんばってよ

501:,,・´∀`・,,)っ-○◎●
09/03/09 06:10:54
せいぜいコードコピペで済む単発案件こなしてなよ
希少価値のある技術には見えないがね。

どっちかというとコピペプログラミングこそ自動化できそうだけどなぁ
お絵かきツールだけでプログラムのフロー書くASTERIAみたいなツールも出てきてるし

502:,,・´∀`・,,)っ-○◎●
09/03/09 06:52:27
既にゲーム業界では下っ端レベルからそういう技術が要求されるようになってるけどね
PS3とか360やってるところなら半ば強制だぜ
脳天気でいられるのは高級言語屋とローエンド組み込みCPUソフト技術者くらい

CUDAは流石に今のポジション以上の普及はないと思うよ
「汎用」ってものをわかってない。

503:,,・´∀`・,,)っ-○◎●
09/03/09 07:00:18
GPGPUの【GP】に関してならLarrabeeに食われるだろうね。
たとえば普通のCを使うとして、たとえばtime.hすら使えないのがCellのSPEなら
CUDAはそれ以前の問題だし

504:デフォルトの名無しさん
09/03/09 07:01:11
スニペットとかコピペってのは、結局コードのモジュール化ってことでしょ。
オブジェクト指向による再利用促進とも言うけど、それは時代の流れって言うよりもう当たり前じゃないのか?
IDEとか便利だし、かゆいところは自分でコード書けばいいんじゃないか。
今の時代、30分で作れるのに一からメモ帳作る奴はよっぽどバカでしょ。

505:デフォルトの名無しさん
09/03/09 07:03:23
ああ抜けてた。

コピペって簡単に言うけど、典型コードの再利用なわけでだからこそメモ帳アプリが30分で作れる威力があるんだけど。

506:デフォルトの名無しさん
09/03/09 07:05:53
そういえば、ム板でコテ名乗ってるのは団子ぐらいしかいないよね?他にいるの?

507:,,・´∀`・,,)っ-○◎●
09/03/09 07:23:14
>>504
コピペの単純工程をやるプログラマもいれば
ライブラリを書くプログラマもいるわけで

法律事務所のアルバイトと弁護士くらいの格差は出てくるかもね
いや、既に出来てるか

508:デフォルトの名無しさん
09/03/09 09:07:28
>>505
使い回しでメモ帳に30分ってかかりすぎだろ。3分でやれよ。
テキストコントロール配置してファイル読み書き機能付けるだけで終わりだろ
IDEの雛形だけでほぼ完成なんだからさ

それともGREP機能でも搭載するのか?

509:デフォルトの名無しさん
09/03/09 09:12:15
30秒だろ

#include <stdlib.h>
int main(void) { system("notepad.exe"); return 0; }


再発明する価値もない。

510:デフォルトの名無しさん
09/03/09 09:20:05
無いものを作る、あるいは既にあるものをより良くすることに知的労働の価値があるわけで
劣化コピーの再発明で金とるなど馬鹿の所業だろ。

511:デフォルトの名無しさん
09/03/09 09:42:01
>>509
ワロタw

512:デフォルトの名無しさん
09/03/09 10:28:29
30分で作れる程度のエディタなんて誰も使いたくないな

513:デフォルトの名無しさん
09/03/09 12:06:54
なんでおまえらはそのうちいい情報を提供してくれそうな人を叩くんだよ

514:デフォルトの名無しさん
09/03/09 12:13:14
いい情報を提供するのが自分じゃないと気がすまないからさ。
そのために全体が遅延しても問題なし。

515:デフォルトの名無しさん
09/03/09 12:28:58
CUDAは既存の一握りのプログラムの再発明のためデバイス・言語処理系だろ。
性能はともかく効率CUDAでできることは普通のCPUでもできる。
より高いスループットを得るためにこそある。
プログラミング対象を選ぶし、性能を出すには工夫がいる。

テキストエディタの話じゃないけど、生産性を言い訳にして自分で創意工夫が出来ない奴には不向き。

516:デフォルトの名無しさん
09/03/09 12:38:56
,,・´∀`・,,)っ-○◎● に嫉妬してるだけじゃね?

517:デフォルトの名無しさん
09/03/09 13:34:37
まぁ、団子は必ずしも間違ってはいないからな。
CUDAに未来はないかもしれないけれど、OpenCLはAMDも担いでいるからもう少し生き延びるだろうし。

518:,,・´∀`・,,)っ-○◎●
09/03/09 19:05:27
OpenCL(笑)

なんかの魔法の言語のように思ってないか?
OpenCLは「GPU版Java」じゃない。
共通化されてるのは言語の基本仕様の部分だけで、細かいところは処理系依存。

んでもって、CUDAやCAL/Brook+のプログラミングの敷居を高くしてるのは言語処理系じゃなくて
少ないスクラッチパッドメモリとレイテンシの大きいメモリと
やたら小回りが利かないベクタ演算ユニット、その他諸々のGPUのパイプライン・・・
要するにシェーダコアの構成そのものにあるのであって、それが解消されない限り
CPUを置き換えて普及していくことなどあり得ない。

普通のCPUと同じ定番言語のC/C++言語をまがりなりにもサポートしてるのに
業界の評価のお寒いCellを見れば、課題は言語じゃなくて汎用プロセッサとしての
柔軟性にあることくらいわかるだろ?

その意味、OpenCLを効率良く実行できるのはよりCPUに近いLarrabeeだと思うよ。
というか本質的にOpenCLなんて要らない。
どうせCellなんかと同じくハード専用にカリカリにチューニングしなきゃいけないんだし。

519:デフォルトの名無しさん
09/03/09 19:35:29
>>518
世の中それほどぎりぎりのチューニングまではしないけどちょっとは速く走って欲しいなんて用途が結構あるのよ。
で、私自身はOpenCLはAMDが必死こいてアピールしているだけで実際には普及しないと思っているのよね。
どうせLarrabee出て来る頃にはCtも来ているだろうから、NVIDIAもAMDも青息吐息でしょ。

まぁ、CUDAスレなんだからLarrabeeの待つ未来を語るのは程々にしましょ。

520:,,・´∀`・,,)っ-○◎●
09/03/09 19:58:15
期待してなんか無いよ。
Cellと同じくニッチ市場を食い合うだけ。

521:デフォルトの名無しさん
09/03/09 20:55:32
ゲーム屋の意見としては、SPUの数とメモリが倍あったらCellも悪くないと思う。
あとはメモリのバンド幅か。
柔軟性もあったら嬉しいけどね(整数や分岐とか)。

522:デフォルトの名無しさん
09/03/10 04:01:00
>期待してなんか無いよ。
おっと、だんごさんの悪口はそこまでだ

523:デフォルトの名無しさん
09/03/11 03:05:50
>やたら小回りが利かないベクタ演算ユニット、その他諸々のGPUのパイプライン・・・
Crayだってそうだったじゃん。Personal CrayとしてCUDAは良く出来てると
思うけど。
メモリの不自由な階層は何とかしてくれ、と思うけど。Cray同様、IPも持って
一般I/Oも出来て欲しい。
あと出張先でデモ出来るように、CUDAの動くnVidia GPU載ったサブノート
が出てくれないと…。学会発表しようにも、デスクトップ担いで持参しなきゃ
ならんってのは勘弁。

524:,,・´∀`・,,)っ-○◎●
09/03/11 03:24:55
つ[Asus N10]

525:デフォルトの名無しさん
09/03/11 11:31:57
つ[新Mac Book]

526:,,・´∀`・,,)っ-○◎●
09/03/11 22:47:25
いや、でも、アカデミック畑の人の求める特化型プロセッサって一般のニーズとかけ離れてると思うよ。
CellやGRAPE-DRでワードやエクセルが動くかっつーの。

当たり前だけどアカデミック色の薄いアプリケーションって書く人少ないのよね。
サンプル探しにCUDA-Zone逝っても「なんとか論文ps.gz」みたいなのしかないし

527:デフォルトの名無しさん
09/03/11 23:01:58
ここにアカデミック色の殆どないアプリケーションを書いている人が居るんだが、
残念なことに特定用途向けだし契約の都合もあるんで公開できないんだわさ。

528:デフォルトの名無しさん
09/03/11 23:04:35
アカデミック色って例えば何?
ブラックホールのシミュレーションとか?

529:,,・´∀`・,,)っ-○◎●
09/03/11 23:08:18
俺も書いてたよ
NVIDIAの営業さんじきじきに頼まれたがめんどくさくなった

530:,,・´∀`・,,)っ-○◎●
09/03/11 23:09:07
>>528
そういえばGRAPEのコミュニティではCUDAはやたら受けが良いらしいね。

531:デフォルトの名無しさん
09/03/12 19:48:28
>>523
モバイルCUDA環境が欲しくてN10jc買った
性能は
./nbody -benchmarkで16.472GFLOP/s
./nbodyでタイトルバーにでるやつだと80GFLOP/sくらい

532:,,・´∀`・,,)っ-○◎●
09/03/12 21:20:13
割と出るんだね

大学時代にやった熱力学シミュレーションのレポートをまた引っ張り出してきてCUDAで実装してみるかな。
Rubyで書いたらアホみたいに遅くてC++で書き直した覚えがある。

533:デフォルトの名無しさん
09/03/13 01:33:06
Rubyで書いてCより性能でればいいのにね。無理言うなって感じだが

534:デフォルトの名無しさん
09/03/13 01:52:39
アルゴリズムが悪いんじゃないの。

535:,,・´∀`・,,)っ-○◎●
09/03/13 01:58:40
まさに「グリッド」(格子点)だよ。
アホみたいに並列化しないと性能出ないCUDAには向いた問題

536:,,・´∀`・,,)っ-○◎●
09/03/13 02:20:43
RubyはCでかかれたインタプリタであって、
1語句ごとにループ・switch文で処理を行う以上
それ自体の致命的な遅さはどうしようもない。

YARVとかJRubyなら多少速いかも知れんが
本家はまだJIT以前の問題だし。
Matz氏はXbyak見て「いずれは考えなきゃいけない」的なこと言ってたんだけどね。

537:デフォルトの名無しさん
09/03/13 02:50:22
団子の中の人って、大学逝ってたんだ。

>>531
意外とやるな。電池で動いてそれなら上出来だと思う。
ARM+DSPでは桁違いに負けてると思う。しかし、所詮
ネトブクに毛が生えただけなのに、ThinkPad Xシリーズ
より重いのか。
Linux対応はどない? EeePCのLinux対応はすこぶる良
かったから期待してるのだが。

538:デフォルトの名無しさん
09/03/13 08:17:53
>>537
CentOS5.2はおk
サウンドは自分でドライバ当てる必要あり
無線LANは認識してる
(ドライバ入れてないから使えるかどうかは不明
あとはカメラと指紋認証が使えないくらい

他の鳥は試してないからわからん

BIOSでHT切れないのが気持ち悪い

539:デフォルトの名無しさん
09/03/13 10:27:16
>>537
金を気にしないならネットブックは辞めたほうがいい。
1024x600は割と不便。

EeeUbuntuなら、最初からEeePC向けのカメラやBluetoothの設定ユーティリティが
インストール済みだが。

540:デフォルトの名無しさん
09/03/13 22:33:58
>Matz氏はXbyak見て「いずれは考えなきゃいけない」的なこと言ってたんだけどね。

いつ?

>YARVとかJRubyなら多少速いかも知れんが
>本家はまだJIT以前の問題だし。

YARVはすでにRuby本家だけど?

541:,,・´∀`・,,)っ-○◎●
09/03/13 22:38:08
>>540
URLリンク(www.rubyist.net)

542:デフォルトの名無しさん
09/03/13 22:41:31
参考になるかもしれない、じゃん

543:デフォルトの名無しさん
09/03/13 23:25:23
>>541
リンク先読んだが、Xbyakじゃなくて「Gecko 3.0にはJIT付きJavaScriptエンジンが添付されるということだが」が、将来の参考になるという風にしか読めないんだが・・・
2007年の時点なら、Matz氏がRuby用のJITについて参考にするという文脈なら、XbyakじゃなくてYARVのJITが暗黙でしょ。


544:,,・´∀`・,,)っ-○◎●
09/03/13 23:50:07
別に"へるみエンジン"を検討してるなんて言ってないが
「JIT」としか言ってねーよ

545:デフォルトの名無しさん
09/03/14 00:21:40
JITじゃなくて、「「いずれは考えなきゃいけない」的」と「参考になるかもしれない」は違うだろって話でしょ?
あと、
>YARVはすでにRuby本家だけど?
についてはノーコメントのなの?

546:,,・´∀`・,,)っ-○◎●
09/03/14 00:33:17
YARVはJIT実装があったろ?
あれこそ亜流だけど

547:,,・´∀`・,,)っ-○◎●
09/03/14 00:39:52
>>545
ちなみにYARVとか鬼車のJITは環境非依存の中間コードに変換するだけであって
CPUネイティブじゃないよ。
んで更にそのバイトコードをインタプリタで動かしてる。

ネイティブコードのJITに言及したのは↓だけ

> _ [言語] IA32(x86)JITアセンブラ Xbyak

548:,,・´∀`・,,)っ-○◎●
09/03/14 00:41:52
ま、Rubyが動かせそうなGPUはLarrabeeが最初で最後だろうな

549:デフォルトの名無しさん
09/03/14 01:01:14
いつJITの実装の話になったんだ。
話そらすのが上手いなww

そもそもMatz氏はXbyakについて「「いずれは考えなきゃいけない」的」な事は言ってないので(参考にするのはGecko 3.0の方)、>>541以降のお団子さんのコメントは見当違い。


550:,,・´∀`・,,)っ-○◎●
09/03/14 01:08:02
Xbyakを採用するなんて俺は言ってないし君が勝手に勘違いしただけでしょ

551:,,・´∀`・,,)っ-○◎●
09/03/14 01:14:17
もともとはRubyがC++よりクソ遅いって当たり前の話だろ。
スクリプト言語が静的コンパイル言語を超えられる訳がない
それだけのことよ

552:デフォルトの名無しさん
09/03/14 02:39:35
団子、いい加減にしろ。最近のお前はオカシイぞ。
形式言語より、日本語勉強し直せ。マジで。
コミュ力無さ過ぎ。

553:,,・´∀`・,,)っ-○◎●
09/03/14 02:50:01
自分が思考短絡してるのを棚に上げて他人を避難するヴァカがいると聞いて

554:デフォルトの名無しさん
09/03/14 03:08:30
自己紹介、乙。
そんなヴァカ呼んでないから、「避難」してこい。

555:デフォルトの名無しさん
09/03/14 04:45:16
テンプレ入りか
> Matz氏はXbyak見て「いずれは考えなきゃいけない」的なこと言ってたんだけどね。


556:デフォルトの名無しさん
09/03/14 04:46:34
コテ団子の相手はするな。キチガイになっちまうぞ!

557:デフォルトの名無しさん
09/03/14 05:44:29
>>553
自分の技術力をいくら上げても、無責任な発言ばかりしていると誰も君のことを信用しなくなるよ。気をつけたほうがいいと思う。

558:,,・´∀`・,,)っ-●◎○
09/03/14 11:15:53
「JIT」について話してるのに
一番近くにある単語「Xbyak」を「検討」ということにしたがる思考短絡ぶりがゆとり脳

559:,,・´∀`・,,)っ-●◎○
09/03/14 11:18:59
Matz氏はXbyak見て(JITの仕組みを)「いずれは考えなきゃいけない」的なこと言ってたんだけどね。

これでいいかな?


560:,,・´∀`・,,)っ-●◎○
09/03/14 11:46:40
温度分布の立体グラフをExcelでプロットしたいんだが、なんかいい方法ある?
俺もゆとりだからCSVで吐き出して読み出すとか原始的な方法しか思いつかない

561:デフォルトの名無しさん
09/03/14 12:10:49
隔離スレなのか、ここはw

562:デフォルトの名無しさん
09/03/14 15:18:59
>>560
Excelなんかを使いたいなら、csvでいいんでない?

つーか、団子もそれに噛み付く奴も自分の言葉が足りてないことに気付けよ。

563:デフォルトの名無しさん
09/03/14 18:37:07
ここはグダスレじゃないぽ

564:,,・´∀`・,,)っ-○◎●
09/03/14 18:39:25
くだをまくスレです

565:デフォルトの名無しさん
09/03/14 20:57:56
どのスレでもゆとり脳の団子が来ると荒れる。
そして人がいなくなる。

566:デフォルトの名無しさん
09/03/14 21:02:45
まだゆとりがどうのこうの言ってる時代錯誤な奴がいるのか

567:デフォルトの名無しさん
09/03/14 21:06:25
おまえはヒマになると2ch開いてるだろ?w

568:デフォルトの名無しさん
09/03/14 21:29:38
お前は○○だろ

↑↑自分がそうだから他人も同じだと思っている奴の決まり文句

569:デフォルトの名無しさん
09/03/15 01:33:02
○○な>>568


570:デフォルトの名無しさん
09/03/16 00:57:27
Vista x64
Device 0: "GeForce 9600M GT"
4096 bodies, total time for 100 iterations: 663.110 ms
= 2.530 billion interactions per second
= 50.602 GFLOP/s at 20 flops per interaction

571:デフォルトの名無しさん
09/03/27 14:21:17
>>567
暇じゃなくても開いてるわボケ

572:デフォルトの名無しさん
09/03/27 14:35:28
忙しいときほど2ch開いちゃう、ふしぎっ

573:デフォルトの名無しさん
09/03/30 08:24:15
■後藤弘茂のWeekly海外ニュース■
KhronosがGDCでGPUやCell B.E.をサポートするOpenCLのデモを公開
URLリンク(pc.watch.impress.co.jp)

574:デフォルトの名無しさん
09/04/02 02:16:00
素人質問で恐縮ですが……
Tesla C870を手に入れたのでCUDAで画像処理をしようとしているのですが、
CUDAでテクスチャフィルタリングユニットの機能を使うにはどうすればいいですか?
○○の○ページを嫁!で構いませんので、教えて下さい。

575:,,・´∀`・,,)っ-●◎○
09/04/02 02:20:44
tex.filterMode = cudaFilterModePoint;

576:デフォルトの名無しさん
09/04/02 05:33:53
>Tesla C870を手に入れたのでCUDAで画像処理をしようとしているのですが、
あー、8800GTXからアナログ回路を減らしてメモリを増やした、最早今となっては1万円ちょっとで買える
8800GTと数割程度しか能力の変わらない癖に値段は10倍以上と言う代物ですね。

テクスチャ関係は私はやってないからお役に立てませんがw

577:デフォルトの名無しさん
09/04/02 19:49:08
MV探すのに16x16のSADをCUDAで計算してるんだけど、なんでこんなに遅いんですか?

578:デフォルトの名無しさん
09/04/02 23:51:01
組み方が悪いんでしょ。

579:デフォルトの名無しさん
09/04/03 00:09:14
SADするのに、組み方どうこうとかあるんですか?
テクスチャ使ってるのに、なんかキャッシュミス多い感じだし。。。

580:デフォルトの名無しさん
09/04/03 00:29:06
>>575
ありがとうございます。
cudaFilterModePointでググったら、それらしいものが見つかりました。
URLリンク(forum.nvidia.co.jp)
これから勉強します。

581:デフォルトの名無しさん
09/04/03 10:15:13
>>579
コードも晒さず、自分の無知を曝け出し、文句だけ言うなんて、馬鹿なの?

582:デフォルトの名無しさん
09/04/08 12:16:06
なんでこう沸点低いの?馬鹿なの?

583:デフォルトの名無しさん
09/04/14 20:59:29
ION採用ミニデスクトップAcer AspireRevo、オンライン予約開始
URLリンク(japanese.engadget.com)

584:デフォルトの名無しさん
09/04/15 18:41:51
Mac用の2.1ってツールちゃんと入ってる?

585:デフォルトの名無しさん
09/04/16 23:29:47
誰かN10JでCUDA使ってる人いる?
N10Jにtool kitインスコしようとすると失敗するんだけど。。。

586:デフォルトの名無しさん
09/04/18 23:08:34
今、ブロック数を増やして並列度をあげてみるといったことを
作った行列の積の計算にあててみようと思ったんだが

URLリンク(tech.ckme.co.jp)
に書いてるブロックを複数使った場合の問題は、カーネル内でブロック間の同期を
とる方法が存在しない点である。そのため、下記のプログラムでは、1回計算するたびに、
カーネルを終了し同期をとっている。

というのは1回毎の計算をホストにコピーしてやりたい回数分ループさせるというので
いいのかな?

587:デフォルトの名無しさん
09/04/19 00:37:24
>>586
いちいちホストにデータ転送してたら時間もったいないでしょ?

つか参考にしてるページ見たけど、かなり酷いコードなんだが。。。
>>586が何をしたいかが具体的に判らないから、アドバイスしづらい。

588:デフォルトの名無しさん
09/04/19 02:08:47
1ブロックの最大スレッド数を使った計算じゃ、GPUの処理速度がCPUに対して上回らなかったので
ブロック数を増やして計算しようと思ったんですが、1ブロック制限に到達した時、どうやって次のブロックに
移動すんのかが、記述の仕方がかなりよくわからないんです。

dim3 grid(16, 1, 1);
dim3 threads( 512, 1, 1);

testKernel<<< grid, threads, mem_size*2+sizeof( float)*2 >>>( d_idata, d_odata);

カーネルのほうの計算にこの値を元に何か記述すればいいとはわかってるんですが・・・
何か参考になるとこありませんか?

589:デフォルトの名無しさん
09/04/19 03:34:08
>>588
大いに勘違いしている希ガス。
先ず第一に、>586のサイトは参考にならない。
第二に、スレッド数は必ずしも多いほど速いと言う訳ではないし、共有メモリは使わないで済むなら使わない方がいい。
第三に、行列の積の計算なら、NVIDIAのプログラミングガイドにそれなりのサンプルがある。

590:デフォルトの名無しさん
09/04/19 21:23:36
>>589
レスサンクス、ガイドとSDKもう一回見てきます

591:デフォルトの名無しさん
09/04/20 22:01:56
CUDAスレって何でこんなに勢いが弱いの?


592:デフォルトの名無しさん
09/04/20 23:13:01
ぶっちゃけ2年後位には廃れてると思うからやる気がしない
日本語資料少ないし

.netでもやってる方がつぶしがきく


593:デフォルトの名無しさん
09/04/21 14:56:41
そうか、GPGPUだと他にまともな環境はないだろ

594:,,・´∀`・,,)っ-○◎○
09/04/21 20:06:27
GPUにこだわる意味がないっていう

595:デフォルトの名無しさん
09/04/21 20:59:48
みんなcellで思い知っただろ?
そういうことだ。

596:,,・´∀`・,,)っ-○◎○
09/04/22 05:34:39
.NETかGPGPUか選べる立場なら前者でいいんでない?
宗教上の理由でGPUの中でしか選択できない人がいるのももちろん知っております

597:,,・´∀`・,,)っ-○◎○
09/04/22 05:44:26
強いて言えばOpenCLか?
URLリンク(www.nvidia.com)

598:デフォルトの名無しさん
09/04/22 12:06:34
ドトネトなんてLinuxで動かないじゃん。
*BSDでも動かない。糞。

とにかくGCCで動くようにしろよ。話はそれからだ。

599:デフォルトの名無しさん
09/04/22 16:21:07
.NETはmonaで動くだろ

600:デフォルトの名無しさん
09/04/22 16:25:47
モナー

601:デフォルトの名無しさん
09/04/22 17:03:27
.NETはMONOで動くが、GCCで.NETアプリってコンパイルできたっけ?

602:,,・´∀`・,,)っ-○◎○
09/04/22 22:19:21
CUDAかC#かって、ベクトルが全然別ですがな

>>601
Mono入れたらmcsってコンパイラが使えるようになるはずだが。。。
貴殿はGCCに入ってないという理由でPerlやPHPをも嫌うのですか?

603:デフォルトの名無しさん
09/04/22 22:45:40
問題はなぜこのスレは勢いがないのかってことだ

604:デフォルトの名無しさん
09/04/22 23:07:34
CUDAとOpenCLの認識の仕方として、
抽象レイヤ的にこんな感じかな??

APP
--------
C/C++
--------
OpenCL
--------
CUDA
--------
driver and runtime

605:,,・´∀`・,,)っ-○◎○
09/04/23 06:04:45
>>603
見た目簡単そうに見えて実は使いづらくて、本質はCellよりも更に応用分野は厳しいからね。

「CPUの数十倍とか言ってたけど全然遅いじゃん!」で、使い方を理解しないままみんな匙j投げる
いや、使い方がわかったところで、その正しい使い方が、本質的に目的のアプリケーション向きじゃなかったり。

606:デフォルトの名無しさん
09/04/23 07:22:35
そうそう、その演算だけに絞れば確かに速いんだけど、アプリケーション全体で見るとXeonに勝てなかったりね。
ボードメーカ側も自覚しているらしく、私の客先でのCUDA開発は2チップGPUボード4枚挿しするところまでいってしまっているし。

607:デフォルトの名無しさん
09/04/23 09:11:40
どうせララビーも期待外れに終るさ

608:デフォルトの名無しさん
09/04/23 16:09:19
nv社員乙w

609:デフォルトの名無しさん
09/04/23 20:57:12
Larrabeeは、たかがx86、されどx86だな

Atomに毛が生えたような小規模なx86コアが数十コアあったら何が出来る?
汎用プロセッサとしては程度が知れてる分、逆に落胆しようがない。
良くも悪くも身の丈以上の期待はされてないからな。


610:デフォルトの名無しさん
09/04/23 21:20:24
流れをぶった切るが
GeforceはCELLより変態的な構造って認識でおk?

611:,,・´∀`・,,)っ-○◎○
09/04/23 21:43:53
餅は餅屋

612:デフォルトの名無しさん
09/04/23 23:47:54
色々調べて見たけど結局CUDAのsuper piはまだ出てないんだな
CPUとGPUの比較が出来ると思ったのに

613:デフォルトの名無しさん
09/04/24 05:23:51
むしろスーチーパイがもっとリアルにぬるぬる動けば…

614:,,・´∀`・,,)っ-○○○
09/04/24 06:37:53
>スッチーのπ
まで読んだ





とりあえずPTXの自己コンパイルは最低限だろ

どっかの営業さんが言うにさ
「たとえCPUより速くなくとも、CPUでやってる仕事を肩代わりしてやることが
出来るだけでも使う価値があるんじゃないでしょうか」

いや、それのお膳立てのためにCPU時間食うから本末転倒なのよ。

615:デフォルトの名無しさん
09/04/24 06:44:16
>「たとえCPUより速くなくとも、CPUでやってる仕事を肩代わりしてやることが
>出来るだけでも使う価値があるんじゃないでしょうか」

そういうことを臆面もなく語る営業マンを一人知っているんだけどw
同一人物と考えてよさそうだな。

616:デフォルトの名無しさん
09/04/25 00:58:56
肩代わりしてやるなんて大それたことを無理に言い張るから、おかしくなるんだよね。
重要なのは、CPUとGPUとが各々の得意分野を担当し、住み分けをすることだろう。
GPUは汎用計算に向いていないのだから無理にGPUを使わずCPUを使えばいいし、
3Dゲームや科学技術計算などGPUの方が効率的な計算でGPUを使えばいいんだよ。

いわゆるアインシュタインとタイピストの喩えだ。
アインシュタインが優れた物理学論文を清書してもらうためにタイピストを雇ったら、
なんとまあそのタイピストよりアインシュタインの方がタイプが速かったとしよう。
じゃあ、そのタイピストを解雇すべきか?答えは否だ。タイプはタイピストに任せ、
アインシュタインは少しでも長い時間、優れた物理理論を考え出すことに費やすべきだ。
それが最も効率がいい。

617:デフォルトの名無しさん
09/04/25 01:48:13
>>615
営業ならだいたい同じこと言うんじゃねぇか?

618:デフォルトの名無しさん
09/04/25 03:57:19
>>616
>答えは否だ。
いや、答えは科研費の額によるだろうw

619:デフォルトの名無しさん
09/04/25 05:08:45
>>616
タイピストに指示だすのに、タイプするのと同じような時間がかかるから問題なんじゃね?

620:,,・´∀`・,,)っ-○○○
09/04/25 06:42:29
清書する段階で更に考えても無駄だろう

621:デフォルトの名無しさん
09/04/25 15:20:06
CPUを管理職、GPUを部下に例えてみよう。
CPUからGPUへの指示の中身が足りなかったりすると
CPU-GPU間のやりとりが増えてしまい遅くなる。
CPUから指示する内容がGPUの能力を超えると
なかなか結果が返ってこない。

逆にCPUの能力が低いとGPUへの指示や対応が遅くなる。
GPUの仕事に信用がおけないとCPU側でのチェックが
必要となり負荷となる。
GPUはCPUほど守備範囲は広くないし経験も少ない。

よいCPUやGPUを入手するには予算が必要である。
またCPU、GPUを動かし続けるには経費がかかる。(電気代、冷却設備)
あまり負荷をかけるとうるさくなったり、たまに壊れたりする。
overclockによる故障は保証の範囲外であることに注意。

622:デフォルトの名無しさん
09/04/25 15:22:15
GPUのIPコアが強化されれば良いんだが。
それをしようとして、intelに待ったを掛けられたんかな。

623:デフォルトの名無しさん
09/04/25 16:40:02
チップセットのバスライセンスと何の関係が?

624:デフォルトの名無しさん
09/04/25 18:21:57
たとえ話にすると細部の理解が必要ないから生半可な知識でも初心者が騙せて優越感に浸れてうめぇw

っていつも思う。

625:デフォルトの名無しさん
09/04/25 21:11:34
CPUとGPUは、お互いに交わる方向で
じきに差は無くなるんだろ
GPUいらねでおわりじゃねーの

626:デフォルトの名無しさん
09/04/25 21:13:38
昔GPGPUスレに書いたが、別のパラメータで同じコンテキストの処理をするようなときに
高速に処理できるのがGPUの利点。
別々のコンテキストが必要なら、丁度良いマルチプロセシングの環境を探しなさい。

どちらも歩み寄っているようだけど、ゲーム屋的には、現行世代機的なトランジスタ
バランスのマシンが次世代にも欲しいところ。

627:626
09/04/25 21:15:48
>>625
似たようなコストで作れるならな。
見当付いてるなら特許とって今すぐ始めるのがいいぞ。

628:,,・´∀`・,,)っ-○○○
09/04/25 22:56:05
GTX280って28SMじゃなかったか?

629:,,・´∀`・,,)っ-○○○
09/04/25 22:57:21
260のほうか
280は30か

630:デフォルトの名無しさん
09/04/26 17:16:50
>>619
常識的に考えてそんなことは起こらんだろ。
仮にタイピストに指示だすのにタイプするのと同じくらい時間がかかるなら、
それはこの喩えが適用できないケースだってだけの話だろう。

GPUに命令だすのにGPUで計算するのと同じくらいCPU時間がかかるなら、
そりゃGPUを使うのが不適切なケースだってだけのこと。

>>620
いや、清書してもらうのは既に考え出した理論であって、アインシュタインは
タイピストが清書してる間に次の理論を考えるんだよ。

631:デフォルトの名無しさん
09/04/26 17:24:31
たとえ話にすると細部の理解が必要ないから生半可な知識でも初心者が騙せて優越感に浸れてうめぇw

っていつも思う。

632:,,・´∀`・,,)っ-○◎○
09/04/26 17:34:27
>>631に全面的に同意

633:デフォルトの名無しさん
09/04/26 18:23:11
>>624
>>631

634:デフォルトの名無しさん
09/04/26 23:38:55
>>625
ジョンカーマックが昔言ってたわな。それ。
ま、今は宇宙大好きっ子になっちまったが。

635:デフォルトの名無しさん
09/04/27 01:38:03
>>630
GPUを使うのが不適切なケースばっかりなのが問題。

636:デフォルトの名無しさん
09/04/27 09:13:30
アインシュタインは一人しかいないけど、CPUとGPUがアインシュタインとタイピストのような関係なら、
CPU増やせばいいんじゃね?無理にGPUにしなくても。

637:,,・´∀`・,,)っ-○○○
09/04/27 21:24:06
なんにも出来ないのになんでも出来ますと宣伝してるから問題なわけで。

638:デフォルトの名無しさん
09/04/28 09:16:56
そらあんた、ドラッグレーサーをそれなりに走らせるためには適当なコースとそこまで運ぶためのトランスポーターと
燃料などの消耗品が必要になりますがな。

>>638
>631

639:デフォルトの名無しさん
09/04/28 12:52:26
>>637 団子
自己紹介、乙。

640:,,・´∀`・,,)っ-○○○
09/04/28 21:36:19
だんごやさんだよ
だんごせんもんてんだよ

641:デフォルトの名無しさん
09/04/29 15:05:31
AviUtlがCUDAに対応するのを待つか…

642:デフォルトの名無しさん
09/04/30 21:33:03
某フィルタでシェーダで書いたより遥かに遅くて駄目だしされたような

643:デフォルトの名無しさん
09/05/03 00:16:21
今日、CUDASDK入れてみた。CudaSetup-2.1とNVIDIA_SDK10_CUDA_2.10の入れる順番なのか
環境変数でコンパイルエラー、何度かやっているうちになんとか、サンプルが起動できるようになった。
SDKのサンプルはどこにインストールしているんだ アホか C:\に持ってきた。
サンプルへのパスを追加してやっとコンパイル、起動できた。



644:デフォルトの名無しさん
09/05/03 00:24:59
>>643
2.1のサンプルって意味不明なとこおかれるよね。
VistaのUAC対策かと勝手に思ってるけど。

645:デフォルトの名無しさん
09/05/03 06:12:04
NVIDIAは昔っから何でもそう。
ドライバも一旦C:\に展開してからインスコしてくださりやがる。
まぁ、GCCやそれ用のライブラリが、スペースの入ったパスを
嫌うからかも試練。

646:デフォルトの名無しさん
09/05/04 00:48:26
2.0はちゃんとProgram Files配下に置かれてたよ。

647:デフォルトの名無しさん
09/05/04 23:00:36
>>635
GPUはゲームや科学技術計算では実績をあげているので、
不適切なケースばかりではないだろう。

>>636
アインシュタインという不世出の天才物理学者と
タイピストという(当時は)いくらでもいた職業を
比較しているのが、この喩えの肝なんだよ。

CPUのコアを1個増やすより、GPUのSPを1個
(10個でもいい)増やす方が、ずっと簡単だろう。

648:,,・´∀`・,,)っ-○○○
09/05/04 23:23:48
別にCPUコアなんて年間何億個でも量産できるだろ

649:デフォルトの名無しさん
09/05/05 05:38:26
タイピストが何人もいても意味無いだろw

650:デフォルトの名無しさん
09/05/05 22:12:00
こんなコア橋の下に捨てますよ!

651:デフォルトの名無しさん
09/05/06 08:41:31
Compute Capability 1.3 の GeForce って、GTX だけ?
GTS とかはだめなの?
ファンがうるさいのはやだな~


652:デフォルトの名無しさん
09/05/06 12:29:08
GTSは9800シリーズのリネーム

653:デフォルトの名無しさん
09/05/09 23:52:17
初歩的なこと聞くけど、これってグラボ一台でもできるよね?
表示用と別にCUDA専用のグラボって必要?

654:デフォルトの名無しさん
09/05/10 06:05:44
>>653
その程度が分からないと厳しいかと思いますよ。
分からなくても、やってみて駄目だったら買い足すってことで問題ないと思うけど。

655:デフォルトの名無しさん
09/05/10 12:20:36
>>653
URLリンク(ja.wikipedia.org)

656:デフォルトの名無しさん
09/05/10 18:27:35
>>655
赤くなっている。。。
GTS250持っているからできると思ったんだけど、二台必要なのかな?
GPUGRIDに参加しようかと思ったらドライバ入れてるのにCUDA対応のデバイスが見つかりませんっていわれるし・・・・。

657:デフォルトの名無しさん
09/05/10 20:56:39
1台でも使える。
ただ処理中に画面が固まってOSが制御不能になることがある。

658:デフォルトの名無しさん
09/05/10 21:24:34
>>657
うーん、CUDAがちゃんと入ったかどうか確認する方法ってありますか?

659:デフォルトの名無しさん
09/05/11 15:35:15
PyCUDAなんてあるのか、おもしろそう

660:,,・´∀`・,,)っ-○◎●
09/05/11 20:57:31
RuCUDAが必要だな

661:デフォルトの名無しさん
09/05/11 21:41:12
>>656
参加したいGPUGRIDがどんなのか分からんが、
もし、倍精度浮動小数点の演算が必要なものなら、
GTX200シリーズじゃないと無理。

ちなみに、モニタがつながっているかPhysX指定がされてないと、
CUDAでデバイス列挙されないぽい。

662:デフォルトの名無しさん
09/05/12 01:29:13
Py損とかルビィとか手続き型スクリプト言語は向かんだろ。
ocamlとか、Earlangとかの関数型言語をGPGPU対応に
した方が御利益は大きいんじゃね?

並列計算の場合、副作用とか、計算の依存関係が有ると
性能出ないんで…。

663:デフォルトの名無しさん
09/05/12 22:31:21
Earlang(笑)

664:デフォルトの名無しさん
09/05/16 00:29:01
統計解析ソフト「R」用のパッケージ「gputools」:
URLリンク(cran.r-project.org)

これのWindows版バイナリを作ってくださるネ申はいらっしゃいませんでしょうか。 m(゚-゚;)カミサマ…

665:デフォルトの名無しさん
09/05/16 10:27:22
>>660
こんなのはあるみたいですが
URLリンク(ruby-opencl.rubyforge.org)


666:デフォルトの名無しさん
09/05/18 17:38:13
GPUの計算部分で
レジスタを多く使っちゃうようにコンパイラで最適化されちゃうんだけど
部分的に無効にする方法はありませんか?

667:,,・´∀`・,,)っ-○○○
09/05/18 20:36:57
volatile

668:デフォルトの名無しさん
09/05/18 23:05:56
>>667
?volatileは最適化から外すだけで、レジスタには適応されるっしょ

つか>>666 のレジスタ使ったら嬉しくない事ってのが想像できない。。。

669:デフォルトの名無しさん
09/05/18 23:42:16
>>648
SPだって年間何億個でも量産できるけど。

>>649
誰も、GPUを何個も用意しろとは言ってない。

670:,,・´∀`・,,)っ-○○○
09/05/18 23:56:12
>>668 volatile __shared__

671:デフォルトの名無しさん
09/05/19 09:21:51
>666の動機によっては__shared__では何の解決にもならないような。
確認していないけれど、恐らくレジスタを使い回さずに消費しまくる方が速いんだろうねぇ。

672:デフォルトの名無しさん
09/05/26 14:36:24
SP2+未公開パッチで7RC以上に軽くなってるよ

Windows Vista SP3 Part1
スレリンク(win板:225番)

673:デフォルトの名無しさん
09/05/26 14:38:56
ゴバーク

674:デフォルトの名無しさん
09/05/29 18:11:27
SSE 4コアフルに使ったら
最上位品でも大差ないw

675:デフォルトの名無しさん
09/05/30 15:06:57
URLリンク(code.google.com)
>Thrust is a CUDA library of parallel algorithms with an interface resembling the C++ Standard Template Library (STL).

676:,,・´∀`・,,)っ-○○○
09/05/30 18:16:26
きた!STLきた!これで勝つる!  


ないない

677:デフォルトの名無しさん
09/05/30 21:28:10
brookみたいだな。

678:デフォルトの名無しさん
09/06/02 17:20:15
仮想マシン上でCUDAのインストールに成功した方はいらっしゃいますか?
当方、ホストOS:Vista、ゲストOS:Ubuntu8.04です。
仮想マシンであるUbuntu上で、NVIDIAドライバ: NVIDIA-Linux-x86-180.22-pkg1.runを起動してみました。
すると、「 You do not appear to have an NVIDIA GPU supported by the 180.22 NVIDIA Linux graphics driver installed in this system」とエラーがでました。
GPUは、GeForce 9800 GTです。どなたか、アドバイスお願いします。

679:デフォルトの名無しさん
09/06/02 17:50:02
仮想マシンは無理

680:デフォルトの名無しさん
09/06/03 02:45:20
>>675
合計なんかCUDAでやって早くなるのか?

681:,,・´∀`・,,)っ-○○○
09/06/03 02:49:18
分割統治法は並列化の基本だな

682:デフォルトの名無しさん
09/06/03 10:53:10
合計求めるのは苦労したなぁ。
結局、分割数(128とか256とか)置きに足していって、その結果はPCで足した記憶がある。

683:デフォルトの名無しさん
09/06/03 11:18:35
とりあえず公式の3つをインストールしたのですがTMPGEncで確認できませんみたいなことを言われました。
インストールするだけではcudaの恩恵を与れないのでしょうか?

684:デフォルトの名無しさん
09/06/03 11:31:01
すいません、直ぐ解決しましたorz
クダがちゃんと動いているか確認したいのですが方法はありますでしょうか?

685:デフォルトの名無しさん
09/06/03 11:57:52
>>684
SDKをインストールしたのなら、サンプルもインストールしてビルドしてみよう。サンプルが動けば、大丈夫。
# 特に、deviceQueryは便利。

686:デフォルトの名無しさん
09/06/03 14:12:00
こんにちは。CUDA初心者です。質問があります。
Visual C++ 2008、CUDA tool kit ver2.1、CUDA SDK ver2.1
で、サンプルのsimpleCUBLASをビルドすると、
1>LINK : fatal error LNK1181: 入力ファイル 'cutil32D.lib' を開けません。
と出ます。
そこで、CUDA SDKのlibを調べたところ、
cutil64D.libがあり、32のほうはありませんでした。
この場合、どうすればビルドできるのでしょうか?


687:デフォルトの名無しさん
09/06/03 15:00:01
リリースバージョンをリンクする。

688:デフォルトの名無しさん
09/06/03 16:01:01
リリース構成でビルドしたところ、今度は、
1>LINK : fatal error LNK1181: 入力ファイル 'cutil32.lib' を開けません。
と出ました。
CUDA SDKには、64があり、32はありません。
32と64の違いって一体何なのでしょうか・・・

689:デフォルトの名無しさん
09/06/03 16:17:51
パスが通ってないんだろ

690:デフォルトの名無しさん
09/06/03 17:07:17
OSが64bitだと、32bitのCUDAライブラリはインストールされなかったような。

691:デフォルトの名無しさん
09/06/03 17:07:40
ご回答ありがとうございます。
パスが通っていないということですが、
「パスを通す」について、詳しく説明していただけませんか?
知識不足で申し訳ありません;;

692:デフォルトの名無しさん
09/06/03 17:43:34
環境を名に使ってるかによるが、
Visual Studioだとプロジェクトのプロパティからインクルードするファイルがあるディレクトリのパスと、
libがあるディレクトリのパスをついかする
linuxだとコンパイラのオプションに追加する

詳しくはぐぐれ

693:デフォルトの名無しさん
09/06/03 18:04:37
何度も回答していただきありがとうございます。
リンカの追加ライブラリを調べたところ、
ちゃんと、SDKのcommon/libが指定されてました。
しかし、この中には、cutil32.libではなく、64があります。
ということは、690さんのおっしゃるとおり、
32bitのCUDAライブラリはインストールされなかったということなのでしょうか?
もしそうでしたら、サンプルプログラムは64bitに対応してないが、
自分でプログラムを作る分には、上記のようなエラーはでないということでしょうか?

694:デフォルトの名無しさん
09/06/03 23:53:30
サンプルのリンカ設定を編集して64bitのライブラリをリンクすればいいんじゃね?

695:デフォルトの名無しさん
09/06/04 13:12:53
アクティブソリューションプラットフォームとプラットフォームをWin32からx64へ変更したところ、
エラーがなくなりました。
そのかわり、
1>------ ビルドのスキップ: プロジェクト: simpleCUBLAS ------
1>
========== ビルド: 0 正常終了または最新の状態、0 失敗、1 スキップ ==========
とスキップしてしまいました。
何が原因なのでしょうか・・・

696:デフォルトの名無しさん
09/06/04 18:26:30
threadIdx.xがうまく値を返さなく困っています。
最小のプログラミングだと ちゃんとした値を確認できるんですけど、
規模のあるプログラム書いた物では、threadIdx.xをみると最大でも1000以内の数値が40000を超えていたりします。

かなりラフな書き方していて、グローバル変数使いまくってるのが意見ないのでしょうか?
__device__  kouzoutai[2000];//グローバル変数
とか宣言しまくって搭載メモリーを超えちゃってるかもしれませんが、その時は明確なエラーとか出ますか?


697:デフォルトの名無しさん
09/06/04 19:59:22
エラーは基本的に出ない

698:デフォルトの名無しさん
09/06/05 09:08:24
>>696
threadIdxはプログラムで変更できないと思うが。
どうやってthreadIdx.xを「みる|確認できる」としたのか知らんが、その手段を確認すべきでは?
ptx出力を眺めればthreadIdx.xをコピーした先で壊してたりするのが分かるんじゃない?
グローバル変数にたった2000要素くらいなんてことないと思うが、巨大な構造体でも置いてるの?
あーそれから、メモリをオーバフローしてもコンパイルエラーも実行時エラーも出ないどころか、
突然システムごとフリーズするかもしれないから覚悟しておいてね。

699:デフォルトの名無しさん
09/06/06 17:41:22
>>501
   ?
  ∧∧
  (´・ω)
 _|⊃/(___
/ ヽ_(____/
 ̄ ̄ ̄ ̄ ̄ ̄ ̄


700:デフォルトの名無しさん
09/06/07 01:25:14
寝た子を起こしたなw

701:デフォルトの名無しさん
09/06/08 08:06:10
>>699
  !
  ∧∧
 (・ω・ )
 _| ⊃/(__
/ ヽ-(___/
 ̄ ̄ ̄ ̄ ̄ ̄


702:デフォルトの名無しさん
09/06/08 20:11:26
 
  あ"
  ∧∧
 (◎ω◎)
 _| う/(__
/ ヽ-(___/
 ̄ ̄ ̄ ̄ ̄ ̄

703:デフォルトの名無しさん
09/06/09 23:30:40
>>701
     オハヨー!!
    ∧∧ ∩
    (`・ω・)/
   ⊂  ノ
    (つノ
     (ノ
 ___/(___
/  (___/
 ̄ ̄ ̄ ̄ ̄ ̄


704:デフォルトの名無しさん
09/06/10 20:07:54
質問。
グリッド・ブロック・スレッドのカーネル側での計算への応用方法が
よくわからないのですが・・・・特に動きです。

const unsigned int tid =blockIdx.x * blockDim.x + threadIdx.x;
がスレッドIDを示しているというのはわかるのですが・・・

for(int x=0;x<height;x++)
for(int y=0;y<width;y++){
        sum=sum+tex2D(tex, x, y)*((float)(cos((M_PI*((x*width+y)+0.5)*tid)/number)));

}
outputdata[tid]=sum;

の中で、tidはどういう働きをしてるんでしょうか?
特に回収する配列であるoutputdataの動きが知りたいです。
わかる方ご教授お願いします・・・




705:デフォルトの名無しさん
09/06/12 04:58:52
>>703
  ∧,,∧
 ( `・ω・) ウーム…ここは?
 / ∽ |
 しー-J


706:デフォルトの名無しさん
09/06/12 09:52:33
>>704
何が判らんのか判らん。
tidが個別のデータスレッドの番号を指すように働くことが判っているなら、

その番号でoutputdataにアクセスしていることくらい判りそうなもんだが。

仮に、blockDimが4でgridDimが2だとしたら、blockIdxは0か1、threadIdxは0から3になるわけで。
つまりはtidは0から7になるわけだな。

つーか、VIPのWikiにも情報があるよ。
URLリンク(vipprog.net)

707:デフォルトの名無しさん
09/06/13 00:18:28
>>730
カウンター3連打って言うけどスローで見るとカウンター2発に追撃1発って感じ
まあそれでも凄いって言うか、何この異次元映像w
もはや芸術的とか圧倒的とかそういうレベルを超越していて笑いしか出てこないわけだが?www
しかもメディナは立ち上がるしww不死身かwwww
この試合はボクシング以外の何か別の競技だわwwwwwwww

708:デフォルトの名無しさん
09/06/13 00:24:10
誤爆すまそ
俺が代わりに言っといてやったぜ

709:デフォルトの名無しさん
09/06/13 01:35:36
CUBLASに加えてCULAPACKとか用意して欲しい
LU分解もできない環境なんて

710:デフォルトの名無しさん
09/06/13 04:07:09
GPGPUはDirectX11で花開くんだろ。
エンコード高速化対応お待ちしております。

DirectX 11講座(中編)
非ゲーマーのアナタのパソコンも
DirectX 11演算シェーダーでスーパーコンピューターに変身する!
URLリンク(game.watch.impress.co.jp)
GPGPUの場合は、組んだGPGPUプログラムがATIかNVIDIAのどちらかでしか動かない、
踏み絵的な「ATI対NVIDIA」なのだ。
これではGPGPUの進化、発展、普及が望めない。
そこでGPGPUの標準化プラットフォームが強く望まれるようになった。
このGPGPU標準プラットフォームを、Windows環境下で提供しようと出てきたのがDirectX 11ということになる。
DirectX 11は、このGPGPUの標準プラットフォームとして「DirectX Copmute Shader」(演算シェーダー)を提供する。


演算シェーダーでなにができるのか
URLリンク(game.watch.impress.co.jp)


711:デフォルトの名無しさん
09/06/13 08:42:36
>>710
エンコードって意外に並列処理できる箇所少ないんだけど。。。CUDAでどのベンダも対応してこないのはそのため。
Compute Shader出てきても状況は変わらないと気が

712:デフォルトの名無しさん
09/06/14 15:19:59
それマルチ

713:デフォルトの名無しさん
09/06/14 18:56:21
今日本屋見てきたけど
CUDAの入門書とかって無いね。
世の中にはあるのかな。

714:デフォルトの名無しさん
09/06/16 16:56:23
__device__ int particle_position[30][30][50][30];
__device__ int particle_position_num[30][30][50];
 :
とか
__device__ __constant__ float K_dWpress;
 :
な感じで、結構たくさんグローバル変数をデバイス側に作ってるんだが、
これって、CUDA的にやっていい手法?てか数次元配列ってカーネル関数内で普通のcっぽくアクセスできる?

とりあえずメモリは足りるみたいだから、デバイスホスト間でのデータ転送は基本的にしなくて、
結果のみホスト側に持ってきたいんだけど。

コンパイルエラーはないけど、カーネル起動させたあとエラーが出て、
一瞬画面が消える。

715:714
09/06/16 17:22:05
追記
ちなみに、Emuモードだと問題なく終了できます。


716:デフォルトの名無しさん
09/06/16 17:29:37
>>714
CUDAはメモリ管理なんてしないから、デバイス側の変数がどれだけあるのか自分で把握すること。
一瞬画面が消えるのは表示用とCUDA用を同じGPUでやっている所為だと思われ。
もっと酷いときはフリーズするから要注意で。

717:デフォルトの名無しさん
09/06/16 23:29:13
CUDA初心者です。

サンプルをいじくっているのですが、いくつかわからないことがあり質問させてください。

①テクスチャメモリ
キャッシュが効くからグローバルメモリよりも高速との事ですが、
時間を計ってみるとグローバルメモリと変わらない・・・。
どのような用途で使用するのでしょうか?

②異なるカーネル関数の同時実行
ブロック、スレッド数を決めてカーネル関数を実行しますが、
cudaThreadSyncrinize関数やメモリコピー関数を呼ばなければ
同期待ちはしないですよね?
であれば、カーネル関数を2つ書いたときに同時実行するのでしょうか?
マニュアルを見る限りではできないようですが、会社の先輩が出来るというのでホントかなと。

お分かりの方宜しくお願いいたします。

718:デフォルトの名無しさん
09/06/16 23:32:51
俺も初心者だが。

1. 線形補完できるよ! 速度面で違わないなら、それ以上はどう違うのか知らん。

2. なんか俺の動かしてる感触だと同時実行してる気がする。 少なくともCPUとGPUで同期はしていないよ。

719:717
09/06/16 23:59:21
>>718

サンクス。

①は線形補間機能があるのは存じていますが、
補間せず生データを使用したいものでして・・・。

②は自分でも本家CUDAZONEで調べてみましたが、どうもできないっぽいです。

URLリンク(forums.nvidia.com)

このスレの前にもありましたね。
よく見てませんでした、すみません。
cudaStream~って何のためにあるんだか。

720:デフォルトの名無しさん
09/06/19 00:40:24
CUDAを始めようかと考えていますが、下記の様な処理はCUDAで速くなりますか?



721:デフォルトの名無しさん
09/06/19 00:55:31
function hoge(const b:string):boolean;
begin
result:=true;
end;

722:デフォルトの名無しさん
09/06/19 00:58:07
>>720
すみません、間違えて書き込んでしまいました。
改めて、
typedef struct _table_t {
float x,float y, float z;
} table_t;

typedef sturct _vec {
float vector[4];
} vec;

typedef union _vtemp_t {
vec V[3], table_t data[4];
} vtemp_t;

table_t DATA[100];(DATAにいろいろと情報をが入っている)
vtemp_t temp;
temp.data[0] = DATA[15];
temp.data[1] = DATA[43];
temp.data[2] = DATA[11];
temp.data[3] = DATA[80];
(tempのメンバdataにDATAの値をランダムに代入)
メンバdataがもつ、x、y、z情報をメンバVにx、y、z毎にまとめたいです。例えばこんな感じに。
V[0] = {data[0].x, data[1].x, data[2].x, data[3].x};
V[1] = {data[0].y, data[1].y, data[2].y, data[3].y};
V[2] = {data[0].z, data[1].z, data[2].z, data[3].z};
CellとかSSEならSIMDを使って出来ると思いますが、CUDAでも速くなるなら、
CUDAをやってみようかと思っています。




723:デフォルトの名無しさん
09/06/19 01:25:58
それ計算じゃなくてただのメモリ転送じゃん。 CUDAでやることじゃないよ。

724:デフォルトの名無しさん
09/06/20 14:41:38
Mac でCUDAをやろうとしています。
/Developer/CUDA/lib/にあるライブラリをライブラリのサーチパスに含めるには
どの環境変数を設定すればよいのでしょうか?
LD_LIBRARY_PATHに追加してみたのですが、サーチしてくれません

725:デフォルトの名無しさん
09/06/20 14:43:15
>>724
DYLD_LIBRARY_PATH

726:デフォルトの名無しさん
09/06/20 15:02:09
>>725
早速の回答ありがとうございます。
DYLD_LIBRARY_PATH に追加してみたのですがやはりうまくいきません。
ちなみに-Lで指定すればうまくいきます。


727:デフォルトの名無しさん
09/06/20 18:11:27
Coalesced、Non-Coalescedって簡単にいうとどういうこと?

728:デフォルトの名無しさん
09/06/20 18:14:29
>>108

729:デフォルトの名無しさん
09/06/20 18:18:03
>>728
よくわからん

730:デフォルトの名無しさん
09/06/20 20:19:04
URLリンク(noridon.seesaa.net)

731:デフォルトの名無しさん
09/06/20 21:42:57
大前提として、ブロック内でデバイスメモリにアクセスするアドレスが連続していたら、コアレス。
んで対応アーキテクチャによってスレッド単位でアドレスが連続している必要があったりする。

まぁ簡単に言うと、バス幅有効活用できまっせ適な使い方をイメージすればいいかと。
なんでそのバス幅でアクセスできるアラインを考える事になる。

732:デフォルトの名無しさん
09/06/20 23:08:40
>>726
実行時じゃなくて、ビルド時のリンクのこと?
DYLD_LIBRARY_PATHは関係ないから-Lでやってね。

733:デフォルトの名無しさん
09/06/21 01:03:25
>>726
LIBRARY_PATHでできなかったっけ?

734:デフォルトの名無しさん
09/06/21 06:52:13
配列で最初と最後の変数だけ別の処理をしたいのですが、
どのように書けばよいのでしょうか?
従来のプログラムの場合、配列がa[N]だったばあい、
for(i=1;i<N-1;i++)と書けばよいのですが、
CUDAのカーネルで処理する場合どのようにすればよいのでしょうか?

735:デフォルトの名無しさん
09/06/21 07:45:47
>>734
とりあえず、現状のカーネル書いてくれれば教えやすいのに

736:デフォルトの名無しさん
09/06/21 14:51:04
NVIDIAが配布しているということで、PhysXの質問をさせて下さい。

キネマティックなアクターが物体と接触した時に受ける力の取得方法が分かりません。
ご存知の方がいらっしゃいましたらご教示下さい。

737:734
09/06/21 17:50:38
>>735
例えば、今は

__global__ void test(int thread_size, int one_size, float *res_d)
{
    int bx = blockIdx.x;
    int tx = threadIdx.x;
    int pos = bx * thread_size + tx;
    if (pos==0)
        res_d[pos] = cos(res_d[pos]);
    else
        res_d[pos] = sin(res_d[pos]);
}

このように、if文で0とN-1の場合だけ別の処理をするようにしているのですが、if文は遅くなるので、避けたいのですが。

具体的にやりたいのは、3次元の偏微分方程式を解く際の境界条件部分の計算です。
この場合各面、各辺、各頂点合わせてif文が20個以上になってしまいます。

何か良い方法はないでしょうか?


738:デフォルトの名無しさん
09/06/21 18:12:51
>>737
最初と最後だけ別の処理なら、そこはCPUに任せて、
残りをGPUにやらせればいいと思うけど、それじゃだめなん?
posを+1して、並列数をN-2にすればいけそうだと思うけど。

あと、そのソースだと N-1 の処理が別になってない気がするのと、
posがN以上かどうかのチェックが無いのが気になる。
(ソースは単に省略しただけで、チェックはそもそも必要ないように組んでるのかも知れないが)

739:デフォルトの名無しさん
09/06/21 18:53:40
>>737
一般的にアセンブリレベルで分岐をなくしたいときは、こんなテクニックを使ったりする。

// i == Nのときだけsinをcosにする

float s = sin(なんとか);
floac c = cos(なんとか);
int b = i == N; // true が (int)1に変換されることを期待する
return (c * i) + (s * (1 - i));

もちろん3行目は実装依存なので、プロセッサのマニュアル見ながらいちいち確認はした方がいいんだが、
だいたいのプロセッサで使えるテクニック。

740:デフォルトの名無しさん
09/06/21 19:09:54
>>737
それだと全てのパターンでsinとcosの両方が計算されるから

float s = sin(なんとか + b * PI / 2);

にすれば?

741:740
09/06/21 19:11:22
ごめん安価ミスった

>>740>>739へのレスです

742:デフォルトの名無しさん
09/06/21 19:37:25
CUDAにはsincosねーの?
また三項演算子でいいんじゃねーの?

743:デフォルトの名無しさん
09/06/21 23:01:37
>>737
あらかじめ、特殊条件について位相を補正しときゃいいんじゃないの?と思うのは俺だけ?

744:デフォルトの名無しさん
09/06/22 00:12:40
>>736
PhysXスレがゲーム製作技術にあるからそっち行け

745:736
09/06/22 01:52:13
>>744
誘導ありがとうございます

746:デフォルトの名無しさん
09/06/22 10:53:08
>>742
あるよ。但し、ストリームプロセッサに一個しか超越関数演算機がないから使い方間違うと遅くなるけど。

747:デフォルトの名無しさん
09/06/23 08:26:25
>>746
超越関数演算機なんてハード的に存在したっけ?倍精度演算機じゃなくて?

748:デフォルトの名無しさん
09/06/23 14:47:11
>>747
SFU(Super Function Unit)がある。
ただし、4SPで共有で、>>747のいうように8SPで共有するのは倍精度演算器。

sin()、cos()、tan()は確かに遅いけど、
sinとcosについては__sinf()と__cosf()を使えば、
精度は悪くなるけど1op/clockでできる。
除算以外の算術演算が8op/clockでできることを考えたらそれでも遅いことには変わりないけど。

749:デフォルトの名無しさん
09/06/23 15:22:26
超越関数がレイテンシ1なんて凄いね
SFUだけ100倍のクロック数とか
してるのかなぁ

750:デフォルトの名無しさん
09/06/23 18:30:15
URLリンク(www.khronos.org)
OpenCL 1.0 リリース

751:デフォルトの名無しさん
09/06/23 18:36:49
First OpenCL demo on a GPU
URLリンク(www.youtube.com)


752:デフォルトの名無しさん
09/06/23 18:43:26
URLリンク(www.nvidia.com)

ドライバ一式は登録しないといけないようだ

753:デフォルトの名無しさん
09/06/23 21:47:02
>>748
SFUなんてあったのか、しらなかった。DPみたいに実行はSPと並行してできるのかな?


754:デフォルトの名無しさん
09/06/24 07:13:15
やっとFortran対応の話出てきたけど、有料なんかね
PGI and NVIDIA Team To Deliver CUDA Fortran Compiler
URLリンク(eu.st.com)


755:デフォルトの名無しさん
09/06/24 07:18:14
ていうかいつのまにかに2.3のベータ出てたのか

756:デフォルトの名無しさん
09/06/26 12:01:06
GTX 285でようやくおれのようなへっぽこでも普通にcpuを凌駕するコードが書けるように
なったようだね。

後は(値段はともかく)消費電力が下がってくれれば、大ブレイクしそう。

757:デフォルトの名無しさん
09/06/27 12:19:52
300Wなんてクアッドコアマシンを4台くらいクラスタリングしたような消費電力だからな

758:デフォルトの名無しさん
09/07/01 03:13:56
>おれのようなへっぽこでも普通にcpuを凌駕する
だったらCPU要らんがな。
むしろCPU<->GPU間の通信がボトルネックなので、CPU無くして
GPUに直接I/O繋げられるようにしろや!

759:デフォルトの名無しさん
09/07/01 21:14:50
>>758
それなんていうTesla?

760:デフォルトの名無しさん
09/07/01 23:30:38
>>759
それTeslaでもない。

761:デフォルトの名無しさん
09/07/02 07:45:08
CUDAで乱数を効率的に生成する方法を教えてください

762:デフォルトの名無しさん
09/07/02 09:23:34
>>761
コアごとに違う種から乱数生成すればいいんじゃね?

763:デフォルトの名無しさん
09/07/03 00:25:57
質問なんですが、SDKに付いてたサンプルをmakeしようとしたところ
以下のようなエラーが出てうまくいきません、何か足りないものがあるのでしょうか

/usr/bin/ld: cannot find -lXi
collect2: ld はステータス 1 で終了しました
make[1]: *** [../../bin/linux/release/nbody] エラー 1

OSはfedora10です。色々初心者なのでどうかお願いします。

764:デフォルトの名無しさん
09/07/03 00:52:49
libXiというパッケージをインストールできないかね
俺もfedoraはよく記憶にないんだが

765:デフォルトの名無しさん
09/07/03 07:55:20
>>764
libXiというのがインストールされていないということだったのですか
早速インストールしたいと思います。どうもありがとうございました。

766:デフォルトの名無しさん
09/07/05 04:21:12
teslaとgeforceって何が違うの?




767:デフォルトの名無しさん
09/07/05 05:03:33
OpenGL向けかDirectX向けか

768:デフォルトの名無しさん
09/07/05 10:40:00
>>767
それquadroとgeforceでしょ。

>>766
teslaはhpc専用ボードで、ディスプレイの出力ポートがない。
NVIDIAがボードの製造まで一貫して行ってて、テストもしっかり通している…らしい。
あとメモリが4GB乗ってる。

769:デフォルトの名無しさん
09/07/06 09:01:42
CUDAというよりハードウェアの話なんですが質問させてください

TESLA C1060をMM3500に刺したいんですが、この状態だとBIOSが拝めません
ビープ音「-・・(長短短)」って音がするんでAwardで調べたらビデオアダプタ不良らしい
マザーボードだけを他のに変えたら正しく起動するので、電源やTESLAが悪いわけではなさそうです
TESLAなしのMM3500だけならUbuntuのBoot CDからMemtestが走るとこまで行きました


770:デフォルトの名無しさん
09/07/06 09:34:48
スレ違いどころか板違いだ
判ってるなら該当板いけよ

771:デフォルトの名無しさん
09/07/06 22:26:16
>>769
買ったとこに聞いた方が良いかと...

772:デフォルトの名無しさん
09/07/07 00:46:08
>>772
ありがとう まずはVIAにメールしてみます

773:NVIDIAの営業の受け売りw
09/07/07 09:05:04
・GeForce
NVIDIAはパーツ選択にはノータッチ。各社さんが勝手に安い部品を積んでいるから動作しなくても当然。
プロならそんなアキバ的発想はやめて、QuadroFXかTeslaを使ってください。
・QuadroFX
NVIDIAの厳しいテスト基準に合格した高品質の出力を保証しているから決して安くありません。
プロにも安心してお使いいただけます。
・Tesla
QuadroFX以上に品質に重点を置いてテストを行なっています。HPCにはこれ以外の選択肢はありえません。

774:デフォルトの名無しさん
09/07/07 09:07:57
>>768
OpenGL向けもDirectX向けもないよ。>773にもある通り、NVIDIAがテストしているかどうかの違い。
なんせ、GeForceの製造販売を行なっているELSAの営業の前で堂々と>773みたいなことを仰ってる。
10倍の価格差も、当然ということなのでしょう。

775:デフォルトの名無しさん
09/07/07 22:07:57
そりゃカノプーが手を引くわけだよな
どうしたってGeForceは価格競争になっちまう

776:デフォルトの名無しさん
09/07/08 00:28:37
不特定多数の客向けのプログラムでGPGPUを使うコードを書くやつはアホウ、ってことだな。

777:デフォルトの名無しさん
09/07/08 06:57:16
全てアホウと決め付けるのはねぇ
 中には超やばいものを開発するかもよ(世界は広い)

特にロシア東欧は要注意!


778:デフォルトの名無しさん
09/07/09 00:40:40
>>777
アホウと言っているのが、nVIDIAの営業ってことだよ。

779:デフォルトの名無しさん
09/07/11 00:02:30
「阿呆」とは言わなかったけれど、「動かなくても当然ですから」くらいのことは言ってたなぁ。

780:デフォルトの名無しさん
09/07/11 00:17:01
今月末に CUDA2.3 が出るとさ。

PGI compiler 9.0 は2週間体験できるから、Fortran で単純な行列積の
コードを書いて試してみたけど、Core2 Quad + GeForce9800GTX で
CUDA 2.0 という古い組み合わせのせいか,
!$acc region の設定の効果が全く現れなかった。

pgf95 -ta=nvidia:cc11 matrix.f
というコマンドでいいと思うんだけど。

781:デフォルトの名無しさん
09/07/11 19:31:18
CUDA用の姫野ベンチをGTX285で実行しようとしたのですけど動きませんでした。
何が原因かわかりません、どなたかわかる方いらっしゃいましたらお願いします。

782:デフォルトの名無しさん
09/07/11 20:08:49
原因はわかりますが、何をお願いされているのかわかりません。

783:デフォルトの名無しさん
09/07/11 21:19:47
その原因について詳しく教えて頂きたいのですが

784:デフォルトの名無しさん
09/07/11 22:37:16
>>783
原因なら簡単ですよ。
あんたが人間じゃなくて人だからです。

785:デフォルトの名無しさん
09/07/11 23:13:59
動くかどうかも保障してないものが普及するとか思ってるのか?

786:デフォルトの名無しさん
09/07/11 23:20:06
>>785
>779のことを言っているのなら、QuadroFXとTeslaがあるから大丈夫だと思っている
頭に蛆が涌いているとしか思えないNVIDIAの営業に言ってあげてください。

無駄だけどw

787:デフォルトの名無しさん
09/07/15 19:53:47
visual profilerについて質問です
プロファイラの項目GPUTimeを見ると全体で3000くらいなのですが、
プログラム中で cutCreateTimer( &timer) を使って計測すると 18ms~60msのバラけた値が出ます
これってどちらが正しい値なのでしょうか?

788:デフォルトの名無しさん
09/07/15 21:31:07
>>781
バイナリのCUDA SDK1.1だからだろ

789:デフォルトの名無しさん
09/07/15 23:02:02
>>787
cutCreateTimer()の実装を見てみた?

790:デフォルトの名無しさん
09/07/20 19:00:37
Fixtarsの資料面白いね、祝日に更新ご苦労さんだわ
この調子で本家資料全部訳してくれないかなw
URLリンク(gpu.fixstars.com)


791:デフォルトの名無しさん
09/07/22 08:05:55
2.3来たね、やっと64bit版で32bitコンパイルできるようになった

792:デフォルトの名無しさん
09/07/23 13:44:49
Mac版の2.3.0ドライバーインストールしてみたら、一回目libcuda.dylibだけ入らなかったことに気付かなくて、全然見当違いの所で原因探してて苦労したよ。
一発で入るようにしてください、nVidia様


793:デフォルトの名無しさん
09/07/25 22:10:54
URLリンク(www.nv-info.com)

20年前の高校生は参加しちゃダメかな?

794:デフォルトの名無しさん
09/07/25 22:13:36
Teslaプレゼントしろよ
相変わらず一貫してないな

795:デフォルトの名無しさん
09/07/26 23:27:14
CUDAで動くトリップ検索ツール頂ける方いらっしゃいませんか

796:デフォルトの名無しさん
09/07/27 00:50:11
ノシ

797:デフォルトの名無しさん
09/07/27 03:25:45
【レポート】中高生がCUDAにチャレンジ! NVIDIAがGPUコンピューティングの体験イベント開催 | パソコン | マイコミジャーナル
URLリンク(journal.mycom.co.jp)

798:デフォルトの名無しさん
09/07/27 10:10:10
>>795
あれ?まだ誰も作ってなかったの?

799:デフォルトの名無しさん
09/07/27 10:43:20
あと6年早ければ・・・

800:デフォルトの名無しさん
09/07/27 11:08:28
>>798
らしいです

801:デフォルトの名無しさん
09/07/27 22:53:08
じゃぁ俺が作るか。
まずはCUDA無いバージョンのソースがあるURL教えてw

802:デフォルトの名無しさん
09/07/28 00:02:52
まあ、待て屋。

803:デフォルトの名無しさん
09/07/28 00:07:41
>>802
それはラデ用のしかなかったような…

804:デフォルトの名無しさん
09/07/28 00:11:46
CUDA無しを所望のようだからこれで良くね?
CPU用のコードも当然あるよ。

805:デフォルトの名無しさん
09/07/28 00:17:31
>>804
nVIDIAのVGAしか持ってないんだorz

806:デフォルトの名無しさん
09/07/28 00:22:33
>>805>>795か?
俺は>>801に向けて書いたんだが・・・

807:デフォルトの名無しさん
09/07/28 00:26:42
>>806
あ、はい。
俺は>>805であり、>>795です。

ID出てないと面倒だね

808: ◆hEpdoZ.tHU
09/07/28 06:51:10
>>807
トリップ使ってけれw

809: ◆DokuomoeW.
09/07/28 16:50:48
>>808
おk

>>807です

810:,,・´∀`・,,)っ-○○○
09/07/29 21:19:39
Larrabee向けのソースコードなら多分あるんだがwwwww

811: ◆DokuomoeW.
09/07/30 12:59:13
まだ手元にある定額給付金で
ラデ買ってくるかな…

それも一つの選択肢

812: ◆DokuomoeW.
09/07/31 21:10:00
かつてTripcode ExplorerのCUDA版があったらしいね
でも、今はもう消えてる…

813:,,・´∀`・,,)っ-○○○
09/07/31 21:52:43
ギコハハハ

814:デフォルトの名無しさん
09/07/31 22:14:27
>>812
がはは!それはネタだからーw

815: ◆DokuomoeW.
09/07/31 23:11:08
>>814
そうなんだwwwwww

816:,,・´∀`・,,)っ-○○○
09/07/31 23:31:10
ふふふ

817:デフォルトの名無しさん
09/08/01 05:48:13
あらあらふふふ

818:デフォルトの名無しさん
09/08/01 07:37:39
これでいいじゃん
URLリンク(tmkk.hp.infoseek.co.jp)

819:デフォルトの名無しさん
09/08/02 20:49:45
300Wも消費する物体を数週間動かすとは恐ろしいw

820:デフォルトの名無しさん
09/08/03 07:25:23
shared memoryって,CPUで言うL1キャッシュみたいなもん??

821:デフォルトの名無しさん
09/08/03 08:04:31
>>818
これって使うとどれくらい寿命減るの?
作った人って絶対に高負荷かけて石を壊そうとしてるよね・・・

822:デフォルトの名無しさん
09/08/03 15:36:31
>>821
なにいってるの・・・
まあたしかにファンがクソだと熱で死ぬ可能性はあるが

823:デフォルトの名無しさん
09/08/04 03:54:01
>>820
大分違う。つーか、CPUとは考え方を変えないと使いこなせないよ。

824:デフォルトの名無しさん
09/08/04 10:08:33
>>820
CPUで言うレジストリみたいなもんだ

825: ◆DokuomoeW.
09/08/04 13:52:22
>>818
for Macだ…と

826:,,・´∀`・,,)っ-○○○
09/08/04 21:07:21
Windows用に直せるだろこんなん。(と言ってやらない)


827:,,・´∀`・,,)っ-○○○
09/08/04 22:06:06
Vistaだと困ったことに、描画に支障ない程度に負荷調整しないとAeroが死ぬwww


828:デフォルトの名無しさん
09/08/08 22:45:00
だれかトリップ生成のアルゴリズム説明して?
趣味でCUDA処理のコード書いてみたいからー

>>818のコード読めって話だけど、ハッシュとか暗号系はアルゴリズム知ってないと、時間かかるんでお願いします。

829:デフォルトの名無しさん
09/08/08 23:22:43
309 名前:◆cZfSunOs.U []: 2009/06/19(金) 11:46:10 ID:MLNb4KfK0 (17)
生キー指定以外の12桁以上「##~」形式も将来の拡張用にしておきましょう.
で,まとめ:

if (length $handle_pass >= 12)
{
my $mark = substr($handle_pass, 0, 1);
if ($mark eq '#' || $mark eq '$')
{
if ($handle_pass =~ m|^#([[:xdigit:]]{16})([./0-9A-Za-z]{0,2})$|)
{
$GB->{TRIPSTRING} = substr(crypt(pack('H*', $1), "$2.."), -10);
}
else
{
# 将来の拡張用
$GB->{TRIPSTRING} = '???';
}
}
else
{
use Digest::SHA1 qw(sha1_base64);
$GB->{TRIPSTRING} = substr(sha1_base64($handle_pass), 0, 12);
$GB->{TRIPSTRING} =~ tr/+/./;
}
}
else
{
# 従来形式
}

830:デフォルトの名無しさん
09/08/08 23:23:28
インデント消えたorz

831:デフォルトの名無しさん
09/08/08 23:25:49
Kernel用のCRYPTを自前実装しないといけないのか・・

832:,,・´∀`・,,)っ-○○○
09/08/09 00:05:13
C++用のコード晒してみる。これは実際に某ツールで使ってる。

char* trip_sha1(const char* key) {
SHA1Context sha1;
SHA1Reset(&sha1);
SHA1Input(&sha1, reinterpret_cast<const uint8_t*>(key), std::strlen(key));
uint8_t digest[SHA1HashSize];
SHA1Result(&sha1, digest);

static char cryptresult[13]; /* encrypted result */
static const char base64mod[] = /* 0..63 => ascii-64 */
"ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789./";
cryptresult[0] = base64mod[digest[0] >> 2];
cryptresult[1] = base64mod[(digest[0] << 4 | digest[1] >> 4) & 0x3F];
cryptresult[2] = base64mod[(digest[1] << 2 | digest[2] >> 6) & 0x3F];
cryptresult[3] = base64mod[digest[2] & 0x3F];
cryptresult[4] = base64mod[digest[3] >> 2];
cryptresult[5] = base64mod[(digest[3] << 4 | digest[4] >> 4) & 0x3F];
cryptresult[6] = base64mod[(digest[4] << 2 | digest[5] >> 6) & 0x3F];
cryptresult[7] = base64mod[digest[5] & 0x3F];
cryptresult[8] = base64mod[digest[6] >> 2];
cryptresult[9] = base64mod[(digest[6] << 4 | digest[7] >> 4) & 0x3F];
cryptresult[10] = base64mod[(digest[7] << 2 | digest[8] >> 6) & 0x3F];
cryptresult[11] = base64mod[digest[8] & 0x3F];
cryptresult[12] = 0;
return cryptresult;
}

833:デフォルトの名無しさん
09/08/09 00:36:34
sh1のCUDA版くらいありそうだけど

834:828
09/08/09 00:38:07
ご両人、コードさんくす~
実はC住人なんで(汗

蛇足だが関数内のstaticの使い方が気持ち悪いです(笑

さー昔しらべたSHA-1の資料でもひっぱってくるかー

835:,,・´∀`・,,)っ-○○○
09/08/09 01:53:23
オリジナルのcrypt(3)でもchar配列はstaticでとってるんだよな
たしかにキモイ

std::stringとか使ってみ?
CUDAに移植できへんで?


836:デフォルトの名無しさん
09/08/09 01:56:33
笑えるくらいきれいなワンツーw

837:デフォルトの名無しさん
09/08/09 01:57:37
ごば

838:デフォルトの名無しさん
09/08/09 13:04:04
CUDAでrandは使えない?

839:デフォルトの名無しさん
09/08/09 13:11:14
>>838
使えないよ。自分で用意しないと。

840:デフォルトの名無しさん
09/08/09 13:25:21
CUDA上でのSHA1の実装というとこのあたりか?
URLリンク(forums.nvidia.com)

841:デフォルトの名無しさん
09/08/10 22:49:48
r0,g0,b0,r1,g1,b1,r2,....

というようなグローバルメモリにあるchar型の配列に対して、GPU側からuchar4型変数で

{r0,g0,b0,r1} {r1,g1,b1,r2},....

というようにアクセスすることは可能でしょうか?

842:デフォルトの名無しさん
09/08/11 01:04:40
y*4+x

843:841
09/08/11 01:59:08
あーこれじゃ駄目だった
ごめんなさい、忘れてください

844:828 ◆TripEQ.VNLIV
09/08/11 21:13:55
だめだー
SHA1と総当り攻撃じゃ現実的じゃない。。。
4桁適合ならまだ使える感じorz

845:デフォルトの名無しさん
09/08/21 13:47:21
誰かRADEON HD48xx向けのCUDAドライバ開発してないの?

846:デフォルトの名無しさん
09/08/21 14:23:41
>>845
どちらかというと
AMD Accelerated Video Transcoding(AVT)

では?

847:デフォルトの名無しさん
09/08/21 16:05:07
いや、CUDA互換機能つけて
CUDA対応ソフトを使えるようにならんかなーと。


848:デフォルトの名無しさん
09/08/21 17:49:44
>>847
OpenCLじゃだめですか?

849:デフォルトの名無しさん
09/08/21 17:50:52
ラッパー作ってくれるならいいけど・・・
既存のソフトでCUDAにしか対応してないやつとか
CUDA以外の開発環境が整わなさすぎて、見切り発車でCUDA使いたいなとか
あるんで。

850:デフォルトの名無しさん
09/08/21 18:44:14
CUDAってOpenCL取り込んでたような……気のせい?

851:,,・´∀`・,,)っ-○○○
09/08/21 20:13:56
CUDAは環境。

OpenCLは言語・フレームワークで、CUDA向けのプログラムを記述出来る物のひとつ。
従来の「CUDA言語」は "C for CUDA" という扱いになった。


852:デフォルトの名無しさん
09/08/21 20:36:51
x64でCUDAをしようと思ったんだけど,vitual studioでプロジェクトが作れない.
CUDA_VS_Wizard_W64.2.0を入れて,
CUDA64WinAppはテンプレートとして表示されるようになったが,
選択してもうまく生成されない.
CUDAWinApp(32bit)の方はうまく生成される.

64bitで開発してる方や,
症状の原因がわかりそうな方,ご教授願う.


853:デフォルトの名無しさん
09/08/21 21:00:40
おっと,自己解決.
スレ汚しスマソ.

854:デフォルトの名無しさん
09/08/21 23:07:09
>>853
いや、教えてよ(笑)

855:デフォルトの名無しさん
09/08/23 20:28:04
共有メモリのBank Conflictがいまいちわからないのですが、
同じ配列のアドレス(添え字)に複数のスレッドが同時にアクセスしなければいよいのでしょうか?

856:デフォルトの名無しさん
09/08/26 07:21:12
最近のマザボってPCIEx16が普通に2,3個あるよな
ところで違う世代のGeForce9800、GTX280とかを積んだ場合
CUDAはどちらのGPUも使ってくれるの?

857:デフォルトの名無しさん
09/08/26 09:24:02
>>856
CUDAはGPUチップを一つだけしか使えない。
どれを使うかは、cudaSetDevice()で指定しないといけない。
サンプルの、MultiGPUを参照のこと。

858:デフォルトの名無しさん
09/08/26 18:32:52
ということは,
最近のグラボ一枚にGPUが2つ積んであるヤツでも,
GPUを指定してやらないといけないのか.


859:デフォルトの名無しさん
09/08/26 18:39:49
そそ、しかも1スレッド1GPUに拘束される。

860:デフォルトの名無しさん
09/08/26 19:17:17
>>858
未確認だけど、SLIの場合はドライバで1つのGPUに見せかけるらしい。
2チップを積んでいるカードは内部でSLI接続されているらしいし、
1デバイスの場合と同じでもいいかもしれない。

861:デフォルトの名無しさん
09/08/26 23:51:13
SLIとCUDAは同時使用できないとかじゃないのか?

862:デフォルトの名無しさん
09/08/27 00:10:58
URLリンク(forum.nvidia.co.jp)
* SLIグループ内の各GPUは個別に列挙されるようになったため、
計算アプリケーションはSLIがグラフィックス向けに有効になっている
場合でも、マルチGPUの性能を活用することができます。

と、リリースノートにはあるね

863:デフォルトの名無しさん
09/08/27 00:25:41
>>862
2.3からはSLIの場合でもCUDAからは個別に見えるように変更なのか。

SLIでゲームの中でPhysXとかCUDAを使う場合とかは特定のチップに負荷が集中して
そのせいで利用効率が落ちたりしないのかな?

864:デフォルトの名無しさん
09/08/27 01:23:53
プログラマが生理整頓するか,
CUDAさんよろしくお願いしますするか,どっちがいいかってことか.
でも,一度の演算に対して,1コアにスレッドが重複しない限りは,
無駄に複数のGPUに処理を分配する必要性はないよな.
演算の命令ごとにGPUを切り替えるなら,効果はありか.
SLIの場合って,GPUのRAMは共有されるのか?

>>859
GPUはGPU内の大量のコアがそれぞれ1スレッドずつ受け取る仕組みじゃないのか?
1スレッド1GPUって並列演算ってレベルじゃねーぞ.

865:デフォルトの名無しさん
09/08/27 03:53:53
>>864
「スレッドを受け取る」っていう意味がわからんのだが。
CPUの1スレッドがGPU1個使って、そのGPUが複数スレッドを実行する。

866:デフォルトの名無しさん
09/08/27 04:59:54
>>865
CPUのスレッドなのね.
スレッドのことをGPUのハードウェアスレッドかと勘違いしてた・・・orz


867:デフォルトの名無しさん
09/09/01 18:44:53
CUDAがでてきた2005年当時は、シングルコアの限界も見えてきて、それなら

有り余るグラフィックボードの性能を、3Dレンダリングや、フォトショップフィルタなど、ゲーム以外にも有効活用と歌ってたけど

あれよあれよという間に、インテルCPUがマルチコア化してきて、そっちの方が上記の用途に、大きな効果があり、メインになってきて、

結局グラフィックボードは、結局またGPUはゲーム以外に用なしになったなw

868:デフォルトの名無しさん
09/09/01 19:21:06
U-BASICってバージョンアップしないの?

869:デフォルトの名無しさん
09/09/01 19:38:01
>>867
コンシューマーはそうかもしれんけど、エンタープライズはまた少し違うんじゃない?じゃなきゃNVIDIAもTESLAなんて作らんよ。

870:デフォルトの名無しさん
09/09/01 20:10:53
ああシールの貼り替えで10倍の金を取るために始めたアレか

871:デフォルトの名無しさん
09/09/01 23:00:56
>>870
本気でそう思ってるなら偏狭すぎる。少しは頭使えよ

872:デフォルトの名無しさん
09/09/02 00:04:27
>>869
むしろ、nVIDIAはTESLA以外作りようが無かったんでしょ。
だってCPU作れないんだもん。

873:デフォルトの名無しさん
09/09/02 02:29:04
NVIDIA は、2009年8月17日、業界標準の線形代数ライブラリ、LAPACK を、超並列処理の NVIDIA CUDA 対応 GPU に最適化した実装「CULA」のベータ版が EM Photonics 社からリリースされたと発表した。
LAPACK ルーチンは何百万人もの開発者が活用し、数値物理学、構造力学、電子設計オートメーションなどさまざまな問題の解決に役立てられている。
CULA により、ワークステーションやデータセンターで使われている NVIDIA Tesla GPU の力を活用し、クアッドコア CPU 1個の場合でパフォーマンスを最大10倍に引き上げることが可能になるとされる。
EM Photonics には、CULA Basic、CULA Premium、CULA Commercial からなる CULA tools という製品ファミリがある。CULA ライブラリとは、LAPACK ルーチンの実装の1つで、GPU の能力を活用して高速に処理が行えるようにしたもの。
LAPACK というのは線形代数でよく使われる関数の集合体で、科学分野や工学分野で活用されている。科学分野や工学分野の問題は線形モデルで近似できることが多いため、線形代数ルーチンで解が得られる。
CULA は、NVIDIA GPU が持つ超並列 CUDA アーキテクチャを活用し、LAPACK ルーチンの多くを高速で処理できる。


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch