11/01/11 23:19:49
キャプチャー環境晒してもらわないとなんとも言えないと思うけど、足元見えてないんじゃないの?
251:248
11/01/11 23:22:27
おかしいかな?
sinbadもMMDもジョイントに可動域の制限(コンストレイン)とか、無効データの時の扱いとか、
Kinectからもらった生データで動かしてるわけじゃないよね(多分)?
単に生データ表示してるだけなら、こんなものなのかなあと思ってるけど。。。。。
特に下半身のキャプチャー精度はひどい。
252:248
11/01/11 23:29:40
一応環境は距離2m、ひざ下まで(足首は写ってない)。
気になっているのは最初のキャリブレーションポーズの認識が3回に1回ぐらいしか成功しなくて
うまくいった時でも5~10秒はかかる事。もしかして根本的に精度が出てないとか?
253:デフォルトの名無しさん
11/01/11 23:34:15
>>252
キャリブレーションは、例のポーズとってれば、多少時間はかかるけどほぼ必ず認識するよ。
足先まで映ってないといかんと思う。(その分距離とらないといけないけど)
254:デフォルトの名無しさん
11/01/11 23:40:40
みんな腕を直角に曲げてから何秒で認識してる?
255:デフォルトの名無しさん
11/01/12 00:03:40
ヘソまで写ってりゃ1秒ちょい
根本的にお前の部屋が散らかってるかダボダボの服着てるとかだろう
なんにしろ、すぐに道具のせいにする奴は成功しない
256:デフォルトの名無しさん
11/01/12 00:31:14
モーキャプ作ってみたんだけど実際こんなもんで満足な精度は出てるのかな?
URLリンク(www.youtube.com)
とりあえずIKは未使用で可動域未設定でもここまではいけるんだが・・・
257:デフォルトの名無しさん
11/01/12 00:52:29
満足の基準は人それぞれ
精度は出るものではなく追求するもの
258:デフォルトの名無しさん
11/01/12 01:14:50
>>256
キャラの位置が動きまくってるのが気になるが、すごくいい感じじゃね?
259:デフォルトの名無しさん
11/01/12 03:22:05
手を背中に回したらどうなるか追求してください
260:248
11/01/12 08:27:16
>>256
俺のところより圧倒的に精度がいい。
キャプチャー環境に何か問題があるのかもしれない。
もうちょっと頑張ってみるわ。
(部屋片付けないとダメかなあ。。。)
261:248
11/01/12 10:37:37
結構改善した(と思う)。
- Kinectの高さを下げて床が多めにきっちり入るように変更。
- 画面内の金属質の面に全部タオルで覆う。
- 服を脱ぐ。
これでゆっくり動けばほぼ四肢をキャプチャーできた。
ただ早い動きをするとやっぱり動きが飛ぶ。どうもkinect関係なく描画がおかしいらしい。
そういえばATIのGPUでそんな問題が出ていた。
プリセットのモーションを再生する限り特に問題は出ていなかったので解決したと思っていたが、直ってなかったようだ。
262:デフォルトの名無しさん
11/01/12 10:48:46
Q. 精度が出ないんだが?
A. まず服を脱ぎます
がテンプレになる日も近い
263:デフォルトの名無しさん
11/01/12 13:13:10
ていうか真剣にキャプチャするならまじでボクサーパンツとかブリーフでやった方がいいよな
264:デフォルトの名無しさん
11/01/12 22:39:54
よし、キャプチャ用全身タイツを発売しよう!
265:デフォルトの名無しさん
11/01/12 22:46:38
チンコケースだけでよくね?
266:デフォルトの名無しさん
11/01/16 22:51:22
みんなもう飽きたのか・・・
267:デフォルトの名無しさん
11/01/16 23:11:48
趣味でモーションキャプチャして、んでどうすんの?っていう根本的問題があるからな。
日本向けはMMDがさっさと対応しちまったし、
高度な処理はMITやPrimesenseの独壇場でトーシロじゃ歯が立たない。
実用技術的には、MSが宣言した公式サポートが開始されたりASUSのXtionが出てきたりするこれからが本番だろう。
ゲーム業界向けの業務用ソフトなんかに組み込まれていくと予想。
268:デフォルトの名無しさん
11/01/16 23:28:57
ひと段落してきた感はある。
269:デフォルトの名無しさん
11/01/17 00:22:00
マイノリティ・リポートみたいな感じでファイルとかwindow操作できないかな?
プロジェクターを使ってプレゼンやると面白そうなんだが
270:デフォルトの名無しさん
11/01/17 01:12:04
ジョブズ猊下がMacBookにタッチパネルを搭載しない事について
「腕が疲れてやってられん」みたいなこと言ってたけど、
それと同じでそういうプレゼン用途以外では実用性がないと思う
271:デフォルトの名無しさん
11/01/17 02:45:00
寝パソ最大のネックである「寝ながら文字入力」を補完するという役目を
背負っているじゃないか。
272:デフォルトの名無しさん
11/01/17 03:24:48
玄関のドア前で踊ると開く鍵とか開発して欲しい
273:デフォルトの名無しさん
11/01/17 09:18:21
>>272
誰でも開いちゃうんじゃないか?w
274:デフォルトの名無しさん
11/01/17 09:28:53
鍵を閉める踊りと開ける踊りを区別した上でブロックサインのように
踊りの中の特定のパターンのみに意味があるようになっていれば
他の人が適当に真似しても有効にならないようには出来るはず
275:デフォルトの名無しさん
11/01/17 09:53:52
家の前で変な踊り踊ってる人がいたら不審人物だと思われないか
276:デフォルトの名無しさん
11/01/17 09:55:30
やっぱり腰のピストン運動をリアルタイムキャプチャーして
ゲームに反映するのが一番いいと思うけどなあ
277:デフォルトの名無しさん
11/01/17 11:18:19
いや、仮想の腰と実際の右手を連動させた方が実用的だ
278:デフォルトの名無しさん
11/01/17 16:40:50
右手ばっか使ってると本番でダメダメになるぞ。
ちゃんと専用器具を使って腰を使った方がいい。
279:デフォルトの名無しさん
11/01/17 17:21:38
専用器具を使ってると本番で刺激が足らなくなるという研究報告もあるな
ところで>>273については顔認証を組み合わせればいい
顔写真を印刷すればいいじゃないかという説もあろうが
玄関の前にお面を被って踊るデブがいたらそれは不審者だ
280:デフォルトの名無しさん
11/01/17 17:58:58
ボーンのトラッキングって、MSで用意されたもの?
それともOpenNIの人が独自に開発したもの?
281:デフォルトの名無しさん
11/01/17 18:02:04
NITEはPrimeSense社が開発してるプロプライエタリなライブラリ
282:デフォルトの名無しさん
11/01/17 19:21:01
>>281
OpenNIのSampleでもボーントラッキング出来てるみたいだけど、
NITEを使ってやってるってことなのかな?
283:デフォルトの名無しさん
11/01/17 19:41:01
それNITE入れないと動かないよ!
284:デフォルトの名無しさん
11/01/18 00:04:12
>>283
そうだったのか、、ありがとう
285:デフォルトの名無しさん
11/01/18 03:15:28
おまえらコレ見てテンション上げようぜ
URLリンク(www.nicovideo.jp)
286:デフォルトの名無しさん
11/01/18 03:48:24
>>285
左右よりも前後の動きに弱いみたいだね
287:デフォルトの名無しさん
11/01/18 03:50:54
これ、日本のアニメーターさんに使ってもらうわけにはいかんのかなあ…
今までの3DCGのモーション付って大体は手作業でつけるから実に面倒くさくて
その作業を目にしたフツーのアニメーターさんは「手で描いたほうが早いわ」と即断するので3DCGには一切近づこうとせず
だから3DCG界隈は、2Dアニメ界との交流が途切れてしまい、技法その他が全然流入してこなくて
結果、PC操作はできるけどアニメの極意を知らないド素人がつけたロボット的モーションか
ダンサーや俳優さんのモーションキャプチャデータをただ垂れ流すだけ、という技術向上やノウハウ蓄積がこれといって無い状況が続き
日本の2Dアニメと3Dアニメはずっと分断したままで、国際的な競争力を持つこともなく…
でも、kinectのこのムーブメントをアニメーターさんが見たら
「こんなに簡単なら…俺だって3DCGアニメをやれそうだ」「俺だったら、もっとこんな感じに動かすね」と思うのではないか
「描いたほうが早い」から、「カメラの前で動いたほうが早い」に、時代が変わっていくのではないか
そこでようやく、2Dアニメーターが持っていた各種ノウハウが3DCGアニメと融合し始めて、新しい何かが生まれやすくなるのではないか
でもアニメーターさんは、個人が気軽にモーションキャプチャできる時代が到来しそうだ、それがアニメにも生かせそうだ、なんて全然知らないだろうし
kinectハックしてる側は、これがアニメ制作作業をグンと楽にする可能性がある、なんて夢にも思わないだろうし、世界は相変わらず分断したまま、kinectハックブームはお遊びの域を出ずに終了するのだろうか
288:デフォルトの名無しさん
11/01/18 03:57:20
便所に落書きしてる分には構わないが、
間違ってもアニメーターにメールしたりはするなよ
289:デフォルトの名無しさん
11/01/18 05:09:54
代々木アニメーション学院に電話汁
290:デフォルトの名無しさん
11/01/18 09:12:15
もうちょっと簡単にできるようになればね。
最低でも
- モデルをロード
- モーションを取り込み
- モデル+モーションにしてセーブ
- ネットにアップロード
- ブラウザーで見る
がフリーで一括してできるようにならないと難しい。
2,3年でできるようになると思うけど、、、、
メタセコイアがボーン入れられない時点でもう終わってる。
あのへんから全部作り替えないと無理だね。
291:デフォルトの名無しさん
11/01/18 09:18:58
MMDでいいじゃん
292:デフォルトの名無しさん
11/01/18 11:48:28
お前がMMDで満足しているならそうなんだろ。お前はな。
293:デフォルトの名無しさん
11/01/18 14:05:06
>>287
演技はだれがやるんよ、そういう人たちを雇うのだって金がかかるんだよ。
大きな演技してもらうには場所もひるようだしな。
294:デフォルトの名無しさん
11/01/18 15:08:28
データ荒くてこんなん使えんよ
今はあくまでリアルタイムで優秀な技術であって
それ以上には全く使えない代物
3Dモーション付けてる人も「手付の方がいいや」って100%言う
今後に期待はしてるが、今はその時ではない
295:デフォルトの名無しさん
11/01/18 15:39:18
>>294
データが荒いのは補完方法でいかようにでもなるとおもうがな。
296:デフォルトの名無しさん
11/01/18 16:00:24
なんとでもなると口で言うのは簡単だが
297:デフォルトの名無しさん
11/01/18 16:10:06
>>296
そもそも計測した時点でどんなデータでも離散した不連続な情報になってるだろ。
それが今までどのように加工されてきたかを考えればそういう返事はできないよねえ。
現状はハックしたドライバがそういうことやってくれてないから自前でやるだけだよ。
あれ、もしかして補完するためのアルゴリズムとかしらないの??
298:デフォルトの名無しさん
11/01/18 16:11:16
そういうことは実際にやってみせてから言わないとかっこわるいだけだよ
299:デフォルトの名無しさん
11/01/18 16:24:26
>>298
なに?コード書いてもらいたいわけ??
金くれたらやってやるけど払える?
300:デフォルトの名無しさん
11/01/18 16:31:18
>>298
おまえはひとまず線形補完からはじめろよw
滑らかなのが欲しければベジェでつなぎあわせとけ。
301:デフォルトの名無しさん
11/01/18 16:34:32
なんだ、できもしないのに言ってるんだ
302:デフォルトの名無しさん
11/01/18 16:35:30
>>299
もっと具体的なことを書かないとお金が払えるかどうかは決められないでしょう
そんなわけで質問だけど、本当に補間だけなはずはないよね?
おそらく予測補間のことを言ってるのだろうけど、信頼度と速度とか抵抗とかから適当に予測して
補間するくらいのことは誰でも思いつくわけだけど
そもそもキャプチャー側の精度の問題でそれだけじゃデータが荒いことには代わりがなよね
俺みたいな素人にはそれ以上の補間って思いつかないんだが、なんかそれ以上の補間
が実際に応用されてる現場ってあるの?
303:デフォルトの名無しさん
11/01/18 16:57:40
>>301
鏡見て独り言かw
>>302
まずはどの精度か定義しねえと話にならねえんだけど。
キャプチャ間隔のFPSのレートが低いのは曲線とか使った補完で十分だろ。
各制御点がフレーム間で大幅に飛ぶのは制御点用の
現在位置予測用のプログラムをかかねばなるまい。
数フレーム前までの位置の平均を積み重ねていって比較し、
差分をベクトルにして現在位置はこの辺でしょうっていうやつな。
閾値を利用したノイズフィルターも入れとけばそれなりなあたいになるだろ。
速度でるならリアルタイムでも使えるだろうし、
非リアルタイムならもっと凝ったこともできるでしょ。
骨格ベースで各間接位置の現在位置予測とかな。
あと、これをアニメーターに使わせたいとか、業務用のキャプチャに
使用しろよとかいう立ち居地じゃねえからな。
>>294のデータが荒くてはなしにならねってところで思考停止してるから突っ込んだだけだ。
304:デフォルトの名無しさん
11/01/18 17:15:16
あーあー、やっぱり脳内で「こんなもんでできるだろ」程度にしか考えてなかったんだな
ノイズフィルタ「でも」って表現からもバレバレ。
305:デフォルトの名無しさん
11/01/18 17:20:45
>>304はいはい天才チンパンジー愛ちゃんはおりこうですねw
内容のない書き込みしても自分の無能さをさらけ出してるだけだね。
306:デフォルトの名無しさん
11/01/18 17:22:58
まあこういうものはオープンソースで1つしっかりしたものが公開されないと難しいだろうね
307:デフォルトの名無しさん
11/01/18 17:33:24
>>303みたいなのも、もっともらしいことを書いてて実は内容のない書き込み。
308:デフォルトの名無しさん
11/01/18 17:53:09
>>307
おまえを見てたらなんだか保護してやらなければならない義務感をかんじてきたよ。
309:デフォルトの名無しさん
11/01/18 18:06:30
技術力も努力もしない他力本願な奴とそれに反応しちゃう奴、
醜い罵り合いのクソみたいなレスは他所でやってくれ。
310:デフォルトの名無しさん
11/01/18 18:14:32
おまえもスルーできないならよそへ行けば?
311:デフォルトの名無しさん
11/01/18 18:34:34
2chっていつもこうだよな。
面白い話題が提起されてもカスが大量にやってきてすぐに潰してしまう。
そして何も進まない。
312:デフォルトの名無しさん
11/01/19 00:28:54
実際リアルタイム補完が出来たとして
それ自体フィードバック掛かって
補間したデータに合わせて手元のマニピュレータが動いて
人間の体が勝手に動くと面白いかもな
313:デフォルトの名無しさん
11/01/19 00:42:37
>>312
それならマニピレーターから実際の角度などをとりだしたほうがよくないかな?
フィードバックを外部機器でおこなうなら。
314:デフォルトの名無しさん
11/01/19 01:53:24
踊れない人を踊らせるのか
315:デフォルトの名無しさん
11/01/19 12:17:54
おっぱいまだですか?
316:デフォルトの名無しさん
11/01/19 16:42:01
ノートPC(と電源)があれば、どっか広い場所でキャプチャーできるな。
体育館とか・・・ハードル高いか
317:デフォルトの名無しさん
11/01/20 01:17:58
素人が3DアクションぽいRPGとか作るのに良さげ
318:デフォルトの名無しさん
11/01/20 17:40:51
>>316
キャプチャ対象は人だけと思うな!
車に積めば車間距離を警告できるかも
319:デフォルトの名無しさん
11/01/20 17:44:10
急な飛び出しに反応してブレーキ踏んでくれると嬉しい
320:デフォルトの名無しさん
11/01/20 17:54:29
それはもうあるのでは
321:デフォルトの名無しさん
11/01/20 20:22:59
兎に角もっとバカでも出来る開発環境を備えてないと、
クソゲーメーカーはクソゲー作り放題だろ。
322:デフォルトの名無しさん
11/01/21 00:41:45
筋肉に電極埋め込んで俺がキョドるのを補正して欲しい
323:デフォルトの名無しさん
11/01/21 03:54:04
悪いけど、キネクトでキャプチャーしたデータ直すくらいなら一から手付けでアニメーション付けたほうが圧倒的に早いし綺麗
モーキャプデータの修正やった事ある奴ならそれがどんだけ大変かすぐ分かる
上でCGでアニメーション付けるのが楽になるっつってるけど、現場からしたらキネクトはお遊びレベル
遊びでやるなら使えると思う
324:デフォルトの名無しさん
11/01/21 03:56:44
とりあえずサンプル動いたけど、その後どう遊んでいいのか行き詰まったので、
とりあえずmmdで遊んでみた。予想以上に楽しかった。女装癖が芽生えそうだ。
しかし3D画像処理とかロボ系の知識がないとちょっと厳しいかもねこれは。
俺の場合mmdのほうも使ったことないし、OpenGLとblenderで多少遊んだ経験
ぐらいしか無いんで、ちょっと途方に暮れてる。
kinectハックはドキュメントが豊富って言ってるの見たことあるけど、
OpenNIとかrosとかの英語の資料を地道に読んでいけばいろいろ分かってくるんだろうか?
325:デフォルトの名無しさん
11/01/21 04:01:54
キネクトとは別のところで認識関連の画像処理の文書を読んだことがあるけど
おそらく、相当専門的な知識がないと苦労する。
今の段階では、与えられたキャプチャー機能で何をするか、と言う方向で考えたほうがいいと思う。
(キャプチャー機能をどうこうするか、ではなく)
それこそ某スペシウム光線なり、エロ方向なりに。
326:デフォルトの名無しさん
11/01/21 16:10:59
XNAで遊んでるけど与えられたキャプチャー機能だけでもけっこう面白いよ
327:デフォルトの名無しさん
11/01/21 16:13:54
XnModuleCppRegistratration.h
328:デフォルトの名無しさん
11/01/23 19:10:00
xnGetSkeletonCalibrationPose()が返す文字列の長さってわからないから
へたするとメモリ破壊起こしますね
329:デフォルトの名無しさん
11/01/24 16:47:46
/** The maximum length of names of objects in OpenNI **/
#define XN_MAX_NAME_LENGTH 80
330:デフォルトの名無しさん
11/01/25 03:00:24
>>323
まあ、現状はそうでしょ。取れるボーンの数も少ないし。
ただある程度環境が整備されてきたとき、このテのアプローチで
廉価にそこそこのクオリティを出せるグループが出てくるかもしれない。
大量生産に向いてるかもしれない。
たとえば、ニコ動で上がってる歌1つ分のダンスとか、完全手付けだったら
クオリティにかかわらず相当の費用になるところだけど、(ノウハウが集積すれば)かなり短時間でできそう。
あとはkinectで撮った3Dボクセルと重ねて見ながらモーション手付けもしくは修正するというのも
1つの利用方法かも。
331:デフォルトの名無しさん
11/01/25 16:40:46
直接反映しちゃうんじゃなくてあくまでジェスチャーコマンド(俺用語)的な使い方のがいいな
332:デフォルトの名無しさん
11/01/25 17:00:34
要するに安価に入手できるリアルタイムモーションキャプチャユニットという事なのかな?
良い時代になったものだ・・・
333:デフォルトの名無しさん
11/01/26 20:28:22
>>330
確かにボーン数がまだ少ないから商業的に使い物にならないんだよな、、
でも指先や顔の表情まで読み取れるようになるらしいから半年~1年後は
面白い事になってそう。(モーション以外にもいろいろ使い道は増えそうだし、、)
「果報は寝て待て!」だね。
334:デフォルトの名無しさん
11/01/26 22:40:04
果報は寝て待て!という反面すごいのが出てくるとヤラれた!って気にもなるんだよな
335:デフォルトの名無しさん
11/01/27 09:22:27
高スペックにこだわり過ぎるのも考え物だぞ
妥協できるすれすれで実用性を追求するのも努力だ
任天堂とかアップルに見習うべきよな
336:デフォルトの名無しさん
11/01/27 10:05:45
>>335
ここは技術板なのでマーケッティングの話は巣でやって下さい。
337:デフォルトの名無しさん
11/01/27 11:18:41
表情の認識はXbox360で可能にするという話は出てるけど、OpenNIでサポートするか
どうかは不確かだと思う。
表情の認識自体は深度情報使わず画像認識だけでできる話だし。
338:デフォルトの名無しさん
11/01/27 17:11:43
Sample-SingleControlのプロジェクトファイルをデバッグ無しで実行すると
"Session Manager couldn't initialize: No hand generator found. One is needed forsession manager."
って表示されて起動できないんだが・・・
Samples/Bin/Release内にあるSample-SingleControl.exeを起動すれば普通に扱えはするけども、解せぬ
同様の症状になった人いる?
339:デフォルトの名無しさん
11/01/27 19:09:59
338を書いた者だ。
OpenNIやNITEのインストール諸々を一からやり直したら正常に動作するようになった。
スレ汚しちまってすまねぇ
340:デフォルトの名無しさん
11/01/27 21:14:49
まあセットアップ大変だね。
ソフトを作って公開したとき大変だね。
341:デフォルトの名無しさん
11/01/28 12:19:12
>>335
俺達にとって「遊べるオモチャ」かが最重要であって
そんな事、関係者じゃない限り意味ないんじゃないの?
ってかキネクト自体もMSにしては「商品」としては随分ブラッシュアップしてあると思うけど、、」
342:デフォルトの名無しさん
11/01/28 14:46:15
Kinectはコスト削減やレスポンス向上のためにけっこう土壇場で
認識処理専用のチップ載せなかったり解像度落したりしてるしねえ
343:デフォルトの名無しさん
11/01/28 16:36:33
現代版「大人のおもちゃ」
344:デフォルトの名無しさん
11/01/29 19:05:02
センサの上下角度調整ってOpenNIで内蔵モーターつかってできる?
変になってる時つい手でガキッって直しちゃったけど壊れそうで怖い。
345:デフォルトの名無しさん
11/01/30 09:49:24
ヘッダー調べたら、踵とか指先とか、もっと細かいボーンが定義されてるけど
今のバージョンだと取得出来ない。
今後取得出来るようになったり、精度は上がるのかな?
346:デフォルトの名無しさん
11/01/30 10:17:15
なるかもしれないしならないかもしれない
347:デフォルトの名無しさん
11/01/30 11:23:40
足先指先は、赤外線ばらまく密度を上げないと難しいんでないかな
中遠距離だとフルHDくらいの分解能がないと失探すると思う
348:デフォルトの名無しさん
11/02/01 10:30:45
Kinectの上位機種が出るまで待てってことだな
349:デフォルトの名無しさん
11/02/01 11:04:36
上位機種でてもそれに対応したNITEが公開され無いと意味がないと
350:デフォルトの名無しさん
11/02/01 11:37:31
座布団を床ごと奪われて墜死するがよい
351:デフォルトの名無しさん
11/02/01 23:47:08
深度とかボーンとかとれるのは感動したけど実際にこれでなに作るかって言われると難しいもんだな・・・
352:デフォルトの名無しさん
11/02/02 03:19:18
モーションキャプチャなんて業務用というかクリエイター側の技術だしな
一般人、消費者側には使い途がない
353:デフォルトの名無しさん
11/02/02 09:30:45
でも創造性といった限りない自由度を与えられることで
飽きのこないゲームとして広く受け入れられる場合もあるよねMinecraftとか
354:デフォルトの名無しさん
11/02/02 19:32:26
まー良くも悪くもコントローラ程度の精度ってことだな
355:デフォルトの名無しさん
11/02/02 23:11:22
精度云々よりもキネクトで使える技術は大体まとまったからあとはアイデア勝負かな
356:デフォルトの名無しさん
11/02/04 12:15:41
Kinectでかめはめ波!改 コード公開版
URLリンク(www.nicovideo.jp)
357:デフォルトの名無しさん
11/02/06 23:01:35
URLリンク(www.youtube.com)
358:デフォルトの名無しさん
11/02/07 02:17:37
初めて見たときちょっと感動したけど
慣れるともうどうでもいいって感じになるな
おなかいっぱい
359:デフォルトの名無しさん
11/02/10 06:12:57
3Dキャラにキネクトモーションを入れ込んでリアルタイムで動かしてみたけど、
ゲーム史上未体験の感覚だわ。
これは夢広がりんぐ。
ただ、細かいボーンの動きが取れなかったり、遅延があったりするけど、
これは今後改善されそうだな。ソニーなりMSが出すであろう
次世代Kinectで。
360:デフォルトの名無しさん
11/02/11 01:51:32
リアルタイムじゃなくてもいいなら、奥行き画像を連番bmpで
保存してき、あとからその画像を詳しく解析することで
より精度の高い位置情報を求められるんじゃなかろうか?
361:デフォルトの名無しさん
11/02/11 04:01:00
深度カメラの制度の問題だから、ほとんど可能性はないだろう。
合成開口レーダーのように、対象が静止している状態で、
キネクト側を適切に動かして画像を得られるなら話は別だろうが、
運用は現実問題として実用的とは言えないだろうし、
それくらいなら、複数のキネクトを並べて情報を得たほうが実用的だろう。
362:デフォルトの名無しさん
11/02/11 07:49:30
>>361
精度の問題は少なからずあるだろうけど、今取れているすべての情報が
十分利用されているとは思わないな。
アルゴリズムの改良とGPGPUの利用とかで、解析部分の精度はまだ上げられるはず。
363:デフォルトの名無しさん
11/02/11 09:52:05
初期のアルゴリズムではすぐに追従出来なくなってキャリブレーション姿勢を
何度もとり直させられてたらしいが、その後大学機関の協力を経てサポートベ
クターマシン(SVM)を用いた認識アルゴリズムの改良に成功したという経緯だ
けを見てもまだ余力はあるだろうよ。
ただ、あらゆる姿勢に対応できるようにSVMの学習データを膨大にすると精度
を犠牲にしなければならなくなる二律背反であることから、姿勢推定範囲を限
定して精度の高い学習済みデータを切替えて使用するといったやり方が現実的
だろうな。
だが一番の問題はNITE代替の学習データ構築コストが半端無いことだろうな
Amazon EC2+Hadoop+Blenderで人体3Dモデル関節制約から深度情報生成...
ちょっと個人じゃ手が出せない規模だ。
364:デフォルトの名無しさん
11/02/11 14:13:46
複数台使ったりしなきゃならないくらい精度悪い?
動画みてると結構精度よさそうなんだけど
365:デフォルトの名無しさん
11/02/11 14:18:36
どの動画ですか?
366:デフォルトの名無しさん
11/02/11 16:29:50
>>362
GPGPUをお前はなんだと思ってるんだ。
367:デフォルトの名無しさん
11/02/11 16:52:44
漏れの見た動画は全て精度悪そうに見えた
368:デフォルトの名無しさん
11/02/11 19:06:22
>>366
General Purpose GPUだけど。要はCUDAとかを使う。
この手の姿勢推定とかの演算はだいたい並列化可能だろうし、
計算量を増やすことで精度を上げられる場合が多い。
とはいえアルゴリズムの修正のほうが重要だろうとは思う。
369:デフォルトの名無しさん
11/02/11 21:55:28
Kinectでキャプチャした数値をそのまま鵜のみにして使うのではなく
Havok BehaviorやEuphoria Motionなんかとミキシングして使うのも手かもな
370:デフォルトの名無しさん
11/02/12 11:52:10
>>368
依存関係多い計算だしそんな簡単じゃねーよw
お前GPUプログラミングはおろか並列プログラミングすらしたことねえだろ。
371:デフォルトの名無しさん
11/02/12 13:32:19
>>370
一言多い人だねー。
現状GPUプログラミングでネックになるのは主にビデオメモリへの転送だけど、
kinectレベルの画像サイズならどうということはない。
一旦デバイス側のメモリに上げてしまえば計算力は圧倒的に高い。
依存関係多いといっても段階ごとに分ければだいたい同じ処理のループが出てくる。
多少の工夫でなんとかなる。
とはいえ、姿勢推定のプログラミングはしたことない。
あんた詳しいようだから是非解説してくれ。
372:デフォルトの名無しさん
11/02/12 14:23:38
>>371
段階的に分けたとして、そのソフトパイプライン処理を、GPGPUできるの?
それとも、ある段階だけを並列化するにとどまる?
373:デフォルトの名無しさん
11/02/12 16:46:12
>>372
段階ごとに並列化した上で、それらを順次実行することで、全部を並列化できればベスト。
並列化の手法は段階ごとに変えられる。
GPU(CUDA想定)は基本的に、同じカーネル(Cでいうと関数(語弊あるけど))を全プロセッサで同時に実行する場合に高い
性能が出るから、小さい処理に分断した上で、それぞれの一瞬に関しては全体で同じ仕事をさせるほうが良い。
CPUのパイプラインみたいに同時に別の段階の処理をさせるとパフォーマンス出ないはず。
とはいえ、最近は同時に複数のカーネルをスケジューリングしたりとか、いろいろ進化してる気はする。
374:デフォルトの名無しさん
11/02/12 18:15:32
細切れにしてCPUとのインタラクションが増えればレイテンシが問題となる。
IOバスの先にあるGPUに細切れで仕事をやらせるのを、レイテンシの問題抜きで
語ることはできない。
375:デフォルトの名無しさん
11/02/12 20:27:20
だからGPUなんかはなから選択肢に無くて
ニューラルネットワークの応用であるSVMを使ってるんだよ
頭かたいなおまえら
376:デフォルトの名無しさん
11/02/16 04:28:51
大学生が作ったアクションゲームらしい
けっこうがんばってる
URLリンク(www.nicovideo.jp)
377:デフォルトの名無しさん
11/02/16 04:34:32
保守
378:デフォルトの名無しさん
11/02/18 09:16:35
ああ、スキンモデルを同期させて動かすプログラムやっとできた。
次は物理エンジンを組みあせてみるか。
379:デフォルトの名無しさん
11/02/18 09:18:19
ここはいつから日記スレになったん?
380:デフォルトの名無しさん
11/02/21 19:44:08.03
最初から
381:デフォルトの名無しさん
11/02/21 22:30:22.63
考えてみたら、立体をキャプチャーできるわけだよな。
ろくろみたいに回るなり、複数のキネクト使うなりすれば・・・
382:デフォルトの名無しさん
11/02/21 23:10:00.73
精度をあげるために複数キネクトはアリだと思うが誰かやってくれないだろうか
383:デフォルトの名無しさん
11/02/21 23:13:31.88
複数kinectは赤外線が干渉するだよ
384:デフォルトの名無しさん
11/02/21 23:25:02.95
2台
URLリンク(www.youtube.com)
385:デフォルトの名無しさん
11/02/22 15:37:21.05
MS公式ライブラリ予告だけかよ
386:デフォルトの名無しさん
11/02/22 15:44:46.53
DirectX SDKとの統合作業中なんじゃないの
あっちはあっちで去年の6月から更新されてないし
387:デフォルトの名無しさん
11/02/22 16:06:41.65
そこでDirectXが出てくる意味がわかんねえ
388:デフォルトの名無しさん
11/02/22 16:45:45.08
OpenNIがあるんだから、意味無いと思うんだけど。
それ以上の事が出来るようになるのかな?
顔認識とか、もっと精度の良いモーションキャプチャーとか
389:デフォルトの名無しさん
11/02/22 16:52:41.44
OpenNIはフレームワークだからMSのライブラリにもラッパーをかませてNITEと
切り替えて使えるようにすればアプリ作り直しにはならないだろうけど
MSはOpenNIなんて無視するだろうに1万ペソ
390:デフォルトの名無しさん
11/02/22 17:04:38.86
>>388
Xbox360のデモ見てる限りではOpenNIとは比べものにならない精度っぽい。
391:デフォルトの名無しさん
11/02/22 17:06:49.64
ドライバとランタイムが同梱されたインストーラが再配布可能で
インストールすればCOM経由で骨格情報まで取得できる、ってところまでやれば
別にOpenNIのミドルウェアとして提供しなくても評価する
商用/非商用SDKを分けているあたりケチくさいことやってきそうだよなあ
OpenNI+NITEをライバルとして認識してればいいんだが
392:デフォルトの名無しさん
11/02/22 17:08:19.03
まぁ例え一度財産が失われようと、
新しく出来る基盤の上に更なる成功が積み重なるなら惜しくはないな
393:デフォルトの名無しさん
11/02/23 00:48:35.68
MicrosoftのSDKは商用ならいろいろ面倒くさそうだな。所詮はモロに金儲けか。
OpenNIよりよほどのアドバンテージが無ければスルーだな
394:デフォルトの名無しさん
11/02/23 00:49:16.89
>>390
ソースきぼん
395:デフォルトの名無しさん
11/02/23 01:28:23.21
いくら360上で精度高いところ見せられても、PC上で検証しなきゃ比較できんだろう。
キャリブレーションポーズ取らなくてもよかったりするからちょっと期待しちゃうけど。
Kinectのスケルトンって内蔵チップじゃなくて360のCPU/GPUで計算してるんだっけ?
ここまで勿体ぶっておいて、いざPCで動かしてみたらNITEより性能劣ってたら良い笑い物だなw
396:デフォルトの名無しさん
11/02/23 06:01:56.99
商用で金儲けしようとする奴が金儲けをディスるというのは滑稽というか自己矛盾もいいとこだが、
商用に制限を課したのはKinectをエロゲに使わせたくないからでは?
以前MSがエロに否定的な発言してただろ。
金払えば商用可というような単純なものではなく、多分アプリを個別に審査して許可不許可を決めるんじゃないかな。
397:デフォルトの名無しさん
11/02/23 09:51:48.51
まったくねえ。
ハックする気がある人なら道具が増えたと喜ぶところなのに、どうせ作られたものを
落としてきて動かすだけのお猿さんか、動画評論家なだけってのがバレバレですね。
398:デフォルトの名無しさん
11/02/23 11:07:23.64
エロゲメーカー内製で非公式MOD出せばいいだけの話
大丈夫だ、問題ない。
399:デフォルトの名無しさん
11/03/06 17:45:27.23
本をパラパラめくるだけでスキャンできる機械が東京大学で開発されていますが、キネクトを使えば個人でも利用できるような気がします。どうでしょうか。
URLリンク(www.youtube.com)
400:デフォルトの名無しさん
11/03/06 18:05:27.44
無理です。
401:デフォルトの名無しさん
11/03/06 18:13:21.62
解像度がなぁ
402:デフォルトの名無しさん
11/03/06 20:02:25.10
高速度の高解像カメラはまだまだ高価だよ
403:デフォルトの名無しさん
11/03/09 02:55:59.42
楽しそう
404:デフォルトの名無しさん
11/03/10 13:45:03.18
キネクトの解像度やフレームレートっていくつなんだ?
公式やwiki見ても載って無いんだが
ググっても変なのしか出て来ないし
405:デフォルトの名無しさん
11/03/12 01:44:21.82
>>404
基本640x480 30fpsだと思うが。まあデプス画像は実質ではそこまで精度ないと思う。
406:デフォルトの名無しさん
11/03/13 18:52:58.07
デブス画像とかモザイクかけてくれていいよ
407:デフォルトの名無しさん
11/03/14 11:25:12.25
デプス画像なんて普通にモザイクレベルだろ
個人が判別出来るほどの精度ねーよ
408:デフォルトの名無しさん
11/03/27 23:25:55.58
あの~こちらデブスとデプスを引っ掛けておりまして…
いえっはいっ何でもございません滅相もございません
409:406
11/03/28 08:58:39.86
ツッコミオセーヨ
だがこれでようやくこのスレを閉じれる
ありがとうさようなら
410:デフォルトの名無しさん
11/03/28 10:55:52.54
自演臭い
411:デフォルトの名無しさん
11/04/17 03:14:59.00
動画:MS が Kinect for Windows SDKをデモ、ベータ版は今春公開
URLリンク(japanese.engadget.com)
4Gamer.net ― “Kinect風”な開発者向けモーションキャプチャデバイスがASUSから登場
URLリンク(www.4gamer.net)
412:デフォルトの名無しさん
11/04/17 03:35:19.98
キネクトより精度が上だったりするのだろうか。これ。
あとは認識範囲が広いとか。
413:デフォルトの名無しさん
11/04/17 06:06:25.64
キネクト風っていうか、OpenNI 公式のデバイスだよね。
414:デフォルトの名無しさん
11/04/17 08:43:53.74
深度センサーだけでKinect単品より値段も高いとか、宗教上の理由で買えない人専用だな
415:デフォルトの名無しさん
11/04/17 09:23:33.12
スケールメリットの差があるから仕方が無い
それと、エロゲ用途ならXtionを使うしかない
以前のアナウンスからすると、MSは恐らくKinectを商業エロには使わせない
416:デフォルトの名無しさん
11/04/17 09:44:00.27
>>43
いつのまにか実装されてるな
417:デフォルトの名無しさん
11/04/17 09:46:13.74
>>415
深度センサーだけでなくRGBカメラとかも搭載したKinect上位互換機なら良かったんだけどねえ
418:デフォルトの名無しさん
11/04/17 10:54:49.26
>>415
それはエロい人がどうにかしてくれるだろきっと
419:デフォルトの名無しさん
11/04/17 14:10:45.40
深度センサーだけ?
kinectでも赤外線じゃ細かい部分が精度不足でとれないのに。
指の動きがわかるくらいの精度になるのかな。
420:デフォルトの名無しさん
11/04/17 19:45:05.18
64bit windows7で開発環境整えてるんだけど、OpenNIサンプルがどれもうまく動かない。
組み合わせ1
OpenNI-Win64-1.1.0.39-Dev.msi
avin2-SensorKinect-8f199ca.zip - SensorKinect-Win-OpenSource32-5.0.1.msi
NITE-Win64-1.3.1.3-Dev.msi
組み合わせ2
OpenNI-Win32-1.1.0.39-Dev.msi
avin2-SensorKinect-8f199ca.zip - SensorKinect-Win-OpenSource32-5.0.1.msi
nite-win32-1.3.1.3-dev.msi
組み合わせ1だとOpenNIのインストールはうまくいくんだけど、
SensorKinectのインストールでOoenNIのバージョン1.1.0.39以上にしてくれって警告でて
インストールができない。もちろんバージョンは1.1.0.39なんだけど
組み合わせ2だとすべてうまくいくんだけど、
サンプル実行するとどれもフリーズする。
深度センサは赤くなってるから動いてるみたいだけど。
すべてのインストール先をProgram Files (x86)→Program Filesに変更しろって
いろいろなサイトに書いてあったんだけど、インストール先指定でProgram Filesを
指定してるのに、すべてインストールはProgram Files (x86)のほうにされる。
Program Files (x86)もだめ、手動でフォルダ移動+XML書き換えでもフリーズでした。
うまくいった人、どのインストーラーで成功した方情報ください。
421:デフォルトの名無しさん
11/04/18 02:48:21.39
俺も>>420と同じで、久々にOpenNI更新したら動かなくなってた。
まだ手をつけてないけどパスの指定がダメで dll か lib が読み込めてないと思っている。
あとサンプルのバイナリは動かないよw
初期設定ファイルの相対パスが違うから。以前のバージョンだと。
422:デフォルトの名無しさん
11/04/18 03:17:28.11
Kinect for Windows SDK - Microsoft Research
URLリンク(research.microsoft.com)
423:デフォルトの名無しさん
11/04/18 03:49:13.73
>>421
組み合わせ2でNiSimpleViewer.exe実行すると
ザラザラだけど一瞬だけカメラからの画像が移るんだよ。
64bitの互換性云々でこうなってるのかなって思ったんだけど、
まだどこか設定ミスがあるのか・・・。さっぱりわからないけど。
正直Kinect for Windows SDKの記事を見て
「あ、kinect買ったんだった」って思い出して今に至ってるから、
待てばいいんだけどね。GW前までに出てくれればいいなと願っている。
424:デフォルトの名無しさん
11/04/18 08:02:25.68
>>422
コネー
425:デフォルトの名無しさん
11/04/18 08:26:01.93
.>>423
俺はMSのSDKを見てからOpenNIとどっち使うか決めるよ。
OpenNIのが良いかもわからんからね。
426:デフォルトの名無しさん
11/04/18 10:58:41.05
>>423
> 正直Kinect for Windows SDKの記事を見て
> 「あ、kinect買ったんだった」って思い出して今に至ってるから、
俺も俺もw
427:デフォルトの名無しさん
11/04/18 20:00:48.98
MSDNの機械翻訳は読みづらいからなぁ・・・
OpenCVみたいなサイトをOpenNIも作ってくれれば、そっちのほうが良いかもしれん
428:デフォルトの名無しさん
11/04/20 02:51:04.69
Official Kinect SDK to be Open Source
URLリンク(nui.joshland.org)
広報は否定してるけど面白そうな話だなあ
429:デフォルトの名無しさん
11/04/21 20:45:37.33
ジェスチャーの学習って出来るの?
430:デフォルトの名無しさん
11/04/24 01:23:37.34
>>420
解決してたらごめん。
俺もそろそろSDK出るだろうと思って21日に買った。
環境はWin7 Ul x64
最初はうまくいかなかったんだけど色々いじってたらいった。
使用ファイル(24日01時最新?)
OpenNI-Win32-1.1.0.41-Dev.msi
avin2-SensorKinect-8f199ca.zip
NITE-Win32-1.3.1.3-Dev.msi
OpenNIはUnstable。
全部32bitね。
普通にx86パスにインストールしたし、インストール時に特に変更した箇所はない。
SensorKinectのDriverはdpinst-amd64.exeを実行。
とりあえずいじったとこは、
環境変数 → パスが「Bin」のはずなのに「bin」になってるので修正。多分再起動しないと認識しないかと。
OpenNI\Data\modules.xml → おかしなパスがあるので修正(もしかしたら俺がx64verとか過去verをなんどもインストールして試してたからかも)
OpenNI\Data\licenses.xml → これもなんか2個記述があった。本来入力したほうのみ残して余分なほうは消した。(多分何度かインストールしたせいかと・・・)
一度インストールしたのならアンインストールしてやり直したほうがいいかも。
ファイル残ってる場合もあるし俺みたいに上書きされるかもしれん。
後、これやる前に前回インストールした時のドライバで認識されてるからデバイスマネージャからKinectのカメラ、モータ、オーディオを消して再起動した。
431:デフォルトの名無しさん
11/04/27 07:30:00.50
VB初心者の学部生なんですけど、
VBとkinectを一年以内に接続して、サーボモータを動かすという課題が出ました。
OpenNIを使ってらっしゃる方をよく見かけるのですが、
これってC言語のプログラムですよね?
SDKは夏前に出るとかいうニュースがありましたし
ある程度の成果を一定期間毎にあげなくてはならないのでSDKを待てません。
そこで質問です。
OpenNIが行っている処理の情報をVBを使って管理することはできますか?
もし出来るならやり方を教えてください。
長々とすみません。
432:デフォルトの名無しさん
11/04/27 09:35:08.20
>>431
なんでVBなんて使う?
課題を出したやつに聞いてこい。いや煽りじゃなくマジで
433:デフォルトの名無しさん
11/04/27 11:12:12.47
VB.NETならつかえるっしょ。
434:デフォルトの名無しさん
11/04/27 15:10:10.37
>>431
C は初心者じゃ無いと言うなら、VB のマニュアルで declare を調べる。
435:デフォルトの名無しさん
11/04/27 15:24:46.26
>>432
C以外の言語にも触れていろいろできるようになってほしいらしいです。
>>434
なるほど、これならできそうですね。
答えてくださってありがとうございます。
ここから先でわからないところがでたらVB板で聞いてみます。
436:デフォルトの名無しさん
11/04/27 16:10:39.69
>>430
情報どうも。
ちなみにどのサイト参考に環境整えた?
437:デフォルトの名無しさん
11/04/30 10:58:54.30
デプスとイメージジェネレータは使えるようになったけど、ユーザージェネレータの作成でコケる。
これってNITEのセットアップに失敗してるって事だよね。
以前はいけたんだけど、なんでこんなにハードル高いんだよ。もう心が折れそうだ
438:デフォルトの名無しさん
11/05/01 02:09:56.73
OpenNIのjavaラッパーってありますかね?
JNAあたりで読み込めると楽なのですが
439:デフォルトの名無しさん
11/05/02 18:09:50.80
ジェスチャってこれ、予め用意されたジェスチャしか使えないのん?
440:デフォルトの名無しさん
11/05/03 13:21:27.43
>>437
設定ファイル(.xml)でユーザージェネレーターを有効にして無いとか?
それかそもそもNITE入れてないとか。
441:デフォルトの名無しさん
11/05/03 14:19:42.90
ボーン認識の特徴点に何使ってるかとかって判明してるんだっけ?
442:デフォルトの名無しさん
11/05/08 23:42:30.90
Visualstudio2008
XNA Game studio3.0
WindowsXP
骨格情報取得のプログラムを作成したら
using xn;
ところで、エラーがでるんですが原因わかりませんか?
エラー文です。
エラー CS0246:
型または名前空間名 'xn' が見つかりませんでした。
using ディレクティブまたはアセンブリ参照が不足しています。
443:デフォルトの名無しさん
11/05/08 23:46:37.90
参考にしたURLです
URLリンク(www.kosaka-lab.com)
tips/2011/04/kinect-xna.php
444:デフォルトの名無しさん
11/05/08 23:51:53.25
>>442
>>443
週に数レスしかないスレで聞くの?
質問スレの方がいいよ
445:デフォルトの名無しさん
11/05/08 23:55:42.44
Kinectの質問スレあるの?
446:デフォルトの名無しさん
11/05/09 00:12:43.11
総合スレのことですか?
447:デフォルトの名無しさん
11/05/20 21:27:28.25
Kinectハアアァックッ!!!!!!!!!!!
448:デフォルトの名無しさん
11/05/26 03:26:17.62
どなたかKINECTセンサープログラミングの書評をおながいしまふ
449:デフォルトの名無しさん
11/05/26 03:47:49.63
>>448
おまえみたいなヴァカには無用の長物だよ
450:デフォルトの名無しさん
11/06/10 16:19:53.47
SDKコネー
451:デフォルトの名無しさん
11/06/10 20:08:31.61
気づかないうちに出てるんじゃないかと思ってときどきググってみるけど、まだ来てないよな
もう春は終わってる気がする
452:デフォルトの名無しさん
11/06/10 20:31:46.26
kinectSDK出すとXBOXのキネクト用ソフトが売れなくなるからかな。
453:デフォルトの名無しさん
11/06/11 08:41:08.26
しょせんキネクトも一発屋か...
454:デフォルトの名無しさん
11/06/11 18:12:14.46
俺たちの春はこれからだぜ!
455:デフォルトの名無しさん
11/06/11 19:45:02.55
マイクロソフト先生の次回作にご期待ください!
456:デフォルトの名無しさん
11/06/12 02:20:35.14
キネクトは場所取りすぎるんだよ
メリケンの大きい家じゃないと厳しい
ヨーロッパや日本のような狭い家だと㍉
457:デフォルトの名無しさん
11/06/12 08:09:26.86
>>456
非純正だけど、狭い部屋でも出来るようにするレンズが出るって話だ
距離や大きさの測定が狂う気がする
458:デフォルトの名無しさん
11/06/13 08:26:15.77
放射能に反応しないかな
459:デフォルトの名無しさん
11/06/13 09:42:27.27
ガイガーつければいい。
でも、東京じゃ反応しまくってゲームにならないな。
460:デフォルトの名無しさん
11/06/13 16:33:13.42
バッファロー辺りから、深度センサー付きカメラって出てなかったっけ?
それでも良い気がする
461:デフォルトの名無しさん
11/06/13 21:49:58.61
ASUSのXtion Proね。深度センサー付きというより
深度センサーしか無いくせしてKinectより 5k くらい高いけどな
かなりコンパクトでUSBバス電源で動くから値段次第じゃ欲しいんだけどねえ
462:デフォルトの名無しさん
11/06/14 00:51:07.54
>>461
デベロッパ向けの価格じゃなかったっけ(SDK付属)
一般向けはKINECTよりは低い価格設定されるのでは、と思ってるのだが。。
作品(つぅのか)を応募してて最優秀賞金が2万ドル。
賞金安すぎない?円が高すぎるのか。。
463:デフォルトの名無しさん
11/06/14 09:31:59.37
URLリンク(download.microsoft.com)
URLリンク(www.unitycorp.co.jp)
Kinectの仕様は相変わらずどこにも載ってねぇなぁ
クラス1レーザーのKinectと違って、Xtion Proは2画面カメラによる深度測定か
VGAで30fps確保されてるし、こっちのほうが良くね?
464:デフォルトの名無しさん
11/06/14 09:38:14.69
KINECTのあの価格はXBOXのスケールメリットとゲイツマネーがあってこそだろ?
好事家にしか売れそうにないXtionが割高になるのは仕方が無いよ
465:デフォルトの名無しさん
11/06/14 09:41:17.56
Kinectの仕様は公式じゃないけど、これくらいか
URLリンク(takao.asaya.ma)
ASUSならQVGAにすれば60fpsになるな
Kinectの利点はカラーで処理出来るくらいか?(深度計測にサブピクセルが必要かは不明だが)
マイクは連動して位置感知してる訳じゃないから他で用意すりゃいいし、
カタログスペックならASUSのほうが使い道ありそう
466:デフォルトの名無しさん
11/06/14 09:51:32.85
60fps出たとして、画像認識の処理追いつくんかいな
467:デフォルトの名無しさん
11/06/15 03:27:25.44
NiAudioSampleってなあに
468:デフォルトの名無しさん
11/06/17 01:09:46.32
PSTの6/16 9:30にKinect technologyに関するアナウンスがあるらしいね。SDK公開かな?
URLリンク(channel9.msdn.com)
PSTの9:30ってあと30分後か
469:デフォルトの名無しさん
11/06/17 01:28:39.11
>>468
楽しみだ。
470:デフォルトの名無しさん
11/06/17 01:33:48.97
Watch the Kinect SDK Beta Launch Live
URLリンク(channel9.msdn.com)
471:デフォルトの名無しさん
11/06/17 01:35:01.31
kinect SDKbeta
URLリンク(research.microsoft.com)
472:デフォルトの名無しさん
11/06/17 01:42:21.67
XPな自分に死角は無かったorz
473:デフォルトの名無しさん
11/06/17 01:46:47.84
Windows 7専用・・・だと・・・
なんてこったい待望のSDK公開が来たというのにドライバがインストールできない
474:デフォルトの名無しさん
11/06/17 01:59:00.59
SDK来たのか春は終わってしまったが
475:デフォルトの名無しさん
11/06/17 02:00:55.22
F-07Cが発売されたらKINECT SDKを入れるんだ。。。
476:デフォルトの名無しさん
11/06/17 02:04:41.14
起動待ちがなくてコロンビアなしで即座にスケルトン…
OpenNIとはなんだったのか…
477:デフォルトの名無しさん
11/06/17 02:19:59.20
さっそくOpenNI削除してインストールしてみる!
478:デフォルトの名無しさん
11/06/17 04:35:04.46
Vistaユーザーはどこまでも虐げられねばならんのか…
479:デフォルトの名無しさん
11/06/17 05:14:39.53
VistaユーザはさっさとWindows 7へ移行しているものだと思ってた。
480:デフォルトの名無しさん
11/06/17 07:32:51.69
Ni削除してないけど動いた
サンプルゲームは動かない
コロンビアいらない
なんか動きがブルブルする
首、手首、足首認識してる
481:デフォルトの名無しさん
11/06/17 07:48:53.21
そりゃNiは消さなくても動くだろNIをなんだと思ってんだkinectの為のものじゃないぞ
ドライバ消さなくても動いたの?
482:デフォルトの名無しさん
11/06/17 09:49:30.65
スケルトントラッキングの関節データはどういう形式で取得できる?
OpenNIみたいにカメラ座標での(x,y,z)だけなのか、ローカル座標での回転で取得できるのか。
Windows7持ってないから動かせないけど、マニュアルだけでも読んでみよう
483:デフォルトの名無しさん
11/06/17 09:53:27.40
公式ドライバが出たのにハックと言えるのだろうか
484:デフォルトの名無しさん
11/06/17 10:16:35.80
openniもmmdもなしにモーションキャプチャだと…!?
485:デフォルトの名無しさん
11/06/17 10:27:33.77
Skeletal Tracking Fundametalsのビデオ見るとプログラムが起動した瞬間にトラッキング開始してるな。
当然キャリブレーションポーズなし。そんな事が可能なのか...
あとTransformSmoothingをかけるとプルプルしてない。
関節の回転がきちんと取れればOpenNIより凄そうだ。
Windows7を持ってなくて動かせないのが残念だ。
486:デフォルトの名無しさん
11/06/17 10:55:54.50
>>475
それ俺も考えたんだが、ホストUSB無いじゃねーか
最も、Kinect自身が外部電源必要だけどな・・・
487:デフォルトの名無しさん
11/06/17 11:36:50.16
>>485
> 当然キャリブレーションポーズなし。そんな事が可能なのか...
実際箱のkinect対応ゲームじゃ一瞬で人体認識するのが普通なわけだし
MS謹製SDKなら出来て当然だろう
488:デフォルトの名無しさん
11/06/17 13:43:55.63
OpenNIインストールでごちゃごちゃ苦労したのに、純正は1回で普通に認識した、ワロタ
わろた・・・・・・・・・・・・・
489:485
11/06/17 14:57:30.03
Windows7持ってないからSDKの中身を解凍してKinectSDK.chmを読んだだけだがびっくりするぐらいシンプルだな。
そしてスケレタル・トラッキングは2人まで(一応もう4人は認識だけはできるが重心位置だけで関節位置が取れない)。
トラッキングは20個の関節の位置(x,y,z)しか取得できず回転が取得できない。使えねー
OpenNIに比べるとシンプルで完成度は高そうだが、回転が取れないので画面に向かってカニ歩きしかできない...
(XBOX360のKinectゲームはみんなそうなのか?)
俺が欲しかったのとはちょっと違う。おもわずWindows7を買ってこようかと思ったがスルー決定。
490:デフォルトの名無しさん
11/06/17 15:10:37.78
>>489
kinect-ultraは三点の座標から計算で角度と回転計算してるよ
朝試した時は肩の上げ下げは認識してなかったな
椅子に座った状態は問題無く認識してたけど
背もたれに深くもたれたらブルブルしてた
491:デフォルトの名無しさん
11/06/17 19:29:34.82
>>486
つクレードル
492:デフォルトの名無しさん
11/06/17 19:46:00.71
サンプルは全部動いたけど、
サンプル終了しても赤外線センサが起動したままなんだが。
終了時にちゃんと開放してるんか?
493:デフォルトの名無しさん
11/06/18 00:28:48.82
USB接続できるキネクトのファームウェアアップデートってXBOXがないと出来ないって聞いたんですけど、
SDKで出来るようになってたりしますかね?
494:デフォルトの名無しさん
11/06/18 03:33:42.19
アップデートきてるの?
495:デフォルトの名無しさん
11/06/18 12:45:29.25
少なくとも一度は来てる
496:デフォルトの名無しさん
11/06/18 14:15:40.75
何が変わったの?
497:デフォルトの名無しさん
11/06/18 19:27:02.20
Vistaでも動いたよん
498:デフォルトの名無しさん
11/06/19 00:02:19.66
>>485
Windows7の開発環境だけなら手に入るよ
Windows7 無料でググれよ多分でてくる
499:デフォルトの名無しさん
11/06/19 13:04:45.24
さっそく、解説サイトが出てました
URLリンク(www.kosaka-lab.com)
カメラの上下を制御できるのは面白いな
500:デフォルトの名無しさん
11/06/19 13:21:14.89
誰かMMD以上のモーションキャプチャツール作ってくれ。
インターフェースとモーション対応フォーマットを改善してくれ。
501:デフォルトの名無しさん
11/06/19 14:40:33.91
フライトシムとレースシムのTrackIR互換インターフェースなヘッドトラッキング求む
502:デフォルトの名無しさん
11/06/19 14:57:29.50
kinect首の回転って検出できたっけ
503:デフォルトの名無しさん
11/06/19 15:00:49.50
そこが凄い疑問で、どうやって頭の回転を検出してるのかはわからないんだけど
Forza Motorsport 4ってので実際にヘッドトラッキングしてるんだよね。
URLリンク(www.youtube.com)
504:デフォルトの名無しさん
11/06/19 15:08:15.69
>>502
kinectのファームがちょくちょく更新されてるからな
505:デフォルトの名無しさん
11/06/19 15:09:54.29
PCでも更新させて欲しいわ
実機とか買ってねえし
506:デフォルトの名無しさん
11/06/19 15:19:02.59
>>502
頭部の色とか顔面の深度の移動で認識してるのかね
507:デフォルトの名無しさん
11/06/19 15:20:31.64
>>505
中古屋にいけば初代が1万以下で買えるかと。
箱無し傷アリなんかだと5~6000円で売ってたりもするね。
あとは360をもってる友人にやってもらうとか360のあるネカフェに行くとか。
508:デフォルトの名無しさん
11/06/19 15:36:49.16
ネカフェはいいアイデアだがあるかどうか
509:デフォルトの名無しさん
11/06/19 16:04:54.67
五千円なら欲しいけど、
今さらDVDのゲーム機は要らんな。
510:デフォルトの名無しさん
11/06/19 16:08:52.88
貧乏人乙です
511:デフォルトの名無しさん
11/06/19 16:21:55.50
ほぼゴミになるし。
SDKで対応して欲しいものだ。
512:デフォルトの名無しさん
11/06/19 20:07:59.68
素人丸だしではずかしい質問なのですけど
Windowsプログラム初体験でkinect使った
win7プログラムはじめるのにお勧めの
書籍とかサイトはありませんか?
ObjectiveCとperlは使ったことあります
WINDOWSは普段使いしています
513:デフォルトの名無しさん
11/06/19 20:09:59.28
>>502
目を検出したら頭の向きを推定できる気が
514:デフォルトの名無しさん
11/06/19 20:58:32.11
目だけでは難しいので、Tゾーンだな。
515:デフォルトの名無しさん
11/06/19 21:40:30.07
サンプル起動しても、NuiInitialize failedとエラーでる…
なぜ…
516:デフォルトの名無しさん
11/06/20 00:36:05.24
KinectとPCはちゃんとUSBケーブルでつながっているか?
Kinectの外部ACアダプターはつないだか?
このスレの悩みの80%はこの2つで解決する。
517:デフォルトの名無しさん
11/06/20 01:12:13.34
>512
あほか、499のサイト見ろよ
518:デフォルトの名無しさん
11/06/20 07:17:41.35
kinectはxbox360用のものなのにSDKでファーム更新対応しろとか……
本当に貧乏人乙だなwww
519:デフォルトの名無しさん
11/06/20 09:11:39.61
揉めてまで残しておくほどの情報かね
520:デフォルトの名無しさん
11/06/20 10:21:00.64
ゲームしないからな。
521:デフォルトの名無しさん
11/06/20 17:25:06.79
kinectの座標データって、正しい?
例えば、
●頭のy座標と足先のy座標の差を出力した時、
●実際にメジャーを使って頭から足先までを計った時、
ではかなり差が出ない?
522:デフォルトの名無しさん
11/06/20 17:25:46.04
そりゃ出るでしょw
523:デフォルトの名無しさん
11/06/20 18:20:06.20
なぜなのか教えてください
524:デフォルトの名無しさん
11/06/20 18:22:37.22
自分の足りない頭で考えろ
525:デフォルトの名無しさん
11/06/20 18:37:10.81
考えなくてもわかるだろ・・?
ほんとにわからないの?
526:デフォルトの名無しさん
11/06/20 18:44:40.27
ワールド座標とかローカル座標が関係しますか?
527:デフォルトの名無しさん
11/06/20 18:55:52.07
いや、精度の問題だから、センサーのお話になると思うのだが・・・
528:デフォルトの名無しさん
11/06/20 19:38:25.46
普通に考えて、カメラから見て近くの人形と遠くの人間が
同じ大きさに見えるだろ。
何を基準に長さが違うと言ってるのかわからん。
Z軸は距離センサーの値だからそれなりに信用できると思うが。
529:デフォルトの名無しさん
11/06/20 19:52:49.06
カメラの精度の問題ですか?
ということは、取得できる座標は、単なる目安に過ぎないんですかね?
ユアシェイプ・エボルブというソフトでは、
身長の測定が出来るとおもうのですが、これも目安程度の身長なんでしょうか
530:デフォルトの名無しさん
11/06/20 20:12:56.39
ファームウェアのアップデートで精度が上がったとか言う話もあったな。
比べる対象にもよるが。
そう言うことだよ。
531:デフォルトの名無しさん
11/06/20 20:20:54.84
自分で作ったらどこまで精度出せるだろう、とか考えたら良いよ
頭の端、足の先、どんな角度だろうが厳密に割り出せると思うかい?
532:デフォルトの名無しさん
11/06/20 20:52:26.69
>>530
詳しく聞きたい。
kinectのファームウェアのアップデートとかがあるんですか?
533:デフォルトの名無しさん
11/06/20 20:54:52.57
普通にあるだろ。
食いつくトコはそういうところじゃねえだろ。
534:デフォルトの名無しさん
11/06/20 21:11:45.34
Live Animationというモーション作成ソフトがKinectに対応していてこの間フリー化された。
これを使うと簡易モーションキャプチャーができる気がするのだが、誰かやってみないか?
URLリンク(www.drf.co.jp)
535:デフォルトの名無しさん
11/06/21 00:00:45.58
既にMMDとかでもいっぱいやってるやん
536:デフォルトの名無しさん
11/06/21 00:25:44.39
MMDは閉じてるからな。役に立たない
537:デフォルトの名無しさん
11/06/21 00:51:13.89
和製ソフトに期待はしてない。
SDK後の欧米の天才に期待。
538:デフォルトの名無しさん
11/06/21 02:13:02.74
>>534
それはSDKが出る前のだからopenNIしか対応してないだろうし
今後の対応待つべきだな
539:デフォルトの名無しさん
11/06/21 03:02:08.56
macでOpenNi, Nite, SensorKinectを入れて、OpenNiのNiViewerを動かしてみたのですが、
One or more of the following nodes could not be enumerated:
Press any key to continue . . .
と出てしまいます。
システムプロファイラではKinectは認識されているようです。
OpenNiを入れる前はOpenKinect+processingでkinectできてました。
現在、Openkinectはアンインストールしています。
原因わかる方がいたらお願いします。
540:デフォルトの名無しさん
11/06/21 08:11:15.05
>>529
デバイスが同じでも長さを推定するアルゴリズムで
精度は変わるよ
541:デフォルトの名無しさん
11/06/21 09:14:04.02
そもそもゲーム用コントローラとして「動きを認識できれば良い」程度の精度さえあれば十分だからな
細かい距離計測なんぞ不要
必要ならそれなりの高い物を買え(桁が二つくらい変わるが)
542:デフォルトの名無しさん
11/06/21 11:23:38.92
実際の精度測ってないからわからんけど、
>>521 はボーンの端の座標でそう言ってるんじゃないよね?
頭のボーンの端は頭の中心あたりにあるわけだし。
というわけで、デプスマップ上にある人間一人分の領域の中で
一番高い部分と一番低い部分の座標をちゃんと計算したか?という話。
Kinectの構造としては、ちゃんと機体がキャリブレーションされているなら、
そこそこの精度は出ると思うんだよね。
まあ、1cm単位で正確にというのは厳しいと思うけども。
543:デフォルトの名無しさん
11/06/21 11:25:05.56
>>539
フリーになるライセンスキーを各所に入れ忘れてない?
544:デフォルトの名無しさん
11/06/21 11:29:16.46
キネクトだと髪型によって身長も変わるんだろ。
545:デフォルトの名無しさん
11/06/21 11:37:13.23
>>544
アンドロ梅田とか?
546:デフォルトの名無しさん
11/06/21 12:03:08.70
kinectSDKとOpenNI使い分ける時って、毎回削除とインストールくり返さないとダメなん?
547:デフォルトの名無しさん
11/06/21 17:52:42.02
誰かVMware Fusion3上でKinectSDK動かせた人いない?
いたら返事してくれ
548:デフォルトの名無しさん
11/06/21 19:59:22.79
>>547
アニョハセヨ
549:デフォルトの名無しさん
11/06/22 10:34:49.27
>>547
イ尓好
550:デフォルトの名無しさん
11/06/22 12:52:30.70
東アジアばかりだ・・・
551:デフォルトの名無しさん
11/06/22 13:10:23.11
>>547
Aloha!
552:デフォルトの名無しさん
11/06/22 15:06:21.76
547のものだが、どうもKinectのいくつかのデバイスが認識されない。
KinectAudioArrayControl、KinectAudioUSBあたり
Windows7機で開発するかぁ
553:デフォルトの名無しさん
11/06/22 15:10:09.55
>>547
jumbo
554:デフォルトの名無しさん
11/06/23 00:39:45.15
>>552
ドキュメントにバーチャルマシンではだめと書いてあるじゃん
You cannot run applications in a virtual machine, because the Microsoft Kinect drivers and
this SDK Beta must be installed on the computer that is running the application.
555:デフォルトの名無しさん
11/06/23 11:46:09.36
SDK入れてみた
90cmより近いとdepthとれないのかな??
556:デフォルトの名無しさん
11/06/23 12:39:20.82
90cmだったかは覚えていないが距離の制限は当然ある。
2mぐらいが標準なのでちょっと近すぎね?
557:デフォルトの名無しさん
11/06/23 13:56:01.52
ありがとうございます
たしかに標準ではそうですよねー
ボーン認識のための距離だとおもってて
depth画像にでてこないとは思っていなかったので... orz
SkeletalViewerでみる限りでは初期位置で1.1-1.2mくらい離れないと
ポーンの取得がうまくできないみたいですね
一度取得すると0.9mくらいまで寄ってもいけるみたいですが...
ググっていると発表会で850mm~4000mmとプレゼンに出ていた
と、みくだんに書いてあるのをみつけました
558:デフォルトの名無しさん
11/06/23 17:12:35.08
アメリカンルームが基準だからねえ
確かKinect用の広角レンズが発表されたか発売されたかしてるので、
兎小屋ではそれを使うのがデフォルトになりそう
559:デフォルトの名無しさん
11/06/23 17:25:11.89
kinectの GetJointsで取得できる座標って、ワールド座標?
原点(0,0,0)は、kinectのカメラの位置を指しているって理解で大丈夫?
560:デフォルトの名無しさん
11/06/23 17:32:31.39
>>540
長さを推定するアルゴリズムって、
赤外線照射して、三角測量から距離を推定するアルゴリズム
のことでしょ?
どのkinectデバイス使用しても、アルゴリズムは同じじゃないの?
561:デフォルトの名無しさん
11/06/23 17:41:36.57
>>560
そこだけ見ればそうだろうけれど、対象までの距離を得るアルゴリズムが変われば
結果も変わるんじゃないの?例えば合成開口レーダーや超解像のごとく時間軸
方向へ展開して距離の精度をあげるとか、考えられるんじゃない?
562:デフォルトの名無しさん
11/06/23 17:56:38.20
>>559
YES, YES, YES
563:デフォルトの名無しさん
11/06/23 18:28:27.10
>>542
つまり、
ボーン座標の頭から足先のy座標差は、
実際の鼻からくるぶし辺りまでの長さ
と同じかどうかってことだよね?
それはちゃんと意識して測ってるんだけどなぁ
564:デフォルトの名無しさん
11/06/23 18:36:21.52
座標軸はキネクトに合わせて傾いてるから補正する必要がある
565:デフォルトの名無しさん
11/06/23 19:06:36.36
>>558
thx
かっこえー
URLリンク(www.nyko.com)
これで後は使い方を考えるだけ... (すでに手段と目的が逆w)
566:デフォルトの名無しさん
11/06/24 12:04:01.85
563は現実世界をセンシングするデバイスのプログラミングに向いてないと思うよ
567:デフォルトの名無しさん
11/06/24 14:07:26.35
↑まあそういわずにw
>>563
状況がわからないけど
同じ照明、同じ安定した背景、同じ被写体、同じ立ち位置で、衣服や姿勢を変えて
それぞれ5回くらい計測して再現性の程度を確かめるところから始めるといい
うまくいかないときはまず測定環境を一定させてやってみて
そこから1つ条件を変化させては数回計測するというのが鉄板
568:デフォルトの名無しさん
11/06/24 16:45:05.74
ProgrammingGuide_KinectSDK.docxから抜粋
・Standing Scenarios Only: not seated figures.
・For the depth and skeletal views, the figures should stand between 4 and 11 feet from the sensor. (1.2 to 3.5 meters)
・Kinect Sensor Array Specifications
Viewing angle 43° vertical by 57° horizontal field of view
Mechanized tilt range (vertical) ±28°
Frame rate (depth and color stream) 30 frames per second (FPS)
Resolution, depth stream QVGA (320 × 240)
Resolution, color stream VGA (640 × 480)
Audio format 16-kHz, 16-bit mono pulse code modulation (PCM)
Audio input characteristics A four-microphone array with 24-bit analog-to-digital converter (ADC) and Kinect-resident signal processing such as echo cancellation and noise suppression
SDKのほうは違う解像度にも対応しているように書いてあるけど
センサー解像度を越える部分を補間してるのかどうかまではまだ読んでない
569:デフォルトの名無しさん
11/06/24 17:14:57.00
SDKはOpenNIとくらべて精度がバリいいぜーって聞かないけどぶっちゃけどうなんすか先輩~
570:デフォルトの名無しさん
11/06/24 17:35:32.01
画像データを使用して深度センサーに補正かけても・・・
単純な深度センサーのほうが精度良さそうだしなぁ
571:デフォルトの名無しさん
11/06/24 17:50:27.22
サーボとマイク使えるくらいなんだろうかわからん
572:デフォルトの名無しさん
11/06/24 20:22:06.19
OpenNIとくらべて精度がバリいいぜ
573:デフォルトの名無しさん
11/06/24 20:43:20.16
マジすか先輩!ちょっと踊ってみてくださいよオナシャス!
574:デフォルトの名無しさん
11/06/24 20:45:43.21
そんなに精度いいのか
比較がほしいな
575:デフォルトの名無しさん
11/06/24 21:45:22.26
マジっすか。Windows7持ってないから見てるだけ~
576:デフォルトの名無しさん
11/06/24 22:23:25.54
>>575
PC安いから買おうぜ。
577:デフォルトの名無しさん
11/06/24 22:45:12.80
誰かXtion持ってないの?
578:デフォルトの名無しさん
11/06/25 14:49:46.09
z座標は比較的正確な値が出るけど、
x,y座標に関しては、桁が違うくらい大きな差が出るのはなんで?
例えば現実で手を100cm移動させた時と、
kinectの測定結果では100(=100mm=10cm)くらいの値しかでないんだが
測定方法は、手を移動させる前の座標と移動させた後の座標の差から算出している
OpenNIは1.0.0.25
Niteは1.0.3.18
579:デフォルトの名無しさん
11/06/25 15:03:46.72
>>578
なにも考えずにConvertRealWorldToProjectiveで変換してるけど、いい感じですよ
580:デフォルトの名無しさん
11/06/25 15:21:30.99
>>579
ConvertRealWorldToProjective変換しなくても、正しい値出力されますか?
581:デフォルトの名無しさん
11/06/25 15:40:55.98
>>580
あ、距離のXY方向をmmとかcmで知りたいんだ。
ConvertRealWorldToProjectiveしちゃダメか。
Zはちゃんとmmになってるんだけどなぁ。。
いろんなZ位置で画面見ながらメジャーを映して測ってみたら何か分かるかなぁ。
お役に立てなくてゴメン
582:デフォルトの名無しさん
11/06/25 15:54:36.35
>>581
単純に、手の移動距離(単位はcmかmm)を計算するプログラムを作りたいんです。
具体的には、GetJointで、手の移動前と移動後の位置座標の差から、移動距離をコンソールに出力する
プログラムです。
URLリンク(www.kosaka-lab.com)
を参考にしています。
*例えば、移動前(0.200.2000)と移動後(0,600,2000)だと、
差は、(0-0,600-200,2000-2000)
つまり、y軸上で400=40cm手が動いたと算出するプログラムです。
しかし、なぜか現実世界で40cm動かしてみても、
kinectで取得する座標では(0,40,0)くらいの差しか出力されないので困ってます
583:デフォルトの名無しさん
11/06/25 16:53:04.49
>>582
URLリンク(www.kosaka-lab.com)
この例だと、ConvertRealWorldToProjectiveしてるけど、
RealWorldってどんな値なのか見たことないなぁ
月曜日見てみましょ
584:デフォルトの名無しさん
11/06/26 00:10:45.77
>>583
ありがとうございます。
力をお貸しください...
585:デフォルトの名無しさん
11/06/26 00:44:11.12
全然内容見てないけど、カメラ座標系から世界座標系に変換するだけじゃないの?
586:デフォルトの名無しさん
11/06/26 01:58:51.64
カメラ座標系の値が出てるようなら、ConvertProjectiveToRealWorldかませばいいのかもね。
587:デフォルトの名無しさん
11/06/26 02:00:22.81
■短期集中連載
・初めてのKinectプログラミング
とにかく使ってみる
URLリンク(itpro.nikkeibp.co.jp)
588:デフォルトの名無しさん
11/06/26 16:50:06.62
これは俺の妄想だけど、
Z軸方向は距離が重要になるので実際に正確な値を返すが、
X軸Y軸方向は、正確な値を返す問題が起こるんじゃないだろうか。
キネクトはあくまでもゲームの入力デバイスだから、例えば腕を振ったとき、
その長さで判定すると、大きな人と小さな人の間で移動量が変わってしまう。
それを防ぐために、各間接のポイントの移動だけを取り出して、それを内部でモデル化された人体に適用して、
その人体の移動量を取り出しているのではないかな。
そうすることで、体の大きさに変わりなく、同じ動きで同じ値が取り出せるようになるだろう。
その辺ってことはないのかな?
589:デフォルトの名無しさん
11/06/26 21:51:38.21
>588
だいたいあってる
しかし、憶測であれこれ言ってもしょうがないので
この文献はテンプレ入りってことで
URLリンク(research.microsoft.com)
590:デフォルトの名無しさん
11/06/27 07:52:24.92
ボーンが示した手の位置を距離画像でみて
自分で手の輪郭抽出したら精度あがるん
じゃない?
591:デフォルトの名無しさん
11/06/27 15:39:41.89
>>584
NITE.PointControlのPointUpdateイベントのハンドラで、
HandEventArgs.Hand.X、Y、Zを表示させて調べてみた。
X,Y,Zみな単位はmmで、ZはKINECTからの距離、X、Yは原点から距離。
X,Yの原点(0,0,Z)は「真ん中」。
[スタート]→[すべてのプログラム]→[PrimeSense]→[NITE]→
[Samples]→[Sample-PointViewer]の画面で真ん中の位置が「真ん中」。
右手に定規持って左手動かして表示値を読んでるので精度いい加減。
リニアリティ、オフセットなど多少演算が必要かも。
592:デフォルトの名無しさん
11/06/27 16:20:11.97
>>591
ありがとうございます!自分でもいろいろいじってみた結果、
URLリンク(www.kosaka-lab.com)
上記プログラムの198行目をコメントアウトしたら、正確な値が出力されるようになりました。
ConvertRealWorldToProjectiveって、何の値を何の値に変換するものなんですか?
593:デフォルトの名無しさん
11/06/27 16:33:22.59
>>592
ConvertRealWorldToProjective、Zはそのまま。
距離で見た目が変わるから、X=Z×係数、Y=Z×係数。
中央が原点なのを端にするので、X=320-X、Y=240-Y。とかじゃね
594:デフォルトの名無しさん
11/06/27 17:42:15.40
距離が大きくなるほど画面上小さくなるから掛け算じゃなくて割り算かな。失礼
595:デフォルトの名無しさん
11/06/28 22:47:56.86
OpenNiのsample、NiUserTrackerの骨格の座標はScenceDrawer内のDrawLimbで表してるのですか?
わかる方詳しく教えてください。
596:デフォルトの名無しさん
11/06/28 23:07:10.06
ジョイントのx,y,zの事ならカメラが0,0,0
DrawLimbって何?
597:デフォルトの名無しさん
11/06/29 00:07:55.39
void DrawLimb(XnUserID player, XnSkeletonJoint eJoint1, XnSkeletonJoint eJoint2)
{
}
これですね。
DrawLib内で座標を表しているのかと思ってます。
598:デフォルトの名無しさん
11/06/29 14:10:46.50
日本語が残念すぎて何を言ってるのかわからん。
XnSkeletonJointならカメラを(0,0,0)にして+Z方向が人間の方向を向いている右手座標系だ。
単位は確かmm(だったと思うがcmだっけ?)。
599:デフォルトの名無しさん
11/07/01 10:26:29.91
一人でテストするのがつらい
部屋が狭いし
600:デフォルトの名無しさん
11/07/03 11:35:43.35
骨格座標は、ここが肩、ここが肘、ここが手、
というような20個の点と、それを結んだ線で出来てるけど、
点の決定の仕方ってどうやってるの?
いまいち精度が良くないから、修正したいんだが
601:天使 ◆uL5esZLBSE
11/07/03 11:36:48.25
2011年、Ruby,Perl,PHP,Pythonって並べたときにさ
ここで、Ruby以外を選ぶ奴ってマジでなんなんだろうな
ゴミグラマじゃねーか
602:ラプラスの天使 ◆daemontaDA
11/07/03 11:44:30.60
>>601
rubyだけしか使えないとか、プログラマーにあるまじきだがw
603:デフォルトの名無しさん
11/07/03 12:28:38.64
C/C++以外、どれを選んでも結局は同じゴミだからだろう。
604:デフォルトの名無しさん
11/07/03 12:49:22.33
え?
Python>php>>(超えられない壁)>>Ruby,Perlじゃね?
605:大天使 ◆uL5esZLBSE
11/07/03 13:39:21.82
すべての言語を習得した上でRubyを触ってる
まぁゴミにいっても想像できない作業指数だし
ゴミがそれをやろうとすると20年かかってしまうという
初心者スレ乙
C/C++ とかはっきりいってもはやハードウェア専用なのに、これでソフトウェアかいてる奴もゴミだし
$のついてるPHPや、ifに:のついてるPython使っている奴もゴミ以外のなにものでもない
冗長したものが、すきなんだね きっも
606:デフォルトの名無しさん
11/07/03 13:42:29.52
kinectでうごかしたい
URLリンク(www.nicovideo.jp)
607:デフォルトの名無しさん
11/07/03 13:44:38.12
パッケージソフトもOSもコンシューマゲームもコンパイラもブラウザもC/C++で書かれているのに、
ハードウエア専用とか意味不明。
日頃使っているプログラムの大部分が、未だC/C++なことくらい理解してから発言した方がいいよ。
608:デフォルトの名無しさん
11/07/03 14:09:48.38
Rubyが冗長じゃないとw
609:デフォルトの名無しさん
11/07/03 14:50:00.69
>>605
Rubyを作ったmatz氏はゴミということか。面白い。
610:大天使 ◆uL5esZLBSE
11/07/03 14:59:04.03
か か れ て い る
か、どうかじゃなくてさぁwwwwww
俺が、ハードウェア専用言語だって言ってんだよw
過去の遺物の真似なんてしなくていい
2011年から始まるプロジェクトで、C,C++なんて使ってたら笑われるよ
それよりも以前から続いてるプロジェクトで、C,C++使っているのは
あー、保守乙
っていう感じなんだけども
保守と新規プロジェクトは違うからね・・・・・・・・・・・・・・・・・・・・
611:デフォルトの名無しさん
11/07/03 15:02:06.33
>>610
アホがハードウエア専用言語ってなんだよ
VHDLとVeriogだろ
612:デフォルトの名無しさん
11/07/03 15:02:14.16
なんだ弱小Web屋か
613:デフォルトの名無しさん
11/07/03 15:02:58.56
あらゆる言語使ってきてハードウェア専用言語がC,C++www
それでやれるもんならやってみろよw
614:デフォルトの名無しさん
11/07/03 15:10:41.12
>>612
専門卒だから知らないだけです。
PC弄ってる分には縁がないし。
615:デフォルトの名無しさん
11/07/03 15:35:19.35
いい加減他所でやれよ
過疎スレだからって何やってもいいってわけじゃねえんだぞw
616:デフォルトの名無しさん
11/07/03 15:35:25.41
お前らkinectの話じゃないなら他行けよ
617:デフォルトの名無しさん
11/07/03 15:38:12.00
他の言語じゃマネできないようなkinectのプログラムをRubyで作れるって話なんじゃないの?
618:大天使 ◆uL5esZLBSE
11/07/03 16:27:08.35
あー初心者 ほんと初心者 上を見たいなら今は俺に同意しておけ
上とか見たくないなら 消えろ シッシ
>>617
はぁ?
そもそもスクリプト言語は「 機能がなければ自分で言語拡張させながら 」やっていくものであって、
それ以下の奴がスクリプト言語なんて触っていても、ほんとに初心者
はいはい初心者初心者 ハックって文字につられた初心者か
ハックもクラックもできるけど質問ある?
はいはい しんでね、興味さえもってりゃおまえたち一般人でも20年で追いつけるよ?
向上心のないゴミはしね
619:デフォルトの名無しさん
11/07/03 16:59:18.91
なんでこうなるまでほっといたんだ・・・
620:デフォルトの名無しさん
11/07/03 17:16:05.55
何この人・・・放射線の影響か・・・
621:デフォルトの名無しさん
11/07/03 17:22:54.01
rubyは厨房しか使ってないからなぁ仕方がない、教祖はあれな宗教やってるしキチガイも多いんだろう
それに英語が書けない連中ばかりだからオプソ界からハブられちまったしなオワコン言語だ
622:デフォルトの名無しさん
11/07/03 18:08:09.61
>>618
結局はC/C++で独自にRubyを拡張して、kinectを利用したプログラムを作るという話に落ち着いた訳か。
まあ単独じゃ使い物にならないしね。
623:デフォルトの名無しさん
11/07/03 18:09:52.21
まあ、手段に過ぎない言語で、上とか下とか言い出す奴は大抵ヘボいな。
適材適所で使えよ、な。
今すぐKinectで簡単に何かしようと思ったら、とりあえず、C++, C#, VB で、他の選択肢はほとんどないだろ。
624:デフォルトの名無しさん
11/07/03 18:20:43.43
>>618
すごい!Rubyで直接Kinect叩けるんですね!
ぜひソースをみせてもらいたいです^^
625:デフォルトの名無しさん
11/07/03 18:28:58.34
>>624
はいどうぞ。いくらでも見てください。
URLリンク(github.com)
626:デフォルトの名無しさん
11/07/03 18:47:33.23
>>625
結局Rubyだけじゃ無理というおはなしですね
627:デフォルトの名無しさん
11/07/03 19:04:16.81
珍しく伸びてると思ったらこれかよw
誰がどう考えてもN88 BASICが最強です。(キリッ
628:デフォルトの名無しさん
11/07/03 20:25:22.35
>>623
その通りだがVBとPHPは別格
629:デフォルトの名無しさん
11/07/03 20:47:55.74
>>625
そのライブラリ、内部でC使ってるみたいだけど
630:デフォルトの名無しさん
11/07/03 23:41:59.16
それがどうかしましたか?
631:デフォルトの名無しさん
11/07/03 23:56:40.31
そもそもRuby自体が…
632:デフォルトの名無しさん
11/07/04 01:26:28.63
IronRuby使ってC#のAPI叩けば普通にいける気もする。
633:デフォルトの名無しさん
11/07/04 01:27:32.09
ruby最強だけどCはわからないから誰かがやれ
ってことか
ああそう
634:デフォルトの名無しさん
11/07/04 01:40:15.52
それがrubyの伝統
635:デフォルトの名無しさん
11/07/04 02:04:59.69
松本龍復興担当相、やや遅れて入室したことにへそを曲げ
知事との握手を拒否
URLリンク(www.youtube.com)
「客を出迎えるときはおまえが先に部屋に入ってから俺を呼べ」
「今のはオフレコで」
「書いたらその社は終わりだからな!」
636:大天使 ◆uL5esZLBSE
11/07/04 07:05:31.24
>>621-n
ほらな
この流れみてわかるように1~2人、マジで初心者な奴が混ざってんだよ
俺の初心者センサーの精度は高い
まぁ、これだけはいっとくけど、一生懸命30年もプログラミングやってりゃ2011年7月時点の俺には、
もしかしたら追いつける可能性があるから
がんばればいいと思う 2012年の天使とかなると 流石に70年くらいプログラミングがんばらないと一般人じゃ追いつけない
>>624 これとか
>>629 これとか
>>632 これとか
これが初心者。そもそもIronRubyのAPIってなんだよwww あれがまだどれだけ不安定かも知らないんだろうな・・・
ゴミは使った事がなくて上辺の知識だけしかないから・・・・・・・ そもそも.NETのAPIたたけば・・・とかいってる時点でバカかと、
Rubyだけじゃできない事があったらそこはWinAPI直で触るのが常識、 Rubyだと、WinAPIにアクセスするときですら
まだバグ残ってんのに.NETへのアクセスなんてやろうとしたらさらにバグに触れる事になる
スクリプト言語っつうのは、そういう「バグのある可能性の高い箇所」を予想して回避していく事が大事なんだよ
Cのexeと違って、バグ入っていてもそのまま途中まで動くのが動的言語なんだから
>内部でC使ってる?
ハッァァアア??www たとえば、print とか、これ実装するのにもC使ってんだよ、具体的にはCで出力したOS依存のアセンブリコード
っていう認識をしたほうがいいけど、初心者にはまだわけのわからない話なんだろうな・・・
初心者はとりあえずWeb系やってろよ とりあえずWeb系に強くなればハッキングもできると思うよ 文字コードに長けろ
2chはともかく、そこら辺の弱小bbsならどうせセキュリティホールが残ってる
637:大天使 ◆uL5esZLBSE
11/07/04 07:20:54.92
まず、ハッキングっていうのはだな、目標PCをサーバー化する事なんだよ
FFFTP使ったことあるだろ?
ようは、FFFTPとかでアクセス可能にさせちゃうのがハッキング
サーバーかいたことある?
ちなみにRubyだと3行くらいでかける
Cでかいたらライブラリがないから1000行くらいいくぞ
スクリプト言語ってのは結局、「ライブラリ群」でもあるんだよ
Cで、そうやって厄介なものを実装して、それをスクリプト言語で扱うことで桁違いの効率をたたき出す言語
勿論これは初心者には扱えないよ
英語サイトがよめなーい とかいってる奴ってのは、日本語サイトでもよめないよ
だって俺は英語が読めないのに英語サイトから情報引っ張ったりしてんだから
言葉が読めるかどうか??? じゃなくて「何を調べたらいいのか?」 それを知っていれば
いくつかの単語とソースコードさえ読めれば情報は引き出せる
「何を調べたらいいのか?」 というのは、OSと言語を自分でかけるレベルにならないと一生辿り着けない範囲
ちなみに俺は18歳の時点で、自作言語、19歳の時点で自作OSを作ってる 対等になりたいならさっさと追いついてこいよゴミ
638:デフォルトの名無しさん
11/07/04 07:23:23.51
URLリンク(beebee2see.appspot.com)
639:デフォルトの名無しさん
11/07/04 08:08:18.42
以上コピペでした
動くコード持ってきたら話聞いたるわ
とじっちゃんがいってた
640:デフォルトの名無しさん
11/07/04 08:15:32.29
結局、自分でC最強説を決定づけると。
いったい何がしたかったんだろう?
641:デフォルトの名無しさん
11/07/04 08:36:48.09
kinectSDKをインストールすれば
Kinectのファームウェアがアップデートされたりするのかね
642:大天使 ◆uL5esZLBSE
11/07/04 08:38:43.55
はいはい初心者すれ初心者すれ
背伸び背伸び
今の時代にC,C++なんて
積極的に触ってる奴なんて初心者でしかないんだから・・・・ そこだけは覚えておけよ
いい年こいて、まだ触ってる奴もいて、C、C++で作るべきではないものまでその言語で書いてる奴
アレは時代に取り残された老害
お前たちにさ、 Cでかくか、C++でかくか、C#でかくか、Rubyでかくか、 このあたりの選択まだできないだろ
まずは、 C と C++ の使いどころの違いから知ってくれよ 本来、一緒に並べるべき言語でもないんだからさぁ
職業ゴミグラマはレスしないでいいよ、これはここに張り付いてる中高生初心者へむけてのメッセージだから
職業ゴミグラマ以下の名無しとか、本来 俺の前を横切ることさえ許されないのに
レスされているだけ光栄に思えや
643:デフォルトの名無しさん
11/07/04 09:12:27.59
>>642
レスされているだけ光栄に思えや
思えや
644:デフォルトの名無しさん
11/07/04 09:45:51.45
>>642
C/C++がハードウエア専用言語とやらではなく、
各言語のライブラリを組む上で必須であることは理解できたみたいだね。
恥をかいた分、勉強になってよかったね。
645:デフォルトの名無しさん
11/07/04 10:33:31.11
タイムスタンプみろよ
自演乙じゃねえか
646:デフォルトの名無しさん
11/07/04 10:35:39.92
>>641
xbox買えって結論だったと思うが >493
647:デフォルトの名無しさん
11/07/04 11:58:28.33
Kinectファームのアップデート器具として買うにはバカ高い
友達に1日だけ借りろ。
648:デフォルトの名無しさん
11/07/04 13:54:53.60
>>642
CでRubyインタプリタ書いているMatzはド素人!俺もお前と同意見だぜ!
649:デフォルトの名無しさん
11/07/04 14:14:14.15
ファームのアップデートしたら何が変わるの?
650:大天使 ◆uL5esZLBSE
11/07/04 21:31:23.63
>>644
まだわかっていないのか
ハードウェア専用といっているじゃん 俺が定義づけしてんだから是なんだよ わかったか?ゴミ
>>648
いやあれは、2000年以前にかき始めたからだろ?
2000年ごろだとC++がまだあちこち対応してなかったと思うし
いろんな場所で動かす為に、Cでかき始めて
現状、Cで十分やれてるからCで続行してるんだと思うよ
わざわざC++を導入しちゃうと、
C++わかっていない子がバグを入れ始めるから、あれはC言語で正解
651:デフォルトの名無しさん
11/07/04 21:47:41.92
動けばなんでもいーじゃん
652:デフォルトの名無しさん
11/07/04 21:47:49.75
>>637で紹介されているFFFTPもCで書かれているという悲しみ。
どう考えてもC推進キャンペーンとしか思えない持ち上げよう。
653:デフォルトの名無しさん
11/07/05 03:24:07.37
>>650
いやMatzはRubyをRubyで書くべき、Cを使う奴はド素人!!!!
K&RはC作ったからド素人!!!!UNIXは素人の作ったOS!!!!
MicrosoftはC/C++でWindows書いてるから超絶ド素人集団!!!!それを認めたゲイツはド阿呆!!!!
AppleはCを改造してObjective-C使ってるから超絶ド素人集団!!!!それを認めたジョブズは無能!!!!
LinusはCでLinux書いてるからド素人!!!!Linusは油まみれのビーバー!!!!デカチン野郎!!!!
GNUはC/C++ばかり使うカルト集団!!!!RMSは基地外!!!!
Rubyなら"UFO"飛してるから確実に世界を回してるもんな
未確認過ぎて誰も見えてないんだよな
654:天使 ◆uL5esZLBSE
11/07/05 10:00:37.79
------
「「「「「「「「 CでRubyインタプリタ書いているMatzはド素人!俺もお前と同意見だぜ! 」」」」」」」」(嘲ッッ笑!!
------------------------------(笑ッ!!笑!
655:デフォルトの名無しさん
11/07/05 10:36:47.25
はい
656:大天使 ◆uL5esZLBSE
11/07/05 10:38:14.96
おっと、 天使が失礼なことを書き込んでしまった
だから先にもいったように C と C++ の使いどころの違いを
まず説明できるようになってからなんだよね あの言語がどうとか
他人と話せるレベルになるのは
657:デフォルトの名無しさん
11/07/05 10:40:32.99
別キャラ設定なのか
658:デフォルトの名無しさん
11/07/05 12:10:16.77
想像上の他人の意見と戦う精神疾患ってなんていう名前なんですか?
659:デフォルトの名無しさん
11/07/05 12:25:09.04
>>656
構ってもらえた方々に感謝しろよ
(但しお前の扱いは珍獣だが)
660:デフォルトの名無しさん
11/07/05 12:27:25.77
近距離のdepthが取れたらなー > アップデート
661:デフォルトの名無しさん
11/07/05 13:21:39.47
珍獣の隔離所があると聞いて
662:デフォルトの名無しさん
11/07/05 17:55:42.24
kinectって赤外線使って、どうやって対象物までの距離計測してるの?
663:デフォルトの名無しさん
11/07/05 18:02:21.89
URLリンク(www.robotsfx.com)
多分こんな感じ
664:デフォルトの名無しさん
11/07/05 18:56:30.93
このコテハン「天使 ◆uL5esZLBSE」は天才チンパンジー「アイちゃん」が
言語訓練のために使用しているハンドルです。
アイと研究員とのやり取りに利用する書き込みなので、
関係者以外はレスしないで下さい。
京都大学霊長類研究所
665:デフォルトの名無しさん
11/07/05 21:04:04.74
youtubeに動画たくさんあるけど
携帯のカメラで観察すると赤外レーザーバターンがみえるかも
666:デフォルトの名無しさん
11/07/05 21:37:38.43
実用的な3Dスキャナが未だに出てこないのは作りづらいからなのかね?
667:大天使 ◆uL5esZLBSE
11/07/08 13:16:00.44
>>659
あれから何日かたったけど、ちゃんと勉強してるか
お前のゴミみたいな頭でも48時間もあれば十分な知識ついてるはずなんだけど
じゃあ
CとC++の違いをどうぞ↓
668: 忍法帖【Lv=5,xxxP】
11/07/08 13:31:11.69
test
669:デフォルトの名無しさん
11/07/08 13:35:34.60
もしかして音声使わないのならSDKよりOpenNIのほうがいいのか
670:デフォルトの名無しさん
11/07/08 13:39:00.35
一見類人猿のように見えるが、外骨格のそれは明らかに霊長類ではない。
むしろ古代Blattodeaのそれを髣髴させる、私はこの3日この不思議な生物に
ついて調査を進めたが、結局この生き物が何であるか何処から来たのか
突き止めることは出来なかった。この生物について言える確かな事、それは
地球上の生物とは全く頃なる2つの塩基対から構成され、インターカレーション
を形作っていることである、もはや生物と読んで良いのかも私には解らない。
その行動は獰猛であり言語を持たないことからコミュニケーションを採ることは
一切できなかった。現在その標本は某研究施設に冷凍保存されており、
この生物と呼んでよいのか解らない存在を知る者は私を含めて僅か数名と
なってしまった、奴が目覚めることが無いよう私はこの記録を墓場まで持って
いかねばならない…
671:デフォルトの名無しさん
11/07/08 13:59:37.14
>>667
お前の主張が正しいって事でスレ・・・板荒らすの止めてくれよ。
672:デフォルトの名無しさん
11/07/08 14:33:23.58
>>667
それとKinectと何の関係があるんだよ
673:デフォルトの名無しさん
11/07/08 14:37:31.22
存在しないレス番にレスが付くのを見ていると奇妙な感じだ
674:デフォルトの名無しさん
11/07/08 16:56:44.82
>>673
「自分は機知外NGにしてますからwww」みたいなレスもイラネ
675:デフォルトの名無しさん
11/07/09 16:10:27.71
>666
URLリンク(www.youtube.com)
キャリブレーションに苦労するぽ
676:デフォルトの名無しさん
11/07/12 08:26:29.20
URLリンク(www.amazon.co.jp)
こんな本出てたんだね
気付かなかった
677:デフォルトの名無しさん
11/07/12 09:20:33.60
知ってたけど、どうでもいい本だからあえて書かなかった
678:デフォルトの名無しさん
11/07/12 19:31:50.62
>>676
本人乙
よくこんなのでこの金額とれるなという糞本
679:デフォルトの名無しさん
11/07/12 20:03:47.81
URLリンク(d061333.web.fc2.com)
こちらを参考にして各骨格の座標を取得したのですが
各関節の位置情報をtext fileに書き込むこと
は可能ですか?
680:デフォルトの名無しさん
11/07/12 21:30:54.18
>>677-678
ありがとう
本人じゃないけど店頭で見たので聞いてみた
皆さんの意見を聞いて買わない事にしました
アマゾンの書評って全然当てにならないですね
681:デフォルトの名無しさん
11/07/13 09:07:58.93
>>676
秀和システムの本て時点で買う気なし
なんで秀和システムって概要とインストールで本全体の3分の1消費したがるのか
682:デフォルトの名無しさん
11/07/13 10:07:56.35
>>680
密林で3って危ない部類だぞ
本当の良書は4~5で安定
減点理由も「自分のレベルとは合わない」程度の書評
683:デフォルトの名無しさん
11/07/14 15:30:25.31
>>680
Amazonの評価も最悪じゃないか…俺は当てになってたと感じたが?
684:デフォルトの名無しさん
11/07/16 17:54:31.30
AvatarKinect見て、Kinect自体で顔認識できるのかと思って調べたけど、
公式SDKにはそれっぽいのないですね。
やっぱり距離画像とカラー画像を使って、OpenCVで顔認識するしか
方法ありませんでしょうか?
685:デフォルトの名無しさん
11/07/16 19:47:47.86
フェイシャルトラッキングが簡単にできたらと思うけど
出てくる人はシーグラフレベルの人ばっかりだよね
相当険しい道なのか
686:デフォルトの名無しさん
11/07/18 21:44:15.77
今日やってたロボコンの番組で東大のチームがkinectをセンサとして使ってたね。
687:デフォルトの名無しさん
11/07/19 07:52:39.19
レンジの制限で使いにくそうだけど
近距離はどうやってカバーしたの?
688:デフォルトの名無しさん
11/07/19 13:16:44.98
モーションキャプチャの凄いの作ってくれよ。
689:デフォルトの名無しさん
11/07/19 13:18:58.56
自分で作れよ
690:デフォルトの名無しさん
11/07/22 14:51:16.90
WindowsコンソールアプリでNITE.SwipDetectorのイベントを、
クライアントに配信するアプリを作ったのだが、数十回送ると例外が発生する。
OpenNIとNITEを入れ替えてみたら、ちゃんと動いた。
OpenNI-Win32-1.1.0.41
NITE-Win32-1.3.1.5
↓
OpenNI-Win32-1.3.2.3
NITE-Win32-1.4.1.2
691:ななし。
11/07/27 22:52:34.21
カ オ ス ラ ウ ン ジ ゆ る せ な ぁ い ー
692: 忍法帖【Lv=40,xxxPT】
11/07/30 14:44:31.53
693:デフォルトの名無しさん
11/08/01 20:31:10.07
Kinectで取得したボーンの座標をBVHに出力する方法の
解説とかサンプルコードどっかに無いかな?
694:デフォルトの名無しさん
11/08/01 20:56:10.75
>>693
おまえの理解力が足りないだけだろ。
BVHのフォーマットは分かってるか?
変換して出力すれば終わりだろjk
695:デフォルトの名無しさん
11/08/01 21:32:13.00
>>693
Blender用のスクリプトであったよ。
696:デフォルトの名無しさん
11/08/01 21:46:47.55
>>695
kwsk
697:デフォルトの名無しさん
11/08/02 04:25:43.93
>>694
kinectからは座標だけしか取得出来なくて、BVHには、ローカル回転(オイラー角で)を
出力しなきゃならないんだよ。
その座標からローカルのオイラー角を計算する方法が不明なんだよ。
698:デフォルトの名無しさん
11/08/02 04:30:50.14
>>695
BVHを読み込むのはBlenderで出来るし、自分で実装できるけど、
Kinectの座標からBVHを出力する方法がわからんのだよ。
699:デフォルトの名無しさん
11/08/02 10:42:32.47
BVHはスケルトン構造とオイラー角が必要だけど、
残念ながらKinectは各ノードの絶対的な座標しか持たないので、
スケルトン構造はともかく、オイラー角は2軸的な動きしか再現できないね。
これは単純なBVA形式フォーマットに近い。
3Dツールなどでは、BVAのノードはたいていNULLオブジェクトのモーションとして読み込めるので、
ボーン付きの仮モデルと、エクステンション(またはスクリプト)を組んで、
ボーンの起点と終点をNULLオブジェクトに追従させるようにしてアニメーション変換するのが一般的。
但し、腕のひねりなんかは表現できないので、それは手付するか、エクステンションで工夫する。
そこからボーンアニメーションをBVHに変換して、別モデルに流し込んだりする。
といった感じに似たコードを自分で書かないとBVH化は無理だと思うよ。
700:デフォルトの名無しさん
11/08/02 11:18:32.51
>>697
ようするに、数学が分かってないだけかw