10/12/06 10:25:34
C#で書いてる途中である程度動くようになってきたが、
>>43へ投稿する方法がわからない。
51:デフォルトの名無しさん
10/12/06 12:02:29
github からフォークして変更加えたものをpullリクエストすればいいだけ
リリースアナウンス用に GoogleGroup にディスカッション作って通知しないと無視されるかもね
52:デフォルトの名無しさん
10/12/06 12:14:08
ロードマップ作ってみた
人体3Dマーカレストラッキング技術
(活動中の人体をカバン等に隠したkinekt一式で舐め回して取り込む、ついでに肉声録音)
↓
ボディライン推定と被服認識
↓
肉声解析から音声合成
↓
憧れのあの子のボーカロイド完成
53:デフォルトの名無しさん
10/12/06 12:20:47
「何してるんですか警察呼びますよ」発語のみで音声キャリブレーション
怯えた表情のみで他の表情を推測
未踏だなw
54:デフォルトの名無しさん
10/12/06 12:28:43
エロゲだと音声認識もあついなw
55:デフォルトの名無しさん
10/12/06 12:30:13
>>52
56:デフォルトの名無しさん
10/12/06 13:05:01
未踏で思い出したけど
Soft-etherの中の人が作ったクーマ
URLリンク(japan.cnet.com)
いらなくなっちゃたね...
57:デフォルトの名無しさん
10/12/06 17:30:12
ここから先はマルコフの出番だな
58:デフォルトの名無しさん
10/12/06 18:38:50
音声認識で語尾が勝手に「ゲソ」とか「イカ」に変わるアプリケーションを作ってくれなイカ
59:デフォルトの名無しさん
10/12/06 18:49:10
俺と真希のアバターが仮想世界で交合する日が来るのか
60:デフォルトの名無しさん
10/12/06 22:59:44
次のWindowsで標準対応してくるのかな
61:デフォルトの名無しさん
10/12/08 19:36:20
まぁ逮捕されるにしても年あけてからだろ
62:デフォルトの名無しさん
10/12/08 19:38:26
誤爆した
スマン
63:デフォルトの名無しさん
10/12/13 16:16:18
OpenNI 公開おめ
64:デフォルトの名無しさん
10/12/13 16:29:55
MIT凄すぎ
URLリンク(www.youtube.com)
65:デフォルトの名無しさん
10/12/13 21:29:26
OpenNIのおかげで姿勢推定がタダでできるようになったのはうれしい反面
OpenKINECTで完全フリーの認識ライブラリが育たなくなるのはデメリットかもな
66:デフォルトの名無しさん
10/12/13 23:26:50
へ?OpenNIのライセンスGPLみたいだけど?
67:デフォルトの名無しさん
10/12/13 23:32:13
あ、GPLは間違い。ドキュメント見たらGPLじゃなくてLGPLって書いてあった。
GPLよりも緩いな。
68:デフォルトの名無しさん
10/12/14 08:01:47
パターン認識とか学習メソッドなどのプロプライエタリな部分は
すっぽりバイナリに隠れてるだろ
69:デフォルトの名無しさん
10/12/14 08:08:13
お前は一体何を言っているんだ
70:デフォルトの名無しさん
10/12/15 09:49:07
公式のOpenNIがいいのか、非公式のOpenKINECTがいいのか
難しい問題だな
71:デフォルトの名無しさん
10/12/15 10:50:31
姿勢推定するならOpenNI一択だろ常考
72:デフォルトの名無しさん
10/12/15 11:10:28
ですわな。libfreenectでがんばりたいなら止めはしないけどw
73:デフォルトの名無しさん
10/12/15 20:27:52
Kinect のドライバが本家 PrimeSense 社から登場
URLリンク(slashdot.jp)
74:デフォルトの名無しさん
10/12/16 12:41:14
Kinect sex game
URLリンク(www.youtube.com)
75:デフォルトの名無しさん
10/12/16 19:38:21
>>74
もう消えてるw
76:デフォルトの名無しさん
10/12/16 19:46:49
Kinect sex game again
URLリンク(www.youtube.com)
77:デフォルトの名無しさん
10/12/16 21:38:49
>>76
キネクト始まりすぎだろww
エロゲーメーカー超ガンバレ。未来はすぐそこにある!!
78:デフォルトの名無しさん
10/12/16 21:46:38
>>76
すごいわ。
79:デフォルトの名無しさん
10/12/17 00:13:39
Kinectでセックスシミュレーションが可能に!
スレリンク(news板)
ニュー速
80:デフォルトの名無しさん
10/12/17 00:36:25
そろそろ買おうかな
81:デフォルトの名無しさん
10/12/18 11:59:38
Kinect + Orge3D = 凄すぎ
URLリンク(www.youtube.com)
82:デフォルトの名無しさん
10/12/18 14:52:49
OpenNIのMacのサンプルがOgre3D使ってたから
Ogreちょっと弄ってみたんだけど、トラブルが多すぎて
サンプルすらCocoa上で動かす事ができなかった
83:デフォルトの名無しさん
10/12/18 19:51:37
kinectで出来ること、出来ないことの一覧と
開発用セットアップの完全な手順を解説したHPない?
84:デフォルトの名無しさん
10/12/20 04:28:54
URLリンク(www.youtube.com)
MMD対応
85:デフォルトの名無しさん
10/12/20 06:48:46
>>84
停止させるためにPCの方へ移動するところが妙におっさんくさいw
86:デフォルトの名無しさん
10/12/20 10:19:12
PC専用に、USB3.0でフルHD仕様の高精度高性能版出してくれんかな
海外記事見ると、どうもコストの問題つーより転送帯域の問題で性能にリミッターかけてるみたいだから
87:デフォルトの名無しさん
10/12/20 11:39:18
XBOXはとっとと撤退して完全にPCに移行してほしいw
88:デフォルトの名無しさん
10/12/20 12:33:44
ああお客さんか。お帰りはこちらです。
URLリンク(kamome.2ch.net)
89:デフォルトの名無しさん
10/12/20 20:59:19
開発元からモーター無しでUSB給電の開発キット発売予定だったような
90:デフォルトの名無しさん
10/12/20 21:00:11
たしかにこれで60fps出れば死角無しなんだがな
91:デフォルトの名無しさん
10/12/20 21:11:14
OpenNIの完全な仕様書ってもしかして存在しないの?
OpenNI User Guideとかいう38ページの紙ぺらしかダウンロードできない。
92:デフォルトの名無しさん
10/12/21 02:18:33
RFS
93:デフォルトの名無しさん
10/12/21 07:58:08
フルHDとか60fpsとか人体認識向けにはどう見てもオーバースペックです。
本当にありがとうございました。
そんなビットレートを処理できると思ってんのかと、本当に、もうね……
94:デフォルトの名無しさん
10/12/21 08:26:56
>>91
ソースとDoxygen出力ついててこれ以上何が必要なんだよ
明日から本気出す組か?
95:デフォルトの名無しさん
10/12/22 01:51:18
予言しよう半年以内にマウスが完璧にいらなくなる
96:デフォルトの名無しさん
10/12/22 02:14:44
キーボードもいらなくして下さい
97:デフォルトの名無しさん
10/12/22 02:21:06
URLリンク(www.youtube.com)
98:デフォルトの名無しさん
10/12/22 02:35:41
____
/ \ /\ キリッ
. / (ー) (ー)\ <「予言しよう半年以内にマウスが完璧にいらなくなる」
/ ⌒(__人__)⌒ \
| |r┬-| |
\ `ー’´ /
ノ \
/´ ヽ
| l \
ヽ -一””””~~``’ー?、 -一”””’ー-、.
ヽ ____(⌒)(⌒)⌒) ) (⌒_(⌒)⌒)⌒))
____
/_ノ ヽ、_\
ミ ミ ミ o゚((●)) ((●))゚o ミ ミ ミ <だっておwww
/⌒)⌒)⌒. ::::::⌒(__人__)⌒:::\ /⌒)⌒)⌒)
| / / / |r┬-| | (⌒)/ / / //
| :::::::::::(⌒) | | | / ゝ :::::::::::/
| ノ | | | \ / ) /
ヽ / `ー’´ ヽ / /
| | l||l 从人 l||l l||l 从人 l||l バンバン
ヽ -一””””~~``’ー?、 -一”””’ー-、
ヽ ____(⌒)(⌒)⌒) ) (⌒_(⌒)⌒)⌒))
お前Kinect触ったことあるのか?
たかだか半年で技術ハードル幾つ飛び越えさせる気だよ。
99:デフォルトの名無しさん
10/12/22 03:14:13
URLリンク(www.youtube.com)
100:デフォルトの名無しさん
10/12/22 11:47:16
kinectでスカートめくりゲーム作ろうぜ。
パンツ神経衰弱(仮)
10x10m四方をランダムに動き回る女性のスカートをめくって
2回連続でパンツの種類が一致していたら+10点。
101:デフォルトの名無しさん
10/12/22 11:51:56
そんな頭使う面倒なルール入れなくても
めくり番長みたいに単純でバカバカしい方がいいんじゃない
102:デフォルトの名無しさん
10/12/22 15:57:07
誰かSSE3がないCPUでNITE(スケルトントラッキング)動かした人いる?
うちのCPU、SSE2までしかないんだけどSSE_GENERATION=2を指定して全てSSE2用にコンパイルしたけど、
それでも実行すると illegal hardware instructionsで落ちる。
予想ではバイナリ配布のNITEがSSE3を使ってしまってるんだと思う。
環境はUbuntu10.10 amd64 です。
103:デフォルトの名無しさん
10/12/22 17:47:50
このビッグウェーブに乗るためなら、この際、CPUも買っちゃいなよ
104:デフォルトの名無しさん
10/12/22 19:01:38
>>100
そういうのは板違い。
作り始めて、わからないことが出てきたら、またおいで。
105:デフォルトの名無しさん
10/12/22 19:35:37
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
106:102
10/12/23 15:45:33
>>103
乗るしかないでしょう、このビッグウェーブに。
というわけでSSE3(pni)に対応したCPUを買ってきて載せ替えました。
でもやっぱり illegal hardware instruction で落ちます。
Athron X2 5000+ じゃダメなのか??? Intel入ってないとダメポ?
まだまだ続く。
107:デフォルトの名無しさん
10/12/23 16:18:08
SSE3が無いCPUからSSE3があるCPUにしたらプロセッサドライバが入ってなくね?
Linuxは知らんが
108:102
10/12/23 18:19:21
動いたー \(^o^)/
Ubuntu 10.10 amd64 ではどうやっても動かなかった(SSE3に対応したCPUまで買ったのに)ので、
あきらめてUbuntu 10.10 32bit版をインストールして最初から全部やり直したら、うまく動くようになりました。
NITEのサンプルにあったボーントラッキングも出来ています。
長い道のりだった…
環境はML115, Athlon X2 5000+, Kubuntu 10.10 x86(32bit)
インストールしたのは
- OpenNI 1.0 Alpha build 23 binaries for Ubuntu 10.10 32bit
- avin2-SensorKinect-b7cd39d.tar.gz
- PrimeSense NITE version 1.3 Beta Build 17 for Linux x86
の3つをこの順で。NITEはインストールする前にDataの下のxmlファイルを書き換える必要あり。
これを忘れるとサンプルが起動しない。詳しくはここを。
URLリンク(www.keyboardmods.com)
基本的には3つも./install.shを叩くだけだがavin2とNITEはその前に少し作業が必要。
詳しくはREADMEに書いてある。
そしてデフォルトでSSE3を使うので手持ちCPUの確認を。
/proc/cpuinfo に "pni" の文字があればOK (sse3ではない!)
109:デフォルトの名無しさん
10/12/24 07:00:56
動画うpしてスゲー、付属のサンプル動かしてスゲーだけじゃなくて、ちゃんとプログラミングに
ついて語るスレ無いの?
サンプルソースとAPI Referenceと海外の掲示板読んである程度使えるようになったけど、
API多すぎレファレンス説明簡略化しすぎで一人で網羅するの辛い。
110:デフォルトの名無しさん
10/12/24 08:52:08
depth.GetAlternativeViewPointCap().SetViewPoint(image);
でRGB画像に合うように調整された形で深度イメージが出力されるようになるけど、
この調整済み深度イメージ上の座標を、元の調整される前の座標に戻す方法ってない?
例えば関数にポンっとx,y座標投げれば元のx,y座標が返ってくる的なの
キャリブレーションデータから計算すればいいんだろうけど、面倒くせぇ
APIあるだろうとリファレンス見て探してるけど見つからない
111:デフォルトの名無しさん
10/12/24 09:01:54
ここだろ。プログラム板だし。
俺はやっとサンプルが動いた所なのでもう少し待て
112:デフォルトの名無しさん
10/12/24 11:04:45
NITE
113:デフォルトの名無しさん
10/12/24 11:05:27
NITEなぞすぎる
114:デフォルトの名無しさん
10/12/24 12:49:24
>>110
「Open~」系のライブラリで提供されるのは基本的にハードウェアを使えるようになるAPIだけだから
その辺のアルゴリズムは自前で実装が基本
115:デフォルトの名無しさん
10/12/24 13:33:44
これ操作中の自分を1.8m以上離れて写すようにkinectを設置するのが難しいな。
付属のケーブルは3.3mあるけど結構きつい。
USB延長ケーブルを使って+1mまでなら何とか動作する。
+3m足してやるとデータ取りこぼしまくりで正常動作しなくなる。
基本的に延長しない方がいい。
NITEサンプル楽しい。
116:デフォルトの名無しさん
10/12/24 13:41:14
Kinect使うときのよくある失敗はOpenNIだけ入れてドライバー入れ忘れることだな。
俺はavin2/SensorKinectドライバーを使っている。
117:デフォルトの名無しさん
10/12/24 14:38:53
Miku ファック動画マダー
118:デフォルトの名無しさん
10/12/24 14:40:24
MonoMacで使えるようにしてくれ
スレリンク(mac板)
119:デフォルトの名無しさん
10/12/24 17:14:41
とりあえず一番簡単そうなSample-SingleControlは理解した。
自分でプログラミングするときはインクルードパスを
/usr/include/ni
/usr/include/nite
に通してlibOpenNI.soとlibXnVNite.soをリンクする。
main.cppでは最低次の2つをインクルードする。
#include <XnOpenNI.h>
#include <XnVSessionManager.h>
あとは検出したいゼスチャーに相当するクラス。このサンプルではWaveDetector.hを使っているので
#include <XnVWaveDetector.h>
120:デフォルトの名無しさん
10/12/24 17:20:35
基本的なフローは
1. コンテキスト(xn::Context)を作る
2. セッションマネージャー(XnVSessionManager)を作る
3. 検出したいゼスチャーのコントロール(ここではXnVWaveDetector)を作る
4. 2-3にコールバック関数を登録する
メインループはこんな感じ。
while (!g_bQuit) {
context.WaitAndUpdateAll ();
pSessionManager->Update (&context);
}
ドキュメントは次の3つ。
NITE Controls 1.3 - Programmer's Guide.pdf
NITE Algorithms 1.3.pdf
NITE 1.3.0 - API Reference.chm
とりあえずProgrammer's Guideだけ読んでおけばプログラミングの基礎としては十分。
121:デフォルトの名無しさん
10/12/24 17:36:27
いくつかの重要な概念。
セッション: トラッキングが動作中の状態が「in Session」
フォーカス・ゼスチャー: 特定の動作を行うとトラッキングが有効になり「in Session」状態に変わる
"Wave": 手を左右に移動する動作
"Click": 手を前後に移動する動作
コンテキスト: そのままの意味
セッションマネージャー: そのままの意味
コントロール: ゼスチャーの検出器。PushDetectorとかWaveDetectorとか多数。
検出したい動作のコントロールをセッションマネージャーを頂点とするツリーでつなぐ。
イメージ的にはキャプチャーされたデータはセッションマネージャーから流れ出して各コントロールに流れ込み、
一致していればそこに設定されたコールバック関数を呼び出す。
122:デフォルトの名無しさん
10/12/24 18:07:06
VIPからきますたwwwww
123:デフォルトの名無しさん
10/12/24 18:27:02
なんぞこれw
124:デフォルトの名無しさん
10/12/24 19:58:24
>>119-121 はNITEミドルウェアを使った場合ね。
OpenNIのみでKinectから生データ(RGB, Z, 加速度)を取得するのとは別の話。
そっちは今調査中。NITE使いつつ生データにアクセスってできるのだろうか。
125:デフォルトの名無しさん
10/12/24 22:48:41
windows7 64bitでは動かないの?
126:デフォルトの名無しさん
10/12/24 23:06:42
C言語からOpenNIを使う場合
#include <XnOpenNI.h>
C++からOpenNIを使う場合
#include <XnCppWrapper.h> (この名前はどうかと思う)
コンテキストを作る場合XMLファイルを読み込んで作るのが簡単。
画像とデプスを取りたい場合は該当するNodeを作る。
<ProductionNodes>
<Node type="Depth">
<Configuration>
<MapOutputMode xRes="640" yRes="480" FPS="30"/>
<Mirror on="true"/>
</Configuration>
</Node>
<Node type="Image">
<Configuration>
<MapOutputMode xRes="640" yRes="480" FPS="30"/>
<Mirror on="true"/>
</Configuration>
</Node>
</ProductionNodes>
rc = context.InitFromXmlFile (SAMPLE_XML_FILE);
127:デフォルトの名無しさん
10/12/24 23:09:33
これでコンテキストにNodeが登録されているので、あとはFindExistingNodeするだけ。
rc = context.FindExistingNode (XN_NODE_TYPE_IMAGE, imageGenerator);
rc = context.FindExistingNode (XN_NODE_TYPE_DEPTH, depthGenerator);
データの作成を開始して、
context.StartGeneratingAll ();
新しいデータが来るまでブロック。
while (!g_bQuit) {
context.WaitAnyUpdateAll ();
// ここで画像、デプスデータの取り出し
}
非常に簡単。
128:デフォルトの名無しさん
10/12/24 23:17:26
取得したデータをどうやって表示するか?
サンプルでは全てOpenGL、glutを使っている。
カメラを平行投影、視野領域が(0,0)-(WIDTH,HEIGHT)に設定して画面全体を覆う四角型ポリゴンを1枚書く。
データはすべてテクスチャーにしてglTexImage2Dで毎フレームGPUに転送。
ちなみにデプス値は自分でヒストグラムを作って手前が1で奥が0になるように描画している。
129:デフォルトの名無しさん
10/12/25 00:17:12
2DならOpenCV、3DならOpenGLが一番楽だな
最近OpenCV使い出したけど、凄すぎてワロタ
いちいち数学勉強して理解してやっと使えるようになる処理が、関数に変数突っ込むだけで
ポンっとできるとかアルゴリズムの勉強する気なくなるな
130:デフォルトの名無しさん
10/12/25 03:44:54
WindowsXPで、デバイスマネージャに、KinectMotorは出るけど、KinectCameraが出てこない。
サンプル実行すると、「InitFromXML failed:Unknown USB device speed!」と出て実行できない。
困ったなー
131:デフォルトの名無しさん
10/12/25 13:49:00
>130
KinectのケーブルにACアダプタを刺せ
132:デフォルトの名無しさん
10/12/25 15:59:59
>131
ありがとう。解決した。
133:デフォルトの名無しさん
10/12/25 17:06:59
フレームレートが低くて画像データの表示がガクガクになる原因がようやくわかった。
GetMetaData()は毎フレーム呼ばないとダメなのな。つまり例えばglutのidleループはこうなる。
void idle ()
{
context.WaitAnyUpdateAll ();
depthGenerator.GetMetaData(depthMetaData); // これ大事
imageGenerator.GetMetaData(imageMetaData); // これ大事
glutPostRedisplay();
}
メタ情報を取得するだけだから最初に1回やればいいだろうと思ったら、
毎フレームきちんと呼ばないと表示がガクガクになる。
なまじ動いている分たちが悪い。
134:デフォルトの名無しさん
10/12/25 21:03:08
ときどきcontext.StartGeneratingAll()を予備忘れているサンプルあるな。
それでもちゃん動く。実は飾りか。
135:デフォルトの名無しさん
10/12/25 21:12:10
g_DepthGenerator.ConvertRealWorldToProjectiive()の座標系がわからない。
これはワールド座標をカメラ座標に変換する関数と見ていいのか?
サンプルでは結果をそのままOpenGLのglVertex()に渡している。
調べた限りワールド座標はカメラを(0,0,0)としてカメラの向きがZ軸正の方向。1単位が1mm。
したがってカメラの前2mにいる人間はだいたい(0,0,2000)になる。
OpenGLでは通常カメラはz軸負の方向を向いているのでConvertRealWorldToProjective()を通すと
これが(0,0,-2000)になる?
この関数を通すよりカメラを180度回転してz軸正の方向を向けた方が早くないか?
136:デフォルトの名無しさん
10/12/25 21:23:23
Kinectはモーター内蔵で首が振れるんだっけ。
必ずしも(0,0,1)方向ぴったりを向いていると限らない。
ConvertRealWorldToProjective()で一発変換してくれると楽ではある。
個人的には(リアル)Kinectカメラの方向を取得して、(仮想)カメラの方向を同じにセットして
そのままワールド座標で計算した方が楽かな。
137:デフォルトの名無しさん
10/12/25 22:00:38
>>110ほんとに無いの?ありそうなものだけど。
138:デフォルトの名無しさん
10/12/26 01:17:42
>>115
発想を転換して、モニター・キーボード・マウスを延長して
本体&キネクトを遠くに置くってのはどうだ?
139:デフォルトの名無しさん
10/12/26 01:26:34
>>135
何のサンプル?
140:デフォルトの名無しさん
10/12/26 05:20:22
>>137
今日もずっと探してたけど無いっぽい。
仕方ないのでソースからピクセル座標変換の計算どうしてるか見て、それを逆算しよう
とOpenNIのソース落としてきて深度イメージデータ取得の所を辿っていってるんだけど、
全く分からん。クラスの中のm_ppDataに書きこまれてるっぽいんだけど、いつどこで
m_ppDataに書きこまれているのか分からん。XnOpenNI.cppも流し見してみたが分からん
だれか助けて
141:デフォルトの名無しさん
10/12/26 17:01:40
OpenNIのサンプルをデバッガー(kdbg)から起動すると、
rc = context.InitFromXmlFile (SAMPLE_XML_FILE);
の所で
warning: GDB: Failed to set controlling terminal: 許可されていない操作です
Couldn't initialize context: Xiron OS failed to wait on event!
と言われてエラーになります。普通に起動すれば問題なく初期化できるのに。
デバッガー通す時と通さない時で何が違うのでしょうか?
142:デフォルトの名無しさん
10/12/26 21:41:51
>>141
参考にならないかもしれないけれど、Code::Blocks + gdb 7.2 ではステップ実行できた
InitFromXmlFile() 実行前に
「warning: GDB: Failed to set controlling terminal: 許可されていない操作です」が出力されて、
InitFromXmlFile() 実行後に
「Setting resolution to VGA」が出力されたよ
143:デフォルトの名無しさん
10/12/27 15:55:23
.NET(XNA)で動くようにしてくれ
144:デフォルトの名無しさん
10/12/27 21:04:18
有効なジョイントって何番?
joint1,2,3,6,7,9,12,13,15,17,18,20,21,22,23 しかまともなデータが返ってこない。
特によくわからないのは左足はANKLE(19)が無効なのに、右足はFOOT(24)が無効になってること。
左足:17,18,(19),20
右足:21,22,23,(24)
なんでやねん。もらった座標はすべてワールド座標なので、モデリング座標に直すのが難しいです。
キャラクターはボーン階層をすべてローカル座標で動かすので。
145:デフォルトの名無しさん
10/12/27 21:11:50
ミス。1番HEADは×
joint 2,3,6,7,9,12,13,15,17,18,20,21,22,23 しかまともなデータが返ってこない。
146:デフォルトの名無しさん
10/12/27 21:43:01
上のを踏まえてKinectで取得できるスケルトンを図示するとこんな感じでいいんだよな?
URLリンク(u3.getuploader.com)
147:デフォルトの名無しさん
10/12/27 21:44:34
1:HEADに有効なデータが返ってこないのが痛い
148:デフォルトの名無しさん
10/12/28 06:28:28
HEADとれてるよ?
149:デフォルトの名無しさん
10/12/28 08:53:08
>>148 まじで!?
プロファイルは全身ですか?
あとついでに右足と左足でANKLE、KNEEのどちらが取れてるか教えてください。
150:デフォルトの名無しさん
10/12/28 14:37:53
ネイティヴ64bitのサンプルは動かんな。
見た感じ、足りないのは64bitのNITE系ファイル?
151:デフォルトの名無しさん
10/12/28 17:33:47
OpenNIの方は64bitで動いた。NITEの方は俺は無理だったけどCPUがAthronだったからな気がする。
152:デフォルトの名無しさん
10/12/28 22:07:48
NITEの類似ライブラリってないの?
153:デフォルトの名無しさん
10/12/29 00:32:34
ない。OpenNIに互換性の有るのは現在NITEのみ。
OpenKinectと一緒に使うスケルトントラッキング・ライブラリも考えている人は居るみたいだが、
まだ公開されていない。
154:デフォルトの名無しさん
10/12/29 13:55:10
Kinectの想定しているスケルトンの図ありませんか?
ボーンの数とか位置とかはすぐわかるのですが、各ボーンのローカル座標(回転)がどうなってるのか
ドキュメントが見つからなくて困っています。これがわからないと動かせない…
155:デフォルトの名無しさん
10/12/30 05:37:37
>>154
>>146の画像ではないの?
156:デフォルトの名無しさん
10/12/30 09:45:26
The NITE 1.3 Algorithms.pdf に取れるボーンとボーン座標系がのっている。
(基本が絶対座標なのでボーン同士の接続はない)
ボーン座標系はワールド座標を平行移動しただけ。
Tポーズの時に回転成分がすべて0になる。
詳しくは図を参照。
ただ左足はFOOTではなくANKLEが返ってきたような気がしたのだが、何かの間違えか??
これとまったく同じスケルトンをモデラーで作って渡してやると、
NITEで取れたボーンのT,Rをローカル座標に直すだけですぐ動かせる。
うちのMilkShape3Dさんでこのスケルトンが作れるかどうか調査中。
まあ来年。
157:デフォルトの名無しさん
10/12/31 15:38:08
ミラーモードのとき、右手を上げるとXN_SKEL_RIGHT_HANDが上がる。ワールド座標系は右。
ノーマルモードのとき、右手を上げるとXN_SKEL_LEFT_HANDが上がる。ワールド座標系は左。
特に理由がなければミラーモードがいい。
ミラーモードの時はカメラが(0,0,0)で+Xが右、+Yが上、+Zがカメラからユーザーに向かう方向。
各ボーンのオリエンテーションはTポーズの時、ワールド座標系と一致する(回転0)。
回転行列は3x3で、配列[0-15]が下に相当する。
012
345
678
158:デフォルトの名無しさん
11/01/01 14:52:57
モーションは大筋で取り込めるようになった。右手を上げればアバターの右手があがる。
で、意外とkinectの値(T,R)をそのままアバターに適応すると頂点が崩れる。
before↓
URLリンク(freedeai.jpn.org)
after↓
URLリンク(freedeai.jpn.org)
159:デフォルトの名無しさん
11/01/01 14:54:35
下書き保存のつもりで途中で書き込んでしまった。
下は左手を45度ぐらい斜めに上げたところ。
大筋で良いのだが何かをバグっている気がする。
160:デフォルトの名無しさん
11/01/01 15:16:47
>>158-159の日本語がバグっている気がする
161:デフォルトの名無しさん
11/01/01 16:38:41
問題点はだいたいわかった。ジョイントの回転で上を向くはずが下を向いている。
基本的には座標系の取り扱いがkinectが想定しているのと違うためと思われる。
あとジョイントのT,Rを個別に取得してモデルに適応するのはどうしてもきれいに表示できない。
Rだけ取得してボーン階層をきちんとたどったほうがいい。
どのみちHANDは回転が取れないので、親の回転を適応しないっとおかしなことになる。
やってみるといろいろ簡単ではないね。MMDの人とかやっぱりレベル高い。
162:デフォルトの名無しさん
11/01/02 02:10:31
もうOpenKinectは終わった感じなのかこれ
163:デフォルトの名無しさん
11/01/02 10:13:31
そうでもない。
URLリンク(groups.google.com)
OpenKinectの欠点は現状生データ(RGB,Z,加速度)しか取得できず、
NITEに相当するスケレタルトラッキングライブラリが無いこと。手軽に遊ぶには不向き。
逆にOpenNIの欠点はNITEなどのミドルウェアがプロプライエタリな所にある。
あと音声とか無駄に機能が多い。
オープンソースのスケレタルトラッキング・ライブラリが公開されれば
OpenKinectに移行する人間は出てくると思う。
164:デフォルトの名無しさん
11/01/02 11:48:53
サポートベクターマシーンとか本気でやるとなると相当力入れないとな。。。
おもしろそうではあるが工程が膨大なわりにゴールがOpenNIと同程度だと報われない結果になりそうで二の足踏んでる人が多いんじゃないかしら
ここから先はOpenNIのミドルウェアが先に出てOpenKinectはそのオコボレに授かる形になるんじゃね?
165:デフォルトの名無しさん
11/01/02 13:42:12
テーマとしては結構面白いと思うけどね。
(今までZが取れる実用的なカメラはなかったと思う)。
日本の大学でも画像認識をやっている所は多いはずなので、
どこかの学生さん、ちゃちゃっと作って公開してください><
166:デフォルトの名無しさん
11/01/02 15:16:10
Macで遊んでる人はOpenKinectだと思う。
どの道NITEは使えないし、dylibの依存がなくすっきり作れる
OpenKinectの方が手軽
167:デフォルトの名無しさん
11/01/02 19:38:51
苦節1週間ちょっと、ようやくアバターを動かせるようになったので動画をキャプチャーしてみた。
URLリンク(www.youtube.com)
まあ何だ。MMDは遠いな!
これKinectから各ジョイントの回転のみを取得して適応してるのだが、
やはりドキュメントに書かれている通り回転検出は精度が低い。
動きがどう見ても「人形劇」にしか見えない。
あと致命的なのはTポーズの時に単位行列が帰ってくるはずが、
そうではなくX軸を中心に90度回転していることがあること。
NITEライブラリの誤検出だろう。
sinbadとかきれいに動かしているが、どうやってるのだろうか。
168:デフォルトの名無しさん
11/01/03 00:09:24
Macでもできるのか
面白そうだな
169:デフォルトの名無しさん
11/01/03 03:25:16
KinectとMMDは連携してるようなんだけど
そのデータをつかってロボット動かせないかしら?
さらにロボットにカメラとかついてたら面白そうなんだけど。
170:デフォルトの名無しさん
11/01/03 03:38:16
理想形態まで進化したとして、kinectはどこまで認識してくれるんだろう?
逆に何ができないんだろう?
どっかでやってたみたいに、例えばkinect2台使って最適なソフト組めば市販のモーキャプ並の精度誇る様な代物なんだろうか?
171:デフォルトの名無しさん
11/01/03 10:23:08
>>169
余裕でできる。kinect(NITE)から関節の位置と回転が取れるので、
それをロボットに送ってやればいい。原理的に3Dキャラクターを動かすのと同じ。
172:デフォルトの名無しさん
11/01/03 11:55:11
>>169
URLリンク(www.youtube.com)
ただロボット動かすならもうある。
MMDとの連携は知らんが。
173:デフォルトの名無しさん
11/01/03 12:05:09
kinectの応用はアメリカの大学だといろいろやってるみたいだけど、日本だとどうだろうね。
MMDだけというのはちと情けない。
174:デフォルトの名無しさん
11/01/03 14:21:31
kinectから取得した各ジョイントの回転をただ単に当てはめただけではMMDみたいにならないね。
どうしても>>167みたいになる。試行錯誤してみたけどあれが限界。
IKを実装しないとMMDみたいなスムーズな動きは不可能?
それとも位置情報を元に回転角度を求めるしかないのか?
謎が謎を呼ぶぜ。
175:デフォルトの名無しさん
11/01/03 15:02:22
平滑化すればいいだけ
176:デフォルトの名無しさん
11/01/03 15:24:58
それも考えましたがデータを見る限り平滑化で何とかなりそうなレベルではないです。
Tポーズの時に単位行列ではなく90度ひねった行列が返ってきたりするので。
というわけでジョイントの位置から自分で回転角度を求める方法を実装してみます。
回転角度ベースでないと人間の取ったポーズと「ひねり」が違くなるのはしょうがない。
177:デフォルトの名無しさん
11/01/03 23:18:21
Depthだけだと自由度3の関節に対して
一意に決定できるだけのパラメータが足りないからなぁ
大昔はバトンをもって肘から手首のひねりをキャプチャしてたっけ
178:デフォルトの名無しさん
11/01/04 01:10:26
MMDは頂点座標だけつかって、腕などの各パーツの行列は
その頂点に追従するようIKで求めているんじゃないの?
179:デフォルトの名無しさん
11/01/04 10:08:30
2つの関節位置を結ぶベクトルは求めることは出来るけど、三次元で姿勢
を確定させるにはさらにそのベクトルに直交するベクトルが必要になる
これは深度情報からは求める事ができない
腕をまっすぐ伸ばした状態のままで捻るような動きはKinectでは拾えないということ
180:デフォルトの名無しさん
11/01/04 10:15:49
xn::HandsGeneratorで手の平だけを別撮りすればいいだけだろ
リップシンクはどうしようも無いが
181:デフォルトの名無しさん
11/01/04 10:28:16
現在のkinectではHANDの回転は取れない仕様。あと回転情報を一切使わなくても
SOULDER --> ELBOW --> HAND の位置情報からだけでも十分動かせると思う。
さすがにこの軸を中心にした回転は計算できないけど、それはkinectから取得した回転情報でも無理な気がする。
ともかく位置情報から腕の角度を求めてやってみようぜ。
182:デフォルトの名無しさん
11/01/04 13:08:11
ASUS、PC向けKinect風センサー Wavi Xtion を発表
URLリンク(japanese.engadget.com)
183:デフォルトの名無しさん
11/01/04 22:28:34
A(肩) --> B(ひじ) --> C(手首) とジョイントがある場合(骨は(1,0,0)方向に伸びているとする)、
Bの回転角度を求める時って、
(1) Aの回転は既に計算済みとして、
(2) Bの(ワールド座標の)位置をAのローカル座標に変換して、
(3) (1,0,0)からの回転角度を求める
と計算すれば良い?
(1') Aの回転は既に計算済みとして、
(2') Bの(ワールド座標の)(1,0,0)からの回転角度を求めて、
(3') Aのクォータニオンの逆数をかけて差分の回転を求める
と実装したらどうも間違えているような動きをするのですが、
上記の式で計算しないとダメですか?
つまり親のジョイントのローカル座標で計算しないとダメですか?
184:デフォルトの名無しさん
11/01/05 03:02:19
OpenNIでRGB画像のピクセル座標点に対応する距離画像の値はSetViewPointで距離画像を
変換かければ半自動で得られるけれど、距離画像のピクセル座標点に対応するRGB画像の
値ってどうやれば得られる?
185:デフォルトの名無しさん
11/01/05 03:25:52
>>180
まだいじり始めたばっかりなんだけど、この辺のクラスとかメソッドで○○をいじれるよ
とかまとめてあるとこないかな。
186:デフォルトの名無しさん
11/01/05 09:36:29
俺が知る限りない。とりあえず付属のサンプルを見ればだいたいわかる。
187:デフォルトの名無しさん
11/01/06 08:58:35
OpenNI Mono サポート追加 age
188:デフォルトの名無しさん
11/01/06 14:37:57
Microsoftは本日、CES 2011のプレスカンファレンス上で、Kinectを使ったXbox LIVEの
新たなソーシャルコミュニケーションサービスAvatar Kinectを発表しました。
Avatar Kinectは、複数のユーザーがトークショー番組風のバーチャルセットに集まり
Avatarを使って会話を楽しむというもの。モーションセンサーのKinectが実際のプレイ
ヤーの動きを読み取り、画面上のAvatarのアニメーションにそのまま反映されます。
Kinectはプレイヤーの体の動きだけでなく口や眉の動きといった顔の表情までマッピング
することが可能。また、会話の内容を保存したり、Facebookにアップロードするといった
機能も存在するようです。
Avatar Kinectは2011年春にゴールドメンバー向けに無料で提供されるとのことです。
URLリンク(www.youtube.com)
URLリンク(gs.inside-games.jp)
189:デフォルトの名無しさん
11/01/06 17:20:53
上の方でkinectからジョイントの位置情報を取得して、アバターのジョイントの回転角度を計算してやってみた。
(結局ボーン座標で全て計算した。>>183は間違えている。いずれどこかに計算式はまとめるつもり)
上半身に関しては満足いくレベルでキャプチャーできているが下半身がダメ。
kinectの取扱い方法が悪いのか、元々このぐらいの精度しかないのか(ドキュメントには下半身の精度は悪いと書いてあるが)。
URLリンク(www.youtube.com)
さてどうしようか。
190:デフォルトの名無しさん
11/01/06 17:57:55
ボインちゃんの気持ちを疑似体験できる新Kinectハック
URLリンク(www.kotaku.jp)
「ボインはお父ちゃんのもんと違うのんやでぇ~」...そう、アナタのもんです!
アニメーション・データやモデリングを改造・操作するツールであるNoesisが、Kinect用の
プラグインとしてこのハック・ツールをあたらしく公開しています。
そしてその機能はなんと、爆乳をボインボインと水風船のようにゆらしてしまう、という夢の
ようなステキなモノです。きっとこのハックで、みなさんもオッパイ姉ちゃんの気持ちが
理解できることでしょう。アナタが動けばボインも揺れる! そんなデモ動画をお愉しみ
ください。
スゴい! このユサユサ感、ありえない程の弾力性で、まるで揺れるオトメ心を表現
しているようです(笑)しかもプレイヤー自身が、自分の手でオッパイをさわって揺らす
こともできるんですね。
KINECTHACKSでは、リアルタイム・モーションキャプチャーに使われたこの技術を、
エクストリーム・オッパイ物理演算(Extreme Boobie Physics)と呼び、胸骨のあたりに
ジョイントされたオッパイが、低重力でソフトに反発し、そのオッパイはクレイジーかつ
オーヴァー・ザ・トップである、と申しております。
さて、もしこれが実用化されたなら、爆乳ナデナデする側とされる側で、ウマいこと
サイバーエロ産業の需要と供給が回りそうな気がします。
191:デフォルトの名無しさん
11/01/06 20:47:01
日記は日記帳に書け
192:デフォルトの名無しさん
11/01/06 21:06:51
ここが日記だ!
193:デフォルトの名無しさん
11/01/06 22:47:37
まさしく!
194:デフォルトの名無しさん
11/01/07 17:54:53
世界がmatrixに見える奴作って欲しいなあ
195:デフォルトの名無しさん
11/01/07 19:25:44
具体的に言うとどういうアプリ?
196:デフォルトの名無しさん
11/01/07 21:53:37
こんな感じに
URLリンク(www.valdostamuseum.org)
197:デフォルトの名無しさん
11/01/07 22:04:27
まったくわからん
198:デフォルトの名無しさん
11/01/07 22:27:08
ああこれをリアルタイムでやるのか
わかるわ
199:デフォルトの名無しさん
11/01/07 23:54:57
室内のクラウドポイントデータを板ポリ何枚かにリデュースして、
そこにテクスチャ貼れば完成だな
シェーダで化粧しても良し
200:デフォルトの名無しさん
11/01/08 05:24:00
OpenNI Mac対応来たね
201:デフォルトの名無しさん
11/01/08 11:48:32
ちょっとはまったので書いておく。
現在のunstableのavin2/SensorKinect2とOpenNIのstableは互換性がなくコンパイルできない。
普通にダウンロードするとunstable版を落としてしまう。
↓こっちはunstable版
URLリンク(github.com)
↓こっちがmaster版
URLリンク(github.com)
OpenNIでstable版を使用している人はmaster版のavin2/SensorKinectを使用する。
ちなみにOpenNIのunstable版の方はいろいろ怪しい所があるので、
特に理由がなければstable版を使ったほうがいい。
202:デフォルトの名無しさん
11/01/08 14:39:57
Kinectドライバの導入手順は人によって成否がまちまちでよくわからん。
まあ、MSが直々にどうにかしてくれることが決まったからそれまでの辛抱だな。
Kinect のPC対応は「ふさわしい時に」発表 (バルマー氏)
URLリンク(japanese.engadget.com)
203:デフォルトの名無しさん
11/01/08 14:48:31
Windowsは知らんがUbuntuなら1つしかない。
204:デフォルトの名無しさん
11/01/08 18:00:58
XBox360を持ってない俺の家にKinectが届きますた。
ゲーム会社にいたころ、たくさんの人員と、めっちゃ広い施設と、数百万の機材で、
丸1日かけてモーキャプしてたが、ついに4畳半の貧乏人一人でも
できるようになったんでつね・・・感無量
205:デフォルトの名無しさん
11/01/08 19:14:34
windowsでも起動できると聞いてやってみたが
「failed:Unknown USB device speed!」って出て先に進めない。
一通りデバイスはインストールしたのですが何が原因なのかわかる方いるかな?
206:デフォルトの名無しさん
11/01/08 19:23:03
このスレ内を検索してみれば?
207:デフォルトの名無しさん
11/01/08 19:44:29
mmdでモキャプ試してみたけど、精度がイマイチだな・・・
といっても十分満足してるけど。
208:デフォルトの名無しさん
11/01/08 20:30:34
>>205
131 名前:デフォルトの名無しさん [sage]: 2010/12/25(土) 13:49:00
>130
KinectのケーブルにACアダプタを刺せ
らしいぞ。ACアダプタ指し忘れって多いのか?
209:デフォルトの名無しさん
11/01/08 20:31:45
>>207
上半身の精度は文句ないと思う。下半身が今ひとつな気がする。
210:デフォルトの名無しさん
11/01/08 22:18:22
Kinectって赤外線を出して、それをキャプチャーして
深度を計測してるのかな?
てか画像からボーン情報を算出するプログラムが凄いと思う。
211:デフォルトの名無しさん
11/01/08 23:19:00
>>205
まったく同じ状態・・・
ACアダプタも挿してるしなぁ・・・
ACアダプタもUSBもハブ通さずに挿してみたりしたけどUnknown USB device speed!
だわ
デバイスマネージャー見ても
PrimeSensor
- Kinect Camera
- Kinect Motor
とデバイスは入ってるっぽいし・・・
>>210
カメラって二つある場合距離算出できた気がするけどどうだったかな
212:デフォルトの名無しさん
11/01/08 23:28:22
ある配列で赤外線をたくさん出してる。
213:デフォルトの名無しさん
11/01/09 00:14:18
ステレオカメラじゃなくて、プロジェクタみたいな感じで模様を投影して、それを
カメラで撮影して、その模様の状態から距離を計算してるみたいだよ。
詳しくは海外で発売したての頃ググったらいっぱい出てきたけど忘れた
URLリンク(www.youtube.com)
OpenNIって工場出荷時の校正情報デフォで持っててそれ使ってるみたいだけど、
その値どうやったら得られる?
内部パラメータと外部パラメータが欲しいです
214:デフォルトの名無しさん
11/01/09 02:20:30
URLリンク(github.com)
この ofxKinect をWindowsのVisual Studio 2010でいじりたいんだけど、
どうやればいいかわかる人いますか?
215:211
11/01/09 02:48:31
糞ネットブックにドライバ突っ込んだら動きやがった・・・
俺のデスクトップPCのUSBの規格が悪かったとかそんな落ちか?
原因不明
もちろんデスクでは動かない
216:デフォルトの名無しさん
11/01/09 03:00:32
デスクは指すポート変えてもダメ?
USB2.0High Speed 規格のポートじゃないとかだったり。
217:211
11/01/09 04:10:00
>>216
USBは2.0っぽいけどなぁ・・・でもBTOで買った糞デスクだからな
調べてみるとTA790GXE 128Mとかいうマザボだった
USB
USB 2.0 Port
USB 2.0 Header
218:デフォルトの名無しさん
11/01/09 04:19:41
サンプルも動いて、ソースの解析を始めたけど、
モーションキャプチャーならMMDで十分な気がしてきた・・・
219:デフォルトの名無しさん
11/01/09 06:21:21
というか、なんで皆バラバラに自分の奴を勧めるんだ?
情報提供しあって一個の完成形作る方が時間も無駄にならないんじゃないか?
220:デフォルトの名無しさん
11/01/09 06:43:18
PlaystationMoveって調べてみたけど、アレってWiiのパクりなのな。
いずれSonyもKnect+αのデバイスを出してくるだろう。
221:デフォルトの名無しさん
11/01/09 07:49:52
今のSONYに+αの製品を出せるだろうか。。。
残念ながら、ハードも売れてないし、難しいだろうね。
222:デフォルトの名無しさん
11/01/09 08:03:29
222
223:デフォルトの名無しさん
11/01/09 10:45:48
スケルトン・トラッキングはできるようになったので、何を作るかだな。
MMDみたいに歌って踊るか、モーションキャプチャーアプリを目指すか。
224:デフォルトの名無しさん
11/01/09 10:58:50
age
225:デフォルトの名無しさん
11/01/09 11:04:53
カス子にモーション付けられたら神
226:デフォルトの名無しさん
11/01/09 16:33:49
OpenNIって公式リファレンスはないん?
227:デフォルトの名無しさん
11/01/09 19:38:43
ドキュメントのことだよな?
バイナリパッケージをダウンロードすればDocumentsディレクトリの下にhtml形式である。
ところでOpenNIのサイトリニューアルしたね(2011.01.06?)。
ほぼ見た目だけ。
228:デフォルトの名無しさん
11/01/10 02:44:46
>>227
おお、バッチリあったわ、ありがとう。
深度とイメージのデータ取得は理解できた。
あとはモーションキャプチャーだな。
229:デフォルトの名無しさん
11/01/10 03:06:33
OpenNIが同様にOpenCLに対応したら存在価値消し飛ぶんじゃないのとは思うが、一応紹介
SemiAccurate :: Nuvixa: intelligent, immersive presentations and beyond
URLリンク(www.semiaccurate.com)
230:デフォルトの名無しさん
11/01/10 10:48:28
kinectカメラのデプス検出だけど、よく光るものをカメラに向かって45度傾けるとそこだけ検出できなくなるな。
特にカメラに向かって右側で45度の傾いた面が検出できてない。
あと気がついたけどサンプルのビュアーでZ値をカラーに変えるときに0~255ではなく0~256にスケーリングしている。
つまり無効ピクセル(Z=0)を256にマップ(あとでunsigned charにキャストするので0になる)して真っ黒で描画している。
意外にZを検出できないピクセルが多い。
↓無効ピクセルだけ黄色くした図。
URLリンク(freedeai.180r.com)
231:デフォルトの名無しさん
11/01/10 11:21:26
キャスト前に255にクランプしてみたけど全然かわらん
人物の右側にズレて映る背後霊はいつも気になるけど
近づきすぎると深度検出できなくなるとの同様にセンサーの仕様なんじゃないの?
232:デフォルトの名無しさん
11/01/10 12:19:58
それは赤外線の放出と受信窓の視覚差によって生まれる影でしょう
キネクトは赤外線ライト&レシーバーだからどっちかから隠れていると認識できない
233:デフォルトの名無しさん
11/01/10 12:44:14
>>217
まったく同じ状況だ・・。
検索すると、ドライバを一旦アンインストールし、もう一度「dont search, I will chose the driver to install」でインストールしたら直った人がいた。
URLリンク(groups.google.com)
でも俺の場合これではダメだった。
この人、デバイスマネージャで見たときにPrimeSensorの下にmotorしかなかったからダメだったみたいって
書いてるけど俺のは元からちゃんとあるし。
で、このエラーメッセージはXN_STATUS_USB_UNKNOWN_DEVICE_SPEED定数と関連づけてあるよね
→ XN_STATUS_MESSAGE(XN_STATUS_USB_UNKNOWN_DEVICE_SPEED, "Unknown USB device speed!")
この定数が使われるのはxnUSBGetDeviceSpeed関数がXN_USB_DEVICE_HIGH_SPEED以外を返したときらしい。
OpenNIのソース?に関数の定義があった。
URLリンク(github.com)
なんだけど、ソースみると今はXN_USB_DEVICE_HIGH_SPEED以外返さない仕様みたい
Linux用の定義だから?ともかく行き詰まった。誰か助けて・・・
234:デフォルトの名無しさん
11/01/10 12:48:21
>>233
俺の勘違いだった。LOW_SPEED返すこともあるね
ちょっとこの書き込みは忘れてください
235:デフォルトの名無しさん
11/01/10 14:35:06
>>234
それも間違いだった。スレ汚しすまん。
で、関係ないところで解決しました。
1.OPENNI-Win32-1.0.0.25.exeをインストール
2.avin2-SensorKinectはunstableをやめてstableをインストール
(ここ→URLリンク(github.com))
どれがよかったのかわからんが、この二つでNiViewerの起動を確認。やったああああ。
236:デフォルトの名無しさん
11/01/10 18:06:26
動かないわけじゃないのだけど滅茶苦茶不安定で涙目。
NISimpleReadとか動かしてるだけでも、少しするとUSBが切断されてしまう。
スレで出てる各種のエラーも結構頻繁に出るし、安定して使えてる人いる?
どうやってもデモできるほどの稼働時間が取れない。
237:デフォルトの名無しさん
11/01/10 20:52:40
>>235-236
使っているバージョンがunstableだからそんなもの。
stable(1.0.0.23)の方を使わないとダメ。あとそれはavin2/SensorKinectのstableとは互換性がない(少なくともUbuntuでは)。
さっきWindowsにインストールしてみたけど全部バイナリパッケージをクリックするだけで問題なく動いた。
まずKinectをつながずに、
1. OpenNI-Win32-1.0.0.23.exeをインストール
2. SensorKinect-Win32-5.0.0.exeをインストール
3. NITE-Win32-1.3.0.17.exeをインストール
全部インストールしたらkinectをつなぐと、motor, audio, sensor(だっけ?)が出てくる。
ドライバーはインストール済みなので適当にはいを押して自動でインストールして終わり。
audioドライバーだけはまだない。
238:デフォルトの名無しさん
11/01/10 20:56:53
間違えた。
× avin2/SensorKinectのstableとは互換性がない
○ avin2/SensorKinectのunstableとは互換性がない
何にせよ上の3つダウンロードしてクリックすれば終わり。
(avin2/SensorKinectのバイナリは2011.01.07付けで登録された)
239:デフォルトの名無しさん
11/01/10 21:03:36
まあ結論から見ればそうなんだけどねえ。
これを常識とする内容でもないな。
240:デフォルトの名無しさん
11/01/10 22:00:57
そろそろ情報をまとめたいね。古い情報とかあって非常に見通しが悪い。
241:デフォルトの名無しさん
11/01/10 22:16:05
>>237
一応
1. URLリンク(github.com) から落とした
avin2-SensorKinect-b7cd39d.zip を展開
2. Kinectつないでavin2-*\Platform\Win32\Driverフォルダからドライバ入れる
2. OPENNI-Win32-1.0.0.23.exe 入れる
3. avin2-*\Bin\SensorKinect-Win32-5.0.0.exe 入れる
4, NITE-Win32-1.3.0.17.exe 入れる
の標準的な手順でやって、サンプルはNITEのも含めて大体動くは動くんですが、
Windowsで数分動かしているとUSB再接続の「キンコン」音と共にリセットされ、
アプリはタイムアウトエラー、デバイスマネージャではKinect Cameraに
黄色の「!」って感じで連続稼動ができない状態。
あと、こういったリセット(?)でUSB speedも変になってたりする事が
あるらしく、たまにUnknown USB device speedとかUSB HISPEEDでないよ
エラーが出て、ポート変えて挿し直さないといけなくなったりも頻繁。
電源は取ってるしUSBだってホスト直結なんだけどな・・・わからん。
なんとなくLinuxで動かす方が安定している気が。
242:237
11/01/10 23:19:44
> 2. Kinectつないでavin2-*\Platform\Win32\Driverフォルダからドライバ入れる
↑これは余計でしょう。
> 1. OpenNI-Win32-1.0.0.23.exeをインストール
> 2. SensorKinect-Win32-5.0.0.exeをインストール
> 3. NITE-Win32-1.3.0.17.exeをインストール
うちはこの3つだけで安定動作してるなあ。基本的にWindowsでは動かしてないけど。
今試したらSampleSceneAnalysis.exeが10分ぐらいは問題なく動いている。
あとはライセンスキーぐらいかなあ。あれ間違えたライセンスキー入れてもそのままインストール進むし。
メッセージだけ見るとホスト側のUSBが安定して動作して内容に見えるけど・・・よくわからん。
むしろ1つUSBハブをかませたらどう? 1mぐらいまでならなんとか延長できる(3m延長すると確実に動かない)。
243:デフォルトの名無しさん
11/01/11 17:25:35
URLリンク(www.youtube.com)
kinect-ultraソース公開きたー
URLリンク(code.google.com)
244:デフォルトの名無しさん
11/01/11 17:53:54
>>243
めっちゃいい部屋に住んでるな
245:デフォルトの名無しさん
11/01/11 18:28:17
来週買えそう
246:デフォルトの名無しさん
11/01/11 19:07:55
サイズもデザインも日本の家ではないな
海外在住なんじゃないか?
247:デフォルトの名無しさん
11/01/11 19:17:51
普通じゃね?
248:デフォルトの名無しさん
11/01/11 22:33:28
kinectから取得したデータをそのまま使っても綺麗なモーションにはならないね。
URLリンク(www.youtube.com)
一通りいじり倒したけど、ここからリアルタイムキャプターまではかなり遠いわ。
飽きた。
249:デフォルトの名無しさん
11/01/11 23:14:29
>>248
なんかおかくね?
サンプルとかMMDだと、もっと上手くいってるけど。
250:デフォルトの名無しさん
11/01/11 23:19:49
キャプチャー環境晒してもらわないとなんとも言えないと思うけど、足元見えてないんじゃないの?
251:248
11/01/11 23:22:27
おかしいかな?
sinbadもMMDもジョイントに可動域の制限(コンストレイン)とか、無効データの時の扱いとか、
Kinectからもらった生データで動かしてるわけじゃないよね(多分)?
単に生データ表示してるだけなら、こんなものなのかなあと思ってるけど。。。。。
特に下半身のキャプチャー精度はひどい。
252:248
11/01/11 23:29:40
一応環境は距離2m、ひざ下まで(足首は写ってない)。
気になっているのは最初のキャリブレーションポーズの認識が3回に1回ぐらいしか成功しなくて
うまくいった時でも5~10秒はかかる事。もしかして根本的に精度が出てないとか?
253:デフォルトの名無しさん
11/01/11 23:34:15
>>252
キャリブレーションは、例のポーズとってれば、多少時間はかかるけどほぼ必ず認識するよ。
足先まで映ってないといかんと思う。(その分距離とらないといけないけど)
254:デフォルトの名無しさん
11/01/11 23:40:40
みんな腕を直角に曲げてから何秒で認識してる?
255:デフォルトの名無しさん
11/01/12 00:03:40
ヘソまで写ってりゃ1秒ちょい
根本的にお前の部屋が散らかってるかダボダボの服着てるとかだろう
なんにしろ、すぐに道具のせいにする奴は成功しない
256:デフォルトの名無しさん
11/01/12 00:31:14
モーキャプ作ってみたんだけど実際こんなもんで満足な精度は出てるのかな?
URLリンク(www.youtube.com)
とりあえずIKは未使用で可動域未設定でもここまではいけるんだが・・・
257:デフォルトの名無しさん
11/01/12 00:52:29
満足の基準は人それぞれ
精度は出るものではなく追求するもの
258:デフォルトの名無しさん
11/01/12 01:14:50
>>256
キャラの位置が動きまくってるのが気になるが、すごくいい感じじゃね?
259:デフォルトの名無しさん
11/01/12 03:22:05
手を背中に回したらどうなるか追求してください
260:248
11/01/12 08:27:16
>>256
俺のところより圧倒的に精度がいい。
キャプチャー環境に何か問題があるのかもしれない。
もうちょっと頑張ってみるわ。
(部屋片付けないとダメかなあ。。。)
261:248
11/01/12 10:37:37
結構改善した(と思う)。
- Kinectの高さを下げて床が多めにきっちり入るように変更。
- 画面内の金属質の面に全部タオルで覆う。
- 服を脱ぐ。
これでゆっくり動けばほぼ四肢をキャプチャーできた。
ただ早い動きをするとやっぱり動きが飛ぶ。どうもkinect関係なく描画がおかしいらしい。
そういえばATIのGPUでそんな問題が出ていた。
プリセットのモーションを再生する限り特に問題は出ていなかったので解決したと思っていたが、直ってなかったようだ。
262:デフォルトの名無しさん
11/01/12 10:48:46
Q. 精度が出ないんだが?
A. まず服を脱ぎます
がテンプレになる日も近い
263:デフォルトの名無しさん
11/01/12 13:13:10
ていうか真剣にキャプチャするならまじでボクサーパンツとかブリーフでやった方がいいよな
264:デフォルトの名無しさん
11/01/12 22:39:54
よし、キャプチャ用全身タイツを発売しよう!
265:デフォルトの名無しさん
11/01/12 22:46:38
チンコケースだけでよくね?
266:デフォルトの名無しさん
11/01/16 22:51:22
みんなもう飽きたのか・・・
267:デフォルトの名無しさん
11/01/16 23:11:48
趣味でモーションキャプチャして、んでどうすんの?っていう根本的問題があるからな。
日本向けはMMDがさっさと対応しちまったし、
高度な処理はMITやPrimesenseの独壇場でトーシロじゃ歯が立たない。
実用技術的には、MSが宣言した公式サポートが開始されたりASUSのXtionが出てきたりするこれからが本番だろう。
ゲーム業界向けの業務用ソフトなんかに組み込まれていくと予想。
268:デフォルトの名無しさん
11/01/16 23:28:57
ひと段落してきた感はある。
269:デフォルトの名無しさん
11/01/17 00:22:00
マイノリティ・リポートみたいな感じでファイルとかwindow操作できないかな?
プロジェクターを使ってプレゼンやると面白そうなんだが
270:デフォルトの名無しさん
11/01/17 01:12:04
ジョブズ猊下がMacBookにタッチパネルを搭載しない事について
「腕が疲れてやってられん」みたいなこと言ってたけど、
それと同じでそういうプレゼン用途以外では実用性がないと思う
271:デフォルトの名無しさん
11/01/17 02:45:00
寝パソ最大のネックである「寝ながら文字入力」を補完するという役目を
背負っているじゃないか。
272:デフォルトの名無しさん
11/01/17 03:24:48
玄関のドア前で踊ると開く鍵とか開発して欲しい
273:デフォルトの名無しさん
11/01/17 09:18:21
>>272
誰でも開いちゃうんじゃないか?w
274:デフォルトの名無しさん
11/01/17 09:28:53
鍵を閉める踊りと開ける踊りを区別した上でブロックサインのように
踊りの中の特定のパターンのみに意味があるようになっていれば
他の人が適当に真似しても有効にならないようには出来るはず
275:デフォルトの名無しさん
11/01/17 09:53:52
家の前で変な踊り踊ってる人がいたら不審人物だと思われないか
276:デフォルトの名無しさん
11/01/17 09:55:30
やっぱり腰のピストン運動をリアルタイムキャプチャーして
ゲームに反映するのが一番いいと思うけどなあ
277:デフォルトの名無しさん
11/01/17 11:18:19
いや、仮想の腰と実際の右手を連動させた方が実用的だ
278:デフォルトの名無しさん
11/01/17 16:40:50
右手ばっか使ってると本番でダメダメになるぞ。
ちゃんと専用器具を使って腰を使った方がいい。
279:デフォルトの名無しさん
11/01/17 17:21:38
専用器具を使ってると本番で刺激が足らなくなるという研究報告もあるな
ところで>>273については顔認証を組み合わせればいい
顔写真を印刷すればいいじゃないかという説もあろうが
玄関の前にお面を被って踊るデブがいたらそれは不審者だ
280:デフォルトの名無しさん
11/01/17 17:58:58
ボーンのトラッキングって、MSで用意されたもの?
それともOpenNIの人が独自に開発したもの?
281:デフォルトの名無しさん
11/01/17 18:02:04
NITEはPrimeSense社が開発してるプロプライエタリなライブラリ
282:デフォルトの名無しさん
11/01/17 19:21:01
>>281
OpenNIのSampleでもボーントラッキング出来てるみたいだけど、
NITEを使ってやってるってことなのかな?
283:デフォルトの名無しさん
11/01/17 19:41:01
それNITE入れないと動かないよ!
284:デフォルトの名無しさん
11/01/18 00:04:12
>>283
そうだったのか、、ありがとう
285:デフォルトの名無しさん
11/01/18 03:15:28
おまえらコレ見てテンション上げようぜ
URLリンク(www.nicovideo.jp)
286:デフォルトの名無しさん
11/01/18 03:48:24
>>285
左右よりも前後の動きに弱いみたいだね
287:デフォルトの名無しさん
11/01/18 03:50:54
これ、日本のアニメーターさんに使ってもらうわけにはいかんのかなあ…
今までの3DCGのモーション付って大体は手作業でつけるから実に面倒くさくて
その作業を目にしたフツーのアニメーターさんは「手で描いたほうが早いわ」と即断するので3DCGには一切近づこうとせず
だから3DCG界隈は、2Dアニメ界との交流が途切れてしまい、技法その他が全然流入してこなくて
結果、PC操作はできるけどアニメの極意を知らないド素人がつけたロボット的モーションか
ダンサーや俳優さんのモーションキャプチャデータをただ垂れ流すだけ、という技術向上やノウハウ蓄積がこれといって無い状況が続き
日本の2Dアニメと3Dアニメはずっと分断したままで、国際的な競争力を持つこともなく…
でも、kinectのこのムーブメントをアニメーターさんが見たら
「こんなに簡単なら…俺だって3DCGアニメをやれそうだ」「俺だったら、もっとこんな感じに動かすね」と思うのではないか
「描いたほうが早い」から、「カメラの前で動いたほうが早い」に、時代が変わっていくのではないか
そこでようやく、2Dアニメーターが持っていた各種ノウハウが3DCGアニメと融合し始めて、新しい何かが生まれやすくなるのではないか
でもアニメーターさんは、個人が気軽にモーションキャプチャできる時代が到来しそうだ、それがアニメにも生かせそうだ、なんて全然知らないだろうし
kinectハックしてる側は、これがアニメ制作作業をグンと楽にする可能性がある、なんて夢にも思わないだろうし、世界は相変わらず分断したまま、kinectハックブームはお遊びの域を出ずに終了するのだろうか
288:デフォルトの名無しさん
11/01/18 03:57:20
便所に落書きしてる分には構わないが、
間違ってもアニメーターにメールしたりはするなよ
289:デフォルトの名無しさん
11/01/18 05:09:54
代々木アニメーション学院に電話汁
290:デフォルトの名無しさん
11/01/18 09:12:15
もうちょっと簡単にできるようになればね。
最低でも
- モデルをロード
- モーションを取り込み
- モデル+モーションにしてセーブ
- ネットにアップロード
- ブラウザーで見る
がフリーで一括してできるようにならないと難しい。
2,3年でできるようになると思うけど、、、、
メタセコイアがボーン入れられない時点でもう終わってる。
あのへんから全部作り替えないと無理だね。
291:デフォルトの名無しさん
11/01/18 09:18:58
MMDでいいじゃん
292:デフォルトの名無しさん
11/01/18 11:48:28
お前がMMDで満足しているならそうなんだろ。お前はな。
293:デフォルトの名無しさん
11/01/18 14:05:06
>>287
演技はだれがやるんよ、そういう人たちを雇うのだって金がかかるんだよ。
大きな演技してもらうには場所もひるようだしな。
294:デフォルトの名無しさん
11/01/18 15:08:28
データ荒くてこんなん使えんよ
今はあくまでリアルタイムで優秀な技術であって
それ以上には全く使えない代物
3Dモーション付けてる人も「手付の方がいいや」って100%言う
今後に期待はしてるが、今はその時ではない
295:デフォルトの名無しさん
11/01/18 15:39:18
>>294
データが荒いのは補完方法でいかようにでもなるとおもうがな。
296:デフォルトの名無しさん
11/01/18 16:00:24
なんとでもなると口で言うのは簡単だが
297:デフォルトの名無しさん
11/01/18 16:10:06
>>296
そもそも計測した時点でどんなデータでも離散した不連続な情報になってるだろ。
それが今までどのように加工されてきたかを考えればそういう返事はできないよねえ。
現状はハックしたドライバがそういうことやってくれてないから自前でやるだけだよ。
あれ、もしかして補完するためのアルゴリズムとかしらないの??
298:デフォルトの名無しさん
11/01/18 16:11:16
そういうことは実際にやってみせてから言わないとかっこわるいだけだよ
299:デフォルトの名無しさん
11/01/18 16:24:26
>>298
なに?コード書いてもらいたいわけ??
金くれたらやってやるけど払える?
300:デフォルトの名無しさん
11/01/18 16:31:18
>>298
おまえはひとまず線形補完からはじめろよw
滑らかなのが欲しければベジェでつなぎあわせとけ。
301:デフォルトの名無しさん
11/01/18 16:34:32
なんだ、できもしないのに言ってるんだ
302:デフォルトの名無しさん
11/01/18 16:35:30
>>299
もっと具体的なことを書かないとお金が払えるかどうかは決められないでしょう
そんなわけで質問だけど、本当に補間だけなはずはないよね?
おそらく予測補間のことを言ってるのだろうけど、信頼度と速度とか抵抗とかから適当に予測して
補間するくらいのことは誰でも思いつくわけだけど
そもそもキャプチャー側の精度の問題でそれだけじゃデータが荒いことには代わりがなよね
俺みたいな素人にはそれ以上の補間って思いつかないんだが、なんかそれ以上の補間
が実際に応用されてる現場ってあるの?
303:デフォルトの名無しさん
11/01/18 16:57:40
>>301
鏡見て独り言かw
>>302
まずはどの精度か定義しねえと話にならねえんだけど。
キャプチャ間隔のFPSのレートが低いのは曲線とか使った補完で十分だろ。
各制御点がフレーム間で大幅に飛ぶのは制御点用の
現在位置予測用のプログラムをかかねばなるまい。
数フレーム前までの位置の平均を積み重ねていって比較し、
差分をベクトルにして現在位置はこの辺でしょうっていうやつな。
閾値を利用したノイズフィルターも入れとけばそれなりなあたいになるだろ。
速度でるならリアルタイムでも使えるだろうし、
非リアルタイムならもっと凝ったこともできるでしょ。
骨格ベースで各間接位置の現在位置予測とかな。
あと、これをアニメーターに使わせたいとか、業務用のキャプチャに
使用しろよとかいう立ち居地じゃねえからな。
>>294のデータが荒くてはなしにならねってところで思考停止してるから突っ込んだだけだ。
304:デフォルトの名無しさん
11/01/18 17:15:16
あーあー、やっぱり脳内で「こんなもんでできるだろ」程度にしか考えてなかったんだな
ノイズフィルタ「でも」って表現からもバレバレ。
305:デフォルトの名無しさん
11/01/18 17:20:45
>>304はいはい天才チンパンジー愛ちゃんはおりこうですねw
内容のない書き込みしても自分の無能さをさらけ出してるだけだね。
306:デフォルトの名無しさん
11/01/18 17:22:58
まあこういうものはオープンソースで1つしっかりしたものが公開されないと難しいだろうね
307:デフォルトの名無しさん
11/01/18 17:33:24
>>303みたいなのも、もっともらしいことを書いてて実は内容のない書き込み。
308:デフォルトの名無しさん
11/01/18 17:53:09
>>307
おまえを見てたらなんだか保護してやらなければならない義務感をかんじてきたよ。
309:デフォルトの名無しさん
11/01/18 18:06:30
技術力も努力もしない他力本願な奴とそれに反応しちゃう奴、
醜い罵り合いのクソみたいなレスは他所でやってくれ。
310:デフォルトの名無しさん
11/01/18 18:14:32
おまえもスルーできないならよそへ行けば?
311:デフォルトの名無しさん
11/01/18 18:34:34
2chっていつもこうだよな。
面白い話題が提起されてもカスが大量にやってきてすぐに潰してしまう。
そして何も進まない。
312:デフォルトの名無しさん
11/01/19 00:28:54
実際リアルタイム補完が出来たとして
それ自体フィードバック掛かって
補間したデータに合わせて手元のマニピュレータが動いて
人間の体が勝手に動くと面白いかもな
313:デフォルトの名無しさん
11/01/19 00:42:37
>>312
それならマニピレーターから実際の角度などをとりだしたほうがよくないかな?
フィードバックを外部機器でおこなうなら。
314:デフォルトの名無しさん
11/01/19 01:53:24
踊れない人を踊らせるのか
315:デフォルトの名無しさん
11/01/19 12:17:54
おっぱいまだですか?
316:デフォルトの名無しさん
11/01/19 16:42:01
ノートPC(と電源)があれば、どっか広い場所でキャプチャーできるな。
体育館とか・・・ハードル高いか
317:デフォルトの名無しさん
11/01/20 01:17:58
素人が3DアクションぽいRPGとか作るのに良さげ
318:デフォルトの名無しさん
11/01/20 17:40:51
>>316
キャプチャ対象は人だけと思うな!
車に積めば車間距離を警告できるかも
319:デフォルトの名無しさん
11/01/20 17:44:10
急な飛び出しに反応してブレーキ踏んでくれると嬉しい
320:デフォルトの名無しさん
11/01/20 17:54:29
それはもうあるのでは
321:デフォルトの名無しさん
11/01/20 20:22:59
兎に角もっとバカでも出来る開発環境を備えてないと、
クソゲーメーカーはクソゲー作り放題だろ。
322:デフォルトの名無しさん
11/01/21 00:41:45
筋肉に電極埋め込んで俺がキョドるのを補正して欲しい
323:デフォルトの名無しさん
11/01/21 03:54:04
悪いけど、キネクトでキャプチャーしたデータ直すくらいなら一から手付けでアニメーション付けたほうが圧倒的に早いし綺麗
モーキャプデータの修正やった事ある奴ならそれがどんだけ大変かすぐ分かる
上でCGでアニメーション付けるのが楽になるっつってるけど、現場からしたらキネクトはお遊びレベル
遊びでやるなら使えると思う
324:デフォルトの名無しさん
11/01/21 03:56:44
とりあえずサンプル動いたけど、その後どう遊んでいいのか行き詰まったので、
とりあえずmmdで遊んでみた。予想以上に楽しかった。女装癖が芽生えそうだ。
しかし3D画像処理とかロボ系の知識がないとちょっと厳しいかもねこれは。
俺の場合mmdのほうも使ったことないし、OpenGLとblenderで多少遊んだ経験
ぐらいしか無いんで、ちょっと途方に暮れてる。
kinectハックはドキュメントが豊富って言ってるの見たことあるけど、
OpenNIとかrosとかの英語の資料を地道に読んでいけばいろいろ分かってくるんだろうか?
325:デフォルトの名無しさん
11/01/21 04:01:54
キネクトとは別のところで認識関連の画像処理の文書を読んだことがあるけど
おそらく、相当専門的な知識がないと苦労する。
今の段階では、与えられたキャプチャー機能で何をするか、と言う方向で考えたほうがいいと思う。
(キャプチャー機能をどうこうするか、ではなく)
それこそ某スペシウム光線なり、エロ方向なりに。
326:デフォルトの名無しさん
11/01/21 16:10:59
XNAで遊んでるけど与えられたキャプチャー機能だけでもけっこう面白いよ
327:デフォルトの名無しさん
11/01/21 16:13:54
XnModuleCppRegistratration.h
328:デフォルトの名無しさん
11/01/23 19:10:00
xnGetSkeletonCalibrationPose()が返す文字列の長さってわからないから
へたするとメモリ破壊起こしますね
329:デフォルトの名無しさん
11/01/24 16:47:46
/** The maximum length of names of objects in OpenNI **/
#define XN_MAX_NAME_LENGTH 80
330:デフォルトの名無しさん
11/01/25 03:00:24
>>323
まあ、現状はそうでしょ。取れるボーンの数も少ないし。
ただある程度環境が整備されてきたとき、このテのアプローチで
廉価にそこそこのクオリティを出せるグループが出てくるかもしれない。
大量生産に向いてるかもしれない。
たとえば、ニコ動で上がってる歌1つ分のダンスとか、完全手付けだったら
クオリティにかかわらず相当の費用になるところだけど、(ノウハウが集積すれば)かなり短時間でできそう。
あとはkinectで撮った3Dボクセルと重ねて見ながらモーション手付けもしくは修正するというのも
1つの利用方法かも。
331:デフォルトの名無しさん
11/01/25 16:40:46
直接反映しちゃうんじゃなくてあくまでジェスチャーコマンド(俺用語)的な使い方のがいいな
332:デフォルトの名無しさん
11/01/25 17:00:34
要するに安価に入手できるリアルタイムモーションキャプチャユニットという事なのかな?
良い時代になったものだ・・・
333:デフォルトの名無しさん
11/01/26 20:28:22
>>330
確かにボーン数がまだ少ないから商業的に使い物にならないんだよな、、
でも指先や顔の表情まで読み取れるようになるらしいから半年~1年後は
面白い事になってそう。(モーション以外にもいろいろ使い道は増えそうだし、、)
「果報は寝て待て!」だね。
334:デフォルトの名無しさん
11/01/26 22:40:04
果報は寝て待て!という反面すごいのが出てくるとヤラれた!って気にもなるんだよな
335:デフォルトの名無しさん
11/01/27 09:22:27
高スペックにこだわり過ぎるのも考え物だぞ
妥協できるすれすれで実用性を追求するのも努力だ
任天堂とかアップルに見習うべきよな
336:デフォルトの名無しさん
11/01/27 10:05:45
>>335
ここは技術板なのでマーケッティングの話は巣でやって下さい。
337:デフォルトの名無しさん
11/01/27 11:18:41
表情の認識はXbox360で可能にするという話は出てるけど、OpenNIでサポートするか
どうかは不確かだと思う。
表情の認識自体は深度情報使わず画像認識だけでできる話だし。
338:デフォルトの名無しさん
11/01/27 17:11:43
Sample-SingleControlのプロジェクトファイルをデバッグ無しで実行すると
"Session Manager couldn't initialize: No hand generator found. One is needed forsession manager."
って表示されて起動できないんだが・・・
Samples/Bin/Release内にあるSample-SingleControl.exeを起動すれば普通に扱えはするけども、解せぬ
同様の症状になった人いる?
339:デフォルトの名無しさん
11/01/27 19:09:59
338を書いた者だ。
OpenNIやNITEのインストール諸々を一からやり直したら正常に動作するようになった。
スレ汚しちまってすまねぇ
340:デフォルトの名無しさん
11/01/27 21:14:49
まあセットアップ大変だね。
ソフトを作って公開したとき大変だね。
341:デフォルトの名無しさん
11/01/28 12:19:12
>>335
俺達にとって「遊べるオモチャ」かが最重要であって
そんな事、関係者じゃない限り意味ないんじゃないの?
ってかキネクト自体もMSにしては「商品」としては随分ブラッシュアップしてあると思うけど、、」
342:デフォルトの名無しさん
11/01/28 14:46:15
Kinectはコスト削減やレスポンス向上のためにけっこう土壇場で
認識処理専用のチップ載せなかったり解像度落したりしてるしねえ
343:デフォルトの名無しさん
11/01/28 16:36:33
現代版「大人のおもちゃ」
344:デフォルトの名無しさん
11/01/29 19:05:02
センサの上下角度調整ってOpenNIで内蔵モーターつかってできる?
変になってる時つい手でガキッって直しちゃったけど壊れそうで怖い。
345:デフォルトの名無しさん
11/01/30 09:49:24
ヘッダー調べたら、踵とか指先とか、もっと細かいボーンが定義されてるけど
今のバージョンだと取得出来ない。
今後取得出来るようになったり、精度は上がるのかな?
346:デフォルトの名無しさん
11/01/30 10:17:15
なるかもしれないしならないかもしれない
347:デフォルトの名無しさん
11/01/30 11:23:40
足先指先は、赤外線ばらまく密度を上げないと難しいんでないかな
中遠距離だとフルHDくらいの分解能がないと失探すると思う
348:デフォルトの名無しさん
11/02/01 10:30:45
Kinectの上位機種が出るまで待てってことだな
349:デフォルトの名無しさん
11/02/01 11:04:36
上位機種でてもそれに対応したNITEが公開され無いと意味がないと
350:デフォルトの名無しさん
11/02/01 11:37:31
座布団を床ごと奪われて墜死するがよい
351:デフォルトの名無しさん
11/02/01 23:47:08
深度とかボーンとかとれるのは感動したけど実際にこれでなに作るかって言われると難しいもんだな・・・
352:デフォルトの名無しさん
11/02/02 03:19:18
モーションキャプチャなんて業務用というかクリエイター側の技術だしな
一般人、消費者側には使い途がない
353:デフォルトの名無しさん
11/02/02 09:30:45
でも創造性といった限りない自由度を与えられることで
飽きのこないゲームとして広く受け入れられる場合もあるよねMinecraftとか
354:デフォルトの名無しさん
11/02/02 19:32:26
まー良くも悪くもコントローラ程度の精度ってことだな
355:デフォルトの名無しさん
11/02/02 23:11:22
精度云々よりもキネクトで使える技術は大体まとまったからあとはアイデア勝負かな
356:デフォルトの名無しさん
11/02/04 12:15:41
Kinectでかめはめ波!改 コード公開版
URLリンク(www.nicovideo.jp)
357:デフォルトの名無しさん
11/02/06 23:01:35
URLリンク(www.youtube.com)
358:デフォルトの名無しさん
11/02/07 02:17:37
初めて見たときちょっと感動したけど
慣れるともうどうでもいいって感じになるな
おなかいっぱい
359:デフォルトの名無しさん
11/02/10 06:12:57
3Dキャラにキネクトモーションを入れ込んでリアルタイムで動かしてみたけど、
ゲーム史上未体験の感覚だわ。
これは夢広がりんぐ。
ただ、細かいボーンの動きが取れなかったり、遅延があったりするけど、
これは今後改善されそうだな。ソニーなりMSが出すであろう
次世代Kinectで。
360:デフォルトの名無しさん
11/02/11 01:51:32
リアルタイムじゃなくてもいいなら、奥行き画像を連番bmpで
保存してき、あとからその画像を詳しく解析することで
より精度の高い位置情報を求められるんじゃなかろうか?
361:デフォルトの名無しさん
11/02/11 04:01:00
深度カメラの制度の問題だから、ほとんど可能性はないだろう。
合成開口レーダーのように、対象が静止している状態で、
キネクト側を適切に動かして画像を得られるなら話は別だろうが、
運用は現実問題として実用的とは言えないだろうし、
それくらいなら、複数のキネクトを並べて情報を得たほうが実用的だろう。
362:デフォルトの名無しさん
11/02/11 07:49:30
>>361
精度の問題は少なからずあるだろうけど、今取れているすべての情報が
十分利用されているとは思わないな。
アルゴリズムの改良とGPGPUの利用とかで、解析部分の精度はまだ上げられるはず。
363:デフォルトの名無しさん
11/02/11 09:52:05
初期のアルゴリズムではすぐに追従出来なくなってキャリブレーション姿勢を
何度もとり直させられてたらしいが、その後大学機関の協力を経てサポートベ
クターマシン(SVM)を用いた認識アルゴリズムの改良に成功したという経緯だ
けを見てもまだ余力はあるだろうよ。
ただ、あらゆる姿勢に対応できるようにSVMの学習データを膨大にすると精度
を犠牲にしなければならなくなる二律背反であることから、姿勢推定範囲を限
定して精度の高い学習済みデータを切替えて使用するといったやり方が現実的
だろうな。
だが一番の問題はNITE代替の学習データ構築コストが半端無いことだろうな
Amazon EC2+Hadoop+Blenderで人体3Dモデル関節制約から深度情報生成...
ちょっと個人じゃ手が出せない規模だ。
364:デフォルトの名無しさん
11/02/11 14:13:46
複数台使ったりしなきゃならないくらい精度悪い?
動画みてると結構精度よさそうなんだけど
365:デフォルトの名無しさん
11/02/11 14:18:36
どの動画ですか?
366:デフォルトの名無しさん
11/02/11 16:29:50
>>362
GPGPUをお前はなんだと思ってるんだ。
367:デフォルトの名無しさん
11/02/11 16:52:44
漏れの見た動画は全て精度悪そうに見えた
368:デフォルトの名無しさん
11/02/11 19:06:22
>>366
General Purpose GPUだけど。要はCUDAとかを使う。
この手の姿勢推定とかの演算はだいたい並列化可能だろうし、
計算量を増やすことで精度を上げられる場合が多い。
とはいえアルゴリズムの修正のほうが重要だろうとは思う。
369:デフォルトの名無しさん
11/02/11 21:55:28
Kinectでキャプチャした数値をそのまま鵜のみにして使うのではなく
Havok BehaviorやEuphoria Motionなんかとミキシングして使うのも手かもな
370:デフォルトの名無しさん
11/02/12 11:52:10
>>368
依存関係多い計算だしそんな簡単じゃねーよw
お前GPUプログラミングはおろか並列プログラミングすらしたことねえだろ。
371:デフォルトの名無しさん
11/02/12 13:32:19
>>370
一言多い人だねー。
現状GPUプログラミングでネックになるのは主にビデオメモリへの転送だけど、
kinectレベルの画像サイズならどうということはない。
一旦デバイス側のメモリに上げてしまえば計算力は圧倒的に高い。
依存関係多いといっても段階ごとに分ければだいたい同じ処理のループが出てくる。
多少の工夫でなんとかなる。
とはいえ、姿勢推定のプログラミングはしたことない。
あんた詳しいようだから是非解説してくれ。
372:デフォルトの名無しさん
11/02/12 14:23:38
>>371
段階的に分けたとして、そのソフトパイプライン処理を、GPGPUできるの?
それとも、ある段階だけを並列化するにとどまる?
373:デフォルトの名無しさん
11/02/12 16:46:12
>>372
段階ごとに並列化した上で、それらを順次実行することで、全部を並列化できればベスト。
並列化の手法は段階ごとに変えられる。
GPU(CUDA想定)は基本的に、同じカーネル(Cでいうと関数(語弊あるけど))を全プロセッサで同時に実行する場合に高い
性能が出るから、小さい処理に分断した上で、それぞれの一瞬に関しては全体で同じ仕事をさせるほうが良い。
CPUのパイプラインみたいに同時に別の段階の処理をさせるとパフォーマンス出ないはず。
とはいえ、最近は同時に複数のカーネルをスケジューリングしたりとか、いろいろ進化してる気はする。
374:デフォルトの名無しさん
11/02/12 18:15:32
細切れにしてCPUとのインタラクションが増えればレイテンシが問題となる。
IOバスの先にあるGPUに細切れで仕事をやらせるのを、レイテンシの問題抜きで
語ることはできない。
375:デフォルトの名無しさん
11/02/12 20:27:20
だからGPUなんかはなから選択肢に無くて
ニューラルネットワークの応用であるSVMを使ってるんだよ
頭かたいなおまえら
376:デフォルトの名無しさん
11/02/16 04:28:51
大学生が作ったアクションゲームらしい
けっこうがんばってる
URLリンク(www.nicovideo.jp)
377:デフォルトの名無しさん
11/02/16 04:34:32
保守
378:デフォルトの名無しさん
11/02/18 09:16:35
ああ、スキンモデルを同期させて動かすプログラムやっとできた。
次は物理エンジンを組みあせてみるか。
379:デフォルトの名無しさん
11/02/18 09:18:19
ここはいつから日記スレになったん?
380:デフォルトの名無しさん
11/02/21 19:44:08.03
最初から
381:デフォルトの名無しさん
11/02/21 22:30:22.63
考えてみたら、立体をキャプチャーできるわけだよな。
ろくろみたいに回るなり、複数のキネクト使うなりすれば・・・
382:デフォルトの名無しさん
11/02/21 23:10:00.73
精度をあげるために複数キネクトはアリだと思うが誰かやってくれないだろうか
383:デフォルトの名無しさん
11/02/21 23:13:31.88
複数kinectは赤外線が干渉するだよ
384:デフォルトの名無しさん
11/02/21 23:25:02.95
2台
URLリンク(www.youtube.com)
385:デフォルトの名無しさん
11/02/22 15:37:21.05
MS公式ライブラリ予告だけかよ
386:デフォルトの名無しさん
11/02/22 15:44:46.53
DirectX SDKとの統合作業中なんじゃないの
あっちはあっちで去年の6月から更新されてないし
387:デフォルトの名無しさん
11/02/22 16:06:41.65
そこでDirectXが出てくる意味がわかんねえ
388:デフォルトの名無しさん
11/02/22 16:45:45.08
OpenNIがあるんだから、意味無いと思うんだけど。
それ以上の事が出来るようになるのかな?
顔認識とか、もっと精度の良いモーションキャプチャーとか
389:デフォルトの名無しさん
11/02/22 16:52:41.44
OpenNIはフレームワークだからMSのライブラリにもラッパーをかませてNITEと
切り替えて使えるようにすればアプリ作り直しにはならないだろうけど
MSはOpenNIなんて無視するだろうに1万ペソ
390:デフォルトの名無しさん
11/02/22 17:04:38.86
>>388
Xbox360のデモ見てる限りではOpenNIとは比べものにならない精度っぽい。
391:デフォルトの名無しさん
11/02/22 17:06:49.64
ドライバとランタイムが同梱されたインストーラが再配布可能で
インストールすればCOM経由で骨格情報まで取得できる、ってところまでやれば
別にOpenNIのミドルウェアとして提供しなくても評価する
商用/非商用SDKを分けているあたりケチくさいことやってきそうだよなあ
OpenNI+NITEをライバルとして認識してればいいんだが
392:デフォルトの名無しさん
11/02/22 17:08:19.03
まぁ例え一度財産が失われようと、
新しく出来る基盤の上に更なる成功が積み重なるなら惜しくはないな
393:デフォルトの名無しさん
11/02/23 00:48:35.68
MicrosoftのSDKは商用ならいろいろ面倒くさそうだな。所詮はモロに金儲けか。
OpenNIよりよほどのアドバンテージが無ければスルーだな
394:デフォルトの名無しさん
11/02/23 00:49:16.89
>>390
ソースきぼん
395:デフォルトの名無しさん
11/02/23 01:28:23.21
いくら360上で精度高いところ見せられても、PC上で検証しなきゃ比較できんだろう。
キャリブレーションポーズ取らなくてもよかったりするからちょっと期待しちゃうけど。
Kinectのスケルトンって内蔵チップじゃなくて360のCPU/GPUで計算してるんだっけ?
ここまで勿体ぶっておいて、いざPCで動かしてみたらNITEより性能劣ってたら良い笑い物だなw
396:デフォルトの名無しさん
11/02/23 06:01:56.99
商用で金儲けしようとする奴が金儲けをディスるというのは滑稽というか自己矛盾もいいとこだが、
商用に制限を課したのはKinectをエロゲに使わせたくないからでは?
以前MSがエロに否定的な発言してただろ。
金払えば商用可というような単純なものではなく、多分アプリを個別に審査して許可不許可を決めるんじゃないかな。
397:デフォルトの名無しさん
11/02/23 09:51:48.51
まったくねえ。
ハックする気がある人なら道具が増えたと喜ぶところなのに、どうせ作られたものを
落としてきて動かすだけのお猿さんか、動画評論家なだけってのがバレバレですね。
398:デフォルトの名無しさん
11/02/23 11:07:23.64
エロゲメーカー内製で非公式MOD出せばいいだけの話
大丈夫だ、問題ない。
399:デフォルトの名無しさん
11/03/06 17:45:27.23
本をパラパラめくるだけでスキャンできる機械が東京大学で開発されていますが、キネクトを使えば個人でも利用できるような気がします。どうでしょうか。
URLリンク(www.youtube.com)
400:デフォルトの名無しさん
11/03/06 18:05:27.44
無理です。
401:デフォルトの名無しさん
11/03/06 18:13:21.62
解像度がなぁ
402:デフォルトの名無しさん
11/03/06 20:02:25.10
高速度の高解像カメラはまだまだ高価だよ
403:デフォルトの名無しさん
11/03/09 02:55:59.42
楽しそう
404:デフォルトの名無しさん
11/03/10 13:45:03.18
キネクトの解像度やフレームレートっていくつなんだ?
公式やwiki見ても載って無いんだが
ググっても変なのしか出て来ないし
405:デフォルトの名無しさん
11/03/12 01:44:21.82
>>404
基本640x480 30fpsだと思うが。まあデプス画像は実質ではそこまで精度ないと思う。
406:デフォルトの名無しさん
11/03/13 18:52:58.07
デブス画像とかモザイクかけてくれていいよ
407:デフォルトの名無しさん
11/03/14 11:25:12.25
デプス画像なんて普通にモザイクレベルだろ
個人が判別出来るほどの精度ねーよ
408:デフォルトの名無しさん
11/03/27 23:25:55.58
あの~こちらデブスとデプスを引っ掛けておりまして…
いえっはいっ何でもございません滅相もございません
409:406
11/03/28 08:58:39.86
ツッコミオセーヨ
だがこれでようやくこのスレを閉じれる
ありがとうさようなら
410:デフォルトの名無しさん
11/03/28 10:55:52.54
自演臭い
411:デフォルトの名無しさん
11/04/17 03:14:59.00
動画:MS が Kinect for Windows SDKをデモ、ベータ版は今春公開
URLリンク(japanese.engadget.com)
4Gamer.net ― “Kinect風”な開発者向けモーションキャプチャデバイスがASUSから登場
URLリンク(www.4gamer.net)
412:デフォルトの名無しさん
11/04/17 03:35:19.98
キネクトより精度が上だったりするのだろうか。これ。
あとは認識範囲が広いとか。
413:デフォルトの名無しさん
11/04/17 06:06:25.64
キネクト風っていうか、OpenNI 公式のデバイスだよね。
414:デフォルトの名無しさん
11/04/17 08:43:53.74
深度センサーだけでKinect単品より値段も高いとか、宗教上の理由で買えない人専用だな
415:デフォルトの名無しさん
11/04/17 09:23:33.12
スケールメリットの差があるから仕方が無い
それと、エロゲ用途ならXtionを使うしかない
以前のアナウンスからすると、MSは恐らくKinectを商業エロには使わせない
416:デフォルトの名無しさん
11/04/17 09:44:00.27
>>43
いつのまにか実装されてるな
417:デフォルトの名無しさん
11/04/17 09:46:13.74
>>415
深度センサーだけでなくRGBカメラとかも搭載したKinect上位互換機なら良かったんだけどねえ
418:デフォルトの名無しさん
11/04/17 10:54:49.26
>>415
それはエロい人がどうにかしてくれるだろきっと
419:デフォルトの名無しさん
11/04/17 14:10:45.40
深度センサーだけ?
kinectでも赤外線じゃ細かい部分が精度不足でとれないのに。
指の動きがわかるくらいの精度になるのかな。
420:デフォルトの名無しさん
11/04/17 19:45:05.18
64bit windows7で開発環境整えてるんだけど、OpenNIサンプルがどれもうまく動かない。
組み合わせ1
OpenNI-Win64-1.1.0.39-Dev.msi
avin2-SensorKinect-8f199ca.zip - SensorKinect-Win-OpenSource32-5.0.1.msi
NITE-Win64-1.3.1.3-Dev.msi
組み合わせ2
OpenNI-Win32-1.1.0.39-Dev.msi
avin2-SensorKinect-8f199ca.zip - SensorKinect-Win-OpenSource32-5.0.1.msi
nite-win32-1.3.1.3-dev.msi
組み合わせ1だとOpenNIのインストールはうまくいくんだけど、
SensorKinectのインストールでOoenNIのバージョン1.1.0.39以上にしてくれって警告でて
インストールができない。もちろんバージョンは1.1.0.39なんだけど
組み合わせ2だとすべてうまくいくんだけど、
サンプル実行するとどれもフリーズする。
深度センサは赤くなってるから動いてるみたいだけど。
すべてのインストール先をProgram Files (x86)→Program Filesに変更しろって
いろいろなサイトに書いてあったんだけど、インストール先指定でProgram Filesを
指定してるのに、すべてインストールはProgram Files (x86)のほうにされる。
Program Files (x86)もだめ、手動でフォルダ移動+XML書き換えでもフリーズでした。
うまくいった人、どのインストーラーで成功した方情報ください。
421:デフォルトの名無しさん
11/04/18 02:48:21.39
俺も>>420と同じで、久々にOpenNI更新したら動かなくなってた。
まだ手をつけてないけどパスの指定がダメで dll か lib が読み込めてないと思っている。
あとサンプルのバイナリは動かないよw
初期設定ファイルの相対パスが違うから。以前のバージョンだと。
422:デフォルトの名無しさん
11/04/18 03:17:28.11
Kinect for Windows SDK - Microsoft Research
URLリンク(research.microsoft.com)
423:デフォルトの名無しさん
11/04/18 03:49:13.73
>>421
組み合わせ2でNiSimpleViewer.exe実行すると
ザラザラだけど一瞬だけカメラからの画像が移るんだよ。
64bitの互換性云々でこうなってるのかなって思ったんだけど、
まだどこか設定ミスがあるのか・・・。さっぱりわからないけど。
正直Kinect for Windows SDKの記事を見て
「あ、kinect買ったんだった」って思い出して今に至ってるから、
待てばいいんだけどね。GW前までに出てくれればいいなと願っている。
424:デフォルトの名無しさん
11/04/18 08:02:25.68
>>422
コネー
425:デフォルトの名無しさん
11/04/18 08:26:01.93
.>>423
俺はMSのSDKを見てからOpenNIとどっち使うか決めるよ。
OpenNIのが良いかもわからんからね。
426:デフォルトの名無しさん
11/04/18 10:58:41.05
>>423
> 正直Kinect for Windows SDKの記事を見て
> 「あ、kinect買ったんだった」って思い出して今に至ってるから、
俺も俺もw
427:デフォルトの名無しさん
11/04/18 20:00:48.98
MSDNの機械翻訳は読みづらいからなぁ・・・
OpenCVみたいなサイトをOpenNIも作ってくれれば、そっちのほうが良いかもしれん
428:デフォルトの名無しさん
11/04/20 02:51:04.69
Official Kinect SDK to be Open Source
URLリンク(nui.joshland.org)
広報は否定してるけど面白そうな話だなあ
429:デフォルトの名無しさん
11/04/21 20:45:37.33
ジェスチャーの学習って出来るの?
430:デフォルトの名無しさん
11/04/24 01:23:37.34
>>420
解決してたらごめん。
俺もそろそろSDK出るだろうと思って21日に買った。
環境はWin7 Ul x64
最初はうまくいかなかったんだけど色々いじってたらいった。
使用ファイル(24日01時最新?)
OpenNI-Win32-1.1.0.41-Dev.msi
avin2-SensorKinect-8f199ca.zip
NITE-Win32-1.3.1.3-Dev.msi
OpenNIはUnstable。
全部32bitね。
普通にx86パスにインストールしたし、インストール時に特に変更した箇所はない。
SensorKinectのDriverはdpinst-amd64.exeを実行。
とりあえずいじったとこは、
環境変数 → パスが「Bin」のはずなのに「bin」になってるので修正。多分再起動しないと認識しないかと。
OpenNI\Data\modules.xml → おかしなパスがあるので修正(もしかしたら俺がx64verとか過去verをなんどもインストールして試してたからかも)
OpenNI\Data\licenses.xml → これもなんか2個記述があった。本来入力したほうのみ残して余分なほうは消した。(多分何度かインストールしたせいかと・・・)
一度インストールしたのならアンインストールしてやり直したほうがいいかも。
ファイル残ってる場合もあるし俺みたいに上書きされるかもしれん。
後、これやる前に前回インストールした時のドライバで認識されてるからデバイスマネージャからKinectのカメラ、モータ、オーディオを消して再起動した。
431:デフォルトの名無しさん
11/04/27 07:30:00.50
VB初心者の学部生なんですけど、
VBとkinectを一年以内に接続して、サーボモータを動かすという課題が出ました。
OpenNIを使ってらっしゃる方をよく見かけるのですが、
これってC言語のプログラムですよね?
SDKは夏前に出るとかいうニュースがありましたし
ある程度の成果を一定期間毎にあげなくてはならないのでSDKを待てません。
そこで質問です。
OpenNIが行っている処理の情報をVBを使って管理することはできますか?
もし出来るならやり方を教えてください。
長々とすみません。
432:デフォルトの名無しさん
11/04/27 09:35:08.20
>>431
なんでVBなんて使う?
課題を出したやつに聞いてこい。いや煽りじゃなくマジで
433:デフォルトの名無しさん
11/04/27 11:12:12.47
VB.NETならつかえるっしょ。
434:デフォルトの名無しさん
11/04/27 15:10:10.37
>>431
C は初心者じゃ無いと言うなら、VB のマニュアルで declare を調べる。
435:デフォルトの名無しさん
11/04/27 15:24:46.26
>>432
C以外の言語にも触れていろいろできるようになってほしいらしいです。
>>434
なるほど、これならできそうですね。
答えてくださってありがとうございます。
ここから先でわからないところがでたらVB板で聞いてみます。
436:デフォルトの名無しさん
11/04/27 16:10:39.69
>>430
情報どうも。
ちなみにどのサイト参考に環境整えた?
437:デフォルトの名無しさん
11/04/30 10:58:54.30
デプスとイメージジェネレータは使えるようになったけど、ユーザージェネレータの作成でコケる。
これってNITEのセットアップに失敗してるって事だよね。
以前はいけたんだけど、なんでこんなにハードル高いんだよ。もう心が折れそうだ
438:デフォルトの名無しさん
11/05/01 02:09:56.73
OpenNIのjavaラッパーってありますかね?
JNAあたりで読み込めると楽なのですが
439:デフォルトの名無しさん
11/05/02 18:09:50.80
ジェスチャってこれ、予め用意されたジェスチャしか使えないのん?
440:デフォルトの名無しさん
11/05/03 13:21:27.43
>>437
設定ファイル(.xml)でユーザージェネレーターを有効にして無いとか?
それかそもそもNITE入れてないとか。
441:デフォルトの名無しさん
11/05/03 14:19:42.90
ボーン認識の特徴点に何使ってるかとかって判明してるんだっけ?
442:デフォルトの名無しさん
11/05/08 23:42:30.90
Visualstudio2008
XNA Game studio3.0
WindowsXP
骨格情報取得のプログラムを作成したら
using xn;
ところで、エラーがでるんですが原因わかりませんか?
エラー文です。
エラー CS0246:
型または名前空間名 'xn' が見つかりませんでした。
using ディレクティブまたはアセンブリ参照が不足しています。
443:デフォルトの名無しさん
11/05/08 23:46:37.90
参考にしたURLです
URLリンク(www.kosaka-lab.com)
tips/2011/04/kinect-xna.php
444:デフォルトの名無しさん
11/05/08 23:51:53.25
>>442
>>443
週に数レスしかないスレで聞くの?
質問スレの方がいいよ
445:デフォルトの名無しさん
11/05/08 23:55:42.44
Kinectの質問スレあるの?
446:デフォルトの名無しさん
11/05/09 00:12:43.11
総合スレのことですか?
447:デフォルトの名無しさん
11/05/20 21:27:28.25
Kinectハアアァックッ!!!!!!!!!!!
448:デフォルトの名無しさん
11/05/26 03:26:17.62
どなたかKINECTセンサープログラミングの書評をおながいしまふ
449:デフォルトの名無しさん
11/05/26 03:47:49.63
>>448
おまえみたいなヴァカには無用の長物だよ
450:デフォルトの名無しさん
11/06/10 16:19:53.47
SDKコネー
451:デフォルトの名無しさん
11/06/10 20:08:31.61
気づかないうちに出てるんじゃないかと思ってときどきググってみるけど、まだ来てないよな
もう春は終わってる気がする
452:デフォルトの名無しさん
11/06/10 20:31:46.26
kinectSDK出すとXBOXのキネクト用ソフトが売れなくなるからかな。
453:デフォルトの名無しさん
11/06/11 08:41:08.26
しょせんキネクトも一発屋か...
454:デフォルトの名無しさん
11/06/11 18:12:14.46
俺たちの春はこれからだぜ!
455:デフォルトの名無しさん
11/06/11 19:45:02.55
マイクロソフト先生の次回作にご期待ください!
456:デフォルトの名無しさん
11/06/12 02:20:35.14
キネクトは場所取りすぎるんだよ
メリケンの大きい家じゃないと厳しい
ヨーロッパや日本のような狭い家だと㍉
457:デフォルトの名無しさん
11/06/12 08:09:26.86
>>456
非純正だけど、狭い部屋でも出来るようにするレンズが出るって話だ
距離や大きさの測定が狂う気がする
458:デフォルトの名無しさん
11/06/13 08:26:15.77
放射能に反応しないかな