10/12/28 14:37:53
ネイティヴ64bitのサンプルは動かんな。
見た感じ、足りないのは64bitのNITE系ファイル?
151:デフォルトの名無しさん
10/12/28 17:33:47
OpenNIの方は64bitで動いた。NITEの方は俺は無理だったけどCPUがAthronだったからな気がする。
152:デフォルトの名無しさん
10/12/28 22:07:48
NITEの類似ライブラリってないの?
153:デフォルトの名無しさん
10/12/29 00:32:34
ない。OpenNIに互換性の有るのは現在NITEのみ。
OpenKinectと一緒に使うスケルトントラッキング・ライブラリも考えている人は居るみたいだが、
まだ公開されていない。
154:デフォルトの名無しさん
10/12/29 13:55:10
Kinectの想定しているスケルトンの図ありませんか?
ボーンの数とか位置とかはすぐわかるのですが、各ボーンのローカル座標(回転)がどうなってるのか
ドキュメントが見つからなくて困っています。これがわからないと動かせない…
155:デフォルトの名無しさん
10/12/30 05:37:37
>>154
>>146の画像ではないの?
156:デフォルトの名無しさん
10/12/30 09:45:26
The NITE 1.3 Algorithms.pdf に取れるボーンとボーン座標系がのっている。
(基本が絶対座標なのでボーン同士の接続はない)
ボーン座標系はワールド座標を平行移動しただけ。
Tポーズの時に回転成分がすべて0になる。
詳しくは図を参照。
ただ左足はFOOTではなくANKLEが返ってきたような気がしたのだが、何かの間違えか??
これとまったく同じスケルトンをモデラーで作って渡してやると、
NITEで取れたボーンのT,Rをローカル座標に直すだけですぐ動かせる。
うちのMilkShape3Dさんでこのスケルトンが作れるかどうか調査中。
まあ来年。
157:デフォルトの名無しさん
10/12/31 15:38:08
ミラーモードのとき、右手を上げるとXN_SKEL_RIGHT_HANDが上がる。ワールド座標系は右。
ノーマルモードのとき、右手を上げるとXN_SKEL_LEFT_HANDが上がる。ワールド座標系は左。
特に理由がなければミラーモードがいい。
ミラーモードの時はカメラが(0,0,0)で+Xが右、+Yが上、+Zがカメラからユーザーに向かう方向。
各ボーンのオリエンテーションはTポーズの時、ワールド座標系と一致する(回転0)。
回転行列は3x3で、配列[0-15]が下に相当する。
012
345
678
158:デフォルトの名無しさん
11/01/01 14:52:57
モーションは大筋で取り込めるようになった。右手を上げればアバターの右手があがる。
で、意外とkinectの値(T,R)をそのままアバターに適応すると頂点が崩れる。
before↓
URLリンク(freedeai.jpn.org)
after↓
URLリンク(freedeai.jpn.org)
159:デフォルトの名無しさん
11/01/01 14:54:35
下書き保存のつもりで途中で書き込んでしまった。
下は左手を45度ぐらい斜めに上げたところ。
大筋で良いのだが何かをバグっている気がする。
160:デフォルトの名無しさん
11/01/01 15:16:47
>>158-159の日本語がバグっている気がする
161:デフォルトの名無しさん
11/01/01 16:38:41
問題点はだいたいわかった。ジョイントの回転で上を向くはずが下を向いている。
基本的には座標系の取り扱いがkinectが想定しているのと違うためと思われる。
あとジョイントのT,Rを個別に取得してモデルに適応するのはどうしてもきれいに表示できない。
Rだけ取得してボーン階層をきちんとたどったほうがいい。
どのみちHANDは回転が取れないので、親の回転を適応しないっとおかしなことになる。
やってみるといろいろ簡単ではないね。MMDの人とかやっぱりレベル高い。
162:デフォルトの名無しさん
11/01/02 02:10:31
もうOpenKinectは終わった感じなのかこれ
163:デフォルトの名無しさん
11/01/02 10:13:31
そうでもない。
URLリンク(groups.google.com)
OpenKinectの欠点は現状生データ(RGB,Z,加速度)しか取得できず、
NITEに相当するスケレタルトラッキングライブラリが無いこと。手軽に遊ぶには不向き。
逆にOpenNIの欠点はNITEなどのミドルウェアがプロプライエタリな所にある。
あと音声とか無駄に機能が多い。
オープンソースのスケレタルトラッキング・ライブラリが公開されれば
OpenKinectに移行する人間は出てくると思う。
164:デフォルトの名無しさん
11/01/02 11:48:53
サポートベクターマシーンとか本気でやるとなると相当力入れないとな。。。
おもしろそうではあるが工程が膨大なわりにゴールがOpenNIと同程度だと報われない結果になりそうで二の足踏んでる人が多いんじゃないかしら
ここから先はOpenNIのミドルウェアが先に出てOpenKinectはそのオコボレに授かる形になるんじゃね?
165:デフォルトの名無しさん
11/01/02 13:42:12
テーマとしては結構面白いと思うけどね。
(今までZが取れる実用的なカメラはなかったと思う)。
日本の大学でも画像認識をやっている所は多いはずなので、
どこかの学生さん、ちゃちゃっと作って公開してください><
166:デフォルトの名無しさん
11/01/02 15:16:10
Macで遊んでる人はOpenKinectだと思う。
どの道NITEは使えないし、dylibの依存がなくすっきり作れる
OpenKinectの方が手軽
167:デフォルトの名無しさん
11/01/02 19:38:51
苦節1週間ちょっと、ようやくアバターを動かせるようになったので動画をキャプチャーしてみた。
URLリンク(www.youtube.com)
まあ何だ。MMDは遠いな!
これKinectから各ジョイントの回転のみを取得して適応してるのだが、
やはりドキュメントに書かれている通り回転検出は精度が低い。
動きがどう見ても「人形劇」にしか見えない。
あと致命的なのはTポーズの時に単位行列が帰ってくるはずが、
そうではなくX軸を中心に90度回転していることがあること。
NITEライブラリの誤検出だろう。
sinbadとかきれいに動かしているが、どうやってるのだろうか。
168:デフォルトの名無しさん
11/01/03 00:09:24
Macでもできるのか
面白そうだな
169:デフォルトの名無しさん
11/01/03 03:25:16
KinectとMMDは連携してるようなんだけど
そのデータをつかってロボット動かせないかしら?
さらにロボットにカメラとかついてたら面白そうなんだけど。
170:デフォルトの名無しさん
11/01/03 03:38:16
理想形態まで進化したとして、kinectはどこまで認識してくれるんだろう?
逆に何ができないんだろう?
どっかでやってたみたいに、例えばkinect2台使って最適なソフト組めば市販のモーキャプ並の精度誇る様な代物なんだろうか?
171:デフォルトの名無しさん
11/01/03 10:23:08
>>169
余裕でできる。kinect(NITE)から関節の位置と回転が取れるので、
それをロボットに送ってやればいい。原理的に3Dキャラクターを動かすのと同じ。
172:デフォルトの名無しさん
11/01/03 11:55:11
>>169
URLリンク(www.youtube.com)
ただロボット動かすならもうある。
MMDとの連携は知らんが。
173:デフォルトの名無しさん
11/01/03 12:05:09
kinectの応用はアメリカの大学だといろいろやってるみたいだけど、日本だとどうだろうね。
MMDだけというのはちと情けない。
174:デフォルトの名無しさん
11/01/03 14:21:31
kinectから取得した各ジョイントの回転をただ単に当てはめただけではMMDみたいにならないね。
どうしても>>167みたいになる。試行錯誤してみたけどあれが限界。
IKを実装しないとMMDみたいなスムーズな動きは不可能?
それとも位置情報を元に回転角度を求めるしかないのか?
謎が謎を呼ぶぜ。
175:デフォルトの名無しさん
11/01/03 15:02:22
平滑化すればいいだけ
176:デフォルトの名無しさん
11/01/03 15:24:58
それも考えましたがデータを見る限り平滑化で何とかなりそうなレベルではないです。
Tポーズの時に単位行列ではなく90度ひねった行列が返ってきたりするので。
というわけでジョイントの位置から自分で回転角度を求める方法を実装してみます。
回転角度ベースでないと人間の取ったポーズと「ひねり」が違くなるのはしょうがない。
177:デフォルトの名無しさん
11/01/03 23:18:21
Depthだけだと自由度3の関節に対して
一意に決定できるだけのパラメータが足りないからなぁ
大昔はバトンをもって肘から手首のひねりをキャプチャしてたっけ
178:デフォルトの名無しさん
11/01/04 01:10:26
MMDは頂点座標だけつかって、腕などの各パーツの行列は
その頂点に追従するようIKで求めているんじゃないの?
179:デフォルトの名無しさん
11/01/04 10:08:30
2つの関節位置を結ぶベクトルは求めることは出来るけど、三次元で姿勢
を確定させるにはさらにそのベクトルに直交するベクトルが必要になる
これは深度情報からは求める事ができない
腕をまっすぐ伸ばした状態のままで捻るような動きはKinectでは拾えないということ
180:デフォルトの名無しさん
11/01/04 10:15:49
xn::HandsGeneratorで手の平だけを別撮りすればいいだけだろ
リップシンクはどうしようも無いが
181:デフォルトの名無しさん
11/01/04 10:28:16
現在のkinectではHANDの回転は取れない仕様。あと回転情報を一切使わなくても
SOULDER --> ELBOW --> HAND の位置情報からだけでも十分動かせると思う。
さすがにこの軸を中心にした回転は計算できないけど、それはkinectから取得した回転情報でも無理な気がする。
ともかく位置情報から腕の角度を求めてやってみようぜ。
182:デフォルトの名無しさん
11/01/04 13:08:11
ASUS、PC向けKinect風センサー Wavi Xtion を発表
URLリンク(japanese.engadget.com)
183:デフォルトの名無しさん
11/01/04 22:28:34
A(肩) --> B(ひじ) --> C(手首) とジョイントがある場合(骨は(1,0,0)方向に伸びているとする)、
Bの回転角度を求める時って、
(1) Aの回転は既に計算済みとして、
(2) Bの(ワールド座標の)位置をAのローカル座標に変換して、
(3) (1,0,0)からの回転角度を求める
と計算すれば良い?
(1') Aの回転は既に計算済みとして、
(2') Bの(ワールド座標の)(1,0,0)からの回転角度を求めて、
(3') Aのクォータニオンの逆数をかけて差分の回転を求める
と実装したらどうも間違えているような動きをするのですが、
上記の式で計算しないとダメですか?
つまり親のジョイントのローカル座標で計算しないとダメですか?
184:デフォルトの名無しさん
11/01/05 03:02:19
OpenNIでRGB画像のピクセル座標点に対応する距離画像の値はSetViewPointで距離画像を
変換かければ半自動で得られるけれど、距離画像のピクセル座標点に対応するRGB画像の
値ってどうやれば得られる?
185:デフォルトの名無しさん
11/01/05 03:25:52
>>180
まだいじり始めたばっかりなんだけど、この辺のクラスとかメソッドで○○をいじれるよ
とかまとめてあるとこないかな。
186:デフォルトの名無しさん
11/01/05 09:36:29
俺が知る限りない。とりあえず付属のサンプルを見ればだいたいわかる。
187:デフォルトの名無しさん
11/01/06 08:58:35
OpenNI Mono サポート追加 age
188:デフォルトの名無しさん
11/01/06 14:37:57
Microsoftは本日、CES 2011のプレスカンファレンス上で、Kinectを使ったXbox LIVEの
新たなソーシャルコミュニケーションサービスAvatar Kinectを発表しました。
Avatar Kinectは、複数のユーザーがトークショー番組風のバーチャルセットに集まり
Avatarを使って会話を楽しむというもの。モーションセンサーのKinectが実際のプレイ
ヤーの動きを読み取り、画面上のAvatarのアニメーションにそのまま反映されます。
Kinectはプレイヤーの体の動きだけでなく口や眉の動きといった顔の表情までマッピング
することが可能。また、会話の内容を保存したり、Facebookにアップロードするといった
機能も存在するようです。
Avatar Kinectは2011年春にゴールドメンバー向けに無料で提供されるとのことです。
URLリンク(www.youtube.com)
URLリンク(gs.inside-games.jp)
189:デフォルトの名無しさん
11/01/06 17:20:53
上の方でkinectからジョイントの位置情報を取得して、アバターのジョイントの回転角度を計算してやってみた。
(結局ボーン座標で全て計算した。>>183は間違えている。いずれどこかに計算式はまとめるつもり)
上半身に関しては満足いくレベルでキャプチャーできているが下半身がダメ。
kinectの取扱い方法が悪いのか、元々このぐらいの精度しかないのか(ドキュメントには下半身の精度は悪いと書いてあるが)。
URLリンク(www.youtube.com)
さてどうしようか。
190:デフォルトの名無しさん
11/01/06 17:57:55
ボインちゃんの気持ちを疑似体験できる新Kinectハック
URLリンク(www.kotaku.jp)
「ボインはお父ちゃんのもんと違うのんやでぇ~」...そう、アナタのもんです!
アニメーション・データやモデリングを改造・操作するツールであるNoesisが、Kinect用の
プラグインとしてこのハック・ツールをあたらしく公開しています。
そしてその機能はなんと、爆乳をボインボインと水風船のようにゆらしてしまう、という夢の
ようなステキなモノです。きっとこのハックで、みなさんもオッパイ姉ちゃんの気持ちが
理解できることでしょう。アナタが動けばボインも揺れる! そんなデモ動画をお愉しみ
ください。
スゴい! このユサユサ感、ありえない程の弾力性で、まるで揺れるオトメ心を表現
しているようです(笑)しかもプレイヤー自身が、自分の手でオッパイをさわって揺らす
こともできるんですね。
KINECTHACKSでは、リアルタイム・モーションキャプチャーに使われたこの技術を、
エクストリーム・オッパイ物理演算(Extreme Boobie Physics)と呼び、胸骨のあたりに
ジョイントされたオッパイが、低重力でソフトに反発し、そのオッパイはクレイジーかつ
オーヴァー・ザ・トップである、と申しております。
さて、もしこれが実用化されたなら、爆乳ナデナデする側とされる側で、ウマいこと
サイバーエロ産業の需要と供給が回りそうな気がします。
191:デフォルトの名無しさん
11/01/06 20:47:01
日記は日記帳に書け
192:デフォルトの名無しさん
11/01/06 21:06:51
ここが日記だ!
193:デフォルトの名無しさん
11/01/06 22:47:37
まさしく!
194:デフォルトの名無しさん
11/01/07 17:54:53
世界がmatrixに見える奴作って欲しいなあ
195:デフォルトの名無しさん
11/01/07 19:25:44
具体的に言うとどういうアプリ?
196:デフォルトの名無しさん
11/01/07 21:53:37
こんな感じに
URLリンク(www.valdostamuseum.org)
197:デフォルトの名無しさん
11/01/07 22:04:27
まったくわからん
198:デフォルトの名無しさん
11/01/07 22:27:08
ああこれをリアルタイムでやるのか
わかるわ
199:デフォルトの名無しさん
11/01/07 23:54:57
室内のクラウドポイントデータを板ポリ何枚かにリデュースして、
そこにテクスチャ貼れば完成だな
シェーダで化粧しても良し
200:デフォルトの名無しさん
11/01/08 05:24:00
OpenNI Mac対応来たね
201:デフォルトの名無しさん
11/01/08 11:48:32
ちょっとはまったので書いておく。
現在のunstableのavin2/SensorKinect2とOpenNIのstableは互換性がなくコンパイルできない。
普通にダウンロードするとunstable版を落としてしまう。
↓こっちはunstable版
URLリンク(github.com)
↓こっちがmaster版
URLリンク(github.com)
OpenNIでstable版を使用している人はmaster版のavin2/SensorKinectを使用する。
ちなみにOpenNIのunstable版の方はいろいろ怪しい所があるので、
特に理由がなければstable版を使ったほうがいい。
202:デフォルトの名無しさん
11/01/08 14:39:57
Kinectドライバの導入手順は人によって成否がまちまちでよくわからん。
まあ、MSが直々にどうにかしてくれることが決まったからそれまでの辛抱だな。
Kinect のPC対応は「ふさわしい時に」発表 (バルマー氏)
URLリンク(japanese.engadget.com)
203:デフォルトの名無しさん
11/01/08 14:48:31
Windowsは知らんがUbuntuなら1つしかない。
204:デフォルトの名無しさん
11/01/08 18:00:58
XBox360を持ってない俺の家にKinectが届きますた。
ゲーム会社にいたころ、たくさんの人員と、めっちゃ広い施設と、数百万の機材で、
丸1日かけてモーキャプしてたが、ついに4畳半の貧乏人一人でも
できるようになったんでつね・・・感無量
205:デフォルトの名無しさん
11/01/08 19:14:34
windowsでも起動できると聞いてやってみたが
「failed:Unknown USB device speed!」って出て先に進めない。
一通りデバイスはインストールしたのですが何が原因なのかわかる方いるかな?
206:デフォルトの名無しさん
11/01/08 19:23:03
このスレ内を検索してみれば?
207:デフォルトの名無しさん
11/01/08 19:44:29
mmdでモキャプ試してみたけど、精度がイマイチだな・・・
といっても十分満足してるけど。
208:デフォルトの名無しさん
11/01/08 20:30:34
>>205
131 名前:デフォルトの名無しさん [sage]: 2010/12/25(土) 13:49:00
>130
KinectのケーブルにACアダプタを刺せ
らしいぞ。ACアダプタ指し忘れって多いのか?
209:デフォルトの名無しさん
11/01/08 20:31:45
>>207
上半身の精度は文句ないと思う。下半身が今ひとつな気がする。
210:デフォルトの名無しさん
11/01/08 22:18:22
Kinectって赤外線を出して、それをキャプチャーして
深度を計測してるのかな?
てか画像からボーン情報を算出するプログラムが凄いと思う。
211:デフォルトの名無しさん
11/01/08 23:19:00
>>205
まったく同じ状態・・・
ACアダプタも挿してるしなぁ・・・
ACアダプタもUSBもハブ通さずに挿してみたりしたけどUnknown USB device speed!
だわ
デバイスマネージャー見ても
PrimeSensor
- Kinect Camera
- Kinect Motor
とデバイスは入ってるっぽいし・・・
>>210
カメラって二つある場合距離算出できた気がするけどどうだったかな
212:デフォルトの名無しさん
11/01/08 23:28:22
ある配列で赤外線をたくさん出してる。
213:デフォルトの名無しさん
11/01/09 00:14:18
ステレオカメラじゃなくて、プロジェクタみたいな感じで模様を投影して、それを
カメラで撮影して、その模様の状態から距離を計算してるみたいだよ。
詳しくは海外で発売したての頃ググったらいっぱい出てきたけど忘れた
URLリンク(www.youtube.com)
OpenNIって工場出荷時の校正情報デフォで持っててそれ使ってるみたいだけど、
その値どうやったら得られる?
内部パラメータと外部パラメータが欲しいです
214:デフォルトの名無しさん
11/01/09 02:20:30
URLリンク(github.com)
この ofxKinect をWindowsのVisual Studio 2010でいじりたいんだけど、
どうやればいいかわかる人いますか?
215:211
11/01/09 02:48:31
糞ネットブックにドライバ突っ込んだら動きやがった・・・
俺のデスクトップPCのUSBの規格が悪かったとかそんな落ちか?
原因不明
もちろんデスクでは動かない
216:デフォルトの名無しさん
11/01/09 03:00:32
デスクは指すポート変えてもダメ?
USB2.0High Speed 規格のポートじゃないとかだったり。
217:211
11/01/09 04:10:00
>>216
USBは2.0っぽいけどなぁ・・・でもBTOで買った糞デスクだからな
調べてみるとTA790GXE 128Mとかいうマザボだった
USB
USB 2.0 Port
USB 2.0 Header
218:デフォルトの名無しさん
11/01/09 04:19:41
サンプルも動いて、ソースの解析を始めたけど、
モーションキャプチャーならMMDで十分な気がしてきた・・・
219:デフォルトの名無しさん
11/01/09 06:21:21
というか、なんで皆バラバラに自分の奴を勧めるんだ?
情報提供しあって一個の完成形作る方が時間も無駄にならないんじゃないか?
220:デフォルトの名無しさん
11/01/09 06:43:18
PlaystationMoveって調べてみたけど、アレってWiiのパクりなのな。
いずれSonyもKnect+αのデバイスを出してくるだろう。
221:デフォルトの名無しさん
11/01/09 07:49:52
今のSONYに+αの製品を出せるだろうか。。。
残念ながら、ハードも売れてないし、難しいだろうね。
222:デフォルトの名無しさん
11/01/09 08:03:29
222
223:デフォルトの名無しさん
11/01/09 10:45:48
スケルトン・トラッキングはできるようになったので、何を作るかだな。
MMDみたいに歌って踊るか、モーションキャプチャーアプリを目指すか。
224:デフォルトの名無しさん
11/01/09 10:58:50
age
225:デフォルトの名無しさん
11/01/09 11:04:53
カス子にモーション付けられたら神
226:デフォルトの名無しさん
11/01/09 16:33:49
OpenNIって公式リファレンスはないん?
227:デフォルトの名無しさん
11/01/09 19:38:43
ドキュメントのことだよな?
バイナリパッケージをダウンロードすればDocumentsディレクトリの下にhtml形式である。
ところでOpenNIのサイトリニューアルしたね(2011.01.06?)。
ほぼ見た目だけ。
228:デフォルトの名無しさん
11/01/10 02:44:46
>>227
おお、バッチリあったわ、ありがとう。
深度とイメージのデータ取得は理解できた。
あとはモーションキャプチャーだな。
229:デフォルトの名無しさん
11/01/10 03:06:33
OpenNIが同様にOpenCLに対応したら存在価値消し飛ぶんじゃないのとは思うが、一応紹介
SemiAccurate :: Nuvixa: intelligent, immersive presentations and beyond
URLリンク(www.semiaccurate.com)
230:デフォルトの名無しさん
11/01/10 10:48:28
kinectカメラのデプス検出だけど、よく光るものをカメラに向かって45度傾けるとそこだけ検出できなくなるな。
特にカメラに向かって右側で45度の傾いた面が検出できてない。
あと気がついたけどサンプルのビュアーでZ値をカラーに変えるときに0~255ではなく0~256にスケーリングしている。
つまり無効ピクセル(Z=0)を256にマップ(あとでunsigned charにキャストするので0になる)して真っ黒で描画している。
意外にZを検出できないピクセルが多い。
↓無効ピクセルだけ黄色くした図。
URLリンク(freedeai.180r.com)
231:デフォルトの名無しさん
11/01/10 11:21:26
キャスト前に255にクランプしてみたけど全然かわらん
人物の右側にズレて映る背後霊はいつも気になるけど
近づきすぎると深度検出できなくなるとの同様にセンサーの仕様なんじゃないの?
232:デフォルトの名無しさん
11/01/10 12:19:58
それは赤外線の放出と受信窓の視覚差によって生まれる影でしょう
キネクトは赤外線ライト&レシーバーだからどっちかから隠れていると認識できない
233:デフォルトの名無しさん
11/01/10 12:44:14
>>217
まったく同じ状況だ・・。
検索すると、ドライバを一旦アンインストールし、もう一度「dont search, I will chose the driver to install」でインストールしたら直った人がいた。
URLリンク(groups.google.com)
でも俺の場合これではダメだった。
この人、デバイスマネージャで見たときにPrimeSensorの下にmotorしかなかったからダメだったみたいって
書いてるけど俺のは元からちゃんとあるし。
で、このエラーメッセージはXN_STATUS_USB_UNKNOWN_DEVICE_SPEED定数と関連づけてあるよね
→ XN_STATUS_MESSAGE(XN_STATUS_USB_UNKNOWN_DEVICE_SPEED, "Unknown USB device speed!")
この定数が使われるのはxnUSBGetDeviceSpeed関数がXN_USB_DEVICE_HIGH_SPEED以外を返したときらしい。
OpenNIのソース?に関数の定義があった。
URLリンク(github.com)
なんだけど、ソースみると今はXN_USB_DEVICE_HIGH_SPEED以外返さない仕様みたい
Linux用の定義だから?ともかく行き詰まった。誰か助けて・・・
234:デフォルトの名無しさん
11/01/10 12:48:21
>>233
俺の勘違いだった。LOW_SPEED返すこともあるね
ちょっとこの書き込みは忘れてください
235:デフォルトの名無しさん
11/01/10 14:35:06
>>234
それも間違いだった。スレ汚しすまん。
で、関係ないところで解決しました。
1.OPENNI-Win32-1.0.0.25.exeをインストール
2.avin2-SensorKinectはunstableをやめてstableをインストール
(ここ→URLリンク(github.com))
どれがよかったのかわからんが、この二つでNiViewerの起動を確認。やったああああ。
236:デフォルトの名無しさん
11/01/10 18:06:26
動かないわけじゃないのだけど滅茶苦茶不安定で涙目。
NISimpleReadとか動かしてるだけでも、少しするとUSBが切断されてしまう。
スレで出てる各種のエラーも結構頻繁に出るし、安定して使えてる人いる?
どうやってもデモできるほどの稼働時間が取れない。
237:デフォルトの名無しさん
11/01/10 20:52:40
>>235-236
使っているバージョンがunstableだからそんなもの。
stable(1.0.0.23)の方を使わないとダメ。あとそれはavin2/SensorKinectのstableとは互換性がない(少なくともUbuntuでは)。
さっきWindowsにインストールしてみたけど全部バイナリパッケージをクリックするだけで問題なく動いた。
まずKinectをつながずに、
1. OpenNI-Win32-1.0.0.23.exeをインストール
2. SensorKinect-Win32-5.0.0.exeをインストール
3. NITE-Win32-1.3.0.17.exeをインストール
全部インストールしたらkinectをつなぐと、motor, audio, sensor(だっけ?)が出てくる。
ドライバーはインストール済みなので適当にはいを押して自動でインストールして終わり。
audioドライバーだけはまだない。
238:デフォルトの名無しさん
11/01/10 20:56:53
間違えた。
× avin2/SensorKinectのstableとは互換性がない
○ avin2/SensorKinectのunstableとは互換性がない
何にせよ上の3つダウンロードしてクリックすれば終わり。
(avin2/SensorKinectのバイナリは2011.01.07付けで登録された)
239:デフォルトの名無しさん
11/01/10 21:03:36
まあ結論から見ればそうなんだけどねえ。
これを常識とする内容でもないな。
240:デフォルトの名無しさん
11/01/10 22:00:57
そろそろ情報をまとめたいね。古い情報とかあって非常に見通しが悪い。
241:デフォルトの名無しさん
11/01/10 22:16:05
>>237
一応
1. URLリンク(github.com) から落とした
avin2-SensorKinect-b7cd39d.zip を展開
2. Kinectつないでavin2-*\Platform\Win32\Driverフォルダからドライバ入れる
2. OPENNI-Win32-1.0.0.23.exe 入れる
3. avin2-*\Bin\SensorKinect-Win32-5.0.0.exe 入れる
4, NITE-Win32-1.3.0.17.exe 入れる
の標準的な手順でやって、サンプルはNITEのも含めて大体動くは動くんですが、
Windowsで数分動かしているとUSB再接続の「キンコン」音と共にリセットされ、
アプリはタイムアウトエラー、デバイスマネージャではKinect Cameraに
黄色の「!」って感じで連続稼動ができない状態。
あと、こういったリセット(?)でUSB speedも変になってたりする事が
あるらしく、たまにUnknown USB device speedとかUSB HISPEEDでないよ
エラーが出て、ポート変えて挿し直さないといけなくなったりも頻繁。
電源は取ってるしUSBだってホスト直結なんだけどな・・・わからん。
なんとなくLinuxで動かす方が安定している気が。
242:237
11/01/10 23:19:44
> 2. Kinectつないでavin2-*\Platform\Win32\Driverフォルダからドライバ入れる
↑これは余計でしょう。
> 1. OpenNI-Win32-1.0.0.23.exeをインストール
> 2. SensorKinect-Win32-5.0.0.exeをインストール
> 3. NITE-Win32-1.3.0.17.exeをインストール
うちはこの3つだけで安定動作してるなあ。基本的にWindowsでは動かしてないけど。
今試したらSampleSceneAnalysis.exeが10分ぐらいは問題なく動いている。
あとはライセンスキーぐらいかなあ。あれ間違えたライセンスキー入れてもそのままインストール進むし。
メッセージだけ見るとホスト側のUSBが安定して動作して内容に見えるけど・・・よくわからん。
むしろ1つUSBハブをかませたらどう? 1mぐらいまでならなんとか延長できる(3m延長すると確実に動かない)。
243:デフォルトの名無しさん
11/01/11 17:25:35
URLリンク(www.youtube.com)
kinect-ultraソース公開きたー
URLリンク(code.google.com)
244:デフォルトの名無しさん
11/01/11 17:53:54
>>243
めっちゃいい部屋に住んでるな
245:デフォルトの名無しさん
11/01/11 18:28:17
来週買えそう
246:デフォルトの名無しさん
11/01/11 19:07:55
サイズもデザインも日本の家ではないな
海外在住なんじゃないか?
247:デフォルトの名無しさん
11/01/11 19:17:51
普通じゃね?
248:デフォルトの名無しさん
11/01/11 22:33:28
kinectから取得したデータをそのまま使っても綺麗なモーションにはならないね。
URLリンク(www.youtube.com)
一通りいじり倒したけど、ここからリアルタイムキャプターまではかなり遠いわ。
飽きた。
249:デフォルトの名無しさん
11/01/11 23:14:29
>>248
なんかおかくね?
サンプルとかMMDだと、もっと上手くいってるけど。
250:デフォルトの名無しさん
11/01/11 23:19:49
キャプチャー環境晒してもらわないとなんとも言えないと思うけど、足元見えてないんじゃないの?
251:248
11/01/11 23:22:27
おかしいかな?
sinbadもMMDもジョイントに可動域の制限(コンストレイン)とか、無効データの時の扱いとか、
Kinectからもらった生データで動かしてるわけじゃないよね(多分)?
単に生データ表示してるだけなら、こんなものなのかなあと思ってるけど。。。。。
特に下半身のキャプチャー精度はひどい。
252:248
11/01/11 23:29:40
一応環境は距離2m、ひざ下まで(足首は写ってない)。
気になっているのは最初のキャリブレーションポーズの認識が3回に1回ぐらいしか成功しなくて
うまくいった時でも5~10秒はかかる事。もしかして根本的に精度が出てないとか?
253:デフォルトの名無しさん
11/01/11 23:34:15
>>252
キャリブレーションは、例のポーズとってれば、多少時間はかかるけどほぼ必ず認識するよ。
足先まで映ってないといかんと思う。(その分距離とらないといけないけど)
254:デフォルトの名無しさん
11/01/11 23:40:40
みんな腕を直角に曲げてから何秒で認識してる?
255:デフォルトの名無しさん
11/01/12 00:03:40
ヘソまで写ってりゃ1秒ちょい
根本的にお前の部屋が散らかってるかダボダボの服着てるとかだろう
なんにしろ、すぐに道具のせいにする奴は成功しない
256:デフォルトの名無しさん
11/01/12 00:31:14
モーキャプ作ってみたんだけど実際こんなもんで満足な精度は出てるのかな?
URLリンク(www.youtube.com)
とりあえずIKは未使用で可動域未設定でもここまではいけるんだが・・・
257:デフォルトの名無しさん
11/01/12 00:52:29
満足の基準は人それぞれ
精度は出るものではなく追求するもの
258:デフォルトの名無しさん
11/01/12 01:14:50
>>256
キャラの位置が動きまくってるのが気になるが、すごくいい感じじゃね?
259:デフォルトの名無しさん
11/01/12 03:22:05
手を背中に回したらどうなるか追求してください
260:248
11/01/12 08:27:16
>>256
俺のところより圧倒的に精度がいい。
キャプチャー環境に何か問題があるのかもしれない。
もうちょっと頑張ってみるわ。
(部屋片付けないとダメかなあ。。。)
261:248
11/01/12 10:37:37
結構改善した(と思う)。
- Kinectの高さを下げて床が多めにきっちり入るように変更。
- 画面内の金属質の面に全部タオルで覆う。
- 服を脱ぐ。
これでゆっくり動けばほぼ四肢をキャプチャーできた。
ただ早い動きをするとやっぱり動きが飛ぶ。どうもkinect関係なく描画がおかしいらしい。
そういえばATIのGPUでそんな問題が出ていた。
プリセットのモーションを再生する限り特に問題は出ていなかったので解決したと思っていたが、直ってなかったようだ。
262:デフォルトの名無しさん
11/01/12 10:48:46
Q. 精度が出ないんだが?
A. まず服を脱ぎます
がテンプレになる日も近い
263:デフォルトの名無しさん
11/01/12 13:13:10
ていうか真剣にキャプチャするならまじでボクサーパンツとかブリーフでやった方がいいよな
264:デフォルトの名無しさん
11/01/12 22:39:54
よし、キャプチャ用全身タイツを発売しよう!
265:デフォルトの名無しさん
11/01/12 22:46:38
チンコケースだけでよくね?
266:デフォルトの名無しさん
11/01/16 22:51:22
みんなもう飽きたのか・・・
267:デフォルトの名無しさん
11/01/16 23:11:48
趣味でモーションキャプチャして、んでどうすんの?っていう根本的問題があるからな。
日本向けはMMDがさっさと対応しちまったし、
高度な処理はMITやPrimesenseの独壇場でトーシロじゃ歯が立たない。
実用技術的には、MSが宣言した公式サポートが開始されたりASUSのXtionが出てきたりするこれからが本番だろう。
ゲーム業界向けの業務用ソフトなんかに組み込まれていくと予想。
268:デフォルトの名無しさん
11/01/16 23:28:57
ひと段落してきた感はある。
269:デフォルトの名無しさん
11/01/17 00:22:00
マイノリティ・リポートみたいな感じでファイルとかwindow操作できないかな?
プロジェクターを使ってプレゼンやると面白そうなんだが
270:デフォルトの名無しさん
11/01/17 01:12:04
ジョブズ猊下がMacBookにタッチパネルを搭載しない事について
「腕が疲れてやってられん」みたいなこと言ってたけど、
それと同じでそういうプレゼン用途以外では実用性がないと思う
271:デフォルトの名無しさん
11/01/17 02:45:00
寝パソ最大のネックである「寝ながら文字入力」を補完するという役目を
背負っているじゃないか。
272:デフォルトの名無しさん
11/01/17 03:24:48
玄関のドア前で踊ると開く鍵とか開発して欲しい
273:デフォルトの名無しさん
11/01/17 09:18:21
>>272
誰でも開いちゃうんじゃないか?w
274:デフォルトの名無しさん
11/01/17 09:28:53
鍵を閉める踊りと開ける踊りを区別した上でブロックサインのように
踊りの中の特定のパターンのみに意味があるようになっていれば
他の人が適当に真似しても有効にならないようには出来るはず
275:デフォルトの名無しさん
11/01/17 09:53:52
家の前で変な踊り踊ってる人がいたら不審人物だと思われないか
276:デフォルトの名無しさん
11/01/17 09:55:30
やっぱり腰のピストン運動をリアルタイムキャプチャーして
ゲームに反映するのが一番いいと思うけどなあ
277:デフォルトの名無しさん
11/01/17 11:18:19
いや、仮想の腰と実際の右手を連動させた方が実用的だ
278:デフォルトの名無しさん
11/01/17 16:40:50
右手ばっか使ってると本番でダメダメになるぞ。
ちゃんと専用器具を使って腰を使った方がいい。
279:デフォルトの名無しさん
11/01/17 17:21:38
専用器具を使ってると本番で刺激が足らなくなるという研究報告もあるな
ところで>>273については顔認証を組み合わせればいい
顔写真を印刷すればいいじゃないかという説もあろうが
玄関の前にお面を被って踊るデブがいたらそれは不審者だ
280:デフォルトの名無しさん
11/01/17 17:58:58
ボーンのトラッキングって、MSで用意されたもの?
それともOpenNIの人が独自に開発したもの?
281:デフォルトの名無しさん
11/01/17 18:02:04
NITEはPrimeSense社が開発してるプロプライエタリなライブラリ
282:デフォルトの名無しさん
11/01/17 19:21:01
>>281
OpenNIのSampleでもボーントラッキング出来てるみたいだけど、
NITEを使ってやってるってことなのかな?
283:デフォルトの名無しさん
11/01/17 19:41:01
それNITE入れないと動かないよ!
284:デフォルトの名無しさん
11/01/18 00:04:12
>>283
そうだったのか、、ありがとう
285:デフォルトの名無しさん
11/01/18 03:15:28
おまえらコレ見てテンション上げようぜ
URLリンク(www.nicovideo.jp)
286:デフォルトの名無しさん
11/01/18 03:48:24
>>285
左右よりも前後の動きに弱いみたいだね
287:デフォルトの名無しさん
11/01/18 03:50:54
これ、日本のアニメーターさんに使ってもらうわけにはいかんのかなあ…
今までの3DCGのモーション付って大体は手作業でつけるから実に面倒くさくて
その作業を目にしたフツーのアニメーターさんは「手で描いたほうが早いわ」と即断するので3DCGには一切近づこうとせず
だから3DCG界隈は、2Dアニメ界との交流が途切れてしまい、技法その他が全然流入してこなくて
結果、PC操作はできるけどアニメの極意を知らないド素人がつけたロボット的モーションか
ダンサーや俳優さんのモーションキャプチャデータをただ垂れ流すだけ、という技術向上やノウハウ蓄積がこれといって無い状況が続き
日本の2Dアニメと3Dアニメはずっと分断したままで、国際的な競争力を持つこともなく…
でも、kinectのこのムーブメントをアニメーターさんが見たら
「こんなに簡単なら…俺だって3DCGアニメをやれそうだ」「俺だったら、もっとこんな感じに動かすね」と思うのではないか
「描いたほうが早い」から、「カメラの前で動いたほうが早い」に、時代が変わっていくのではないか
そこでようやく、2Dアニメーターが持っていた各種ノウハウが3DCGアニメと融合し始めて、新しい何かが生まれやすくなるのではないか
でもアニメーターさんは、個人が気軽にモーションキャプチャできる時代が到来しそうだ、それがアニメにも生かせそうだ、なんて全然知らないだろうし
kinectハックしてる側は、これがアニメ制作作業をグンと楽にする可能性がある、なんて夢にも思わないだろうし、世界は相変わらず分断したまま、kinectハックブームはお遊びの域を出ずに終了するのだろうか
288:デフォルトの名無しさん
11/01/18 03:57:20
便所に落書きしてる分には構わないが、
間違ってもアニメーターにメールしたりはするなよ
289:デフォルトの名無しさん
11/01/18 05:09:54
代々木アニメーション学院に電話汁
290:デフォルトの名無しさん
11/01/18 09:12:15
もうちょっと簡単にできるようになればね。
最低でも
- モデルをロード
- モーションを取り込み
- モデル+モーションにしてセーブ
- ネットにアップロード
- ブラウザーで見る
がフリーで一括してできるようにならないと難しい。
2,3年でできるようになると思うけど、、、、
メタセコイアがボーン入れられない時点でもう終わってる。
あのへんから全部作り替えないと無理だね。
291:デフォルトの名無しさん
11/01/18 09:18:58
MMDでいいじゃん
292:デフォルトの名無しさん
11/01/18 11:48:28
お前がMMDで満足しているならそうなんだろ。お前はな。
293:デフォルトの名無しさん
11/01/18 14:05:06
>>287
演技はだれがやるんよ、そういう人たちを雇うのだって金がかかるんだよ。
大きな演技してもらうには場所もひるようだしな。
294:デフォルトの名無しさん
11/01/18 15:08:28
データ荒くてこんなん使えんよ
今はあくまでリアルタイムで優秀な技術であって
それ以上には全く使えない代物
3Dモーション付けてる人も「手付の方がいいや」って100%言う
今後に期待はしてるが、今はその時ではない
295:デフォルトの名無しさん
11/01/18 15:39:18
>>294
データが荒いのは補完方法でいかようにでもなるとおもうがな。
296:デフォルトの名無しさん
11/01/18 16:00:24
なんとでもなると口で言うのは簡単だが
297:デフォルトの名無しさん
11/01/18 16:10:06
>>296
そもそも計測した時点でどんなデータでも離散した不連続な情報になってるだろ。
それが今までどのように加工されてきたかを考えればそういう返事はできないよねえ。
現状はハックしたドライバがそういうことやってくれてないから自前でやるだけだよ。
あれ、もしかして補完するためのアルゴリズムとかしらないの??
298:デフォルトの名無しさん
11/01/18 16:11:16
そういうことは実際にやってみせてから言わないとかっこわるいだけだよ
299:デフォルトの名無しさん
11/01/18 16:24:26
>>298
なに?コード書いてもらいたいわけ??
金くれたらやってやるけど払える?
300:デフォルトの名無しさん
11/01/18 16:31:18
>>298
おまえはひとまず線形補完からはじめろよw
滑らかなのが欲しければベジェでつなぎあわせとけ。
301:デフォルトの名無しさん
11/01/18 16:34:32
なんだ、できもしないのに言ってるんだ
302:デフォルトの名無しさん
11/01/18 16:35:30
>>299
もっと具体的なことを書かないとお金が払えるかどうかは決められないでしょう
そんなわけで質問だけど、本当に補間だけなはずはないよね?
おそらく予測補間のことを言ってるのだろうけど、信頼度と速度とか抵抗とかから適当に予測して
補間するくらいのことは誰でも思いつくわけだけど
そもそもキャプチャー側の精度の問題でそれだけじゃデータが荒いことには代わりがなよね
俺みたいな素人にはそれ以上の補間って思いつかないんだが、なんかそれ以上の補間
が実際に応用されてる現場ってあるの?
303:デフォルトの名無しさん
11/01/18 16:57:40
>>301
鏡見て独り言かw
>>302
まずはどの精度か定義しねえと話にならねえんだけど。
キャプチャ間隔のFPSのレートが低いのは曲線とか使った補完で十分だろ。
各制御点がフレーム間で大幅に飛ぶのは制御点用の
現在位置予測用のプログラムをかかねばなるまい。
数フレーム前までの位置の平均を積み重ねていって比較し、
差分をベクトルにして現在位置はこの辺でしょうっていうやつな。
閾値を利用したノイズフィルターも入れとけばそれなりなあたいになるだろ。
速度でるならリアルタイムでも使えるだろうし、
非リアルタイムならもっと凝ったこともできるでしょ。
骨格ベースで各間接位置の現在位置予測とかな。
あと、これをアニメーターに使わせたいとか、業務用のキャプチャに
使用しろよとかいう立ち居地じゃねえからな。
>>294のデータが荒くてはなしにならねってところで思考停止してるから突っ込んだだけだ。
304:デフォルトの名無しさん
11/01/18 17:15:16
あーあー、やっぱり脳内で「こんなもんでできるだろ」程度にしか考えてなかったんだな
ノイズフィルタ「でも」って表現からもバレバレ。
305:デフォルトの名無しさん
11/01/18 17:20:45
>>304はいはい天才チンパンジー愛ちゃんはおりこうですねw
内容のない書き込みしても自分の無能さをさらけ出してるだけだね。
306:デフォルトの名無しさん
11/01/18 17:22:58
まあこういうものはオープンソースで1つしっかりしたものが公開されないと難しいだろうね
307:デフォルトの名無しさん
11/01/18 17:33:24
>>303みたいなのも、もっともらしいことを書いてて実は内容のない書き込み。
308:デフォルトの名無しさん
11/01/18 17:53:09
>>307
おまえを見てたらなんだか保護してやらなければならない義務感をかんじてきたよ。
309:デフォルトの名無しさん
11/01/18 18:06:30
技術力も努力もしない他力本願な奴とそれに反応しちゃう奴、
醜い罵り合いのクソみたいなレスは他所でやってくれ。
310:デフォルトの名無しさん
11/01/18 18:14:32
おまえもスルーできないならよそへ行けば?
311:デフォルトの名無しさん
11/01/18 18:34:34
2chっていつもこうだよな。
面白い話題が提起されてもカスが大量にやってきてすぐに潰してしまう。
そして何も進まない。
312:デフォルトの名無しさん
11/01/19 00:28:54
実際リアルタイム補完が出来たとして
それ自体フィードバック掛かって
補間したデータに合わせて手元のマニピュレータが動いて
人間の体が勝手に動くと面白いかもな
313:デフォルトの名無しさん
11/01/19 00:42:37
>>312
それならマニピレーターから実際の角度などをとりだしたほうがよくないかな?
フィードバックを外部機器でおこなうなら。
314:デフォルトの名無しさん
11/01/19 01:53:24
踊れない人を踊らせるのか
315:デフォルトの名無しさん
11/01/19 12:17:54
おっぱいまだですか?
316:デフォルトの名無しさん
11/01/19 16:42:01
ノートPC(と電源)があれば、どっか広い場所でキャプチャーできるな。
体育館とか・・・ハードル高いか
317:デフォルトの名無しさん
11/01/20 01:17:58
素人が3DアクションぽいRPGとか作るのに良さげ
318:デフォルトの名無しさん
11/01/20 17:40:51
>>316
キャプチャ対象は人だけと思うな!
車に積めば車間距離を警告できるかも
319:デフォルトの名無しさん
11/01/20 17:44:10
急な飛び出しに反応してブレーキ踏んでくれると嬉しい
320:デフォルトの名無しさん
11/01/20 17:54:29
それはもうあるのでは
321:デフォルトの名無しさん
11/01/20 20:22:59
兎に角もっとバカでも出来る開発環境を備えてないと、
クソゲーメーカーはクソゲー作り放題だろ。
322:デフォルトの名無しさん
11/01/21 00:41:45
筋肉に電極埋め込んで俺がキョドるのを補正して欲しい
323:デフォルトの名無しさん
11/01/21 03:54:04
悪いけど、キネクトでキャプチャーしたデータ直すくらいなら一から手付けでアニメーション付けたほうが圧倒的に早いし綺麗
モーキャプデータの修正やった事ある奴ならそれがどんだけ大変かすぐ分かる
上でCGでアニメーション付けるのが楽になるっつってるけど、現場からしたらキネクトはお遊びレベル
遊びでやるなら使えると思う
324:デフォルトの名無しさん
11/01/21 03:56:44
とりあえずサンプル動いたけど、その後どう遊んでいいのか行き詰まったので、
とりあえずmmdで遊んでみた。予想以上に楽しかった。女装癖が芽生えそうだ。
しかし3D画像処理とかロボ系の知識がないとちょっと厳しいかもねこれは。
俺の場合mmdのほうも使ったことないし、OpenGLとblenderで多少遊んだ経験
ぐらいしか無いんで、ちょっと途方に暮れてる。
kinectハックはドキュメントが豊富って言ってるの見たことあるけど、
OpenNIとかrosとかの英語の資料を地道に読んでいけばいろいろ分かってくるんだろうか?
325:デフォルトの名無しさん
11/01/21 04:01:54
キネクトとは別のところで認識関連の画像処理の文書を読んだことがあるけど
おそらく、相当専門的な知識がないと苦労する。
今の段階では、与えられたキャプチャー機能で何をするか、と言う方向で考えたほうがいいと思う。
(キャプチャー機能をどうこうするか、ではなく)
それこそ某スペシウム光線なり、エロ方向なりに。
326:デフォルトの名無しさん
11/01/21 16:10:59
XNAで遊んでるけど与えられたキャプチャー機能だけでもけっこう面白いよ
327:デフォルトの名無しさん
11/01/21 16:13:54
XnModuleCppRegistratration.h
328:デフォルトの名無しさん
11/01/23 19:10:00
xnGetSkeletonCalibrationPose()が返す文字列の長さってわからないから
へたするとメモリ破壊起こしますね
329:デフォルトの名無しさん
11/01/24 16:47:46
/** The maximum length of names of objects in OpenNI **/
#define XN_MAX_NAME_LENGTH 80
330:デフォルトの名無しさん
11/01/25 03:00:24
>>323
まあ、現状はそうでしょ。取れるボーンの数も少ないし。
ただある程度環境が整備されてきたとき、このテのアプローチで
廉価にそこそこのクオリティを出せるグループが出てくるかもしれない。
大量生産に向いてるかもしれない。
たとえば、ニコ動で上がってる歌1つ分のダンスとか、完全手付けだったら
クオリティにかかわらず相当の費用になるところだけど、(ノウハウが集積すれば)かなり短時間でできそう。
あとはkinectで撮った3Dボクセルと重ねて見ながらモーション手付けもしくは修正するというのも
1つの利用方法かも。
331:デフォルトの名無しさん
11/01/25 16:40:46
直接反映しちゃうんじゃなくてあくまでジェスチャーコマンド(俺用語)的な使い方のがいいな
332:デフォルトの名無しさん
11/01/25 17:00:34
要するに安価に入手できるリアルタイムモーションキャプチャユニットという事なのかな?
良い時代になったものだ・・・
333:デフォルトの名無しさん
11/01/26 20:28:22
>>330
確かにボーン数がまだ少ないから商業的に使い物にならないんだよな、、
でも指先や顔の表情まで読み取れるようになるらしいから半年~1年後は
面白い事になってそう。(モーション以外にもいろいろ使い道は増えそうだし、、)
「果報は寝て待て!」だね。
334:デフォルトの名無しさん
11/01/26 22:40:04
果報は寝て待て!という反面すごいのが出てくるとヤラれた!って気にもなるんだよな
335:デフォルトの名無しさん
11/01/27 09:22:27
高スペックにこだわり過ぎるのも考え物だぞ
妥協できるすれすれで実用性を追求するのも努力だ
任天堂とかアップルに見習うべきよな
336:デフォルトの名無しさん
11/01/27 10:05:45
>>335
ここは技術板なのでマーケッティングの話は巣でやって下さい。
337:デフォルトの名無しさん
11/01/27 11:18:41
表情の認識はXbox360で可能にするという話は出てるけど、OpenNIでサポートするか
どうかは不確かだと思う。
表情の認識自体は深度情報使わず画像認識だけでできる話だし。
338:デフォルトの名無しさん
11/01/27 17:11:43
Sample-SingleControlのプロジェクトファイルをデバッグ無しで実行すると
"Session Manager couldn't initialize: No hand generator found. One is needed forsession manager."
って表示されて起動できないんだが・・・
Samples/Bin/Release内にあるSample-SingleControl.exeを起動すれば普通に扱えはするけども、解せぬ
同様の症状になった人いる?
339:デフォルトの名無しさん
11/01/27 19:09:59
338を書いた者だ。
OpenNIやNITEのインストール諸々を一からやり直したら正常に動作するようになった。
スレ汚しちまってすまねぇ
340:デフォルトの名無しさん
11/01/27 21:14:49
まあセットアップ大変だね。
ソフトを作って公開したとき大変だね。
341:デフォルトの名無しさん
11/01/28 12:19:12
>>335
俺達にとって「遊べるオモチャ」かが最重要であって
そんな事、関係者じゃない限り意味ないんじゃないの?
ってかキネクト自体もMSにしては「商品」としては随分ブラッシュアップしてあると思うけど、、」
342:デフォルトの名無しさん
11/01/28 14:46:15
Kinectはコスト削減やレスポンス向上のためにけっこう土壇場で
認識処理専用のチップ載せなかったり解像度落したりしてるしねえ
343:デフォルトの名無しさん
11/01/28 16:36:33
現代版「大人のおもちゃ」
344:デフォルトの名無しさん
11/01/29 19:05:02
センサの上下角度調整ってOpenNIで内蔵モーターつかってできる?
変になってる時つい手でガキッって直しちゃったけど壊れそうで怖い。
345:デフォルトの名無しさん
11/01/30 09:49:24
ヘッダー調べたら、踵とか指先とか、もっと細かいボーンが定義されてるけど
今のバージョンだと取得出来ない。
今後取得出来るようになったり、精度は上がるのかな?
346:デフォルトの名無しさん
11/01/30 10:17:15
なるかもしれないしならないかもしれない
347:デフォルトの名無しさん
11/01/30 11:23:40
足先指先は、赤外線ばらまく密度を上げないと難しいんでないかな
中遠距離だとフルHDくらいの分解能がないと失探すると思う
348:デフォルトの名無しさん
11/02/01 10:30:45
Kinectの上位機種が出るまで待てってことだな
349:デフォルトの名無しさん
11/02/01 11:04:36
上位機種でてもそれに対応したNITEが公開され無いと意味がないと
350:デフォルトの名無しさん
11/02/01 11:37:31
座布団を床ごと奪われて墜死するがよい
351:デフォルトの名無しさん
11/02/01 23:47:08
深度とかボーンとかとれるのは感動したけど実際にこれでなに作るかって言われると難しいもんだな・・・
352:デフォルトの名無しさん
11/02/02 03:19:18
モーションキャプチャなんて業務用というかクリエイター側の技術だしな
一般人、消費者側には使い途がない
353:デフォルトの名無しさん
11/02/02 09:30:45
でも創造性といった限りない自由度を与えられることで
飽きのこないゲームとして広く受け入れられる場合もあるよねMinecraftとか
354:デフォルトの名無しさん
11/02/02 19:32:26
まー良くも悪くもコントローラ程度の精度ってことだな
355:デフォルトの名無しさん
11/02/02 23:11:22
精度云々よりもキネクトで使える技術は大体まとまったからあとはアイデア勝負かな
356:デフォルトの名無しさん
11/02/04 12:15:41
Kinectでかめはめ波!改 コード公開版
URLリンク(www.nicovideo.jp)
357:デフォルトの名無しさん
11/02/06 23:01:35
URLリンク(www.youtube.com)
358:デフォルトの名無しさん
11/02/07 02:17:37
初めて見たときちょっと感動したけど
慣れるともうどうでもいいって感じになるな
おなかいっぱい
359:デフォルトの名無しさん
11/02/10 06:12:57
3Dキャラにキネクトモーションを入れ込んでリアルタイムで動かしてみたけど、
ゲーム史上未体験の感覚だわ。
これは夢広がりんぐ。
ただ、細かいボーンの動きが取れなかったり、遅延があったりするけど、
これは今後改善されそうだな。ソニーなりMSが出すであろう
次世代Kinectで。
360:デフォルトの名無しさん
11/02/11 01:51:32
リアルタイムじゃなくてもいいなら、奥行き画像を連番bmpで
保存してき、あとからその画像を詳しく解析することで
より精度の高い位置情報を求められるんじゃなかろうか?
361:デフォルトの名無しさん
11/02/11 04:01:00
深度カメラの制度の問題だから、ほとんど可能性はないだろう。
合成開口レーダーのように、対象が静止している状態で、
キネクト側を適切に動かして画像を得られるなら話は別だろうが、
運用は現実問題として実用的とは言えないだろうし、
それくらいなら、複数のキネクトを並べて情報を得たほうが実用的だろう。
362:デフォルトの名無しさん
11/02/11 07:49:30
>>361
精度の問題は少なからずあるだろうけど、今取れているすべての情報が
十分利用されているとは思わないな。
アルゴリズムの改良とGPGPUの利用とかで、解析部分の精度はまだ上げられるはず。
363:デフォルトの名無しさん
11/02/11 09:52:05
初期のアルゴリズムではすぐに追従出来なくなってキャリブレーション姿勢を
何度もとり直させられてたらしいが、その後大学機関の協力を経てサポートベ
クターマシン(SVM)を用いた認識アルゴリズムの改良に成功したという経緯だ
けを見てもまだ余力はあるだろうよ。
ただ、あらゆる姿勢に対応できるようにSVMの学習データを膨大にすると精度
を犠牲にしなければならなくなる二律背反であることから、姿勢推定範囲を限
定して精度の高い学習済みデータを切替えて使用するといったやり方が現実的
だろうな。
だが一番の問題はNITE代替の学習データ構築コストが半端無いことだろうな
Amazon EC2+Hadoop+Blenderで人体3Dモデル関節制約から深度情報生成...
ちょっと個人じゃ手が出せない規模だ。
364:デフォルトの名無しさん
11/02/11 14:13:46
複数台使ったりしなきゃならないくらい精度悪い?
動画みてると結構精度よさそうなんだけど
365:デフォルトの名無しさん
11/02/11 14:18:36
どの動画ですか?
366:デフォルトの名無しさん
11/02/11 16:29:50
>>362
GPGPUをお前はなんだと思ってるんだ。
367:デフォルトの名無しさん
11/02/11 16:52:44
漏れの見た動画は全て精度悪そうに見えた
368:デフォルトの名無しさん
11/02/11 19:06:22
>>366
General Purpose GPUだけど。要はCUDAとかを使う。
この手の姿勢推定とかの演算はだいたい並列化可能だろうし、
計算量を増やすことで精度を上げられる場合が多い。
とはいえアルゴリズムの修正のほうが重要だろうとは思う。
369:デフォルトの名無しさん
11/02/11 21:55:28
Kinectでキャプチャした数値をそのまま鵜のみにして使うのではなく
Havok BehaviorやEuphoria Motionなんかとミキシングして使うのも手かもな
370:デフォルトの名無しさん
11/02/12 11:52:10
>>368
依存関係多い計算だしそんな簡単じゃねーよw
お前GPUプログラミングはおろか並列プログラミングすらしたことねえだろ。
371:デフォルトの名無しさん
11/02/12 13:32:19
>>370
一言多い人だねー。
現状GPUプログラミングでネックになるのは主にビデオメモリへの転送だけど、
kinectレベルの画像サイズならどうということはない。
一旦デバイス側のメモリに上げてしまえば計算力は圧倒的に高い。
依存関係多いといっても段階ごとに分ければだいたい同じ処理のループが出てくる。
多少の工夫でなんとかなる。
とはいえ、姿勢推定のプログラミングはしたことない。
あんた詳しいようだから是非解説してくれ。
372:デフォルトの名無しさん
11/02/12 14:23:38
>>371
段階的に分けたとして、そのソフトパイプライン処理を、GPGPUできるの?
それとも、ある段階だけを並列化するにとどまる?
373:デフォルトの名無しさん
11/02/12 16:46:12
>>372
段階ごとに並列化した上で、それらを順次実行することで、全部を並列化できればベスト。
並列化の手法は段階ごとに変えられる。
GPU(CUDA想定)は基本的に、同じカーネル(Cでいうと関数(語弊あるけど))を全プロセッサで同時に実行する場合に高い
性能が出るから、小さい処理に分断した上で、それぞれの一瞬に関しては全体で同じ仕事をさせるほうが良い。
CPUのパイプラインみたいに同時に別の段階の処理をさせるとパフォーマンス出ないはず。
とはいえ、最近は同時に複数のカーネルをスケジューリングしたりとか、いろいろ進化してる気はする。
374:デフォルトの名無しさん
11/02/12 18:15:32
細切れにしてCPUとのインタラクションが増えればレイテンシが問題となる。
IOバスの先にあるGPUに細切れで仕事をやらせるのを、レイテンシの問題抜きで
語ることはできない。
375:デフォルトの名無しさん
11/02/12 20:27:20
だからGPUなんかはなから選択肢に無くて
ニューラルネットワークの応用であるSVMを使ってるんだよ
頭かたいなおまえら
376:デフォルトの名無しさん
11/02/16 04:28:51
大学生が作ったアクションゲームらしい
けっこうがんばってる
URLリンク(www.nicovideo.jp)
377:デフォルトの名無しさん
11/02/16 04:34:32
保守
378:デフォルトの名無しさん
11/02/18 09:16:35
ああ、スキンモデルを同期させて動かすプログラムやっとできた。
次は物理エンジンを組みあせてみるか。
379:デフォルトの名無しさん
11/02/18 09:18:19
ここはいつから日記スレになったん?
380:デフォルトの名無しさん
11/02/21 19:44:08.03
最初から
381:デフォルトの名無しさん
11/02/21 22:30:22.63
考えてみたら、立体をキャプチャーできるわけだよな。
ろくろみたいに回るなり、複数のキネクト使うなりすれば・・・
382:デフォルトの名無しさん
11/02/21 23:10:00.73
精度をあげるために複数キネクトはアリだと思うが誰かやってくれないだろうか
383:デフォルトの名無しさん
11/02/21 23:13:31.88
複数kinectは赤外線が干渉するだよ
384:デフォルトの名無しさん
11/02/21 23:25:02.95
2台
URLリンク(www.youtube.com)
385:デフォルトの名無しさん
11/02/22 15:37:21.05
MS公式ライブラリ予告だけかよ
386:デフォルトの名無しさん
11/02/22 15:44:46.53
DirectX SDKとの統合作業中なんじゃないの
あっちはあっちで去年の6月から更新されてないし
387:デフォルトの名無しさん
11/02/22 16:06:41.65
そこでDirectXが出てくる意味がわかんねえ
388:デフォルトの名無しさん
11/02/22 16:45:45.08
OpenNIがあるんだから、意味無いと思うんだけど。
それ以上の事が出来るようになるのかな?
顔認識とか、もっと精度の良いモーションキャプチャーとか
389:デフォルトの名無しさん
11/02/22 16:52:41.44
OpenNIはフレームワークだからMSのライブラリにもラッパーをかませてNITEと
切り替えて使えるようにすればアプリ作り直しにはならないだろうけど
MSはOpenNIなんて無視するだろうに1万ペソ
390:デフォルトの名無しさん
11/02/22 17:04:38.86
>>388
Xbox360のデモ見てる限りではOpenNIとは比べものにならない精度っぽい。
391:デフォルトの名無しさん
11/02/22 17:06:49.64
ドライバとランタイムが同梱されたインストーラが再配布可能で
インストールすればCOM経由で骨格情報まで取得できる、ってところまでやれば
別にOpenNIのミドルウェアとして提供しなくても評価する
商用/非商用SDKを分けているあたりケチくさいことやってきそうだよなあ
OpenNI+NITEをライバルとして認識してればいいんだが
392:デフォルトの名無しさん
11/02/22 17:08:19.03
まぁ例え一度財産が失われようと、
新しく出来る基盤の上に更なる成功が積み重なるなら惜しくはないな
393:デフォルトの名無しさん
11/02/23 00:48:35.68
MicrosoftのSDKは商用ならいろいろ面倒くさそうだな。所詮はモロに金儲けか。
OpenNIよりよほどのアドバンテージが無ければスルーだな
394:デフォルトの名無しさん
11/02/23 00:49:16.89
>>390
ソースきぼん
395:デフォルトの名無しさん
11/02/23 01:28:23.21
いくら360上で精度高いところ見せられても、PC上で検証しなきゃ比較できんだろう。
キャリブレーションポーズ取らなくてもよかったりするからちょっと期待しちゃうけど。
Kinectのスケルトンって内蔵チップじゃなくて360のCPU/GPUで計算してるんだっけ?
ここまで勿体ぶっておいて、いざPCで動かしてみたらNITEより性能劣ってたら良い笑い物だなw
396:デフォルトの名無しさん
11/02/23 06:01:56.99
商用で金儲けしようとする奴が金儲けをディスるというのは滑稽というか自己矛盾もいいとこだが、
商用に制限を課したのはKinectをエロゲに使わせたくないからでは?
以前MSがエロに否定的な発言してただろ。
金払えば商用可というような単純なものではなく、多分アプリを個別に審査して許可不許可を決めるんじゃないかな。
397:デフォルトの名無しさん
11/02/23 09:51:48.51
まったくねえ。
ハックする気がある人なら道具が増えたと喜ぶところなのに、どうせ作られたものを
落としてきて動かすだけのお猿さんか、動画評論家なだけってのがバレバレですね。
398:デフォルトの名無しさん
11/02/23 11:07:23.64
エロゲメーカー内製で非公式MOD出せばいいだけの話
大丈夫だ、問題ない。
399:デフォルトの名無しさん
11/03/06 17:45:27.23
本をパラパラめくるだけでスキャンできる機械が東京大学で開発されていますが、キネクトを使えば個人でも利用できるような気がします。どうでしょうか。
URLリンク(www.youtube.com)
400:デフォルトの名無しさん
11/03/06 18:05:27.44
無理です。
401:デフォルトの名無しさん
11/03/06 18:13:21.62
解像度がなぁ
402:デフォルトの名無しさん
11/03/06 20:02:25.10
高速度の高解像カメラはまだまだ高価だよ
403:デフォルトの名無しさん
11/03/09 02:55:59.42
楽しそう
404:デフォルトの名無しさん
11/03/10 13:45:03.18
キネクトの解像度やフレームレートっていくつなんだ?
公式やwiki見ても載って無いんだが
ググっても変なのしか出て来ないし
405:デフォルトの名無しさん
11/03/12 01:44:21.82
>>404
基本640x480 30fpsだと思うが。まあデプス画像は実質ではそこまで精度ないと思う。
406:デフォルトの名無しさん
11/03/13 18:52:58.07
デブス画像とかモザイクかけてくれていいよ
407:デフォルトの名無しさん
11/03/14 11:25:12.25
デプス画像なんて普通にモザイクレベルだろ
個人が判別出来るほどの精度ねーよ
408:デフォルトの名無しさん
11/03/27 23:25:55.58
あの~こちらデブスとデプスを引っ掛けておりまして…
いえっはいっ何でもございません滅相もございません
409:406
11/03/28 08:58:39.86
ツッコミオセーヨ
だがこれでようやくこのスレを閉じれる
ありがとうさようなら
410:デフォルトの名無しさん
11/03/28 10:55:52.54
自演臭い
411:デフォルトの名無しさん
11/04/17 03:14:59.00
動画:MS が Kinect for Windows SDKをデモ、ベータ版は今春公開
URLリンク(japanese.engadget.com)
4Gamer.net ― “Kinect風”な開発者向けモーションキャプチャデバイスがASUSから登場
URLリンク(www.4gamer.net)
412:デフォルトの名無しさん
11/04/17 03:35:19.98
キネクトより精度が上だったりするのだろうか。これ。
あとは認識範囲が広いとか。
413:デフォルトの名無しさん
11/04/17 06:06:25.64
キネクト風っていうか、OpenNI 公式のデバイスだよね。
414:デフォルトの名無しさん
11/04/17 08:43:53.74
深度センサーだけでKinect単品より値段も高いとか、宗教上の理由で買えない人専用だな
415:デフォルトの名無しさん
11/04/17 09:23:33.12
スケールメリットの差があるから仕方が無い
それと、エロゲ用途ならXtionを使うしかない
以前のアナウンスからすると、MSは恐らくKinectを商業エロには使わせない
416:デフォルトの名無しさん
11/04/17 09:44:00.27
>>43
いつのまにか実装されてるな
417:デフォルトの名無しさん
11/04/17 09:46:13.74
>>415
深度センサーだけでなくRGBカメラとかも搭載したKinect上位互換機なら良かったんだけどねえ
418:デフォルトの名無しさん
11/04/17 10:54:49.26
>>415
それはエロい人がどうにかしてくれるだろきっと
419:デフォルトの名無しさん
11/04/17 14:10:45.40
深度センサーだけ?
kinectでも赤外線じゃ細かい部分が精度不足でとれないのに。
指の動きがわかるくらいの精度になるのかな。
420:デフォルトの名無しさん
11/04/17 19:45:05.18
64bit windows7で開発環境整えてるんだけど、OpenNIサンプルがどれもうまく動かない。
組み合わせ1
OpenNI-Win64-1.1.0.39-Dev.msi
avin2-SensorKinect-8f199ca.zip - SensorKinect-Win-OpenSource32-5.0.1.msi
NITE-Win64-1.3.1.3-Dev.msi
組み合わせ2
OpenNI-Win32-1.1.0.39-Dev.msi
avin2-SensorKinect-8f199ca.zip - SensorKinect-Win-OpenSource32-5.0.1.msi
nite-win32-1.3.1.3-dev.msi
組み合わせ1だとOpenNIのインストールはうまくいくんだけど、
SensorKinectのインストールでOoenNIのバージョン1.1.0.39以上にしてくれって警告でて
インストールができない。もちろんバージョンは1.1.0.39なんだけど
組み合わせ2だとすべてうまくいくんだけど、
サンプル実行するとどれもフリーズする。
深度センサは赤くなってるから動いてるみたいだけど。
すべてのインストール先をProgram Files (x86)→Program Filesに変更しろって
いろいろなサイトに書いてあったんだけど、インストール先指定でProgram Filesを
指定してるのに、すべてインストールはProgram Files (x86)のほうにされる。
Program Files (x86)もだめ、手動でフォルダ移動+XML書き換えでもフリーズでした。
うまくいった人、どのインストーラーで成功した方情報ください。
421:デフォルトの名無しさん
11/04/18 02:48:21.39
俺も>>420と同じで、久々にOpenNI更新したら動かなくなってた。
まだ手をつけてないけどパスの指定がダメで dll か lib が読み込めてないと思っている。
あとサンプルのバイナリは動かないよw
初期設定ファイルの相対パスが違うから。以前のバージョンだと。
422:デフォルトの名無しさん
11/04/18 03:17:28.11
Kinect for Windows SDK - Microsoft Research
URLリンク(research.microsoft.com)
423:デフォルトの名無しさん
11/04/18 03:49:13.73
>>421
組み合わせ2でNiSimpleViewer.exe実行すると
ザラザラだけど一瞬だけカメラからの画像が移るんだよ。
64bitの互換性云々でこうなってるのかなって思ったんだけど、
まだどこか設定ミスがあるのか・・・。さっぱりわからないけど。
正直Kinect for Windows SDKの記事を見て
「あ、kinect買ったんだった」って思い出して今に至ってるから、
待てばいいんだけどね。GW前までに出てくれればいいなと願っている。
424:デフォルトの名無しさん
11/04/18 08:02:25.68
>>422
コネー
425:デフォルトの名無しさん
11/04/18 08:26:01.93
.>>423
俺はMSのSDKを見てからOpenNIとどっち使うか決めるよ。
OpenNIのが良いかもわからんからね。
426:デフォルトの名無しさん
11/04/18 10:58:41.05
>>423
> 正直Kinect for Windows SDKの記事を見て
> 「あ、kinect買ったんだった」って思い出して今に至ってるから、
俺も俺もw
427:デフォルトの名無しさん
11/04/18 20:00:48.98
MSDNの機械翻訳は読みづらいからなぁ・・・
OpenCVみたいなサイトをOpenNIも作ってくれれば、そっちのほうが良いかもしれん
428:デフォルトの名無しさん
11/04/20 02:51:04.69
Official Kinect SDK to be Open Source
URLリンク(nui.joshland.org)
広報は否定してるけど面白そうな話だなあ
429:デフォルトの名無しさん
11/04/21 20:45:37.33
ジェスチャーの学習って出来るの?
430:デフォルトの名無しさん
11/04/24 01:23:37.34
>>420
解決してたらごめん。
俺もそろそろSDK出るだろうと思って21日に買った。
環境はWin7 Ul x64
最初はうまくいかなかったんだけど色々いじってたらいった。
使用ファイル(24日01時最新?)
OpenNI-Win32-1.1.0.41-Dev.msi
avin2-SensorKinect-8f199ca.zip
NITE-Win32-1.3.1.3-Dev.msi
OpenNIはUnstable。
全部32bitね。
普通にx86パスにインストールしたし、インストール時に特に変更した箇所はない。
SensorKinectのDriverはdpinst-amd64.exeを実行。
とりあえずいじったとこは、
環境変数 → パスが「Bin」のはずなのに「bin」になってるので修正。多分再起動しないと認識しないかと。
OpenNI\Data\modules.xml → おかしなパスがあるので修正(もしかしたら俺がx64verとか過去verをなんどもインストールして試してたからかも)
OpenNI\Data\licenses.xml → これもなんか2個記述があった。本来入力したほうのみ残して余分なほうは消した。(多分何度かインストールしたせいかと・・・)
一度インストールしたのならアンインストールしてやり直したほうがいいかも。
ファイル残ってる場合もあるし俺みたいに上書きされるかもしれん。
後、これやる前に前回インストールした時のドライバで認識されてるからデバイスマネージャからKinectのカメラ、モータ、オーディオを消して再起動した。
431:デフォルトの名無しさん
11/04/27 07:30:00.50
VB初心者の学部生なんですけど、
VBとkinectを一年以内に接続して、サーボモータを動かすという課題が出ました。
OpenNIを使ってらっしゃる方をよく見かけるのですが、
これってC言語のプログラムですよね?
SDKは夏前に出るとかいうニュースがありましたし
ある程度の成果を一定期間毎にあげなくてはならないのでSDKを待てません。
そこで質問です。
OpenNIが行っている処理の情報をVBを使って管理することはできますか?
もし出来るならやり方を教えてください。
長々とすみません。
432:デフォルトの名無しさん
11/04/27 09:35:08.20
>>431
なんでVBなんて使う?
課題を出したやつに聞いてこい。いや煽りじゃなくマジで
433:デフォルトの名無しさん
11/04/27 11:12:12.47
VB.NETならつかえるっしょ。
434:デフォルトの名無しさん
11/04/27 15:10:10.37
>>431
C は初心者じゃ無いと言うなら、VB のマニュアルで declare を調べる。
435:デフォルトの名無しさん
11/04/27 15:24:46.26
>>432
C以外の言語にも触れていろいろできるようになってほしいらしいです。
>>434
なるほど、これならできそうですね。
答えてくださってありがとうございます。
ここから先でわからないところがでたらVB板で聞いてみます。
436:デフォルトの名無しさん
11/04/27 16:10:39.69
>>430
情報どうも。
ちなみにどのサイト参考に環境整えた?
437:デフォルトの名無しさん
11/04/30 10:58:54.30
デプスとイメージジェネレータは使えるようになったけど、ユーザージェネレータの作成でコケる。
これってNITEのセットアップに失敗してるって事だよね。
以前はいけたんだけど、なんでこんなにハードル高いんだよ。もう心が折れそうだ
438:デフォルトの名無しさん
11/05/01 02:09:56.73
OpenNIのjavaラッパーってありますかね?
JNAあたりで読み込めると楽なのですが
439:デフォルトの名無しさん
11/05/02 18:09:50.80
ジェスチャってこれ、予め用意されたジェスチャしか使えないのん?
440:デフォルトの名無しさん
11/05/03 13:21:27.43
>>437
設定ファイル(.xml)でユーザージェネレーターを有効にして無いとか?
それかそもそもNITE入れてないとか。
441:デフォルトの名無しさん
11/05/03 14:19:42.90
ボーン認識の特徴点に何使ってるかとかって判明してるんだっけ?
442:デフォルトの名無しさん
11/05/08 23:42:30.90
Visualstudio2008
XNA Game studio3.0
WindowsXP
骨格情報取得のプログラムを作成したら
using xn;
ところで、エラーがでるんですが原因わかりませんか?
エラー文です。
エラー CS0246:
型または名前空間名 'xn' が見つかりませんでした。
using ディレクティブまたはアセンブリ参照が不足しています。
443:デフォルトの名無しさん
11/05/08 23:46:37.90
参考にしたURLです
URLリンク(www.kosaka-lab.com)
tips/2011/04/kinect-xna.php
444:デフォルトの名無しさん
11/05/08 23:51:53.25
>>442
>>443
週に数レスしかないスレで聞くの?
質問スレの方がいいよ
445:デフォルトの名無しさん
11/05/08 23:55:42.44
Kinectの質問スレあるの?
446:デフォルトの名無しさん
11/05/09 00:12:43.11
総合スレのことですか?
447:デフォルトの名無しさん
11/05/20 21:27:28.25
Kinectハアアァックッ!!!!!!!!!!!
448:デフォルトの名無しさん
11/05/26 03:26:17.62
どなたかKINECTセンサープログラミングの書評をおながいしまふ
449:デフォルトの名無しさん
11/05/26 03:47:49.63
>>448
おまえみたいなヴァカには無用の長物だよ
450:デフォルトの名無しさん
11/06/10 16:19:53.47
SDKコネー
451:デフォルトの名無しさん
11/06/10 20:08:31.61
気づかないうちに出てるんじゃないかと思ってときどきググってみるけど、まだ来てないよな
もう春は終わってる気がする
452:デフォルトの名無しさん
11/06/10 20:31:46.26
kinectSDK出すとXBOXのキネクト用ソフトが売れなくなるからかな。
453:デフォルトの名無しさん
11/06/11 08:41:08.26
しょせんキネクトも一発屋か...
454:デフォルトの名無しさん
11/06/11 18:12:14.46
俺たちの春はこれからだぜ!
455:デフォルトの名無しさん
11/06/11 19:45:02.55
マイクロソフト先生の次回作にご期待ください!
456:デフォルトの名無しさん
11/06/12 02:20:35.14
キネクトは場所取りすぎるんだよ
メリケンの大きい家じゃないと厳しい
ヨーロッパや日本のような狭い家だと㍉
457:デフォルトの名無しさん
11/06/12 08:09:26.86
>>456
非純正だけど、狭い部屋でも出来るようにするレンズが出るって話だ
距離や大きさの測定が狂う気がする
458:デフォルトの名無しさん
11/06/13 08:26:15.77
放射能に反応しないかな
459:デフォルトの名無しさん
11/06/13 09:42:27.27
ガイガーつければいい。
でも、東京じゃ反応しまくってゲームにならないな。
460:デフォルトの名無しさん
11/06/13 16:33:13.42
バッファロー辺りから、深度センサー付きカメラって出てなかったっけ?
それでも良い気がする
461:デフォルトの名無しさん
11/06/13 21:49:58.61
ASUSのXtion Proね。深度センサー付きというより
深度センサーしか無いくせしてKinectより 5k くらい高いけどな
かなりコンパクトでUSBバス電源で動くから値段次第じゃ欲しいんだけどねえ
462:デフォルトの名無しさん
11/06/14 00:51:07.54
>>461
デベロッパ向けの価格じゃなかったっけ(SDK付属)
一般向けはKINECTよりは低い価格設定されるのでは、と思ってるのだが。。
作品(つぅのか)を応募してて最優秀賞金が2万ドル。
賞金安すぎない?円が高すぎるのか。。
463:デフォルトの名無しさん
11/06/14 09:31:59.37
URLリンク(download.microsoft.com)
URLリンク(www.unitycorp.co.jp)
Kinectの仕様は相変わらずどこにも載ってねぇなぁ
クラス1レーザーのKinectと違って、Xtion Proは2画面カメラによる深度測定か
VGAで30fps確保されてるし、こっちのほうが良くね?
464:デフォルトの名無しさん
11/06/14 09:38:14.69
KINECTのあの価格はXBOXのスケールメリットとゲイツマネーがあってこそだろ?
好事家にしか売れそうにないXtionが割高になるのは仕方が無いよ
465:デフォルトの名無しさん
11/06/14 09:41:17.56
Kinectの仕様は公式じゃないけど、これくらいか
URLリンク(takao.asaya.ma)
ASUSならQVGAにすれば60fpsになるな
Kinectの利点はカラーで処理出来るくらいか?(深度計測にサブピクセルが必要かは不明だが)
マイクは連動して位置感知してる訳じゃないから他で用意すりゃいいし、
カタログスペックならASUSのほうが使い道ありそう
466:デフォルトの名無しさん
11/06/14 09:51:32.85
60fps出たとして、画像認識の処理追いつくんかいな
467:デフォルトの名無しさん
11/06/15 03:27:25.44
NiAudioSampleってなあに
468:デフォルトの名無しさん
11/06/17 01:09:46.32
PSTの6/16 9:30にKinect technologyに関するアナウンスがあるらしいね。SDK公開かな?
URLリンク(channel9.msdn.com)
PSTの9:30ってあと30分後か
469:デフォルトの名無しさん
11/06/17 01:28:39.11
>>468
楽しみだ。
470:デフォルトの名無しさん
11/06/17 01:33:48.97
Watch the Kinect SDK Beta Launch Live
URLリンク(channel9.msdn.com)
471:デフォルトの名無しさん
11/06/17 01:35:01.31
kinect SDKbeta
URLリンク(research.microsoft.com)
472:デフォルトの名無しさん
11/06/17 01:42:21.67
XPな自分に死角は無かったorz
473:デフォルトの名無しさん
11/06/17 01:46:47.84
Windows 7専用・・・だと・・・
なんてこったい待望のSDK公開が来たというのにドライバがインストールできない
474:デフォルトの名無しさん
11/06/17 01:59:00.59
SDK来たのか春は終わってしまったが
475:デフォルトの名無しさん
11/06/17 02:00:55.22
F-07Cが発売されたらKINECT SDKを入れるんだ。。。
476:デフォルトの名無しさん
11/06/17 02:04:41.14
起動待ちがなくてコロンビアなしで即座にスケルトン…
OpenNIとはなんだったのか…
477:デフォルトの名無しさん
11/06/17 02:19:59.20
さっそくOpenNI削除してインストールしてみる!
478:デフォルトの名無しさん
11/06/17 04:35:04.46
Vistaユーザーはどこまでも虐げられねばならんのか…
479:デフォルトの名無しさん
11/06/17 05:14:39.53
VistaユーザはさっさとWindows 7へ移行しているものだと思ってた。
480:デフォルトの名無しさん
11/06/17 07:32:51.69
Ni削除してないけど動いた
サンプルゲームは動かない
コロンビアいらない
なんか動きがブルブルする
首、手首、足首認識してる
481:デフォルトの名無しさん
11/06/17 07:48:53.21
そりゃNiは消さなくても動くだろNIをなんだと思ってんだkinectの為のものじゃないぞ
ドライバ消さなくても動いたの?
482:デフォルトの名無しさん
11/06/17 09:49:30.65
スケルトントラッキングの関節データはどういう形式で取得できる?
OpenNIみたいにカメラ座標での(x,y,z)だけなのか、ローカル座標での回転で取得できるのか。
Windows7持ってないから動かせないけど、マニュアルだけでも読んでみよう
483:デフォルトの名無しさん
11/06/17 09:53:27.40
公式ドライバが出たのにハックと言えるのだろうか
484:デフォルトの名無しさん
11/06/17 10:16:35.80
openniもmmdもなしにモーションキャプチャだと…!?
485:デフォルトの名無しさん
11/06/17 10:27:33.77
Skeletal Tracking Fundametalsのビデオ見るとプログラムが起動した瞬間にトラッキング開始してるな。
当然キャリブレーションポーズなし。そんな事が可能なのか...
あとTransformSmoothingをかけるとプルプルしてない。
関節の回転がきちんと取れればOpenNIより凄そうだ。
Windows7を持ってなくて動かせないのが残念だ。
486:デフォルトの名無しさん
11/06/17 10:55:54.50
>>475
それ俺も考えたんだが、ホストUSB無いじゃねーか
最も、Kinect自身が外部電源必要だけどな・・・
487:デフォルトの名無しさん
11/06/17 11:36:50.16
>>485
> 当然キャリブレーションポーズなし。そんな事が可能なのか...
実際箱のkinect対応ゲームじゃ一瞬で人体認識するのが普通なわけだし
MS謹製SDKなら出来て当然だろう
488:デフォルトの名無しさん
11/06/17 13:43:55.63
OpenNIインストールでごちゃごちゃ苦労したのに、純正は1回で普通に認識した、ワロタ
わろた・・・・・・・・・・・・・
489:485
11/06/17 14:57:30.03
Windows7持ってないからSDKの中身を解凍してKinectSDK.chmを読んだだけだがびっくりするぐらいシンプルだな。
そしてスケレタル・トラッキングは2人まで(一応もう4人は認識だけはできるが重心位置だけで関節位置が取れない)。
トラッキングは20個の関節の位置(x,y,z)しか取得できず回転が取得できない。使えねー
OpenNIに比べるとシンプルで完成度は高そうだが、回転が取れないので画面に向かってカニ歩きしかできない...
(XBOX360のKinectゲームはみんなそうなのか?)
俺が欲しかったのとはちょっと違う。おもわずWindows7を買ってこようかと思ったがスルー決定。
490:デフォルトの名無しさん
11/06/17 15:10:37.78
>>489
kinect-ultraは三点の座標から計算で角度と回転計算してるよ
朝試した時は肩の上げ下げは認識してなかったな
椅子に座った状態は問題無く認識してたけど
背もたれに深くもたれたらブルブルしてた
491:デフォルトの名無しさん
11/06/17 19:29:34.82
>>486
つクレードル
492:デフォルトの名無しさん
11/06/17 19:46:00.71
サンプルは全部動いたけど、
サンプル終了しても赤外線センサが起動したままなんだが。
終了時にちゃんと開放してるんか?
493:デフォルトの名無しさん
11/06/18 00:28:48.82
USB接続できるキネクトのファームウェアアップデートってXBOXがないと出来ないって聞いたんですけど、
SDKで出来るようになってたりしますかね?
494:デフォルトの名無しさん
11/06/18 03:33:42.19
アップデートきてるの?
495:デフォルトの名無しさん
11/06/18 12:45:29.25
少なくとも一度は来てる
496:デフォルトの名無しさん
11/06/18 14:15:40.75
何が変わったの?
497:デフォルトの名無しさん
11/06/18 19:27:02.20
Vistaでも動いたよん
498:デフォルトの名無しさん
11/06/19 00:02:19.66
>>485
Windows7の開発環境だけなら手に入るよ
Windows7 無料でググれよ多分でてくる
499:デフォルトの名無しさん
11/06/19 13:04:45.24
さっそく、解説サイトが出てました
URLリンク(www.kosaka-lab.com)
カメラの上下を制御できるのは面白いな
500:デフォルトの名無しさん
11/06/19 13:21:14.89
誰かMMD以上のモーションキャプチャツール作ってくれ。
インターフェースとモーション対応フォーマットを改善してくれ。
501:デフォルトの名無しさん
11/06/19 14:40:33.91
フライトシムとレースシムのTrackIR互換インターフェースなヘッドトラッキング求む
502:デフォルトの名無しさん
11/06/19 14:57:29.50
kinect首の回転って検出できたっけ
503:デフォルトの名無しさん
11/06/19 15:00:49.50
そこが凄い疑問で、どうやって頭の回転を検出してるのかはわからないんだけど
Forza Motorsport 4ってので実際にヘッドトラッキングしてるんだよね。
URLリンク(www.youtube.com)
504:デフォルトの名無しさん
11/06/19 15:08:15.69
>>502
kinectのファームがちょくちょく更新されてるからな
505:デフォルトの名無しさん
11/06/19 15:09:54.29
PCでも更新させて欲しいわ
実機とか買ってねえし
506:デフォルトの名無しさん
11/06/19 15:19:02.59
>>502
頭部の色とか顔面の深度の移動で認識してるのかね
507:デフォルトの名無しさん
11/06/19 15:20:31.64
>>505
中古屋にいけば初代が1万以下で買えるかと。
箱無し傷アリなんかだと5~6000円で売ってたりもするね。
あとは360をもってる友人にやってもらうとか360のあるネカフェに行くとか。
508:デフォルトの名無しさん
11/06/19 15:36:49.16
ネカフェはいいアイデアだがあるかどうか
509:デフォルトの名無しさん
11/06/19 16:04:54.67
五千円なら欲しいけど、
今さらDVDのゲーム機は要らんな。
510:デフォルトの名無しさん
11/06/19 16:08:52.88
貧乏人乙です
511:デフォルトの名無しさん
11/06/19 16:21:55.50
ほぼゴミになるし。
SDKで対応して欲しいものだ。
512:デフォルトの名無しさん
11/06/19 20:07:59.68
素人丸だしではずかしい質問なのですけど
Windowsプログラム初体験でkinect使った
win7プログラムはじめるのにお勧めの
書籍とかサイトはありませんか?
ObjectiveCとperlは使ったことあります
WINDOWSは普段使いしています
513:デフォルトの名無しさん
11/06/19 20:09:59.28
>>502
目を検出したら頭の向きを推定できる気が
514:デフォルトの名無しさん
11/06/19 20:58:32.11
目だけでは難しいので、Tゾーンだな。
515:デフォルトの名無しさん
11/06/19 21:40:30.07
サンプル起動しても、NuiInitialize failedとエラーでる…
なぜ…
516:デフォルトの名無しさん
11/06/20 00:36:05.24
KinectとPCはちゃんとUSBケーブルでつながっているか?
Kinectの外部ACアダプターはつないだか?
このスレの悩みの80%はこの2つで解決する。
517:デフォルトの名無しさん
11/06/20 01:12:13.34
>512
あほか、499のサイト見ろよ
518:デフォルトの名無しさん
11/06/20 07:17:41.35
kinectはxbox360用のものなのにSDKでファーム更新対応しろとか……
本当に貧乏人乙だなwww
519:デフォルトの名無しさん
11/06/20 09:11:39.61
揉めてまで残しておくほどの情報かね
520:デフォルトの名無しさん
11/06/20 10:21:00.64
ゲームしないからな。
521:デフォルトの名無しさん
11/06/20 17:25:06.79
kinectの座標データって、正しい?
例えば、
●頭のy座標と足先のy座標の差を出力した時、
●実際にメジャーを使って頭から足先までを計った時、
ではかなり差が出ない?
522:デフォルトの名無しさん
11/06/20 17:25:46.04
そりゃ出るでしょw
523:デフォルトの名無しさん
11/06/20 18:20:06.20
なぜなのか教えてください
524:デフォルトの名無しさん
11/06/20 18:22:37.22
自分の足りない頭で考えろ
525:デフォルトの名無しさん
11/06/20 18:37:10.81
考えなくてもわかるだろ・・?
ほんとにわからないの?
526:デフォルトの名無しさん
11/06/20 18:44:40.27
ワールド座標とかローカル座標が関係しますか?
527:デフォルトの名無しさん
11/06/20 18:55:52.07
いや、精度の問題だから、センサーのお話になると思うのだが・・・
528:デフォルトの名無しさん
11/06/20 19:38:25.46
普通に考えて、カメラから見て近くの人形と遠くの人間が
同じ大きさに見えるだろ。
何を基準に長さが違うと言ってるのかわからん。
Z軸は距離センサーの値だからそれなりに信用できると思うが。
529:デフォルトの名無しさん
11/06/20 19:52:49.06
カメラの精度の問題ですか?
ということは、取得できる座標は、単なる目安に過ぎないんですかね?
ユアシェイプ・エボルブというソフトでは、
身長の測定が出来るとおもうのですが、これも目安程度の身長なんでしょうか
530:デフォルトの名無しさん
11/06/20 20:12:56.39
ファームウェアのアップデートで精度が上がったとか言う話もあったな。
比べる対象にもよるが。
そう言うことだよ。
531:デフォルトの名無しさん
11/06/20 20:20:54.84
自分で作ったらどこまで精度出せるだろう、とか考えたら良いよ
頭の端、足の先、どんな角度だろうが厳密に割り出せると思うかい?
532:デフォルトの名無しさん
11/06/20 20:52:26.69
>>530
詳しく聞きたい。
kinectのファームウェアのアップデートとかがあるんですか?
533:デフォルトの名無しさん
11/06/20 20:54:52.57
普通にあるだろ。
食いつくトコはそういうところじゃねえだろ。
534:デフォルトの名無しさん
11/06/20 21:11:45.34
Live Animationというモーション作成ソフトがKinectに対応していてこの間フリー化された。
これを使うと簡易モーションキャプチャーができる気がするのだが、誰かやってみないか?
URLリンク(www.drf.co.jp)
535:デフォルトの名無しさん
11/06/21 00:00:45.58
既にMMDとかでもいっぱいやってるやん
536:デフォルトの名無しさん
11/06/21 00:25:44.39
MMDは閉じてるからな。役に立たない
537:デフォルトの名無しさん
11/06/21 00:51:13.89
和製ソフトに期待はしてない。
SDK後の欧米の天才に期待。
538:デフォルトの名無しさん
11/06/21 02:13:02.74
>>534
それはSDKが出る前のだからopenNIしか対応してないだろうし
今後の対応待つべきだな
539:デフォルトの名無しさん
11/06/21 03:02:08.56
macでOpenNi, Nite, SensorKinectを入れて、OpenNiのNiViewerを動かしてみたのですが、
One or more of the following nodes could not be enumerated:
Press any key to continue . . .
と出てしまいます。
システムプロファイラではKinectは認識されているようです。
OpenNiを入れる前はOpenKinect+processingでkinectできてました。
現在、Openkinectはアンインストールしています。
原因わかる方がいたらお願いします。
540:デフォルトの名無しさん
11/06/21 08:11:15.05
>>529
デバイスが同じでも長さを推定するアルゴリズムで
精度は変わるよ
541:デフォルトの名無しさん
11/06/21 09:14:04.02
そもそもゲーム用コントローラとして「動きを認識できれば良い」程度の精度さえあれば十分だからな
細かい距離計測なんぞ不要
必要ならそれなりの高い物を買え(桁が二つくらい変わるが)
542:デフォルトの名無しさん
11/06/21 11:23:38.92
実際の精度測ってないからわからんけど、
>>521 はボーンの端の座標でそう言ってるんじゃないよね?
頭のボーンの端は頭の中心あたりにあるわけだし。
というわけで、デプスマップ上にある人間一人分の領域の中で
一番高い部分と一番低い部分の座標をちゃんと計算したか?という話。
Kinectの構造としては、ちゃんと機体がキャリブレーションされているなら、
そこそこの精度は出ると思うんだよね。
まあ、1cm単位で正確にというのは厳しいと思うけども。
543:デフォルトの名無しさん
11/06/21 11:25:05.56
>>539
フリーになるライセンスキーを各所に入れ忘れてない?
544:デフォルトの名無しさん
11/06/21 11:29:16.46
キネクトだと髪型によって身長も変わるんだろ。
545:デフォルトの名無しさん
11/06/21 11:37:13.23
>>544
アンドロ梅田とか?
546:デフォルトの名無しさん
11/06/21 12:03:08.70
kinectSDKとOpenNI使い分ける時って、毎回削除とインストールくり返さないとダメなん?
547:デフォルトの名無しさん
11/06/21 17:52:42.02
誰かVMware Fusion3上でKinectSDK動かせた人いない?
いたら返事してくれ
548:デフォルトの名無しさん
11/06/21 19:59:22.79
>>547
アニョハセヨ
549:デフォルトの名無しさん
11/06/22 10:34:49.27
>>547
イ尓好
550:デフォルトの名無しさん
11/06/22 12:52:30.70
東アジアばかりだ・・・
551:デフォルトの名無しさん
11/06/22 13:10:23.11
>>547
Aloha!
552:デフォルトの名無しさん
11/06/22 15:06:21.76
547のものだが、どうもKinectのいくつかのデバイスが認識されない。
KinectAudioArrayControl、KinectAudioUSBあたり
Windows7機で開発するかぁ
553:デフォルトの名無しさん
11/06/22 15:10:09.55
>>547
jumbo
554:デフォルトの名無しさん
11/06/23 00:39:45.15
>>552
ドキュメントにバーチャルマシンではだめと書いてあるじゃん
You cannot run applications in a virtual machine, because the Microsoft Kinect drivers and
this SDK Beta must be installed on the computer that is running the application.
555:デフォルトの名無しさん
11/06/23 11:46:09.36
SDK入れてみた
90cmより近いとdepthとれないのかな??
556:デフォルトの名無しさん
11/06/23 12:39:20.82
90cmだったかは覚えていないが距離の制限は当然ある。
2mぐらいが標準なのでちょっと近すぎね?
557:デフォルトの名無しさん
11/06/23 13:56:01.52
ありがとうございます
たしかに標準ではそうですよねー
ボーン認識のための距離だとおもってて
depth画像にでてこないとは思っていなかったので... orz
SkeletalViewerでみる限りでは初期位置で1.1-1.2mくらい離れないと
ポーンの取得がうまくできないみたいですね
一度取得すると0.9mくらいまで寄ってもいけるみたいですが...
ググっていると発表会で850mm~4000mmとプレゼンに出ていた
と、みくだんに書いてあるのをみつけました
558:デフォルトの名無しさん
11/06/23 17:12:35.08
アメリカンルームが基準だからねえ
確かKinect用の広角レンズが発表されたか発売されたかしてるので、
兎小屋ではそれを使うのがデフォルトになりそう
559:デフォルトの名無しさん
11/06/23 17:25:11.89
kinectの GetJointsで取得できる座標って、ワールド座標?
原点(0,0,0)は、kinectのカメラの位置を指しているって理解で大丈夫?
560:デフォルトの名無しさん
11/06/23 17:32:31.39
>>540
長さを推定するアルゴリズムって、
赤外線照射して、三角測量から距離を推定するアルゴリズム
のことでしょ?
どのkinectデバイス使用しても、アルゴリズムは同じじゃないの?
561:デフォルトの名無しさん
11/06/23 17:41:36.57
>>560
そこだけ見ればそうだろうけれど、対象までの距離を得るアルゴリズムが変われば
結果も変わるんじゃないの?例えば合成開口レーダーや超解像のごとく時間軸
方向へ展開して距離の精度をあげるとか、考えられるんじゃない?
562:デフォルトの名無しさん
11/06/23 17:56:38.20
>>559
YES, YES, YES
563:デフォルトの名無しさん
11/06/23 18:28:27.10
>>542
つまり、
ボーン座標の頭から足先のy座標差は、
実際の鼻からくるぶし辺りまでの長さ
と同じかどうかってことだよね?
それはちゃんと意識して測ってるんだけどなぁ
564:デフォルトの名無しさん
11/06/23 18:36:21.52
座標軸はキネクトに合わせて傾いてるから補正する必要がある
565:デフォルトの名無しさん
11/06/23 19:06:36.36
>>558
thx
かっこえー
URLリンク(www.nyko.com)
これで後は使い方を考えるだけ... (すでに手段と目的が逆w)
566:デフォルトの名無しさん
11/06/24 12:04:01.85
563は現実世界をセンシングするデバイスのプログラミングに向いてないと思うよ
567:デフォルトの名無しさん
11/06/24 14:07:26.35
↑まあそういわずにw
>>563
状況がわからないけど
同じ照明、同じ安定した背景、同じ被写体、同じ立ち位置で、衣服や姿勢を変えて
それぞれ5回くらい計測して再現性の程度を確かめるところから始めるといい
うまくいかないときはまず測定環境を一定させてやってみて
そこから1つ条件を変化させては数回計測するというのが鉄板
568:デフォルトの名無しさん
11/06/24 16:45:05.74
ProgrammingGuide_KinectSDK.docxから抜粋
・Standing Scenarios Only: not seated figures.
・For the depth and skeletal views, the figures should stand between 4 and 11 feet from the sensor. (1.2 to 3.5 meters)
・Kinect Sensor Array Specifications
Viewing angle 43° vertical by 57° horizontal field of view
Mechanized tilt range (vertical) ±28°
Frame rate (depth and color stream) 30 frames per second (FPS)
Resolution, depth stream QVGA (320 × 240)
Resolution, color stream VGA (640 × 480)
Audio format 16-kHz, 16-bit mono pulse code modulation (PCM)
Audio input characteristics A four-microphone array with 24-bit analog-to-digital converter (ADC) and Kinect-resident signal processing such as echo cancellation and noise suppression
SDKのほうは違う解像度にも対応しているように書いてあるけど
センサー解像度を越える部分を補間してるのかどうかまではまだ読んでない
569:デフォルトの名無しさん
11/06/24 17:14:57.00
SDKはOpenNIとくらべて精度がバリいいぜーって聞かないけどぶっちゃけどうなんすか先輩~
570:デフォルトの名無しさん
11/06/24 17:35:32.01
画像データを使用して深度センサーに補正かけても・・・
単純な深度センサーのほうが精度良さそうだしなぁ
571:デフォルトの名無しさん
11/06/24 17:50:27.22
サーボとマイク使えるくらいなんだろうかわからん
572:デフォルトの名無しさん
11/06/24 20:22:06.19
OpenNIとくらべて精度がバリいいぜ
573:デフォルトの名無しさん
11/06/24 20:43:20.16
マジすか先輩!ちょっと踊ってみてくださいよオナシャス!
574:デフォルトの名無しさん
11/06/24 20:45:43.21
そんなに精度いいのか
比較がほしいな
575:デフォルトの名無しさん
11/06/24 21:45:22.26
マジっすか。Windows7持ってないから見てるだけ~
576:デフォルトの名無しさん
11/06/24 22:23:25.54
>>575
PC安いから買おうぜ。
577:デフォルトの名無しさん
11/06/24 22:45:12.80
誰かXtion持ってないの?
578:デフォルトの名無しさん
11/06/25 14:49:46.09
z座標は比較的正確な値が出るけど、
x,y座標に関しては、桁が違うくらい大きな差が出るのはなんで?
例えば現実で手を100cm移動させた時と、
kinectの測定結果では100(=100mm=10cm)くらいの値しかでないんだが
測定方法は、手を移動させる前の座標と移動させた後の座標の差から算出している
OpenNIは1.0.0.25
Niteは1.0.3.18
579:デフォルトの名無しさん
11/06/25 15:03:46.72
>>578
なにも考えずにConvertRealWorldToProjectiveで変換してるけど、いい感じですよ
580:デフォルトの名無しさん
11/06/25 15:21:30.99
>>579
ConvertRealWorldToProjective変換しなくても、正しい値出力されますか?
581:デフォルトの名無しさん
11/06/25 15:40:55.98
>>580
あ、距離のXY方向をmmとかcmで知りたいんだ。
ConvertRealWorldToProjectiveしちゃダメか。
Zはちゃんとmmになってるんだけどなぁ。。
いろんなZ位置で画面見ながらメジャーを映して測ってみたら何か分かるかなぁ。
お役に立てなくてゴメン