07/03/10 01:13:37
どんな内容なら語ってもいいのですか?玄人の>>262さん。
264:デフォルトの名無しさん
07/03/10 02:25:22
>>251や>>263みたいな質問以外ですな
265:デフォルトの名無しさん
07/03/10 05:35:57
キャプチャフィルタ→変換フィルタ→色空間変換フィルタ→VMR9
という構成の中の変換フィルタで、キャプチャフィルタからサンプルが1枚くる度に
サンプルに対し処理Aを実行→出力→表示
サンプルに対し処理Bを実行→出力→表示
というように2回の処理、出力を行いたい(フレームレートを倍化したい)のですが、
どうすればよいでしょうか?
なお、キャプチャ出力のフレームレートは上限に設定しています。
タイムスタンプをいじるだけではうまくいきませんでした。
IMemInputPin::Receiveを使うにしても、それを呼び出す頻度をどのようにすれば
合わせられるかが分からずできません。
266:デフォルトの名無しさん
07/03/10 07:16:47
出力ピンのメディアタイプのレートを2倍に設定して、サンプルを1つ受け取ったら2つ出力すればいいのでは
267:デフォルトの名無しさん
07/03/10 11:46:39
タイムスタンプは修正してやらないと駄目だろう。
仮にキャプチャフィルタが30f/secで投げてくるなら0.033...秒間隔のスタンプが設定されているだろうから
自分でつくる変換フィルタは2枚目に0.033.../2秒のタイムスタンプを足して設定してやる。
んで自分が出力ピンからDeliverするときに、自分で送りたい2枚分、下段の入力ピンReceiveを呼ぶ。
2回送信完了してから、上段にDeliverの結果を返す。
268:デフォルトの名無しさん
07/03/10 17:49:27
スレリンク(tech板)
の658です。
たぶんこっちで質問したほうがいい気がしたので。
何度やっても同じところ(CopyMemory)で落ちます。
原因として思い当たる件があったらご教示願います。
269:デフォルトの名無しさん
07/03/10 18:11:41
サイズチェックくらいしろ。
24bit以上のソースなら、BITMAPINFOHEADERだな。
270:268
07/03/10 18:21:52
>>269
つまり、サイズが足りないということでしょうか?
271:268
07/03/10 19:24:59
サンプルファイルを出力したところ、24bitであることは確認しました。
どこが悪いんでしょう?
272:デフォルトの名無しさん
07/03/10 19:32:55
>>268
これか、
CopyMemory( &BitmapInfo.bmiHeader, &(pVideoHeader->bmiHeader),
sizeof(BITMAPINFOHEADER));
探すの面倒だから直リンして欲しいな。
スレリンク(tech板:658番)
コピー先と、コピーするサイズとか確認してみれば。
&BitmapInfo.bmiHeader が有効なメモリを指してる?
&(pVideoHeader->bmiHeader) が有効なメモリを指してる?
sizeof(BITMAPINFOHEADER) これはあっていると思うけどさ。
273:268
07/03/10 19:37:59
&BitmapInfo.bmiHeader:1000E380
&(pVideoHeader->bmiHeader):30
むう?
274:268
07/03/10 19:41:33
Bitmapinfoをローカルにすると
&BitmapInfo.bmiHeader:12F044
&(pVideoHeader->bmiHeader):30
&BitmapInfo.bmiHeaderが怪しいですね。
275:268
07/03/10 19:42:42
で、怪しいのはわかったんですが対処方法がわかりませんorz
276:デフォルトの名無しさん
07/03/10 19:49:11
何かおかしいときはリビルドすると直ったりするんだよ
277:デフォルトの名無しさん
07/03/10 19:50:18
ヘッダに書いただけで動かなくなるとは思えないしさ!
278:デフォルトの名無しさん
07/03/10 19:51:15
>>276
もう8回くらいリビルドしてますorz
手動でbmiHeaderを初期化したりしてもダメでした。
279:デフォルトの名無しさん
07/03/10 20:06:49
初心者スレに戻りなはれ
280:268
07/03/10 20:09:10
そうします。orz
281:265
07/03/10 23:31:42
>>266
その方法を試すために、まず出力ピンのメディアタイプを取得しようとしたのですが、
原因不明のエラーが出ます。
何がまずいのでしょうか?
HRESULT (作成した変換フィルタクラス名)::Transform( IMediaSample *pIn , IMediaSample *pOut ){
・・・
//出力ピンのメディアタイプを探す
IEnumPins *pEnumPins;
IPin *pPin;
PIN_DIRECTION PinDirThis;
AM_MEDIA_TYPE *pmt;
this->EnumPins( &pEnumPins );
pEnumPins->Reset();
while( pEnumPins->Next( 1 , &pPin , NULL ) == S_OK ){
pPin->QueryDirection( &PinDirThis );
if ( PinDirThis == PINDIR_OUTPUT ){
pPin->ConnectionMediaType( pmt ); ←定義されてないのに使ってるというようなエラー
}
}
DeleteMediaType( pmt ); ←上と同じエラー
・・・
}
282:265
07/03/10 23:36:19
>>267
タイムスタンプ修正は行えるのですが、下段の入力ピンのIMemInputPin::Receiveを
どのようにすれば呼び出せるのかが分かりません。
>>281で示したようなコードでIPinクラスは取得できるのですが、
URLリンク(msdn.microsoft.com)
ここを見ると、IMemInputPinはIPinの子クラスなので、それに実装されているReceiveメンバに
アクセスできません。
ご教授願います。
283:デフォルトの名無しさん
07/03/11 00:38:34
トランスフォームフィルタのソースがベースクラスとして公開されてるんだから勉強するといいよ
CTransformFilter、CTransformInputPin、CTransformOutputPinね
入力サンプルがどう入ってきてどこで変換してどうやって出て行くのか
更にしたのベースクラスの知識も必要になるだろうけどさ
既に下段に接続してる相手のメディアタイプが欲しいなら
出力ピンのCurrentMediaTypeでいいだろ
284:デフォルトの名無しさん
07/03/11 01:14:56
>>282
m_pOutput->Deliver するだけでOK
285:265
07/03/11 03:49:55
>>283
ありがとうございます。
m_pOutput->CurrentMediaTypeでメディアタイプを取得し、pbFormat(VIDEOINFOHEADER)内の
AvgTimePerFrameを変更してやることでフレームレートの変更を試みてみました。
しかし、今まで通りの10000000/29.97[100ns]であれば下流のフィルタ(色空間変換フィルタ)に
繋がるのですが、倍の10000000/59.94[100ns]では接続できませんでした。
残念ながら対応していないようです。
286:265
07/03/11 03:50:22
>>284
ありがとうございます。
一枚のサンプルに対し二度出力できるようになりました。
しかし、fpsがきれいに倍化する期間と倍にならない期間が移り変わってうなりのようになっています。
二度の出力中、一枚目のスタートと二枚目のエンドのタイムスタンプはいじっていないので、
そこでの同期は保障されていると思ったのですが・・・
どのようにすれば改善できるでしょうか?
一枚のサンプルに対して行う処理を以下に示しておきます。
//一枚目の処理
・・・
// 入力サンプルのタイムスタンプを取得する
pIn->GetTime( &TimeStart , &TimeEnd );
//エンドタイムを1/59.94[s]早める
TimeEnd -= 166833; //[100ns]
pOut->SetTime( &TimeStart , &TimeEnd );
//下流フィルタにDeliverする
m_pOutput->Deliver( pOut );
//二枚目の処理
・・・
// 入力サンプルのタイムスタンプを取得する
pIn->GetTime( &TimeStart , &TimeEnd );
//スタートタイムを1/59.94[s]遅くする
TimeStart += 166833;//[100ns]
pOut->SetTime( &TimeStart , &TimeEnd );
//下流フィルタにDeliverする
m_pOutput->Deliver( pOut );
287:デフォルトの名無しさん
07/03/11 05:56:40
>>266 でも書かれているが、GetMediaType時にAvgTimePerFrameの時間を半分にして接続を完了させればいいんでね?
部分的コードなのでわからないが、サンプル使いまわしたりはしていないよね?
288:265
07/03/11 09:37:13
>>287
試しに
AvgTimePerFrame /= 2;
としてみましたが、やはり受け付けませんでした。
AvgTimePerFrame /= 1;
だったら大丈夫です。
>サンプル使いまわしたりはしていないよね?
他の方が作られたサンプルを使いまわししてます。
ですが、Transformメソッドをいじるだけくらいのシンプルな変換フィルタでして、その処理部分に関しては
すべて書き換えています。
289:デフォルトの名無しさん
07/03/11 11:18:23
タイムスタンプの変更は問題ないです。EndTimeが0で来る場合もあるのでチェックして下さい。
> Transformメソッドをいじるだけくらい
CTransformFilter::Receive内でもDeliverしてるからな。その辺り大丈夫だよね?
文面から察するに
OutputPin::CurrentMediaTypeでメディアタイプ取得できるってことはピンが繋がっている状態なのだが
一旦Pin接続解除した後にフレームレート倍のメディアタイプを色変換に提示(OutputPin::GetMediaTypeで設定)して
再接続を試みてるんだよね?
290:265
07/03/11 11:56:35
>>289
>EndTimeが0で来る場合もあるのでチェックして下さい。
チェックしてみましたが、EndTimeが0で来る様子は見られませんでした。
>CTransformFilter::Receive内でもDeliverしてるからな。その辺り大丈夫だよね?
どうなんでしょう・・・影響があるかは判断しかねます・・・
メディアタイプ変更の件ですが、グラフエディタ上で接続が断たれた状態からピンを繋ごうとしたとき、
キャプチャフィルタのメディアタイプから変更しなかった場合は成功し、変更すると失敗する、というかんじです。
フレームレートの不安定ですが、もしかしたら処理負荷が大きいためかもしれません。
表示ウィンドウのサイズを大きくする(ネイティブサイズは同じ)とフレームレートが落ちていきます。
CPUの使用率は60~70%ですが、VMR9側の問題でこのようなことになっているのかもしれません。
この負荷の原因として、変換フィルタとVMR9との間に挟まっている色空間変換フィルタが挙げられます。
キャプチャフィルタから直接VMR9に繋ぐときは介在せず、CPU負荷も小さいです。
ところが、同じメディアタイプを設定しているにも関わらず、変換フィルタを挟むと、その後に色空間変換フィルタ入ってきます。
キャプチャから直接VMR9の場合はシステムメモリは介さず、直接ビデオRAMに移す、というようなことでもしているから
こんなことになるのでしょうか?
もし変換フィルタから直接VMR9に繋げられるような方法がありましたら教えてください。
291:268
07/03/11 16:50:34
別のソースを元にいろいろいじってたんですよ。
(そっちのソースはCopyMemoryで落ちないので)
で、そっちのBitmapInfoのbmiHeaderを調べてみたところ、他の値は想定の範囲内なんですが
BitmapInfo.bmiHeader.biCompression = 1685288548
と㌧でもない値が入っていて、どうやらこいつが原因だと判明。
これって何なんでしょ?
ぐぐったらdvsdとか出てきたんですがよくわかりません。
292:268
07/03/11 16:54:12
ちなみに
BitmapInfo.bmiHeader.biCompression=BI_RGB;
なんてことをやると一応動くようにはなりました。
ただ取得できる値がおかしいので正確に動いてる感じではありませんが。
293:268
07/03/11 17:04:27
取得部分は以下のような感じです。
void Cam::getImage()
{
HRESULT hr;
// ビットマップ ヘッダーから DIB を作成し、バッファへのポインタを獲得する。
hBitmap = CreateDIBSection(0, &BitmapInfo, DIB_RGB_COLORS, (void **)&buffer, NULL, 0);
firstDIB = FALSE;
// イメージをバッファにコピーする。
DIBBuffer = (long *)GlobalAlloc(GPTR,bufsize);
hr = pGrab->GetCurrentBuffer(DIBBuffer,NULL);
hr = pGrab->GetCurrentBuffer(DIBBuffer,(long *)buffer);
}
AVIを無理やりBITMAPにしているから無理が生じているような予感がちらほら。
294:デフォルトの名無しさん
07/03/11 18:34:30
帰れといっただろ
295:デフォルトの名無しさん
07/03/11 18:42:48
>>290
レンダラに直接接続したければ、すべてのフォーマットを出力で対応する必要がある。
まあでも32bitでだいたいの環境はいける。
接続できなければレンダラが対応していないのだろう。正しい接続の仕方ならばね・・・。
296:268
07/03/11 20:31:37
>>294
向こうで聞くべき質問じゃないと思ったので・・・。orz
297:デフォルトの名無しさん
07/03/11 20:32:01
FilterのサンプルにNullInplaceフィルタってのがあるんだけどさ
それをキャプチャデバイスとレンダラの間に入れてみてくれ。
やっぱり色空間変換フィルタが必要とされるか?されないか?
298:デフォルトの名無しさん
07/03/11 20:35:02
dvsdはDVのSD形式。それがわかんねーなら帰れw
299:265
07/03/11 21:09:48
>>297
自前のWindowsSDKにないのでDirectXのExtrasをダウンロードし、その中からNullInplaceフィルタを見つけたのですが、
ビルドすると、PC内に存在しないatlbase.hが無いと言われてしまいます。
無念です・・・
300:デフォルトの名無しさん
07/03/11 21:44:59
> >CTransformFilter::Receive内でもDeliverしてるからな。その辺り大丈夫だよね?
> どうなんでしょう・・・影響があるかは判断しかねます・・・
どう実装してるかわからんけど、もしかしてTransformメソッドの中で2回Deliverしてる?
CTransformFilter::Receive良く読んで理解してるよね?
301:デフォルトの名無しさん
07/03/12 08:02:05
俺もフレームレート変換フィルタを作って断念した者ですが、
上流フィルタからの映像が来る来ないに関わらず非同期でフレームレートを作るフィルタが出来なかったんだよな。
今悩んでいる子がここまでやるのなら全力でサポートするよ
302:デフォルトの名無しさん
07/03/12 08:04:43
最近変換フィルタの話題がちょくちょく出ててうれしい。
303:265
07/03/12 08:07:00
>>300
そうです、Transformメソッドの中で2回Deliverしてます。
サンプルの流れがいまいち理解できないです。
そこで今行っている処理の流れを分かる範囲でまとめてみました。
[キャプチャフィルタ]-[変換フィルタ(自作)]-[色空間変換フィルタ]-[VMR9]
[色空間変換フィルタ]の入力ピンからの[変換フィルタ]への呼び出し
CTransformFilter::Receive (CTransformFilter::InitializeOutputSampleを呼び出す)
↓
CTransformFilter::InitializeOutputSample (新しいサンプルを[キャプチャフィルタ]の出力ピンから取得する)
↓
CTransformFilter::Transform
(サンプルの処理)
↓
CBaseOutputPin::Deliver (IMemInputPin::Receiveを呼び出す) ←これを>>286のように2回呼び出しています
↓
IMemInputPin::Receive ([変換フィルタ]の出力サンプルを取得する)
↓
[色空間変換フィルタ]での処理
↓
[VMR9]が付与されたタイムスタンプに従って画面に表示
疑問点
・>>289さんの言う、CTransformFilter::Receive内でもDeliverしている、という記述がMSDNで見つけられませんでした。
上記で言えばどの時点で発生するのでしょうか?
・最初のCTransformFilter::Receiveが呼び出されるタイミングが分かりません。
サンプルが変換フィルタで処理されるサイクルはどのようになっているのでしょうか?
304:265
07/03/12 10:06:54
この問題に関していろいろと試してみた結果を書いておきます。
・タイムスタンプがないプレビューピンからの映像に対して変換を行ったところ、同じうなり現象(>>284)が起きた。
・一枚のサンプルに対して二度の処理を行うが、片方の絵を真っ黒にしてみると、フレームが倍化していないときは
二枚目の絵のみが表示される状態であることが分かった。
・二度目のDeliverを外したところ、フレーム倍化の時間が若干延び、倍化していない期間においても
一枚目の絵と二枚目の絵が交互に表示された。
このとき、キャプチャーピンからの映像では倍化していない期間で絵が0.5秒ほどストップすることが頻繁に起こった。
プレビューピンからの映像ではこのストップ現象は起きない。
305:265
07/03/12 10:08:49
すみません、
>>284じゃなくて>>286です。
306:268
07/03/12 13:35:12
>>298
SD形式はいいんですが、これって普通にBITMAPINMFO構造体として取り出せないんでしょうか?
307:265
07/03/12 17:31:09
特定の場合についてのみですが、フレームレートの倍化(30fps→60fps)ができました。
(同時にこの手法のダメさを裏付けるものでもありましたが・・・)
条件は
・キャプチャフィルタのプレビューピンに繋げる(よってタイムスタンプの設定は意味なし)
・二度目のDeliverを無くす(あるともたつきが起こる)
・画面表示をビデオのネイティブサイズである640×480に対し、約2倍以上にするとフレームレートのうなり現象が
無くなり約60fpsで一定となる。
このとき、CPUの使用率はサイズが大きくなるにつれて上がる。
これらの現象から導き出される結論として、
一度目のDeliverと二度目の(本来行われる)Deliverは連続ですぐに行われ、二度目のDeliverにより送信された
二枚目は一枚目で設定したタイムスタンプがあろうが無かろうが即座に描画される。
CPUの負荷が上がり、すぐに二度目のDeliverが処理できない場合、その間一枚目が表示されることとなり、この時間が
ちょうど1/60秒となるときキレイにフレームが倍化されることとなる。
描画サイズが小さいときはCPUに余裕がある期間が存在し、そのときは二枚目のみが表示される。(フレームが倍化されない)
ということが言えると思います。
よって、一度のTransformメソッドで二度のDeliverを用いる作戦はアウトということになりました・・・。
308:デフォルトの名無しさん
07/03/12 18:47:41
何度も書かれているけど、接続状態がその倍のレートでないと、レンダラはそのfpsで処理してくれないと思うよ。つまり余計に送られてきたサンプルは捨てる。
出力メディアタイプと違うサンプルを出力しても、期待した通りに動かないよね。
あと処理が間に合わない時も、どこかのフィルタが捨てると思う。
一度CPU負荷がほとんど発生しないプロトタイプを作って実験して、処理遅れなのかそれとも別の問題なのか調べて見ては?接続の問題も解決を。
リアルタイムで処理したいんだよね?
それとDirectShowで「サンプル」といえば、IMediaSample2などのデータの事をしめします。
>>287 は、一度ダウンストリームに送信したサンプルをまた再利用するなよってこと。
309:デフォルトの名無しさん
07/03/12 21:53:42
ビデオレンダラからの品質メッセージをNotifyで受け取ってQuality::Lateを見てみると良いよ。
これがマイナスだとレンダラに間に合って届いている。
プラスだと間に合ってないので到着したとたんにレンダリングされたりして
動きがギクシャクしたり捨てられてカクついたりする
310:デフォルトの名無しさん
07/03/12 22:14:45
休日の夜中になっても頑張ってるから応援したくなるよ あんまり教えすぎはよくないんだけど
>303 サンプルの流れについて
まず上流(キャプチャデバイス)の出力ピンが、変換フィルタの入力ピンCTransformInputPin::Recieveにサンプルを渡す。
入力ピンRecieveはCTranscormFilter::Receiveを呼ぶ。んでTransformメソッドでサンプルを変換した後、
出力ピンから下流(色変換フィルタ)のRecieveを呼び出す(サンプルを渡す) という流れ
>289で「Deliverしてる」って表現したのはマズかったかな。要は下流にサンプルを渡すってことなんだ。
下流の入力ピンのReceiveを呼び出す(サンプルを渡す)。コレがDeliverの正体。
CBaseOutputPin::Deliverメソッドのソースを見てみるといいよ(Baseclassesのamfilter.cppな)
んでTransformフィルタなんだけど、出力ピンのDeliverメソッドは呼んでいないんだ
どうやって送信してるかというと、CTransformFilter::Receiveの中に次のコードがある
hr = m_pOutput->m_pInputPin->Receive(pOutSample);
これ。ここで送信してる。直訳(?)すると、自分の出力ピンに繋がってる入力ピンのReceiveに
Transoformメソッドで変更を加えたサンプルを渡す ってこと。
長いので続く
311:デフォルトの名無しさん
07/03/12 22:48:26
303のカキコミについて説明していくよ
> CTransformFilter::InitializeOutputSample (新しいサンプルを[キャプチャフィルタ]の出力ピンから取得する)
InitializeOutputSampleは出力するサンプルの準備をするメソッドなんだ。
ここでは送信するサンプルのバッファをサンプルと結びつける(バッファ自体は出力ピンが確保してる)
HRESULT hr = m_pOutput->m_pAllocator->GetBuffer(
その後で、上流から受け取ったサンプルのプロパティ(各種フラグと言ったほうがわかりやすいか)や時間情報を
出力するサンプルに設定していく。これがInitializeOutputSampleの役割。
このことから、上流から受けたサンプルと、自分で送るサンプルは全くの別物であるということがわかる。
送信が済んだら、このサンプルをリリースすることでバッファの開放などが行われる
(CTransformFilter::Receiveの最後の方 pOutSample->Release(); )
ちなみに上流から受けたサンプルをダイレクトにそのまま下流に出力するのはCTransInPlaceFilterだ
つづく
312:デフォルトの名無しさん
07/03/12 23:10:36
早い話、君は2回送ってるつもりでも、3回送っていると思われる
しかも3回目のサンプルの時間情報は上流から受けた時間そのもの
313:デフォルトの名無しさん
07/03/12 23:13:13
Transformメソッドはサンプルの内容を変更するだけじゃないと ブー
そういう設計なんでこざいます だからここから送信したら ブーブー
TransformInputPin::Receiveをオーバーライドしないとアカンねん
314:デフォルトの名無しさん
07/03/12 23:23:29
まちがえた TransformFilter::Receiveな 酒のんでるからすまんの
サンプルのタイムスタンプ見てレンダラが表示のタイミングを待ったり、時には捨てたりするアルよ
サンプルの不連続性(Discontinuity)とか同期ポイント(SyncPoint)を示すフラグの扱いとか
注意してくれよ キレイなフィルタを作りましょう。んじゃ頑張れ
315:265
07/03/12 23:33:31
>>308
了解です。
>それとDirectShowで「サンプル」といえば、IMediaSample2などのデータの事をしめします。
そういうことでしたか・・・
失礼しました。
>>309
ありがとうございます。
調べてみます。
>>310-314
とても丁寧にありがとうございます。
がんばります。
316:デフォルトの名無しさん
07/03/14 22:52:01
>>306
dvsdなんかではCreateDIBSectionに失敗しそうな気がするけど、それはないの?
あと、フィルタいじれるなら入力ピンのCheckMediaTypeでMEDIASUBTYPEの
RGB24かRGB32以外を弾くようにすれば、その辺不問にできるような気がするけど・・・。
317:デフォルトの名無しさん
07/03/15 01:14:32
すみません。
DVDをAVIにして保存したいんですが、YUYをRGBに変換するフィルタとAVIを書くフィルタは自前で作るのですか?
色々やってみてダメだったらヒントください。
ちょっと頑張ってくる。
318:268
07/03/15 14:03:14
>>316
はい、失敗します。orz
他の方法でやらなきゃいけないんでしょうか?
319:デフォルトの名無しさん
07/03/15 14:11:19
>>318
(1) 普通のDIBを用意して、そこにDrawDibDrawで描く
(2) 入力ピンのフォーマットをRGB24/RGB32に限定して、フィルタグラフ側で変換してもらう
(3) 自分でDVをでコードする
1,2は実質的にはaviのというかvfwのdvコーデックが使われる。
「やらなきゃいけない」かどうかは自分で決めればいい。
やりたくないならやらなくていいんじゃない?
320:268
07/03/15 16:40:18
>>319
うお、ありがとうございます!
ちょっくら試してみます!
321:268
07/03/15 18:38:43
とりあえず(1)はDrawDibOpenの時点で落ちるので保留。
(2)を試してみます。
URLリンク(webcamxtra.sourceforge.net)
これを活用すればいけそうな気もしてるんですけどね・・・。
今までウェブカメラは自力で処理できていたのでどうにかしたいもんです。orz
322:268
07/03/15 18:52:30
ん、DrawDibOpen動いた。
あとはDrawDibDrawの引数だけだと思うので、ちょっくら追ってみます。
323:デフォルトの名無しさん
07/03/15 23:07:58
ICaptureGraphBuilderを利用してSetOutputFileNameやって、
DVD Navigaterのフィルタを取ってRenderStreamすればAVIにできると思ったのにダメでした。
DVDをAVIにして保存する方法って何かあるんでしょうか。
サンプルグラバつなげられれば保存できる気もするんだけどPINをつなげられない。
324:デフォルトの名無しさん
07/03/16 00:54:44
ビデオ形式
ビデオ タイプについては、サンプル グラバは VIDEOINFOHEADER 形式を必要とします。VIDEOINFOHEADER2 や DVINFO などの
他の形式タイプを必要とするフィルタに接続することはできません。
このため、MPEG-2 や DV ビデオ、またはフィールド ベースの (インターレース)
ビデオとの互換性はありません。
URLリンク(www.microsoft.com)
うぉー、絶望的なことかいてあった。orz....
サンプルグラバに繋がらないわけだ。
Overlay Mixer -> サンプルグラバ ->AVIMUX という流れができるか明日ためしてみる。
325:268
07/03/16 16:53:10
DrawDibBeginがfalseを返す・・・。orz
というわけで他の方法試してみます。
326:デフォルトの名無しさん
07/03/16 16:55:37
BeginとEndは実は要らない。
327:268
07/03/16 17:12:04
>>319
> (3) 自分でDVをでコードする
って、サンプルとかないですよね・・・。orz
328:326
07/03/16 17:19:30
>>326
ま、マジですか。
ちょっくら試してみます。
329:368
07/03/16 17:20:05
あせって名前間違えた。orz
>>328は自分です。
330:268
07/03/16 17:24:46
うーん、DrawDibDrawがやっぱりfalse。
何か記述が足りない気がしてきた。
サンプル探してるんですけど全然見つからないんですよね。orz
331:デフォルトの名無しさん
07/03/16 21:58:23
>>330
サンプルグラバ使ってるんですよね?
SetMediaTypeでMEDIASUBTYPE_RGB24指定して
dvsdで流れてこないようにしたらどうですか?
あなたのレスをすべて追っかけてるわけじゃないんで、外してるかもしれませんが。
332:デフォルトの名無しさん
07/03/16 23:26:24
散文だし小出しだし追いかける気になれない。
333:デフォルトの名無しさん
07/03/17 01:06:17
OverlayMixerの後ろにサンプルグラバはつながらないと思うよ。
OverlayMixerはレンダラとつながる。そしてオーバーレイで自分が描画している。
後ろにつながっているビデオレンダラはメディアサンプルを受け取っておらず、
ウインドマネージャを提供しているに過ぎない。
つまりたとえつながってもサンプルを取ることはできない。
はず。
334:デフォルトの名無しさん
07/03/17 01:23:46
>>333
はい。そうでした。全く繋がらなくて1日無駄にしました。
DVDをAVIにしなきゃ行けないんで作り方を模索中。
やるならOverlayの上流にあるDVD用デコーダフィルタですかね。
GraphEditでRendererとサウンドをぶった切ってASFライタを入れると
DVDをWMVにできたりします。
この方式で画質設定と開始位置と終了位置を設定して保存できればいいのかもしれない。
最後にWMVをAVIに変換して終了させるという最低の方法を選ぶ。
AVIMUXにつなぐ方法ありましたらヒントください。
最近のライブラリから外れたBaseClassのCtransなんたらで自作フィルタを作るしかないんですかねぇ。
それでYUYをRGB24とかに変換。
DVD Navigater -> 何かフィルタ -> Video Commplessor -> AVI MUX -> File Writer
という形で保存できればいいんですが。
335:268
07/03/17 21:42:01
動きますた!(・∀・)
原因は>>316や>>331あたりが正解だったようです。
ボスに言われてイチから書き直したらうまく動きました。
というわけで、本当にありがとうございました。
DirectShowと戦うことができたのはこのスレのおかげです。
336:デフォルトの名無しさん
07/03/17 22:04:51
>>335
おめっとさん、その二つはいずれも私ですがw
実はDirectorのXtraに興味があってちょっと追いかけてました。
Xtraの描画周りって何を参考にしました?
キャプチャした画像を直接Director上で表示するのでしょうか?
ちょいスレ違いスマソ
337:268
07/03/18 22:28:43
>>336
自分はDirector上での描画はやってないですね。
CreateDIBSectionで取得したピクセル毎のBGR値の差分を比較して使っています。
今回DVカメラを扱う上で参考にしたのは↓ですね。
URLリンク(wwwdoi.elec.nara-k.ac.jp)
処理部分コピペでもとりあえず動きます。
# コンソールも出せるみたいです。
Xtra開発者は海外の人ばっかりなので、日本人も増えてほしいもんです。
338:336
07/03/19 21:42:14
>>337
なるほどどうもっす。
DirectShowのフィルタ書いてお茶を濁そうと思っていたのですが、
クライアントの意向によりXtraを直接弄る必要があり、
ちょいとハマってたところでした。
DirectShowも情報ない方だけど、Xtraはもっと険しい道だなこりゃ・・・。
339:デフォルトの名無しさん
07/03/21 10:49:02
asfを再生しようとすると
DirectShow フィルタ グラフに存在しないピンに操作を実行しようとしました。
になって再生できません、対策はありませんか?
340:デフォルトの名無しさん
07/03/21 20:05:39
どうやって再生しようとしてんの?それじゃ意味わからんよ。
341:デフォルトの名無しさん
07/03/21 20:42:03
若いの オラが村では派遣労働の問題を口にしちゃなんねーだ
お前さんはまだわけぇから言いたいこともあるべぇ
だべな、派遣問題を口にするとバカにされたと思ってムキになって怒る者がおるでよぉ
てめぇでの責任で派遣やってる癖に派遣問題に触れると逆ギレするバカなんだけどよぉ
そんでもこの問題の指摘は駄目だっぺぇ
派遣のことは口にしちゃなんねぇ
この村みたいな民度ゼロの会社で現実忘れるためにはよ
北朝鮮とか宗教団体と一緒でよ、駄目なものを駄目と言ってはなんねえだべさ
タブーを口にしちゃいけねぇだ
342:デフォルトの名無しさん
07/03/25 16:03:45
変換フィルタを作っているんですが、そのフィルタのコンストラクタでmallocを使って
メモリを確保し、デコンストラクタでfree()で解放するようにしているのですが、
アプリ側でRemoveFilter()をしても、デコンストラクタが起こらないのかメモリが解放されません。
どうすればデコンストラクタを起こすことができるでしょうか?
343:342
07/03/25 16:05:53
↑すみません、デコンストラクタじゃなくてデストラクタです。
344:デフォルトの名無しさん
07/03/25 16:30:43
RemoveFilterってグラフからフィルタを切り離すだけだろ
そりゃデストラクタは呼ばないんじゃねーの?
345:342
07/03/25 18:09:19
>>344
そうみたいですね。
いろいろ考えたんですが、完全に削除できないのなら、そのまま残しておいて再利用しよう、という
方針で組んだところ、望む動作を実現できました。
いちいち削除する必要がなかっただけの話でした・・・。
ありがとうございました。
346:デフォルトの名無しさん
07/03/25 21:29:18
Releaseが完全に行われていないだけだろ。参照のチェック汁。
347:342
07/03/25 23:33:06
>>346
なるほど。
調べてみます。
348:デフォルトの名無しさん
07/03/26 09:07:56
新規質問です。
ピン接続時のメディアタイプを調べたいのですが簡単に調べる方法がないため今回「メディアタイプチェックフィルタ」を作る事にしました。
質問1.調べるフィルタを誰か作ってませんか?
時間をかけず作りたい為、「TranceForm」をベースにしているのですが、このフィルタで入力ピンのみの構成のフィルタはできますか?(テンプレートのピン数を1本にしても2本になってしまいました何故…?)
349:デフォルトの名無しさん
07/03/26 10:16:35
いくら出す?
350:デフォルトの名無しさん
07/03/26 10:17:19
20円
351:デフォルトの名無しさん
07/03/26 12:14:35
>>349
自分なら作るのに3~4時間位かかってしまいそうなので、
時給1000円×4hまでならなんとか。。
でも誰か作っていそうなんでそれを使いたいです。
352:デフォルトの名無しさん
07/03/26 12:53:47
>>348
Dumpフィルタベースじゃダメなんかいね?
あれは入力ピン1コだけど。
353:デフォルトの名無しさん
07/03/26 13:07:03
IBaseFilter::EnumPins
IPin::ConnectionMediaType
それともこっちか
IPin::EnumMediaTypes
簡単だろ?
とりあえず、リファレンスくらい読め。
354:デフォルトの名無しさん
07/03/26 22:49:48
TransformFilterならそのまんまCheckMediaTypeで全部拾えばよかばってん
355:デフォルトの名無しさん
07/03/26 23:39:39
>>354
考え同じ。せっかくだから上位フィルタに優先接続して欲しいタイプも入れられるようにしようかなと検討しとるですばい。
IBaseFilter::EnumPins
これはピンごとに管理したい時につかうメソッドだよ。ピン1つでは実装いらないよ
IPin::ConnectionMediaType
これは再生途中にタイプ変更したい時に実装したほがよさそ
356:デフォルトの名無しさん
07/03/27 00:10:35
突然思い出したんだけどsampleの中にnullnullフィルタだかなんだか
プロパティページで接続タイプ一式が表示されるやつがあったような ないよーな
357:デフォルトの名無しさん
07/03/27 00:40:51
何か違うと思って調べてみたらNullInPlaceだったわ ごめんな
nullprop.cppのNullIPProperties::OnApplyChangesみるといいアルよ
358:デフォルトの名無しさん
07/03/27 00:56:20
なるほどなるほど。
NullIPPropertiesはなかなか難しいことやってますねぇ。。。
理解しずらいや。。
取り敢えず。
上位フィルタとの接続された
フォーマットタイプ、
メディアタイプ、
メディアサブタイプ
をプロパティページで表示できる変換フィルタを作成できました。
フォーマットタイプが「VIDEO」だったら解像度とかフレームレートとか付加情報を
表示できるようにしてみるか。。
このフィルタ欲しい人いる?
まぁきっとだれかもっといいものを作っている人がいるかとは思うのですが
359:デフォルトの名無しさん
07/03/27 01:23:35
ノシ
360:デフォルトの名無しさん
07/03/27 01:30:21
了解。じゃあ
人に使ってもらうには汚すぎなんで
(改造しながら他のフィルタのデバッグしてるんで・・・)
週末にでも機能を絞り込んで
見やすくしてみます。
終わったら、
h URLリンク(ragesakai.web.fc2.com)
にWebpageもってるんであげてみます。
361:デフォルトの名無しさん
07/03/27 11:29:14
ありがたいっす。マタリ待ちます。
362:デフォルトの名無しさん
07/03/28 07:41:45
自分が知らないメディアタイプが結構あるね。
メディアタイプ一覧がわかるサイトさがさなきゃ
接続メディアタイプチェックフィルタでは、最悪知らないGUIDが出てきたら
そのまま貼っとくか…
363:デフォルトの名無しさん
07/03/28 21:21:39
uuids.hでよかばってん
364:デフォルトの名無しさん
07/03/28 21:41:53
九州男児さんありがとう
365:デフォルトの名無しさん
07/03/30 01:03:46
AVIファイルの一部を切り出して 拡大縮小したAVIつくりたいんだけど
元AVI(640,480)でRECT(120,120,440,320)の範囲だけきりだして320x240のAVIにしたり
範囲を拡大して640x480にしたいんですが、サンプルグラバのコールバックつくって
中で処理しなきゃダメですかね?
366:デフォルトの名無しさん
07/03/30 08:24:20
「中」ってどこを指してる?
自分なら映像切り抜きフィルタを作って解決するけどフィルタグラフ側でもできるよ。
フィルタグラフ側でAVIの切り抜きを行った時のサンプルグラバの制御は凄く大変そう…ってか自分には無理なレベル
367:デフォルトの名無しさん
07/03/30 08:30:25
あ、切り抜きの手段としてグラバを使うのか。
グラバで取得した画像は元AVIと同じサイズなんね。なら出来…るかな?
だけどやっぱり、「切り抜き拡大縮小フィルタ」作るほうが簡単なのは間違いない。
368:デフォルトの名無しさん
07/03/30 20:49:08
>>367 TransformFilterで切り抜けばよかばってん。
んで後ろにAviMux、FileWritterとつなげればよかよ。
369:365
07/03/30 21:25:10
サンプルグラバのコールバック=「中」です。
TransformFilterって、ベースクラスのライブラリから自分で作るフィルタですか?
最初から用意されててAddFilterで追加できるなら使ってみたいかも。
370:デフォルトの名無しさん
07/03/30 21:38:03
> TransformFilterって、ベースクラスのライブラリから自分で作るフィルタですか?
んだよ自分で作るんだよ Transformメソッドで好きにいじってよし
んで後ろにAviMuxが繋がる時にね、ビデオの縦横サイズはオリジナルサイズじゃなくて
自分が変更するサイズを提示するったい Muxは提示されたサイズをヘッダ情報に
書いてた気がするばってん
371:デフォルトの名無しさん
07/03/30 22:23:31
IRenderEngine2とかで何とかなるんでしょうか。
DirectShowの編集サービスっての使えますか?
372:デフォルトの名無しさん
07/03/30 22:37:06
質問に答えてくれた皆様ありがとうございました。
ちょっくらトランスフォームフィルタつくってみます。
コンプレッサの前にトランスフォームでサイズ変える処理いれてみます。
CreateDIBSectionでHBITMAPつくってストレッチビルドして試してみます。
373:デフォルトの名無しさん
07/03/31 00:03:12
>>372
作り方は大正解◎。
コツを少々・・・
流す映像のサイズをかえちゃうと
設計が大変になるから
「切り出し」→「拡大」でもとのBMPサイズに合わせるようにすると
いいよ。
それとストレッチベルトを「CTransform::Transform」内でつかうんだけど
ストレッチベルトの関数1つで全体のCPU負荷が15%ぐらい上がってしまう。
もし気になるなら、画像処理ライブラリで置き換えするとよいよ
俺ここんとこ九州男児さんと考え方が似てる。。同じような職種&年齢なんだろうな。
374:デフォルトの名無しさん
07/03/31 00:27:00
おいどんは昔printfをプリンテフと読んで笑われた苦い経験があるばってん
一応つっこんでおくけど、「ブリット」ですたい。
StretchBlt ストレッチブリット BitBlt ビットブリット
375:デフォルトの名無しさん
07/03/31 00:37:23
>>374
ほへ~。初めて知りました。
呼び方は「Blt」⇒「ベルト」と呼んでました。。
言い訳しまくると、自分組み込み系出身でwinアプリ作るの今年から初めた門で。
WinAPIを知らなさすぎる。。この機会に他の呼び方も覚えよう
今後直しますありり^^
そして、メディアタイプチェッカーも明日だらだらし終わったら修正に取り掛かるっす
376:デフォルトの名無しさん
07/03/31 00:42:28
関数の呼び方議論↓
URLリンク(rararahp.cool.ne.jp)
377:デフォルトの名無しさん
07/03/31 00:46:01
>>373
なんか、映像のサイズ変えて保存したいって突然いわれたんで
変更しなきゃいかんのです。
切り出して切り出したサイズで保存なんですよ。
切り出して元の再隋拡大だったらサンプルグラバでおわったのに。
サンプルグラバでCreateDIBSectionかけてmediasampleからバッファとって
データ加工して代入。ここまでは出来てOKだった・・・
ストレッチビルトして正しく終わったのに・・orz...
378:デフォルトの名無しさん
07/03/31 01:09:59
ぶりっとっていう呼び方なんかアレだよね。アレ。
DirectX8からPresent()になったのはホント良かったと思うよ。
379:デフォルトの名無しさん
07/03/31 01:26:56
>>377
ごめん。。
内容的には以前自分が作った「解像度リサイズフィルタ」
これの仕組みがまんまメインになってくるんだが
教えてあげられない。。
自分で調べてくれ。
380:デフォルトの名無しさん
07/03/31 01:57:15
>>379
できたから問題無し。
381:デフォルトの名無しさん
07/03/31 02:28:31
TransformFilterを使わずにビデオソースの拡大縮小と切り出しする方法って無いのかな。
切り出しと拡大縮小ぐらい用意されてるような気がして探し回ってた時期があった。
382:デフォルトの名無しさん
07/03/31 16:37:52
一口にビデオソースといってもRGBやらYUVやら色々あるけんね
拡大、縮小にも色々なアルゴリズムがあるったい 自分の好きなようにつくるのが一番よかよ
どうせつくるならそのへんプロパティページで色々指定できるとうれしいね
383:デフォルトの名無しさん
07/03/31 22:24:58
ここもネガティブさんが沸いてるよ。
自分で調べれって話なら書く必要ないじゃん。
教えて上げられないレス増えるからネガティブさん消えてくれwwwwwwwwwww
384:デフォルトの名無しさん
07/03/31 23:03:57
>>383
DirectShowやってる人の総人口が少ない。
そしてそれが理由なのかここのスレの回答側に立つ人も少ない。
このスレで役に立てばと思って結構回答をしているが、
何が難しいかわかるけど教えてあげられない状況だったので、
放置されるよりはいいと思って書き込みました。
(本スレ後半でageてるやつはほとんど自分)
>>383さんもそんなこと書き込んでないで回答側に回ってくれ
385:デフォルトの名無しさん
07/04/01 00:08:34
まあ内容はともかく、少しでも盛り上がってくれるのは嬉しいわな。
その昔サンプルグラバを知らなかった自分は自前のフィルタ作っちゃったし、
話の流れで知ることもそれなりに多い・・・。かな?
386:デフォルトの名無しさん
07/04/01 03:12:34
>>363
uuid.hではすべてのメディアタイプは乗ってない。
「MEDIASUBTYPE_I420」
が入っていなかった。
387:C++
07/04/01 08:46:54
C++は今最も優れているプログラミング言語だ。C++さえあればなんでも出来る。CGI一つにしたって、今はPerlなんて使わなくても全部C++で出来る。そんなC++を使わないでどうする。
388:デフォルトの名無しさん
07/04/01 13:44:39
「全て」のメディアタイプって概念をどう捉えるかだな
まずはDirectX SDKのindlude、DirectShowのBaseclasses ここのソースで定義されてるものを
押さえておけば良いんじゃないの?
極端な話、guidgen使って自分で独自のMediaType作れちゃうわけだし。
389:デフォルトの名無しさん
07/04/01 22:43:15
MEDIASUBTYPE_I420ってGUIDとしては存在するかもしれないけどどっかのメーカーが勝手に作っただけじゃないの?
DirectShowのオフィシャルな定義としてはMEDIASUBTYPE_IYUVじゃないのか。
390:デフォルトの名無しさん
07/04/01 23:22:10
そういや自分もmplayerの公開されているソースを見て
普通にMEDIASUBTYPE_I420という定義があるものと思い込み、
いざ実装してみたらものの見事に未定義だった、ということがあったなあ。
IYUVとI420は同じフォーマットのようなので、
私もMEDIASUBTYPE_IYUVを使ってますが・・・。
391:デフォルトの名無しさん
07/04/02 09:52:04
拡張可能なばっかりにかえって不毛になってるのか
やれやれ
392:デフォルトの名無しさん
07/04/02 11:49:43
ホントにDirectShowって資料少ないのね。VfW勉強した時も思ったけど
こういう動画処理インターフェースってプログラムとして人気ないのかな?
393:デフォルトの名無しさん
07/04/02 13:56:56
資料は少ないなりに充実してると思うけど・・・
漏れにはACLの方がワケワカメだよ。
394:デフォルトの名無しさん
07/04/02 14:27:52
動画処理に興味をもつほど自由に弄れる動画素材を持ってる人が少ない、
という事情もあるのではないか。
後は仕事になるかどうかとか。
395:デフォルトの名無しさん
07/04/03 20:48:20
+ 三ミヽ、⊂⊃
+ 三ミ |∧η∧
/⌒\ (,,・Д・)<ただいまんこ~オレも便乗して質問だぞ。
+ 川川 l l/つ つ━☆ トランスフォーマーとかいうのをつかって
~( / CTransformFilter::DecideBufferSizeここでメモリを確保する所までたどり着いたぞ。
(/"U 俺も拡大縮小をやりたくて書き込みするぞ。オマンコクロスだぞ。
C言語は7年目だぞ。切実だぞ。
396:デフォルトの名無しさん
07/04/03 22:27:40
>>395
俺は3年目だけど苦労したができたぞ。
で、何がしりたいんだぼけぇ
397:デフォルトの名無しさん
07/04/03 22:32:34
・質問のただしいしかた悪いしかた
【いい例】
ぽまえら!おしえやがれぃい。
QVGAをVGAにリサイズしようと思うんだがDecideBufferSizeというめそで
115200byteしかとれねええんじゃUZEEEEEE!!
これを230400byteとれるようにする方法を教えやがれ
【悪い例】
いつも大変このスレッドを読ませていただき参考にさせてもらっております。
今回拡大縮小をやりたいのですがどのようにしたらいいかわかりません。
C++、MFCはできます。
また自分は過去XXXということをやっておりました。
大変恐縮ですがなにとぞご指導をよろしくお願いいたします
398:デフォルトの名無しさん
07/04/03 22:37:54
まちがえた~
×115200
○230400
×230400
○460800
用は質問の観点を絞り込んでくるかどうかの差だからな
399:デフォルトの名無しさん
07/04/03 23:59:22
⊂⊃
★ ∧η∧
\_(,,・Д・)<>>396 ポンドルウォーリアを特殊召喚する方法がしりたいぞ。
ヽ |フ ナニがしたいのか忘れたぞ!
/_ _| AVIを半分の解像度にして保存したいんだぞ!これが目的だぞ。
逆もあるぞ。オパンツ丸見え!
>>397 うんこちんこまんこ?キョカカカ!あばーあばばー!
参考にさせてもらったぞ。面倒だから、ゴゾブログで質問に答えてくれればそれでいいぞ。
オマンコクロッサー!
400:デフォルトの名無しさん
07/04/04 00:59:12
・・・>>397で極端に書いたのに意味を理解しとらんのでヌルーする
401:デフォルトの名無しさん
07/04/04 01:28:29
メディアタイプチェックフィルタ
作ったぞ
実は裏で機能をいろいろ盛り込んでみたが、
普通の使い方だけしてくれ。
URLリンク(zetubou.mine.nu)
っ【 [zetubou6474.bin] メディアチェックフィルタ 96 application/octet-stream 2007年04/04(水)01:25
これをリネーム
⇒0Mediachk.ax
それをregsvr32で登録
402:デフォルトの名無しさん
07/04/04 01:52:35
ここはム板だ
403:デフォルトの名無しさん
07/04/04 08:59:19
ゴゾブログのプロフ欄の写真の子カワイイ。
写真と引き換えならオニーサンがAVI半分にするフィルタ作ろう。(ただしソースはやれないがな)
404:デフォルトの名無しさん
07/04/04 14:50:04
URLリンク(www.free-codecs.net)
405:デフォルトの名無しさん
07/04/04 16:48:36
>>404
このムーンライトフィルタってさ、カメラがI420の時は接続すらしてくれないんだね。
解像度もメディアタイプも変更してくれるいいフィルタだと思ったんだけど残念
406:359
07/04/04 17:35:35
>>401(>>360の人?)
ありがとう、ダウンロードしてみました。
個人的には結構重宝しそうな感じです。
407:デフォルトの名無しさん
07/04/04 18:23:20
>>360=>>401
です。
ちゃんと動きましたか?
バグを見つけたら速やかに報告よろ。
時間見つけ次第ちゃんとウェブページに反映しとくです。
感謝されるのに生き甲斐を感じた。ありり
408:デフォルトの名無しさん
07/04/04 19:27:31
CBaseVideoRendererでフィルタを作っていて、一時停止中に画面の再描画を
行うためGetCurrentSample()でサンプルを得ています。
サンプルの取得は成功しているのですが、このあとに再生するとDoRenderSample()が
呼ばれなくなって固まってしまいます。
どうしてでしょうか?
409:デフォルトの名無しさん
07/04/04 20:04:25
>>408
Releaseし忘れっぽい
410:デフォルトの名無しさん
07/04/04 21:07:23
⊂⊃
★ ∧η∧
\_(,,・Д・)<ただいまんこ~拡大縮小できたぞ。BokkingFilterの完成だぞ。
ヽ |フ ビデオのサイズが変わらなかったのはフィルタ接続後にサイズ変えてたからだぞ。
/_ _|
CheckTransformでサイズを変更したぞ。
変更したサイズからRGB24で必要なバッファサイズを計算して保存だぞ。
ストレエッチDIBitmapだぞ。それに対してソースからストレッチDIBitsして
完成したぞ。
そして完成した後に次の問題が出たぞ。
時間指定して3分の動画で1分目から2分目を抽出したいんだが
ControlStreamにS_OK帰ってきてもダメポだぞ。
AVI再圧縮で時間指定して抜き出すテクを知ってたら教えて欲しいぞ。オマンコクロスだぞ。切実だぞ。
411:デフォルトの名無しさん
07/04/04 21:12:04
⊂⊃
★ ∧η∧
\_(,,・Д・)<あと、AVI MuxフィルタをキャプチャグラバからFindInterフェラして
ヽ |フ IAMStreamControlを生み出してStartAtとStopAtする方法を作ったんだが
/_ _| ム圧縮AVIなら何とか成功してWMVとかコーデック使うと画像が表示されんぞ。
あと、保存してない間も無駄に待たされて酷い目にあったぞ。
誰かオレがナニをすべきか教えて欲しいぞ。
412:デフォルトの名無しさん
07/04/04 21:36:48
ControlStream(&PIN_CATEGORY_CAPTURE,ぬるぽ,ぬるぽ,開始時間,終了時間、0,0);
⊂⊃
★ ∧η∧
\_(,,・Д・)<キャプチャビルダのコントロールストリームはこんな具合になってるぞ。
ヽ |フ オマンコクロスだぞ。ソースを持って変えれないので具体的に説明できんぞ。
/_ _|
413:408
07/04/04 22:46:10
ありがとうございます。
まさにそれでした。SDKのヘルプに書いてありましたね
414:デフォルトの名無しさん
07/04/04 23:23:04
>>410
素直にこれ使えば?
URLリンク(www.microsoft.com)
URLリンク(www.microsoft.com)
415:414
07/04/04 23:23:49
貼り忘れた
URLリンク(msdn.microsoft.com)
416:デフォルトの名無しさん
07/04/04 23:35:12
⊂⊃
★ ∧η∧
\_(,,・Д・)<>>415 それも考えたんだぞ。大人の都合ってヤツでダメなんだぞ。
ヽ |フ くやしいぞ。オマンコクロスファイヤーハリケーンだぞ。
/_ _| 明日、ためしに作ってみるぞ。
417:デフォルトの名無しさん
07/04/04 23:45:11
いいから↑はほっといてやれ。
418:359
07/04/04 23:57:28
>>407
今のところ問題なさそうですよ。
ただ、スレの流れを見ると私以外で使ってみた人いないのかな?w
もう少し使ってみて気がついたことがあったら報告しますね。
419:デフォルトの名無しさん
07/04/05 00:03:51
>>418
>私以外使ってる人いない…
(´・ω・`)ショボーン
420:デフォルトの名無しさん
07/04/05 21:34:17
おまえら便利なフィルタの一覧サイト作ろうぜ!
あと、××の製品かうと着いてくるフィルタは…とか語ろう
421:デフォルトの名無しさん
07/04/06 11:53:29
つスレリンク(avi板)
・・・とはいえ、思いっきり過疎ってるスレだし>>419のニーズには合わんかな。
ところで質問です。
AddSourceFilterで追加したファイルソースの
出力ピンのメディアタイプを指定する方法はないでしょうか?
あるファイルを指定したとき、ただRender()しただけでは期待しているフィルタに
繋がらない(ファイルソースのメディアタイプがGUID_NULLになっている)ので
強制的に指定してみたいのですが・・・。
422:デフォルトの名無しさん
07/04/06 12:41:37
>>421=>>359さん??
質問は>>419に聞いてるのかな?
だったら応えます。
上流フィルタがカメラとかの入力デバイスの場合は「フィルタのピンプロパティ」から出力タイプを変更できるものがほとんどです。
仮に「動画」などのファイルであれば変換フィルタを噛ます事で変更は出来ますが新たに付けてやることは出来ません。
新規にフィルタを作成すればメディアタイプを付加しる物を作れるよ。
他の方法はわかりません
423:デフォルトの名無しさん
07/04/06 13:13:09
>>422
> >>421=>>359さん??
うわー、なんで分かるの?w
> 新規にフィルタを作成すればメディアタイプを付加しる物を作れるよ。
> 他の方法はわかりません
やっぱりそれしかなさそうですね。
AsyncRdrサンプル辺りをベースに1つ作ってみます。
424:デフォルトの名無しさん
07/04/07 01:07:30
⊂⊃
★ ∧η∧
\_(,,・Д・)<無圧縮タイプのAVIなら時間切り出しできたぞ。
ヽ |フ ただ、無駄に時間がかかるぞ。切り出すまでフィルタにデータが流れて処理してるんだぞ。
/_ _| ポンドルウォーリア特殊召喚だぞ!ゴルァ!
425:デフォルトの名無しさん
07/04/08 10:32:36
>レンダラは知らないけど、画面の上側にプレーヤを持っていくと少し(体感しないけど)
>速くなるらしい。なんかPresent(?)の戻りが早くなるとか言ってた。
これ本当?
426:デフォルトの名無しさん
07/04/08 11:42:57
>>425
画面描写しないぶんタイムスタンプに忠実になるだけかと。。
>>424の話とは全然違う話
427:デフォルトの名無しさん
07/04/08 17:03:02
Presentの戻りって何?
プリロールかな?としても意味通じないし…
予測ツカナス
428:デフォルトの名無しさん
07/04/08 17:45:38
IDirect3DDevice9::Present()の話だな。
429:デフォルトの名無しさん
07/04/09 21:41:47
初心者です。SDKサンプルで分からない点があるのですが、お教え頂けないでしょうか。
プログラム動作としては、3つのmp3ファイルをタイマーで順繰りに再生するだけです。※1
この中でソースフィルタを変更してグラフを再構成する部分で分からない点があります。
流れ
1.新しいソースフィルタをグラフに追加する。
2.古いソースフィルタをグラフから削除する。
3.新しいソースフィルタの出力ピンからRenderする。
2の部分の詳細は以下のようになっています。
A.グラフ内のフィルタを列挙する。
B.列挙された全フィルタについて
a.一旦グラフから削除する
b.古いソースフィルタでなければグラフに追加する
疑問点
b.の部分がある意味がわかりません。自分としては、グラフ内の全フィルタを削除して、新しい
ソースフィルタを追加して、Renderすれば簡単に思えるんですが...
どうかよろしくお願いします。
※1 ソースはSDK_Path\Samples\C++\DirectShow\Players\BGMusicです。
430:デフォルトの名無しさん
07/04/09 22:16:14
SwapSourceFilterのメソッドのこと?
431:デフォルトの名無しさん
07/04/09 23:29:52
>>429
Render は重いから。
432:デフォルトの名無しさん
07/04/10 00:46:05
⊂⊃
★ ∧η∧
\_(,,・Д・)<>>429 サウンドってのは、レンドルァすると全部のcodecを試すんだぞ。
ヽ |フ だから、全て消して再構築すると連続再生とかできんぞ。
/_ _| アイマスの魔法をかけて!から、とかちつくちての連続技の間に途切れるって事だぞ。
433:デフォルトの名無しさん
07/04/10 01:13:25
>>432
やべぇ見直した。。
434:デフォルトの名無しさん
07/04/10 01:55:46
ありがとうございます。
なるほど、それで以前使ったフィルタは残してたんですねφ
ところでその時、つながっていないフィルタがグラフ上に散在している状態ですよね。
その状態でRenderしたら、全Codecを試さず、散在しているフィルタを繋げてくれるんですか?
それともRenderを使わず、ピンを繋ぐ方法が別にあるのでしょうか?
この板のレベルに達するまで勉強して、出直してきます。(時間かかりそう...)
435:デフォルトの名無しさん
07/04/10 07:21:49
⊂⊃
★ ∧η∧
\_(,,・Д・)<>>434 朝勃ち中だが答えるぞ。
ヽ |フ レンダーすっと、フィルタが追加されている物から試すんだぞ。
/_ _| そのため、レンダーする前にvmr9のフィルタとかを入れておくとただのビデオレンダーじゃなくなったりするぞ。
だから、先に自分で作ったフィルタを入れておくと正しく繋がったりするぞ。
もちろん、Renderを使わずにグラフビルダのほうでConnectすることができるぞ。
IPinってのをフィルタから抜き出して接続できるみたいなんだぞ。
使った事無いからうまんちんまんだぞ。
436:デフォルトの名無しさん
07/04/10 07:39:07
⊂⊃
★ ∧η∧
\_(,,・Д・)<なんか、間違ってるかもしれんが許してほしいマンコ!んじゃ為替予想書いてくるぞ。
ヽ |フ
/_ _|
437:デフォルトの名無しさん
07/04/10 12:02:08
すみません、質問いいですか?
今、DirectShowでUSBカメラからサンプルグラバでBMPをキャプチャするプログラムを作っています。
コールバックを使用してキャプチャをしようとしているのですが、
SetOneShotを使って1フレームだけキャプチャすることは出来ないのでしょうか?
ためしにSetOneShot(TRUE)としてみても、コールバックされ続けてしまいます。
438:デフォルトの名無しさん
07/04/10 17:56:39
出力ピンがオーディオとビデオの2つある、Splitterフィルタを作成しています。
フィルタのGetMediaTypeでは、ピンによって2通りの設定が必要と思っています。
(オーディオの方の出力ピンからGetMediaTypeが呼ばれた場合はオーディオの値をセット、
ビデオの出力ピンからGetMediaTypeが呼ばれた場合はビデオの値をセットというように。)
しかし、GetMediaTypeでは、現在どちらの出力ピンから呼ばれているのか判別できないのですが、
どうしたら良いでしょうか。
出力ピンのクラスは同じものを使っているのですが、オーディオ用のピンクラス、ビデオ用の
ピンクラスと別に作成しなければならないのでしょうか?
439:デフォルトの名無しさん
07/04/10 19:30:13
>>438
自分がどっちのピンかを区別して処理を変えればいいじゃん。
440:デフォルトの名無しさん
07/04/10 21:10:34
⊂⊃
★ ∧η∧
\_(,,・Д・)<>>437 ただいまんこー!ドピュンコしたあとに、コールバックを外せばOKだぞ。
ヽ |フ コールバックをセットしたままだと永遠にデータが流れるぞ。
/_ _| オレだったらSampleCBのあるクラスに BOOL m_Ochinpoいれて
データを流したくない時はfalseいれて SampleCBのなかでreturn S_OKしちゃうぞ。
オマンコクロッサー!
441:デフォルトの名無しさん
07/04/10 21:13:06
⊂⊃
★ ∧η∧
\_(,,・Д・)<>>438 IPin淫乱フェラにあるQueryPinInfoで解決できる気もするぞ。
ヽ |フ 俺も調べないと分らんぞ。スマソだぞ。力になれんぞ。
/_ _|
442:デフォルトの名無しさん
07/04/10 22:06:54
VBプログラマにVisual C++を教えるスレ★ Part25
443:デフォルトの名無しさん
07/04/11 00:10:36
>>441タソ
フィルタ内部の話だからQueryはちがうとおもうぞ。
自分も>>439の意見に賛成です。
①純粋仮想メソッドGetPinを実装してピン番号を取得
②GetMediaTypeにてまず①を呼び出す。
③ピン番号が「1」ならビデオだから・・・メディアタイプ「Video」を要求
④ピン番号が「2」ならAudioだから・・・・メディアタイプ「PCMAudio」を要求
iPositionにて要求するものをそれぞれ数個書いてやればいいかな。。
444:デフォルトの名無しさん
07/04/11 00:49:17
⊂⊃
★ ∧η∧
\_(,,・Д・)<>>443 オレはトランスフォーマーフィルタで1対1の戦いしかやったこと無かったぞ。
ヽ |フ これでピンが複数あるフィルタも手だせそうだぞ。
/_ _|
445:デフォルトの名無しさん
07/04/11 00:50:19
>>444
コンボイの謎を2週くらいクリアしとけ
446:438
07/04/11 14:38:35
返事ありがとうございます。
>>439
僕はどっちのピンか区別できなくてコマッてます…
>>443
GetPinはピン番号を指定して、その番号のピンを取得するのだと思うのですが。
それだとピンの区別はできなくないですか?
実際には、フィルタはm_pOutputAudioとm_pOutputVideoの二つの出力ピンを持ってます。GetMediaTypeの中で、CBasePin::Name()でピンIDを取得して、判断しようかと思いましたが、結局ピンの指定によって取得値が変わってしまいます。
m_pOutputAudio->Name() とすればAudioが返るし、
m_pOutputVideo->Name() とすればVideoが返るので、
結局どちらのピンかわかりません。(両方が存在するので当たり前ですが)
※m_pOutputAudio,m_pOutputVideoはフィルタ作成時に作られます。
どうしたらよいですかね…
447:デフォルトの名無しさん
07/04/11 14:59:29
>>446
if (pOutputAudio == this) {
//オーディオピンの処理
} else {
//それ以外
}
448:448
07/04/11 17:09:38
>>447
参考にします。
フィルタのGetMediaTypeでピンを判別するから良くなかったみたいです。
フィルタのGetMediaTypeは、出力ピンのGetMediaTypeからコールされるので、
出力ピンのGetMediaTypeでどっちのピンか判断し、それを記憶しておくことにしました。
CSplitterOutputPin::GetMediaType()
{
if(0==lstrcmpW(this->m_pName, L"Audio")){
//フィルタのメンバ変数にオーディオだと記憶させる。
m_pSplitterFilter->m_bOutputPinAudio=true;
}
else{
//フィルタのメンバ変数にビデオだと記憶させる。
m_pSplitterFilter->m_bOutputPinAudio=false;
}
return m_pSplitterFilter->GetMediaType();
}
↑のようにして、フィルタのGetMediaTypeでは、m_bOutputPinAudioを見て、
オーディオ、ビデオの設定をするようにしました。
一応接続はこれで上手くいきました。何かとても簡単な質問をしてしまった気がしますが…
449:デフォルトの名無しさん
07/04/18 22:36:27
1500円の2割引はいくら?
時速80km/hで走る車が1時間何キロ走る?
・・・ポカーン
450:デフォルトの名無しさん
07/04/19 00:29:28
⊂⊃
★ ∧η∧
\_(,,・Д・)<1500円の2割引きは計算不能だぞ。俺の脳が再起不能(リタイア)したぞ。
ヽ |フ 時速80kmでオレは走れないので1時間も車を見張れないぞ!
/_ _| 果てしなく遠くが答えだぞ。
451:デフォルトの名無しさん
07/04/19 06:23:08
都合でDirectshowを使い始めることになりました初心者です。
Webカメラで取った映像を扱いたいので、SDKにあるAMCapを参考に機能を探しているのですが
キャプチャした動画をaviではなくmpeg1等で圧縮して吐き出したいのですが
フィルタを何処の関数で挟めばよいのでしょう。
あと、映像のガンマや彩度等がプロパティで調整できてしまいますが、これはなんのフィルタを使用しているのでしょうか?
初心者質問すいません。
452:デフォルトの名無しさん
07/04/19 07:35:23
>>451
プロパティはソース見りゃわかるんじゃない。
以下推測
色調節のフィルタが存在するのではなくて
キャプチャデバイスやそのピンのプロパティじゃないのか。
Webカメラのデバイスドライバが変わればその機能も変わる。
MPEG-1エンコーダって標準装備か?
俺持ってない。存在しないフィルターは使えんよな。
453:デフォルトの名無しさん
07/04/19 07:54:41
沖縄県の方へ(命に関わる注意事項です)
沖縄県での選挙ですが、どうか民主党だけは避けてください。県民の生命に関わる可能性があります。
民主党の最大の公約は一国二制度(※)ですが、一度「一国二制度 沖縄」等で検索をお願いします。
この際、民主党のHPで調べても良いです。以下の注釈↓と矛盾することは書いてないはずですから…
※一国二制度
簡単に言えば沖縄を中国と日本の共有物にし、そこに3000万人の中国人を入植させます。
(つまり沖縄人口の 96% を中国人にして、実質、沖縄を中国人の居住地とします。)
さらに「自主」の名の下、沖縄で有事が起きても自衛隊は干渉できません。
3000万人の中国人が、少数派となった130万人の日本人に何をしても、です。
そして中国人の反日感情の強さは、ほとんどの日本人の理解を超えるものです。
今回の選挙で民主党が勝った場合、「自主」「発展」を連呼しつつ段階的に進めていくことになります。
自主と言っても、自主を認めるのが「住人の96%が中国人となった」後だということに気をつけてください。
発展と言っても、新沖縄の少数派となった「少数民族日本人」の発展ではないことに気をつけてください。
454:451
07/04/19 14:09:38
>>452
えっと、回答ありがとうございます。
トライ&エラーしながら死んでおります。
>色調節のフィルタが存在するのではなくて
>キャプチャデバイスやそのピンのプロパティじゃないのか。
...確かに、自宅で違うWebカメラで試したときは、設定ダイアログの内容がぜんぜん違っていましたね。
>MPEG-1エンコーダって標準装備か?
もう一度探しなおしたデコーダーだけで、エンコーダーはありませんでした。死んできます。
aviだと保存するにも重いから、実用的なサイズに直して自動保存しておいてって言われたんですが、asfかモーションJPEGかDVか、しか使えないのかな?
まぁ、いくらか頑張ってみます。
455:デフォルトの名無しさん
07/04/19 21:04:09
TMPEGEnc買っちゃいなYO!
456:デフォルトの名無しさん
07/04/19 23:22:24
>>455
GRAPHEDTがあれば買わなくてもいいな俺は。
>>454
MPEG4のコーディック2なら標準装備であるよ。
GraphEdtで↓な構成を書いてみるよろし
「WebCam」→「MPG4Codec2」→「AUXMix」→「FileWriter」
んで「WebCam」のPinプロパティを開いてみる
自分の思った通りに出来る場合
⇒そのままコーディング
自分の思った通り出来ない場合
⇒出来る方法を模索
をやっといた方がはやい
457:454
07/04/20 10:39:55
どうもです、回答ありがとうございます。
一応あの後がんばった結果、DV形式とモーションjpegでは圧縮に成功しました
「うーん、なんかサイズ大きいね。asfで圧縮できない?」
といわれたわけで、メディアフォーマットSDKを読んで泣いています。
小さければ文句言われないのでmpeg4の方が楽かもしれません。
なんか進歩日記みたいになってすいませんが...。
458:デフォルトの名無しさん
07/04/20 20:55:50
>>457
御礼を言うのは大変素晴らしいが、どこまで書いたことを理解できたのか
解るように(回答が的外れでなかったか知りたい)
内容についても一言触れて欲しかったな
と、会社では立場が最下層回答者の愚痴。
459:デフォルトの名無しさん
07/04/20 21:39:00
最後志貴の方、速度で無い中、対戦お疲れ様でした。
飯食うので、この辺で。
460:デフォルトの名無しさん
07/04/20 22:14:15
あ、はい。もうなんか恥ずかしいですがこの際だから正直に言います。
>GraphEdtで↓な構成を書いてみるよろし
>「WebCam」→「MPG4Codec2」→「AUXMix」→「FileWriter」
ここらへんから実は分かっていません。
GraphEdtは分かるのですが、圧縮用のcodecをどう呼び出せばいいのか…
directshow標準のDVだと
CoCreateInstance( CLSID_DVVideoEnc, NULL, CLSCTX_INPROC_SERVER, IID_IBaseFilter, (void**)&pDvFilter);
と書いたら作れたんだけど、標準外のものはクラスIDを何処で知れば良いんだと悩んでおりました。
そこで摘んだのでasfでの圧縮を模索したのですが、なかなか動くコードにならないで今日が過ぎていきました
461:デフォルトの名無しさん
07/04/20 22:51:49
>>460
ふむ。成る程。
GraphEdtでのフィルタ登録の操作の仕方なのかそれをコーティングするときの方法なのかわからんです。
Clsid(クラスIDの事ね)がわからないと言ってるから↓↓がわからんのでは??
>自分の思った通りに出来る場合 ⇒そのままコーディング
ClsidはGraphedtでフィルタ登録する時に表示されてるよ。
それとも「Graphedt.exe」のアプリを「フィルタグラフ」(コーティング上の概念)と勘違いしてるのかなぁ…
462:デフォルトの名無しさん
07/04/20 23:07:45
asfはWM ASF ライターを登録して入力ピンにつないでやるだけだから
圧縮コーデックの列挙が必要なavi再圧縮に比べたらよっぽど簡単だよ。
463:460
07/04/21 06:14:41
これは直にソース出してみた方が良さそうなので。
以下asfの書き出しの部分です。(短くするためにエラー処理省略です
IBaseFilter *pAsfFilter;
hr=CoCreateInstance(CLSID_WMAsfWriter, NULL, CLSCTX_INPROC_SERVER, IID_IBaseFilter, (void**)&pAsfFilter);
hr = gcap.pBuilder->SetOutputFileName(&MEDIASUBTYPE_Avi, L"cccc.asf", &pAsfFilter, &gcap.pSink);
hr=gcap.pFg->AddFilter( pAsfFilter, L"asf filter" );
pAsfFilter->Release();
hr = gcap.pBuilder->RenderStream(&PIN_CATEGORY_CAPTURE, &MEDIATYPE_Video, gcap.pVCap, NULL, pAsfFilter );
このコードだとファイルの書き出しはしてくれるんだけど、何故か無圧縮aviが出力される。何ででしょうね…
> ClsidはGraphedtでフィルタ登録する時に表示されてるよ。
Gapheditでフィルタ選択したときに出るDisplayNameの、 {ランダムな文字} の間の部分って事ですね。
多分理解しました。
464:デフォルトの名無しさん
07/04/21 12:37:04
MEDIASUBTYPE_Aviだからじゃねーの?
465:デフォルトの名無しさん
07/04/21 13:49:11
>>463
ちゃんとMSDNでリファレンス見てから書いたほうがいいよ。
CoCreateInstanceでCLSID_WMAsfWriter作らなくても
SetOutputFileNameが作ってpAsfFilterに入れてくれる。
URLリンク(msdn2.microsoft.com)
URLリンク(msdn2.microsoft.com)
466:460
07/04/23 04:44:00
お返事が送れて申し訳有りません。
一応頂いたアドバイスからちまちまと頑張っております。
>>465
hr=CoCreateInstance(CLSID_WMAsfWriter, NULL, CLSCTX_INPROC_SERVER, IID_IBaseFilter, (void**)&pAsfFilter);
hr = gcap.pBuilder->SetOutputFileName(&MEDIASUBTYPE_Avi, L"cccc.asf", &pAsfFilter, &gcap.pSink);
上2行からCoCreateInstance関数でのインターフェースの取得をやめて、メディアサブタイプをMEDIASUBTYPE_Asfに改めたのですが、何故かエラー。
どこかまだ問題があるのかも知れません。
というわけで、他のcodecに逃げる方に切り替えて、Graphedit.exeを弄りながらクラスIDを探したのですが書いたグラフをGRFファイルで書き出して、無理矢理テキストエディタで開いたら、それらしいクラスIDがあったので
キャプチャカード -> ffdshow -> File Writer
とフィルタを繋いだ所、無事に書き出しに成功しました。
サイズ的には納得してもらえそうな所にまぁ、落ち着きました。
フォーマットがXViDですが、あはは…。
> >>454
> MPEG4のコーディック2なら標準装備であるよ。
そこなのですが
・MPG4Codec2
・AUXMix
の2つのフィルタがちょっと見たりませんので上の様に逃げています(汗
探し方が足りないのかな?
とりあえず、相手に見せてみます。ありがとうございました。
まだ格闘しなければいけないところがあるので、ほとほと困ったらまた来るかもしれません。
467:デフォルトの名無しさん
07/04/25 16:01:46
以前に出力ピンが2つある場合の出力ピンの区別のことで質問させてもらったのですが、
スプリッタの2つの出力ピンからデータを出力するようにしました。
が、再生すると何も表示されません(音も映像も)。
一方の出力ピンだけ接続し、もう一方の出力ピンは未接続の状態にすると再生はできます。
しかし、オーディオ、ビデオ両方を同時に再生しようとすると、どちらも
再生されなくなります。
原因は何が考えられるでしょうか。
468:デフォルトの名無しさん
07/04/25 16:15:00
それはただのバグっぽいぞ・・・
各ピン(のインタフェイス)は別々のスレッドから呼ばれる可能性があることを
ちゃんと考慮した作りになっているか、デッドロック等はないか、など考えてみるべき。
あと「再生されません」ではなく、グラフのステートが再生状態になるのかならないのか、
なる場合には停止で止まるのか止まらないのかなど、プログラマらしい情報の出し方を
469:467
07/04/25 19:34:56
>468
もともと1つの出力ピンのソースに、無理やりもう1つの出力ピンを
追加したのが問題かもしれません。
基本的にm_pOutput(元々あった出力ピン)が出てくるところに、
もう1つのピンの処理を追加したような感じです。
>あと「再生されません」ではなく、グラフのステートが再生状態になるのかならないのか、
>なる場合には停止で止まるのか止まらないのかなど、プログラマらしい情報の出し方を
すみません、情報不足でした。GraphEditで確認しているのですが、
再生ボタンを押した後、再生状態にはなっているようです。
しかし、停止ボタンを押すとフリーズし,
The graph was unable to complete pause within 10 seconds.~
という警告がでる状況です。
470:デフォルトの名無しさん
07/04/25 19:37:18
deliver で送るプッシュ型のピンですよね。
2つある場合はそれぞれ別のスレッドで動く必要がありますが、
そのあたりは問題ありませんか?
471:467
07/04/25 20:27:13
>>470
deliverは使ってませんが、内容は一緒です。
プッシュ型です。
具体的にはフィルタのReceiveでは、下記のようにしてます。
if(m_bOutputSampleAudio)
{
// オーディオならオーディオピンから出力
if(m_pOutput->IsConnected())
return m_pOutput->m_pInputPin->Receive(pSample);
}
else
{ // ビデオならビデオピンから出力する
if(m_pOutputVideo->IsConnected())
return m_pOutputVideo->m_pInputPin->Receive(pSample);
}
1つのスレッドで動かしているような気がします。
スレッドを別々に持つとは、オーディオピンがストップしたとしても、
ビデオピンは関係なく出力できる、みたいな感じですよね。
どう実装すればいいのか…
472:デフォルトの名無しさん
07/04/25 21:15:13
ビデオレンダラにつながっているピンのReceiveが時間調整のためにブロックすると、
オーディオレンダラにつながっているピンにもデータが来なくなるので、
時間が進まなくなって永遠にブロックするという動作。
出力ピンをCSourceStream から派生させて実装するのが base classes 的には常道。
パースしたビデオ、オーディオのデータをそれぞれのピンの中の Queue (自分で作ること)
に入れておいて、FillBuffer で Queue にあるデータをもとにメディアサンプルを作る。
個人的にはスプリッタを作るなら、ソースフィルタのサンプルコードをもとにして
出力ピンと入力ピンを追加するのが簡単だと思う。
473:デフォルトの名無しさん
07/05/08 16:19:57
質問です、Direct3Dで、ゲーム中のテクスチャに動画ファイルの映像の
ビットマップを入れ、音声もゲームのカメラ位置に従って右の方にあれば
右寄りの位置から聞こえてくるようにしたいのですが、
とりあえず入門にあるようなSampleGrabberを使う方法ではなく
RendererFilterを継承するのが正解なのだろう、というところまでは
わかったのですが、フィルタを継承して自前で書くのにstreams.hとやらが
ありませんでした。Windows2000ではWindowsSDKがインストールできないので
迂回策を探しています(ちょっと前のPlatformSDKには入ってませんでした・・)。
Windows2000上でフィルタを継承するようなコードを書いてる方は、
どのようにやっているのでしょうか?
他にも「別にRendererFilterを継承しなくてももっといいやり方がある」とか
ツッコミがあればお願いします。
474:473
07/05/08 16:25:19
すみません、間違えてさげてしまったΣ
ついでに訂正・・・
×streams.hとやらがありませんでした。
○streams.hとやらが必要みたいですが、ありませんでした。
何がやりたいかわかりやすく書くと、
ゲームの中のテレビに任意の動画を流したい、ということです。
475:デフォルトの名無しさん
07/05/08 18:11:28
>>473
D3Dのテクスチャに動画をレンダリングするのは、
SDKのサンプルにそのものずばりのがある。
DirectShow 関連のSDK が利用できないのであれば、
動画ファイルをWMVなりAVIで用意して、AVI関連APIや
Windows Media Format SDKでデコードすれば良いと思う。
476:473
07/05/08 18:42:40
回答ありがとうございます!
>WMVなりAVIで用意して、AVI関連APIやWindows Media Format SDKでデコード
なるほど!動画関連のAPIに詳しくなかったので盲点でした。
その辺はこれから調べようと思うんですが、一つ質問させてください。
>SDKのサンプルにそのものずばりのがある。
これなんですが、WindowsSDKのことでしょうか?
最初DirectXSDKのサンプルかと思ったのですが見当たらなかったので・・・
477:デフォルトの名無しさん
07/05/08 19:01:25
>これなんですが、WindowsSDKのことでしょうか?
そうです。
Windows 2000 だと Windows server 2003 SP1 Platform SDK を利用することになります。
SDK の導入あたりから書かれたページを見つけたので読んでみてはいかがでしょうか。
URLリンク(www.shader.jp)
478:デフォルトの名無しさん
07/05/10 01:38:59
DirectShowに足突っ込んで間もないのですが、質問です。
VMR9を使って動画の再生を行おうとしているのですが、動画の
元サイズとアスペクト比を取得しようと
IVMRWindowlessControl9::GetNativeVideoSizeを使っているのですが、
このメソッドのセットする値が期待した値になりません。
long x, y;
long aspx, aspy;
HRESULT hr = pVMRWindowlessControl9->GetNativeVideoSize(&x, &y, &aspx, &aspy);
このコードで720×480のmpeg2ファイルを読み込むと期待としては
x = 720
y = 480
aspx = 4
aspy = 3
こんな感じになると思っていたのですが、実際は
x = 720
y = 540
aspx = 720
aspy = 540
となってしまいます。元々のサイズとアスペクト比を取得したいのですが、
これではできません。他の方法があるのでしょうか?
ちなみに、IBasicVideo2を使うとちゃんとできるんですよね。他の機能を実装
するためにVMR9を使わざるを得ないのですが・・・
479:デフォルトの名無しさん
07/05/16 14:14:00
どうもすいません。
Webカメラから取った動画を保存できるようにプログラムを書いたのですが、そこまで完成したのを見せたところ。
「こんどはコレ再生して、再生時間を表示できるようにできないかな?」
と言われてしまいましたが、正直何を使って実現すれば良いかどうかから思い当たるところがありません。
そのインターフェースを使えばよいかどうかだけでも、教えていただけないでしょうか…。
IAMDroppedFramesあたりかな、とも思ったのですがいまいち思ったように動いてくれていません。
480:479
07/05/16 14:43:41
すいません。
先ほど、話をしなおしたのですが。私の勘違いがあって。
「Webカメラから取った動画」に「現在の時間」を残せないか?という要求でした。
具体的には動画の何処かの隅っこに、現在時間を画像として書き込んでしまうようなものを想像していたみたいです。
質問するのではなく、自前でフィルタを書くべきみたいですね。すいませんでした。
481:デフォルトの名無しさん
07/05/16 17:19:42
でも正確なキャプチャ時刻を得るのは難しいよな。
誤差が33ms以内とか
482:デフォルトの名無しさん
07/05/17 00:56:53
あぁ。僕もそんな要望きたからやった。
単に秒まで出すだけならたやすい。
インプレイスフィルタが1番楽。次点は資料がたくさんあるトランスフォームフィルタ。
1・TranceFormメソッドをオーバーライド
2・IMediaSampleからDIBポインタをとる
3・DIB→デバイスコンテキストに変換
4・WinAPIのTextOutで文字書く
5・デバイスコンテキスト→DIB変換
たったこれだけでおk
483:460
07/05/20 19:49:18
ごめんなさい。弱音を吐きます。
結構頑張ったけど、2,3のステップの所のコードが作れません。
484:デフォルトの名無しさん
07/05/21 05:05:45
時間でいいなら、必要な文字の画像を準備して、合成するだけでいいんじゃね?
厳密なアルファブレンドだと処理が重いから、切り抜き程度でいいと思う。
485:デフォルトの名無しさん
07/05/21 08:39:41
CreateDIBSectionとかググれ
486:デフォルトの名無しさん
07/05/21 15:14:30
>>483
客の要求仕様に基づいてプログラムを作ってるならしようがないけど、もしかすると
「>>460 が作業する工数 >>>>>>> 撮影時に時計を一緒に写す手間」じゃないか?
もしそうなら道楽で予算を無駄遣いしてることになるから、正直適当なとこでやめて
本業に精を出した方がいいような気がする・・・
487:483
07/05/21 17:40:41
みなさん、ありがとうございます。
>>484
うん、最初にそんな感じのことを思いついて、ドット絵の様な汚い文字を無理やり表示させてみました。
どうしても気持ち悪いので、なんとかしたいですが、後回しかも…。
>>484
ヒントありがとうございます。
後日完成を目指すです。
488:デフォルトの名無しさん
07/05/21 21:30:57
フィルタを作成しているのですが、リリースモードでビルドした場合に、そのフ
ィルタを使用すると強制終了が起こってしまいます。
コンパイルエラーは出ません。
デバッグモードでビルドした場合は、問題は起こりません。
強制終了が起こる場所は、おそらくmallocをしているところだと思います。
正確にはmallocを使用している関数で落ちるのですが、その関数の内部は見えま
せん。
デバッグとリリースで、mallocが使えないことってあるのでしょうか。
489:デフォルトの名無しさん
07/05/21 21:47:43
>デバッグとリリースで、mallocが使えないことってあるのでしょうか。
ありません。
490:デフォルトの名無しさん
07/05/22 03:24:02
GrapEditをホストにして普通にデバッガで追ってみれば?
491:488
07/05/23 00:27:49
何かよくわかりませんが、msvcrt.libをリンクしないようにしたら上手く行きました。
どうもありがとうございました。
492:デフォルトの名無しさん
07/05/23 08:32:54
>>460よ
フィルタを作るのが最善の解決方法かどうかまだ悩んでいるようだけど自分はそれが1番楽な方法だと思う。
俺はヒントというかフィルタの作り方手順を書いたものだが、手順2、3のどこがわからんのか明確化してくれ。
手順3については>>485で調べられると思うけど
493:483
07/05/24 10:22:39
>>492
どうも、お手間をおかけして申し訳ありません。
インプレイスフィルタということで、SDKサンプルのEZrgb24を基本に作っておりました。
フィルタのTansform関数で、引数としてIMediaSampleを受けりますが
これを
・DIB形式に変換
・それをデバイスコンテキストの代入
のところで躓いておりました。
一応やっつけ実装で納得はしてもらったのですが、自分で恥ずかしいので、後で直したいというのが正直なところです。
若輩者で申し訳ありません。
494:デフォルトの名無しさん
07/05/24 21:37:23
いや、俺も若輩ものだから…。楽なのはソースを渡して解析して貰う事なんだがな
それすら今は体力的に自信ない
495:デフォルトの名無しさん
07/05/25 02:39:17
ちょっといいことを教えてあげよう。
EZrgb24ってさインプレイスフィルタじゃないお( ・ω・)∩
違いはね。何のフィルタクラスを継承してるかで決まるんだ
ちなみに「EZrgb24」は「CTransformFilter」を継承してるお
496:デフォルトの名無しさん
07/05/25 03:59:41
WinAPIのDIBってボトムアップ形式のみでなかった?
497:デフォルトの名無しさん
07/05/25 08:12:46
ボトルアップってどういう意味?
座標原点の話しかな。DIBは他画像形式に比べると上下逆さまだけど、変換時にY座標をマイナス値を指定すればどうとでもなる
498:デフォルトの名無しさん
07/05/25 08:34:21
ボトムアップなら単語そのままの意味だが
ボトルアップは飲み終わったボトルを投げ上げるという意味だな
499:デフォルトの名無しさん
07/05/25 18:04:09
なるほど~私はてっきりボトルを飲み干す事かとおもたよぉ~
で、、意地悪しないでDIBのボトムアップを教えてくれ
500:デフォルトの名無しさん
07/05/25 23:13:53
>>497でほざいていることがまさにボトムアップ
つーかキーワードがこれだけでてんのに自力で検索くらいしようとは思わんのかね
501:デフォルトの名無しさん
07/05/25 23:26:22
ただ単にBITMAPの話じゃん 画像いじるなら基礎の基礎
502:デフォルトの名無しさん
07/05/26 12:58:18
自作ソースフィルタってどうやってフィルタグラフに追加するんですか?
IGraphBuilder::AddSourceFilterを使ってもデフォルトのソースフィルタが呼ばれるし、
普通のフィルタ同様に、
CoCreateInstance&AddFilterすると、ソースフィルタに読み込むファイル名が指定できません。
503:デフォルトの名無しさん
07/05/26 20:01:49
>>500
>>496の聞きたいことの意味がわからんかっただけで
俺は知ってるからおk。
今日はPCだからしらべてみたけど、ボトムアップという表現
はあんまり使われてないぞ??
■Google調べ 「DIB ボトムアップ」検索結果
っミ【114件】
504:デフォルトの名無しさん
07/05/26 20:27:02
DirectShow スレということで、本家のDirectShowカテゴリ内のページ。
トップダウンとボトムアップの、メモリ上のピクセルの並びの違いについてごくごく簡単に説明している
Top-Down vs. Bottom-Up DIBs
URLリンク(msdn2.microsoft.com)
サンプル画像のセンスの無さには相変わらず笑わせてくれる。
505:デフォルトの名無しさん
07/05/26 21:27:48
ありがとう。本家MSDNが使ってる言葉なのか
今後使っていくよ。
まぁBITMAPの仕様の話であって
あんまりDirectShowとは関係ないとこで使うことになりそうだけど
506:デフォルトの名無しさん
07/05/26 21:32:32
>>502
ごめんボトムアップに気を取られていた
自作フィルタを登録する方法はコマンドラインから
「regsvr32 ぱす&自作フィルタ.ax」でレジストリ登録が必要です。
その後「Graphedt」でフィルタグラフに登録できることを確認するんだよ
それでもできなかったらまた質問しましょう
507:502
07/05/27 02:21:11
>>506
すいません、説明不足でしたが、レジストリ登録、GraphEditでの確認は出来ています。
ただアプリケーションから自作ソースフィルタを使ってファイルを読み込む方法がわかりません。
GraphEditで追加したときは、読み込むファイルを聞いてくるのですが、アプリからソースフィルタを追加しても、ファイルを聞いてこないのです。
508:デフォルトの名無しさん
07/05/27 04:22:30
なるほど。
窓枠の提供はどこがやるの?って事だと認識しました。
自作ソースフィルタを「GraphEdit」で開いた場合、
ファイル選択ウィンドウはディスクトップ画面のド真ん中に出ますか?
もし真ん中に出ない場合、「hWnd」をデスクトップから取っていないことになります。
アプリケーションから渡してやる(=ファイル選択ウィンドウを作って選択結果をフィルタに渡すような設計)
にしてやる必要があるかと思います。
自作ソースフィルタのファイル選択ダイアログを出す部分のソースを晒せば解決できると思いますよ
509:デフォルトの名無しさん
07/05/27 04:26:48
ソースフィルタはIFileSourceFilterインターフェースを持ってるでしょ。
AddFilterした後でそれを呼び出して(QueryInterface)、Loadメソッドを
実行してやるんだよ。
でも、そんな基本的な所でつまずいてるのにソースフィルタ自作とかよく出来たな。
510:デフォルトの名無しさん
07/05/27 12:31:49
手っ取り早くソース晒せといいたい
511:502
07/05/28 12:17:00
>>508,509,510
回答ありがとうございます。
>>509
まさにそれでした!ありがとうございました。
無知ですいません。
512:デフォルトの名無しさん
07/05/28 18:24:46
簡易動画編集のようなことをやるために、複数の動画ファイルを連結して1つのファイルにエンコードしようとしています。
いまのところ、ファイルごとに構築した再生用のフィルタグラフから静止画を取り込みまくって
録画用のフィルタグラフに流し込むやり方を考えているのですが、
こういうバカっぽいやりかたでなく、もっとエレガントな方法はないもんでしょうか。
513:デフォルトの名無しさん
07/05/28 23:44:50
この辺を使ってビデオ再生やってます。
IGraphBuilder
IMediaControl
IMediaEventEx
IVideoWindow
IBasicVideo
ビデオ再生自体は問題ないのですが、サウンドデバイスが複数
あった場合に、音声の出力先を指定するにはどうしたら良いで
しょうか?
現状、Windowsの標準のサウンドデバイスのみ音が出ます。
よろしくお願い致します。
514:デフォルトの名無しさん
07/05/29 00:38:22
DirectShowを使わない
515:デフォルトの名無しさん
07/05/29 03:07:01
ええええええ
まじっすかあああ?
DirectShowって使えねーなぁ!!
ゴミじゃん。M$てめえやる気あんのか?殺すぞ
516:デフォルトの名無しさん
07/05/29 06:00:31
>>515
真偽の程が全く不明な一文にそこまで熱くなれるのもすげえな
517:473
07/05/29 14:57:28
かなり亀レスですみません、あまり作る暇なくて
少しずつやっていたんですが、出来ました。
教えていただいた
URLリンク(www.shader.jp)
↑ここと、あとはここのサンプルソース↓
URLリンク(www.greenwood.co.jp)
を見ながらやって作れました。
(下のURLのサンプルソースは、多分GraphEditで使えるようなDLLとして作るものではなく、
ほぼCBaseRendererを継承してメソッド書いてるだけだったのでわかりやすかったです)
色々ありがとうございました。次は音を取得するのに挑戦しまつ ヽ( `・ω・)ノ
518:デフォルトの名無しさん
07/06/01 16:33:46
test
519:デフォルトの名無しさん
07/06/01 17:49:21
DirectShow編集サービスでWMV9のAVIファイル作ろうとしてるんだけど、
エンコードパラメータの設定がうまくできません。
IAMVfwCompressDialogsで出したダイアログだと、変更が反映されないし。
かといってWMV9フィルタの出力ピンからIAMStreamConfigをqueryしてGetFormatするとエラーになります。
AviUtilだとうまくやっているみたいなんですが、やり方が間違ってるんでしょうか・・・
520:デフォルトの名無しさん
07/06/10 04:56:19
__
/:::::::::::::`ヽ_ _
n /::::::::::::::::::::::::::l l L_
,─' ヽ_ _|::::::::::::::::::::::::/) / _彡__
三_ ヽ、 l/::::::::::::::::::::::::ヽ / ∠, - 、:::::::\
`丶、 `/::::ノT` ^ 'l´l:::::|´ /(・|・)) |::::::::::::ヽ
`ヽW ̄  ̄W /ヽ、_●_/ \::::::::l
`1 l ヽ /'´`\_|__三、ヽ::::|
l / / | __ | l:::l
l |__\( ヽ-'"´) //:/
/ , |::::::::::ヽニ二二ニ_∠_'/__
| l /つ 、/(〒) ヽ::::::::::::::::::
521:デフォルトの名無しさん
07/06/10 23:23:28
すいませんが教えてください。
この↓を参考にしてMFCで動画再生アプリを作っているのですが、
URLリンク(www.geekpage.jp)
DirectShowで動画再生しているウインドウが、別のウインドウの陰に隠れてから
手前に表示されたときなどに再描画されません。
再描画するにはどうすればいいですか?
522:デフォルトの名無しさん
07/06/10 23:34:50
ビデオウインドの親ウインドでWM_ERASEBKGNDをDefaultWindowProcに渡さない。
523:デフォルトの名無しさん
07/06/10 23:50:53
>>522
できました。ありがとうございます
524:デフォルトの名無しさん
07/06/11 22:13:25
まさかだが、>>520 は DirectShow にかけたネタなのか?
525:デフォルトの名無しさん
07/06/11 22:36:29
どらえもんだとおもいます
526:デフォルトの名無しさん
07/06/11 22:43:54
直見せというか、モロダシ?
527:デフォルトの名無しさん
07/06/12 07:31:58
ドラえもんShoWです。
スマンむしゃくしゃしてやった。
今は反省してる
528:デフォルトの名無しさん
07/06/12 10:11:14
静ちゃん・・・
529:デフォルトの名無しさん
07/06/12 21:39:31
静ちゃんは原作名だよね。
原作も途中からアニメに合わせて「しずかちゃん」になってる。
最近にふにふ動画やようつべを見てるんだけどフレームレート変更フィルタ作れば「速聞」みたいなサービス作れるかな
530:デフォルトの名無しさん
07/06/12 21:49:48
最近ようつべてw
いつの人間だよ
531:デフォルトの名無しさん
07/06/14 01:02:27
新しいほうがいいにきまってる
::::::::::::::::::::::::::::: ,.-ヽ
:::::::::::::::::::::: ____,;' ,;- i へ、 /;へ\
:::::::::::::::::: ,;;'" i i ・i; // _l::|___l::|_ヽ:ヽ
::::::::::::::: ,;'":;;,,,,,, ;!, `'''i; / ̄ ̄ ̄ ̄\,, |l/-、 -、:::::::::::::::`::|
::::::::::: ,/'" '''',,,,''''--i / __ヽ /::::::| ・|・ | 、::::::::::::::\
::::::::: ;/ .,,,,,,,,,,,,,,,,, ;i'⌒i; | | |、 /::/ `-●-′ \:::::::::::ヽ
::::::: i;" ___,,,,,,, `i". | ∩─| | ,|/ ─ | ─ ヽ:::::::::|
::::::: i; ,,;'""" `';,,, "`i; | ∪ `l |. ─ | ─ .|::::::::|
::::::: | ''''''i ,,,,,,,,,, `'--''''" ヽ __/ _.ノ | ─ | ─ |:::::_l__
::::::: |. i'" "; |―― 、". ヽ (__|____ /::::| 新 |
::::::: |; `-、.,;''" /  ̄ ̄ ̄ ̄^ヽ∞=、 \ /:::,/| 品 |
:::::::: i; `'-----j | | | |っ:::::) l━(t)━━┥ |___|
532:デフォルトの名無しさん
07/06/16 00:31:23
Platform SDK インストールしたけど、GraphEdit入ってなかった
533:デフォルトの名無しさん
07/06/16 06:58:35
>>532
C:\Program Files\Microsoft Platform SDK for Windows Server 2003 R2\Bin\graphedt.exe
534:デフォルトの名無しさん
07/06/16 14:14:45
カメラって暗くなると露光を変化させるためにフレームレートがころころかわるやん?
フレームレートを一定にするフィルタを作った人いる?
535:デフォルトの名無しさん
07/06/16 15:54:38
>>533
あ、あった。さんきゅー
スタートメニューにショートカット作ってよねー
536:デフォルトの名無しさん
07/06/16 16:27:00
フレームレートがころころ変わる??
537:デフォルトの名無しさん
07/06/17 00:43:24
>>536
うん。そのカメラの最低露光付近で以下を調べる
「カメラ」-「レンダラ」
の接続で「レンダラ」のプロパティ「品質」タブ
平均フレーム率が明るさで変化するのがわかるよ
538:デフォルトの名無しさん
07/06/17 00:51:45
操作説明する前に何の設定をしている場面なのかを言ってくれ
我々はエスパーじゃないんでね
539:デフォルトの名無しさん
07/06/17 02:49:07
確かにそういうカメラもあったような気がする。
っていうか安物のカメラは結構フレームレートいい加減だったりする
540:デフォルトの名無しさん
07/06/17 02:58:43
>>537
「そのカメラ」ってどのカメラよ?
541:デフォルトの名無しさん
07/06/17 03:47:55
つかカメラやらタブやら、話が唐突すぎるし悪文だしで理解不能
542:デフォルトの名無しさん
07/06/17 08:57:09
プロパティ「品質」タブってグラフエディットでの話か?
だとしたらあれはソースそのもののフレームレートではないよ?
俺ならよくわからん糞カメラだけのためのフィルタなど作る気にはなれないな
543:デフォルトの名無しさん
07/06/17 16:58:49
まあ作ってやってもいいが、ここから先はビジネスになるよ
544:デフォルトの名無しさん
07/06/17 17:22:39
たぶんグラフエディットのことだろうね。
ところでソースそのもののフレームレートじゃないっていうのはどういうこと?
レンダラが捨てるって事?
545:デフォルトの名無しさん
07/06/17 18:00:33
>>543
まじで?たのむ っ⑩
>>544
ソースフィルタが一定間隔に絵を出してこなくなるということだよ
レンダラが捨てるわけではないみたい
546:デフォルトの名無しさん
07/06/17 18:32:00
>>545
>ソースフィルタが一定間隔に絵を出してこなくなるということだよ
>レンダラが捨てるわけではないみたい
つまりソースフィルタが実際に出力しているフレームレートだよね。
それが明るさで変動するね、って話だったと思うんだけど。
547:デフォルトの名無しさん
07/06/17 19:12:30
>>546
うん。その話です。
私は「フレームレートを一定にするフィルタを作った人はいますか?」
という質問をした者なんですが、
暗いときに光を映す場合、フィルムに光を取り込む時間を長めに
取ってやる必要があります。ちゃんとした画像を取り込むのと
シャッタースピードはトレードオフ関係になるのかと思います。
一般的なカメラは上記を自動で行っているので周囲の明るさが変化すると
フレームレートがころころ変わっていく・・・と思っています。
これを時系列処理が必要なフィルタに通した場合問題がおきるので、
フレームレートを一定にするフィルタが必要なのでは?と考えています
どなたか作成した人はいらっしゃいませんか?
548:デフォルトの名無しさん
07/06/17 19:21:29
>>544
メディアタイプとしてののフレームレートってことだとおもう。
レンダラのレートはレンダラが表示できてるレートってことじゃね?
デコーダがうんこだったりPCすぺっくがうんこだと激低かと
549:デフォルトの名無しさん
07/06/17 19:26:05
カメラって何だ?デジカメ?かむコーダ?
記録するフォーマットは何よ?グラフ構成は?DirectShow経験有り?
出すべき情報が出てない感じ。
550:デフォルトの名無しさん
07/06/17 19:36:52
>>549
カメラ・・・USBカメラ(Qcam)を想定していただければいいです
記録フォーマット・・・なし。記録してもしなくてもよし。
グラフ構成・・・ソースフィルタのみ。
ただ、見るために「ソース」-「レンダラ」でお願いします
Directshow経験・・・およそ3ヶ月。画像関係の変換フィルタ作成ならわかるくらい
>>548
PCスペックが悪くてフレーム落ちすることはこの際無いという前提でお願いします
>>538->>548
「ソースフィルタのフレームレートが外光によって変化すること」
に話の争点がいっていますが、できれば
「フレームレートを一定にする変換フィルタ」についての事を話したいです。