【質問】dfl【その3】at SOFTWARE
【質問】dfl【その3】 - 暇つぶし2ch2:名無しさん@お腹いっぱい。
20/12/13 21:03:30.09 faeRPvMB0.net
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。
・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。
DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
URLリンク(github.com)
URLリンク(mrdeepfakes.com)
URLリンク(mrdeepfakes.com)
URLリンク(www.deepfake.xyz)
URLリンク(seesaawiki.jp)

3:名無しさん@お腹いっぱい。
20/12/13 21:05:20.53 faeRPvMB0.net
リクエスト禁止
DFLとかAIとかに文句つけるのは禁止
技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須
ダウンロード方法
URLリンク(mega.nz)
インストール方法
ダウンロードした
DeepFaceLab_CUDA_build_date.exe をダブルクリックし自己解凍形式)、D:\(Dドライブなどルート)などに解凍する。

4:名無しさん@お腹いっぱい。
20/12/13 21:06:09.28 faeRPvMB0.net
動画制作のおおまかな流れ
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(convert)
7.書き出した画像を動画にする

5:名無しさん@お腹いっぱい。
20/12/14 01:51:13.80 FjI7Qd0F0.net
6. は merge ではなくて?

6:名無しさん@お腹いっぱい。
20/12/14 02:05:24.44 aVt/a1LC0.net
>>5
mergeです。情報が古くてすんません

7:名無しさん@お腹いっぱい。
20/12/14 22:08:54.99 jlKE0V5a0.net
なんだ日記か…

8:名無しさん@お腹いっぱい。
20/12/15 04:16:58.56 hwUlEsRf0.net
自治厨ェ…

9:名無しさん@お腹いっぱい。
20/12/15 06:18:15.66 aa22ZlrX0.net
顔が画面からフェードアウトするときのことで質問があります。
顔が画面の2/3消えたくらいでsrcへの置換がされずdstの顔が表示されます。
その部分だけマニュアルで顔を切り取っdstのalignedフォルダに追加しましたが、
mergeすると相変わらずdstの顔のままになっています。
alignedフォルダに入っている画像の部分を置き換えてくれるのかと思っていましたが違うのでしょうか?
ファイル名は動画の流れに合うように連番になっています。

10:名無しさん@お腹いっぱい。
20/12/15 07:45:47.08 kZfxVZgL0.net
マニュアルでっていうのはRe~みたいなデバッグ消したファイルをextractするbat実行したってこと?
それとも例えばwinPhotoみたいな他のソフトでトリミングした画像の名前だけ変えてalignedに入れたってこと?
前者ならわからん
後者なら意味ない

11:名無しさん@お腹いっぱい。
20/12/15 09:08:09.20 OerpmQQP0.net
未抽出の顔は、DFLで手動抽出するしかないと思います
メタ情報が入らないでしょう

12:名無しさん@お腹いっぱい。
20/12/15 09:31:00.13 aa22ZlrX0.net
マニュアルの意味は

13:名無しさん@お腹いっぱい。
20/12/15 09:32:22.61 aa22ZlrX0.net
すいません、途中で送ってしまった・・・
マニュアルの意味は
5) data_dst faceset extract MANUAL.bat
でファイルを作ったということです。
11さんが言ったDFLで手動抽出とはこれを使うということですよね?

14:名無しさん@お腹いっぱい。
20/12/16 00:42:36.29 ztwcSGgL0.net
5) data_dst faceset extract MANUAL.bat
は使用した事は無いのですが
とにかくDFLで抽出すればいいのでしょう
何か、DFLで抽出した顔のローテーションが違うとかで
勝手に回転させたりしたりはだめだとか
debugから消して、手動再抽出とかは上手くいっています

15:名無しさん@お腹いっぱい。
20/12/16 14:22:06.27 RFv2Li0A0.net
今年の8月からDFLをアップデートしていないのですが、改良はされてますかね?

16:名無しさん@お腹いっぱい。
20/12/17 01:37:53.71 NxWOtusT0.net
08_02_2020使用していますが
hdアーキの代わりに-udとか
軽くなってlr_dropout=Trueに最後していい感じ
Xsegはなかなかいいんじゃないですかね

17:名無しさん@お腹いっぱい。
20/12/17 02:38:10.76 nZutQQ6b0.net
質問なんだが、この画像のあとKeyを押すと進めない
この現象になるときと、trainでちゃんと学習するときがあっておそらくは作業中に強制終了させたりするとこの現象が起こると思ってるんだが、本当にこれが理由であってるんだろうか?
それと、この現象に陥ったときに1から始めるの面倒なんだが方法ってない?

18:名無しさん@お腹いっぱい。
20/12/17 02:38:26.03 nZutQQ6b0.net
URLリンク(i.imgur.com)

19:名無しさん@お腹いっぱい。
20/12/17 20:56:32.53 KusLfrvY0.net
お前は二度と来るな!!!

20:名無しさん@お腹いっぱい。
20/12/17 21:11:00.65 DOy7qOo30.net
3070おじさん早速出禁食らってて草

21:名無しさん@お腹いっぱい。
20/12/17 23:14:09.49 hXxkmTMU0.net
もしかしたらとてもレベルの低いことかもしれないけど質問させてください。
dst素材で顔に手が被っている場合の対処としては、
XSegで手の部分を顔以外(破線の囲い)と指定してやればいいのでしょうか?
(素材数枚でやる必要あり?)

22:名無しさん@お腹いっぱい。
20/12/17 23:24:28.31 KusLfrvY0.net
なんでやる前に質問するんだよ

23:名無しさん@お腹いっぱい。
20/12/18 19:08:25.22 jVkj4tZx0.net
21です。
22さん、ごもっともです。
実はやってはみたんですが、上手くいっていません。
それの原因が回数なのかmaskの当て方なのかそもそものmaskの考え方が違うのかわからず、
あのような質問になりました。

24:名無しさん@お腹いっぱい。
20/12/19 00:29:11.41 2gW2kMY60.net
URLリンク(mrdeepfakes.com)
手とか笛とかは、フォーラムにある画像でXseg Trainで結構上手くいくと思いますけど
それで上手くいかない場合のみ、結構少数枚数でも手動Maskするといい感じみたい

25:名無しさん@お腹いっぱい。
20/12/19 00:32:15.88 VLdZaMbM0.net
>>23
手がどれくらい被ってるか分からんけどこんな感じでやってる
何枚かマスクしてXsegやってマスクに適用し編集でチェック
ダメなとこあったらマスク追加でXseg
URLリンク(i.imgur.com)

26:名無しさん@お腹いっぱい。
20/12/19 20:51:18.05 Wt8/fXrj0.net
>>25
あれ?眉毛って顔に入れないんでしたっけ?

27:名無しさん@お腹いっぱい。
20/12/19 21:08:03.29 D0kdx6n60.net
それは自由だ
大体眉に髪かかってるの多いから避けるのが無難と思う

28:名無しさん@お腹いっぱい。
20/12/19 21:22:09.98 Wt8/fXrj0.net
眉なしでdstのXsegを作ったら顔入れ替えの時にsrcも眉から下が適用される、って考えてあってます?

29:名無しさん@お腹いっぱい。
20/12/19 21:53:43.56 /L/JgTI+0.net
>>28
うんマスクされるから

30:名無しさん@お腹いっぱい。
20/12/19 21:55:58.22 /L/JgTI+0.net
補足srcも眉から下でマスクしてます

31:名無しさん@お腹いっぱい。
20/12/19 21:59:27.63 Wt8/fXrj0.net
なるほど!ちょっと試してみます。

32:名無しさん@お腹いっぱい。
20/12/19 22:41:01.14 Wt8/fXrj0.net
あれ?ちょっと思ったんですけど、
フェイスタイプはFで基本やってたんですけど眉から下でマスクするならHにしちゃっていいんですよね?

33:名無しさん@お腹いっぱい。
20/12/20 05:00:28.89 5bFtS3MH0.net
mask処理をしたら仕上がりが倍以上よくなった。
ここの人たちありがとう!

34:名無しさん@お腹いっぱい。
20/12/20 09:27:09.85 7xq9z9kO0.net
>>32
halfだと、顎のあたりとかの色合わせ、色のなじみが悪くなる場合があるのでは?
src、dst次第かも

35:名無しさん@お腹いっぱい。
20/12/20 09:28:40.66 5bFtS3MH0.net
>>34
そうか。確かに。
Fでやってて問題ないのでそのままやってみます。

36:名無しさん@お腹いっぱい。
20/12/21 13:05:13.28 qO0rZz2d0.net
loss値0.1で能面が治らないんですが、ここまでやっても治らないのはsrcが足りてないんでしょうか?

37:名無しさん@お腹いっぱい。
20/12/26 11:25:01.65 2VH+8smV0.net
別スレでAdaBeliefで学習が速くなると聞いて、最新版を試したけど
特に速くなってなくない?
ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる

38:名無しさん@お腹いっぱい。
20/12/27 15:10:55.43 nyl/b2Pw0.net
AdaBeliefは理論的には速くなってるはずだけど、dflがそんなに効率よく取り入れてるかどうかはわからない
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う

39:名無しさん@お腹いっぱい。
20/12/28 15:07:20.09 knwf3sOp0.net
質問させて。
過去スレにあったdst×dstのやつ。
dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。
その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?
src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。
宜しくです。

40:名無しさん@お腹いっぱい。
20/12/28 15:12:39.58 s3HDd8Cy0.net
日記君登場!

41:名無しさん@お腹いっぱい。
20/12/28 15:16:58.59 knwf3sOp0.net
すまない日記さんとやらではないです。
初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。
試してるんですが、いまいち上手くいがず迷ってます。

42:名無しさん@お腹いっぱい。
20/12/28 21:25:25.38 Abx4SwYw0.net
dstxdstをどこまでやるかは、人それぞれでしょう
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ
srcのaligned画像を入れ替える時は、dstの画像は全て削除

43:名無しさん@お腹いっぱい。
20/12/29 08:16:49.11 ZYoYNgkw0.net
>>42
dst画像は全削除でよかったんですね。
ありがとうございます。
プレビュー確認し、途中でマージしてみる。
分かりました。ありがとう。

44:名無しさん@お腹いっぱい。
20/12/29 10:27:32.77 UQjgRLtJ0.net
dstのコピーとか削除とかやらずにバッチファイル内のsrcとdstのフォルダを同じにすればいいだけじゃないの?
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど

45:名無しさん@お腹いっぱい。
20/12/30 12:31:43.43 1XD/DpP60.net
掲示板どこも止まってる?
マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります?

46:名無しさん@お腹いっぱい。
20/12/30 15:53:06.18 T1hMrvgO0.net
view aligned debug resultsでおかしいの削除してMANUAL RE-EXTRCT DELETED ALIGND_DEBUGやってる?

47:名無しさん@お腹いっぱい。
20/12/30 17:30:34.24 tMTsPyYn0.net
>>46
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。

48:名無しさん@お腹いっぱい。
20/12/30 19:13:48.50 gK81YVBv0.net
>>47
data_dst.mp4を顔抽出した後に解像度変更や不要シーンカット等、再編集してない?

49:名無しさん@お腹いっぱい。
20/12/30 19:21:21.77 gK81YVBv0.net
>>48
ごめんなさい
data_dst.mp4というより、そこからコマごとに切り出した画像群が顔抽出時~mergeで構成が全く同じであるか?ですね

50:名無しさん@お腹いっぱい。
20/12/30 20:37:59.31 s24E4MLf0.net
>>49
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。

51:名無しさん@お腹いっぱい。
20/12/31 11:12:56.21 CSbjdsl+0.net
おま環だな

52:名無しさん@お腹いっぱい。
21/01/04 13:50:37.88 DXZqWVCn0.net
== 04.01.2021 ==
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。

53:名無しさん@お腹いっぱい。
21/01/08 07:16:50.90 ZrmCeq1m0.net
dstとsrcを1枚でやったらめっちゃ早く静止画のコラできるんじゃないかと思ってやってみたけど、
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。

54:名無しさん@お腹いっぱい。
21/01/09 00:49:44.07 fBepmN1R0.net
メモリ8×2,gpu8 のマシンで動かしているのですが、メモリ使用率が90%、gpu使用率が15%程度なのですがこんな物なのでしょうか?
gpuの使用率を上げる方法ありましたらご教示いただきたいです

55:名無しさん@お腹いっぱい。
21/01/09 01:41:01.75 b3UZuNTN0.net
タスクマネージャーのGPU使用率は当てにならない
ELSA GPU Optimizerみたいの使ってみて

56:名無しさん@お腹いっぱい。
21/01/09 02:30:36.20 J7ol4gHn0.net
動画からの画像抽出をGPUで行うことはできないのでしょうか
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい

57:名無しさん@お腹いっぱい。
21/01/09 05:59:01.12 Ws9CPkEd0.net
trainの途中でアーキテクチャをliaeに変えたいんですが、
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?
また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。

58:名無しさん@お腹いっぱい。
21/01/09 10:06:15.87 b3UZuNTN0.net
>>57
不可能

59:名無しさん@お腹いっぱい。
21/01/09 10:47:33.06 NoIegefL0.net
>>54
タスクマネージャーのグラフのとこのcuda見ればめっちゃ使ってるのがわかると思うよ

60:名無しさん@お腹いっぱい。
21/01/09 12:59:18.51 Ws9CPkEd0.net
>>58
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。

61:名無しさん@お腹いっぱい。
21/01/10 11:46:47.48 a/Mpc8zA0.net
rtx3090使ってる人Xseg使えてます?
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります

62:名無しさん@お腹いっぱい。
21/01/10 12:07:59.77 YmtG7pSH0.net
>>55

63:名無しさん@お腹いっぱい。
21/01/10 17:38:20.88 S6XwlXVn0.net
俺の3080も確かに3Dが使われている
というか、そもそもcudaの項目がなくなっとるぞ

64:名無しさん@お腹いっぱい。
21/01/10 22:31:30.71 GjVlp6Gj0.net
>>63
RTX3000系もDFL安定して動作する様になりましたか?

65:名無しさん@お腹いっぱい。
21/01/10 23:01:04.87 S6XwlXVn0.net
>>64
最近までxegが動かない問題があったけど
最新版でGPUスケジューリングをONにしろって
て表示が出ててきてONにしたら動くようになったよ。
俺の3080はもう問題なし

66:名無しさん@お腹いっぱい。
21/01/10 23:04:30.82 a/Mpc8zA0.net
色々と調べてみましたが3000台は学習初動でvram使用計算にバグあるっぽいですね
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます

67:名無しさん@お腹いっぱい。
21/01/10 23:15:26.34 ldHKuG2D0.net
ついに3000番台を買うときが来たのか

68:名無しさん@お腹いっぱい。
21/01/10 23:16:58.06 S6XwlXVn0.net
>>66
凄く有益な情報ありがとう
いままでHEADだと256*4bachが
限界だったのに320*8でも動くようになったよ
3080tiが出るまで待とうと思ってたけど、
必要なくなったw

69:名無しさん@お腹いっぱい。
21/01/13 03:27:20.99 BcOqF2sv0.net
>>65-68
どうもありがとう
確かCudaコアが倍増とか??1 Iterも短縮?
消費電力は減るはVRAMは増えるは安くなるはで前世代から見て改善だらけかな?

70:名無しさん@お腹いっぱい。
21/01/13 04:50:01.39 gs+03oev0.net
3070よりVRAMの多い3060の方がこのスレ的には良いのかな

71:名無しさん@お腹いっぱい。
21/01/13 09:51:29.09 xmKQtiaT0.net
顔抽出の精度って学習されないんでしょうか?
debugフォルダ見たら何回やっても失敗が多いんですが。。。

72:名無しさん@お腹いっぱい。
21/01/13 18:44:02.83 3Hac03cm0.net
1080Tiから変える価値あるかな...
悩ましい

73:名無しさん@お腹いっぱい。
21/01/13 18:54:12.78 N8pw1+uI0.net
3060がvRam12GBで330ドルらしい
これ買いやろ

74:名無しさん@お腹いっぱい。
21/01/17 23:32:57.31 GF9iGrUJ0.net
顔画像をheadで切り抜きしてるけど上下にすごい余白ができる
余白ギリギリで切り抜いてほしいんだけど、調節する方法あるかなぁ?

75:名無しさん@お腹いっぱい。
21/01/17 23:57:25.58 2v/zwxJ80.net
>>74
headはそもそも頭部全体を切り抜くってアルゴリズムだから余白が多いのが当然だろ
head>Whole>full>harfで範囲が小さくなるんだから変更するしかないんじゃない?

76:名無しさん@お腹いっぱい。
21/01/19 00:28:39.19 LTGWcQnS0.net
>>75
そりゃそうだが縦幅の半分近く無駄にしている。
おかげでVRAM馬鹿食いの割に低解像度。
もうちょっと何とかなりそうだと思うが。

77:名無しさん@お腹いっぱい。
21/01/19 07:29:56.86 FSUOoPPp0.net
head最強だよな まんま本人に仕上がる

78:名無しさん@お腹いっぱい。
21/01/19 22:18:21.22 LTGWcQnS0.net
3080Tiが無期限延期になってしまった
3090にせざるを得ない

79:名無しさん@お腹いっぱい。
21/01/19 23:21:07.32 SW7ZtdJ70.net
ReadyToMerge model 良さそうだね

80:名無しさん@お腹いっぱい。
21/01/20 11:05:33.37 P6q7UDGa0.net
ときにみんなどこいったの?解散?

81:名無しさん@お腹いっぱい。
21/01/20 19:37:33.17 E0VTRomg0.net
俺はここにいるぞ

82:名無しさん@お腹いっぱい。
21/01/20 21:12:28.49 Eo6BWrtN0.net
ReadyToMergeモデルってのはごく少ないtrain回数で高品質なマージができるって意味?
特別なプログラムがあるわけじゃなくて、効率的なtrainのやり方って感じかな。

83:名無しさん@お腹いっぱい。
21/01/21 09:44:21.31 xgOvuSRQ0.net
RTMmodelはパターン豊富なsrcとdstにPretrain用データを使って事前に十分学習させとけば、本番のdstで全く学習せずにいきなりmergeしてもいい感じに合成できるよってことで合ってる?

84:名無しさん@お腹いっぱい。
21/01/21 10:01:04.01 79km7b5Y0.net
モデルの使いまわしを1つのsrcだけで効率よくするって感じか

85:名無しさん@お腹いっぱい。
21/01/22 23:56:02.92 65mc9Ut00.net
>>77
headって、背景やsrcとdstの髪型に気を遣って
AAEとかDavinci Resolveで後処理しないといけないんでしょ?

86:名無しさん@お腹いっぱい。
21/01/23 09:02:57.54 fUZZe34M0.net
>>85
確かに背景と髪の境界線は多少ちらつくので気になる人は映像処理するといいかも。
自分は我慢できる範囲。そこはデメリットかな。ちなみに顎と首の境界線はwf同等なので
だいじょうぶ。マスクはwfよりかはxseg-editの枚数増える感じ。なによりもdst関係なく
本人そっくりになるのがメリット。

87:名無しさん@お腹いっぱい。
21/01/23 11:35:03.15 6S5RB2j60.net
>>86
ふだん、耳・前髪・横髪含む前頭部とメガネ残しでxseg-editして、wfで回してるんだけど
趣旨考えるとやっぱりheadに移行したほうがいい結果いなりそうだな
xseg-editも髪の残す境界に悩まず全部マスクできれば枚数増えても逆に楽になるのかな
寝てる時とかの逆立ち毛や、長髪についても抽出した画像内では全部頭部としてマスク内に残してやってる?

88:名無しさん@お腹いっぱい。
21/01/23 11:52:56.82 Wkj8eEdW0.net
てかヘッドってsrcの髪型も揃えるんよね?
resなんぼでやってる?
224とかじゃ小さ過ぎるか

89:名無しさん@お腹いっぱい。
21/01/23 14:18:05.56 fUZZe34M0.net
髪は長髪でも頭部としてマスクしています、さすがにすこし乱れているのまでは
カットしてますが。xsegが思ったよりすごくて、長髪でもちゃんと学習してぴったり
合ってくるのは驚いた。マスクはdstもsrcも両方必須ですね。resは448です。
mrにあるpretrainモデルもheadだと少ししかないのであまり選択の余地はないですね。

90:名無しさん@お腹いっぱい。
21/01/23 14:37:43.30 Wkj8eEdW0.net
>>89
448は俺のpcじゃ無理だ!
GPUは3090ですか?

91:名無しさん@お腹いっぱい。
21/01/23 14:57:58.15 2xJk3k4U0.net
>>89
ほうほう
fでそれなりに満足できてたけどheadに手を出してみたくなった

92:名無しさん@お腹いっぱい。
21/01/23 15:11:05.79 XmNWxByt0.net
headて短髪インタビューじゃないと厳しいかなと思ってたんだが凄いな
マスク処理、448のトレイン
作るのにどれくらいかかるんや...

93:名無しさん@お腹いっぱい。
21/01/23 16:08:12.73 1USTDxg40.net
1660sでは無理そうだな・・・

94:名無しさん@お腹いっぱい。
21/01/23 16:31:38.58 fUZZe34M0.net
>>90
gpuはそうです。wfで満足したかったが、dstの相性が悪いのか、モデルが似なかったので
やむなくですね。

95:名無しさん@お腹いっぱい。
21/01/24 09:34:39.67 PR92PFvw0.net
俺の3080(VRAM10GB)ではres352のbatch4でギリギリ回る
res448なら16GBは最低必要だろうね
8GBのグラボでSLIを組むか、3060の発売を待つか、3090がいいだろうね。

96:名無しさん@お腹いっぱい。
21/01/24 10:26:30.03 Vxr9RyIP0.net
2080tiどころかTITAN Xでも怪しいくらいか
3080tiは凍結っぽいし現状は3090になるな
Vramもメモリ増設くらい簡単に増やせればいいのに

97:名無しさん@お腹いっぱい。
21/01/24 10:49:05.70 GaLlRUJ/0.net
これのために3090買えてマスクに時間かけられるやつがどれくらいいるかだな...
使えるシーンも限定されるだろうし

98:名無しさん@お腹いっぱい。
21/01/24 14:16:52.68 PR92PFvw0.net
>>96
TITAN RTXならアリだね、
パソコン工房で14万で販売されてた形跡がある
演算速度は3080に負けるらしいけど、14万なら魅力的。

99:名無しさん@お腹いっぱい。
21/01/24 21:00:07.87 GAwZNhtZ0.net
>>89
情報ありがとう!やってみてダメだった時の徒労感が嫌で忌避してたけど
headでやってみる気力がわいてきた!
>>95
1080ti(11G)でliae-ud、res384、ae等デフォ、batch5は行けそう
adabelief切ればres416ならどうかなっても思ったけど、切る気にはならなかった。

100:名無しさん@お腹いっぱい。
21/01/24 23:04:26.06 u14CN91H0.net
mrにはheadであと 320と240の pretrain済モデルがあるので
自分の環境に合ったので試してみるといいかも。

101:名無しさん@お腹いっぱい。
21/01/27 01:34:22.08 gC+kjNVK0.net
なんかみなさんResが高いですねえ
いけるのか?

102:名無しさん@お腹いっぱい。
21/01/29 17:51:49.93 xArR9kmF0.net
>>96
VRAMとかは基盤に直付けで無いと、低速なのかな
メモリだけCPUのメインメモリも使うと、遅くなるんですかねえ

103:名無しさん@お腹いっぱい。
21/01/30 01:06:24.02 qNhMh9NT0.net
モデルの使いまわしをしてるんですが、プレビュー上のグラフ表示だけリセットする方法ってないですか?
まぁ気にするなって話なんですが

104:名無しさん@お腹いっぱい。
21/01/31 10:17:39.06 AUjud4w80.net
たしかに気になるw

105:名無しさん@お腹いっぱい。
21/01/31 10:32:33.04 qldx7Bc70.net
俺は高解像度だとプレビューの顔画像が1個になるのを何とかしたい

106:名無しさん@お腹いっぱい。
21/02/06 20:31:00.06 7UxgC66u0.net
フォーラムに上がってるジェネリックxsegの使い方がよくわからないんですが
modelフォルダに突っ込んでマージするだけでsrcとdstにはxsegマスクを
特に必要とせず済むように使うためにあるんですか?
それとも5.XSeg.optional) trained mask for data_src - apply等を実行して
srcやdstに適応してからまたxsegのtrainをしてやる必要があるんですか?

107:名無しさん@お腹いっぱい。
21/02/06 20:44:24.21 C9Pbm6kr0.net
やってみれば良いんじゃないの
恐らくフォルダに突っ込んどけばマージは出来る
でもapplyした方がtrainの効率は良いだろう

108:名無しさん@お腹いっぱい。
21/02/07 13:19:04.10 EISinFZl0.net
顔入れ換える系のこれより、ひんむく系の方が画質悪いけど興奮するわ
違う?

109:名無しさん@お腹いっぱい。
21/02/07 16:11:40.42 abPpdZtz0.net
>>108
ひんむく系は今どっかあるの?

110:名無しさん@お腹いっぱい。
21/02/07 17:19:02.06 EISinFZl0.net
>>2のフォーラムのtools and appsに前から専用スレッドがたってる
スタンドアロンツールとオンラインサービスがある
オンラインのやつはコツ掴めば中々すごい画像を生成する
解像度が600*600と低いが..

111:名無しさん@お腹いっぱい。
21/02/07 17:25:32.17 EISinFZl0.net
現状解像度低いから、興奮するのかも知れんが
顔入れ換える系は高解像だから、顔にあったボディをしっかり選ばないと俺の脳は受け付けないのかもしれん

112:名無しさん@お腹いっぱい。
21/02/07 22:54:52.32 5hohS1jB0.net
すみません
headで学習してますが、いざmergeSAEHD実行してもdstの顔しかでてきません
dstもsrxもheadで切り抜いてます。
対処方法教えてくださいませんか

113:名無しさん@お腹いっぱい。
21/02/08 00:25:59.91 PLWgGX+60.net
pretorainモデルの使い方がわかりません
普通に実行するとdstとsrcとは違う外人の顔がでてきます

114:名無しさん@お腹いっぱい。
21/02/08 02:09:41.03 t6ym3FLe0.net
trainの下準備みたいなもんだから、その知らん外人でtrainするのがpretrain

115:名無しさん@お腹いっぱい。
21/02/08 06:26:59.84 1E+vYgdz0.net
ありがとうございます。
pre trainの効果は、トレインが早い、角度に強くなるであってますか

116:名無しさん@お腹いっぱい。
21/02/08 14:28:47.57 Yy3LRlrT0.net
>>110
どれのこと言ってるの?
顔入れ替えと服脱がすやつしかなくないか?

117:名無しさん@お腹いっぱい。
21/02/08 19:40:15.85 PLWgGX+60.net
>>114
ありがとう

118:名無しさん@お腹いっぱい。
21/02/08 20:24:06.83 GUE+qRrc0.net
pretrain用のpakの中身は「自分が過去に使ったsrc/dstを適当に混ぜた物」と入れ替えるのお勧め
loss値じゃなくて、previewでキツい角度や表情がキレイになる位まででおk

119:名無しさん@お腹いっぱい。
21/02/10 20:30:39.54 96f2SSGm0.net
aedimは512にしてますか?
pretrain見るとあんまりしてないからそこまで重要じゃないのかな

120:名無しさん@お腹いっぱい。
21/02/10 21:56:17.31 k4diDgZd0.net
aedims512でadabelief trueにするとbatch size1でもtrain始められなくない?

121:名無しさん@お腹いっぱい。
21/02/11 09:50:18.65 ykF3+vXs0.net
pretrainではなく普通のトレーニング済みモデルってどこかにありますか

122:名無しさん@お腹いっぱい。
21/02/11 10:04:39.76 xZn5iYJL0.net
捕まりたいのか

123:名無しさん@お腹いっぱい。
21/02/11 10:08:17.03 ykF3+vXs0.net
だからみんなpretrainでアップしてるのか
pretorainの効果って今一つわからないのですが、結局Iter1から自分でやるんですね
train時間短縮で使いまわせらたと思ったのですが

124:名無しさん@お腹いっぱい。
21/02/11 15:49:01.22 a5Q0d3ss0.net
ガイジランドへようこそ!

125:名無しさん@お腹いっぱい。
21/02/11 17:09:50.55 EWg0+ITJ0.net
pretrain無しで一から回してみればいいと思うよ
未実装だった頃は200k回してやっと何となく見れるレベルって感じだった記憶がある

126:名無しさん@お腹いっぱい。
21/02/13 10:01:23.08 UyM85h3B0.net
いろんなsrc、dstを混ぜて、Trainモデルをアップすれば、
誰が誰だか分からない平均顔?
捕まるかな?

127:名無しさん@お腹いっぱい。
21/02/13 18:30:19.20 hRYiEizk0.net
Mask Editorで画像を確認するとき、一気に画像を飛ばすキーとか無いですかね・・?
3万枚とか、ずーっとDボタンを押しっぱなしで確認するのしんどい。
解像度1024だと送りのスピードも遅いし。

128:名無しさん@お腹いっぱい。
21/02/13 18:45:24.37 +mwpZ2KX0.net
shiftDでちょい速くなる程度か
最後の方だけ確認したい時なんかは前半の画像を別フォルダに逃したりしてるわ

129:名無しさん@お腹いっぱい。
21/02/14 13:02:52.41 QlYS4rBG0.net
3080と3090どっち買うか迷ってるんだけど、同じ設定で比べると時間的にどのぐらい差がありそう?

130:名無しさん@お腹いっぱい。
21/02/14 14:59:32.16 VDn4FPbX0.net
メモリが多いとbatch数増やせるから
その分trainは早く終わる
1070無印から3090に載せ替えたけど
3~4倍のbatch数で動いたよ
cudaコアも5倍なのでかなり速くなった
寝る前にtrain始めて起きたら完成していると言ってた人がいたけど
自分も同じ感じ
3080は持っていないのでわからない

131:名無しさん@お腹いっぱい。
21/02/14 17:43:35.88 uRn3MwTq0.net
プレビューでdstの顔向きをsrcが追従してくれません
src不足でしょうか

132:名無しさん@お腹いっぱい。
21/02/14 17:55:23.04 +Be3z2U10.net
だろうね

133:名無しさん@お腹いっぱい。
21/02/14 18:19:15.11 1qsuoh/90.net
どうせすぐ飽きるから1050で

134:名無しさん@お腹いっぱい。
21/02/14 18:30:47.34 7sYREDjN0.net
adabeliefは最初からtrueでいいのかな

135:名無しさん@お腹いっぱい。
21/02/14 19:03:54.39 +Be3z2U10.net
オフにする意味がないよね

136:名無しさん@お腹いっぱい。
21/02/15 10:27:41.06 DgGODcso0.net
>>130
ありがとう!その早さは魅力だなぁ。
と同時に飽きるから安いのでいいというのもまた真理。悩む。

137:名無しさん@お腹いっぱい。
21/02/15 17:24:25.52 suE851DB0.net
グラボ更新ついでに最新版にアプデしたらプレビューが5×5マスでなくて、
srcの2×2部分しか表示されなくなったんだけどそういう設定かなんかあります?

138:名無しさん@お腹いっぱい。
21/02/18 14:11:20.43 cee5geq80.net
>>128
さんくす!
Shift+D知らんかった。
あと、他のフォルダに移せばいいってのも盲点やった。

139:名無しさん@お腹いっぱい。
21/02/20 16:30:38.36 NUHj5Eln0.net
すみません。
headをためしてますが、プレビューで顔が崩壊してます。
xsegでもっと枚数範囲指定せんとダメでしょうか

140:名無しさん@お腹いっぱい。
21/02/20 16:57:12.66 dGfdqg3/0.net
オレもhead挑戦中
まだ途中だが、プレビューで崩れた顔が出てくるので、Xsegに戻ってeditしながら再train中

141:名無しさん@お腹いっぱい。
21/02/20 18:29:20.29 i6nh76Ki0.net
基本的には短髪スーツのオッサンがスピーチしてる動画しか想定されてないから…
余程src/dstの条件が一致してかつ、正面に近い物しか無理

142:名無しさん@お腹いっぱい。
21/02/20 18:34:45.04 NUHj5Eln0.net
まじですか
じゃ、一般的に騎乗位とかのエロはWFがいいのですね

143:名無しさん@お腹いっぱい。
21/02/20 18:48:07.22 0Y0LlUwk0.net
ちょっと前までf一択みたいな風潮だったのにいつの間にかwf~headがメインになってるな

144:名無しさん@お腹いっぱい。
21/02/20 18:54:53.84 qbjgYPuG0.net
fしか使ってないわ
日本の女性アイドル使ったheadの完成品があれば見てみたいわ

145:名無しさん@お腹いっぱい。
21/02/20 19:36:23.22 05shFO990.net
AVでは難しいだろうけど命知らずの馬鹿は好きだ

146:名無しさん@お腹いっぱい。
21/02/20 21:17:33.60 i6nh76Ki0.net
>>143
スマホとかのfirmwareみたいに、常に最新が良いと思いがちなのかも
要は用途に適した環境が大事な気がする 自分は最新も確認しつつliaechでrawが多い

147:名無しさん@お腹いっぱい。
21/02/20 22:01:08.68 dGfdqg3/0.net
headなら、顔の輪郭まで持ってけそうだと思ってやってるけど、まだmergeまで行ってない。
ま、最近忙しくて、作業を進められてないのが原因だけど。
df faceのmodelなら3人作ったし、結構短時間で新作作れるけど、顔の輪郭で不満が残る場合があり…

148:名無しさん@お腹いっぱい。
21/02/20 22:32:16.99 qbjgYPuG0.net
顔の輪郭までならheadである必要もないかと思う
>>146でも書いてあるけど新しいバージョンが上位互換というわけでもないし
おでこに髪がかかるようなsrcはfを使うのがベストと作者も言ってた気がするし、fから進めない

149:名無しさん@お腹いっぱい。
21/02/20 23:11:22.18 0Y0LlUwk0.net
自分も眉毛の下でmaskするからextractはwfだけどarchiはずっとfだな
ただheadだと輪郭前髪ごと移植できるみたいだから気にはなってる

150:名無しさん@お腹いっぱい。
21/02/21 01:05:26.27 6Wm57AXT0.net
こういう場合に、気楽にアップできないのがつらいな。

151:名無しさん@お腹いっぱい。
21/02/21 01:46:37.58 WaKuxNEP0.net
せやな
headがどれくらい補完できるか気になる

152:名無しさん@お腹いっぱい。
21/02/23 14:31:10.89 HptXYUfd0.net
3070で顔の切り抜きの速度1.2it/sって普通なんですかね?なにか自分の設定が悪いのでしょうか

153:名無しさん@お腹いっぱい。
21/02/23 14:42:46.30 U2LAwJeT0.net
それで普通
extract faceはGPUもCPUも全然性能使い切ってくれないから遅い

154:名無しさん@お腹いっぱい。
21/02/23 15:42:09.97 vC0XWc3F0.net
色々試してみて感じたのは
DFLの最大の弱点は顔抽出の精度
Xsegみたいにユーザーの手動検出を元に学習とかできないのかな

155:名無しさん@お腹いっぱい。
21/02/23 17:21:25.04 ipJ3q2HE0.net
DFLそんなに遅いのか...

156:名無しさん@お腹いっぱい。
21/02/23 17:55:59.67 jG48/ggc0.net
顔検出の精度低いって、ちんこ重なってると駄目なん?

157:名無しさん@お腹いっぱい。
21/02/23 18:01:04.86 U2LAwJeT0.net
口が隠れてると手動での検出すら厳しくなるね
2年ぐらい使ってるけど、この辺は一切進化してない
作者がいじれない所らしい

158:名無しさん@お腹いっぱい。
21/02/23 18:09:16.98 jG48/ggc0.net
そっか
ちんこが問題かw

159:名無しさん@お腹いっぱい。
21/02/23 18:46:43.57 IN3iaJxd0.net
3pとか2人以上の顔の差し替えを同一動画で作るのは
どういう手順で作ってるんでしょうか?

160:名無しさん@お腹いっぱい。
21/02/23 19:21:46.48 aEGVTsnr0.net
予想だけどA,B両方抽出してBのalignedとdebug消してAをXに変換→result出力
そのresultからX,Bを抽出してXのalignedとDebug消してBをYに変換
みたいな流れじゃないかな

161:名無しさん@お腹いっぱい。
21/02/23 20:01:58.00 09NP18fj0.net
src(芸能人)は小顔で目が大きい→dstは顔が大きく目が小さい→trainでdstのlandmarkサイズを基準に学習→マスク外のサイズが微妙になる…

162:名無しさん@お腹いっぱい。
21/02/23 20:36:34.28 hbbh5Bsl0.net
>>161
mergeのときに顔のサイズ変えられるでしょ
Jを押して大きくしてみては

163:名無しさん@お腹いっぱい。
21/02/23 22:36:12.20 09NP18fj0.net
それはmask内部の事…サンクス

164:名無しさん@お腹いっぱい。
21/02/23 22:46:33.38 aEGVTsnr0.net
輪郭に合わせるとなんか巨頭オみたいになって違和感バキバキの時あるね
特に上から見下ろすシーンが気持ち悪くなる気がする

165:名無しさん@お腹いっぱい。
21/02/24 00:35:41.01 voql3v5b0.net
自分も時々起こるので、対策が知りたい。
dstのマスクが大きくて、srcが小さいので、Jで大きくして間を埋めようとすると
頭でっかちになってしまう症状。あごと首のラインのところでおかしくなるんだよなあ。
rawで出力してdavinciresolveで合成するとかなりましになったので、起こったときの
対策はとりあえず、そうしている。

166:名無しさん@お腹いっぱい。
21/02/24 00:44:32.35 5uy8zOgB0.net
後は、fullfaceのrect範囲(赤枠)の大きさがmanualでも小さい場合も多い 特に横顔とか口を大きく開けてる画
headとかだと素材の制限が増えて違うし

167:名無しさん@お腹いっぱい。
21/02/25 00:09:52.18 FBZpMjjH0.net
>>153
そうなんですね。ありがとうございます

168:名無しさん@お腹いっぱい。
21/02/25 21:25:32.98 LWTuT8VT0.net
謎の3060は明日発売か

169:名無しさん@お腹いっぱい。
21/02/25 21:45:36.58 DZrP8Dsh0.net
貞松はマジでdfl殺しだなぁ

170:名無しさん@お腹いっぱい。
21/02/26 10:15:03.40 EcMmQcPy0.net
3060はコア性能が2060s以下だとわかったため
3000スレはお通夜になっている

171:名無しさん@お腹いっぱい。
21/02/26 11:54:05.74 9SZ6Yb570.net
遅ればせながらhead試してみた
髪の色と長さが合っていれば本人そのものを再現できてよいですね・・・
ただ、やはり先人のコメントのとおり注意点、制限も
・同一ソースからのsrc抽出が必要
(複数ソースだとsrcの髪型に一貫性がないため、mergeしたときに髪の毛が薄く生えたり
 濃く生えたりする箇所が出てきて変になる)
・動きが少なく正面シーン中心じゃないとmergeが滲みやすい

172:名無しさん@お腹いっぱい。
21/02/26 15:24:46.03 kG+E1Neq0.net
head試してたんだけど、train200万回近く回してもクリーチャー顔がいくつか残り、いまいにはそれが増えだしたから一時凍結したわ

173:名無しさん@お腹いっぱい。
21/02/26 15:42:56.85 j9gWypTl0.net
肩弱い奴はハメ撮り止めちまえ!顔見切れすぎブレすぎ枕使わないから角度煽りすぎ

174:名無しさん@お腹いっぱい。
21/02/26 19:41:07.27 FsXsHRfM0.net
つ 全編超広角

175:名無しさん@お腹いっぱい。
21/02/26 19:43:02.95 AFL65++U0.net
森七菜ちゃん可愛いね

176:名無しさん@お腹いっぱい。
21/02/26 22:21:14.19 ySOdKgO70.net
Xsegあまり鍛えられていないので(手作業が面倒)
前髪、舌、笛があまりうまくいっていない(ボケる感じ?)
あと、額とかの色合わせとか。。
動画編集ソフトとか?
使い方が謎です。。
簡単に教えてはもらえませんし

177:名無しさん@お腹いっぱい。
21/02/26 22:57:56.31 AFL65++U0.net
Xsegでマスクするだけだろ

178:名無しさん@お腹いっぱい。
21/02/27 10:23:55.84 u0B7HciK0.net
Xseg で要所要所をマスクしても、前後のフレームがまったく顔検出出来ないことがあるんだが何でだろう?
あれって、同じような構図のフレームは、1フレームだけ指定すれば、ほかのフレームは同じように学習してくれると思ってるんだけど違うの?
結局、ほぼ全フレームに近い形でマスクしないと思ったようにならなくてチョー面倒なんだけど(涙
一部のフレームだけ指定すると、dst のままのフレームがたくさんあって src の中に dst がちらちら入り込んじゃう。
何か、やり方間違ってるのかしら。。。
(もちろん、本学習の前に Xseg の train・fetch・apply はしてる)

179:名無しさん@お腹いっぱい。
21/02/27 11:18:46.06 cyYZh7yu0.net
xsegはsrcとdst分けて学習したほうが楽
あと、xsegはすぐに過学習になるから汎用性がなくなってきたら
リセットしてやり直さなきゃいけない

180:名無しさん@お腹いっぱい。
21/02/27 12:24:37.05 zAwQXJd/0.net
>>178
その現象、自分も経験した
自分の場合は、Xsegしたコマに、実線で囲まれた領域が無くて、破線で囲まれた領域のみのやつが混じってたせいだった

181:名無しさん@お腹いっぱい。
21/02/27 14:05:43.43 ONWhNIL+0.net
extract結果自体がマズいと予想

182:名無しさん@お腹いっぱい。
21/02/27 21:16:18.59 BJGcUk1u0.net
コツをつかんだけど外しまくりです

183:名無しさん@お腹いっぱい。
21/02/28 01:28:46.03 +h1/tT500.net
>>179
俺はmodelも手動指定した画像も流用しまくってるけど問題ないよ
200万回ぐらい回したmodelで過去のdstで手動指定した画像300枚くらいと新規のdst参照するようにして回せばbatch13なら10分も回せば十分はっきりマスクされる
それまでに手動でやってないパターンのマスクは流石に無理だけど

184:名無しさん@お腹いっぱい。
21/02/28 08:00:54.43 IBd5QeE20.net
すみません
Xsegtrainはどのくらいやればいいものですか?
目安となる時間を教えて頂きたいです。

185:名無しさん@お腹いっぱい。
21/02/28 12:54:57.48 gp9MsIgc0.net
>>184
2時間くらいでおk

186:名無しさん@お腹いっぱい。
21/02/28 16:27:35.55 Q0/+ToJZ0.net
これ、そっくりになるね。始めたばかりだけど、その辺のサイトに落ちてるのより自分でやった方が似てると思う

187:名無しさん@お腹いっぱい。
21/02/28 16:35:48.12 hw3Z62AE0.net
>>178
似たような構図でも目が開いてるか閉じてるかだけでもマスク範囲が変わるんで別物として編集する
XSegの注意点として例に挙がってるのが、目の開閉・顔の向き・照明条件
最初のうちはかなり面倒くさいけど地道にサンプルを増やしてくしかない

188:名無しさん@お腹いっぱい。
21/02/28 20:11:11.35 vMSEX/YG0.net
win10のexplorerがアホ過ぎてストレス貯まる

189:名無しさん@お腹いっぱい。
21/02/28 22:30:39.66 a6tWsyT5O.net
extractorの方がアホ

190:名無しさん@お腹いっぱい。
21/03/01 15:12:55.15 D/1OsYiq0.net
最新版で1か月ぐらいheadに挑戦してたけど結果が良くないので、Fansegラストビルドの20200327に戻ってる
で、最近Train中にプログラムがいつの間にかフリーズしてる現象が多発なんだけど、同じ状況の方いますか?

191:名無しさん@お腹いっぱい。
21/03/01 15:22:16.49 cWOtQJ+p0.net
それに該当するかはわからんけど、train中にcmdの黒画面を触っちゃって中断状態になる事がある
その時は同画面アクティブで適当なキーを押せば再開する

192:名無しさん@お腹いっぱい。
21/03/01 17:11:08.95 9yegWZFy0.net
再挑戦したいんですが、AMDRYZENでdfl1.0使ってて教えられるよ、ってかたいませんか?
当方は趣味で動画編集してるくらいの無知なのですが

193:名無しさん@お腹いっぱい。
21/03/01 17:12:27.00 9yegWZFy0.net
前回は、trainさせたのをはめ込んだら顔がのっぺらぼうになってやめました

194:名無しさん@お腹いっぱい。
21/03/01 17:54:21.07 D/1OsYiq0.net
>>191
サンクス、それかも知れないので帰ったらやってみます。

195:名無しさん@お腹いっぱい。
21/03/01 18:32:48.31 oQcdpcaE0.net
GPU無しは厳しいだろうな

196:名無しさん@お腹いっぱい。
21/03/01 18:45:19.47 OpPLjOf30.net
RadeonじゃなくてRyzen?Threadripper ならいけるか?
そんなことするくらいなら1080tiの中古でも買った方が良さそうだけど

197:名無しさん@お腹いっぱい。
21/03/01 19:48:11.04 9yegWZFy0.net
いかんせん解説サイトないのがね

198:名無しさん@お腹いっぱい。
21/03/01 20:10:19.68 5SHA7bHi0.net
そこらへんのサイト見てわからないのは知らない言葉の数だろ?
知らない言葉全部聞く気か?
そんな他力本願のやつに教えるのにどれだけ時間かかるか想像してみ
本当に作りたきゃ調べる努力をしてわからないことを聞きなよ

199:名無しさん@お腹いっぱい。
21/03/01 21:47:13.71 gjj9f1UA0.net
最新版でFAN-dstの設定なくなったのだるすぎる
マスク編集めんどくせぇ

200:名無しさん@お腹いっぱい。
21/03/01 22:41:09.45 oQcdpcaE0.net
fan-dstも残してくれれば良かったのにね
でもXSegの方が明らかに高機能で、フェラもベロチューも違和感なく出来るからオススメ
ただフェラもキスもextractが異常に下手クソなんだよな

201:名無しさん@お腹いっぱい。
21/03/02 00:13:05.24 pHrB2/op0.net
別に機能はxsegもfansegも全く同じだぞ
extractはmanualのAを使ったことが無い、使える画の選定がグダグダだと話にならんけど

202:名無しさん@お腹いっぱい。
21/03/02 00:39:45.95 JUyU4u280.net
話の通じないやつだな

203:名無しさん@お腹いっぱい。
21/03/02 04:00:30.60 yfmelPEV0.net
別途、舌と思われるパターンをXsegマスクするツールが欲しいな。。
ランドマークが入らないので、難しい、できないのでしょうか?
前髪も同様。前髪ありは日本人、韓国人くらいかな。。

204:名無しさん@お腹いっぱい。
21/03/02 13:09:05.45 anVKnmc70.net
>>203
自作した。汎用性は低いけど。

205:名無しさん@お腹いっぱい。
21/03/02 20:30:03.39 z+w1WYUO0.net
俺もheadやってみたが、確かに上であがってるような一長一短。
200k程度回して簡単な角度なら最高だけど、ちょっとでも角度がきつくなるとクリーチャーに。
Xsegのサンプル数も多く、とにかくなにより抽出の精度が異常に悪く、相当数手作業になる感じだな。
srcセットには出来る労力だけど、数多くのdstセットに同じ労力使えるかといわれると…
だがツボはまるとこれはつよい…

206:名無しさん@お腹いっぱい。
21/03/03 08:27:51.37 HznyZdrf0.net
すみません 
xsegでフェラ編集する場合、editで範囲指定するときにdstの口まわりを除外するように指定して、完成時にsrcに除外したdstの口回りをうつしだすということであってますか?

207:名無しさん@お腹いっぱい。
21/03/03 14:01:18.80 NHlrshYt0.net
>>206
>>2

208:名無しさん@お腹いっぱい。
21/03/03 15:25:36.86 YxY6ANAM0.net
質問なんだが、SRCって最低どのくらいの時間でやってる?
1時間で充分なのかわからん

209:名無しさん@お腹いっぱい。
21/03/03 15:26:51.98 JfQWVVPz0.net
時間じゃなくて使えるフレーム数と表情角度のバリエーションで考えろ😠

210:名無しさん@お腹いっぱい。
21/03/03 15:27:57.28 YxY6ANAM0.net
すまん、普通のフレーム数ってどのくらいなんでしょうか

211:名無しさん@お腹いっぱい。
21/03/03 15:31:52.95 NttWcEcZ0.net
3000~4000
もっと少なくてもいいときもあればもっと多い方がよいときもあるが
これくらいをベースに調整してみるとよいでしょう

212:名無しさん@お腹いっぱい。
21/03/03 15:39:28.69 YxY6ANAM0.net
ありがとうございます
またあとで自分のやつと照らし合わせて返します

213:名無しさん@お腹いっぱい。
21/03/03 19:28:09.48 G0WKHSpM0.net
ゲーミングノートでやってる人いる?
rtx30~のノートを買おうかと思ってるんだがデスクトップ比較でどんなもんか知りたい

214:名無しさん@お腹いっぱい。
21/03/03 20:10:10.14 VBtFUQOw0.net
39 名無しさん@お腹いっぱい。 sage 2021/02/03(水) 23:43:22.40 ID:5tX+xQ2H0
CPU Ryzen 3900XT
GPU GTX 1080
DFL2.0
でtrainしたら、tensorflowのエラーやらで止まってしまうんだけど、AMDのCPUだとダメなんだろうか?
AMDのグラボはサポートしなくなったのはわかるんだけどCPUはサポートしてるよね?

これって俺もで、これからはじめようとここにたどり着いた
どうなのでしょうか?

215:名無しさん@お腹いっぱい。
21/03/03 20:19:42.51 ytC2UZQW0.net
最新版はRTXにしか対応してないんじゃないっけ

216:名無しさん@お腹いっぱい。
21/03/03 20:24:12.82 VBtFUQOw0.net
あ、俺のRTX3000なんだよね...
なんか調べてたら3000は特殊らしいんだが

217:名無しさん@お腹いっぱい。
21/03/03 20:42:09.11 35q5rjHF0.net
>>214
3000版用と2000まで用と2種類ある
39は欲張りすぎてoomになっているだけかと
3000版はgpuスケジューリングonにしないとエラーでやすいね

218:名無しさん@お腹いっぱい。
21/03/03 21:34:52.23 VBtFUQOw0.net
一番最新のやつダウンロードしちゃいました
名前は02_03_2020.exeなんですがどうなんでしょう

219:名無しさん@お腹いっぱい。
21/03/03 21:58:47.41 4K73l4ef0.net
GPUのスペック越える設定でtrainしようとするとエラー吐いて始まらないよ
無印1080なら
Archi:DF
reso128
各dims:64
bs:4
adabelief-
その他オプションデフォルトでtrain開始しない?

220:名無しさん@お腹いっぱい。
21/03/03 22:44:00.44 brWD1sEx0.net
>>214
俺も1080でCPUはryzenだけど問題なく動いてるから、頑張れば動くよ
俺はフォーラムにある
LIAE-UD FF 192_SAEHD
ってモデルを愛用してる

221:名無しさん@お腹いっぱい。
21/03/03 22:44:46.21 YxY6ANAM0.net
いまはDSTとSRCを全フレーム抽出するところまでやりました
残業多い社会人で時間かかるので、結構手間かけて無理ってわかったらしょっくだなぁー

222:名無しさん@お腹いっぱい。
21/03/03 22:45:53.95 YxY6ANAM0.net
いや、RTX3000シリーズでRYZENCPUなんですよね

223:名無しさん@お腹いっぱい。
21/03/03 23:15:02.42 brWD1sEx0.net
お前には無理だから諦めろ

224:名無しさん@お腹いっぱい。
21/03/03 23:30:48.13 4K73l4ef0.net
さては外付HDD3070おじさんか?

225:名無しさん@お腹いっぱい。
21/03/03 23:41:34.90 YxY6ANAM0.net
一応今日始めました

URLリンク(i.imgur.com)
この画面から一時間待っても動かずエンター押したらこの通り
なにが悪いんでしょう

226:名無しさん@お腹いっぱい。
21/03/03 23:46:49.49 HJOxkBIX0.net
>>217 で解決してるのになんでそんなにターンかかるの...
2020.3が最新の訳ないやん...

227:名無しさん@お腹いっぱい。
21/03/04 00:29:11.07 OMskWBdK0.net
この人絶対に無理だよ
きっとDFLだけじゃなく何やらせても無理だよ

228:名無しさん@お腹いっぱい。
21/03/04 00:53:41.10 iunPonaH0.net
ファイル数が22万なので
2時間位の動画か
顔抽出失敗の数を見て卒倒しないようにね
01_04_2021の最新版をしようしてもvram不足でエラーでそうやね
dstは最初は720p 10秒位にしていろいろ試したほうがよいよ

229:名無しさん@お腹いっぱい。
21/03/04 02:12:05.41 wuTryrGl0.net
皆さんご回答、本当にありがとうございます
720p10秒っていうのはどこで設定出来るのかわからないのですがどうしたら良いでしょう

230:名無しさん@お腹いっぱい。
21/03/04 02:14:21.45 wuTryrGl0.net
4つの動画をひとつにまとめてやってるので負荷かかるかな、とは思ってました
ただ、一つ一つやろうとしたら抽出は上書きされるみたいでこれしかなかったんですよねえ

231:名無しさん@お腹いっぱい。
21/03/04 02:55:03.24 iAL1X8v90.net
うーむ
昔、大学で、理系、工学部だと、手計算やってられない物があるので
科学技術計算、FORTRANとかやって
計算機とはー
とか
プログラムとはー
とか、ある程度、概念形成されると思うんだよね
一般常識として、計算機、プログラムとはーとか、ある程度ないとまずいんでないの?
どうするよ?

232:名無しさん@お腹いっぱい。
21/03/04 03:01:05.35 iAL1X8v90.net
Pythonなんか、ソースコード丸見えだから、
if then elseとか
forループとか
ある程度は共通ですよ
型宣言しないので、なんじゃこりゃでした
1バイトデータとか確保してないのに、なぜ分かり、動くん?でした
andとかorとか、簡単な事が概念形成されればいいかと個人的には思います

233:名無しさん@お腹いっぱい。
21/03/04 08:51:45.26 51Htq1110.net
たまにいるよね
スクリーンショットを「写真」で撮る奴w

234:名無しさん@お腹いっぱい。
21/03/04 10:48:10.45 nG9ZlYOi0.net
ブタに真珠

235:名無しさん@お腹いっぱい。
21/03/04 12:12:05.47 0eUgwERS0.net
付属のサンプル動画で一通りやってみればいいのに

236:名無しさん@お腹いっぱい。
21/03/04 13:17:59.81 ezhe73Di0.net
猿以下の脳みそなんだから無駄

237:名無しさん@お腹いっぱい。
21/03/04 15:44:23.92 iAL1X8v90.net
次は、正面近く、カメラ目線で尺の短いdstとか
srcが眉なしだけだと、dstの眉をそのまま出すだけだし、本人の眉情報が無い
瞬きしてもいいけど、目瞑りぱなしだと、顔の特徴が出ませんな
俯きも、目玉が見えませんし、その分特徴が出づらいかと思います
上向きなんて、srcそんなに集められない気がします

238:名無しさん@お腹いっぱい。
21/03/04 16:23:38.79 VwHjzY4k0.net
チラ裏

239:名無しさん@お腹いっぱい。
21/03/04 20:38:05.01 wuTryrGl0.net
またご面倒かけてすんません
昨日に続いて最新のDFL入れたら作業途中でこんな画面になりました
なにが悪かったんでしょうか
URLリンク(i.imgur.com)

240:名無しさん@お腹いっぱい。
21/03/04 20:39:36.36 wuTryrGl0.net
ダズント レスポンス だそうです
理由になっていない

241:名無しさん@お腹いっぱい。
21/03/04 21:22:27.03 OMskWBdK0.net
2度と来るなと言っただろ

242:名無しさん@お腹いっぱい。
21/03/04 21:48:16.79 VwHjzY4k0.net
言ってなくて草
でもまあ聞く耳持たず
2回目だからレッドカードだな

243:名無しさん@お腹いっぱい。
21/03/04 23:09:21.38 ZR8huL9b0.net
>>19

244:名無しさん@お腹いっぱい。
21/03/05 00:29:45.89 +ndEjcHz0.net
>>239
すごく簡潔に言うと
君には無理だよ

245:名無しさん@お腹いっぱい。
21/03/05 02:18:47.97 Jzg61Xqo0.net
誰か日常的に使ってる人いない?

246:名無しさん@お腹いっぱい。
21/03/05 04:15:37.75 FROHvsCN0.net
初っ端から2時間超えの作ろうとしてて草
巷にあるDF動画なんてせいぜい5分程度がザラなのに
新規で5分の動画なら学習に24時間は覚悟するて聞いたらどんな反応するのか

247:名無しさん@お腹いっぱい。
21/03/05 08:14:51.62 jskKYGtb0.net
顔の未検出、誤検出とかたくさんあったりして
手動でガンバレ

248:名無しさん@お腹いっぱい。
21/03/05 08:47:38.30 jskKYGtb0.net
dstでいい感じのシーンとか、トリミング編集とかできないと、DFLも無理でしょうね
dstが顔でかくて、ボケるかも?だと画面サイズ縮小編集とか
DFLの他、フリーの動画編集ソフトとかで遊んだりしませんでしたか?

249:名無しさん@お腹いっぱい。
21/03/05 13:31:41.56 Jzg61Xqo0.net
あっ、DSTって短くしないと駄目なんですか
一応日常的に編集動画投稿してます(最高再生回数二万回)
SRCのtrainに時間かかると思ってたので、DSTは負荷かからないと勘違いしてた
どうもありがとう

250:名無しさん@お腹いっぱい。
21/03/05 15:39:47.52 jskKYGtb0.net
dstが長すぎる事によるエラーがあるかも知れませんが
やった事はないので分からないです
そんな、顔を入れ替えたいシーンばかりではなく、だらだら長い所、
平板なシーンも多いでしょうに
顔の未検出の手動抽出とかあるから、dstが長いと大変だと思います
そのままだとちらちらdstに戻り、顔が入れ替わらない
顔の誤検出の手動削除もあります
完成後、がっかりとかあると思いますし、いきなり長くてもね

251:名無しさん@お腹いっぱい。
21/03/05 16:02:02.65 bL7u3lOy0.net
鏡と話すおじさん怖すぎ

252:名無しさん@お腹いっぱい。
21/03/05 18:48:45.11 Jzg61Xqo0.net
最初に思ってたのは2時間やるとしても、使えるのはそこから20分くらい、と思ってたんですよね
5分でやると10秒位では、と思う

253:名無しさん@お腹いっぱい。
21/03/05 19:45:20.77 e6ZwS5ll0.net
mergeの時にinteractive mergerを使わないで、batの末尾に<merge.txtみたいな形でテキストに事前に書いた設定項目読み込ませたいんだけど、
Use interactive merger?をnで渡しても勝手にyになって、起動しちゃうのどうにかならない?
20210104使ってます。

254:名無しさん@お腹いっぱい。
21/03/05 21:33:21.91 3hMHQIJd0.net
設定項目とは

255:名無しさん@お腹いっぱい。
21/03/05 22:30:26.29 e6ZwS5ll0.net
0とかmklとか、そういう手動で入力する項目

256:名無しさん@お腹いっぱい。
21/03/06 12:18:39.18 POsdlmr90.net
多分、最初の方はBatで食わせるがうまくいかないみたいで
Pythonいじって、何とか。。
面倒なので、ほっといてますが

257:名無しさん@お腹いっぱい。
21/03/06 12:54:39.63 xKPyp+Qx0.net
日記の句読点は異常

258:名無しさん@お腹いっぱい。
21/03/06 15:19:05.53 POsdlmr90.net
dstはショートカットとか、髪を上げていると
輪郭がごまかせないので、違和感が出る事があるみたい
麻○憂ちゃんの無臭時代はショートカット
残念

259:名無しさん@お腹いっぱい。
21/03/07 20:17:50.85 RzmGNvkO0.net
昨日のドラマでdeepfake連呼してたなw

260:名無しさん@お腹いっぱい。
21/03/10 08:59:02.94 CpR/xemb0.net
ただでさえ電気代かかるのにマイニング収益も考えると機会損失が大きすぎて作れない

261:名無しさん@お腹いっぱい。
21/03/10 13:07:42.13 ZiONWU1g0.net
お、おう

262:名無しさん@お腹いっぱい。
21/03/10 18:47:45.05 2DwOEiHP0.net
誰か3060でやってる人いる?
くそ味噌言われてるけど12gは使えるんじゃね

263:名無しさん@お腹いっぱい。
21/03/10 21:43:16.61 S4FjQjIv0.net
これ使えね?
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(ebsynth.com)

264:名無しさん@お腹いっぱい。
21/03/11 18:39:21.46 NZScrXcq0.net
10.misc) start EBSynth.bat
@echo off
call _internal\setenv.bat
start "" /D "%INTERNAL%\EbSynth" /LOW "%INTERNAL%\EbSynth\EbSynth.exe" "%INTERNAL%\EbSynth\SampleProject\sample.ebs"
とかありますな

265:名無しさん@お腹いっぱい。
21/03/12 13:33:15.35 eZyVdiTN0.net
ワンピースの普通の水着をラバーコーティングのテカテカ水着に描きかえる的なことはできる

266:名無しさん@お腹いっぱい。
21/03/13 01:58:40.80 IO0QbPD50.net
よくそういう発想ができるな(褒め言葉)
素直に感心する
髪色の変更とかパンストを網タイツに、とかも頑張ればできそうかな

267:名無しさん@お腹いっぱい。
21/03/15 21:14:22.13 Rs+laLZd0.net
【合成】娘のライバルを蹴落とすため「ディープフェイク」作成、母親を逮捕 米
URLリンク(news.livedoor.com)
チアリーダーとして活動する娘のライバルたちが裸で飲酒・喫煙する映像をAIでねつ造し、本人らに送付。自殺を促すメッセージも匿名で送信したとみられている。
アメリカはすげーな

268:名無しさん@お腹いっぱい。
21/03/15 22:46:33.04 X9iIG4Xz0.net
かあーちゃん…

269:名無しさん@お腹いっぱい。
21/03/16 23:32:59.20 ZtV5x6jf0.net
headより広い範囲を抽出する方法ある?
髪が長いと途切れてまう・・

270:名無しさん@お腹いっぱい。
21/03/17 12:28:14.17 UXUkd/xO0.net
それだと肩より上が収まる画面は全体が入れ替わる事になるけど…

271:名無しさん@お腹いっぱい。
21/03/17 12:45:41.15 4cgX7pI/0.net
dst探しが作業時間の9割を占めてる気がする

272:名無しさん@お腹いっぱい。
21/03/17 13:51:55.35 Uc6ZjDwx0.net
trainだぞ

273:名無しさん@お腹いっぱい。
21/03/17 15:35:46.22 wYm9Xwu40.net
modelの学習が300から400万回ぐらいに育ってしまうと、流用すれば新規のdstでも数時間で仕上がってくる
そうなると、aligned debugのチェック&手動でのパス再作成が大半の時間を占めるね
もちろん、それとは別にdst探しはやるけど

274:名無しさん@お腹いっぱい。
21/03/17 16:11:26.20 cXMgY1sR0.net
素朴な疑問なんだが、流用っていうテクニックがあって、他の人物にもあまり悪影響ない、一番のユーザー不満である時間短縮ができる
それなら初期のパッケージとして普通は用意すべきだよな?
それをしないのってなんでなの?

275:名無しさん@お腹いっぱい。
21/03/17 16:34:25.64 UXUkd/xO0.net
>>2

276:名無しさん@お腹いっぱい。
21/03/17 17:45:21.47 Cpy9coZu0.net
量産してるやつとか流用してるけどだいたい似てないやん

277:名無しさん@お腹いっぱい。
21/03/17 18:34:26.55 wYm9Xwu40.net
元アイドルAと、とあるdstでいちから動画を作る
dstを次々替えて(外国人を含む)どんどん動画を作る
modelが成長してくると、train時間は短くてもすぐに似る
というパターンで、他にタレントBや女優Cのmodelも作っているが、dstがどれだけ似ているかがやっぱり重要
dstの顔の輪郭や髪型がかけ離れていると、あいのこみたいな顔にしかならない

278:名無しさん@お腹いっぱい。
21/03/17 19:24:19.48 Cpy9coZu0.net
それちゃんと学習できてないから...
何回繰り返すのか...

279:名無しさん@お腹いっぱい。
21/03/17 23:33:54.06 Z+HaKt2P0.net
自分が満足できるクオリティで作れているので、良しとしています

280:名無しさん@お腹いっぱい。
21/03/18 08:26:25.65 9TxMDenz0.net
srcモデル流用しないで(とある所でsrc流用はやめる。dstxdst学習のため)
毎回新規のsrcから作成しているの?
srcA→srcBでsrcBが完成したと思ったらやめる
srcA→srcCでsrcCが完成したと思ったらやめる

281:名無しさん@お腹いっぱい。
21/03/24 08:09:30.11 8P0VBNU70.net
新バージョン来た
何が変わったんだろう

282:名無しさん@お腹いっぱい。
21/03/24 18:42:18.30 er2gsBi80.net
あんまりどうでもいい変更だな

283:名無しさん@お腹いっぱい。
21/03/24 18:53:48.94 WATVeH6E0.net
初心者にはそうかも

284:名無しさん@お腹いっぱい。
21/03/24 19:12:31.41 RNFuWygC0.net
関係ないやつもいるだろ!
初心者さん!

285:名無しさん@お腹いっぱい。
21/03/24 20:01:54.01 er2gsBi80.net
ランダムフリップとか普通使わないじゃない

286:名無しさん@お腹いっぱい。
21/03/25 09:08:15.10 ljW0hp1e0.net
08_02_2020から以降してみたが
adabelief: TrueだとVRAMバカ食い?
Batch Size半分でもエラー
使うのなら最後の方で使うのかな?

287:名無しさん@お腹いっぱい。
21/03/25 10:24:49.98 qiu4TJYs0.net
>>285
そっちかよ
入力サイズと画像サイズ合わせて読み込み時間節約の方だと思った

288:名無しさん@お腹いっぱい。
21/03/25 11:18:47.84 ljW0hp1e0.net
>>285
srcは使用しないが、dstに使用するといいかも?
実験してみますか

289:名無しさん@お腹いっぱい。
21/03/25 11:47:41.56 6v/MBSvq0.net
>>286
adabeliefは新しい学習方法なので
途中でoffにするとadabeliefでトレインしたものは活かしてくれない
なので使うなら最初からonにして
途中からoffにしない
あと使用するvram多いよ

290:名無しさん@お腹いっぱい。
21/03/25 13:06:24.68 zJwTcj6T0.net
>>288
ややこしくなるから初心者は質問だけしてればいいです...

291:名無しさん@お腹いっぱい。
21/03/25 13:29:39.56 ljW0hp1e0.net
>>289
ありがとう

292:名無しさん@お腹いっぱい。
21/03/25 18:39:38.77 NXpAycAx0.net
adabeliefかなり速いから常にONだわ

293:名無しさん@お腹いっぱい。
21/03/26 04:37:45.96 WSGBSkIA0.net
おはよう
adabelie off onにしたら、最初から学習し直し?
Loss値がみるみる下がりますね

294:名無しさん@お腹いっぱい。
21/03/26 04:57:39.43 WSGBSkIA0.net
adabelie off onにしたらXsegモデル学習し直しみたい
src/dst 512→256にしたら、Mergeがむちゃむちゃ速いですね

295:名無しさん@お腹いっぱい。
21/03/26 05:06:32.44 WSGBSkIA0.net
Xsegモデルコピーしてませんでした

296:名無しさん@お腹いっぱい。
21/03/27 00:18:38.20 oPMgV8i50.net
去年の7月ぶりに最新版にアップデートするけど新しい機能増えてますか?

297:名無しさん@お腹いっぱい。
21/03/27 00:48:45.07 dz4Xid2K0.net
何言っているのかちょっと判らない

298:名無しさん@お腹いっぱい。
21/03/27 08:43:37.56 sN724fnu0.net
解凍した後changelog.htmlを見れば変更点と新規機能が分かるかと

299:名無しさん@お腹いっぱい。
21/03/27 12:28:45.94 gvzOZTC40.net
新GANどうよ

300:名無しさん@お腹いっぱい。
21/03/27 15:38:56.16 HClXAhpC0.net
Multiple Choices

301:名無しさん@お腹いっぱい。
21/03/27 19:07:48.10 oPMgV8i50.net
アップデートしたけどsrc側に顔が寄るのがデフォ設定に変わった感じ

302:名無しさん@お腹いっぱい。
21/03/28 03:03:17.49 ueHeY/O40.net
liaeになってただけか

303:名無し募集中。。。
21/03/28 03:16:42.30 EHo1up4D0.net
顔の切り出しが遅すぎるの何とかしてほしいよ
CPUもGPUも20%以下しか使ってないのがもったいない

304:名無しさん@お腹いっぱい。
21/03/30 14:48:04.94 3oji83cR0.net
新しいpc作ってやりたいけどグラボが全然ねぇ、、、
radeonはまだ対応してないんだよね。。。
CPUって全然話題に上がらんけど、5800xでも5950Xでも大差ないの?

305:名無しさん@お腹いっぱい。
21/03/30 15:08:41.08 oAnoMaIs0.net
Radeonは1.0しか対応してないぞ

306:名無しさん@お腹いっぱい。
21/03/30 15:09:06.17 oAnoMaIs0.net
ごめん流し見でGPUの話かと思った

307:名無しさん@お腹いっぱい。
21/03/30 15:11:07.67 TDRp20Tc0.net
CPUこそ一番良い奴にすべき

308:名無しさん@お腹いっぱい。
21/03/30 23:50:38.41 yeTj8ebz0.net
>>304
2.0からコア数に比例して学習が速くなるようになってるはずやで

309:名無しさん@お腹いっぱい。
21/03/31 09:48:24.78 2980UnH60.net
CPUも重要なのか、、誰にも見せれないのに中々金のかかる趣味だなw

310:名無しさん@お腹いっぱい。
21/03/31 12:26:38.84 ENG1cKaz0.net
dst用にお勧めのAVタイトルとか、プレイ内容別にまとめている神って居ないのかしら?
少なくともググった位では見つからないんだよね。

311:名無しさん@お腹いっぱい。
21/03/31 12:54:32.16 e9MPlRyQ0.net
前まで素材スレあったんだけどね

312:名無しさん@お腹いっぱい。
21/03/31 14:04:36.29 1aFr7Puq0.net
モザの壁

313:名無しさん@お腹いっぱい。
21/03/31 18:49:20.98 ppLJGluL0.net
>>310
Deepfake 素材に関するスレ 
でググってみ。

314:名無しさん@お腹いっぱい。
21/03/31 23:47:42.08 +ePpkTvz0.net
>>313
見つかりました。
早速勉強させていただきます。
ありがとう、ありがとう。

315:名無しさん@お腹いっぱい。
21/04/01 12:26:46.85 9d4s2qfN0.net
src/dst 256x256にしたらae_dims:512だとだめみたい
ae_dims:256までかな

316:名無しさん@お腹いっぱい。
21/04/03 12:00:52.75 DWGUJF3Y0.net
お世話になります
質問です
1、目に髪がかかっているのはSRCにすべき?
2、特定の作品が化粧違うが、これはSRCにいれるべき?

317:名無しさん@お腹いっぱい。
21/04/03 12:27:52.04 zcWUI8wj0.net
>>316
①避けた方が良いが、dstが同条件(mask範囲内での髪の位置など)ならイケる場合も
②個別で作成した方が良いが、どうしても角度や表情がカバー出来ないなら、メインとする方のfacesetに対し10%程度なら補足としての追加がイケる場合も

318:名無しさん@お腹いっぱい。
21/04/03 12:30:06.75 DWGUJF3Y0.net
なるほどありがとうございます
ってことは肌の色味が違うのとかはどうなんでしょうか
SRCって輪郭だけじゃなく色も見てますよね?

319:名無しさん@お腹いっぱい。
21/04/03 13:00:40.33 zcWUI8wj0.net
>>318
極端に暗いとか、野外で光の当たり方がキツいのは特にmodel形成を阻害する所感
train時のcolor transでmklとか入れてれば、ある程度なら調整してくれるが、現状mergeではdstと同じにはなり辛い
髪型については、眉を超える前髪とか触角は自動extractはほぼ無理 手動Aやmask調整で適正範囲を指定してもtrainやmergeでグダグダになり易い

320:名無しさん@お腹いっぱい。
21/04/04 08:10:59.28 m4PTOv9y0.net
adabeliefは学習速度を上げるだけ?
であればDimsを上げてadabelief offにした方がいい気もする

321:名無しさん@お腹いっぱい。
21/04/04 08:27:22.49 djLTBAJX0.net
入り切り出来ないじゃん

322:名無しさん@お腹いっぱい。
21/04/05 07:04:49.67 0rK27O7A0.net
PreTrainやってなかったんたんだけど必須ですかね?

323:名無しさん@お腹いっぱい。
21/04/05 09:16:02.81 QWc1wMJx0.net
ドラゴン桜が今夜から再放送

324:名無しさん@お腹いっぱい。
21/04/09 14:31:38.36 BFw6vu2x0.net
CPU変えてめっちゃ早くなって安定したって報告しようとしたらちょうどCPUの話題になってた。
i5 7500→i9 10800に変えたらtrain速度1.3倍、merge速度100倍になったわ。
merge一瞬で終わるし、train中動画見たりゲームとかしても落ちないしもっと早く変えるべきだった。

325:名無しさん@お腹いっぱい。
21/04/10 06:41:21.67 Pch01OEJ0.net
どどるげ動画さんすごいな

326:名無しさん@お腹いっぱい。
21/04/10 11:15:05.96 JqdV/13K0.net
スレチ

327:名無しさん@お腹いっぱい。
21/04/10 16:34:08.79 yrnfAYTy0.net
mergeはCPUのスレッドが多ければ多いだけ速いね

328:名無しさん@お腹いっぱい。
21/04/10 16:46:37.62 Mrqtwq0X0.net
久しぶりにやったらliaeがデフォになったんだな。dfの方が似るように思うんだが、liae何か進化したのか?

329:名無しさん@お腹いっぱい。
21/04/10 17:07:14.68 JqdV/13K0.net
>>2
liaeとdfの違いから見直した方が良い

330:名無しさん@お腹いっぱい。
21/04/10 18:21:36.97 iH//3Q0I0.net
顔の相性がいい素材のliaeが一番クオリティ高い

331:名無しさん@お腹いっぱい。
21/04/10 19:26:58.90 yrnfAYTy0.net
dfの方が似ると思うのならそれでいいと思う
俺は差異を感じなかったし利点もあるのでliaeに移行した

332:名無しさん@お腹いっぱい。
21/04/10 19:26:58.99 JqdV/13K0.net
相性と数だね 数百万分のナンボが合うかって感じだけど

333:名無しさん@お腹いっぱい。
21/04/11 02:08:26.59 ujYKb++B0.net
顔が似るのは明らかにDF

334:名無しさん@お腹いっぱい。
21/04/11 06:46:42.93 PPB+3BwD0.net
dfは表情の追従が弱い
よほどsrcのバリエーションが多くないと
もしくはdstが短いとか

335:名無しさん@お腹いっぱい。
21/04/11 07:01:13.64 PPB+3BwD0.net
eyes_mouth_prio: False
にしたらいきなりLoss値が下がった

336:名無しさん@お腹いっぱい。
21/04/11 09:11:30.41 TpXKrb8Y0.net
liaeの万能な所を経験するとdfには戻れないな
正面の静止画メインならdf一択だが
>>335
名前のとおり目と口を主に学習して他の部分はほとんど学習しないから
目と口に違和感がないかぎり基本offだね

337:名無しさん@お腹いっぱい。
21/04/11 12:09:59.56 Q2c9bGeC0.net
liae似ないんだけど、何かコツある?

338:名無しさん@お腹いっぱい。
21/04/11 13:11:07.17 TpXKrb8Y0.net
liaeは最後にganpower使用しないと似ている感じがしないね
まずはdfl guideのQ&AのQ8の通りにきちんとtrainしてloss値十分下がったあとの最後の仕上げに使う
ganpower使うと表情はdstに寄ってしまうけど
srcの細かいシワ、しみ、ホクロ等が反映されるようになる
学習が進めばlrdをonにしてtrainするだけで反映されるようになる
あとはたまに学習ミスってモザイクがでたりするからganpower使用する前にmodelをバックアップしたほうが良い

339:名無しさん@お腹いっぱい。
21/04/11 13:14:18.20 TpXKrb8Y0.net
これで似なかったらdstとsrcの相性が良くなかったと判断してあきらめる

340:名無しさん@お腹いっぱい。
21/04/11 14:33:56.46 fOz/zYlH0.net
最新版のDFLで5.XSeg) train実行してバッチ2にしても動かないのですが単純にGPU性能不足でしょうか
GPUはGTX1080です。

341:名無しさん@お腹いっぱい。
21/04/11 15:38:18.11 fJrIygUF0.net
>>338
今までデフォ設定のままで、gan使ったことなかったから試してみるは

342:名無しさん@お腹いっぱい。
21/04/11 15:44:18.78 S56eIIgv0.net
>>340
同じGPUだが余裕だ
mrdeepfakesのModel name: LIAE-UD FF 192_SAEHDっての使ってる

343:名無しさん@お腹いっぱい。
21/04/11 16:39:15.44 fOz/zYlH0.net
windowsの設定でした。 解決しました

344:名無しさん@お腹いっぱい。
21/04/11 20:37:46.21 mUgJkMdu0.net
>>337
liaeはdfよりもdstとの一致要求がシビアなので、flip使うのも場合によっては有効
warp切ったらGANじゃなくてdropを使う方が良い気がする

345:名無しさん@お腹いっぱい。
21/04/11 22:28:24.73 Ryk/5C4v0.net
teslaとかサーバー製品って、メモリ帯域はすごいけどFP32のTFLOPSの値は一般向けのGEFORCE 3090の方が上なんだけど、学習にはどっちが有利なんだろうね
もちろん、アプリの種類にもよるんだろうが
サーバー向けは科学技術計算で使われるFP64の性能も要求されるからこの分FP32の性能があげられないんだろう

346:名無しさん@お腹いっぱい。
21/04/11 22:31:12.62 Ryk/5C4v0.net
URLリンク(qiita.com)
グラフィックで多用される演算と学習で多用される演算がFP32が同じだからね

347:名無しさん@お腹いっぱい。
21/04/11 22:53:27.26 fOz/zYlH0.net
WFでやったら頭頂部付近が気になる

348:名無しさん@お腹いっぱい。
21/04/12 06:51:04.55 YLrUK5uX0.net
ganpowerってあげれば上げるほど似るのですか?

349:名無しさん@お腹いっぱい。
21/04/12 09:14:41.44 d7OWDGE40.net
5950xで新しく作ったけどグラボが手に入らん
とりあえずもってた1070挿してるけど、弱いグラボだと時間かかるだけでクオリティは同じなの?

350:名無しさん@お腹いっぱい。
21/04/12 20:20:03.45 s0hHjzfp0.net
俺は、DFがええわ→liaeの違和感の無さええわ→やっぱdfの本人性の高さが一番大事やわ
で今DF

351:名無しさん@お腹いっぱい。
21/04/12 23:00:55.24 BhE0odAf0.net
VRでやってるとLIAE一択だな

352:名無しさん@お腹いっぱい。
21/04/13 06:26:22.26 SLvCoHjC0.net
>>349
dimsが上げらないからクオリティは上げられないかも

353:名無しさん@お腹いっぱい。
21/04/13 09:33:52.96 6hNDogoR0.net
trainしてると落ちるのはCPUの温度の問題かな?

354:名無しさん@お腹いっぱい。
21/04/13 11:04:17.97 wkxq5OTE0.net
>>352サンクス、手に入るまで我慢するか
発売時に3080手に入らない段階で3090買っとくのが大正解だったな、、、

355:名無しさん@お腹いっぱい。
21/04/13 12:13:56.15 qJPsKE3Y0.net
1.5倍近くパワーアップするhopperが本命?

356:名無しさん@お腹いっぱい。
21/04/13 15:16:22.16 wO6pG87X0.net
似るってだけならDFで前髪含むが最強。
LIAEには戻れない。

357:名無しさん@お腹いっぱい。
21/04/13 20:37:09.52 dO8oUwDl0.net
普通は使い分ける

358:名無しさん@お腹いっぱい。
21/04/14 00:27:47.30 N2DP15B60.net
この為に環境整えたのに気付いたら掘ってた

359:名無しさん@お腹いっぱい。
21/04/14 19:11:48.30 pkNMzccF0.net
>>356
それってfacetypeはwfでやるの?
ちょっと気になる

360:名無しさん@お腹いっぱい。
21/04/14 20:15:22.28 pvicPtlx0.net
最強とか言ってる時点で察して差し上げろ

361:名無しさん@お腹いっぱい。
21/04/17 20:16:54.79 twzomULj0.net
headの高解像度pretrainモデルどこかにないですか

362:名無しさん@お腹いっぱい。
21/04/18 00:50:07.81 LEn9w1ZS0.net
俺もdf一択だわ。使い分けるメリットすら無いくらい今のDFは優秀。

363:名無しさん@お腹いっぱい。
21/04/18 01:20:04.90 vFHsN19P0.net
前髪のないDSTに、前髪のあるSRCかぶせたら前髪無くなります。。
対処方法ありますか

364:名無しさん@お腹いっぱい。
21/04/18 01:48:15.42 1BcANTD70.net
前髪のあるdstを探す

365:名無しさん@お腹いっぱい。
21/04/18 01:50:21.59 1BcANTD70.net
>>362
DFは角度あるとつらいよ
すべての角度のsrcがあれば良いんだろうけど

366:名無しさん@お腹いっぱい。
21/04/18 02:54:12.61 8xZymf5Q0.net
そっくりな映像を作りたいなら
liaeでもちょうどいい角度のsrcが必要なのは同じ
だったら存在する角度の再現性が高くて学習の負荷が低い
DFに優位性がある

367:名無しさん@お腹いっぱい。
21/04/18 03:06:06.78 1BcANTD70.net
今のliaeって正面下手じゃないでしょ
俺は臨機応変で使ってるよ

368:名無しさん@お腹いっぱい。
21/04/18 10:37:47.89 PgKP4gD60.net
dfは頭使わず手軽なのが初心者ウケが良いだけ

369:名無しさん@お腹いっぱい。
21/04/18 11:14:31.75 PgKP4gD60.net
つーかmodelとかarchは素材に合わせて好きなの使ってろよ
ガキじゃねーんだから○○最強とかイチイチ押し付けてくんな 質問でも無ぇし

370:名無しさん@お腹いっぱい。
21/04/18 15:32:41.08 FLvozWDK0.net
3090使ってheadのliae-uで回せば大概できるから
src画像さえちゃんと集めてあればdstの選別とかいらねーよ

371:名無しさん@お腹いっぱい。
21/04/18 15:40:29.87 LxQl3MNK0.net
まぁDFLのスレってここぐらいしか無いし、ここでイキるしか無いんだよな

372:名無しさん@お腹いっぱい。
21/04/18 15:52:00.23 vFHsN19P0.net
>>370
そのmodel貰えませんか?

373:名無しさん@お腹いっぱい。
21/04/18 16:14:42.41 tJMQwguA0.net
true face power

374:名無しさん@お腹いっぱい。
21/04/18 17:16:47.51 PgKP4gD60.net
>>363
基本はdstに合わせるしか無い フォトショで全flame前髪書きたいなら知らん
GPUもmodelも関係ないし、選別する必要性が理解できない程度のエアプがスルー出来ないなら制作に向いてない

375:名無しさん@お腹いっぱい。
21/04/18 19:31:13.43 vRGixPgW0.net
meta human

376:名無しさん@お腹いっぱい。
21/04/18 22:56:55.12 0ixJ+XPV0.net
髪の動きが不自然になりがちだけど、dstに前髪なくても前髪生えるよ。
エアプはスルー。

377:名無しさん@お腹いっぱい。
21/04/19 00:03:29.37 8yqc5y2p0.net
まぁ公開するわけじゃないから不自然でも抜けりゃいいんだよ

378:名無しさん@お腹いっぱい。
21/04/21 03:38:34.38 6cuwbeaM0.net
>>365
なるほどね、豊富なsrc取れるやつでしか作ってないからその発想は無かったわ

379:名無しさん@お腹いっぱい。
21/04/23 15:15:32.15 GI0t/RwX0.net
半年ぶりにアップデートしたら色々変わってたんだが、
df→無くなった
liae→無くなった
dfHD→dfになった
liaeHD→liaeになった
更にそれぞれ、uとdのオプション付けれるようになった
という認識でいいのでしょうか?

380:名無しさん@お腹いっぱい。
21/04/23 15:47:16.41 rYgS35L60.net
>>379
df→ドッフッ
liae→ライアヤャ
dfHD→ドッフッHD
liaeHD→ライアヤャHD

381:名無しさん@お腹いっぱい。
21/04/24 11:33:27.08 H0wRkMGL0.net
3080tiの発売日が決まったようですね
メモリ12gみたいだけど2gでも差が出るのかな

382:名無しさん@お腹いっぱい。
21/04/25 19:30:45.27 MHgX3CJU0.net
ジェネリックxsegってのがアップされてるね、なんぞこれ?

383:名無しさん@お腹いっぱい。
21/04/25 21:43:09.29 oPpNSQFB0.net
facejapp使ってるひといる?

384:名無しさん@お腹いっぱい。
21/04/26 00:35:58.47 kYMNlaSV0.net
そういうのいいから

385:名無しさん@お腹いっぱい。
21/04/26 01:28:23.59 Ga7VyGbW0.net
Xsegで舌を破線で囲って除外してからtrainしたら
舌を出してないフレームの一部でも口内が除外されてしまって
mergeすると口に違和感が出るようになりました
これを避けるには先に舌のあるパートと無いパートでdstを分割するしかないのでしょうか
何かいい方法がありましたらご教示下さい

386:名無しさん@お腹いっぱい。
21/04/26 08:47:05.58 8TtDd35S0.net
>>385
その口内を除去して欲しくないフレームのマスクを書いてトレイン
完璧にしたいなら、トレインして適用して、変になるフレームを書いてまたトレインしてのループをするしかない

387:名無しさん@お腹いっぱい。
21/04/26 12:57:22.83 kYMNlaSV0.net
>>385
fansegだとmaskに応じてちゃんと反映される
後は求める画をsrcが持ってれば精度は上がる

388:名無しさん@お腹いっぱい。
21/04/28 16:41:24.16 5pMQt8kK0.net
>>384
あいつアウトだろ
ツイッターでモザかければいいってもんじゃないのにな
事務所とかに通報してる人も結構いるらしいしもうそろそろ...

389:名無しさん@お腹いっぱい。
21/04/28 20:52:29.03 jKwPlVkD0.net
WEBのプロダクト紹介ポエムから制作ニワカなのが丸出しなんだよな…

390:名無しさん@お腹いっぱい。
21/05/05 16:24:51.53 NeCrKWaH0.net
ゾアタフ来てる

391:名無しさん@お腹いっぱい。
21/05/06 07:10:06.38 e9OJLbGy0.net
みなさんadabelief使ってます?

392:名無しさん@お腹いっぱい。
21/05/06 18:31:17.25 fXl6cLfg0.net
常にONだよ

393:名無しさん@お腹いっぱい。
21/05/06 19:01:24.64 8uOvXnX90.net
ad使いたくてもaedims512のmodelだとBS2まで下げて他のOP切ってもOOM吐く

394:名無しさん@お腹いっぱい。
21/05/09 11:57:47.23 KcsGK0sG0.net
Github覗いたら4月23日頃にこんなん出てんねんけど、何?
「added AMD/Intel cards support via DirectX12 ( DirectML backend )」
ラデも使えるんやったら、VRAMてんこ盛りのが余ってるからメチャ有り難いねんけど。

395:名無しさん@お腹いっぱい。
21/05/09 12:13:49.80 KcsGK0sG0.net
自己解決っつーか、処理が早くて要望が上がってたDirectX12版のDFLリリースされてんだw
っでAMD/Intel系が自動的に対応って理屈やね。
ヤバいんちゃうん?16GBの板が1万で売ってるAMDやで?
//blog.csdn.net/ddrfan/article/details/116085129

396:名無しさん@お腹いっぱい。
21/05/09 12:18:12.27 sclGtzl90.net
ビックリするぐらい遅いけど

397:名無しさん@お腹いっぱい。
21/05/09 12:36:48.26 KcsGK0sG0.net
自分トコで動いたんか?
動かんし2060スパーとmx250(インテルオンボよりはマシレベル)比較で
半分ぐらいの速度しか出んって話やけど、630とRX580では30倍ぐらい性能差があるから
ええトコ行くんちゃうん?
1.0のOpenCL版はCuda比較で20%程度の性能しか出んかったけど、VRAM量が圧倒的なんで
1iterあたりの学習差は50%ぐらいは稼げてた。
だから、性能は1.0の頃より2.5倍向上して安くてVRAM量が多いRadeは、
回転数以上のパフォーマンス出るでしょ。
まだちゃんと動かんみたいやけど、ヒマ見て試すわ。

398:名無しさん@お腹いっぱい。
21/05/09 12:38:22.18 dC6pQfzc0.net
changelogに
ゲフォより20~80%遅いと書いてあるからね
16G版ラデで20%遅いスピードでトレインできる感じかな(テキトー)

399:名無しさん@お腹いっぱい。
21/05/09 12:52:31.56 sclGtzl90.net
DFL1.0よりは速くなってるんだね
良かったね

400:名無しさん@お腹いっぱい。
21/05/09 14:39:51.63 j1SyNQjA0.net
Bad Request

401:397
21/05/09 14:53:07.02 7GLUQRSe0.net
今試し始めたけどExtractおっそ

402:名無しさん@お腹いっぱい。
21/05/09 15:02:09.08 Bvr4sTpV0.net
技術的な質問じゃないが、
このスレに配偶者がいたり恋人と一緒に住んでたりする人いる?その場合、隠れてやってる?
見られたときの気まずさって普通のAVとかエロサイトの比じゃないような気がするが。

403:397
21/05/09 15:47:07.04 7GLUQRSe0.net
FHDやとExtract1枚1.5秒もかかるし、2回めにPhytonがワーニング吐いてる。
>>402
そんなピーキーな関係で付き合うから別れるハメになるんだよ。
愛顧らでもDeepFakeでも「また悪巧みしてる」って笑われてるけど。

404:名無しさん@お腹いっぱい。
21/05/11 16:55:07.54 +gKf1ZOW0.net
見られたところでわからんくね?
芸能人Aで作ってたとして、DF作ったって言われなきゃわからないでしょ

405:名無しさん@お腹いっぱい。
21/05/11 19:07:48.39 PzT70Coy0.net
声のディープフェイクってまだないのかな?
ハシカンに好きな言葉言わせるとか

406:名無しさん@お腹いっぱい。
21/05/11 20:00:54.57 ieEMk1ST0.net
>>405
アドビのデモであったよ

407:名無しさん@お腹いっぱい。
21/05/12 09:02:39.20 dKw8q9B90.net
声のディープフェイクやりたいなぁ、知人の顔を手に入れるのは大変だけど声なら簡単に手に入るしw
けど犯罪防止で公開しないんじゃないか?

408:名無しさん@お腹いっぱい。
21/05/12 14:02:17.38 FAFNQAxW0.net
参考までにDX12版
radeon7と3090混ぜてheadの抽出が7~8枚/secって感じ
混ぜてやってるにしちゃ頑張ってる方じゃないかな

409:名無しさん@お腹いっぱい
21/05/14 23:04:37.15 z9HMic4B0.net
05_12_2021 きてるな

410:名無しさん@お腹いっぱい。
21/05/15 00:32:51.49 kXqmwQwO0.net
何が変わったの

411:名無しさん@お腹いっぱい。
21/05/15 06:16:48.49 dDwHuN7p0.net
とりあえずDLして
changelog.html
を見れば分かる

412:名無しさん@お腹いっぱい。
21/05/15 09:15:09.55 kXqmwQwO0.net
============ CHANGELOG ============
== 12.05.2021 ==
FacesetResizerは、顔の種類の変更をサポートするようになりました
XSegEditor:削除ボタンを追加
XSegトレーナーのトレーニングサンプルの拡張が改善されました。
XSegモデルは、さまざまな面が大量にある場合にうまく機能するように変更されているため、既存のxseg モデルを再トレーニングする必要があります。
さまざまな面で事前トレーニングされた汎用XSegモデルが追加されました。きれいな顔が含まれているため、src フェイスセットに最適ですが、 複雑な顔の障害物なしでdstフッテージに適用することもできます。
5.XSegジェネリック)data_dst whole_face マスク- apply.bat
5.XSegジェネリック)data_src whole_face マスク- apply.bat
意味わからへん

413:名無しさん@お腹いっぱい。
21/05/15 15:41:54.42 eAJd2YYp0.net
日記生きてたんか

414:名無しさん@お腹いっぱい。
21/05/15 15:55:16.44 4lLHMjB+0.net
作ったものを批評してもらいたいとき、顔以外を黒く塗りつぶした動画にしてからupしてもアウトになるのかな?

415:名無しさん@お腹いっぱい。
21/05/15 19:34:19.49 dDwHuN7p0.net
日記じゃねえ
そろそろ話題も尽きた様な。。
つべに下手くそがうp
顔がチラチラ
ボケボケ
つべにすずちゃんのばきゅーんを上げたいが、
著作権侵害で怒られるかも
ハリウッドセレブのノンアダルトなら。。
腕前の披露だけとか

416:名無しさん@お腹いっぱい。
21/05/15 19:42:47.59 dDwHuN7p0.net
つべにうpする時に非公開設定なるものが
URL貼り付けで、他の人も見れるのでは?
それでも消されるか/怒られるかは知らん
Mega.nzで共有して、リンク貼り付けでこっそりとか

417:名無しさん@お腹いっぱい。
21/05/15 20:07:24.30 dDwHuN7p0.net
顔ぐらいしか見えない様に、クロップでもして、
誰と言わなければセーフな気もしてきた
音声トラックはなしとか
DeepFakeとかも言わない方がいいかも
つべにうpするときも、著作権の侵害でも、収益化できないだけだったりする
場合によると思いますが

418:名無しさん@お腹いっぱい。
21/05/15 20:40:41.09 dDwHuN7p0.net
女の闘い
URLリンク(www.youtube.com)
著作権侵害の申立あり

419:名無しさん@お腹いっぱい。
21/05/15 21:13:41.97 eAJd2YYp0.net
「すずちゃん」とか文体然りどう見ても日記 どうでもいけどw
>>414
1 flameずつ黒く塗るのか…

420:名無しさん@お腹いっぱい。
21/05/16 05:57:13.56 FvakAbYC0.net
>>412
ID:kXqmwQwO0
とはID違うやろがw
タブレットはWiFi接続のみだから、ルーターは同じで、同じIPアドレスになるのでは
ガラケーが使えなくなったら、パカパカスマホにしてネット契約はしないつもり
>>414
顔の絶対位置がそれほどずれないのであれば、Avidemux等でクロップもありかと
すずのばきゅーんでも作ってみますかね
怒られるだけで、垢BANされなければいいかと

421:名無しさん@お腹いっぱい。
21/05/16 06:04:29.85 FvakAbYC0.net
女の闘い
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)

422:名無しさん@お腹いっぱい。
21/05/16 06:23:41.82 FvakAbYC0.net
おっ○いの闘い
URLリンク(www.youtube.com)

423:名無しさん@お腹いっぱい。
21/05/16 06:41:16.29 FvakAbYC0.net
今の所、著作権侵害の申立なし
要は、相手が怒るか、気づかないか、大目に見るかとか
画像トラックや音声トラックで計算機で自動チェックしてるみたい。さすがはGoogle
URLリンク(www.youtube.com)

424:名無しさん@お腹いっぱい。
21/05/16 07:29:40.83 FvakAbYC0.net
おっ○いの闘い
URLリンク(www.youtube.com)
ラスト音声トラック同期版

425:名無しさん@お腹いっぱい。
21/05/16 09:25:43.50 FvakAbYC0.net
女の闘い
ブロック済
URLリンク(www.youtube.com)

426:名無しさん@お腹いっぱい。
21/05/16 09:46:43.76 PUdxbC9h0.net
誰だよ日記呼んできたのw
うぜーよ

427:名無しさん@お腹いっぱい。
21/05/16 18:47:25.26 FvakAbYC0.net
ほむほむ
URLリンク(www.youtube.com)
非公開設定だが、ブロックされた
BANされない垢かな?

428:名無しさん@お腹いっぱい。
21/05/17 09:30:31.78 ZXkUDGDT0.net
しかしGPUの枯渇や異様な値上がりなんやねん・・
RX470_8Gでさえ中古で5万とかありえんわ。
新品4千円で売ってたのが夢の様だ。
1070ちも16000円やったのに。

429:名無しさん@お腹いっぱい。
21/05/17 10:30:57.76 gRpQHRPy0.net
ラデは対応してないみたいだけど、未対応なだけ?今後も対応予定無しなのかな

430:名無しさん@お腹いっぱい。
21/05/17 11:13:58.20 ZXkUDGDT0.net
DirextX12版で普通に動くけど。
且つRadeはVram溢れた分は勝手にメインメモリに逃げるから、デカいのが回る。
DirectX12版は遅いけど、実測したらDFL1.0の3倍以上出てるし
なによりAI_enhancerがCuda無しで使えるからDFL関係なしに高速に画像高画質化できるのが良いね。

431:名無しさん@お腹いっぱい。
21/05/18 09:22:50.64 YhQVa2UZ0.net
グラボのメモリが多いほうがいいならquadroってどうなん?
nvidiaならquadroでもゲフォでもどっちでもいいのかな
DFLの使い方サイトではゲフォしか載ってないけど

432:名無しさん@お腹いっぱい。
21/05/18 09:29:58.48 r0a2WGk/0.net
quadro rtx a6000使用している人はいるみたいよ

433:名無しさん@お腹いっぱい。
21/05/18 09:42:38.87 YhQVa2UZ0.net
a6000はさすがに高すぎる。。。w
けど早くていいの出来るんだろうなぁ
もうすぐ出るa5000がメモリ24gで今の3090と同じような値段だけどどっちのほうがDFLには向いてるんだろう
メモリ容量は同じでも90はx付きだけど


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch