【質問】dfl【その3】at SOFTWARE
【質問】dfl【その3】 - 暇つぶし2ch384:名無しさん@お腹いっぱい。
21/04/26 00:35:58.47 kYMNlaSV0.net
そういうのいいから

385:名無しさん@お腹いっぱい。
21/04/26 01:28:23.59 Ga7VyGbW0.net
Xsegで舌を破線で囲って除外してからtrainしたら
舌を出してないフレームの一部でも口内が除外されてしまって
mergeすると口に違和感が出るようになりました
これを避けるには先に舌のあるパートと無いパートでdstを分割するしかないのでしょうか
何かいい方法がありましたらご教示下さい

386:名無しさん@お腹いっぱい。
21/04/26 08:47:05.58 8TtDd35S0.net
>>385
その口内を除去して欲しくないフレームのマスクを書いてトレイン
完璧にしたいなら、トレインして適用して、変になるフレームを書いてまたトレインしてのループをするしかない

387:名無しさん@お腹いっぱい。
21/04/26 12:57:22.83 kYMNlaSV0.net
>>385
fansegだとmaskに応じてちゃんと反映される
後は求める画をsrcが持ってれば精度は上がる

388:名無しさん@お腹いっぱい。
21/04/28 16:41:24.16 5pMQt8kK0.net
>>384
あいつアウトだろ
ツイッターでモザかければいいってもんじゃないのにな
事務所とかに通報してる人も結構いるらしいしもうそろそろ...

389:名無しさん@お腹いっぱい。
21/04/28 20:52:29.03 jKwPlVkD0.net
WEBのプロダクト紹介ポエムから制作ニワカなのが丸出しなんだよな…

390:名無しさん@お腹いっぱい。
21/05/05 16:24:51.53 NeCrKWaH0.net
ゾアタフ来てる

391:名無しさん@お腹いっぱい。
21/05/06 07:10:06.38 e9OJLbGy0.net
みなさんadabelief使ってます?

392:名無しさん@お腹いっぱい。
21/05/06 18:31:17.25 fXl6cLfg0.net
常にONだよ

393:名無しさん@お腹いっぱい。
21/05/06 19:01:24.64 8uOvXnX90.net
ad使いたくてもaedims512のmodelだとBS2まで下げて他のOP切ってもOOM吐く

394:名無しさん@お腹いっぱい。
21/05/09 11:57:47.23 KcsGK0sG0.net
Github覗いたら4月23日頃にこんなん出てんねんけど、何?
「added AMD/Intel cards support via DirectX12 ( DirectML backend )」
ラデも使えるんやったら、VRAMてんこ盛りのが余ってるからメチャ有り難いねんけど。

395:名無しさん@お腹いっぱい。
21/05/09 12:13:49.80 KcsGK0sG0.net
自己解決っつーか、処理が早くて要望が上がってたDirectX12版のDFLリリースされてんだw
っでAMD/Intel系が自動的に対応って理屈やね。
ヤバいんちゃうん?16GBの板が1万で売ってるAMDやで?
//blog.csdn.net/ddrfan/article/details/116085129

396:名無しさん@お腹いっぱい。
21/05/09 12:18:12.27 sclGtzl90.net
ビックリするぐらい遅いけど

397:名無しさん@お腹いっぱい。
21/05/09 12:36:48.26 KcsGK0sG0.net
自分トコで動いたんか?
動かんし2060スパーとmx250(インテルオンボよりはマシレベル)比較で
半分ぐらいの速度しか出んって話やけど、630とRX580では30倍ぐらい性能差があるから
ええトコ行くんちゃうん?
1.0のOpenCL版はCuda比較で20%程度の性能しか出んかったけど、VRAM量が圧倒的なんで
1iterあたりの学習差は50%ぐらいは稼げてた。
だから、性能は1.0の頃より2.5倍向上して安くてVRAM量が多いRadeは、
回転数以上のパフォーマンス出るでしょ。
まだちゃんと動かんみたいやけど、ヒマ見て試すわ。

398:名無しさん@お腹いっぱい。
21/05/09 12:38:22.18 dC6pQfzc0.net
changelogに
ゲフォより20~80%遅いと書いてあるからね
16G版ラデで20%遅いスピードでトレインできる感じかな(テキトー)

399:名無しさん@お腹いっぱい。
21/05/09 12:52:31.56 sclGtzl90.net
DFL1.0よりは速くなってるんだね
良かったね

400:名無しさん@お腹いっぱい。
21/05/09 14:39:51.63 j1SyNQjA0.net
Bad Request

401:397
21/05/09 14:53:07.02 7GLUQRSe0.net
今試し始めたけどExtractおっそ

402:名無しさん@お腹いっぱい。
21/05/09 15:02:09.08 Bvr4sTpV0.net
技術的な質問じゃないが、
このスレに配偶者がいたり恋人と一緒に住んでたりする人いる?その場合、隠れてやってる?
見られたときの気まずさって普通のAVとかエロサイトの比じゃないような気がするが。

403:397
21/05/09 15:47:07.04 7GLUQRSe0.net
FHDやとExtract1枚1.5秒もかかるし、2回めにPhytonがワーニング吐いてる。
>>402
そんなピーキーな関係で付き合うから別れるハメになるんだよ。
愛顧らでもDeepFakeでも「また悪巧みしてる」って笑われてるけど。

404:名無しさん@お腹いっぱい。
21/05/11 16:55:07.54 +gKf1ZOW0.net
見られたところでわからんくね?
芸能人Aで作ってたとして、DF作ったって言われなきゃわからないでしょ

405:名無しさん@お腹いっぱい。
21/05/11 19:07:48.39 PzT70Coy0.net
声のディープフェイクってまだないのかな?
ハシカンに好きな言葉言わせるとか

406:名無しさん@お腹いっぱい。
21/05/11 20:00:54.57 ieEMk1ST0.net
>>405
アドビのデモであったよ

407:名無しさん@お腹いっぱい。
21/05/12 09:02:39.20 dKw8q9B90.net
声のディープフェイクやりたいなぁ、知人の顔を手に入れるのは大変だけど声なら簡単に手に入るしw
けど犯罪防止で公開しないんじゃないか?

408:名無しさん@お腹いっぱい。
21/05/12 14:02:17.38 FAFNQAxW0.net
参考までにDX12版
radeon7と3090混ぜてheadの抽出が7~8枚/secって感じ
混ぜてやってるにしちゃ頑張ってる方じゃないかな

409:名無しさん@お腹いっぱい
21/05/14 23:04:37.15 z9HMic4B0.net
05_12_2021 きてるな

410:名無しさん@お腹いっぱい。
21/05/15 00:32:51.49 kXqmwQwO0.net
何が変わったの

411:名無しさん@お腹いっぱい。
21/05/15 06:16:48.49 dDwHuN7p0.net
とりあえずDLして
changelog.html
を見れば分かる

412:名無しさん@お腹いっぱい。
21/05/15 09:15:09.55 kXqmwQwO0.net
============ CHANGELOG ============
== 12.05.2021 ==
FacesetResizerは、顔の種類の変更をサポートするようになりました
XSegEditor:削除ボタンを追加
XSegトレーナーのトレーニングサンプルの拡張が改善されました。
XSegモデルは、さまざまな面が大量にある場合にうまく機能するように変更されているため、既存のxseg モデルを再トレーニングする必要があります。
さまざまな面で事前トレーニングされた汎用XSegモデルが追加されました。きれいな顔が含まれているため、src フェイスセットに最適ですが、 複雑な顔の障害物なしでdstフッテージに適用することもできます。
5.XSegジェネリック)data_dst whole_face マスク- apply.bat
5.XSegジェネリック)data_src whole_face マスク- apply.bat
意味わからへん

413:名無しさん@お腹いっぱい。
21/05/15 15:41:54.42 eAJd2YYp0.net
日記生きてたんか

414:名無しさん@お腹いっぱい。
21/05/15 15:55:16.44 4lLHMjB+0.net
作ったものを批評してもらいたいとき、顔以外を黒く塗りつぶした動画にしてからupしてもアウトになるのかな?

415:名無しさん@お腹いっぱい。
21/05/15 19:34:19.49 dDwHuN7p0.net
日記じゃねえ
そろそろ話題も尽きた様な。。
つべに下手くそがうp
顔がチラチラ
ボケボケ
つべにすずちゃんのばきゅーんを上げたいが、
著作権侵害で怒られるかも
ハリウッドセレブのノンアダルトなら。。
腕前の披露だけとか

416:名無しさん@お腹いっぱい。
21/05/15 19:42:47.59 dDwHuN7p0.net
つべにうpする時に非公開設定なるものが
URL貼り付けで、他の人も見れるのでは?
それでも消されるか/怒られるかは知らん
Mega.nzで共有して、リンク貼り付けでこっそりとか

417:名無しさん@お腹いっぱい。
21/05/15 20:07:24.30 dDwHuN7p0.net
顔ぐらいしか見えない様に、クロップでもして、
誰と言わなければセーフな気もしてきた
音声トラックはなしとか
DeepFakeとかも言わない方がいいかも
つべにうpするときも、著作権の侵害でも、収益化できないだけだったりする
場合によると思いますが

418:名無しさん@お腹いっぱい。
21/05/15 20:40:41.09 dDwHuN7p0.net
女の闘い
URLリンク(www.youtube.com)
著作権侵害の申立あり

419:名無しさん@お腹いっぱい。
21/05/15 21:13:41.97 eAJd2YYp0.net
「すずちゃん」とか文体然りどう見ても日記 どうでもいけどw
>>414
1 flameずつ黒く塗るのか…

420:名無しさん@お腹いっぱい。
21/05/16 05:57:13.56 FvakAbYC0.net
>>412
ID:kXqmwQwO0
とはID違うやろがw
タブレットはWiFi接続のみだから、ルーターは同じで、同じIPアドレスになるのでは
ガラケーが使えなくなったら、パカパカスマホにしてネット契約はしないつもり
>>414
顔の絶対位置がそれほどずれないのであれば、Avidemux等でクロップもありかと
すずのばきゅーんでも作ってみますかね
怒られるだけで、垢BANされなければいいかと

421:名無しさん@お腹いっぱい。
21/05/16 06:04:29.85 FvakAbYC0.net
女の闘い
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)

422:名無しさん@お腹いっぱい。
21/05/16 06:23:41.82 FvakAbYC0.net
おっ○いの闘い
URLリンク(www.youtube.com)

423:名無しさん@お腹いっぱい。
21/05/16 06:41:16.29 FvakAbYC0.net
今の所、著作権侵害の申立なし
要は、相手が怒るか、気づかないか、大目に見るかとか
画像トラックや音声トラックで計算機で自動チェックしてるみたい。さすがはGoogle
URLリンク(www.youtube.com)

424:名無しさん@お腹いっぱい。
21/05/16 07:29:40.83 FvakAbYC0.net
おっ○いの闘い
URLリンク(www.youtube.com)
ラスト音声トラック同期版

425:名無しさん@お腹いっぱい。
21/05/16 09:25:43.50 FvakAbYC0.net
女の闘い
ブロック済
URLリンク(www.youtube.com)

426:名無しさん@お腹いっぱい。
21/05/16 09:46:43.76 PUdxbC9h0.net
誰だよ日記呼んできたのw
うぜーよ

427:名無しさん@お腹いっぱい。
21/05/16 18:47:25.26 FvakAbYC0.net
ほむほむ
URLリンク(www.youtube.com)
非公開設定だが、ブロックされた
BANされない垢かな?

428:名無しさん@お腹いっぱい。
21/05/17 09:30:31.78 ZXkUDGDT0.net
しかしGPUの枯渇や異様な値上がりなんやねん・・
RX470_8Gでさえ中古で5万とかありえんわ。
新品4千円で売ってたのが夢の様だ。
1070ちも16000円やったのに。

429:名無しさん@お腹いっぱい。
21/05/17 10:30:57.76 gRpQHRPy0.net
ラデは対応してないみたいだけど、未対応なだけ?今後も対応予定無しなのかな

430:名無しさん@お腹いっぱい。
21/05/17 11:13:58.20 ZXkUDGDT0.net
DirextX12版で普通に動くけど。
且つRadeはVram溢れた分は勝手にメインメモリに逃げるから、デカいのが回る。
DirectX12版は遅いけど、実測したらDFL1.0の3倍以上出てるし
なによりAI_enhancerがCuda無しで使えるからDFL関係なしに高速に画像高画質化できるのが良いね。

431:名無しさん@お腹いっぱい。
21/05/18 09:22:50.64 YhQVa2UZ0.net
グラボのメモリが多いほうがいいならquadroってどうなん?
nvidiaならquadroでもゲフォでもどっちでもいいのかな
DFLの使い方サイトではゲフォしか載ってないけど

432:名無しさん@お腹いっぱい。
21/05/18 09:29:58.48 r0a2WGk/0.net
quadro rtx a6000使用している人はいるみたいよ

433:名無しさん@お腹いっぱい。
21/05/18 09:42:38.87 YhQVa2UZ0.net
a6000はさすがに高すぎる。。。w
けど早くていいの出来るんだろうなぁ
もうすぐ出るa5000がメモリ24gで今の3090と同じような値段だけどどっちのほうがDFLには向いてるんだろう
メモリ容量は同じでも90はx付きだけど

434:名無しさん@お腹いっぱい。
21/05/19 06:33:49.74 pHUuxLRo0.net
今から新しくPCを買う予定の者で、GPUはRTX3060にしようと思っています。
現実的な値段でVRAMが12GBと多かったのでこれがいいと思ったのですが、やはりVRAM容量は
大切なのでしょうか。また、RTX3060だとCUDAコア数が比較的少ないようですが、コア数はどのくらい
大事な要素なのでしょうか。RTX3060と比べて極端に値段の高くないものでこれより良いものがあれば教えてほしいです。
ちなみにdeepfake以外には高い性能を要する用途では使わない予定です。

435:名無しさん@お腹いっぱい。
21/05/19 09:28:39.11 9rV2XUwq0.net
ちょっと古いけどTITNXも12gでそっちはSLIもできる
中古で5万くらいで買えるみたい
どっちがいいのかは知らんけど、1枚なら3060、SLIするならTITANXじゃね?

436:名無しさん@お腹いっぱい。
21/05/19 12:58:26.49 nmsaiqKz0.net
最近のビルドって、Iterが何回目かに1回異様に遅くなるなぁってGitHub覗いたら
4回から16回に1回起きるらしいね。
特に高性能GPUほど発生頻度・遅延時間が酷いらしいけど、みんなも起きてる?
ウチのはショボいから1/16ぐらいの頻度で、倍遅いことがあるけど、
3090だと1/4ごとに30倍ぐらい遅くなって深刻らしい。
あと、メモリ認識が無条件にシステム予約分を差っ引いた値になり
複数台GPU搭載してDFL専用のフリーGPU作っても、無条件にシステム予約分が差っ引かれる。
だからウチのも8GBのうち0.8Gぐらいが使用されずに空いたまま。
なんかすげぇ勿体ないんですけど。

437:名無しさん@お腹いっぱい。
21/05/19 13:28:35.47 kZvylfeE0.net
2080tiだけど確かに1/15~1/20くらいで倍かかることあるわ
そのIterって決まってloss値も高く出るから
なんか難しい顔面処理して時間かかったんかなくらいにしか思ってなかった

438:名無しさん@お腹いっぱい。
21/05/19 16:41:03.94 JhIrvuGf0.net
700msが突然2秒とかなる時あって大丈夫か?と思ってたけど仕様かよ…

439:名無しさん@お腹いっぱい。
21/05/19 18:26:45.50 PzF11tfx0.net
俺も遅延あった、aligned内の画像2048にしてるとき起きて、512とか768え固めたら治ったから
別もんかもしれないが。

440:名無しさん@お腹いっぱい。
21/05/19 20:20:16.72 7a+U+8wR0.net
>>434
数か月使ったらGPU作業よりも時間を食うのでCPU優先が良いと思う
FHD画質ならres512以上は無意味じゃね?dimsなんかも等倍に出来なくてバランス悪そうだし

441:名無しさん@お腹いっぱい。
21/05/19 23:05:04.82 ClOdUpn50.net
TSMC、Intel、Nvidiaが数年単位のチップ不足を警告
URLリンク(cafe-dc.com)
GeForce RTX 30供給不足の原因はSamsungの歩留まり低迷か?、台湾メディア
URLリンク(news.mynavi.jp)
Intel・NVIDIA・TSMCの重役が「世界的な半導体不足は2021年中続く」と予測、最悪の予測は「2023年以降も続く」
URLリンク(gigazine.net)
TMSC GPU 半導体 値上がり

442:名無しさん@お腹いっぱい。
21/05/19 23:19:33.09 ClOdUpn50.net
半導体不足解消されたら、安くなるのかね?

443:名無しさん@お腹いっぱい。
21/05/20 05:02:26.85 zr67n6c00.net
CPU Ryzen 5950x
GPU RTX3090
DFL2.0
5.XSeg) trainを実行したらエラーで止まってしまうんですけど、原因分かる人いませんか?
6) train SAEHDは実行できるのですが、XSegを使うことができません。
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "multiprocessing\spawn.py", line 105, in spawn_main
File "multiprocessing\spawn.py", line 115, in _main
File "C:\Users\○○p\DeepFaceLab_NVIDIA_RTX3000_series\_internal\DeepFaceLab\core\leras\initializers\__init__.py", line 2, in <module>
from tensorflow.python.ops import init_ops
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\__init__.py", line 41, in <module>
from tensorflow.python.tools import module_util as _module_util
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\__init__.py", line 39, in <module>
from tensorflow.python import pywrap_tensorflow as _pywrap_tensorflow
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 83, in <module>
raise ImportError(msg)
ImportError: Traceback (most recent call last):
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 64, in <module>
from tensorflow.python._pywrap_tensorflow_internal import *
ImportError: DLL load failed: ページング ファイルが小さすぎるため、この操作を完了できません。
Failed to load the native TensorFlow runtime.
See URLリンク(www.tensorflow.org)
for some common reasons and solutions. Include the entire stack trace
above this error message when asking for help.

444:名無しさん@お腹いっぱい。
21/05/20 10:12:37.08 f4P52IEH0.net
日本語で理由書いてあるやん
仮想メモリ増やしなよ
tensorflowのエラーがよく出るのは
vram不足とGPUの低電圧化
3090だとかなり欲張りな設定じゃないとvram不足にならんけどね

445:名無しさん@お腹いっぱい。
21/05/20 11:11:21.63 kPe9fco50.net
ヤバいな、うちのネコが勝手にPC使ってdeep fake作る時代になってるのかも

446:名無しさん@お腹いっぱい。
21/05/20 18:57:45.96 PWAMirGC0.net
ページングファイルが小さいってさ、仮想メモリ不足でも起こるよね。
その場合、新たにメモリ領域を確保するか。
Cドライブ空き容量増やすかで改善する。

447:名無しさん@お腹いっぱい。
21/05/20 18:58:26.52 PWAMirGC0.net
あぁ仮想メモリ増やせってすでに書いてるね。

448:名無しさん@お腹いっぱい。
21/05/21 13:28:23.21 8KkTKvF10.net
身近な知人とかで作ってる人いる?
画像集め無理だよな、、、ただでさえ写真ゲットむつかしいのにコロナのせいでずっとマスクしてるし
技術が進めば卒アルから作れるようになったりするのかな

449:名無しさん@お腹いっぱい。
21/05/22 12:20:54.52 xB+pRSfV0.net
>>416
なんでつべに貼りたがってるのか良くわからんけど
ちょっと見てもらいたいだけなら、どっかのロダにパス付きで貼って晒せば良いんじゃないの
貼るんならココよりも↓こっちのが良いと思う
Deepfake総合 ★29
URLリンク(mercury.bbspink.com)

450:名無しさん@お腹いっぱい。
21/05/30 02:32:05.45 stJcXwc/0.net
あなた達は私にbukkakeの作り方を教えることはできますか?
私は自分の独自の手段でbukkakeの挑戦をしていますが、まだ成功していません。

451:名無しさん@お腹いっぱい。
21/05/30 03:56:22.01 eE/b2fkt0.net
>>450
翻訳乙

452:名無しさん@お腹いっぱい。
21/05/30 06:00:38.17 gnHvI3uH0.net
RTX3070買ったんで3000用のBuild使ってみたら、
Resolutionは128じゃないとエラー出るし、VRAMは8GBのはずなのに6.44GBって表示される
1080ではResolution192で出来てたのにどうなってるんだ…?

453:名無しさん@お腹いっぱい。
21/05/30 12:10:17.61 AzSojR8u0.net
>>452
win10をmay2020update以降に更新
ゲフォも451.48以降のドライバにして
GPUスケジュールリングをonにする
vram使用量はわからん
久しぶりに3070でdf動かしたらvram使用量は7.8Gだった

454:名無しさん@お腹いっぱい。
21/05/30 13:54:58.71 OTxm4i7K0.net
>>450
mask_dimsをdecooder_dimsの50%程度まで上げる(通常は30%位) ※但し、モダイクのエッジ(口元に一番近い半円状の部分)がキツくなる
mask editorで当該部分を手動mask fanseg(Xsegだとイマイチ)で集中学習させておく dfよりliae系の方が反映度高い気がする

455:名無しさん@お腹いっぱい。
21/05/30 14:47:37.73 gnHvI3uH0.net
>>453
やってみたけどダメだった
GPUスケジューリングはonにしてたからwindowsとゲフォドライバ更新した
CUDAも11.3に更新してある
You are training the model from scratch.
It is strongly recommended to use a pretrained model to speed up the training and improve the quality.
って出てOOMになるんだけど、今までスルーしてたxSegのモデルが必須になったりしてる…?
一応xSegで10枚くらいやってみたが変わらなかったけど

456:名無しさん@お腹いっぱい。
21/05/30 15:30:47.70 AzSojR8u0.net
>>455
oom出ているならbatch数減らして様子見るしかないかな
xsegは最新版で学習方法変わってtrainやり直しだけど関係ないと思う
旧xsegでマスク済ならそれ使用して問題ない
xseg genericがそこそこ優秀だから凝ったマスクをしないかぎりこれで十分
英文は
modelをゼロからトレーニングしているよ
pretrain済みのmodel使えばスピードも品質も向上するよって意味だから
1080で使用してたmodelを流用するかgithubのリンクからダウンロードする

457:名無しさん@お腹いっぱい。
21/05/30 17:10:16.82 gnHvI3uH0.net
>>456
train始まった、ありがとう助かった
modelの流用ってそういうことか…
dstとsrc両方違くてもmodelファイルに入れれば利用できたの知らなかったから、
今までpretrain使ったことなかった…

458:名無しさん@お腹いっぱい。
21/06/01 04:30:29.82 NaQZjGJ/0.net
質問です。
build_01_04_2021で、modelを流用しながらやってるのですが、
loss値が下がる毎に肌が部分的に擦りむいたというか、ただれたかのように、赤と黄色っぽい色のモアレのように
なってきました。これがmodelの崩壊というやつですか?治し方があったら教えてください。

459:名無しさん@お腹いっぱい。
21/06/01 09:17:31.60 DkbBI8Ow0.net
GANは使い回すと壊れやすいのか、肌の質感がおかしくなる感じがする。たまにGAN関連のファイルだけ消してる。

460:名無しさん@お腹いっぱい。
21/06/01 16:46:17.95 T8qtiPuh0.net
>>458
srcフォルダにもdstと同じフェイスセットを入れてrandomwarpでまわしたらええと思う

461:名無しさん@お腹いっぱい。
21/06/01 20:27:53.69 12WbP+md0.net
それなんの意味があるの
普通にモデル崩壊してるから最初からやるしか無いと思うよ

462:名無しさん@お腹いっぱい。
21/06/01 21:33:12.75 +oX0ZDEO0.net
自分の場合は使い回し用modelは25k程度で保存しておいて、今日の素材が決まったらsrc/srcでクリアになる前辺りまでtrain
その後dstを本番に入れ替えてって流れだと似つつ早い

463:名無しさん@お腹いっぱい。
21/06/01 22:54:45.13 NaQZjGJ/0.net
458です。皆さん有難うございます。
まずはmodelが崩壊してるじゃないかということですね。
random warpを諸々の条件加えて修復試みてみます。
去年まで、fanseg でやってて、今年からbuild変えて始めたばっかりなので、
訳も分からず、Adabeleifを疑ってたりしました。
いずれにしても、以前のbuildよりmodelが壊れやすいのですね。

464:名無しさん@お腹いっぱい。
21/06/01 23:17:38.19 FDTJh7SL0.net
まだ壊れたことないので参考にさせて欲しいんですけど
iter数・各powerオプションの数値・勾配クリッピング使用の有無
を教えていただけないでしょうか

465:名無しさん@お腹いっぱい。
21/06/01 23:33:48.45 B6yGj4FH0.net
あれ?以前のバージョン消された?

466:名無しさん@お腹いっぱい。
21/06/02 06:39:37.76 m43NnH8U0.net
458です。
100万iter
eye mouth prio y
adabelief y
face style power y 0.1
で、やっていました。
それで、夕べからrandom warp のみ yで8万回回したら完全に治っておりました。
有難うございました。

467:名無しさん@お腹いっぱい。
21/06/03 21:46:53.12 FzjeA7O60.net
LHR版のグラボだとなんか影響出たりするだろうか

468:名無しさん@お腹いっぱい。
21/06/04 01:12:19.80 JXzzU3Zm0.net
xseg genericの使い方がわかりません。
これを実行したあとxseg trainでしょうか

469:名無しさん@お腹いっぱい。
21/06/04 10:02:30.64 DjIhu11x0.net
xseg trainせずにxsegを適応させるのがxseg generic

470:名無しさん@お腹いっぱい。
21/06/05 17:43:19.20 yQlVk0er0.net
>>466
face style powerが原因じゃないかな
一度試してみたことあったけど肌の色が変わっちゃって以来使ってないや

471:名無しさん@お腹いっぱい。
21/06/05 20:26:22.83 8SPey0ws0.net
3090買って環境は整ったけどいざやるとなると誰と誰をくっつけようか、、、
練習用にこれとこれって定番あったりする?

472:名無しさん@お腹いっぱい。
21/06/07 21:12:19.28 MEWcsuHP0.net
このタイミングで3090買うとかまじかよ。

473:名無しさん@お腹いっぱい。
21/06/07 23:36:12.88 z+s1c0Wd0.net
vram倍だし、別によくね?

474:名無しさん@お腹いっぱい。
21/06/08 07:10:29.56 jQDjXLaY0.net
3080tiの値段見ると3090で良いかなと思うわ
おれは1月のnvidiaのカンファレンスで80tiの発表がなかったから3090を購入した
>>471
似てる似ていないは個人の主観でかなり左右されるし逮捕者も出ているからから
定番とかはおすすめしにくい
過去ログ倉庫から素材スレをさがすしかないかな

475:名無しさん@お腹いっぱい。
21/06/08 14:52:17.59 arKSKjcf0.net
>>471
おでこと輪郭が髪で隠れていない組み合わせ なるべく正面で明るいスタジオ撮影の素材
dstは1分以内で、extractは自動とマニュアル両方試して範囲や補足し易さを比べてみよう

476:名無しさん@お腹いっぱい。
21/06/10 17:46:42.27 TbiE4rbU0.net
紙長いのはむつかしいのか
せっかくなら無修正で作りたいけどカリビアンとか1か月だけ入会してDLしまくろうかなぁw

477:名無しさん@お腹いっぱい。
21/06/11 08:05:22.48 bbwMmrk40.net
4Kディスプレイにしたらプレビュー画面とか小さくて見ずらいんだけど、解決法ある?

478:名無しさん@お腹いっぱい。
21/06/11 09:58:19.70 1ddRA1dL0.net
フルHDディスプレイで試してみれば?

479:名無しさん@お腹いっぱい。
21/06/11 10:22:34.01 9UIJBXLp0.net
デスクトップ画面で右クリックして
ディスプレイ設定→拡大縮小とレイアウトを100%から150%とかに変更すれば
画面全体が見やすくなるはず

480:名無しさん@お腹いっぱい。
21/06/11 16:24:06.11 bbwMmrk40.net
>>479
%を変えただけだと、150とか200にしてもプレビューだけ何故か大きさ変わらないんだよね
解像度を変えれば間違いなく大きくなるけど、4Kの意味無いじゃんって感じではあるけど、これしか方法はないかな

481:名無しさん@お腹いっぱい。
21/06/11 18:44:13.92 1ddRA1dL0.net
いやだから、フルHDディスプレイにしたらいいじゃん
自分でも言ってるように、解像度を変えて大きくしても4Kの意味ないじゃん
デュアルモニタで用途に応じて4KとフルHDを使いわければいい
なんで俺を無視して「これしか方法はない」とか言ってんだよ
デュアルモニタするスペースがないとかならそう言えよ

482:名無しさん@お腹いっぱい。
21/06/11 19:00:01.00 bbwMmrk40.net
いや4Kでデュアルにしたんだよ

483:名無しさん@お腹いっぱい。
21/06/11 19:02:32.22 bbwMmrk40.net
>>478
ああ、これがお前か
なんで無視したのかわからないのか?

484:名無しさん@お腹いっぱい。
21/06/11 19:31:49.76 Ol7Tk7MO0.net
プレビュー画面の大きさはtrainするときの解像度の値に依存するはずでは?

485:名無しさん@お腹いっぱい。
21/06/11 20:54:24.34 HboJbhDn0.net
うむ Resolution 192以上だと縦4横5が維持できなくなる

486:名無しさん@お腹いっぱい。
21/06/11 20:55:35.82 bufiJ0rr0.net
>>483
性格悪いな
回答くれた人に対する態度とは思えん

487:名無しさん@お腹いっぱい。
21/06/11 21:14:48.06 1ddRA1dL0.net
>>482
後だしやんけ
477みたらフルHD(1台)とかから4kに切り替えたと思うじゃん

488:名無しさん@お腹いっぱい。
21/06/11 21:15:57.58 bbwMmrk40.net
そういうのいいから

489:名無しさん@お腹いっぱい。
21/06/12 04:47:04.27 JYJDz9Xu0.net
◆Model_SAEHD/Model.py 763行目あたり
n_samples = min(4, self.get_batch_size(), 800 // self.resolution )
if self.resolution <= 256:
最大表示行4。res256の場合、800を256で割ったときの数=3行まで表示できる
バッチサイズが2だった場合は2行しか表示されない。res256を超えてる場合は1行表示
4→10 800→3840 256→384 に書き換えて
res384 バッチサイズ8 でトレインした時のプレビューは8行になるけど1マスが小さくなる
プレビュー全体の大きさを変えられればいいんだけどわからない

490:名無しさん@お腹いっぱい。
21/06/12 10:49:51.86 y1WHG5Vx0.net
>>489
超ありがとう、縦2行はまだしも、横2列なのがずっとストレスだった。解消された。

491:名無しさん@お腹いっぱい。
21/06/12 11:33:33.64 JYJDz9Xu0.net
それは何より。256超えても384なら2行表示だった気もするけど、まあ分かりますかね

492:名無しさん@お腹いっぱい。
21/06/12 12:15:23.22 y1WHG5Vx0.net
>>491
見つけたと思う、
\_internal\DeepFaceLab\mainscripts\
275行の
max_size = 800
でプレビューの縦サイズmax変えられるみたい。
>>489のと組み合わせてどうだろうか?

493:名無しさん@お腹いっぱい。
21/06/12 12:15:55.89 y1WHG5Vx0.net
↑肝心なとこ忘れてた、Trainer.pyね。

494:名無しさん@お腹いっぱい。
21/06/12 14:35:58.31 1etQVIEi0.net
スレが機能しているだと…!?

495:名無しさん@お腹いっぱい。
21/06/12 15:02:42.60 JYJDz9Xu0.net
>>492
ありがてぇ。これは捗る

496:名無しさん@お腹いっぱい。
21/06/12 15:45:30.67 oWYsPAjh0.net
いい流れだ
昨日のアホみたいな長文とは違う

497:名無しさん@お腹いっぱい。
21/06/12 18:17:54.69 1etQVIEi0.net
batch/resolutionの設定に関わらず、縦4横5でディスプレイの縦幅最大に合わせた表示にしたい!

498:名無しさん@お腹いっぱい。
21/06/13 03:43:54.45 mDSEZXa30.net
>>489さんと>>492さんの書いてることやってみました
SAEHDはしっかり反映されてるけどAMPでトレーナー開くと2✕3のままでした
model.pyはもちろんAMP側を変えたんですけど原因わかる方いますか?

499:名無しさん@お腹いっぱい。
21/06/13 09:01:42.48 j+ACoQ880.net
>>498
それこそ、model.pyの記述見てみたらres関係なく
st = [ np.concatenate ((S[i], D[i], DD[i]*DDM_000[i]), axis=1) ]
st += [ np.concatenate ((SS[i], DD[i], SD_075[i] ), axis=1) ]
の2×3行になるように設定されてるからでは?

500:名無しさん@お腹いっぱい。
21/06/13 12:16:37.11 2B5J8XuA0.net
Internal Server Error

501:名無しさん@お腹いっぱい。
21/06/13 21:06:13.64 arhvwpHs0.net
縦は解決しましたが、横2列なのは変わらない。
これを変える方法ありますか?
ご存じもかた、よろしくお願いいたします。

502:名無しさん@お腹いっぱい。
21/06/13 22:14:01.33 cm5XN6360.net
res結構デカイってこと?
>>489 の256のところをそのサイズにしてみればどうだろう

503:名無しさん@お腹いっぱい。
21/06/13 23:20:15.90 mDSEZXa30.net
>>499
stを追加していけば増えました
ただ全く同じ画像が縦に増えただけでした…
言語の知識がないので頓珍漢なことをしてるのでしょうね
SAEHDと同じように4-5列に増やすことはできますか?
わかる方おられましたらお手数ですがご教示いただきたいです

504:名無しさん@お腹いっぱい。
21/06/14 03:37:23.60 c/YeWTVj0.net
Model_AMP/Model A5.py の746行目~834行目(#overrideから次の#overrideまで) をコピーして使える
>>489のようにいじることもできるかな。アップデートでModel A5.pyが消えるかもしれないのでバックアップしといて

505:名無しさん@お腹いっぱい。
21/06/14 23:16:48.77 D/PPtnwO0.net
>>504
ありがとうございました
無事以前プラスαのトレーナーになりました
無知な私にも懇切親切にご教示いただき感謝します

506:名無しさん@お腹いっぱい。
21/06/16 00:51:21.29 8YI3HpYy0.net
意味不明w

507:名無しさん@お腹いっぱい。
21/06/16 00:52:31.55 8YI3HpYy0.net
すまん
書き込むスレ間違えた

508:名無しさん@お腹いっぱい。
21/06/18 17:47:49.43 kBLTpXvJ0.net
>>504やった後だとmergeでエラーでるかも
元のModel.pyなら出ないので、merge用の別環境作るか
記述を見比べながらカスタマイズしてくれ

509:名無しさん@お腹いっぱい。
21/06/19 17:19:05.99 gm9RTeA00.net
一年ぶりにやっていますが色々忘れてしまっているので質問します
女優Aの人をずっとトレーニングしていてやっぱり別の作品にはめこみたいとなった場合
1.既にあるdata_dstディレクトリを名前変えてバックアップ
2.新しくはめ込みたいdata_dst.mp4から顔を抜き出し ずっとトレーニングしていたモデルを使ってトレーニングを継続
これでいいんでしょうか? 

510:名無しさん@お腹いっぱい。
21/06/19 20:42:24.23 jh4dZyY30.net
>>509
普遍的な正解ってのは無いけど、時短/似せたいという条件だと大体そんな感じ。
古いほうのdata_dstとalignedファイルだけ※どっか別の場所に保管して、新しいdata_dstを持って来る。
※src人物名→素材名(番組名)→srcセット(aligned/data_src/model) って階層で保管すると多くなってから流用し易くなる
             →dstセット(aligned/data_dst)
modelはそのまま同src人物において使い続けても良いけど、どこかで壊れたり似なくなって来たりする事もあるから
iter 25-50k辺りでコピーしておいて、それを同srcの流用modelとして都度持ってくるのがお勧め

511:名無しさん@お腹いっぱい。
21/06/19 20:46:28.21 jh4dZyY30.net
普及?して結構経つし、閉鎖的だから素材管理も手順も自己流って人が多いと思う
それぞれ環境や目的に合ったやり方が見つかってるといいね

512:名無しさん@お腹いっぱい。
21/06/20 20:37:58.41 PlINfQIg0.net
20万ほどトレーニングしていざマージしてみようとしたら以下の英語メッセージがでて何も進まない状態になりました
URLリンク(i.imgur.com)
It is strongly recommended to process the faces separatelly.
Use 'recover original filename' to determine the exact duplicates.
Warning: multiple faces detected. Motion blur will not be used.
英文を翻訳はしましたが何をどうすればいいのかわからない状態です
どなたか教えてくれると助かります

513:名無しさん@お腹いっぱい。
21/06/20 20:55:58.00 3OIeeX4C0.net
alignedフォルダの中に_1がつくファイルがあると思うから消してみ

514:名無しさん@お腹いっぱい。
21/06/20 21:00:24.71 PlINfQIg0.net
>>513
わかりました 見てみます

515:名無しさん@お腹いっぱい。
21/06/20 21:04:01.65 PlINfQIg0.net
>>513
URLリンク(i.imgur.com)
data_dstのalighedフォルダの中にこれだけ居ましたので消してみます
data_srcのalignedフォルダの中にも_1がつくファイル名が割といたのですがそちらも消すでよいですか?

516:名無しさん@お腹いっぱい。
21/06/20 21:31:36.56 3OIeeX4C0.net
もうちょっと頑張るのなら、_0と_1を比較して正しい方を残すのが正解
これ以上は説明がめんどい

517:名無しさん@お腹いっぱい。
21/06/20 21:41:38.78 K+Wsc6Di0.net
壁の柄とか男の顔にmergeされて女の顔チカチカしてそう

518:名無しさん@お腹いっぱい。
21/06/20 21:52:02.49 l13tojiL0.net
extractは手動に限る…

519:名無しさん@お腹いっぱい。
21/06/21 13:22:01.16 Upp5sOsC0.net
多分debug見なきゃ判別できないタイプじゃね

520:名無しさん@お腹いっぱい。
21/06/21 14:08:59.40 AWUT/H4f0.net
動画を切り出す作業をしないって人なのかも

521:名無しさん@お腹いっぱい。
21/06/21 15:01:54.57 FlbtnxHg0.net
マージしてできたファイルがお面かぶったみたいになるのですが
これって単にトレーニング不足なんでしょうか?
Iterの数字は120000過ぎあたりでちょっとやってみた結果です
URLリンク(i.imgur.com)

522:名無しさん@お腹いっぱい。
21/06/21 20:49:49.65 ffcZmnvW0.net
マージのときにblurを増やす

523:名無しさん@お腹いっぱい。
21/06/21 22:21:12.32 BDpSTyEU0.net
センスが微塵も感じられないので手を引きましょう

524:名無しさん@お腹いっぱい。
21/06/21 22:35:28.99 ffcZmnvW0.net
お前がこのスレから手を引けよハゲ

525:名無しさん@お腹いっぱい。
21/06/22 01:01:04.97 HFQ3GISY0.net
>>521
color transferの設定はrctがおすすめだぞ
iterの数ではなくloss値が0.2近くまで下がっているか確認しよう
merge画面でEのキーで境界をボカして調整しよう

526:名無しさん@お腹いっぱい。
21/06/22 11:29:01.21 gJT/QsmY0.net
>>522 >>525
ありがとうございます
URLリンク(i.imgur.com)
マージの時の設定にblurとcolor transferの設定みなおしてみます
loss値というのが右端のものが0.2を切るところまで回しました
みなさんは右から二番目の数字も0.2近くまでトレーニングしてますか?

527:名無しさん@お腹いっぱい。
21/06/22 11:53:07.30 0+MQl8kF0.net
>>526
rctがおすすめっていうのはtrainのときの設定ね。下から12番めのct_modeってやつ
参考までにワイのいつもの設定をあげとく
URLリンク(i.imgur.com)

528:名無しさん@お腹いっぱい。
21/06/22 11:57:45.82 JjNP+lBO0.net
それくらいの勾配になったらRW切っていいdstのRFもいらん
それでしばらく回してまた勾配緩くなってきたらLRD入れてお好みでGANつければいいよ

529:名無しさん@お腹いっぱい。
21/06/22 12:01:59.29 JjNP+lBO0.net
3090すごいなaedims上げてadbつけてbs16で回せるのか

530:名無しさん@お腹いっぱい。
21/06/22 13:23:47.77 8+ZmkIXl0.net
顔だけじゃなくてパーツとかも変えれたら面白いのにね
A子の顔でB子の体をベースにC子のおっぱいにして乳首はD子、まんこはE子って感じで理想のAV女優を作ってみたい
あと声のDFも出てほしいけど犯罪防止とかで一般公開されないんだろうなぁ

531:名無しさん@お腹いっぱい。
21/06/22 13:59:18.01 EOVlxFpy0.net
dst→1080P ほぼ正面5000枚 512pix FF
src→1080P顔アップ 厳選3000枚 512pix FF
Xseg Mask全画像適用済み 50万pretrain済みモデル使用
RTX3060 LIAE-UD res192 dimsデフォ バッチ10前後 Fdst UY RW ABオン
途中LRD EMP使用 最後RWオフ
loss値0.1になったらLRD+GAN0.1でプレビューがクッキリするまでtrain
これでdstが引きのシーンはほとんど問題ないけど
dstの顔がアップになるシーンでsrcの解像度不足が気になるんだよなぁ
フォーラムにDF-UDのFFでちょうど良いモデルが居ないからこの設定にしてるけど
DF-UD res320 dimsデフォよりDF-UD res192 dims512の方がsrcの画質良くなる?
それとフェイスセットの解像度は256とか1024に変えたらクオリティ結構変わるのかな

532:名無しさん@お腹いっぱい。
21/06/22 15:55:03.51 gJT/QsmY0.net
>>527 >>528
ありがとうごぜえますありがとうごぜえます
見よう見まねでパラメーター変更してみました
URLリンク(i.imgur.com)
このloss値というのがだんだん増えていくようになったんですががんばってれば減るんでしょうか?
これが0.2にさしかかったら>>528さんが教えてくれたパラメータ変更をしてみたいと思います

533:名無しさん@お腹いっぱい。
21/06/22 16:27:02.32 ihi2Cn0H0.net
loss値は減る一方でないとおかしい。やり直し。

534:名無しさん@お腹いっぱい。
21/06/22 19:15:47.21 GwYc/Dja0.net
loss増えるのはrandom warp中にいろんなオプション付けてるからだと思うが
少なくともctはrandom warp切ってから入れたほうがいい

535:名無しさん@お腹いっぱい。
21/06/23 19:42:33.35 qP7aZr600.net
金子みゆ隠さなくなってて草

536:名無しさん@お腹いっぱい。
21/06/23 20:12:34.83 hbOH0YQH0.net
train中のctって特に利点無いよね
マージの時だけで十分な気がするけど

537:名無しさん@お腹いっぱい。
21/06/24 09:03:18.31 hgUnlDdA0.net
train時にnoneでやってて、マージしたら顔の頬の部分に白飛びが発生したフレームがあったので、rctで少し追加trainしてやったら直ったことあったよ

538:名無しさん@お腹いっぱい。
21/06/24 13:00:36.00 NsvyVm870.net
>>536
お前はそれでいいからイチイチ同意求めんなよ

539:名無しさん@お腹いっぱい。
21/06/24 18:01:00.32 GFZtpRLa0.net
>>538
でも上のレスだとこうしろ!ああしろ!ばかりで初心者には意味分からないだろうなと思って

540:名無しさん@お腹いっぱい。
21/06/25 22:57:28.57 D3SPIYQN0.net
ここで聞くよりTwitterとかで聞く方がマシな答え貰える。

541:名無しさん@お腹いっぱい。
21/06/26 00:50:13.66 xmuSRDWC0.net
質問自体が見当違いな子に絡まれてかわいそう

542:名無しさん@お腹いっぱい。
21/06/26 10:13:56.90 4mcqUSwL0.net
>>532
お面は、マージ設定でmask modeがdstになってるからでは?
もしそうならxキーで何回か切り替えてみて。

543:名無しさん@お腹いっぱい。
21/06/26 13:36:14.92 mJGhjQLv0.net
マージする時って重い設定避けてもGPUあんまり使わないから遅いよな
Ryzen 5 3600 3.5Ghzから4Ghzに周波数上げるだけで3.3it/sから3.9it/sになったから
12コアとかにしたいんだけど
みんなマージの時にどのCPUで何it/sか教えてほしい

544:名無しさん@お腹いっぱい。
21/06/26 20:19:43.85 GdOCwOCK0.net
>>543
スリッパ3960Xでだいたい8it/sいかないくらい。
割に合わないというかスペック使いきれてない感あるわ
URLリンク(i.imgur.com)

545:名無しさん@お腹いっぱい。
21/06/26 20:56:01.54 mJGhjQLv0.net
>>544
RTX3090の人かな?
CPUについての情報少ないから助かるわありがとう
速くはなってるけど17万円24コアが2.5万円6コアの倍ってコスパ悪すぎるなw
3600だと使用率100%で張り付くから12コアの3900にしようかな
ちなみに1024pxで抽出したsrcとdst1万枚でマージしようとしたら
重すぎてマージできなくて512pxに変換したら問題無くできたから
フェイスセットの解像度でもかなりスピード変わりそう

546:名無しさん@お腹いっぱい。
21/06/26 23:04:46.80 xmuSRDWC0.net
FHDでも512以上って意味無くね

547:名無しさん@お腹いっぱい。
21/06/26 23:53:59.06 mJGhjQLv0.net
フォーラムのガイドに1080Pの場合は768〜1024をおすすめします的なことが書かれてたから安易に変えてみたんだけど画質変わらないしtrain時の読み込みも遅くなるしデメリットしか無かったわw

548:名無しさん@お腹いっぱい。
21/06/27 01:49:02.20 ocn4RUcd0.net
プレビューの画像のほうが最終的なマージより優秀だな

549:名無しさん@お腹いっぱい。
21/06/27 04:42:35.32 3yG9KXga0.net
それな…

550:名無しさん@お腹いっぱい。
21/06/27 08:43:04.87 +CVF5hv/0.net
mergeの設定変えれば良いのでは?

551:名無しさん@お腹いっぱい。
21/06/27 12:02:13.98 ocn4RUcd0.net
そんなん、プレビュー画像を出力し続けるようにModすればよくね?誰でも出来る件。

552:名無しさん@お腹いっぱい。
21/06/27 12:54:31.50 ADzsSK/y0.net
笛以外はrawを前提にして素材選びから変えるのも良いぞ 相性も色も割と無視出来て手軽

553:名無しさん@お腹いっぱい。
21/06/27 19:11:22.03 zVvBk5kK0.net
morph factor とか amp とか 使用感どうですか? 
ちょっとしばらく触ってなかったので、ついていけなくなってきた;;

554:名無しさん@お腹いっぱい。
21/06/28 02:02:02.22 jAsP+lkm0.net
たまにある正面からの固定アングルみたいなdstならAMP使えそうだけど
動き激しいのだとsrcの角度完璧に揃えないとmerge後SAEHDより違和感がある
morphはmodelに対して設定するのはよくわからんからデフォの0.33でやったけど
mergeの時のopは0だろうが1.0だろうが最高値でかかる恐らくバグ
結果AMPは断念したわハードルが高すぎるし使い勝手悪い

555:名無しさん@お腹いっぱい。
21/06/28 10:15:13.71 XUfTq1R50.net
55555

556:名無しさん@お腹いっぱい。
21/06/28 23:20:55.53 N9b3f5eO0.net
>>554
ありがとう。しばらく今までのsaehdでいきます。
xseg generic は使ってみる。changelogにあったあごのラインがおかしい画像の
パターンはよく起こって悩みの種だったので これが解決すればまじで神パッチだわ。

557:名無しさん@お腹いっぱい。
21/07/10 19:48:55.67 ygclf0IN0.net
pretrainの仕方って設定を選ぶときの最後の選択肢を有効にして、一定程度学習が進んだら無効にするという方法であってますか。
実際にその手順でやったら無効にしたあとプレビューが0から生成しているようですが、大丈夫でしょうか。

558:名無しさん@お腹いっぱい。
21/07/10 20:25:37.27 fVw4v6i10.net
>>557
あってるで

559:名無しさん@お腹いっぱい。
21/07/10 20:43:57.64 ygclf0IN0.net
ありがとうございます。
通常と同じくゼロから生成されるけど、仕上がりがよくなるという感じですか?

560:名無しさん@お腹いっぱい。
21/07/10 21:47:19.77 fVw4v6i10.net
うん
例えば車の新型だすとき使えるパーツは使い回した方が効率いいでしょ
ただcelebAは外車の公道用のパーツだから本当は日本車のレーシング用を集めたほうがいい

561:名無しさん@お腹いっぱい。
21/07/10 23:35:56.76 +joTc5dv0.net
>>559
良くなるというか早くなる。iter30k未満とかのpreviewが暗くて不鮮明な期間が短くなる感じ

562:名無しさん@お腹いっぱい。
21/07/11 00:52:48.31 CWlbfjOB0.net
外国人オンリーで100万回pretrainされたモデルを利用して
5万回くらい本trainすれば本人レベルになるから普通に満足してたんだけど
日本人のセットでpretrainしてからtrainしたらもっとsrcに似せられるのかな?

563:名無しさん@お腹いっぱい。
21/07/11 14:34:11.15 4iPJ7ijq0.net
厳密に比較して無いから分からんが、前髪とか髪色も鑑みるとそのはず
元々のceleb_Aを解凍してみるとアバターみたいな奴とか男とかかなり無茶な内容
自分がよく使うタイプのsrc/dstから50k枚位選んで100k程度(輪郭ハッキリしてくる程度)のpreでも十分なのは試した

564:名無しさん@お腹いっぱい。
21/07/11 15:34:42.18 CWlbfjOB0.net
枚数と回数の情報までサンクス
pretrain済みモデルだとdimsとかの設定も
自分のGPUの限界まで上げられないのが不満だから自分でpretrainしてみるわ

565:名無しさん@お腹いっぱい。
21/07/11 17:03:16.00 4iPJ7ijq0.net
スマン、50kじゃなくて5kだな 笛とかmask処理済の物も入れておくといいかも

566:名無しさん@お腹いっぱい。
21/07/11 23:20:27.22 CWlbfjOB0.net
ほぼ選別しないで全部ぶち込んでるのかと思ったわw
色んなパターンの良いとこ取りして鍛えてみる

567:名無しさん@お腹いっぱい。
21/07/17 16:05:41.43 tE1HHxke0.net
2枚の写真から作るって無理?
正面写真2枚で動画も正面の数秒ほどの動画で試しに作ってるんだけど顔にならん。。。

568:名無しさん@お腹いっぱい。
21/07/17 20:03:10.92 49RoD/PP0.net
>>567
①似た条件の人でiter25,000位まで回してから、目的のsrcと入れ替える
②画が足りない場合はDF系が合成し易い

569:名無しさん@お腹いっぱい。
21/07/17 20:17:11.20 m8SzxLwK0.net
画像を集める努力したほうが良い

570:名無しさん@お腹いっぱい。
21/07/18 04:03:32.95 AwEFT1wl0.net
>>567
写真から動画を作るAI活用したサービスがあるよ。

571:名無しさん@お腹いっぱい。
21/07/18 14:09:15.44 kQthvfK/0.net
>>569
卒アルとかじゃね こういう系↓もあるけど実用性は高くないかな
URLリンク(nvidia-research-mingyuliu.com)

572:名無しさん@お腹いっぱい。
21/07/19 07:59:07.03 mnpBJkqV0.net
卒アルではないけど写真手に入れるのが難しくてw
うまい人だと卒アルからでも作れるんかな
まだ始めたばかりだからとりあえず動画動画で練習してから写真にチャレンジしてみます

573:名無しさん@お腹いっぱい。
21/07/19 19:39:58.05 mnpBJkqV0.net
写真から作る場合ってちょっと時期が違う写真で化粧の感じが違うのは混ぜないほうがいい?

574:名無しさん@お腹いっぱい。
21/07/19 20:00:52.45 7YCgwTmN0.net
どうしても足りないなら仕方ないが、基本的には混ぜない方が良い

575:名無しさん@お腹いっぱい。
21/07/19 20:14:26.59 mnpBJkqV0.net
やっぱまぜないほうがいいかサンクス

576:名無しさん@お腹いっぱい。
21/07/19 20:54:13.59 /hLny+A60.net
グラボが3090なんですけどコア使用率が2~3%
メモリ使用が7.9Gしか使わないんですけどこんなもんですか?
フルに働いてほしいが

577:名無しさん@お腹いっぱい。
21/07/19 21:22:33.14 0p2eNPIv0.net
何をしてる時なのだ

578:名無しさん@お腹いっぱい。
21/07/19 21:41:05.01 /hLny+A60.net
すいません顔を解析してる時で、トレーニング中はコア20%メモリ20G弱まで上がりました
それでもフルに使えてないですね、OCしたらもっと早くなるのかな

579:名無しさん@お腹いっぱい。
21/07/19 23:07:10.44 0p2eNPIv0.net
顔を解析してるときはコアは1つしか使ってないから、どうやっても上がらない
train中はCPUじゃなくてGPUをフルで使ってるはず

580:名無しさん@お腹いっぱい。
21/07/20 00:28:20.23 zYKnJBhc0.net
抽出の方法変えちゃえば1080Tiですら標準の奴より
10倍くらい早く顔の抽出できるみたいだから
誰かに改善してもらいたいわ
作者なら頑張ればすぐ改造できそうな部分なんだけどなぁ

581:名無しさん@お腹いっぱい。
21/07/20 08:49:25.70 bmVR8mDJ0.net
やり始めたけどめっちゃ時間かかるね
ネットに上がってるような短いのじゃなくてAV1本丸々の超大作を量産しようと思ってたけど無理だなw
練習で1分の動画作るだけで糞時間かかってる

582:名無しさん@お腹いっぱい。
21/07/20 19:31:07.28 LH5uBg020.net
自分で抜くためなんだから数分でいいんだよ

583:名無しさん@お腹いっぱい。
21/07/20 21:38:24.36 0odC18lY0.net
今やり方覚えるために冒頭の顔だけの1分とかで練習してるけど全然うまくいかんw
素材が写真2枚ってのがダメなんだろうけどw
動画で手に入る似せたいのって特にないんだよなぁ。。。
もうAV→AVでやってみようかな

584:名無しさん@お腹いっぱい。
21/07/20 21:51:25.86 snh/Cinm0.net
初めて作成するのに写真2枚って・・・
根本的に認識が間違ってるな

585:名無しさん@お腹いっぱい。
21/07/20 22:23:41.94 0odC18lY0.net
動画でいろんな角度と表情が必要なのはわかってるんだw
ただ好きな芸能人とかも特にいないから作りたい顔の動画がないんだよね

586:名無しさん@お腹いっぱい。
21/07/21 01:26:00.03 G3eU1ERk0.net
srcが正面だけならカメラ固定のオナニー動画からスタートだな

587:名無しさん@お腹いっぱい。
21/07/21 03:00:33.81 bp3qHvqp0.net
昔、職場で一番のお気に入りの後輩のプレゼンの指導をたまたましたことがあって、
そのとき、慣例に従ってビデオ撮って「自分でどこ悪いか見とき」と本人に渡した。
いやぁ、そんときのビデオがこんなところで役立つとは思いもしなかったよw
てな訳で、ビデオ撮る口実見つけるのがオススメw

588:名無しさん@お腹いっぱい。
21/07/21 06:36:54.84 bCKSdgEy0.net
隙あらば

589:名無しさん@お腹いっぱい。
21/07/21 07:35:05.54 ZGIZHfNv0.net
おじさんキモいよ!(正論)

590:名無しさん@お腹いっぱい。
21/07/21 07:53:46.25 62aSpyoD0.net
AV見る時輪郭と身体重視になってしまったな
あとアングル的にやりやすそうなシーンがあると興奮が増す

591:名無しさん@お腹いっぱい。
21/07/21 08:00:19.81 81A7l/pw0.net
堂々と動画取れるのはうらやましいなぁ
チャンスがあったとしても最近はマスクしてるしね、、、

592:名無しさん@お腹いっぱい。
21/07/21 13:11:41.24 3cH6YO/Q0.net
587みたいなのを掲示板で書く奴は死んでほしい
俺らにとっても害悪だってことを認識すべき

593:名無しさん@お腹いっぱい。
21/07/21 18:33:08.72 Nc67crZ50.net
職場におばちゃんしかいない俺の気持ちも考えろ!

594:名無しさん@お腹いっぱい。
21/07/21 19:29:15.54 r7BcsjDB0.net
逆にマスクしてる組み合わせに挑戦してみるかな バックの画とかでdstの肩で口から下が隠れる素材でもイケる事もあるし
眼鏡は意外とsrcの目元も再現出来てたが全体的に無理があるというかボヤけ気味だった

595:名無しさん@お腹いっぱい。
21/07/25 22:25:04.18 rnjoPeZD0.net
mergeはrctよりnoneの方が合うことが多々あるね

596:名無しさん@お腹いっぱい。
21/07/25 22:35:58.61 ZYtB1o7m0.net
素材次第

597:名無しさん@お腹いっぱい。
21/08/25 23:29:17.11 fwtJX/oP8
workspaceの容量って普通どのくらい?設定がおかしいのか毎回iter30000付近で100GB超える


最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch