【質問】dfl【その3】at SOFTWARE
【質問】dfl【その3】 - 暇つぶし2ch63:名無しさん@お腹いっぱい。
21/01/10 17:38:20.88 S6XwlXVn0.net
俺の3080も確かに3Dが使われている
というか、そもそもcudaの項目がなくなっとるぞ

64:名無しさん@お腹いっぱい。
21/01/10 22:31:30.71 GjVlp6Gj0.net
>>63
RTX3000系もDFL安定して動作する様になりましたか?

65:名無しさん@お腹いっぱい。
21/01/10 23:01:04.87 S6XwlXVn0.net
>>64
最近までxegが動かない問題があったけど
最新版でGPUスケジューリングをONにしろって
て表示が出ててきてONにしたら動くようになったよ。
俺の3080はもう問題なし

66:名無しさん@お腹いっぱい。
21/01/10 23:04:30.82 a/Mpc8zA0.net
色々と調べてみましたが3000台は学習初動でvram使用計算にバグあるっぽいですね
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます

67:名無しさん@お腹いっぱい。
21/01/10 23:15:26.34 ldHKuG2D0.net
ついに3000番台を買うときが来たのか

68:名無しさん@お腹いっぱい。
21/01/10 23:16:58.06 S6XwlXVn0.net
>>66
凄く有益な情報ありがとう
いままでHEADだと256*4bachが
限界だったのに320*8でも動くようになったよ
3080tiが出るまで待とうと思ってたけど、
必要なくなったw

69:名無しさん@お腹いっぱい。
21/01/13 03:27:20.99 BcOqF2sv0.net
>>65-68
どうもありがとう
確かCudaコアが倍増とか??1 Iterも短縮?
消費電力は減るはVRAMは増えるは安くなるはで前世代から見て改善だらけかな?

70:名無しさん@お腹いっぱい。
21/01/13 04:50:01.39 gs+03oev0.net
3070よりVRAMの多い3060の方がこのスレ的には良いのかな

71:名無しさん@お腹いっぱい。
21/01/13 09:51:29.09 xmKQtiaT0.net
顔抽出の精度って学習されないんでしょうか?
debugフォルダ見たら何回やっても失敗が多いんですが。。。

72:名無しさん@お腹いっぱい。
21/01/13 18:44:02.83 3Hac03cm0.net
1080Tiから変える価値あるかな...
悩ましい

73:名無しさん@お腹いっぱい。
21/01/13 18:54:12.78 N8pw1+uI0.net
3060がvRam12GBで330ドルらしい
これ買いやろ

74:名無しさん@お腹いっぱい。
21/01/17 23:32:57.31 GF9iGrUJ0.net
顔画像をheadで切り抜きしてるけど上下にすごい余白ができる
余白ギリギリで切り抜いてほしいんだけど、調節する方法あるかなぁ?

75:名無しさん@お腹いっぱい。
21/01/17 23:57:25.58 2v/zwxJ80.net
>>74
headはそもそも頭部全体を切り抜くってアルゴリズムだから余白が多いのが当然だろ
head>Whole>full>harfで範囲が小さくなるんだから変更するしかないんじゃない?

76:名無しさん@お腹いっぱい。
21/01/19 00:28:39.19 LTGWcQnS0.net
>>75
そりゃそうだが縦幅の半分近く無駄にしている。
おかげでVRAM馬鹿食いの割に低解像度。
もうちょっと何とかなりそうだと思うが。

77:名無しさん@お腹いっぱい。
21/01/19 07:29:56.86 FSUOoPPp0.net
head最強だよな まんま本人に仕上がる

78:名無しさん@お腹いっぱい。
21/01/19 22:18:21.22 LTGWcQnS0.net
3080Tiが無期限延期になってしまった
3090にせざるを得ない

79:名無しさん@お腹いっぱい。
21/01/19 23:21:07.32 SW7ZtdJ70.net
ReadyToMerge model 良さそうだね

80:名無しさん@お腹いっぱい。
21/01/20 11:05:33.37 P6q7UDGa0.net
ときにみんなどこいったの?解散?

81:名無しさん@お腹いっぱい。
21/01/20 19:37:33.17 E0VTRomg0.net
俺はここにいるぞ

82:名無しさん@お腹いっぱい。
21/01/20 21:12:28.49 Eo6BWrtN0.net
ReadyToMergeモデルってのはごく少ないtrain回数で高品質なマージができるって意味?
特別なプログラムがあるわけじゃなくて、効率的なtrainのやり方って感じかな。

83:名無しさん@お腹いっぱい。
21/01/21 09:44:21.31 xgOvuSRQ0.net
RTMmodelはパターン豊富なsrcとdstにPretrain用データを使って事前に十分学習させとけば、本番のdstで全く学習せずにいきなりmergeしてもいい感じに合成できるよってことで合ってる?

84:名無しさん@お腹いっぱい。
21/01/21 10:01:04.01 79km7b5Y0.net
モデルの使いまわしを1つのsrcだけで効率よくするって感じか

85:名無しさん@お腹いっぱい。
21/01/22 23:56:02.92 65mc9Ut00.net
>>77
headって、背景やsrcとdstの髪型に気を遣って
AAEとかDavinci Resolveで後処理しないといけないんでしょ?

86:名無しさん@お腹いっぱい。
21/01/23 09:02:57.54 fUZZe34M0.net
>>85
確かに背景と髪の境界線は多少ちらつくので気になる人は映像処理するといいかも。
自分は我慢できる範囲。そこはデメリットかな。ちなみに顎と首の境界線はwf同等なので
だいじょうぶ。マスクはwfよりかはxseg-editの枚数増える感じ。なによりもdst関係なく
本人そっくりになるのがメリット。

87:名無しさん@お腹いっぱい。
21/01/23 11:35:03.15 6S5RB2j60.net
>>86
ふだん、耳・前髪・横髪含む前頭部とメガネ残しでxseg-editして、wfで回してるんだけど
趣旨考えるとやっぱりheadに移行したほうがいい結果いなりそうだな
xseg-editも髪の残す境界に悩まず全部マスクできれば枚数増えても逆に楽になるのかな
寝てる時とかの逆立ち毛や、長髪についても抽出した画像内では全部頭部としてマスク内に残してやってる?

88:名無しさん@お腹いっぱい。
21/01/23 11:52:56.82 Wkj8eEdW0.net
てかヘッドってsrcの髪型も揃えるんよね?
resなんぼでやってる?
224とかじゃ小さ過ぎるか

89:名無しさん@お腹いっぱい。
21/01/23 14:18:05.56 fUZZe34M0.net
髪は長髪でも頭部としてマスクしています、さすがにすこし乱れているのまでは
カットしてますが。xsegが思ったよりすごくて、長髪でもちゃんと学習してぴったり
合ってくるのは驚いた。マスクはdstもsrcも両方必須ですね。resは448です。
mrにあるpretrainモデルもheadだと少ししかないのであまり選択の余地はないですね。

90:名無しさん@お腹いっぱい。
21/01/23 14:37:43.30 Wkj8eEdW0.net
>>89
448は俺のpcじゃ無理だ!
GPUは3090ですか?

91:名無しさん@お腹いっぱい。
21/01/23 14:57:58.15 2xJk3k4U0.net
>>89
ほうほう
fでそれなりに満足できてたけどheadに手を出してみたくなった

92:名無しさん@お腹いっぱい。
21/01/23 15:11:05.79 XmNWxByt0.net
headて短髪インタビューじゃないと厳しいかなと思ってたんだが凄いな
マスク処理、448のトレイン
作るのにどれくらいかかるんや...

93:名無しさん@お腹いっぱい。
21/01/23 16:08:12.73 1USTDxg40.net
1660sでは無理そうだな・・・

94:名無しさん@お腹いっぱい。
21/01/23 16:31:38.58 fUZZe34M0.net
>>90
gpuはそうです。wfで満足したかったが、dstの相性が悪いのか、モデルが似なかったので
やむなくですね。

95:名無しさん@お腹いっぱい。
21/01/24 09:34:39.67 PR92PFvw0.net
俺の3080(VRAM10GB)ではres352のbatch4でギリギリ回る
res448なら16GBは最低必要だろうね
8GBのグラボでSLIを組むか、3060の発売を待つか、3090がいいだろうね。

96:名無しさん@お腹いっぱい。
21/01/24 10:26:30.03 Vxr9RyIP0.net
2080tiどころかTITAN Xでも怪しいくらいか
3080tiは凍結っぽいし現状は3090になるな
Vramもメモリ増設くらい簡単に増やせればいいのに

97:名無しさん@お腹いっぱい。
21/01/24 10:49:05.70 GaLlRUJ/0.net
これのために3090買えてマスクに時間かけられるやつがどれくらいいるかだな...
使えるシーンも限定されるだろうし

98:名無しさん@お腹いっぱい。
21/01/24 14:16:52.68 PR92PFvw0.net
>>96
TITAN RTXならアリだね、
パソコン工房で14万で販売されてた形跡がある
演算速度は3080に負けるらしいけど、14万なら魅力的。

99:名無しさん@お腹いっぱい。
21/01/24 21:00:07.87 GAwZNhtZ0.net
>>89
情報ありがとう!やってみてダメだった時の徒労感が嫌で忌避してたけど
headでやってみる気力がわいてきた!
>>95
1080ti(11G)でliae-ud、res384、ae等デフォ、batch5は行けそう
adabelief切ればres416ならどうかなっても思ったけど、切る気にはならなかった。

100:名無しさん@お腹いっぱい。
21/01/24 23:04:26.06 u14CN91H0.net
mrにはheadであと 320と240の pretrain済モデルがあるので
自分の環境に合ったので試してみるといいかも。

101:名無しさん@お腹いっぱい。
21/01/27 01:34:22.08 gC+kjNVK0.net
なんかみなさんResが高いですねえ
いけるのか?

102:名無しさん@お腹いっぱい。
21/01/29 17:51:49.93 xArR9kmF0.net
>>96
VRAMとかは基盤に直付けで無いと、低速なのかな
メモリだけCPUのメインメモリも使うと、遅くなるんですかねえ

103:名無しさん@お腹いっぱい。
21/01/30 01:06:24.02 qNhMh9NT0.net
モデルの使いまわしをしてるんですが、プレビュー上のグラフ表示だけリセットする方法ってないですか?
まぁ気にするなって話なんですが

104:名無しさん@お腹いっぱい。
21/01/31 10:17:39.06 AUjud4w80.net
たしかに気になるw

105:名無しさん@お腹いっぱい。
21/01/31 10:32:33.04 qldx7Bc70.net
俺は高解像度だとプレビューの顔画像が1個になるのを何とかしたい

106:名無しさん@お腹いっぱい。
21/02/06 20:31:00.06 7UxgC66u0.net
フォーラムに上がってるジェネリックxsegの使い方がよくわからないんですが
modelフォルダに突っ込んでマージするだけでsrcとdstにはxsegマスクを
特に必要とせず済むように使うためにあるんですか?
それとも5.XSeg.optional) trained mask for data_src - apply等を実行して
srcやdstに適応してからまたxsegのtrainをしてやる必要があるんですか?

107:名無しさん@お腹いっぱい。
21/02/06 20:44:24.21 C9Pbm6kr0.net
やってみれば良いんじゃないの
恐らくフォルダに突っ込んどけばマージは出来る
でもapplyした方がtrainの効率は良いだろう

108:名無しさん@お腹いっぱい。
21/02/07 13:19:04.10 EISinFZl0.net
顔入れ換える系のこれより、ひんむく系の方が画質悪いけど興奮するわ
違う?

109:名無しさん@お腹いっぱい。
21/02/07 16:11:40.42 abPpdZtz0.net
>>108
ひんむく系は今どっかあるの?

110:名無しさん@お腹いっぱい。
21/02/07 17:19:02.06 EISinFZl0.net
>>2のフォーラムのtools and appsに前から専用スレッドがたってる
スタンドアロンツールとオンラインサービスがある
オンラインのやつはコツ掴めば中々すごい画像を生成する
解像度が600*600と低いが..

111:名無しさん@お腹いっぱい。
21/02/07 17:25:32.17 EISinFZl0.net
現状解像度低いから、興奮するのかも知れんが
顔入れ換える系は高解像だから、顔にあったボディをしっかり選ばないと俺の脳は受け付けないのかもしれん

112:名無しさん@お腹いっぱい。
21/02/07 22:54:52.32 5hohS1jB0.net
すみません
headで学習してますが、いざmergeSAEHD実行してもdstの顔しかでてきません
dstもsrxもheadで切り抜いてます。
対処方法教えてくださいませんか

113:名無しさん@お腹いっぱい。
21/02/08 00:25:59.91 PLWgGX+60.net
pretorainモデルの使い方がわかりません
普通に実行するとdstとsrcとは違う外人の顔がでてきます

114:名無しさん@お腹いっぱい。
21/02/08 02:09:41.03 t6ym3FLe0.net
trainの下準備みたいなもんだから、その知らん外人でtrainするのがpretrain

115:名無しさん@お腹いっぱい。
21/02/08 06:26:59.84 1E+vYgdz0.net
ありがとうございます。
pre trainの効果は、トレインが早い、角度に強くなるであってますか

116:名無しさん@お腹いっぱい。
21/02/08 14:28:47.57 Yy3LRlrT0.net
>>110
どれのこと言ってるの?
顔入れ替えと服脱がすやつしかなくないか?

117:名無しさん@お腹いっぱい。
21/02/08 19:40:15.85 PLWgGX+60.net
>>114
ありがとう

118:名無しさん@お腹いっぱい。
21/02/08 20:24:06.83 GUE+qRrc0.net
pretrain用のpakの中身は「自分が過去に使ったsrc/dstを適当に混ぜた物」と入れ替えるのお勧め
loss値じゃなくて、previewでキツい角度や表情がキレイになる位まででおk

119:名無しさん@お腹いっぱい。
21/02/10 20:30:39.54 96f2SSGm0.net
aedimは512にしてますか?
pretrain見るとあんまりしてないからそこまで重要じゃないのかな

120:名無しさん@お腹いっぱい。
21/02/10 21:56:17.31 k4diDgZd0.net
aedims512でadabelief trueにするとbatch size1でもtrain始められなくない?

121:名無しさん@お腹いっぱい。
21/02/11 09:50:18.65 ykF3+vXs0.net
pretrainではなく普通のトレーニング済みモデルってどこかにありますか

122:名無しさん@お腹いっぱい。
21/02/11 10:04:39.76 xZn5iYJL0.net
捕まりたいのか

123:名無しさん@お腹いっぱい。
21/02/11 10:08:17.03 ykF3+vXs0.net
だからみんなpretrainでアップしてるのか
pretorainの効果って今一つわからないのですが、結局Iter1から自分でやるんですね
train時間短縮で使いまわせらたと思ったのですが

124:名無しさん@お腹いっぱい。
21/02/11 15:49:01.22 a5Q0d3ss0.net
ガイジランドへようこそ!

125:名無しさん@お腹いっぱい。
21/02/11 17:09:50.55 EWg0+ITJ0.net
pretrain無しで一から回してみればいいと思うよ
未実装だった頃は200k回してやっと何となく見れるレベルって感じだった記憶がある

126:名無しさん@お腹いっぱい。
21/02/13 10:01:23.08 UyM85h3B0.net
いろんなsrc、dstを混ぜて、Trainモデルをアップすれば、
誰が誰だか分からない平均顔?
捕まるかな?

127:名無しさん@お腹いっぱい。
21/02/13 18:30:19.20 hRYiEizk0.net
Mask Editorで画像を確認するとき、一気に画像を飛ばすキーとか無いですかね・・?
3万枚とか、ずーっとDボタンを押しっぱなしで確認するのしんどい。
解像度1024だと送りのスピードも遅いし。

128:名無しさん@お腹いっぱい。
21/02/13 18:45:24.37 +mwpZ2KX0.net
shiftDでちょい速くなる程度か
最後の方だけ確認したい時なんかは前半の画像を別フォルダに逃したりしてるわ

129:名無しさん@お腹いっぱい。
21/02/14 13:02:52.41 QlYS4rBG0.net
3080と3090どっち買うか迷ってるんだけど、同じ設定で比べると時間的にどのぐらい差がありそう?

130:名無しさん@お腹いっぱい。
21/02/14 14:59:32.16 VDn4FPbX0.net
メモリが多いとbatch数増やせるから
その分trainは早く終わる
1070無印から3090に載せ替えたけど
3~4倍のbatch数で動いたよ
cudaコアも5倍なのでかなり速くなった
寝る前にtrain始めて起きたら完成していると言ってた人がいたけど
自分も同じ感じ
3080は持っていないのでわからない

131:名無しさん@お腹いっぱい。
21/02/14 17:43:35.88 uRn3MwTq0.net
プレビューでdstの顔向きをsrcが追従してくれません
src不足でしょうか

132:名無しさん@お腹いっぱい。
21/02/14 17:55:23.04 +Be3z2U10.net
だろうね

133:名無しさん@お腹いっぱい。
21/02/14 18:19:15.11 1qsuoh/90.net
どうせすぐ飽きるから1050で

134:名無しさん@お腹いっぱい。
21/02/14 18:30:47.34 7sYREDjN0.net
adabeliefは最初からtrueでいいのかな

135:名無しさん@お腹いっぱい。
21/02/14 19:03:54.39 +Be3z2U10.net
オフにする意味がないよね

136:名無しさん@お腹いっぱい。
21/02/15 10:27:41.06 DgGODcso0.net
>>130
ありがとう!その早さは魅力だなぁ。
と同時に飽きるから安いのでいいというのもまた真理。悩む。

137:名無しさん@お腹いっぱい。
21/02/15 17:24:25.52 suE851DB0.net
グラボ更新ついでに最新版にアプデしたらプレビューが5×5マスでなくて、
srcの2×2部分しか表示されなくなったんだけどそういう設定かなんかあります?

138:名無しさん@お腹いっぱい。
21/02/18 14:11:20.43 cee5geq80.net
>>128
さんくす!
Shift+D知らんかった。
あと、他のフォルダに移せばいいってのも盲点やった。

139:名無しさん@お腹いっぱい。
21/02/20 16:30:38.36 NUHj5Eln0.net
すみません。
headをためしてますが、プレビューで顔が崩壊してます。
xsegでもっと枚数範囲指定せんとダメでしょうか

140:名無しさん@お腹いっぱい。
21/02/20 16:57:12.66 dGfdqg3/0.net
オレもhead挑戦中
まだ途中だが、プレビューで崩れた顔が出てくるので、Xsegに戻ってeditしながら再train中

141:名無しさん@お腹いっぱい。
21/02/20 18:29:20.29 i6nh76Ki0.net
基本的には短髪スーツのオッサンがスピーチしてる動画しか想定されてないから…
余程src/dstの条件が一致してかつ、正面に近い物しか無理

142:名無しさん@お腹いっぱい。
21/02/20 18:34:45.04 NUHj5Eln0.net
まじですか
じゃ、一般的に騎乗位とかのエロはWFがいいのですね

143:名無しさん@お腹いっぱい。
21/02/20 18:48:07.22 0Y0LlUwk0.net
ちょっと前までf一択みたいな風潮だったのにいつの間にかwf~headがメインになってるな

144:名無しさん@お腹いっぱい。
21/02/20 18:54:53.84 qbjgYPuG0.net
fしか使ってないわ
日本の女性アイドル使ったheadの完成品があれば見てみたいわ

145:名無しさん@お腹いっぱい。
21/02/20 19:36:23.22 05shFO990.net
AVでは難しいだろうけど命知らずの馬鹿は好きだ

146:名無しさん@お腹いっぱい。
21/02/20 21:17:33.60 i6nh76Ki0.net
>>143
スマホとかのfirmwareみたいに、常に最新が良いと思いがちなのかも
要は用途に適した環境が大事な気がする 自分は最新も確認しつつliaechでrawが多い

147:名無しさん@お腹いっぱい。
21/02/20 22:01:08.68 dGfdqg3/0.net
headなら、顔の輪郭まで持ってけそうだと思ってやってるけど、まだmergeまで行ってない。
ま、最近忙しくて、作業を進められてないのが原因だけど。
df faceのmodelなら3人作ったし、結構短時間で新作作れるけど、顔の輪郭で不満が残る場合があり…

148:名無しさん@お腹いっぱい。
21/02/20 22:32:16.99 qbjgYPuG0.net
顔の輪郭までならheadである必要もないかと思う
>>146でも書いてあるけど新しいバージョンが上位互換というわけでもないし
おでこに髪がかかるようなsrcはfを使うのがベストと作者も言ってた気がするし、fから進めない

149:名無しさん@お腹いっぱい。
21/02/20 23:11:22.18 0Y0LlUwk0.net
自分も眉毛の下でmaskするからextractはwfだけどarchiはずっとfだな
ただheadだと輪郭前髪ごと移植できるみたいだから気にはなってる

150:名無しさん@お腹いっぱい。
21/02/21 01:05:26.27 6Wm57AXT0.net
こういう場合に、気楽にアップできないのがつらいな。

151:名無しさん@お腹いっぱい。
21/02/21 01:46:37.58 WaKuxNEP0.net
せやな
headがどれくらい補完できるか気になる

152:名無しさん@お腹いっぱい。
21/02/23 14:31:10.89 HptXYUfd0.net
3070で顔の切り抜きの速度1.2it/sって普通なんですかね?なにか自分の設定が悪いのでしょうか

153:名無しさん@お腹いっぱい。
21/02/23 14:42:46.30 U2LAwJeT0.net
それで普通
extract faceはGPUもCPUも全然性能使い切ってくれないから遅い

154:名無しさん@お腹いっぱい。
21/02/23 15:42:09.97 vC0XWc3F0.net
色々試してみて感じたのは
DFLの最大の弱点は顔抽出の精度
Xsegみたいにユーザーの手動検出を元に学習とかできないのかな

155:名無しさん@お腹いっぱい。
21/02/23 17:21:25.04 ipJ3q2HE0.net
DFLそんなに遅いのか...

156:名無しさん@お腹いっぱい。
21/02/23 17:55:59.67 jG48/ggc0.net
顔検出の精度低いって、ちんこ重なってると駄目なん?

157:名無しさん@お腹いっぱい。
21/02/23 18:01:04.86 U2LAwJeT0.net
口が隠れてると手動での検出すら厳しくなるね
2年ぐらい使ってるけど、この辺は一切進化してない
作者がいじれない所らしい

158:名無しさん@お腹いっぱい。
21/02/23 18:09:16.98 jG48/ggc0.net
そっか
ちんこが問題かw

159:名無しさん@お腹いっぱい。
21/02/23 18:46:43.57 IN3iaJxd0.net
3pとか2人以上の顔の差し替えを同一動画で作るのは
どういう手順で作ってるんでしょうか?

160:名無しさん@お腹いっぱい。
21/02/23 19:21:46.48 aEGVTsnr0.net
予想だけどA,B両方抽出してBのalignedとdebug消してAをXに変換→result出力
そのresultからX,Bを抽出してXのalignedとDebug消してBをYに変換
みたいな流れじゃないかな

161:名無しさん@お腹いっぱい。
21/02/23 20:01:58.00 09NP18fj0.net
src(芸能人)は小顔で目が大きい→dstは顔が大きく目が小さい→trainでdstのlandmarkサイズを基準に学習→マスク外のサイズが微妙になる…

162:名無しさん@お腹いっぱい。
21/02/23 20:36:34.28 hbbh5Bsl0.net
>>161
mergeのときに顔のサイズ変えられるでしょ
Jを押して大きくしてみては

163:名無しさん@お腹いっぱい。
21/02/23 22:36:12.20 09NP18fj0.net
それはmask内部の事…サンクス

164:名無しさん@お腹いっぱい。
21/02/23 22:46:33.38 aEGVTsnr0.net
輪郭に合わせるとなんか巨頭オみたいになって違和感バキバキの時あるね
特に上から見下ろすシーンが気持ち悪くなる気がする

165:名無しさん@お腹いっぱい。
21/02/24 00:35:41.01 voql3v5b0.net
自分も時々起こるので、対策が知りたい。
dstのマスクが大きくて、srcが小さいので、Jで大きくして間を埋めようとすると
頭でっかちになってしまう症状。あごと首のラインのところでおかしくなるんだよなあ。
rawで出力してdavinciresolveで合成するとかなりましになったので、起こったときの
対策はとりあえず、そうしている。

166:名無しさん@お腹いっぱい。
21/02/24 00:44:32.35 5uy8zOgB0.net
後は、fullfaceのrect範囲(赤枠)の大きさがmanualでも小さい場合も多い 特に横顔とか口を大きく開けてる画
headとかだと素材の制限が増えて違うし

167:名無しさん@お腹いっぱい。
21/02/25 00:09:52.18 FBZpMjjH0.net
>>153
そうなんですね。ありがとうございます

168:名無しさん@お腹いっぱい。
21/02/25 21:25:32.98 LWTuT8VT0.net
謎の3060は明日発売か

169:名無しさん@お腹いっぱい。
21/02/25 21:45:36.58 DZrP8Dsh0.net
貞松はマジでdfl殺しだなぁ

170:名無しさん@お腹いっぱい。
21/02/26 10:15:03.40 EcMmQcPy0.net
3060はコア性能が2060s以下だとわかったため
3000スレはお通夜になっている

171:名無しさん@お腹いっぱい。
21/02/26 11:54:05.74 9SZ6Yb570.net
遅ればせながらhead試してみた
髪の色と長さが合っていれば本人そのものを再現できてよいですね・・・
ただ、やはり先人のコメントのとおり注意点、制限も
・同一ソースからのsrc抽出が必要
(複数ソースだとsrcの髪型に一貫性がないため、mergeしたときに髪の毛が薄く生えたり
 濃く生えたりする箇所が出てきて変になる)
・動きが少なく正面シーン中心じゃないとmergeが滲みやすい

172:名無しさん@お腹いっぱい。
21/02/26 15:24:46.03 kG+E1Neq0.net
head試してたんだけど、train200万回近く回してもクリーチャー顔がいくつか残り、いまいにはそれが増えだしたから一時凍結したわ

173:名無しさん@お腹いっぱい。
21/02/26 15:42:56.85 j9gWypTl0.net
肩弱い奴はハメ撮り止めちまえ!顔見切れすぎブレすぎ枕使わないから角度煽りすぎ

174:名無しさん@お腹いっぱい。
21/02/26 19:41:07.27 FsXsHRfM0.net
つ 全編超広角

175:名無しさん@お腹いっぱい。
21/02/26 19:43:02.95 AFL65++U0.net
森七菜ちゃん可愛いね

176:名無しさん@お腹いっぱい。
21/02/26 22:21:14.19 ySOdKgO70.net
Xsegあまり鍛えられていないので(手作業が面倒)
前髪、舌、笛があまりうまくいっていない(ボケる感じ?)
あと、額とかの色合わせとか。。
動画編集ソフトとか?
使い方が謎です。。
簡単に教えてはもらえませんし

177:名無しさん@お腹いっぱい。
21/02/26 22:57:56.31 AFL65++U0.net
Xsegでマスクするだけだろ

178:名無しさん@お腹いっぱい。
21/02/27 10:23:55.84 u0B7HciK0.net
Xseg で要所要所をマスクしても、前後のフレームがまったく顔検出出来ないことがあるんだが何でだろう?
あれって、同じような構図のフレームは、1フレームだけ指定すれば、ほかのフレームは同じように学習してくれると思ってるんだけど違うの?
結局、ほぼ全フレームに近い形でマスクしないと思ったようにならなくてチョー面倒なんだけど(涙
一部のフレームだけ指定すると、dst のままのフレームがたくさんあって src の中に dst がちらちら入り込んじゃう。
何か、やり方間違ってるのかしら。。。
(もちろん、本学習の前に Xseg の train・fetch・apply はしてる)

179:名無しさん@お腹いっぱい。
21/02/27 11:18:46.06 cyYZh7yu0.net
xsegはsrcとdst分けて学習したほうが楽
あと、xsegはすぐに過学習になるから汎用性がなくなってきたら
リセットしてやり直さなきゃいけない

180:名無しさん@お腹いっぱい。
21/02/27 12:24:37.05 zAwQXJd/0.net
>>178
その現象、自分も経験した
自分の場合は、Xsegしたコマに、実線で囲まれた領域が無くて、破線で囲まれた領域のみのやつが混じってたせいだった

181:名無しさん@お腹いっぱい。
21/02/27 14:05:43.43 ONWhNIL+0.net
extract結果自体がマズいと予想

182:名無しさん@お腹いっぱい。
21/02/27 21:16:18.59 BJGcUk1u0.net
コツをつかんだけど外しまくりです

183:名無しさん@お腹いっぱい。
21/02/28 01:28:46.03 +h1/tT500.net
>>179
俺はmodelも手動指定した画像も流用しまくってるけど問題ないよ
200万回ぐらい回したmodelで過去のdstで手動指定した画像300枚くらいと新規のdst参照するようにして回せばbatch13なら10分も回せば十分はっきりマスクされる
それまでに手動でやってないパターンのマスクは流石に無理だけど

184:名無しさん@お腹いっぱい。
21/02/28 08:00:54.43 IBd5QeE20.net
すみません
Xsegtrainはどのくらいやればいいものですか?
目安となる時間を教えて頂きたいです。

185:名無しさん@お腹いっぱい。
21/02/28 12:54:57.48 gp9MsIgc0.net
>>184
2時間くらいでおk

186:名無しさん@お腹いっぱい。
21/02/28 16:27:35.55 Q0/+ToJZ0.net
これ、そっくりになるね。始めたばかりだけど、その辺のサイトに落ちてるのより自分でやった方が似てると思う

187:名無しさん@お腹いっぱい。
21/02/28 16:35:48.12 hw3Z62AE0.net
>>178
似たような構図でも目が開いてるか閉じてるかだけでもマスク範囲が変わるんで別物として編集する
XSegの注意点として例に挙がってるのが、目の開閉・顔の向き・照明条件
最初のうちはかなり面倒くさいけど地道にサンプルを増やしてくしかない

188:名無しさん@お腹いっぱい。
21/02/28 20:11:11.35 vMSEX/YG0.net
win10のexplorerがアホ過ぎてストレス貯まる

189:名無しさん@お腹いっぱい。
21/02/28 22:30:39.66 a6tWsyT5O.net
extractorの方がアホ

190:名無しさん@お腹いっぱい。
21/03/01 15:12:55.15 D/1OsYiq0.net
最新版で1か月ぐらいheadに挑戦してたけど結果が良くないので、Fansegラストビルドの20200327に戻ってる
で、最近Train中にプログラムがいつの間にかフリーズしてる現象が多発なんだけど、同じ状況の方いますか?

191:名無しさん@お腹いっぱい。
21/03/01 15:22:16.49 cWOtQJ+p0.net
それに該当するかはわからんけど、train中にcmdの黒画面を触っちゃって中断状態になる事がある
その時は同画面アクティブで適当なキーを押せば再開する

192:名無しさん@お腹いっぱい。
21/03/01 17:11:08.95 9yegWZFy0.net
再挑戦したいんですが、AMDRYZENでdfl1.0使ってて教えられるよ、ってかたいませんか?
当方は趣味で動画編集してるくらいの無知なのですが

193:名無しさん@お腹いっぱい。
21/03/01 17:12:27.00 9yegWZFy0.net
前回は、trainさせたのをはめ込んだら顔がのっぺらぼうになってやめました

194:名無しさん@お腹いっぱい。
21/03/01 17:54:21.07 D/1OsYiq0.net
>>191
サンクス、それかも知れないので帰ったらやってみます。

195:名無しさん@お腹いっぱい。
21/03/01 18:32:48.31 oQcdpcaE0.net
GPU無しは厳しいだろうな

196:名無しさん@お腹いっぱい。
21/03/01 18:45:19.47 OpPLjOf30.net
RadeonじゃなくてRyzen?Threadripper ならいけるか?
そんなことするくらいなら1080tiの中古でも買った方が良さそうだけど

197:名無しさん@お腹いっぱい。
21/03/01 19:48:11.04 9yegWZFy0.net
いかんせん解説サイトないのがね

198:名無しさん@お腹いっぱい。
21/03/01 20:10:19.68 5SHA7bHi0.net
そこらへんのサイト見てわからないのは知らない言葉の数だろ?
知らない言葉全部聞く気か?
そんな他力本願のやつに教えるのにどれだけ時間かかるか想像してみ
本当に作りたきゃ調べる努力をしてわからないことを聞きなよ

199:名無しさん@お腹いっぱい。
21/03/01 21:47:13.71 gjj9f1UA0.net
最新版でFAN-dstの設定なくなったのだるすぎる
マスク編集めんどくせぇ

200:名無しさん@お腹いっぱい。
21/03/01 22:41:09.45 oQcdpcaE0.net
fan-dstも残してくれれば良かったのにね
でもXSegの方が明らかに高機能で、フェラもベロチューも違和感なく出来るからオススメ
ただフェラもキスもextractが異常に下手クソなんだよな

201:名無しさん@お腹いっぱい。
21/03/02 00:13:05.24 pHrB2/op0.net
別に機能はxsegもfansegも全く同じだぞ
extractはmanualのAを使ったことが無い、使える画の選定がグダグダだと話にならんけど

202:名無しさん@お腹いっぱい。
21/03/02 00:39:45.95 JUyU4u280.net
話の通じないやつだな

203:名無しさん@お腹いっぱい。
21/03/02 04:00:30.60 yfmelPEV0.net
別途、舌と思われるパターンをXsegマスクするツールが欲しいな。。
ランドマークが入らないので、難しい、できないのでしょうか?
前髪も同様。前髪ありは日本人、韓国人くらいかな。。

204:名無しさん@お腹いっぱい。
21/03/02 13:09:05.45 anVKnmc70.net
>>203
自作した。汎用性は低いけど。

205:名無しさん@お腹いっぱい。
21/03/02 20:30:03.39 z+w1WYUO0.net
俺もheadやってみたが、確かに上であがってるような一長一短。
200k程度回して簡単な角度なら最高だけど、ちょっとでも角度がきつくなるとクリーチャーに。
Xsegのサンプル数も多く、とにかくなにより抽出の精度が異常に悪く、相当数手作業になる感じだな。
srcセットには出来る労力だけど、数多くのdstセットに同じ労力使えるかといわれると…
だがツボはまるとこれはつよい…

206:名無しさん@お腹いっぱい。
21/03/03 08:27:51.37 HznyZdrf0.net
すみません 
xsegでフェラ編集する場合、editで範囲指定するときにdstの口まわりを除外するように指定して、完成時にsrcに除外したdstの口回りをうつしだすということであってますか?

207:名無しさん@お腹いっぱい。
21/03/03 14:01:18.80 NHlrshYt0.net
>>206
>>2

208:名無しさん@お腹いっぱい。
21/03/03 15:25:36.86 YxY6ANAM0.net
質問なんだが、SRCって最低どのくらいの時間でやってる?
1時間で充分なのかわからん

209:名無しさん@お腹いっぱい。
21/03/03 15:26:51.98 JfQWVVPz0.net
時間じゃなくて使えるフレーム数と表情角度のバリエーションで考えろ😠

210:名無しさん@お腹いっぱい。
21/03/03 15:27:57.28 YxY6ANAM0.net
すまん、普通のフレーム数ってどのくらいなんでしょうか

211:名無しさん@お腹いっぱい。
21/03/03 15:31:52.95 NttWcEcZ0.net
3000~4000
もっと少なくてもいいときもあればもっと多い方がよいときもあるが
これくらいをベースに調整してみるとよいでしょう

212:名無しさん@お腹いっぱい。
21/03/03 15:39:28.69 YxY6ANAM0.net
ありがとうございます
またあとで自分のやつと照らし合わせて返します

213:名無しさん@お腹いっぱい。
21/03/03 19:28:09.48 G0WKHSpM0.net
ゲーミングノートでやってる人いる?
rtx30~のノートを買おうかと思ってるんだがデスクトップ比較でどんなもんか知りたい

214:名無しさん@お腹いっぱい。
21/03/03 20:10:10.14 VBtFUQOw0.net
39 名無しさん@お腹いっぱい。 sage 2021/02/03(水) 23:43:22.40 ID:5tX+xQ2H0
CPU Ryzen 3900XT
GPU GTX 1080
DFL2.0
でtrainしたら、tensorflowのエラーやらで止まってしまうんだけど、AMDのCPUだとダメなんだろうか?
AMDのグラボはサポートしなくなったのはわかるんだけどCPUはサポートしてるよね?

これって俺もで、これからはじめようとここにたどり着いた
どうなのでしょうか?

215:名無しさん@お腹いっぱい。
21/03/03 20:19:42.51 ytC2UZQW0.net
最新版はRTXにしか対応してないんじゃないっけ

216:名無しさん@お腹いっぱい。
21/03/03 20:24:12.82 VBtFUQOw0.net
あ、俺のRTX3000なんだよね...
なんか調べてたら3000は特殊らしいんだが

217:名無しさん@お腹いっぱい。
21/03/03 20:42:09.11 35q5rjHF0.net
>>214
3000版用と2000まで用と2種類ある
39は欲張りすぎてoomになっているだけかと
3000版はgpuスケジューリングonにしないとエラーでやすいね

218:名無しさん@お腹いっぱい。
21/03/03 21:34:52.23 VBtFUQOw0.net
一番最新のやつダウンロードしちゃいました
名前は02_03_2020.exeなんですがどうなんでしょう

219:名無しさん@お腹いっぱい。
21/03/03 21:58:47.41 4K73l4ef0.net
GPUのスペック越える設定でtrainしようとするとエラー吐いて始まらないよ
無印1080なら
Archi:DF
reso128
各dims:64
bs:4
adabelief-
その他オプションデフォルトでtrain開始しない?

220:名無しさん@お腹いっぱい。
21/03/03 22:44:00.44 brWD1sEx0.net
>>214
俺も1080でCPUはryzenだけど問題なく動いてるから、頑張れば動くよ
俺はフォーラムにある
LIAE-UD FF 192_SAEHD
ってモデルを愛用してる

221:名無しさん@お腹いっぱい。
21/03/03 22:44:46.21 YxY6ANAM0.net
いまはDSTとSRCを全フレーム抽出するところまでやりました
残業多い社会人で時間かかるので、結構手間かけて無理ってわかったらしょっくだなぁー

222:名無しさん@お腹いっぱい。
21/03/03 22:45:53.95 YxY6ANAM0.net
いや、RTX3000シリーズでRYZENCPUなんですよね

223:名無しさん@お腹いっぱい。
21/03/03 23:15:02.42 brWD1sEx0.net
お前には無理だから諦めろ

224:名無しさん@お腹いっぱい。
21/03/03 23:30:48.13 4K73l4ef0.net
さては外付HDD3070おじさんか?

225:名無しさん@お腹いっぱい。
21/03/03 23:41:34.90 YxY6ANAM0.net
一応今日始めました

URLリンク(i.imgur.com)
この画面から一時間待っても動かずエンター押したらこの通り
なにが悪いんでしょう

226:名無しさん@お腹いっぱい。
21/03/03 23:46:49.49 HJOxkBIX0.net
>>217 で解決してるのになんでそんなにターンかかるの...
2020.3が最新の訳ないやん...

227:名無しさん@お腹いっぱい。
21/03/04 00:29:11.07 OMskWBdK0.net
この人絶対に無理だよ
きっとDFLだけじゃなく何やらせても無理だよ

228:名無しさん@お腹いっぱい。
21/03/04 00:53:41.10 iunPonaH0.net
ファイル数が22万なので
2時間位の動画か
顔抽出失敗の数を見て卒倒しないようにね
01_04_2021の最新版をしようしてもvram不足でエラーでそうやね
dstは最初は720p 10秒位にしていろいろ試したほうがよいよ

229:名無しさん@お腹いっぱい。
21/03/04 02:12:05.41 wuTryrGl0.net
皆さんご回答、本当にありがとうございます
720p10秒っていうのはどこで設定出来るのかわからないのですがどうしたら良いでしょう

230:名無しさん@お腹いっぱい。
21/03/04 02:14:21.45 wuTryrGl0.net
4つの動画をひとつにまとめてやってるので負荷かかるかな、とは思ってました
ただ、一つ一つやろうとしたら抽出は上書きされるみたいでこれしかなかったんですよねえ

231:名無しさん@お腹いっぱい。
21/03/04 02:55:03.24 iAL1X8v90.net
うーむ
昔、大学で、理系、工学部だと、手計算やってられない物があるので
科学技術計算、FORTRANとかやって
計算機とはー
とか
プログラムとはー
とか、ある程度、概念形成されると思うんだよね
一般常識として、計算機、プログラムとはーとか、ある程度ないとまずいんでないの?
どうするよ?

232:名無しさん@お腹いっぱい。
21/03/04 03:01:05.35 iAL1X8v90.net
Pythonなんか、ソースコード丸見えだから、
if then elseとか
forループとか
ある程度は共通ですよ
型宣言しないので、なんじゃこりゃでした
1バイトデータとか確保してないのに、なぜ分かり、動くん?でした
andとかorとか、簡単な事が概念形成されればいいかと個人的には思います

233:名無しさん@お腹いっぱい。
21/03/04 08:51:45.26 51Htq1110.net
たまにいるよね
スクリーンショットを「写真」で撮る奴w

234:名無しさん@お腹いっぱい。
21/03/04 10:48:10.45 nG9ZlYOi0.net
ブタに真珠

235:名無しさん@お腹いっぱい。
21/03/04 12:12:05.47 0eUgwERS0.net
付属のサンプル動画で一通りやってみればいいのに

236:名無しさん@お腹いっぱい。
21/03/04 13:17:59.81 ezhe73Di0.net
猿以下の脳みそなんだから無駄

237:名無しさん@お腹いっぱい。
21/03/04 15:44:23.92 iAL1X8v90.net
次は、正面近く、カメラ目線で尺の短いdstとか
srcが眉なしだけだと、dstの眉をそのまま出すだけだし、本人の眉情報が無い
瞬きしてもいいけど、目瞑りぱなしだと、顔の特徴が出ませんな
俯きも、目玉が見えませんし、その分特徴が出づらいかと思います
上向きなんて、srcそんなに集められない気がします

238:名無しさん@お腹いっぱい。
21/03/04 16:23:38.79 VwHjzY4k0.net
チラ裏

239:名無しさん@お腹いっぱい。
21/03/04 20:38:05.01 wuTryrGl0.net
またご面倒かけてすんません
昨日に続いて最新のDFL入れたら作業途中でこんな画面になりました
なにが悪かったんでしょうか
URLリンク(i.imgur.com)

240:名無しさん@お腹いっぱい。
21/03/04 20:39:36.36 wuTryrGl0.net
ダズント レスポンス だそうです
理由になっていない

241:名無しさん@お腹いっぱい。
21/03/04 21:22:27.03 OMskWBdK0.net
2度と来るなと言っただろ

242:名無しさん@お腹いっぱい。
21/03/04 21:48:16.79 VwHjzY4k0.net
言ってなくて草
でもまあ聞く耳持たず
2回目だからレッドカードだな

243:名無しさん@お腹いっぱい。
21/03/04 23:09:21.38 ZR8huL9b0.net
>>19

244:名無しさん@お腹いっぱい。
21/03/05 00:29:45.89 +ndEjcHz0.net
>>239
すごく簡潔に言うと
君には無理だよ

245:名無しさん@お腹いっぱい。
21/03/05 02:18:47.97 Jzg61Xqo0.net
誰か日常的に使ってる人いない?

246:名無しさん@お腹いっぱい。
21/03/05 04:15:37.75 FROHvsCN0.net
初っ端から2時間超えの作ろうとしてて草
巷にあるDF動画なんてせいぜい5分程度がザラなのに
新規で5分の動画なら学習に24時間は覚悟するて聞いたらどんな反応するのか

247:名無しさん@お腹いっぱい。
21/03/05 08:14:51.62 jskKYGtb0.net
顔の未検出、誤検出とかたくさんあったりして
手動でガンバレ

248:名無しさん@お腹いっぱい。
21/03/05 08:47:38.30 jskKYGtb0.net
dstでいい感じのシーンとか、トリミング編集とかできないと、DFLも無理でしょうね
dstが顔でかくて、ボケるかも?だと画面サイズ縮小編集とか
DFLの他、フリーの動画編集ソフトとかで遊んだりしませんでしたか?

249:名無しさん@お腹いっぱい。
21/03/05 13:31:41.56 Jzg61Xqo0.net
あっ、DSTって短くしないと駄目なんですか
一応日常的に編集動画投稿してます(最高再生回数二万回)
SRCのtrainに時間かかると思ってたので、DSTは負荷かからないと勘違いしてた
どうもありがとう

250:名無しさん@お腹いっぱい。
21/03/05 15:39:47.52 jskKYGtb0.net
dstが長すぎる事によるエラーがあるかも知れませんが
やった事はないので分からないです
そんな、顔を入れ替えたいシーンばかりではなく、だらだら長い所、
平板なシーンも多いでしょうに
顔の未検出の手動抽出とかあるから、dstが長いと大変だと思います
そのままだとちらちらdstに戻り、顔が入れ替わらない
顔の誤検出の手動削除もあります
完成後、がっかりとかあると思いますし、いきなり長くてもね

251:名無しさん@お腹いっぱい。
21/03/05 16:02:02.65 bL7u3lOy0.net
鏡と話すおじさん怖すぎ

252:名無しさん@お腹いっぱい。
21/03/05 18:48:45.11 Jzg61Xqo0.net
最初に思ってたのは2時間やるとしても、使えるのはそこから20分くらい、と思ってたんですよね
5分でやると10秒位では、と思う

253:名無しさん@お腹いっぱい。
21/03/05 19:45:20.77 e6ZwS5ll0.net
mergeの時にinteractive mergerを使わないで、batの末尾に<merge.txtみたいな形でテキストに事前に書いた設定項目読み込ませたいんだけど、
Use interactive merger?をnで渡しても勝手にyになって、起動しちゃうのどうにかならない?
20210104使ってます。

254:名無しさん@お腹いっぱい。
21/03/05 21:33:21.91 3hMHQIJd0.net
設定項目とは

255:名無しさん@お腹いっぱい。
21/03/05 22:30:26.29 e6ZwS5ll0.net
0とかmklとか、そういう手動で入力する項目

256:名無しさん@お腹いっぱい。
21/03/06 12:18:39.18 POsdlmr90.net
多分、最初の方はBatで食わせるがうまくいかないみたいで
Pythonいじって、何とか。。
面倒なので、ほっといてますが

257:名無しさん@お腹いっぱい。
21/03/06 12:54:39.63 xKPyp+Qx0.net
日記の句読点は異常

258:名無しさん@お腹いっぱい。
21/03/06 15:19:05.53 POsdlmr90.net
dstはショートカットとか、髪を上げていると
輪郭がごまかせないので、違和感が出る事があるみたい
麻○憂ちゃんの無臭時代はショートカット
残念

259:名無しさん@お腹いっぱい。
21/03/07 20:17:50.85 RzmGNvkO0.net
昨日のドラマでdeepfake連呼してたなw

260:名無しさん@お腹いっぱい。
21/03/10 08:59:02.94 CpR/xemb0.net
ただでさえ電気代かかるのにマイニング収益も考えると機会損失が大きすぎて作れない

261:名無しさん@お腹いっぱい。
21/03/10 13:07:42.13 ZiONWU1g0.net
お、おう

262:名無しさん@お腹いっぱい。
21/03/10 18:47:45.05 2DwOEiHP0.net
誰か3060でやってる人いる?
くそ味噌言われてるけど12gは使えるんじゃね

263:名無しさん@お腹いっぱい。
21/03/10 21:43:16.61 S4FjQjIv0.net
これ使えね?
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(ebsynth.com)

264:名無しさん@お腹いっぱい。
21/03/11 18:39:21.46 NZScrXcq0.net
10.misc) start EBSynth.bat
@echo off
call _internal\setenv.bat
start "" /D "%INTERNAL%\EbSynth" /LOW "%INTERNAL%\EbSynth\EbSynth.exe" "%INTERNAL%\EbSynth\SampleProject\sample.ebs"
とかありますな

265:名無しさん@お腹いっぱい。
21/03/12 13:33:15.35 eZyVdiTN0.net
ワンピースの普通の水着をラバーコーティングのテカテカ水着に描きかえる的なことはできる

266:名無しさん@お腹いっぱい。
21/03/13 01:58:40.80 IO0QbPD50.net
よくそういう発想ができるな(褒め言葉)
素直に感心する
髪色の変更とかパンストを網タイツに、とかも頑張ればできそうかな

267:名無しさん@お腹いっぱい。
21/03/15 21:14:22.13 Rs+laLZd0.net
【合成】娘のライバルを蹴落とすため「ディープフェイク」作成、母親を逮捕 米
URLリンク(news.livedoor.com)
チアリーダーとして活動する娘のライバルたちが裸で飲酒・喫煙する映像をAIでねつ造し、本人らに送付。自殺を促すメッセージも匿名で送信したとみられている。
アメリカはすげーな

268:名無しさん@お腹いっぱい。
21/03/15 22:46:33.04 X9iIG4Xz0.net
かあーちゃん…

269:名無しさん@お腹いっぱい。
21/03/16 23:32:59.20 ZtV5x6jf0.net
headより広い範囲を抽出する方法ある?
髪が長いと途切れてまう・・

270:名無しさん@お腹いっぱい。
21/03/17 12:28:14.17 UXUkd/xO0.net
それだと肩より上が収まる画面は全体が入れ替わる事になるけど…

271:名無しさん@お腹いっぱい。
21/03/17 12:45:41.15 4cgX7pI/0.net
dst探しが作業時間の9割を占めてる気がする

272:名無しさん@お腹いっぱい。
21/03/17 13:51:55.35 Uc6ZjDwx0.net
trainだぞ

273:名無しさん@お腹いっぱい。
21/03/17 15:35:46.22 wYm9Xwu40.net
modelの学習が300から400万回ぐらいに育ってしまうと、流用すれば新規のdstでも数時間で仕上がってくる
そうなると、aligned debugのチェック&手動でのパス再作成が大半の時間を占めるね
もちろん、それとは別にdst探しはやるけど

274:名無しさん@お腹いっぱい。
21/03/17 16:11:26.20 cXMgY1sR0.net
素朴な疑問なんだが、流用っていうテクニックがあって、他の人物にもあまり悪影響ない、一番のユーザー不満である時間短縮ができる
それなら初期のパッケージとして普通は用意すべきだよな?
それをしないのってなんでなの?

275:名無しさん@お腹いっぱい。
21/03/17 16:34:25.64 UXUkd/xO0.net
>>2

276:名無しさん@お腹いっぱい。
21/03/17 17:45:21.47 Cpy9coZu0.net
量産してるやつとか流用してるけどだいたい似てないやん

277:名無しさん@お腹いっぱい。
21/03/17 18:34:26.55 wYm9Xwu40.net
元アイドルAと、とあるdstでいちから動画を作る
dstを次々替えて(外国人を含む)どんどん動画を作る
modelが成長してくると、train時間は短くてもすぐに似る
というパターンで、他にタレントBや女優Cのmodelも作っているが、dstがどれだけ似ているかがやっぱり重要
dstの顔の輪郭や髪型がかけ離れていると、あいのこみたいな顔にしかならない

278:名無しさん@お腹いっぱい。
21/03/17 19:24:19.48 Cpy9coZu0.net
それちゃんと学習できてないから...
何回繰り返すのか...

279:名無しさん@お腹いっぱい。
21/03/17 23:33:54.06 Z+HaKt2P0.net
自分が満足できるクオリティで作れているので、良しとしています

280:名無しさん@お腹いっぱい。
21/03/18 08:26:25.65 9TxMDenz0.net
srcモデル流用しないで(とある所でsrc流用はやめる。dstxdst学習のため)
毎回新規のsrcから作成しているの?
srcA→srcBでsrcBが完成したと思ったらやめる
srcA→srcCでsrcCが完成したと思ったらやめる

281:名無しさん@お腹いっぱい。
21/03/24 08:09:30.11 8P0VBNU70.net
新バージョン来た
何が変わったんだろう

282:名無しさん@お腹いっぱい。
21/03/24 18:42:18.30 er2gsBi80.net
あんまりどうでもいい変更だな

283:名無しさん@お腹いっぱい。
21/03/24 18:53:48.94 WATVeH6E0.net
初心者にはそうかも

284:名無しさん@お腹いっぱい。
21/03/24 19:12:31.41 RNFuWygC0.net
関係ないやつもいるだろ!
初心者さん!

285:名無しさん@お腹いっぱい。
21/03/24 20:01:54.01 er2gsBi80.net
ランダムフリップとか普通使わないじゃない

286:名無しさん@お腹いっぱい。
21/03/25 09:08:15.10 ljW0hp1e0.net
08_02_2020から以降してみたが
adabelief: TrueだとVRAMバカ食い?
Batch Size半分でもエラー
使うのなら最後の方で使うのかな?

287:名無しさん@お腹いっぱい。
21/03/25 10:24:49.98 qiu4TJYs0.net
>>285
そっちかよ
入力サイズと画像サイズ合わせて読み込み時間節約の方だと思った

288:名無しさん@お腹いっぱい。
21/03/25 11:18:47.84 ljW0hp1e0.net
>>285
srcは使用しないが、dstに使用するといいかも?
実験してみますか

289:名無しさん@お腹いっぱい。
21/03/25 11:47:41.56 6v/MBSvq0.net
>>286
adabeliefは新しい学習方法なので
途中でoffにするとadabeliefでトレインしたものは活かしてくれない
なので使うなら最初からonにして
途中からoffにしない
あと使用するvram多いよ

290:名無しさん@お腹いっぱい。
21/03/25 13:06:24.68 zJwTcj6T0.net
>>288
ややこしくなるから初心者は質問だけしてればいいです...

291:名無しさん@お腹いっぱい。
21/03/25 13:29:39.56 ljW0hp1e0.net
>>289
ありがとう

292:名無しさん@お腹いっぱい。
21/03/25 18:39:38.77 NXpAycAx0.net
adabeliefかなり速いから常にONだわ

293:名無しさん@お腹いっぱい。
21/03/26 04:37:45.96 WSGBSkIA0.net
おはよう
adabelie off onにしたら、最初から学習し直し?
Loss値がみるみる下がりますね

294:名無しさん@お腹いっぱい。
21/03/26 04:57:39.43 WSGBSkIA0.net
adabelie off onにしたらXsegモデル学習し直しみたい
src/dst 512→256にしたら、Mergeがむちゃむちゃ速いですね

295:名無しさん@お腹いっぱい。
21/03/26 05:06:32.44 WSGBSkIA0.net
Xsegモデルコピーしてませんでした

296:名無しさん@お腹いっぱい。
21/03/27 00:18:38.20 oPMgV8i50.net
去年の7月ぶりに最新版にアップデートするけど新しい機能増えてますか?

297:名無しさん@お腹いっぱい。
21/03/27 00:48:45.07 dz4Xid2K0.net
何言っているのかちょっと判らない

298:名無しさん@お腹いっぱい。
21/03/27 08:43:37.56 sN724fnu0.net
解凍した後changelog.htmlを見れば変更点と新規機能が分かるかと

299:名無しさん@お腹いっぱい。
21/03/27 12:28:45.94 gvzOZTC40.net
新GANどうよ

300:名無しさん@お腹いっぱい。
21/03/27 15:38:56.16 HClXAhpC0.net
Multiple Choices

301:名無しさん@お腹いっぱい。
21/03/27 19:07:48.10 oPMgV8i50.net
アップデートしたけどsrc側に顔が寄るのがデフォ設定に変わった感じ

302:名無しさん@お腹いっぱい。
21/03/28 03:03:17.49 ueHeY/O40.net
liaeになってただけか

303:名無し募集中。。。
21/03/28 03:16:42.30 EHo1up4D0.net
顔の切り出しが遅すぎるの何とかしてほしいよ
CPUもGPUも20%以下しか使ってないのがもったいない

304:名無しさん@お腹いっぱい。
21/03/30 14:48:04.94 3oji83cR0.net
新しいpc作ってやりたいけどグラボが全然ねぇ、、、
radeonはまだ対応してないんだよね。。。
CPUって全然話題に上がらんけど、5800xでも5950Xでも大差ないの?

305:名無しさん@お腹いっぱい。
21/03/30 15:08:41.08 oAnoMaIs0.net
Radeonは1.0しか対応してないぞ

306:名無しさん@お腹いっぱい。
21/03/30 15:09:06.17 oAnoMaIs0.net
ごめん流し見でGPUの話かと思った

307:名無しさん@お腹いっぱい。
21/03/30 15:11:07.67 TDRp20Tc0.net
CPUこそ一番良い奴にすべき

308:名無しさん@お腹いっぱい。
21/03/30 23:50:38.41 yeTj8ebz0.net
>>304
2.0からコア数に比例して学習が速くなるようになってるはずやで

309:名無しさん@お腹いっぱい。
21/03/31 09:48:24.78 2980UnH60.net
CPUも重要なのか、、誰にも見せれないのに中々金のかかる趣味だなw

310:名無しさん@お腹いっぱい。
21/03/31 12:26:38.84 ENG1cKaz0.net
dst用にお勧めのAVタイトルとか、プレイ内容別にまとめている神って居ないのかしら?
少なくともググった位では見つからないんだよね。

311:名無しさん@お腹いっぱい。
21/03/31 12:54:32.16 e9MPlRyQ0.net
前まで素材スレあったんだけどね

312:名無しさん@お腹いっぱい。
21/03/31 14:04:36.29 1aFr7Puq0.net
モザの壁

313:名無しさん@お腹いっぱい。
21/03/31 18:49:20.98 ppLJGluL0.net
>>310
Deepfake 素材に関するスレ 
でググってみ。

314:名無しさん@お腹いっぱい。
21/03/31 23:47:42.08 +ePpkTvz0.net
>>313
見つかりました。
早速勉強させていただきます。
ありがとう、ありがとう。

315:名無しさん@お腹いっぱい。
21/04/01 12:26:46.85 9d4s2qfN0.net
src/dst 256x256にしたらae_dims:512だとだめみたい
ae_dims:256までかな

316:名無しさん@お腹いっぱい。
21/04/03 12:00:52.75 DWGUJF3Y0.net
お世話になります
質問です
1、目に髪がかかっているのはSRCにすべき?
2、特定の作品が化粧違うが、これはSRCにいれるべき?

317:名無しさん@お腹いっぱい。
21/04/03 12:27:52.04 zcWUI8wj0.net
>>316
①避けた方が良いが、dstが同条件(mask範囲内での髪の位置など)ならイケる場合も
②個別で作成した方が良いが、どうしても角度や表情がカバー出来ないなら、メインとする方のfacesetに対し10%程度なら補足としての追加がイケる場合も

318:名無しさん@お腹いっぱい。
21/04/03 12:30:06.75 DWGUJF3Y0.net
なるほどありがとうございます
ってことは肌の色味が違うのとかはどうなんでしょうか
SRCって輪郭だけじゃなく色も見てますよね?

319:名無しさん@お腹いっぱい。
21/04/03 13:00:40.33 zcWUI8wj0.net
>>318
極端に暗いとか、野外で光の当たり方がキツいのは特にmodel形成を阻害する所感
train時のcolor transでmklとか入れてれば、ある程度なら調整してくれるが、現状mergeではdstと同じにはなり辛い
髪型については、眉を超える前髪とか触角は自動extractはほぼ無理 手動Aやmask調整で適正範囲を指定してもtrainやmergeでグダグダになり易い

320:名無しさん@お腹いっぱい。
21/04/04 08:10:59.28 m4PTOv9y0.net
adabeliefは学習速度を上げるだけ?
であればDimsを上げてadabelief offにした方がいい気もする

321:名無しさん@お腹いっぱい。
21/04/04 08:27:22.49 djLTBAJX0.net
入り切り出来ないじゃん

322:名無しさん@お腹いっぱい。
21/04/05 07:04:49.67 0rK27O7A0.net
PreTrainやってなかったんたんだけど必須ですかね?

323:名無しさん@お腹いっぱい。
21/04/05 09:16:02.81 QWc1wMJx0.net
ドラゴン桜が今夜から再放送

324:名無しさん@お腹いっぱい。
21/04/09 14:31:38.36 BFw6vu2x0.net
CPU変えてめっちゃ早くなって安定したって報告しようとしたらちょうどCPUの話題になってた。
i5 7500→i9 10800に変えたらtrain速度1.3倍、merge速度100倍になったわ。
merge一瞬で終わるし、train中動画見たりゲームとかしても落ちないしもっと早く変えるべきだった。

325:名無しさん@お腹いっぱい。
21/04/10 06:41:21.67 Pch01OEJ0.net
どどるげ動画さんすごいな

326:名無しさん@お腹いっぱい。
21/04/10 11:15:05.96 JqdV/13K0.net
スレチ

327:名無しさん@お腹いっぱい。
21/04/10 16:34:08.79 yrnfAYTy0.net
mergeはCPUのスレッドが多ければ多いだけ速いね

328:名無しさん@お腹いっぱい。
21/04/10 16:46:37.62 Mrqtwq0X0.net
久しぶりにやったらliaeがデフォになったんだな。dfの方が似るように思うんだが、liae何か進化したのか?

329:名無しさん@お腹いっぱい。
21/04/10 17:07:14.68 JqdV/13K0.net
>>2
liaeとdfの違いから見直した方が良い

330:名無しさん@お腹いっぱい。
21/04/10 18:21:36.97 iH//3Q0I0.net
顔の相性がいい素材のliaeが一番クオリティ高い

331:名無しさん@お腹いっぱい。
21/04/10 19:26:58.90 yrnfAYTy0.net
dfの方が似ると思うのならそれでいいと思う
俺は差異を感じなかったし利点もあるのでliaeに移行した

332:名無しさん@お腹いっぱい。
21/04/10 19:26:58.99 JqdV/13K0.net
相性と数だね 数百万分のナンボが合うかって感じだけど

333:名無しさん@お腹いっぱい。
21/04/11 02:08:26.59 ujYKb++B0.net
顔が似るのは明らかにDF

334:名無しさん@お腹いっぱい。
21/04/11 06:46:42.93 PPB+3BwD0.net
dfは表情の追従が弱い
よほどsrcのバリエーションが多くないと
もしくはdstが短いとか

335:名無しさん@お腹いっぱい。
21/04/11 07:01:13.64 PPB+3BwD0.net
eyes_mouth_prio: False
にしたらいきなりLoss値が下がった

336:名無しさん@お腹いっぱい。
21/04/11 09:11:30.41 TpXKrb8Y0.net
liaeの万能な所を経験するとdfには戻れないな
正面の静止画メインならdf一択だが
>>335
名前のとおり目と口を主に学習して他の部分はほとんど学習しないから
目と口に違和感がないかぎり基本offだね

337:名無しさん@お腹いっぱい。
21/04/11 12:09:59.56 Q2c9bGeC0.net
liae似ないんだけど、何かコツある?

338:名無しさん@お腹いっぱい。
21/04/11 13:11:07.17 TpXKrb8Y0.net
liaeは最後にganpower使用しないと似ている感じがしないね
まずはdfl guideのQ&AのQ8の通りにきちんとtrainしてloss値十分下がったあとの最後の仕上げに使う
ganpower使うと表情はdstに寄ってしまうけど
srcの細かいシワ、しみ、ホクロ等が反映されるようになる
学習が進めばlrdをonにしてtrainするだけで反映されるようになる
あとはたまに学習ミスってモザイクがでたりするからganpower使用する前にmodelをバックアップしたほうが良い

339:名無しさん@お腹いっぱい。
21/04/11 13:14:18.20 TpXKrb8Y0.net
これで似なかったらdstとsrcの相性が良くなかったと判断してあきらめる

340:名無しさん@お腹いっぱい。
21/04/11 14:33:56.46 fOz/zYlH0.net
最新版のDFLで5.XSeg) train実行してバッチ2にしても動かないのですが単純にGPU性能不足でしょうか
GPUはGTX1080です。

341:名無しさん@お腹いっぱい。
21/04/11 15:38:18.11 fJrIygUF0.net
>>338
今までデフォ設定のままで、gan使ったことなかったから試してみるは

342:名無しさん@お腹いっぱい。
21/04/11 15:44:18.78 S56eIIgv0.net
>>340
同じGPUだが余裕だ
mrdeepfakesのModel name: LIAE-UD FF 192_SAEHDっての使ってる

343:名無しさん@お腹いっぱい。
21/04/11 16:39:15.44 fOz/zYlH0.net
windowsの設定でした。 解決しました

344:名無しさん@お腹いっぱい。
21/04/11 20:37:46.21 mUgJkMdu0.net
>>337
liaeはdfよりもdstとの一致要求がシビアなので、flip使うのも場合によっては有効
warp切ったらGANじゃなくてdropを使う方が良い気がする

345:名無しさん@お腹いっぱい。
21/04/11 22:28:24.73 Ryk/5C4v0.net
teslaとかサーバー製品って、メモリ帯域はすごいけどFP32のTFLOPSの値は一般向けのGEFORCE 3090の方が上なんだけど、学習にはどっちが有利なんだろうね
もちろん、アプリの種類にもよるんだろうが
サーバー向けは科学技術計算で使われるFP64の性能も要求されるからこの分FP32の性能があげられないんだろう

346:名無しさん@お腹いっぱい。
21/04/11 22:31:12.62 Ryk/5C4v0.net
URLリンク(qiita.com)
グラフィックで多用される演算と学習で多用される演算がFP32が同じだからね

347:名無しさん@お腹いっぱい。
21/04/11 22:53:27.26 fOz/zYlH0.net
WFでやったら頭頂部付近が気になる

348:名無しさん@お腹いっぱい。
21/04/12 06:51:04.55 YLrUK5uX0.net
ganpowerってあげれば上げるほど似るのですか?

349:名無しさん@お腹いっぱい。
21/04/12 09:14:41.44 d7OWDGE40.net
5950xで新しく作ったけどグラボが手に入らん
とりあえずもってた1070挿してるけど、弱いグラボだと時間かかるだけでクオリティは同じなの?

350:名無しさん@お腹いっぱい。
21/04/12 20:20:03.45 s0hHjzfp0.net
俺は、DFがええわ→liaeの違和感の無さええわ→やっぱdfの本人性の高さが一番大事やわ
で今DF

351:名無しさん@お腹いっぱい。
21/04/12 23:00:55.24 BhE0odAf0.net
VRでやってるとLIAE一択だな

352:名無しさん@お腹いっぱい。
21/04/13 06:26:22.26 SLvCoHjC0.net
>>349
dimsが上げらないからクオリティは上げられないかも

353:名無しさん@お腹いっぱい。
21/04/13 09:33:52.96 6hNDogoR0.net
trainしてると落ちるのはCPUの温度の問題かな?

354:名無しさん@お腹いっぱい。
21/04/13 11:04:17.97 wkxq5OTE0.net
>>352サンクス、手に入るまで我慢するか
発売時に3080手に入らない段階で3090買っとくのが大正解だったな、、、

355:名無しさん@お腹いっぱい。
21/04/13 12:13:56.15 qJPsKE3Y0.net
1.5倍近くパワーアップするhopperが本命?

356:名無しさん@お腹いっぱい。
21/04/13 15:16:22.16 wO6pG87X0.net
似るってだけならDFで前髪含むが最強。
LIAEには戻れない。

357:名無しさん@お腹いっぱい。
21/04/13 20:37:09.52 dO8oUwDl0.net
普通は使い分ける

358:名無しさん@お腹いっぱい。
21/04/14 00:27:47.30 N2DP15B60.net
この為に環境整えたのに気付いたら掘ってた

359:名無しさん@お腹いっぱい。
21/04/14 19:11:48.30 pkNMzccF0.net
>>356
それってfacetypeはwfでやるの?
ちょっと気になる

360:名無しさん@お腹いっぱい。
21/04/14 20:15:22.28 pvicPtlx0.net
最強とか言ってる時点で察して差し上げろ

361:名無しさん@お腹いっぱい。
21/04/17 20:16:54.79 twzomULj0.net
headの高解像度pretrainモデルどこかにないですか

362:名無しさん@お腹いっぱい。
21/04/18 00:50:07.81 LEn9w1ZS0.net
俺もdf一択だわ。使い分けるメリットすら無いくらい今のDFは優秀。

363:名無しさん@お腹いっぱい。
21/04/18 01:20:04.90 vFHsN19P0.net
前髪のないDSTに、前髪のあるSRCかぶせたら前髪無くなります。。
対処方法ありますか

364:名無しさん@お腹いっぱい。
21/04/18 01:48:15.42 1BcANTD70.net
前髪のあるdstを探す

365:名無しさん@お腹いっぱい。
21/04/18 01:50:21.59 1BcANTD70.net
>>362
DFは角度あるとつらいよ
すべての角度のsrcがあれば良いんだろうけど

366:名無しさん@お腹いっぱい。
21/04/18 02:54:12.61 8xZymf5Q0.net
そっくりな映像を作りたいなら
liaeでもちょうどいい角度のsrcが必要なのは同じ
だったら存在する角度の再現性が高くて学習の負荷が低い
DFに優位性がある

367:名無しさん@お腹いっぱい。
21/04/18 03:06:06.78 1BcANTD70.net
今のliaeって正面下手じゃないでしょ
俺は臨機応変で使ってるよ

368:名無しさん@お腹いっぱい。
21/04/18 10:37:47.89 PgKP4gD60.net
dfは頭使わず手軽なのが初心者ウケが良いだけ

369:名無しさん@お腹いっぱい。
21/04/18 11:14:31.75 PgKP4gD60.net
つーかmodelとかarchは素材に合わせて好きなの使ってろよ
ガキじゃねーんだから○○最強とかイチイチ押し付けてくんな 質問でも無ぇし

370:名無しさん@お腹いっぱい。
21/04/18 15:32:41.08 FLvozWDK0.net
3090使ってheadのliae-uで回せば大概できるから
src画像さえちゃんと集めてあればdstの選別とかいらねーよ

371:名無しさん@お腹いっぱい。
21/04/18 15:40:29.87 LxQl3MNK0.net
まぁDFLのスレってここぐらいしか無いし、ここでイキるしか無いんだよな

372:名無しさん@お腹いっぱい。
21/04/18 15:52:00.23 vFHsN19P0.net
>>370
そのmodel貰えませんか?

373:名無しさん@お腹いっぱい。
21/04/18 16:14:42.41 tJMQwguA0.net
true face power

374:名無しさん@お腹いっぱい。
21/04/18 17:16:47.51 PgKP4gD60.net
>>363
基本はdstに合わせるしか無い フォトショで全flame前髪書きたいなら知らん
GPUもmodelも関係ないし、選別する必要性が理解できない程度のエアプがスルー出来ないなら制作に向いてない

375:名無しさん@お腹いっぱい。
21/04/18 19:31:13.43 vRGixPgW0.net
meta human

376:名無しさん@お腹いっぱい。
21/04/18 22:56:55.12 0ixJ+XPV0.net
髪の動きが不自然になりがちだけど、dstに前髪なくても前髪生えるよ。
エアプはスルー。

377:名無しさん@お腹いっぱい。
21/04/19 00:03:29.37 8yqc5y2p0.net
まぁ公開するわけじゃないから不自然でも抜けりゃいいんだよ

378:名無しさん@お腹いっぱい。
21/04/21 03:38:34.38 6cuwbeaM0.net
>>365
なるほどね、豊富なsrc取れるやつでしか作ってないからその発想は無かったわ

379:名無しさん@お腹いっぱい。
21/04/23 15:15:32.15 GI0t/RwX0.net
半年ぶりにアップデートしたら色々変わってたんだが、
df→無くなった
liae→無くなった
dfHD→dfになった
liaeHD→liaeになった
更にそれぞれ、uとdのオプション付けれるようになった
という認識でいいのでしょうか?

380:名無しさん@お腹いっぱい。
21/04/23 15:47:16.41 rYgS35L60.net
>>379
df→ドッフッ
liae→ライアヤャ
dfHD→ドッフッHD
liaeHD→ライアヤャHD

381:名無しさん@お腹いっぱい。
21/04/24 11:33:27.08 H0wRkMGL0.net
3080tiの発売日が決まったようですね
メモリ12gみたいだけど2gでも差が出るのかな

382:名無しさん@お腹いっぱい。
21/04/25 19:30:45.27 MHgX3CJU0.net
ジェネリックxsegってのがアップされてるね、なんぞこれ?

383:名無しさん@お腹いっぱい。
21/04/25 21:43:09.29 oPpNSQFB0.net
facejapp使ってるひといる?

384:名無しさん@お腹いっぱい。
21/04/26 00:35:58.47 kYMNlaSV0.net
そういうのいいから

385:名無しさん@お腹いっぱい。
21/04/26 01:28:23.59 Ga7VyGbW0.net
Xsegで舌を破線で囲って除外してからtrainしたら
舌を出してないフレームの一部でも口内が除外されてしまって
mergeすると口に違和感が出るようになりました
これを避けるには先に舌のあるパートと無いパートでdstを分割するしかないのでしょうか
何かいい方法がありましたらご教示下さい

386:名無しさん@お腹いっぱい。
21/04/26 08:47:05.58 8TtDd35S0.net
>>385
その口内を除去して欲しくないフレームのマスクを書いてトレイン
完璧にしたいなら、トレインして適用して、変になるフレームを書いてまたトレインしてのループをするしかない

387:名無しさん@お腹いっぱい。
21/04/26 12:57:22.83 kYMNlaSV0.net
>>385
fansegだとmaskに応じてちゃんと反映される
後は求める画をsrcが持ってれば精度は上がる

388:名無しさん@お腹いっぱい。
21/04/28 16:41:24.16 5pMQt8kK0.net
>>384
あいつアウトだろ
ツイッターでモザかければいいってもんじゃないのにな
事務所とかに通報してる人も結構いるらしいしもうそろそろ...

389:名無しさん@お腹いっぱい。
21/04/28 20:52:29.03 jKwPlVkD0.net
WEBのプロダクト紹介ポエムから制作ニワカなのが丸出しなんだよな…

390:名無しさん@お腹いっぱい。
21/05/05 16:24:51.53 NeCrKWaH0.net
ゾアタフ来てる

391:名無しさん@お腹いっぱい。
21/05/06 07:10:06.38 e9OJLbGy0.net
みなさんadabelief使ってます?

392:名無しさん@お腹いっぱい。
21/05/06 18:31:17.25 fXl6cLfg0.net
常にONだよ

393:名無しさん@お腹いっぱい。
21/05/06 19:01:24.64 8uOvXnX90.net
ad使いたくてもaedims512のmodelだとBS2まで下げて他のOP切ってもOOM吐く

394:名無しさん@お腹いっぱい。
21/05/09 11:57:47.23 KcsGK0sG0.net
Github覗いたら4月23日頃にこんなん出てんねんけど、何?
「added AMD/Intel cards support via DirectX12 ( DirectML backend )」
ラデも使えるんやったら、VRAMてんこ盛りのが余ってるからメチャ有り難いねんけど。

395:名無しさん@お腹いっぱい。
21/05/09 12:13:49.80 KcsGK0sG0.net
自己解決っつーか、処理が早くて要望が上がってたDirectX12版のDFLリリースされてんだw
っでAMD/Intel系が自動的に対応って理屈やね。
ヤバいんちゃうん?16GBの板が1万で売ってるAMDやで?
//blog.csdn.net/ddrfan/article/details/116085129

396:名無しさん@お腹いっぱい。
21/05/09 12:18:12.27 sclGtzl90.net
ビックリするぐらい遅いけど

397:名無しさん@お腹いっぱい。
21/05/09 12:36:48.26 KcsGK0sG0.net
自分トコで動いたんか?
動かんし2060スパーとmx250(インテルオンボよりはマシレベル)比較で
半分ぐらいの速度しか出んって話やけど、630とRX580では30倍ぐらい性能差があるから
ええトコ行くんちゃうん?
1.0のOpenCL版はCuda比較で20%程度の性能しか出んかったけど、VRAM量が圧倒的なんで
1iterあたりの学習差は50%ぐらいは稼げてた。
だから、性能は1.0の頃より2.5倍向上して安くてVRAM量が多いRadeは、
回転数以上のパフォーマンス出るでしょ。
まだちゃんと動かんみたいやけど、ヒマ見て試すわ。

398:名無しさん@お腹いっぱい。
21/05/09 12:38:22.18 dC6pQfzc0.net
changelogに
ゲフォより20~80%遅いと書いてあるからね
16G版ラデで20%遅いスピードでトレインできる感じかな(テキトー)

399:名無しさん@お腹いっぱい。
21/05/09 12:52:31.56 sclGtzl90.net
DFL1.0よりは速くなってるんだね
良かったね

400:名無しさん@お腹いっぱい。
21/05/09 14:39:51.63 j1SyNQjA0.net
Bad Request

401:397
21/05/09 14:53:07.02 7GLUQRSe0.net
今試し始めたけどExtractおっそ

402:名無しさん@お腹いっぱい。
21/05/09 15:02:09.08 Bvr4sTpV0.net
技術的な質問じゃないが、
このスレに配偶者がいたり恋人と一緒に住んでたりする人いる?その場合、隠れてやってる?
見られたときの気まずさって普通のAVとかエロサイトの比じゃないような気がするが。

403:397
21/05/09 15:47:07.04 7GLUQRSe0.net
FHDやとExtract1枚1.5秒もかかるし、2回めにPhytonがワーニング吐いてる。
>>402
そんなピーキーな関係で付き合うから別れるハメになるんだよ。
愛顧らでもDeepFakeでも「また悪巧みしてる」って笑われてるけど。

404:名無しさん@お腹いっぱい。
21/05/11 16:55:07.54 +gKf1ZOW0.net
見られたところでわからんくね?
芸能人Aで作ってたとして、DF作ったって言われなきゃわからないでしょ

405:名無しさん@お腹いっぱい。
21/05/11 19:07:48.39 PzT70Coy0.net
声のディープフェイクってまだないのかな?
ハシカンに好きな言葉言わせるとか

406:名無しさん@お腹いっぱい。
21/05/11 20:00:54.57 ieEMk1ST0.net
>>405
アドビのデモであったよ

407:名無しさん@お腹いっぱい。
21/05/12 09:02:39.20 dKw8q9B90.net
声のディープフェイクやりたいなぁ、知人の顔を手に入れるのは大変だけど声なら簡単に手に入るしw
けど犯罪防止で公開しないんじゃないか?

408:名無しさん@お腹いっぱい。
21/05/12 14:02:17.38 FAFNQAxW0.net
参考までにDX12版
radeon7と3090混ぜてheadの抽出が7~8枚/secって感じ
混ぜてやってるにしちゃ頑張ってる方じゃないかな

409:名無しさん@お腹いっぱい
21/05/14 23:04:37.15 z9HMic4B0.net
05_12_2021 きてるな

410:名無しさん@お腹いっぱい。
21/05/15 00:32:51.49 kXqmwQwO0.net
何が変わったの

411:名無しさん@お腹いっぱい。
21/05/15 06:16:48.49 dDwHuN7p0.net
とりあえずDLして
changelog.html
を見れば分かる

412:名無しさん@お腹いっぱい。
21/05/15 09:15:09.55 kXqmwQwO0.net
============ CHANGELOG ============
== 12.05.2021 ==
FacesetResizerは、顔の種類の変更をサポートするようになりました
XSegEditor:削除ボタンを追加
XSegトレーナーのトレーニングサンプルの拡張が改善されました。
XSegモデルは、さまざまな面が大量にある場合にうまく機能するように変更されているため、既存のxseg モデルを再トレーニングする必要があります。
さまざまな面で事前トレーニングされた汎用XSegモデルが追加されました。きれいな顔が含まれているため、src フェイスセットに最適ですが、 複雑な顔の障害物なしでdstフッテージに適用することもできます。
5.XSegジェネリック)data_dst whole_face マスク- apply.bat
5.XSegジェネリック)data_src whole_face マスク- apply.bat
意味わからへん

413:名無しさん@お腹いっぱい。
21/05/15 15:41:54.42 eAJd2YYp0.net
日記生きてたんか

414:名無しさん@お腹いっぱい。
21/05/15 15:55:16.44 4lLHMjB+0.net
作ったものを批評してもらいたいとき、顔以外を黒く塗りつぶした動画にしてからupしてもアウトになるのかな?

415:名無しさん@お腹いっぱい。
21/05/15 19:34:19.49 dDwHuN7p0.net
日記じゃねえ
そろそろ話題も尽きた様な。。
つべに下手くそがうp
顔がチラチラ
ボケボケ
つべにすずちゃんのばきゅーんを上げたいが、
著作権侵害で怒られるかも
ハリウッドセレブのノンアダルトなら。。
腕前の披露だけとか

416:名無しさん@お腹いっぱい。
21/05/15 19:42:47.59 dDwHuN7p0.net
つべにうpする時に非公開設定なるものが
URL貼り付けで、他の人も見れるのでは?
それでも消されるか/怒られるかは知らん
Mega.nzで共有して、リンク貼り付けでこっそりとか

417:名無しさん@お腹いっぱい。
21/05/15 20:07:24.30 dDwHuN7p0.net
顔ぐらいしか見えない様に、クロップでもして、
誰と言わなければセーフな気もしてきた
音声トラックはなしとか
DeepFakeとかも言わない方がいいかも
つべにうpするときも、著作権の侵害でも、収益化できないだけだったりする
場合によると思いますが

418:名無しさん@お腹いっぱい。
21/05/15 20:40:41.09 dDwHuN7p0.net
女の闘い
URLリンク(www.youtube.com)
著作権侵害の申立あり

419:名無しさん@お腹いっぱい。
21/05/15 21:13:41.97 eAJd2YYp0.net
「すずちゃん」とか文体然りどう見ても日記 どうでもいけどw
>>414
1 flameずつ黒く塗るのか…

420:名無しさん@お腹いっぱい。
21/05/16 05:57:13.56 FvakAbYC0.net
>>412
ID:kXqmwQwO0
とはID違うやろがw
タブレットはWiFi接続のみだから、ルーターは同じで、同じIPアドレスになるのでは
ガラケーが使えなくなったら、パカパカスマホにしてネット契約はしないつもり
>>414
顔の絶対位置がそれほどずれないのであれば、Avidemux等でクロップもありかと
すずのばきゅーんでも作ってみますかね
怒られるだけで、垢BANされなければいいかと

421:名無しさん@お腹いっぱい。
21/05/16 06:04:29.85 FvakAbYC0.net
女の闘い
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)
URLリンク(www.youtube.com)

422:名無しさん@お腹いっぱい。
21/05/16 06:23:41.82 FvakAbYC0.net
おっ○いの闘い
URLリンク(www.youtube.com)

423:名無しさん@お腹いっぱい。
21/05/16 06:41:16.29 FvakAbYC0.net
今の所、著作権侵害の申立なし
要は、相手が怒るか、気づかないか、大目に見るかとか
画像トラックや音声トラックで計算機で自動チェックしてるみたい。さすがはGoogle
URLリンク(www.youtube.com)

424:名無しさん@お腹いっぱい。
21/05/16 07:29:40.83 FvakAbYC0.net
おっ○いの闘い
URLリンク(www.youtube.com)
ラスト音声トラック同期版

425:名無しさん@お腹いっぱい。
21/05/16 09:25:43.50 FvakAbYC0.net
女の闘い
ブロック済
URLリンク(www.youtube.com)

426:名無しさん@お腹いっぱい。
21/05/16 09:46:43.76 PUdxbC9h0.net
誰だよ日記呼んできたのw
うぜーよ

427:名無しさん@お腹いっぱい。
21/05/16 18:47:25.26 FvakAbYC0.net
ほむほむ
URLリンク(www.youtube.com)
非公開設定だが、ブロックされた
BANされない垢かな?

428:名無しさん@お腹いっぱい。
21/05/17 09:30:31.78 ZXkUDGDT0.net
しかしGPUの枯渇や異様な値上がりなんやねん・・
RX470_8Gでさえ中古で5万とかありえんわ。
新品4千円で売ってたのが夢の様だ。
1070ちも16000円やったのに。

429:名無しさん@お腹いっぱい。
21/05/17 10:30:57.76 gRpQHRPy0.net
ラデは対応してないみたいだけど、未対応なだけ?今後も対応予定無しなのかな

430:名無しさん@お腹いっぱい。
21/05/17 11:13:58.20 ZXkUDGDT0.net
DirextX12版で普通に動くけど。
且つRadeはVram溢れた分は勝手にメインメモリに逃げるから、デカいのが回る。
DirectX12版は遅いけど、実測したらDFL1.0の3倍以上出てるし
なによりAI_enhancerがCuda無しで使えるからDFL関係なしに高速に画像高画質化できるのが良いね。

431:名無しさん@お腹いっぱい。
21/05/18 09:22:50.64 YhQVa2UZ0.net
グラボのメモリが多いほうがいいならquadroってどうなん?
nvidiaならquadroでもゲフォでもどっちでもいいのかな
DFLの使い方サイトではゲフォしか載ってないけど

432:名無しさん@お腹いっぱい。
21/05/18 09:29:58.48 r0a2WGk/0.net
quadro rtx a6000使用している人はいるみたいよ

433:名無しさん@お腹いっぱい。
21/05/18 09:42:38.87 YhQVa2UZ0.net
a6000はさすがに高すぎる。。。w
けど早くていいの出来るんだろうなぁ
もうすぐ出るa5000がメモリ24gで今の3090と同じような値段だけどどっちのほうがDFLには向いてるんだろう
メモリ容量は同じでも90はx付きだけど

434:名無しさん@お腹いっぱい。
21/05/19 06:33:49.74 pHUuxLRo0.net
今から新しくPCを買う予定の者で、GPUはRTX3060にしようと思っています。
現実的な値段でVRAMが12GBと多かったのでこれがいいと思ったのですが、やはりVRAM容量は
大切なのでしょうか。また、RTX3060だとCUDAコア数が比較的少ないようですが、コア数はどのくらい
大事な要素なのでしょうか。RTX3060と比べて極端に値段の高くないものでこれより良いものがあれば教えてほしいです。
ちなみにdeepfake以外には高い性能を要する用途では使わない予定です。

435:名無しさん@お腹いっぱい。
21/05/19 09:28:39.11 9rV2XUwq0.net
ちょっと古いけどTITNXも12gでそっちはSLIもできる
中古で5万くらいで買えるみたい
どっちがいいのかは知らんけど、1枚なら3060、SLIするならTITANXじゃね?

436:名無しさん@お腹いっぱい。
21/05/19 12:58:26.49 nmsaiqKz0.net
最近のビルドって、Iterが何回目かに1回異様に遅くなるなぁってGitHub覗いたら
4回から16回に1回起きるらしいね。
特に高性能GPUほど発生頻度・遅延時間が酷いらしいけど、みんなも起きてる?
ウチのはショボいから1/16ぐらいの頻度で、倍遅いことがあるけど、
3090だと1/4ごとに30倍ぐらい遅くなって深刻らしい。
あと、メモリ認識が無条件にシステム予約分を差っ引いた値になり
複数台GPU搭載してDFL専用のフリーGPU作っても、無条件にシステム予約分が差っ引かれる。
だからウチのも8GBのうち0.8Gぐらいが使用されずに空いたまま。
なんかすげぇ勿体ないんですけど。

437:名無しさん@お腹いっぱい。
21/05/19 13:28:35.47 kZvylfeE0.net
2080tiだけど確かに1/15~1/20くらいで倍かかることあるわ
そのIterって決まってloss値も高く出るから
なんか難しい顔面処理して時間かかったんかなくらいにしか思ってなかった

438:名無しさん@お腹いっぱい。
21/05/19 16:41:03.94 JhIrvuGf0.net
700msが突然2秒とかなる時あって大丈夫か?と思ってたけど仕様かよ…

439:名無しさん@お腹いっぱい。
21/05/19 18:26:45.50 PzF11tfx0.net
俺も遅延あった、aligned内の画像2048にしてるとき起きて、512とか768え固めたら治ったから
別もんかもしれないが。

440:名無しさん@お腹いっぱい。
21/05/19 20:20:16.72 7a+U+8wR0.net
>>434
数か月使ったらGPU作業よりも時間を食うのでCPU優先が良いと思う
FHD画質ならres512以上は無意味じゃね?dimsなんかも等倍に出来なくてバランス悪そうだし

441:名無しさん@お腹いっぱい。
21/05/19 23:05:04.82 ClOdUpn50.net
TSMC、Intel、Nvidiaが数年単位のチップ不足を警告
URLリンク(cafe-dc.com)
GeForce RTX 30供給不足の原因はSamsungの歩留まり低迷か?、台湾メディア
URLリンク(news.mynavi.jp)
Intel・NVIDIA・TSMCの重役が「世界的な半導体不足は2021年中続く」と予測、最悪の予測は「2023年以降も続く」
URLリンク(gigazine.net)
TMSC GPU 半導体 値上がり

442:名無しさん@お腹いっぱい。
21/05/19 23:19:33.09 ClOdUpn50.net
半導体不足解消されたら、安くなるのかね?

443:名無しさん@お腹いっぱい。
21/05/20 05:02:26.85 zr67n6c00.net
CPU Ryzen 5950x
GPU RTX3090
DFL2.0
5.XSeg) trainを実行したらエラーで止まってしまうんですけど、原因分かる人いませんか?
6) train SAEHDは実行できるのですが、XSegを使うことができません。
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "multiprocessing\spawn.py", line 105, in spawn_main
File "multiprocessing\spawn.py", line 115, in _main
File "C:\Users\○○p\DeepFaceLab_NVIDIA_RTX3000_series\_internal\DeepFaceLab\core\leras\initializers\__init__.py", line 2, in <module>
from tensorflow.python.ops import init_ops
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\__init__.py", line 41, in <module>
from tensorflow.python.tools import module_util as _module_util
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\__init__.py", line 39, in <module>
from tensorflow.python import pywrap_tensorflow as _pywrap_tensorflow
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 83, in <module>
raise ImportError(msg)
ImportError: Traceback (most recent call last):
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 64, in <module>
from tensorflow.python._pywrap_tensorflow_internal import *
ImportError: DLL load failed: ページング ファイルが小さすぎるため、この操作を完了できません。
Failed to load the native TensorFlow runtime.
See URLリンク(www.tensorflow.org)
for some common reasons and solutions. Include the entire stack trace
above this error message when asking for help.

444:名無しさん@お腹いっぱい。
21/05/20 10:12:37.08 f4P52IEH0.net
日本語で理由書いてあるやん
仮想メモリ増やしなよ
tensorflowのエラーがよく出るのは
vram不足とGPUの低電圧化
3090だとかなり欲張りな設定じゃないとvram不足にならんけどね

445:名無しさん@お腹いっぱい。
21/05/20 11:11:21.63 kPe9fco50.net
ヤバいな、うちのネコが勝手にPC使ってdeep fake作る時代になってるのかも

446:名無しさん@お腹いっぱい。
21/05/20 18:57:45.96 PWAMirGC0.net
ページングファイルが小さいってさ、仮想メモリ不足でも起こるよね。
その場合、新たにメモリ領域を確保するか。
Cドライブ空き容量増やすかで改善する。

447:名無しさん@お腹いっぱい。
21/05/20 18:58:26.52 PWAMirGC0.net
あぁ仮想メモリ増やせってすでに書いてるね。

448:名無しさん@お腹いっぱい。
21/05/21 13:28:23.21 8KkTKvF10.net
身近な知人とかで作ってる人いる?
画像集め無理だよな、、、ただでさえ写真ゲットむつかしいのにコロナのせいでずっとマスクしてるし
技術が進めば卒アルから作れるようになったりするのかな

449:名無しさん@お腹いっぱい。
21/05/22 12:20:54.52 xB+pRSfV0.net
>>416
なんでつべに貼りたがってるのか良くわからんけど
ちょっと見てもらいたいだけなら、どっかのロダにパス付きで貼って晒せば良いんじゃないの
貼るんならココよりも↓こっちのが良いと思う
Deepfake総合 ★29
URLリンク(mercury.bbspink.com)

450:名無しさん@お腹いっぱい。
21/05/30 02:32:05.45 stJcXwc/0.net
あなた達は私にbukkakeの作り方を教えることはできますか?
私は自分の独自の手段でbukkakeの挑戦をしていますが、まだ成功していません。

451:名無しさん@お腹いっぱい。
21/05/30 03:56:22.01 eE/b2fkt0.net
>>450
翻訳乙

452:名無しさん@お腹いっぱい。
21/05/30 06:00:38.17 gnHvI3uH0.net
RTX3070買ったんで3000用のBuild使ってみたら、
Resolutionは128じゃないとエラー出るし、VRAMは8GBのはずなのに6.44GBって表示される
1080ではResolution192で出来てたのにどうなってるんだ…?

453:名無しさん@お腹いっぱい。
21/05/30 12:10:17.61 AzSojR8u0.net
>>452
win10をmay2020update以降に更新
ゲフォも451.48以降のドライバにして
GPUスケジュールリングをonにする
vram使用量はわからん
久しぶりに3070でdf動かしたらvram使用量は7.8Gだった

454:名無しさん@お腹いっぱい。
21/05/30 13:54:58.71 OTxm4i7K0.net
>>450
mask_dimsをdecooder_dimsの50%程度まで上げる(通常は30%位) ※但し、モダイクのエッジ(口元に一番近い半円状の部分)がキツくなる
mask editorで当該部分を手動mask fanseg(Xsegだとイマイチ)で集中学習させておく dfよりliae系の方が反映度高い気がする

455:名無しさん@お腹いっぱい。
21/05/30 14:47:37.73 gnHvI3uH0.net
>>453
やってみたけどダメだった
GPUスケジューリングはonにしてたからwindowsとゲフォドライバ更新した
CUDAも11.3に更新してある
You are training the model from scratch.
It is strongly recommended to use a pretrained model to speed up the training and improve the quality.
って出てOOMになるんだけど、今までスルーしてたxSegのモデルが必須になったりしてる…?
一応xSegで10枚くらいやってみたが変わらなかったけど

456:名無しさん@お腹いっぱい。
21/05/30 15:30:47.70 AzSojR8u0.net
>>455
oom出ているならbatch数減らして様子見るしかないかな
xsegは最新版で学習方法変わってtrainやり直しだけど関係ないと思う
旧xsegでマスク済ならそれ使用して問題ない
xseg genericがそこそこ優秀だから凝ったマスクをしないかぎりこれで十分
英文は
modelをゼロからトレーニングしているよ
pretrain済みのmodel使えばスピードも品質も向上するよって意味だから
1080で使用してたmodelを流用するかgithubのリンクからダウンロードする

457:名無しさん@お腹いっぱい。
21/05/30 17:10:16.82 gnHvI3uH0.net
>>456
train始まった、ありがとう助かった
modelの流用ってそういうことか…
dstとsrc両方違くてもmodelファイルに入れれば利用できたの知らなかったから、
今までpretrain使ったことなかった…

458:名無しさん@お腹いっぱい。
21/06/01 04:30:29.82 NaQZjGJ/0.net
質問です。
build_01_04_2021で、modelを流用しながらやってるのですが、
loss値が下がる毎に肌が部分的に擦りむいたというか、ただれたかのように、赤と黄色っぽい色のモアレのように
なってきました。これがmodelの崩壊というやつですか?治し方があったら教えてください。

459:名無しさん@お腹いっぱい。
21/06/01 09:17:31.60 DkbBI8Ow0.net
GANは使い回すと壊れやすいのか、肌の質感がおかしくなる感じがする。たまにGAN関連のファイルだけ消してる。

460:名無しさん@お腹いっぱい。
21/06/01 16:46:17.95 T8qtiPuh0.net
>>458
srcフォルダにもdstと同じフェイスセットを入れてrandomwarpでまわしたらええと思う

461:名無しさん@お腹いっぱい。
21/06/01 20:27:53.69 12WbP+md0.net
それなんの意味があるの
普通にモデル崩壊してるから最初からやるしか無いと思うよ

462:名無しさん@お腹いっぱい。
21/06/01 21:33:12.75 +oX0ZDEO0.net
自分の場合は使い回し用modelは25k程度で保存しておいて、今日の素材が決まったらsrc/srcでクリアになる前辺りまでtrain
その後dstを本番に入れ替えてって流れだと似つつ早い

463:名無しさん@お腹いっぱい。
21/06/01 22:54:45.13 NaQZjGJ/0.net
458です。皆さん有難うございます。
まずはmodelが崩壊してるじゃないかということですね。
random warpを諸々の条件加えて修復試みてみます。
去年まで、fanseg でやってて、今年からbuild変えて始めたばっかりなので、
訳も分からず、Adabeleifを疑ってたりしました。
いずれにしても、以前のbuildよりmodelが壊れやすいのですね。

464:名無しさん@お腹いっぱい。
21/06/01 23:17:38.19 FDTJh7SL0.net
まだ壊れたことないので参考にさせて欲しいんですけど
iter数・各powerオプションの数値・勾配クリッピング使用の有無
を教えていただけないでしょうか

465:名無しさん@お腹いっぱい。
21/06/01 23:33:48.45 B6yGj4FH0.net
あれ?以前のバージョン消された?

466:名無しさん@お腹いっぱい。
21/06/02 06:39:37.76 m43NnH8U0.net
458です。
100万iter
eye mouth prio y
adabelief y
face style power y 0.1
で、やっていました。
それで、夕べからrandom warp のみ yで8万回回したら完全に治っておりました。
有難うございました。

467:名無しさん@お腹いっぱい。
21/06/03 21:46:53.12 FzjeA7O60.net
LHR版のグラボだとなんか影響出たりするだろうか

468:名無しさん@お腹いっぱい。
21/06/04 01:12:19.80 JXzzU3Zm0.net
xseg genericの使い方がわかりません。
これを実行したあとxseg trainでしょうか

469:名無しさん@お腹いっぱい。
21/06/04 10:02:30.64 DjIhu11x0.net
xseg trainせずにxsegを適応させるのがxseg generic

470:名無しさん@お腹いっぱい。
21/06/05 17:43:19.20 yQlVk0er0.net
>>466
face style powerが原因じゃないかな
一度試してみたことあったけど肌の色が変わっちゃって以来使ってないや

471:名無しさん@お腹いっぱい。
21/06/05 20:26:22.83 8SPey0ws0.net
3090買って環境は整ったけどいざやるとなると誰と誰をくっつけようか、、、
練習用にこれとこれって定番あったりする?

472:名無しさん@お腹いっぱい。
21/06/07 21:12:19.28 MEWcsuHP0.net
このタイミングで3090買うとかまじかよ。

473:名無しさん@お腹いっぱい。
21/06/07 23:36:12.88 z+s1c0Wd0.net
vram倍だし、別によくね?

474:名無しさん@お腹いっぱい。
21/06/08 07:10:29.56 jQDjXLaY0.net
3080tiの値段見ると3090で良いかなと思うわ
おれは1月のnvidiaのカンファレンスで80tiの発表がなかったから3090を購入した
>>471
似てる似ていないは個人の主観でかなり左右されるし逮捕者も出ているからから
定番とかはおすすめしにくい
過去ログ倉庫から素材スレをさがすしかないかな

475:名無しさん@お腹いっぱい。
21/06/08 14:52:17.59 arKSKjcf0.net
>>471
おでこと輪郭が髪で隠れていない組み合わせ なるべく正面で明るいスタジオ撮影の素材
dstは1分以内で、extractは自動とマニュアル両方試して範囲や補足し易さを比べてみよう

476:名無しさん@お腹いっぱい。
21/06/10 17:46:42.27 TbiE4rbU0.net
紙長いのはむつかしいのか
せっかくなら無修正で作りたいけどカリビアンとか1か月だけ入会してDLしまくろうかなぁw

477:名無しさん@お腹いっぱい。
21/06/11 08:05:22.48 bbwMmrk40.net
4Kディスプレイにしたらプレビュー画面とか小さくて見ずらいんだけど、解決法ある?

478:名無しさん@お腹いっぱい。
21/06/11 09:58:19.70 1ddRA1dL0.net
フルHDディスプレイで試してみれば?

479:名無しさん@お腹いっぱい。
21/06/11 10:22:34.01 9UIJBXLp0.net
デスクトップ画面で右クリックして
ディスプレイ設定→拡大縮小とレイアウトを100%から150%とかに変更すれば
画面全体が見やすくなるはず

480:名無しさん@お腹いっぱい。
21/06/11 16:24:06.11 bbwMmrk40.net
>>479
%を変えただけだと、150とか200にしてもプレビューだけ何故か大きさ変わらないんだよね
解像度を変えれば間違いなく大きくなるけど、4Kの意味無いじゃんって感じではあるけど、これしか方法はないかな

481:名無しさん@お腹いっぱい。
21/06/11 18:44:13.92 1ddRA1dL0.net
いやだから、フルHDディスプレイにしたらいいじゃん
自分でも言ってるように、解像度を変えて大きくしても4Kの意味ないじゃん
デュアルモニタで用途に応じて4KとフルHDを使いわければいい
なんで俺を無視して「これしか方法はない」とか言ってんだよ
デュアルモニタするスペースがないとかならそう言えよ

482:名無しさん@お腹いっぱい。
21/06/11 19:00:01.00 bbwMmrk40.net
いや4Kでデュアルにしたんだよ

483:名無しさん@お腹いっぱい。
21/06/11 19:02:32.22 bbwMmrk40.net
>>478
ああ、これがお前か
なんで無視したのかわからないのか?

484:名無しさん@お腹いっぱい。
21/06/11 19:31:49.76 Ol7Tk7MO0.net
プレビュー画面の大きさはtrainするときの解像度の値に依存するはずでは?

485:名無しさん@お腹いっぱい。
21/06/11 20:54:24.34 HboJbhDn0.net
うむ Resolution 192以上だと縦4横5が維持できなくなる

486:名無しさん@お腹いっぱい。
21/06/11 20:55:35.82 bufiJ0rr0.net
>>483
性格悪いな
回答くれた人に対する態度とは思えん


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch