22/10/14 01:33:28.86 kQTtTl7+.net
200Vが必要だからエアコンや乾燥機のコンセントを拝借するか新設だな
最強は電気自動車用コンセントだが
最大出力を何時間流しても平気
出力も3kwから10kwまであるし
479:名無しさん@お腹いっぱい。
22/10/14 01:57:25.46 hROnJCcO.net
Novel AI Leak 設定してもなぜかアスカが生足にならないし、nsfwいれても描画されない。
何か設定間違えている…?
480:名無しさん@お腹いっぱい。
22/10/14 02:16:55.05 hROnJCcO.net
>>479
すまん、ここに書いてあった。モデルの名前勘違いしてた
URLリンク(imgur.com)
481:名無しさん@お腹いっぱい。
22/10/14 03:11:27.27 bNwczKpA.net
2つフルパワーで動かしたら水冷でもないと熱で死にそう
482:名無しさん@お腹いっぱい。
22/10/14 03:20:01.07 0nulJh1R.net
電源やケーブルにマイニング並みの知識と管理が必要になるな
24hフルで動かす訳じゃないにしろ一時的な負荷はむしろ大きいし
483:名無しさん@お腹いっぱい。
22/10/14 03:33:06.70 iByz9gC/.net
箱に入れずにオープンフレームで直接扇風機当てればいいべ
484:名無しさん@お腹いっぱい。
22/10/14 06:43:17.96 2+qJ6I6I.net
みんなアップスケーラーてどれ使ってるのん?
選択肢は多いけどどれがどういう長所とか向いてるとかよくわからなくて
背景画像の細部の描き込みを増やしたい場合てどれがいいのん?
485:名無しさん@お腹いっぱい。
22/10/14 07:52:22.49 Pj8SnpbA.net
部屋が冬でも冷房、夏はサマーウォーズの「うわ~っ、暑い!」になるのでは
パソコンの熱を屋外へ直接出す煙突を立てないと
藤井聡太はスリッパPCの熱をどう処理してるのかな
486:名無しさん@お腹いっぱい。
22/10/14 07:59:18.10 nKgTqKnx.net
聡太名人レベルになると家にデータセンターありそう
あとそろそろスレチ気味になってきたにゃー
487:名無しさん@お腹いっぱい。
22/10/14 08:25:04.93 I4aoRgos.net
やはり水冷だな
488:名無しさん@お腹いっぱい。
22/10/14 08:35:13.65 QeGD8Cwp.net
90Tiなんか発熱で溶けたみたいなこと言われてるから、もう普通に水冷つけとけって思うな
20万超えるようなもん、水冷つけても別に誰もモンクいわんだろ
489:名無しさん@お腹いっぱい。
22/10/14 08:46:29.47 I4aoRgos.net
4090は物理的に スロット埋まるから
SLI出来ないとか
長さも 3.5スロット占有や
ケースのサイドからはみ出て 横の蓋が閉まらないとか
規格外すぎる
490:名無しさん@お腹いっぱい。
22/10/14 08:48:59.40 bNwczKpA.net
物理的なスロット干渉はマイニング延長ケーブルみたいのでどうにかなるんでね
491:名無しさん@お腹いっぱい。
22/10/14 08:50:47.50 pN8Jm991.net
最近のグラボの爆熱上等で無理やり性能上げてく感じはPentiumEEを彷彿とさせる
492:名無しさん@お腹いっぱい。
22/10/14 08:51:08.93 I4aoRgos.net
あとは 200Vコンセントが必要になるだろうってところか
493:名無しさん@お腹いっぱい。
22/10/14 09:04:07.93 f2T3x2aC.net
>>477
>>478
コンセントを200Vにはしたくないし、Signature1300ていう電源はデュアル電源に標準対応してて実質2600Wだからそれを検討してる
ただケース買い替えだし、グラボ代マザボ代その他諸々にCPUも13世代にしたいしで流石に当分は妄想にとどめておくよ
494:名無しさん@お腹いっぱい。
22/10/14 09:17:17.91 AmgEVVUS.net
グラボの話ばっかで画像生成の話してない
495:名無しさん@お腹いっぱい。
22/10/14 09:26:22.42 bNwczKpA.net
SDの新しいバージョンが正式にリリースされたらそっちのこと話すんでないかな
生成そのものの呪文とかはなんJやさんJが盛んだし
生成技術のスレだからそれでも良いと思うが
496:名無しさん@お腹いっぱい。
22/10/14 09:36:14.39 QeGD8Cwp.net
ハイパーネットワークで学習させてるヤツおる? あれってリークじゃない普通のckptでも動くんだよな?
497:名無しさん@お腹いっぱい。
22/10/14 09:40:56.91 OMLW7wgc.net
グラフィックボードの妄想だけつらつらと書かれてもね
世間はColabで使えるTPUで8枚8秒の話題になってるよ
>>496
例を見たいだけならtwitterでhypernetworkで検索すればいくつか出てくる
エロスレで試してる奴も居る
それによればNAIのckptじゃなくても普通に動かしてる人ばかり
けど誰もこうすりゃうまくいく的な話はしてないな
498:名無しさん@お腹いっぱい。
22/10/14 10:07:05.07 NSsJQ8sI.net
URLリンク(iwiftp.yerf.org)
ここのNAIらしきデータって非torrentかな
でも非公式なのってウイルス怖いよね…
もう試した勇者様ってどれくらいいますか?
499:名無しさん@お腹いっぱい。
22/10/14 10:30:33.49 u3Iza5ue.net
5日みてなかったらもうついていけなくなった
TIはby Embeddingで使うけど、hyperは全体に勝手にかかるでOK?
500:名無しさん@お腹いっぱい。
22/10/14 10:39:43.81 T/ePtpFR.net
公式リークという概念
501:名無しさん@お腹いっぱい。
22/10/14 10:50:48.93 Ur2GaHD6.net
wslでxformers導入できた人いる?
502:名無しさん@お腹いっぱい。
22/10/14 11:00:50.75 f2T3x2aC.net
悪い妄想癖が出てしまって申し訳ない
自分もTIとHyperの違いがよくわかってないんだけど、Hyperでプロンプト全体のスタイルを指定した上で、TIで特定のオブジェクトを覚えさせることも出来るんかな
503:名無しさん@お腹いっぱい。
22/10/14 11:02:39.08 vAHWjfwX.net
xformersが対応遅くて現時点では3090ti>4090っぽいね
504:名無しさん@お腹いっぱい。
22/10/14 11:18:34.78 FWkjSdxh.net
TIは学習内容に応じて特定プロンプトでptファイルを参照、対象モデル内のベクトルを引っ張る感じ
顔とかモノとかピンポイントで学習させた絵が生成されやすくなる。なのでファイルサイズも小さい
hypernetworkは追加学習でhypernetwork用の追加モデルとしてptファイル内に小さな学習モデルを持つ
対象モデル全体に学習内容を反映させる。特定の顔とかモノではなく、画風や作風そのものを全体に転送する感じ
と理解した
505:名無しさん@お腹いっぱい。
22/10/14 11:23:57.53 nKgTqKnx.net
TI やべえ
DB すげえ
HN ほげえ
なんかこんなニュアンス
506:名無しさん@お腹いっぱい。
[ここ壊れてます] .net
DreamBoothって使ってる人いる?
適当に弄ってみたけどなんかLinuxでしか動かない?のかな
てゆうかcolabなんて初めて触ったよw
507:名無しさん@お腹いっぱい。
[ここ壊れてます] .net
使い方わかった来たけど トークンいれても403エラーで蹴られる
もーやだ
508:名無しさん@お腹いっぱい。
[ここ壊れてます] .net
dbでprompt追加して学習したやつにtiを上乗せして顔を覚えさせようとしてるけど
学習ベースが違う人種になっちゃったり
似てるけど若干違う感じになったりするからまだdeepfakeとしては使いづらい
あと体型ネガティブとか beautiful cuteあたりでもめちゃくちゃ顔変わってきちゃうからdfとしてだと生成後に顔周りだけimg2imgで変えたほうがいいかもしれん
509:名無しさん@お腹いっぱい。
22/10/14 12:14:01.77 XBUk6hAg.net
>>508
DBで画風学習させた後、別のプロンプト指定して再度DBでキャラを覚えさせて成功してる人Twitterで見たから、DB→TIよりDB→DBの方が良いかも
510:名無しさん@お腹いっぱい。
22/10/14 12:50:28.30 bNwczKpA.net
>>506
オリジナル版とCPU版はPythonで動かしてた気がする
511:名無しさん@お腹いっぱい。
22/10/14 12:57:04.67 I4aoRgos.net
ローカル環境だと
Anaconda入れて使う方法が
だいたいの手順で説明されてるね
あと Cドライブの空き容量は100GB位は必要みたい
512:名無しさん@お腹いっぱい。
22/10/14 13:51:47.56 ARTDPbZp.net
StableDiffusionで真っ黒な画像しか出てこないんだけど助けて
卑猥な言葉は使ってないからフィルターとかではないと思うんだが
513:名無しさん@お腹いっぱい。
22/10/14 13:58:57.58 ALilA1k2.net
1660?
514:名無しさん@お腹いっぱい。
22/10/14 14:01:11.39 XNOQ4Zh8.net
>>512
メモリ不足の可能性がある
出力画像の解像度を下げて出力できるか試してみるといい
515:名無しさん@お腹いっぱい。
22/10/14 14:01:34.47 AcwfJ4Wh.net
DBcolabでやってるけどGPUCPUどっちか選択できるっぽい?
ログでGPU使ってねえぞ!って出たけどそのまま使ってるわ
なんか怖い
516:名無しさん@お腹いっぱい。
22/10/14 14:04:52.95 ARTDPbZp.net
>>513
1660ti
>>514
なるほど!DDR4で16Gしかないからかもしれん
試してみる
ありがとう
517:名無しさん@お腹いっぱい。
22/10/14 14:07:40.90 QeGD8Cwp.net
まあ、あとは念のためにpromptにNSFWをどっかに突っ込んでおくかな。あくまでもオマケ的に
518:名無しさん@お腹いっぱい。
22/10/14 14:08:10.45 ARTDPbZp.net
64×64まで下げたけどだめだった
519:名無しさん@お腹いっぱい。
22/10/14 14:11:10.58 nYV2BrHh.net
コマンドラインに何かエラーメッセージは出てないの
520:名無しさん@お腹いっぱい。
22/10/14 14:11:58.16 ALilA1k2.net
>>516
webuiのAUTOMATIC1111なら
webui-user.batの
set COMMANDLINE_ARGS=
を↓のようにする
set COMMANDLINE_ARGS=--precision full --no-half --medvram --opt-split-attention
NMKDのGUI版なら右上の歯車から
Low memory mode選ぶ
521:名無しさん@お腹いっぱい。
22/10/14 14:47:26.99 30QwPrZZ.net
横からごめん
--opt-split-attentionって知らなかったんだけどどんな効果のオプションなの?
522:名無しさん@お腹いっぱい。
22/10/14 14:48:43.94 AmgEVVUS.net
URLリンク(github.com)
523:名無しさん@お腹いっぱい。
22/10/14 15:21:47.00 30QwPrZZ.net
あんまり更新おってないからしらなかった
あとさっきから画像のエラーが出て起動できなくなったんだけどモデルの入れる場所変わった?
エラー起こる前にしたことは最新版にgit pullしたのとa1111-sd-webui-tagcomplete入れたのとckpt一個しか入れてないのに1111の再起動前にモデル切り替え触っちゃったくらい
URLリンク(i.imgur.com)
524:名無しさん@お腹いっぱい。
22/10/14 15:28:02.89 T/ePtpFR.net
hypernetwork、効きを調節できたり複数のptを適用できたりするといいんだけどな
そのうちできるようになるかな
525:名無しさん@お腹いっぱい。
22/10/14 15:46:03.56 K5lHcCjq.net
アンダーフィッティング気味のpt使うと薄く効く気がする
526:名無しさん@お腹いっぱい。
22/10/14 15:48:44.98 ALilA1k2.net
だめやったんやろか…
527:名無しさん@お腹いっぱい。
22/10/14 16:01:42.39 dLPWtPAo.net
>>523
そんなに間空けてたのならいっそ最初からインストールしなおしたほうがいいよ
git pullじゃ上書きできないファイルもあるし
528:名無しさん@お腹いっぱい。
22/10/14 16:02:35.83 ARTDPbZp.net
>>520
ごめん昼食食べに行ってた!!
そしてできたよ!!!!本当ありがとう!
Waifu Diffusionも動かせた!
このコマンドつけるってのは1660tiのVRAM6GBじゃ足りなかったってことなのかな?
529:名無しさん@お腹いっぱい。
22/10/14 16:05:37.99 J8eb4dyA.net
インストールどころか場所ごと新しく作り直してゼロからやったら上手くいったことあるわ
530:名無しさん@お腹いっぱい。
22/10/14 16:33:20.52 OMLW7wgc.net
>>528
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にした上でついでに増えてしまうメモリ消費量をやりくりする指示です
531:名無しさん@お腹いっぱい。
22/10/14 16:52:03.02 40bMpPm9.net
ただのエラッタで使えない場所をオフにした選別落ちや
使えない場所によってバリエーションがあるだけ
532:名無しさん@お腹いっぱい。
22/10/14 16:54:51.68 ARTDPbZp.net
>>530
なるほど~
4090欲しくなりました
533:名無しさん@お腹いっぱい。
22/10/14 17:40:10.57 ARTDPbZp.net
StableDiffusionで連続生成する方法ってある?
NMKDなら出来るみたいだけどstable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある?
534:名無しさん@お腹いっぱい。
22/10/14 17:45:35.52 QeGD8Cwp.net
連続生成って? バッチカウントとは別の?
535:名無しさん@お腹いっぱい。
22/10/14 17:49:29.32 nKgTqKnx.net
1111使ったことあるならパッチカウントの数字が答えだし
使ったことないならそう言う機能あるよが答えになるかしら?
536:名無しさん@お腹いっぱい。
22/10/14 18:12:33.01 6Dz0i5Q9.net
Generateボタン右クリしてGenerat Forever
537:名無しさん@お腹いっぱい。
22/10/14 18:14:01.63 AvuLwezm.net
>>533
URLリンク(gigazine.net)
538:名無しさん@お腹いっぱい。
22/10/14 18:15:21.42 XnPXne0y.net
Windowsのアプデしたせいか
生成に倍以上時間かかるようになったけどなんでだろ
539:名無しさん@お腹いっぱい。
22/10/14 18:26:49.65 YLsjtjlH.net
Dreamboothの正則化画像って何枚くらい必要なんだ?
学習元が10枚のときは正則化画像200枚くらいらしいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい?
540:名無しさん@お腹いっぱい。
22/10/14 18:29:21.53 FMOFHk9F.net
>>539
わからん
同じ枚数に対して50でも200でも違いがわからん
541:名無しさん@お腹いっぱい。
22/10/14 18:37:37.83 OMLW7wgc.net
正則化用の画像っていうのは学習させるものが属している何かが写っている
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増やす意味は無い
もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが
542:名無しさん@お腹いっぱい。
22/10/14 18:42:40.37 aUor17yO.net
Tiで大手絵師の絵をパクってその絵師の元に俺が描いた絵の方が上手いんだが?
って凸する奴がいて治安の悪さがもはや地獄
543:名無しさん@お腹いっぱい。
22/10/14 18:43:27.15 aUor17yO.net
誤爆、誤爆でもないけど
544:名無しさん@お腹いっぱい。
22/10/14 18:48:27.44 bNwczKpA.net
そのうちAI絵師同士が殴り合うことになるのでは
545:名無しさん@お腹いっぱい。
22/10/14 18:50:31.38 ARTDPbZp.net
>>536
ありがとう!outputファイルにどんどんえっちい画像増えてくわwww
バッチカウントってどこで変えれるの?
546:名無しさん@お腹いっぱい。
22/10/14 18:52:16.22 ARTDPbZp.net
ああ見つけたわw
バッチサイズの横にあった
547:名無しさん@お腹いっぱい。
22/10/14 18:52:20.38 QeGD8Cwp.net
CFGスケールの上のバー
548:名無しさん@お腹いっぱい。
22/10/14 18:55:35.26 AmgEVVUS.net
NAIモデルで二次元キャラを三次元に変換するの楽しい
549:名無しさん@お腹いっぱい。
22/10/14 18:56:33.69 XnPXne0y.net
遅くなったのはgpuが生成中もアイドル時と同じぐらいの温度なのが原因っぽいけど何も弄ってないのにわかんねぇ……
550:名無しさん@お腹いっぱい。
22/10/14 19:01:42.64 I4aoRgos.net
>>549
windowsのアップデートしたんならそれじゃね
windowsの復元で戻してみたらどうかね
551:名無しさん@お腹いっぱい。
22/10/14 19:05:51.91 XnPXne0y.net
>>550
とりあえずグラボのドライバ更新してみたら治った!
無事爆熱になったよ
552:名無しさん@お腹いっぱい。
22/10/14 19:30:34.74 K1vetAlc.net
チェックポイントが一度に3つ混ぜれるようになってて草
相変わらず進化早いねw
553:名無しさん@お腹いっぱい。
22/10/14 20:05:12.49 FMOFHk9F.net
一部のトークンだけ合成とかできないのかな
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな
554:名無しさん@お腹いっぱい。
22/10/14 20:56:55.52 Jz1slLtt.net
モデルによるんだろうけどNegative promptにtouhou入れると画風がガラッと変わらない?
収集データの偏りを感じる
555:名無しさん@お腹いっぱい。
22/10/14 21:00:26.00 XjikJorg.net
>>554
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりするし
556:名無しさん@お腹いっぱい。
22/10/14 21:27:50.14 lpWZ4Hlp.net
公開されてるWD1.4のadd finetuned vaeって書いてあるckptを使いたいんだけど
これってもしかして脳死でNMKDにckpt導入する以外にやり方を知らない俺には扱えないやつか?
557:名無しさん@お腹いっぱい。
[ここ壊れてます] .net
>>556
さぁとっととAUTOMATIC1111を導入する作業に戻るんだ!
URLリンク(note.com)
558:名無しさん@お腹いっぱい。
22/10/14 22:45:00.85 lpWZ4Hlp.net
>>557
おう!ありがとよ!(導入するとは言ってない)
559:名無しさん@お腹いっぱい。
22/10/14 22:54:14.21 ntrMQ3UX.net
2070sからグラボ新調しようとしてたけどクラウドという手があったか
スレ見てよかった
560:名無しさん@お腹いっぱい。
22/10/14 22:58:33.12 K5lHcCjq.net
NMKDはとりあえず試したいだけの人にはかなり便利だけど本腰入れてやりたいなら1111一択だな
561:名無しさん@お腹いっぱい。
22/10/14 23:03:07.13 C/gau9np.net
すみませんプロンプトで「uc」てどういう効果あるかご存知の方教えて頂けないでしょうか?
562:名無しさん@お腹いっぱい。
22/10/14 23:15:04.53 AcwfJ4Wh.net
fastDBって所は自分でも簡単にセッティング出来るところまで行けたからオススメ
でもトレにめちゃ時間かかるし課金するか悩むなぁ
563:名無しさん@お腹いっぱい。
22/10/14 23:27:27.86 IZHJbIbx.net
blue hairみたいな色要素のプロンプト入れてないと結構な確率で白黒画像が生成されちゃうんですけど色指定せずにカラー画像だけにする方法ってありますか?
564:名無しさん@お腹いっぱい。
22/10/14 23:28:15.28 Ia8ZvkTj.net
最近この界隈に来たから、脳内でWDはWestern Digitalって読んじゃうし、SDはSDカードのことがよぎってしまう
記録媒体スレ開いちゃったのかと
565:名無しさん@お腹いっぱい。
22/10/14 23:28:21.31 ARTDPbZp.net
waifuじゃnovelAIみたいなエロ画像出すのは無理?
566:名無しさん@お腹いっぱい。
22/10/14 23:30:02.18 I4aoRgos.net
>>565
普通にいける
>>563
ネガティブに 白黒っていれてみた?
567:名無しさん@お腹いっぱい。
22/10/14 23:38:30.80 AcwfJ4Wh.net
ごめんDBstablediffusion のが爆速だった
568:名無しさん@お腹いっぱい。
22/10/14 23:38:30.92 ARTDPbZp.net
>>565
マジかぁ
精進するわ
pcにgpuたくさん積んでるんだけどstablediffusionは複数gpuで並列処理できないのかなこれ
569:名無しさん@お腹いっぱい。
22/10/14 23:53:13.74 +g+H2Nl6.net
オートマ版の導入に失敗してNMKDで妥協してるけどもう一度チャレンジしてみようかな
ローメモリーモードだとネガティブプロンプト使えないのがね
570:名無しさん@お腹いっぱい。
22/10/15 00:00:15.59 NIfsDDC5.net
ワイのショボショボなPCですら、
ローカルNovelAIが動作できるので、NMKDで妥協したらアカンと思う
ちなみにグラボは1050tiでVRAMが4GBのやつ
571:名無しさん@お腹いっぱい。
22/10/15 00:28:30.86 cVyIiDx3.net
>>564
この間免許更新したときにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Stable DiffusionとかSecure DigitalとかSafe DriverとかSuper Déformerとかほんと
572:名無しさん@お腹いっぱい。
22/10/15 00:28:52.89 MA6pT5cu.net
1111のバッチサイズを色々変えて検証してたんだが、巨大なバッチサイズを指定してVRAMが足りなかった場合、生成速度を犠牲にメモリを省くんだね
限界を調べるために少しずつ増やしていったら突然VRAM使用率が半減して何事かと思った
573:名無しさん@お腹いっぱい。
22/10/15 00:32:54.52 MA6pT5cu.net
いや時間は変わってないっぽい?
クオリティに影響してるのかな
教えて詳しい人
574:名無しさん@お腹いっぱい。
22/10/15 00:54:36.35 kphj/9u/.net
>>568
リクエストはいくつか出てるようだけどまだ実装はされてない模様
URLリンク(github.com)
URLリンク(github.com)
GPU指定とport番号を変えてwebuiを複数起動すれば、複数GPUをそれぞれ使うことはできるかも?
575:名無しさん@お腹いっぱい。
22/10/15 01:14:10.59 AikKaOMk.net
>>573
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
URLリンク(ossan-gamer.net)
サイズ増やすと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理できるからあんま速度変わらないんでは?
GPUの処理速度とかも関係してそうだから一概には言えんけども
576:名無しさん@お腹いっぱい。
22/10/15 01:31:58.84 MA6pT5cu.net
>>575
なんか他のサイト見てると、Batchサイズの限界突破するとCUDA out of memoryが出るって書いてあるけど、こっちは再現できずにVRAM使用率半減して推論続行するのが謎なんだよね
具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にしたら使用率14/24GBになってた
WSL2のDockerに入れたから細かいところが違うのかなぁ
577:名無しさん@お腹いっぱい。
22/10/15 01:45:05.20 AikKaOMk.net
>>576
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる
詳しい人の降臨待ちっすね
578:名無しさん@お腹いっぱい。
22/10/15 02:03:46.69 TmM0Ta1u.net
少し前にsandy世代のceleronでも動くのかなぁって言ってた者ですが試したら動きました
webuiでブラウザに1/4処理能力持っていかれて常時80-95%くらいで推移してますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10
579:名無しさん@お腹いっぱい。
22/10/15 02:16:57.29 S/D1EGiC.net
deepdanbooruをwebuiで使おうとしたらModuleNotFoundError: No module named 'tensorflow.python'て出たんだが何が起きてるのかわかる人おる?
580:名無しさん@お腹いっぱい。
22/10/15 03:45:25.60 L+3ToJT9.net
>>579
俺はvenv消して実行し直したら治った
581:名無しさん@お腹いっぱい。
22/10/15 03:51:53.16 uMZtKJRm.net
>>479
>>480
StableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルぶち込んだだけで他はなにもしてない)
俺も出力結果がおかしなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試してみてたけれど結果同じ。
582:名無しさん@お腹いっぱい。
22/10/15 04:02:26.09 NIfsDDC5.net
>>581
settingタブ
"clip skip" not configured correctly. set "stop at last layers of clip model" in settings to 2.
選択してからApply settings押してないパターンかも
583:名無しさん@お腹いっぱい。
22/10/15 04:19:01.82 5rScqju3.net
履歴機能ついたけど想像通りの重さ
なぜマージしたんだろう
584:名無しさん@お腹いっぱい。
22/10/15 09:22:07.54 uMZtKJRm.net
なんUのは流れるのはえーからこっちにもマルチコピペや。
1111導入でエラーがでたので対処。
intelGPU5000 メモリ8G
AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
このエラーに対しては、
launch.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探し、--skip-torch-cuda-testを追記する。
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test")
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
このエラーに対しては、
webui-user.batファイル内の、set COMMANDLINE_ARGS=と表示されている場所を探し、--precision full --no-halfを追記する。
結局ワイで調べてワイでメモや。まぁ、ハイスペック環境前提での話が多いだろうからしゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)やとブチ切れるんや
というか、いま書きながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか
585:名無しさん@お腹いっぱい。
22/10/15 09:25:54.15 7nZ34vzV.net
コマンドライン引数に対して特定の命令渡してるわけだから、
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな
なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだしこっちのが向いてそうかな
586:名無しさん@お腹いっぱい。
22/10/15 09:29:09.45 uMZtKJRm.net
>>584
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
のエラーで続けるわ。
もう9時やん
587:名無しさん@お腹いっぱい。
22/10/15 09:31:05.90 SRcrgA/b.net
一番最初に実行する
webui-user.batに
set COMMANDLINE_ARGS= --skip-torch-cuda-test --precision full --no-half
でいいんじゃね
588:名無しさん@お腹いっぱい。
22/10/15 09:35:18.22 bfq41/Ms.net
1111、また設定変わったー
Highres. fix時にscaleintentがFirstpass widthとFirstpass heightに別れとる……
589:名無しさん@お腹いっぱい。
22/10/15 09:36:43.82 kphj/9u/.net
COMMANDLINE_ARGS(コマンドライン引数)まとめ
URLリンク(github.com)
ソースを読んだ方が完璧に把握できるかもね
URLリンク(github.com)
590:名無しさん@お腹いっぱい。
22/10/15 09:39:58.53 uMZtKJRm.net
>>587
いまlaunch.pyに
COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half"
ぶちこんで試してる。
webui-user.batは--precision full --no-halfのまま。
591:名無しさん@お腹いっぱい。
22/10/15 09:46:26.92 uMZtKJRm.net
よし、動いた。すくなくともまだ右下にエラーはでてねぇ。いま15%。というかcmdr2より速くねーかこれ
でもスッキリまとめてぇなぁ。
>>587の場合だとlaunch.pyに記載しなくてもwebui-user.batへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.batへの記載だけでいけるのか試すか。
592:名無しさん@お腹いっぱい。
22/10/15 09:53:49.69 osFtr3lr.net
面白いなこれ
回転するフィギュアを動画で撮って全コマAIでimg2img
URLリンク(twitter.com)
(deleted an unsolicited ad)
593:名無しさん@お腹いっぱい。
22/10/15 09:59:19.21 cETgTEzp.net
顔が全部カメラ目線
やはりカメラ目線は重要ということか
594:名無しさん@お腹いっぱい。
22/10/15 10:01:30.70 e+jJnNMA.net
アニメーションの自動生成はそんなに遠くないんだろうなって感じる
595:名無しさん@お腹いっぱい。
22/10/15 10:18:12.19 8pgYproy.net
restore facesにチェック入れてgenerate押したら、
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった
よくわからなかったからもう一度インストールからやり直して
祈る気持ちでrestore facesにチェック入れてgenerate押したら、
今度は成功したわ。
効果はよくわからない
596:名無しさん@お腹いっぱい。
22/10/15 10:51:43.76 AikKaOMk.net
>>595
アニメ絵生成してない?
それGFPGANだからリアルな顔じゃないと効かないよ
ちなみに、効果はめちゃめちゃある
URLリンク(youtu.be)
597:名無しさん@お腹いっぱい。
22/10/15 11:02:32.50 8pgYproy.net
>>596
ほーん
配置が修正されるのかと思ったら
解像度が上って美肌される感じか
598:名無しさん@お腹いっぱい。
22/10/15 11:03:54.95 uMZtKJRm.net
1111が動くところまではこぎつけた。
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。
GPUでなくCPUで動かしているからなのか?
そんなあほな。ckptも.pyも同じの使ってしかもシード値や他も同じどころか、
UIそのものがcmdr2ではなく1111で同じなのにさ。
599:名無しさん@お腹いっぱい。
22/10/15 11:06:59.56 bfq41/Ms.net
ちゃんとレイヤーステップ2になっとるけ?
600:名無しさん@お腹いっぱい。
22/10/15 11:13:20.62 AikKaOMk.net
>>597
破綻してる顔だと配置もある程度修整してくれるよ
たまに目とか鼻穴が3つとかダブってたり、左右の目が違う方向向いてるようなクリーチャーを人間にしてくれる
大きく破綻しない限りは配置は変わらないこと多いね
601:名無しさん@お腹いっぱい。
22/10/15 11:26:25.32 mbp63UAw.net
>>598
CPUとGPUじゃ結果が変わるよ。シードから生成されるノイズが違うから
602:名無しさん@お腹いっぱい。
22/10/15 11:38:12.22 uMZtKJRm.net
>>599
Stop At last layers of CLIP modelだっけ?それは真っ先に2にしてる。
settingを変更点したのは以下だけ。他触ってない。
*Setting
Stop At last layers of CLIP model:2
Eta noise seed delta:31337
*txt2img
Sampling Steps:28
Sampring method:Euler or Euler a (現在Eulerで試してる)
Width:512
Height:512
CFG Scale:12
Seed:2870305590
Prompt
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
Negative prompt
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
603:名無しさん@お腹いっぱい。
22/10/15 11:40:04.74 bfq41/Ms.net
vae通ってないんじゃ?
604:名無しさん@お腹いっぱい。
22/10/15 11:44:19.45 uMZtKJRm.net
>>601
1111導入したら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。
…ネカフェのPCで…だめか。
605:名無しさん@お腹いっぱい。
22/10/15 11:48:09.45 Kwyzi7uJ.net
ネカフェのPCなら
3060位積んでるんじゃね
606:名無しさん@お腹いっぱい。
22/10/15 11:48:59.10 7nZ34vzV.net
ID:uMZtKJRm の奮闘の記録、正直めっちゃ見てて勉強にはなる
過程を残してくれるのはありがたい、良い結果になることを応援するわがんばってくれ
607:名無しさん@お腹いっぱい。
22/10/15 11:51:04.13 Ntrq5HZ9.net
みなさんは1枚の画像生成するのにどれくらいかかってますか?
自分は1660tiでwaifu150steps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くできる?
608:名無しさん@お腹いっぱい。
22/10/15 11:54:45.21 bfq41/Ms.net
その条件なら8枚で23秒かな。3070ti
609:名無しさん@お腹いっぱい。
22/10/15 11:56:06.76 bfq41/Ms.net
ああ、ごめんステップ見間違えてた。150stepなら19秒だわ
610:名無しさん@お腹いっぱい。
22/10/15 12:02:01.69 KScbvafB.net
>>604
というか大まかなところでは似た絵が出るようになったんだし、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ
611:名無しさん@お腹いっぱい。
22/10/15 12:12:08.50 JcgiPC8b.net
今更ながらdreamboothに手法が違うのが色々あるのを知った
同じくらいの時間かけたのに全然違うや
612:名無しさん@お腹いっぱい。
22/10/15 12:14:41.26 uMZtKJRm.net
>>601
だとするとさ、
colabやらドッカーやら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいところ。
>>603
なんやそれ
>>606
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者やぞ
613:名無しさん@お腹いっぱい。
22/10/15 12:16:36.84 mbp63UAw.net
>>612
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一した方が良いと思うけど元のソースがこうだったし、
皆のプロンプトがダメになるからこのまましとく」って
614:名無しさん@お腹いっぱい。
22/10/15 12:23:26.27 CvyUGpTa.net
勉強すんのは嫌だけどエロの為なら頑張れる
615:名無しさん@お腹いっぱい。
22/10/15 12:25:42.23 uMZtKJRm.net
使い倒す方法に主眼を置くのがええか。
発達障害やけん100%やないと納得せぇへんのや。
旧2種情報処理(アセンブラ選択)や1種情報処理試験受かってるのに、
クソの役にも立ってなくてむせび泣く。
gitとかpytonとか入れたの初めてやないやろか。
いやpttonはあるか。でも初めてのようなもんや。
使い慣れないのぶちこむともう気持ち悪くてしゃーない。
じゃあ本家novelai使えよとなるけれどキャッシュカードは使えんのや。
いや使えるか、生活保護やから使えんな。いや一括払いなら使えるか。
とりあえずは多く出回ってる設定どおりにして、顔がネコ娘で袖が無く、代わりに窓がある(背景も椅子も全て赤色)のハローアスカ。
2枚目出力したのはBatchcountを2にしたもので背景はグレー。腰から下は着てる。というか椅子がソファーじゃなくて木製のキッチンチェアや。
むちゃくちゃや……
616:名無しさん@お腹いっぱい。
22/10/15 12:31:52.38 vxI1kUjx.net
ネカフェに金払うくらいならcolabに課金して家でやった方がコスパいいのでは
617:名無しさん@お腹いっぱい。
22/10/15 12:33:17.14 7nZ34vzV.net
>>612
スペックなんて情報自体が有能ならどうでもええけど、
そもそも手順書っていうのはわかんない人向けだから失敗パターン網羅しつつログ残してくれるのは最優秀やで
もちろん成功してくれてええんやが
618:名無しさん@お腹いっぱい。
22/10/15 12:37:32.96 et6JpmZW.net
>>608
8枚70秒くらいかかるわ
ちなrtx4090
619:名無しさん@お腹いっぱい。
22/10/15 12:40:51.93 Ntrq5HZ9.net
>>609
くっそ早いww
もうこんなグラボでチンタラやってるの悲しくなってきた
グラボ買うぞ🥺
620:名無しさん@お腹いっぱい。
22/10/15 12:42:07.96 1wuGG+vw.net
ついに4090持ちが現れたかw
4090の方が遅いの?スクショとかupできる?>>618
621:名無しさん@お腹いっぱい。
22/10/15 12:43:38.94 Ntrq5HZ9.net
俺も4090買うぞ☺
622:名無しさん@お腹いっぱい。
22/10/15 13:07:16.65 cVyIiDx3.net
なんかつい最近diffusersがアップデート来て、GPUじゃなくTPU使って生成できるようになったっぽいぞ!
GPU制限来てるけど公式のコード丸コピペしたらちゃんとTPUで動かせたよ!
無料Colab勢やったな!!
と思ったけど、改造しながらエラーに頭悩ませてる間にTPUの制限も来たわ
結局制限解除待ちか
623:名無しさん@お腹いっぱい。
22/10/15 13:11:27.42 0Krj1uq/.net
>>615
とりあえずwebui-user.batを実行した時のコマンドプロンプトの画面見せてくれ
vae.ptの指定が間違ってて読込できてない気がする
624:名無しさん@お腹いっぱい。
22/10/15 13:22:52.99 S28Zpjdt.net
gitにもDiscussionのところにあるがCPUだと計算結果かわるから出てくる絵は全くちゃうぞ
素直にGPUかえ
625:名無しさん@お腹いっぱい。
22/10/15 13:30:41.91 F0xLrC4V.net
>>620
URLリンク(i.imgur.com)
Steps: 150, Sampler: Euler a, CFG scale: 7, Seed: 3683133826, Size: 512x512, Batch size: 8, Batch pos: 0, Clip skip: 2
Time taken: 1m 1.91s
Torch active/reserved: 10645/17960 MiB, Sys VRAM: 21661/24564 MiB (88.18%)
遅いって報告は上がってるから様子見かな
626:名無しさん@お腹いっぱい。
22/10/15 13:53:58.52 0kSXAuWY.net
NAIモデルでDreambooth走らせてるけどやっぱり良いね
TIと比べても圧倒的に上手く出力できる
Stepsは大体学習画像の100~200倍で良いってRedditで見たけどRegularization Imagesはどのくらいの量がいいのか全くわからん
NAIで作った200枚でとりあえずやってるけど適当な枚数誰か知ってる?
627:名無しさん@お腹いっぱい。
22/10/15 13:55:31.51 nm/5L0YC.net
そういや最適化不足で今は4090より3090Tiのほうが早いんだっけ
ちょうど3090Ti持ってるから帰ったら試してみる
>>625
なんかうちの3090TiとVRAM使用量が全然違うから、環境と使用してるモデルを教えてほしい
自分はWSL2+Dockerの1111でモデルはwd-v1-3-float16.ckpt使ってるけど、バッチサイズ8の時はVRAM8GBくらいしか使ってない
バッチサイズ24でVRAM22GBくらい
最適化不足でもそんなに差が出るとは思えないし、何が違うんだろ…
628:名無しさん@お腹いっぱい。
22/10/15 13:58:04.03 nm/5L0YC.net
>>626
自分がちょうど >>539 で同じ質問してて、 >>541 が詳しく解説してくれたから参考になると思うよ
629:名無しさん@お腹いっぱい。
22/10/15 14:00:42.92 LYx8iol5.net
>>628
ありがとう
同時に複数Subject学習出来るやつでやってて1キャラ20枚5キャラ100枚で学習させてるけど200枚で大丈夫そうだな
NAIアニメ絵学習させる場合は配布されてる普通のPersonとかのやつよりも自分でNAI使って適当に作った方が良いって認識は合ってるのかな
630:名無しさん@お腹いっぱい。
22/10/15 14:01:53.34 1wuGG+vw.net
>>625
うっひょー
報告あるんだ
631:名無しさん@お腹いっぱい。
22/10/15 14:02:11.31 21RKitFN.net
8GBVRAMで動かせるDreamboothの解説見てやろうとしたけど
Deepspeedがインストール出来なくて詰んだ
ググった感じTritonの1.0.0が必要だけどWindows版は0.3.0までしかないっぽい
632:名無しさん@お腹いっぱい。
22/10/15 14:11:00.25 TmM0Ta1u.net
情報が少し古いのがあるけどこんなにGIGAZINEが役に立ったのは初めてかもしれない
633:名無しさん@お腹いっぱい。
22/10/15 14:14:35.36 7nZ34vzV.net
>>632
ほんとそれ
アクセス数は多いけどわりとしょうもない面白情報まとめてるサイトの印象だったわ
急に日本語版公式ドキュメントみたいな立場になっちまった
634:名無しさん@お腹いっぱい。
22/10/15 14:18:07.33 +S3McIYd.net
手描きで線画下地色塗りまでしたイラストをimg2img使って影付けや綺麗な塗りをしてもらいたいんだけど、大きく崩れたり、崩れないけど塗りも弱いなど、上手く行きません
できるだけ自分の絵柄やポージングを残しつつAI塗りをしてもらうにはどんな設定で作成したらよいでしょうか
環境は1111のwaifu1.3です
635:名無しさん@お腹いっぱい。
22/10/15 14:24:01.67 bfq41/Ms.net
線画に軽く色をつけて投げて、ちゃんとpromptも書き込む
636:名無しさん@お腹いっぱい。
22/10/15 14:25:47.77 nm/5L0YC.net
>>629
正則化画像って、例えば「白い馬」を学習させたいときに「馬」の概念を覚えさせるものって感じ
つまりアニメ絵学習させたいときは「person」より「girl」の方がいいと思う
ただ、網羅性も重要だから変にプロンプト凝ったりネガティブプロンプト入れたりはせずに、「girl」のみで生成した方が良い
637:名無しさん@お腹いっぱい。
22/10/15 14:29:14.87 eUckkZej.net
3060だと26秒(5.56it/s)
638:名無しさん@お腹いっぱい。
22/10/15 14:30:48.39 mbp63UAw.net
>>634
SDはそういう目的のAIじゃないので向いてない。こっち↓のAIの方が良さそう
URLリンク(github.com)
639:名無しさん@お腹いっぱい。
22/10/15 14:33:39.75 8pgYproy.net
そういえばRTX3000が発売さたときもBLENDERとかで遅くて、後に最適化で早くなってたなぁ
640:名無しさん@お腹いっぱい。
22/10/15 14:35:57.23 uMZtKJRm.net
>>623
venv "C:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.8 (tags/v3.10.8:aaaf517, Oct 11 2022, 16:50:30) [MSC v.1933 64 bit (AMD64)]
Commit hash: acedbe ハッシュ
Installing requirements for Web UI
Launching Web UI with arguments: --precision full --no-half
Warning: caught exception 'Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver from URLリンク(www.nvidia.com)', memory monitor disabled
LatentDiffusion: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
making attention of type 'vanilla' with 512 in_channels
Working with z of shape (1, 4, 32, 32) = 4096 dimensions.
making attention of type 'vanilla' with 512 in_channels
Loading weights [925997e9] from C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.ckpt
Loading VAE weights from: C:\stable-diffusion-webui\models\Stable-diffusion\final-pruned.vae.pt
Applying cross attention optimization (InvokeAI).
Model loaded.
Loaded a total of 0 textual inversion embeddings.
Running on local URL: URL
To create a public link, set `share=True` in `launch()`.
こうなってる。ハッシュとURLはなにかあったらこまるから伏せる。
641:名無しさん@お腹いっぱい。
22/10/15 14:36:07.59 Kwyzi7uJ.net
step150も上げなくてよくね?
50とそんなに変わるのか
642:名無しさん@お腹いっぱい。
22/10/15 14:38:34.04 hntWdn8M.net
50以上は上げても違いがよくわからん
643:名無しさん@お腹いっぱい。
22/10/15 14:42:33.68 nm/5L0YC.net
せやね
なんならアニメ調の絵は30くらいでも十分かも
644:名無しさん@お腹いっぱい。
22/10/15 14:42:38.70 bfq41/Ms.net
正直あんまりstep上げすぎると雲の模様が人間の顔になったり、服の袖からもう一本腕が生えたり、AIさんがいろんなものを余計に見てしまうので30前後に抑えてる
645:名無しさん@お腹いっぱい。
22/10/15 14:44:43.86 B6H/o30J.net
あんまり上げても意味ないってのは公式も言ってるし
実際30超えたあたりからポーズの破綻が少しずつ増え始めて、50付近から構図の画一化が起こっていく感じはある
646:名無しさん@お腹いっぱい。
22/10/15 14:45:48.91 VUuwRUix.net
①アニメキャラ画像<==>prompt=キャラ名+girlの出力
②本来のgirl出力(正則化画像)<==>prompt=girlの出力
①の距離だけを近づけていくと、過学習起こしたときに②の距離が次第にずれていく。
②も同時に近づけるとgirlの概念のずれを起こさないけど、
1キャラだけの学習で他キャラを出力させないなら割と別になくてもなんとかなる。
647:名無しさん@お腹いっぱい。
22/10/15 14:50:53.54 F0xLrC4V.net
>>627
WSL2+dockerでイメージをnvidia/cuda:11.6.1にしてpytorchのバージョンを11.6にしてる
xformersインストールする方法がよくわからんかったからこの辺自己流
648:名無しさん@お腹いっぱい。
22/10/15 14:56:10.75 Kwyzi7uJ.net
アニメキャラを覚えさせる場合
reg template smallest
"phot of a {}"→"{}"
に変更して
覚えさせたいキャラの特徴で吐き出させた方がいいのかね
649:名無しさん@お腹いっぱい。
22/10/15 14:58:25.36 +S3McIYd.net
>>638
ありがとうございます!試してみます!
650:名無しさん@お腹いっぱい。
22/10/15 15:08:16.84 nm/5L0YC.net
>>647
環境も同じっぽいしやっぱり最適化不足なんだね
4090の本気が見られるのはまだ先かー
651:名無しさん@お腹いっぱい。
22/10/15 15:15:56.94 F0xLrC4V.net
Quake2RTXとかは8K80fpsとか出てるからゲーム用途は問題なさそう
SDに関してはまだ変身を残しているとか思えばいいかなと
652:名無しさん@お腹いっぱい。
22/10/15 15:18:11.65 bfq41/Ms.net
とりあえず、次のステップは赤いショートヘアの女の子と青い長髪のイケメンをスパッとかき分けられることだな
ANDもあまり上手く機能してないし
653:名無しさん@お腹いっぱい。
22/10/15 15:21:19.16 +EjjPfMN.net
>>631
がんばって
自分も詰んでる組だから
もし出来たらまた報告に来て欲しい
654:名無しさん@お腹いっぱい。
22/10/15 15:21:53.00 0Krj1uq/.net
>>640
ちゃんと読み込めてるな
他の設定も合ってるみたいだし、CPUとGPUの差が濃厚っぽいな
655:名無しさん@お腹いっぱい。
22/10/15 15:22:45.82 +EjjPfMN.net
>>632
まだ読んでないけどgigazineがkindleに無料の解説本だしてた
656:名無しさん@お腹いっぱい。
22/10/15 15:41:34.87 EkMd8kqH.net
URLリンク(github.com)
この技術なんか凄そうだけど
中国語でよくわからん
pixivをクローリングしてプロンプトを最適化したらしいけど
657:名無しさん@お腹いっぱい。
22/10/15 15:43:30.71 zLlnUrZc.net
ゲーム性能だと上位モデルは値段ほどのアドはないけど機械学習だとちゃんと値段の分のパフォーマンス差つくんだね
658:名無しさん@お腹いっぱい。
22/10/15 15:46:24.94 jDEnkG22.net
確かにHires.fix変わってScale Latentなくなってるな。これなしだと見栄えが違うから復活希望の意見ばかりだし、待ってれば戻ってきそう。
URLリンク(github.com)
659:名無しさん@お腹いっぱい。
22/10/15 15:48:59.51 5rScqju3.net
scale latentが有効だとボケボケだったから使ってなかったんだけど
正しい使い方はなんだったのか
660:名無しさん@お腹いっぱい。
22/10/15 15:49:49.61 eUckkZej.net
一方勝間和代は外付けGPUボックスを買った
ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました
URLリンク(k%61tsumakazuyo.h%61tenablog.com)
別室に2060superのデスクトップがあるけどノートでやりたい、リモートデスクトップだと出先でできないということらしい
リモートデスクトップも試していた
Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い
URLリンク(k%61tsumakazuyo.h%61tenablog.com)
661:名無しさん@お腹いっぱい。
22/10/15 15:49:57.86 KzL+RF0K.net
>>636
anime girlだけで生成したの使ってたけど考えとしては悪くはなさそうだな
ありがとう
662:名無しさん@お腹いっぱい。
22/10/15 15:54:09.49 5ecYbv+F.net
勝間和代のブログ見てる人おんのか…
663:名無しさん@お腹いっぱい。
22/10/15 15:56:34.55 093ZpIqN.net
>>660
1111のgradioの機能でデプロイすれば出先でも使えるよな
グラボ持ち歩くよりこっちのほうがいいだろ
664:名無しさん@お腹いっぱい。
22/10/15 15:56:38.51 21RKitFN.net
>>653
それっぽい報告は複数あるけど解決策出てないんだよな
URLリンク(github.com)
URLリンク(github.com)
URLリンク(github.com)
665:名無しさん@お腹いっぱい。
22/10/15 16:10:39.34 MA6pT5cu.net
うちもリモートデスクトップ使ってる
メモリ8GB,内蔵グラボのノートから、メモリ64GB,RTX3090Tiのデスクトップを操作してる
記事ではUIが小さいとか言われてるけどそれはChromeリモートデスクトップ使ってるからで、Windows内蔵のリモートデスクトップなら解像度に合わせて調整してくれるのでおすすめ
注意点としてはホスト側はProライセンス限定であること、RDPポートを直接開放するのは危険なのでVPNかSSH転送かで一手間かます必要があることくらい
666:名無しさん@お腹いっぱい。
22/10/15 16:10:49.69 6vS59t0d.net
勝間和代NMKD使ってるのか
画像まであげるとは攻めてるなー
667:名無しさん@お腹いっぱい。
22/10/15 16:24:43.36 +EjjPfMN.net
>>655
ごめんKindleUnlimitedで0に見えてただけだった
668:名無しさん@お腹いっぱい。
22/10/15 16:40:09.91 4y2ZH5X6.net
ワイのグラボGTX760で2GBしかないんやけどWebUI(AUTO1111版)いけるか?
669:名無しさん@お腹いっぱい。
22/10/15 16:43:50.49 bHEhhghC.net
いけますよ、CPUを使いましょう
1枚5分くらいで生成してくれることでしょう
670:名無しさん@お腹いっぱい。
22/10/15 16:47:08.80 mbp63UAw.net
5分かかるCPUなら760でもGPU使った方がマシなんじゃないか
671:名無しさん@お腹いっぱい。
22/10/15 16:48:24.84 MA6pT5cu.net
1111の最低要件ってVRAM4GBじゃなかったっけ
672:名無しさん@お腹いっぱい。
22/10/15 16:50:06.61 21RKitFN.net
AUTOMATIC1111のTextual InversionにBatch size追加されたけどこれってBatch sizeを2にしたら1回で2Step分学習されて、バッチサイズ1の100000ステップ=バッチサイズ2の50000ステップになるって認識で合ってる?
673:名無しさん@お腹いっぱい。
22/10/15 16:52:41.71 MR4PxJk9.net
NAIモデルでdreambooth走らせたいんだがgoogle cloabじゃ無理?
674:名無しさん@お腹いっぱい。
22/10/15 16:53:06.29 pbYNsuKO.net
今後最適化されても3GBのVRAMは必要かもな~
4GBあればなんとかなるぽいから中古でよさそうなの探してみようぜ
675:名無しさん@お腹いっぱい。
22/10/15 16:55:20.12 mbp63UAw.net
>>671
4chanに750Tiで動かしてる人おったから多分2Gでも動く
676:名無しさん@お腹いっぱい。
22/10/15 16:55:44.11 uMZtKJRm.net
>>654
せやろ。さっきまでなんUのnoberlAIスレで初期値がとかで意見しようとしてて、認識でおけ?で理解してるくらいやからな。
つまり何が言いたいかというと、何度も起動したり終了したり何度も同じシードやEta noise seed delta:31337を入力して、
覚えてしまったということや。
むしろ今日一日?昨日から?ずっとハローアスカしかみとらんし出力していない
もう窓がでてくるアスカがトラウマや。
677:名無しさん@お腹いっぱい。
22/10/15 17:03:40.09 uMZtKJRm.net
せやDOS窓やけどなんUのnobelai部でDOS窓見せてるひとがいて同じハッシュとURLやし、
そこも問題ないはずや
ckptと.vae.pyも最初の段階で同じネームにしてぶちこんでる
ハイパーネットワークスの関連も間違いなくどこかの指示通りぶちこんでる
なんUのスレをみててアシカの出力でオイラーを設定
678:名無しさん@お腹いっぱい。
22/10/15 17:11:14.26 mbp63UAw.net
どっかの説明にも2Gでいける書いてあった気がするので探したがコレだわ
URLリンク(rentry.org)
If you have 4GB VRAM and want to make 512x512 (or maybe larger) images,
use --medvram.
If you have 2GB VRAM,
use --lowvram
679:名無しさん@お腹いっぱい。
22/10/15 17:48:01.71 21RKitFN.net
>>673
俺も探してるけど見つかってないな
680:名無しさん@お腹いっぱい。
22/10/15 18:00:08.61 NWnRPioF.net
ケモナーとしてはfurryは神なんだが、ケモ度の調整が難しいな。
ポジティブにもネガティブにもcatとか入れると多少調整できることに気づいてからは大分楽になったが。
複乳もまだ再現できてない。先は長いな。
681:名無しさん@お腹いっぱい。
22/10/15 18:10:32.38 VOiTplJv.net
colab1111の出力枚数上限の増やし方がわからない・・・
682:名無しさん@お腹いっぱい。
22/10/15 18:12:34.22 iTuUmUVr.net
コンフィグいじれよ
683:名無しさん@お腹いっぱい。
22/10/15 18:17:01.11 VOiTplJv.net
>>682
ローカルでいうui-configのcount/maximumがどこに
あるか分からないです・・・
素人質問すみません・・・
684:名無しさん@お腹いっぱい。
22/10/15 18:48:06.87 S36LRKR5.net
フォルダ直下
685:名無しさん@お腹いっぱい。
22/10/15 18:59:12.98 O196yiuJ.net
hypernetworkどれくらい学習すればこんくらい効果あるみたいな情報ないか?
686:名無しさん@お腹いっぱい。
22/10/15 18:59:35.33 /FBs4jwG.net
>>683
colabだと毎回新規ファイルとして生成されるから
Googleドライブに置いといて下のように指定するとそこから読み込んでくれる
(下記はGoogleドライブにsettingsというフォルダを作ってそこに入れた場合)
ui_styles = "/content/drive/MyDrive/settings/styles.csv"
ui_settings = "/content/drive/MyDrive/settings/config.json"
ui_conf = "/content/drive/MyDrive/settings/ui-config.json"
!COMMANDLINE_ARGS="--share --gradio-debug --gradio-auth me:pass --ui-config-file {ui_conf} --ui-settings-file {ui_settings} --styles-file {ui_styles}" REQS_FILE="requirements.txt" python launch.py
687:名無しさん@お腹いっぱい。
22/10/15 19:04:17.53 nkG6PHq4.net
>>685
エロスレに試してる人いる
688:名無しさん@お腹いっぱい。
22/10/15 19:06:10.12 5rScqju3.net
NAIモデルで月野うさぎ/セーラームーンが出ない
689:名無しさん@お腹いっぱい。
22/10/15 19:06:47.86 S/D1EGiC.net
>>579 >>580
venv消して実行し直したけど同じエラーが出た。バージョンとか何か環境に違いがあるんだろうか
690:名無しさん@お腹いっぱい。
22/10/15 19:14:00.95 VOiTplJv.net
ありがとございました!
無事設定できました!
691:名無しさん@お腹いっぱい。
22/10/15 19:37:20.07 uMZtKJRm.net
メモ帳あつかにしてなんだけど、
窓アスカの原因わかった
イムガーのチェック例すべてみてなかったものなぁ、
やはりCPU原因やわ
are you a cpu toaster bro? i don't know why, but running webui in cpu-only mode yields completely different results. (btw my new-ish laptop ran this at 15s/it, i'm praying for you...)
あなたはCPUトース??ターの仲間ですか?理由はわかりませんが、CPU のみのモードで webui を実行すると、まったく異なる結果が得られます。 (ちなみに、私の新しいラップトップはこれを15秒で実行しました。あなたのために祈っています...)
692:名無しさん@お腹いっぱい。
22/10/15 19:41:59.21 uMZtKJRm.net
はっきりわかったで、もうワイの環境再現できとるわ。
(ファイル構成や設定は)
CPUトースターということや。食パン食いたくなってきたな。生活保護+障害年金やから節約せんとなぁ
適当な画像出力しながら
初期設定の入力省く手間の回避でjsonいじるのと、
ネカフェにPCごとやUSBメモリーやカード持ち歩くためのセット作りに走ろう
ネカフェpcやったら速いやろうし多分
693:名無しさん@お腹いっぱい。
22/10/15 19:42:21.90 bfq41/Ms.net
これを踏まえると、将来cuda以外で実行したら全部結果変わるっていう感じになりそうだな
694:名無しさん@お腹いっぱい。
22/10/15 19:43:03.24 JcgiPC8b.net
dreamboothのprompt、sks以外が良くない気がして変えたいんだけど、なんかいいのって見つかってたりするのだろうか
それか、step数踏めば銃やミリタリー系の色消えるもの?
695:名無しさん@お腹いっぱい。
22/10/15 19:44:24.00 MA6pT5cu.net
JoePennaのReadme見ている限り、Dreamboothに使う学習用画像は、同じような構図を避けた方が良いのかな
例えば差分が5枚ある絵だったとして、ほとんど構図が同じだったらそのうち1枚だけ学習させるべき?それとも別に気にする必要はない?
みんなは学習用画像を選んでるとき気をつけてることとかある?
696:名無しさん@お腹いっぱい。
22/10/15 19:46:39.79 7nZ34vzV.net
>>692
スペック記載してる店は少ないからバクチやけど、せめてハイスペゲーミングPCの席選ぶんやで
697:名無しさん@お腹いっぱい。
22/10/15 19:53:13.33 MA6pT5cu.net
>>694
もともと意味を持ってる単語だと、単語を持つ意味を解体しないといけなくて精度も落ちるとか
あと複数のトークンに分割される単語も良くない
sksなのは適当に選ばれただけらしい
だからGoogle翻訳で英→日で翻訳して英単語そのまま出るような三文字以下の単語を適当に選べばいい
例えばslsとかbsbとか
698:名無しさん@お腹いっぱい。
22/10/15 20:06:43.56 JcgiPC8b.net
適当に決めたっての聞いて、slsも良いみたいなのも見たけどslsベースだと車が出るじゃん?
結局学習してる言葉である以上何らかの意味は持ってるんだから、武器覚えさせたければsksから始めて、車覚えさせたければslsから始める
みたいな事しないと変なのが混じる気がする
699:名無しさん@お腹いっぱい。
22/10/15 20:33:09.95 Ras3M4ay.net
トークンである以上何らかの意味を持ってるからな
入れてみて謎の抽象画に近いモノが出てくるのを探すしかないが恐らくそこまで適したモノは見つからないんじゃないだろうか
700:名無しさん@お腹いっぱい。
22/10/15 20:42:52.20 Ntrq5HZ9.net
novelAIに勝てねえ
やっぱ有料サービスは強いな
701:名無しさん@お腹いっぱい。
22/10/15 20:55:51.81 hntWdn8M.net
リークモデル使ってもやっぱ違う?
702:名無しさん@お腹いっぱい。
22/10/15 20:56:45.47 4y2ZH5X6.net
流石にPC買い替えようと思うんやけどrtx3060買っとけばいい感じ?
本当はコスパいいからAMDのRTX6600買おうと思ってたんやけど8gbなのよね
703:名無しさん@お腹いっぱい。
22/10/15 21:01:46.70 Ras3M4ay.net
グチャグチャになってるのは見ないことにして
StableDiffusion目当てでRadeon買うのはアホのすることだから絶対にやめるように
704:名無しさん@お腹いっぱい。
22/10/15 21:12:38.01 Ntrq5HZ9.net
>>702
radeonは機械学習系のプログラムに対応してないこと多いからやめとけ
stablediffusionもまだ対応してない
いつかはするらしいけど
705:名無しさん@お腹いっぱい。
22/10/15 21:21:10.64 bfq41/Ms.net
novel AIは文章の解像力が桁違いに高いわ
絞ってるから安定してるとか言うのもあるけど、トークンの関係性から忖度する能力がかなり高い。お城の一室の女の子に首輪と鎖をつけると自動的に地下の調教部屋に引っ越してくれる程度に高い
706:名無しさん@お腹いっぱい。
22/10/15 21:24:13.81 TmM0Ta1u.net
シンギュラリティ?!!
707:名無しさん@お腹いっぱい。
22/10/15 21:34:17.94 Kwyzi7uJ.net
NovelAI最近糞重くて サービスちょこちょこ止まってるけど
708:名無しさん@お腹いっぱい。
22/10/15 21:37:38.67 bHEhhghC.net
radeonはrocmでcuda使えるって話もあるな
ただしmacテメーはダメだ
709:名無しさん@お腹いっぱい。
22/10/15 22:07:58.45 nkG6PHq4.net
dreamboothはファイルが重くて試行錯誤しづらいわ
Googleドライブに課金しようかしら
710:名無しさん@お腹いっぱい。
22/10/15 22:13:27.58 5Sol/bUf.net
colabでdreamboothしばらく使ったらもう何日も使わせてもらえない
711:名無しさん@お腹いっぱい。
22/10/15 22:15:44.95 hntWdn8M.net
あんまり負担掛けるんじゃねーよ的な?
712:名無しさん@お腹いっぱい。
[ここ壊れてます] .net
dreamboothとTIとhypernetworkの使い分けがよく分からない
713:名無しさん@お腹いっぱい。
[ここ壊れてます] .net
>>704
調べてみるとDirectML上で動かす方法とかあるみたいです
ただ素直にRTX3060にした方がいいか…大は小を兼ねるとも言うし
714:名無しさん@お腹いっぱい。
22/10/15 23:33:10.89 yN0Lb7VT.net
>>698
美少女ならsisがいいかもw
sister系の語に類するのだが、
SKSカービン色が出るよりまし!
715:名無しさん@お腹いっぱい。
22/10/15 23:37:47.09 mbp63UAw.net
>>712
使い分けるまでも無くHNが完全上位互換じゃないの?
716:名無しさん@お腹いっぱい。
22/10/15 23:50:10.20 eUckkZej.net
Train Hypernetworkをさっき初めて開始した
100000stepsまで15時間
717:名無しさん@お腹いっぱい。
22/10/15 23:56:32.22 yj0C8KAM.net
NAIをローカルかつ低容量で回せるようにならねーかな
ckptを雑に入れればOKだとしても100GB以上あったら手を出しにくい
718:名無しさん@お腹いっぱい。
22/10/16 00:01:30.37 Zee6dncT.net
1111のプロンプト編集で、ctrlキーとカーソルキーの組み合わせで強調のショートカット使えるやつ、
これいらないからオフにしたいのだけど、どこいじれば良いかわかる人いる?
719:名無しさん@お腹いっぱい。
22/10/16 00:04:47.44 i8k1JocR.net
dreamboothがキャラを覚えさせるもので、hypernetworkは絵師の描き方を覚えさせるものだと思ってた
720:名無しさん@お腹いっぱい。
22/10/16 00:09:23.41 igoLWNix.net
>>712
>>712
TI(画風の学習)→プロンプトに味付け
教えた画像群の画風を「S*」とかの単語に圧縮して、プロンプトに加えて使う
×学習時のモデルで使わないとダメ
(そのモデルの特徴を使って画風を覚えさせたEmbeddingを作っているため)
dreambooth(特定の意味を加える→キャラとか覚えさせる)
教えた画像群の意味を覚えさせてモデルに加える
→sksとか教えた意味が呪文で使える
hypernetwork(画風の学習→生成後半に味付け)
モデルは変えずに、教えた画像群のスタイルを覚えさせて、後付けのちっちゃいモデルを作る
生成時に使いたいモデルと一緒に使うと、学習した画風が全体に適用されて出てくる
Waifuで学習させて、ノーマルSDやTrinで使うこともできる(そこがTIとは違う)
TIとHNが似てるが、モデル専用かどうかと、使い方がかなり違う
TIでは、覚えさせた被写体の色合い・種類・画風を「S*風」としてプロンプトで指定して使う(学習と同じモデル専用)
HNは、何も指定しなくても、どの生成にも画風を無理やり適用して出てくる(どのモデルと一緒でも使える)
→NovelAIは、厳選Animeデータで覚えさせたアニメ風のhypernetworkを使ってた
721:名無しさん@お腹いっぱい。
22/10/16 00:17:26.64 bXlx3GEL.net
>>718
ソースファイル見た限り無効化する設定項目は無さそう
直接ファイルいじってもいいなら
javascript/edit-attention.jsの2行目に「return;」って書いた行を挿入で無効化される
722:名無しさん@お腹いっぱい。
22/10/16 00:20:08.98 6ffuqtQX.net
スタイルが常に全体に強制的にかかるhypernetworkと違ってプロンプトで自由に調節できるのがTIのいいところ
あと現状ではhypernetworkはひとつしか適用できないけど、TIはいくつでも同時に使える
ただしTIは繊細でトレーニングデータを他のモデルに流用しようとすると破綻しやすい
でもSD1.4スタンダードモデルでトレーニングしておくと
他の派生モデルにトレーニングデータを流用しても比較的破綻しにくくなると思われる
一長一短だなぁ
723:720
22/10/16 00:20:37.91 igoLWNix.net
あと、TIよりHNの方が学習時間が短い。
そうすると、TIの意味って、ニッチかもしれん
大仏画像ばっかり覚えさせて、大仏風~とか呼べるのはTI。
TIで「大仏風のトトロ」と描かせると、トトロの大仏が出てくるw
HNだと「トトロ」と描かせると、大仏画像の色合いとか画風のトトロが出てくる(たぶん大仏にはならない)
724:名無しさん@お腹いっぱい。
22/10/16 00:23:22.66 kvXH9jJF.net
はー勉強なるわ、まとめてくれるの助かる……
しかし今後vaeの学習とか、更に新しい機能出てきた時に何を使うかますます悩ましくなりそう
725:名無しさん@お腹いっぱい。
22/10/16 00:27:05.45 86BHjn16.net
HNを複数作っておけば好きに画風を切り替えられるってことでいい?
726:名無しさん@お腹いっぱい。
22/10/16 00:27:20.34 igoLWNix.net
>>722
TIは複数使えるのは利点かもね(別の語にすればいいわけで)
なるほど大元のSDでTIしておけば、派生モデルでは使えなくもないのか(でも破綻しやすい気はする
)
727:名無しさん@お腹いっぱい。
22/10/16 00:32:22.50 6x1IPbSd.net
どっかのコミットのタイミングから
VRAM 全然使わないようになってね
同時作成枚数も上げても意味を無さなくなったような
728:名無しさん@お腹いっぱい。
22/10/16 00:33:24.01 J6rT9g9/.net
こうしてみるとHNはckptというよりもdiffuserの拡張的なイメージなんだな
729:名無しさん@お腹いっぱい。
22/10/16 00:34:46.97 igoLWNix.net
>>725
画風を複数作っておくのはHNでもTIでも切り替え可能。
HNは一度に一個しか使えなくて、どのモデルでも強制適用。
TIは、同時に複数をプロンプトで呼べるけど、実用上は学習したモデル専用な感じ
730:名無しさん@お腹いっぱい。
22/10/16 00:41:08.62 6ffuqtQX.net
HNでもA_weak.ptとかA_strong.ptとかAxB_mix.ptとか分ければある程度TIみたいにかかり具合も調節できそうだな
問題は様々な組み合わせを試すにはあまりにも面倒なことだ
731:名無しさん@お腹いっぱい。
22/10/16 00:48:55.75 wopiNjdt.net
Hypernetwork strength...
732:名無しさん@お腹いっぱい。
22/10/16 01:13:20.91 ghjWKzhb.net
>>713
そこまでして公式の推奨じゃない環境で動かしたいなら好きにすれば良いと思うけど、調べる能力無いと詰むよ
○○でも動くとは書いてあるけどissues見れば結構な環境でエラー出てるんで、コマンドラインの知識無いならやめたほうが無難
みんな使ってるものなら対応も早いしググったら出ることもあるけど、そうじゃないとエラー見て対処してくことになるんで
733:名無しさん@お腹いっぱい。
22/10/16 01:55:54.91 QmrqDzef.net
>>713
速度効率を求めず環境構築と試行錯誤を楽しめるならRadeonもあり。 Diffusers0.5.1だと
pipeline stable diffusion_onnxx.pyと
使用するスケジューラのほうも修正したら動いたよ。
だいたいnumpyとtensorでエラーが出るからググるとtensorに変換すればいいって出てくる。
734:名無しさん@お腹いっぱい。
22/10/16 01:56:01.24 5rzd4/h5.net
waifuで頭の上のほうが画像に収まらず切れちゃうんですけど、頭の上まで表示する方法ってありますか?
今はcowboy_shot使ってます
735:名無しさん@お腹いっぱい。
22/10/16 02:05:32.11 5rzd4/h5.net
>>713
>>733
俺手元にradeonばっかりで本当後悔してる
6600xtと6700xtと6800あわせて28枚あるが機械学習系でGPU使うとき毎回後悔してる
俺みたいにしくじるなよ🥺
736:名無しさん@お腹いっぱい。
22/10/16 02:11:10.76 QmrqDzef.net
6月にVRヘッドセット買って、7月にVR用に6700xt買ったんだ。
色々察してくれ。
昔からAMDユーザーなんで後悔はしてないが人にはデファクトスタンダードを勧める。
737:名無しさん@お腹いっぱい。
22/10/16 02:14:00.78 hZM0T8yy.net
>>713
RadeonでDirectMLは試したけど、メモリ不足で動かなかったな
ググるとモデルファイルの3倍のデータ量を
メインメモリに展開するとかでめちゃくちゃメモリを食うらしい
メインメモリ24GBで動作しないから、おそらく32GB以上はいる
738:名無しさん@お腹いっぱい。
22/10/16 02:27:26.22 dh9YtBzs.net
1111WebUIにてフリーイメージサイトの透かしが入った画像で100枚ほどi2i生成、
その後同じプロンプトと透かしのない自前の画像でi2i
そしたら上記サイトの透かしが入った画像が出力される
どういうこと??
739:名無しさん@お腹いっぱい。
22/10/16 02:30:23.90 QmrqDzef.net
5900x,6700xt(12GB),メモリ32GBで動いてるけど、GPUが10GB、メモリが4~5GBくらい。
公式のスクリプトでモデルを持ってきてるがモデルフォルダは5.1GB
740:名無しさん@お腹いっぱい。
22/10/16 02:37:15.76 Gdqp7gRE.net
初歩的な質問ですが、特定のアニメキャラを安定して量産したい場合はDreamboothてので学習させるしかないって事ですか
741:名無しさん@お腹いっぱい。
22/10/16 02:44:04.05 FPOZlxXn.net
>>740
TIでもHNでも一応できるよ
742:名無しさん@お腹いっぱい。
22/10/16 02:54:41.70 ZnhcANsj.net
まあすでにRadeon持ってるならともかく、今からAI画像生成目的で買うならGeforce一択だと思う