【StableDiffusion】AI画像生成技術9【Midjourney】at CG
【StableDiffusion】AI画像生成技術9【Midjourney】 - 暇つぶし2ch2:名無しさん@お腹いっぱい。
22/10/19 09:29:38.27 +MDAD68L.net
これでええんか

3:名無しさん@お腹いっぱい。
22/10/19 09:30:17.58 +MDAD68L.net
スレ立てしたことないから間違ってたら許して

4:名無しさん@お腹いっぱい。
22/10/19 10:10:57.22 zKoTx5Q+.net
>>1
乙乙~
スレタイMidjourney→NovelAIでいいかもって気がしてきた
MJの話もう誰一人してねぇ
次スレはここに入れちゃうか?
> (DALLE・Craiyon・Midjourneyの話題もOK)

5:名無しさん@お腹いっぱい。
22/10/19 11:05:40.37 E7CA+yGH.net
Hentai DiffusionのHD-16.ckptを外付けhddにダウンロードして、繋げたパソコンをwindows defenderでスキャンするとトロイの木馬が検出。
Win32/Sirefef!cfgというウイルスです
その後焦ってファイルを右クリックで削除してしまいました。
ckptファイル自体はhddから移したりもせず未使用で、当然automatic1111でも使用していません。
この場合パソコンや外付けhddの感染ってどうなっているのでしょう…
ダウンロードしてもファイルを実行してなければ感染からは免れているのでしょうか…?

6:名無しさん@お腹いっぱい。
22/10/19 11:29:55.06 IQwtACO4.net
>>5
実行していないなら大丈夫(のはず)
偽陽性では?という話もあったりで、実態はよく分からない
URLリンク(huggingface.co)

7:名無しさん@お腹いっぱい。
22/10/19 11:30:40.59 h/UtDtX1.net
感染してないとは思うが断言はできない
が、とりあえずもうやめとけ

8:名無しさん@お腹いっぱい。
22/10/19 11:38:12.55 DrGI+SDD.net
ま、ちょっとは覚悟しておけ

9:名無しさん@お腹いっぱい。
22/10/19 11:41:16.40 bDCiuJTO.net
まあckptに公式の署名付けるような手段もないしどうしてもウイルスまみれになりがちだよな

10:名無しさん@お腹いっぱい。
22/10/19 11:54:10.26 E7CA+yGH.net
>>5です
ぁあ怖い
感染の場合って、確認方法とかないのでしょうか?

11:名無しさん@お腹いっぱい。
22/10/19 12:10:08.52 dorVzoBf.net
これで低コストで信長の野望みたいな多様な人物グラの多いゲームを作れる

12:名無しさん@お腹いっぱい。
22/10/19 12:11:28.52 JAMOIDfW.net
こんな生半可な覚悟と知識の連中さえおびき寄せてしまうAI絵師の魅力恐るべし

13:名無しさん@お腹いっぱい。
22/10/19 12:15:07.27 Oq5qO96x.net
リーフ爆発したんだwww
うんこ漏らしながら走ってたらそりゃあな

14:名無しさん@お腹いっぱい。
22/10/19 12:15:13.65 Oq5qO96x.net
誤爆ですすまん

15:名無しさん@お腹いっぱい。
22/10/19 12:40:11.91 InbQCtG5.net
ラーメンの食べ方がおかしいのは麺をすするのはeatには含まれんからやね
eatは基本的に手で引っ掴んでかぶり付くイメージ
ラーメンならsipとかslurpやね

16:名無しさん@お腹いっぱい。
22/10/19 12:51:03.70 bDCiuJTO.net
・一旦ネットを切る(WiFi off/LANケーブル抜く)
・重要なデータを外付けストレージにバックアップ
・複数のスキャンソフトでシステム全体のフルスキャン(DefenderやらESETやら)
・わらわら検出されたらもう手遅れなのでPCシステムリカバリ(再インストール)

17:名無しさん@お腹いっぱい。
22/10/19 12:58:25.59 2BA2YlCB.net
Hentai DiffusionはRD1412の時も検知されて話題になったな
まぁ多分誤検知だと思う。data.pklじゃなくてテンソル格納部分のファイルからだし
何よりこれとは関係ない何も検知されないモデル同士をマージした新規ファイルからも
同じウィルスが検知される事あるんだよね

18:名無しさん@お腹いっぱい。
22/10/19 12:58:58.54 z2aUVyH2.net
HyperNetwork含め追加学習系って512x512はVRAM8GB以上が必須?
最適化されてよわよわグラボでも動くようになってほしい..

19:名無しさん@お腹いっぱい。
22/10/19 13:06:44.60 j6uSyK7n.net
>>17
そりゃ面白くないポリコレ団体や絵師は中身関係なくウィルス登録するわな

20:名無しさん@お腹いっぱい。
22/10/19 13:28:01.44 NCfepCl9.net
>>1
スレ埋まってるの全然気付かなかったわ

21:名無しさん@お腹いっぱい。
22/10/19 13:33:43.94 fu+pqI6q.net
settingタブにeta noise seed deltaが存在しないのですが原因分かるかたいますか?

22:名無しさん@お腹いっぱい。
22/10/19 13:40:47.78 E7CA+yGH.net
ダウンロードするだけで勝手に動きだすか
ダウンロードファイルをユーザーが実行しないと動き出さないか
ユーザーが実行しなくとも時間差で勝手に動き出すのか
Win32/Sirefef!cfgを調べても初歩的ことなのか情報が全然出てこない
ここら辺分れば少し安心できるのに…
>>17
data.pklじゃなくてテンソル格納部分のファイルからだし
それはどういう意味ですか?

23:名無しさん@お腹いっぱい。
22/10/19 13:51:06.13 IQwtACO4.net
RDの頃から話題はあったけど、使ってる人はいっぱいいるし、
まじでヤられたって話になれば今頃そういう話題が出まくってるだろうに何もないから、
たぶん誤検知だろうとは思ってる。
とはいえスケベモデルは他にもあるから、心配しながらあえてhentaiを使う必要もないかもね

24:名無しさん@お腹いっぱい。
22/10/19 14:09:16.30 E7CA+yGH.net
モデル欲張りすぎるのも危険ですね…身にしみました…

25:名無しさん@お腹いっぱい。
22/10/19 14:35:41.31 zKoTx5Q+.net
> windows defenderでスキャンするとトロイの木馬が検出。
> その後焦ってファイルを右クリックで削除してしまいました。
これdefenderが消したんだと思う
知り合いがemotet踏んだ時に「警告が出てファイルが勝手に消えた」って言ってたので

26:名無しさん@お腹いっぱい。
22/10/19 14:48:15.75 EuGX+zhB0.net
githubとかのページで確認するとハッシュ値あるやろ
落としたやつがあってるか確認するしか無い

27:名無しさん@お腹いっぱい。
22/10/19 14:53:44.00 LIPhQQnQ.net
何スレだよw

28:名無しさん@お腹いっぱい。
22/10/19 15:54:29.73 DV83yB7k.net
hypernetworkの学習、学習画像と同じフォルダに(ファイル名).txtを作ってそこにキャプション付ければ、[filewords]でファイル名のかわりに読み取ってくれるという認識でおけ?

29:名無しさん@お腹いっぱい。
22/10/19 16:34:43.74 XotkVMWS.net
そう
キャラを学習するときはそのキャラの特徴を消す必要あり

30:名無しさん@お腹いっぱい。
22/10/19 16:37:38.97 iIuw9aFn.net
>>29
ありがとー!

31:名無しさん@お腹いっぱい。
22/10/19 16:42:55.83 a5uD07Bw.net
>>5
waifuは入れたがHentai Diffusionというのもあるのか。
ちなみに、
「輪○されて、白濁まみれでアヘ顔ダブルピースで体には正の字が書き込まれて、周囲にはゴムが散乱しているアラフォー奥さん」
みたいな呪文は可能ですか?

32:名無しさん@お腹いっぱい。
22/10/19 16:56:00.72 R/zBzH+Y.net
>>31
waifuじゃ無理だな
NnovelAIなら可能だろうけど
というわけでエロはこっちで
【NovelAI】AIエロ画像情報交換 5【Waifu Diffusion】
URLリンク(mercury.bbspink.com)
なんJnovelAI部★62
スレリンク(liveuranus板)

33:名無しさん@お腹いっぱい。
22/10/19 17:00:28.90 iIuw9aFn.net
URLリンク(note.com)
既知かもしれんけど意外と目から鱗だったので共有
prompt末尾にカンマをつけることで構図画風を変えずにやり直しできる(たぶんWDでも効く)
こんなに変わるとは思わんかった

34:名無しさん@お腹いっぱい。
22/10/19 17:25:30.21 a5uD07Bw.net
>>32
おふざけにマジレス超感謝www。

35:名無しさん@お腹いっぱい。
22/10/19 17:31:51.36 /Pj9ydpT.net
>>33
世の中そんなに都合いいわけないのはわかるよね
指の本数だけ違うとか、些細な部分が変わる数百枚の中に都合がいい物があるだけ
増長性持たせて再描画してるわけだから、自分が変えたくない部分ももちろん変わる場合もある(そっちの方が多い)

36:名無しさん@お腹いっぱい。
22/10/19 17:33:11.58 R/zBzH+Y.net
>>34
わかったわかった
そんなごまかさなくたっておまえさんがどんな性癖でもみんな笑ったりしないから安心しなよ

37:名無しさん@お腹いっぱい。
22/10/19 17:45:44.36 IQwtACO4.net
良い生成だけどスペルミスがあったので修正したらダメな絵になった、みたいなもんだろw

38:名無しさん@お腹いっぱい。
22/10/19 17:51:40.41 /nduYP12.net
>>33
それ別に,じゃなくてもいい
ノイズの変化ってことだよね?
単体で意味の通らない記号ならなんでも

39:名無しさん@お腹いっぱい。
22/10/19 17:53:11.38 /nduYP12.net
というかAUTOMATIC1111版にはvariation機能があるし
なんならimg2imgでも同じようなことは可能だろう

40:名無しさん@お腹いっぱい。
22/10/19 18:21:22.78 S/c3UwAk.net
Dreamboothで顔を学習させた場合の過学習の兆候がわかってきた
軽度…画風変更系のプロンプト(nendoroid, monochromeなど)が効きにくくなる
中度…全体的にプロンプトが効きにくくなる
重度…画像にノイズが走る、どんなプロンプト入れても同じような構図しか出してこない
体感としてはこんな感じ

41:名無しさん@お腹いっぱい。
22/10/19 18:21:53.78 zKoTx5Q+.net
>>29
これの意味が全く分からない、特徴を消す?
ネットで検索してもはっきり書いてるサイトないし
どなたか教えてください

42:名無しさん@お腹いっぱい。
22/10/19 18:30:33.25 LIPhQQnQ.net
過学習気味な時って目の破綻が特に目に付くわ

43:名無しさん@お腹いっぱい。
22/10/19 18:55:20.17 vOFhbDNX.net
Colab版DBの教師用画像て515*512で顔だけを5枚くらい、が最適?…
説明サイトによっては長方形とか形色々でサイズに関しても特に記述なく
枚数も数枚から100枚とか使ってる人いて、どれが最適なのかいまいちわからない…
とりあえずトリミングして全身から顔だけにして20枚弱にしたけども、
これが正しいのか正しくないのか全然わからない…
あとやっぱ白黒の線画だけの画像は判別しにくいのかなぁ

44:名無しさん@お腹いっぱい。
22/10/19 19:00:38.58 4yEc6vsf.net
ckptのModel hashをweb uiで開く前に確認する方法ってあります?

45:名無しさん@お腹いっぱい。
22/10/19 19:06:52.47 +Ng860qx.net
>>41
hypernetwork学習のときは、余計な情報を学習せないようにファイル名にその画像の説明を書く(書いた情報は学習しない)
画風を学習する場合は、例えば赤い髪、とか青い目、とかは学習してほしくないからファイル名に書く
でもキャラを学習するときは、髪色目色含めて学習したいから、そういう情報をファイル名に書いてはいけない
説明を自動でつけてくれるツールはそういう情報を入れてくるので、手動で消さなきゃいけない
hypernetwork関連全部まとめた日本語サイト欲しいよね

46:名無しさん@お腹いっぱい。
22/10/19 19:12:06.89 aAnqqlmM.net
ヒラコー先生のツィートを見て興味持ったんだけど
ラフの清書�


47:ニかできるのはどっちなん?



48:名無しさん@お腹いっぱい。
22/10/19 19:19:51.75 zKoTx5Q+.net
>>45
ありがとう
「学習させないのに書く」ってのがよくわからなかった、逆では?って
ファイル名(=プロンプトでいいのかな?)にあるからすでに指定済み=学習の必要ないって判断されるってことか
なるほど

49:名無しさん@お腹いっぱい。
22/10/19 19:51:22.18 /1AeZLdl.net
前スレ>>997
openVinoでCPUで生成してる記事は見たことある
自分のノートPCのCPU使ってStable diffusion UI(cmdr)で生成するのよりはだいぶ速いタイムで書かれてた
自分はOpenVino試したことはないから速いのかは知らん

50:名無しさん@お腹いっぱい。
22/10/19 20:00:07.32 o2v6w26W.net
すまん、NovelAIをwebUIで動かせるようにしたんだが(アスカチェッククリア済み)
StableDiffusionの方も使いたくなり色々試したところ
DreamStudioで生成される画像とseedとかの条件を一致させてもなんか違う画像が出てくるんだ
なんか原因わかる人おる?他の設定は
(Model hash: 7460a6fa, Clip skip: 2, ENSD: 31337)
でやっとる

51:名無しさん@お腹いっぱい。
22/10/19 20:08:38.68 .net
SD公式ってもうモデルv1.5になってるんじゃなかったっけ?

52:名無しさん@お腹いっぱい。
22/10/19 20:13:52.00 .net
>>49
>>50
そう、公式はデフォ設定が1.5になってる
1.4にすれば同じの出るよ

53:名無しさん@お腹いっぱい。
22/10/19 21:24:31.50 o2v6w26W.net
バージョン違いのこと教えてくれてサンクス!
ただ1.4にしても違うの出てくるんで、色々試してみるわ
URLリンク(i.imgur.com)
URLリンク(i.imgur.com)

54:名無しさん@お腹いっぱい。
22/10/19 21:39:20.43 R/zBzH+Y.net
>>52
clip skipじゃね?
NAI設定で2にしてるようだし

55:名無しさん@お腹いっぱい。
22/10/19 22:26:17.83 /nduYP12.net
ENSDってなんのパラメータ?

56:名無しさん@お腹いっぱい。
22/10/19 22:48:47.92 o2v6w26W.net
>>53
あざす!!!
完全に一致したやつ出せた!!

57:名無しさん@お腹いっぱい。
22/10/20 00:16:14.47 ozlRZsYF.net
元素法典の呪文で(((((なんちゃら)))))みたいに括弧がいっぱいついてたりしますが
括弧って何の意味があるんですか?

58:名無しさん@お腹いっぱい。
22/10/20 00:20:18.09 /aQhwa+e.net
なんちゃら の効果を1割増しにするとか、そんな感じ。5重になってりゃ1.5倍。
NAIがどういう仕様かは知らんけど

59:名無しさん@お腹いっぱい。
22/10/20 00:23:03.87 N+ZJkGfP.net
Imagic試した人いる?
俺はVRAMが貧弱すぎて試せない
URLリンク(github.com)

60:名無しさん@お腹いっぱい。
22/10/20 00:23:30.48 ozlRZsYF.net
>>57
なるほど、括弧の数が多いほど括弧の中が強くなっていくんですね

61:名無しさん@お腹いっぱい。
22/10/20 00:24:41.94 M5XwgL0g.net
readme見るだけでもう凄いな
ローカルのVRAM足りんし暇なときにcolabで試してみるか

62:名無しさん@お腹いっぱい。
22/10/20 00:27:48.97 ekPCzlWw.net
SDのHyperNetworkを試したいがVRAMが3GBしかないのでちょっと相談させて欲しい
学習はどうやら8GB無いと駄目そうなんだが、colabとか使って学習済みptを
作りさえすれば、それを使った画像生成はVRAMが3GBのままmedvramで起動しても
使えるってことで良いんだろうか?
生成結果が全然違うものになって役に立たないとかある?

63:名無しさん@お腹いっぱい。
22/10/20 00:32:30.96 M5XwgL0g.net
問題なく使えるじゃろ
あくまで学習に必要なVRAMが多いだけ

64:名無しさん@お腹いっぱい。
22/10/20 00:38:02.13 ekPCzlWw.net
>>62
そうか…ありがとう
VRAM豊富な知り合いに自作絵の学習してもらったptを使っても全然
画風が似ないからmedvramのせいかと思ったんだけど、
単にプロンプトが悪いだけかもしれんな

65:名無しさん@お腹いっぱい。
22/10/20 00:56:07.12 M5XwgL0g.net
そんなに出力変わるんだっけ?とオプションの有無切り替えてみたけど、
DBで学習済のモデルを使った出力をして差異が殆ど無いことが確認できた
知り合いとの環境差異による出力差はあるだろうけど、
画風が認識出来ないほどのものではないだろうから要因は別にあると思う

66:名無しさん@お腹いっぱい。
22/10/20 01:28:54.47 HzHEDvAP.net
inpaintingファインチューンモデルが実は1.5ベースなんじゃないかと言われているけどうーん?
ソースはこのコミット
URLリンク(github.com)

67:名無しさん@お腹いっぱい。
22/10/20 01:45:40.04 GDO/OoWf.net
>>59
まあ元素法典のクオリティアップ系のタグ重ねそんな機能してるとも思えんけどね
エフェクトしっかり指定するほうが大事

68:名無しさん@お腹いっぱい。
22/10/20 01:50:56.78 ekPCzlWw.net
>>64
マジか、実際あまり使い方が分かってない感はあるんだけど。
やることってSettingsタブのStable diffusionのHypernetworkでptを選んで
strengthを調整するくらいだよね?
するとtxt2imgに適当にプロンプト入れて生成される画像が
そのptの画風になるくらいの認識だが。
strengthの下のチェックボックスもちょっといじってみるか…

69:名無しさん@お腹いっぱい。
22/10/20 02:02:59.31 M5XwgL0g.net
>>67
使い方有っとるぞ
applyしてないという落ちでもなければ、後は渡されたモデルが違うか学習出来てないかしかないと思うな

70:名無しさん@お腹いっぱい。
22/10/20 02:14:02.00 N+ZJkGfP.net
本家に貼られてるcolabをそのまま実行すると途中でsyntax errorになってたけどpython3.9にバージョンアップデートしたら起動できたわ

71:名無しさん@お腹いっぱい。
22/10/20 02:14:22.55 JyX5QSTM.net
Adobe、画像生成AIを開発へ 倫理や法律面で“透明性”高めたクリエイターのためのツール目指す [朝一から閉店までφ★]
スレリンク(newsplus板)

72:名無しさん@お腹いっぱい。
22/10/20 02:30:05.18 qeOA/jQZ.net
ColabでHN用のモデルを作成できますの??
自分も低RAMグラボなのでDBしか作れてないけれども

73:名無しさん@お腹いっぱい。
22/10/20 03:00:39.34 P+P7VcZk.net
>>71
ぜんぜんできるよ
1111が対応してくれてるので簡単

74:名無しさん@お腹いっぱい。
22/10/20 03:56:56.11 uCyPcyDU.net
同じWaifuDiffusionの同じバージョンで出力してるはずなのに
Twitterで公開されてるpromptのALTをそのままコピペして設定も同じにしても似てる絵が出てくるどころか変な絵しか出てこない
これって俺がNMKDを使ってるからいけないの?それとも何かもうひとつ行程が必要なのか?

75:名無しさん@お腹いっぱい。
22/10/20 07:20:34.61 HpfppTqv.net
>>73
NMKDのスクリーンショットを見せてくれたら、ここはこうするとか指摘できるかも

76:名無しさん@お腹いっぱい。
22/10/20 07:23:22.51 bZrOglZf.net
元素法典しゅごい...
どうせ何百回とやったうちの奇跡の一枚でしょって思って半信半疑でプロンプトコピペして生成したら次から次へと良作画が...
これは凄いと感動するレベルの絵は10枚に1枚くらいだけど、神絵師作画が10回に1回の確率で排出されるガチャ楽しすぎだろ

77:名無しさん@お腹いっぱい。
22/10/20 08:02:21.53 dESm3QuF.net
DreamBoothで作ったckptモデルが6個あるのですが、
6個中4個が同じモデルハッシュ値でシード固定したら同じものが作られちゃいます…
fp16に限れば5個中4個が同じハッシュです…
それぞれ別の日に違う画像でcolabで作ったものなのに、なぜ同じ中身に……
これは一体どういう現象なのでしょうか?…
使ったノートは一番有名だと思われるShivamShrirao氏のものですが…

78:名無しさん@お腹いっぱい。
22/10/20 08:35:25.32 asTWRm66.net
同一作画同一キャラだけど、髪/目の色・アクセサリー・ケモ耳の有無が頻繁に変わる場合、どう追加学習させるのが正解なんだろう
最終的には同じ絵柄で存在しない組み合わせを自動生成できるようにしたい
Dreamboothに全パターン突っ込んだら結構うまく行ったけど、アクセサリーが変になったりケモ耳が片方だけ生えてたりと細かいところがちょっと変な感じになる
各パターンをDreamboothで学習させてモデルマージすればいけるか…?

79:名無しさん@お腹いっぱい。
22/10/20 08:50:35.37 TXF7Hzbh.net
学習させた各パターンのモデルをマージできるのか
オリキャラ10人に別々のキーワード付けて組み合わせたり出来れば理想的だけど

80:名無しさん@お腹いっぱい。
22/10/20 08:51:49.75 t4Ht1Ewr.net
>>77
dreamboothで個別に覚えさせて融合を試みる方法(できるかは知らん)
hypernetworkで差分になる要素のワードを画像ファイルのプロンプトに入れて、そのワードが入ったときだけ再現する方法
この二つかな
hypernetworkは新規に何かを覚えるものじゃないのでプロンプトで再現できる範囲でしかなんとかならんけど
プロンプトに入っていない→無条件に再現させるものとして学習(プロンプトの主語とかに全部ぶら下がる)
プロンプトに入っている→そのワードが出たときだけ再現させるものとして学習
という風に振り分けができる
dreamboothでまとめて覚えさせた後にそのモデルに対してhypernetworkで描き分けを学習させるなんて手法もあるかもしれないが例は見たことがない

81:名無しさん@お腹いっぱい。
22/10/20 08:52:27.29 jF/ZGOIs.net
マージはガチャ要素強すぎだろ
正攻法は ノーマルキャラをDB → 同じモデルに対してwithケモミミでDB → 同じモデルに対して・・・

82:名無しさん@お腹いっぱい。
22/10/20 09:37:55.75 IxciBZIl.net
クラスの概念が被ってるとアウトじゃないかそれ
或いは二度目のDBの時にプレースホルダ付きクラスを学習時のクラスとして扱うのか?

83:名無しさん@お腹いっぱい。
22/10/20 09:46:56.16 5hLWkm6T.net
>>77
kanewallmannフォークで個別要素を同時に学習できるらしいから試してみたら?

84:名無しさん@お腹いっぱい。
22/10/20 09:59:57.51 /aQhwa+e.net
さあ今日もHNの学習だと1111を更新したら、 Enter hypernetwork layer structureと
add layer normalization という項目が追加されてるのだけど、なんだこれ?

85:名無しさん@お腹いっぱい。
22/10/20 10:16:11.59 PCZ/zv+C.net
「CarperAI」って聞いたことのないやつのメールが捨てメアドに来た
MJかDALLEのどっちかが漏らしやがったな・・・

86:名無しさん@お腹いっぱい。
22/10/20 10:19:56.20 PCZ/zv+C.net
って検索したらStabilityAI絡みかよ、ややこしい、はっきり書けや
音楽AI?

87:名無しさん@お腹いっぱい。
22/10/20 10:32:22.19 W4s9BNeD.net
>>44
def model_hash(filename):
try:
with open(filename, "rb") as file:
import hashlib
m = hashlib.sha256()
file.seek(0x100000)
m.update(file.read(0x10000))
return m.hexdigest()[0:8]
except FileNotFoundError:
return 'NOFILE'
if __name__ == '__main__':
print(model_hash("model.ckpt"))

88:名無しさん@お腹いっぱい。
22/10/20 11:06:09.25 yhNDZtwt.net
スレの人たちは一枚出力するだけで消費電力が「非常に高い」になったりするのでしょうか?
記憶違いじゃなければautomatic1111更新してxformers実行してから一枚絵でも消費電力が非常に高いになってしまった気がします。
xformersをオフにしても初期のサイズで出力しても非常に高いのまま…
設定で消費電力抑えることは可能でしょうか?
消費電力調べずでRTX 3080 12GB入りpc買ったの後悔してます…

89:名無しさん@お腹いっぱい。
22/10/20 11:16:40.36 7vO1T0cQ.net
全力でGPU回してるんだから、そりゃ当然
どうしても抑えたいなら、GPUのアプリで制限かけてしまえばいい
生産速度はもちろん落ちるが

90:名無しさん@お腹いっぱい。
22/10/20 11:22:10.88 VvFiP15o.net
>>73
NMKDからスタートしてweb-uiに移行した者だがNMKDは普通のプロンプトとネガティブプロンプト合わせて55ワードで納めろって仕様らしい
あとネガティブの指定は[]で囲む
一般に貼られてるプロンプトはweb-uiの仕様でプロンプトとネガティブプロンプト別計算で75トークン入れられて
[]で囲むんじゃなくて別の入力欄があって色々細かく長いプロンプト設定ができるのでweb-uiがおすすめ

91:名無しさん@お腹いっぱい。
22/10/20 11:27:03.46 ln1Mf+n0.net
ありがとうございます
いろいろ試してみてうまく行ったら報告しようと思います

92:名無しさん@お腹いっぱい。
22/10/20 11:30:15.24 m19/nT9S.net
今はネガティブプロンプトで縛るのが主流だからNMKD辛いぞ

93:名無しさん@お腹いっぱい。
22/10/20 11:38:57.38 PCZ/zv+C.net
>>87
afterburnerでpower limitかtemp limitあたりを下げたらいいけど、当然遅くなる
しかし電力を気にする環境の人がハイエンドグラボとか、なんのこっちゃって話ですよ

94:名無しさん@お腹いっぱい。
22/10/20 11:48:53.07 qiYu0gbd.net
>>92
そやから後悔してる言うてるやん

95:名無しさん@お腹いっぱい。
22/10/20 11:50:51.53 D6hTGbJU.net
20~30%ほどPL下げてクロックは+100MHzに設定しろ
性能をキープしながら省電力化できると謎の満足感が得られる

96:名無しさん@お腹いっぱい。
22/10/20 12:04:28.52 XRNXx2tg.net
深夜にdiffuser0.6.0がリリースされてカスタムパイプラインとonnxが整備されて使いやすくなってるよ。
RadeonユーザーdirectML使用は相変わらず修正が必要だけど。

97:名無しさん@お腹いっぱい。
22/10/20 12:06:47.13 EemYJ7K0.net
>>83
URLリンク(github.com)
layer structure 1,2,1で今まで通りらしい
layer normalizationにチェックを入れると学習が安定すると書いてある

98:名無しさん@お腹いっぱい。
22/10/20 12:10:29.35 yhNDZtwt.net
このスレに助けられてばかりのこの頃…本当ありがとうございます
なるほど、アプリの設定で消費電力を抑えられるのですね…!
無知な質問ばかりなのですが、その設定によっては消費電力を3080〜3060くらいの電力に抑えることも可能なのでしょうか?
そうした場合の生成スピードが遅くなるのは分かるのですが、3060と同じくらいのスピードは出せたりするのでしょうか?

99:名無しさん@お腹いっぱい。
22/10/20 12:12:56.52 yhNDZtwt.net
>>0094
こちらの設定はafterburnerの設定ですか?

100:名無しさん@お腹いっぱい。
22/10/20 12:13:53.71 xqjiqLUE.net
暖房器具を切って
その分グラボをフルパワーで回して画像製作させれば暖房代浮くだろ

101:名無しさん@お腹いっぱい。
22/10/20 12:14:08.70 dvDA1RmE.net
みんなNAIでエロ絵出す事だけに必死になってるからなんJ以外はマジで完全に過疎ったわ
Waifuも既に忘れられてるよな

102:名無しさん@お腹いっぱい。
22/10/20 12:19:18.68 D6hTGbJU.net
>>98
もうスレ違いだからググれ
GPU-Zで測定しながら自分で試せ

103:名無しさん@お腹いっぱい。
22/10/20 12:25:28.17 hbNLpqWA.net
>>100
つってもそれぞれの専門スレは結構細く長く需要あると思うぞ、このスレもハードや設定関連に特化してるし
J本スレは流れ早すぎて逆に特定の話題のログちゃんと辿るの不可能だし

104:名無しさん@お腹いっぱい。
22/10/20 12:29:36.90 AapECLQ+.net
TIとかHNで学習したptファイルについて教えてほしい
学習に使ったのと同じツールを使わないといけないみたいだけど、
例えば普通にautomatic1111で学習させたやつと、
流出したNAI+automatic1111で学習させたやつって違うツール扱いになるのかな

105:名無しさん@お腹いっぱい。
22/10/20 12:33:13.66 DCj4hfUQ.net
>>89
ワイは最初WEBで扱えるdiffusionで楽しんで、
次にNMKDに入ったが散々待たされた挙句cuda入れてくださいでストップされたのでNMKDは許さない
次に試したcmdr2がその点あっさりクリアできて良かった
その次に試した1111とクオリティの違いに唖然とはしたが
1111が導入に一番手間があったというか、色々な記事を散見して回って導入すると沼にはまる

106:名無しさん@お腹いっぱい。
22/10/20 12:34:39.39 DCj4hfUQ.net
>>100
1-4が出ているのよな。試していないが。
cmdr2で試してからの1111で試してどう違うかやってみるかのう

107:名無しさん@お腹いっぱい。
22/10/20 12:38:08.59 AapECLQ+.net
>>103
ちょっと分かりにくいか
つまりはautomatic1111ってとこは共通でも、ckptが違うと学習は反映できないってことになるんだろうかって意味です
なんのckptで学習したか分からないptが手元にあって悩んでる

108:名無しさん@お腹いっぱい。
22/10/20 12:40:46.14 yhNDZtwt.net
>>0101
スレ違いなのにみんな親切で感謝感激…
またググッてみます、ありがとうございました

109:名無しさん@お腹いっぱい。
22/10/20 13:04:39.16 W4s9BNeD.net
>>44
ちな、「models/Stable-diffusion」フォルダに複数モデルを入れてあれば
web ui起動中ならロードする前(切り替える前)に、左上に出てるよ
URLリンク(imgur.com)
>>86 のコードで一度、webuiにhash値は覚えられている
URLリンク(github.com)
実際は sd_models.py#L89-L99 あたり
URLリンク(github.com)

110:名無しさん@お腹いっぱい。
22/10/20 13:36:43.61 P+P7VcZk.net
imagicのcolab試そうと思ったらエラー出ちゃった
train_imagic.py: error: unrecognized arguments: black hair, wearing parka, neck accessary.jpg
Traceback (most recent call last):
File "/usr/local/bin/accelerate", line 8, in <module>
sys.exit(main())
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/accelerate_cli.py", line 43, in main
args.func(args)
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/launch.py", line 837, in launch_command
simple_launcher(args)
File "/usr/local/lib/python3.7/dist-packages/accelerate/commands/launch.py", line 354, in simple_launcher
raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)
subprocess.CalledProcessError: Command '['/usr/bin/python3', 'train_imagic.py', '--pretrained_model_name_or_path=hakurei/waifu-diffusion', '--output_dir=/content/stable_diffusion_weights/imagic', '--input_image=/content/stable_diffusion_weights/imagic/girl,', 'black', 'hair,', 'wearing', 'parka,', 'neck', 'accessary.jpg', '--target_text=a girl eat hamburger.', '--seed=3434554', '--resolution=512', '--mixed_precision=fp16', '--use_8bit_adam', '--gradient_accumulation_steps=1', '--emb_learning_rate=1e-3', '--learning_rate=1e-6', '--emb_train_steps=500', '--max_train_steps=1000']' returned non-zero exit status 2.

111:名無しさん@お腹いっぱい。
22/10/20 13:39:28.53 P+P7VcZk.net
>>109
ノートブック
URLリンク(colab.research.google.com)
原因わかったら教えてください

112:名無しさん@お腹いっぱい。
22/10/20 13:40:08.53 uCyPcyDU.net
>>74
>>89
レスありがとう
スクリーンショットを見せるまでもなくNMKD独自の仕様が原因っぽいなこれ
頑張って1111を入れてみるわ

113:名無しさん@お腹いっぱい。
22/10/20 14:17:28.64 HpfppTqv.net
1111は生成中のプログレスバーに残り時間が出るようになってとてもよい

114:名無しさん@お腹いっぱい。
22/10/20 14:21:19.58 DCj4hfUQ.net
>>112
ワイ更新していないけどパーセント表示やなくて?時間?
だったら更新してみるか

115:名無しさん@お腹いっぱい。
22/10/20 14:27:22.91 7vO1T0cQ.net
パーセントと同時にETAも表示されるようになった
こういう小業をおろそかにしないあたりが、1111の支持される理由だよなあと思う

116:名無しさん@お腹いっぱい。
22/10/20 15:19:39.32 W4s9BNeD.net
>>109
「Upload your 1 image by running this cell.」
のとこで、カンマや空白なしの短いファイル名を使ってみて
もしやtrain_imagic.pyへの INPUT_IMAGE の入力で
「~parka, neck accessary.jpg」ってへんなファイル名が原因な気がする
blackhair.jpgとかtest.jpgとか手短なのに変えてみよう

117:名無しさん@お腹いっぱい。
22/10/20 17:24:13.42 HpfppTqv.net
>>114
開発者じゃない誰かが作って、取り入れてよとプルリクエストを出したのかもしれない
オープン開発の強みだね

118:名無しさん@お腹いっぱい。
22/10/20 17:29:44.42 hbNLpqWA.net
人と金が集まる限りOSSは最強、集まれば

119:名無しさん@お腹いっぱい。
22/10/20 19:50:36.16 P+P7VcZk.net
>>115
できた!ありがとう
そしてこの技術、なんか結構すごい
ハンバーガーは食わせられなかったけど画風の再現度は比較的高くて構図と顔のバランスは完璧
多分ピースサインとか服替えくらいなら、は、トレスじゃない程度に変化させつつできる

120:名無しさん@お腹いっぱい。
22/10/20 19:54:44.58 dvDA1RmE.net
手づかみで食う萌え絵なんて皆無に近いのにNAIに食い物食べさせようとすると途端に手づかみ始めるの
少しでも手を抜いて楽しようとするDeep Learningの性質が可視化されてておもしろいな
これだけ手


121:抜きしようとするバイアスが強いと複雑な構図は当面難しいのかもしれん



122:名無しさん@お腹いっぱい。
22/10/20 20:43:29.25 bQQjamvg.net
プロンプトに従って生成するから、箸とかスプーンとか指定しないと描写できないのは正しい挙動やも
アスペだと思って説明するのが良いのかもな

123:名無しさん@お腹いっぱい。
22/10/20 20:57:19.35 kWEX44nl.net
そもそもCEOがアスペって話を語ってたね

124:名無しさん@お腹いっぱい。
22/10/20 20:59:06.94 jF/ZGOIs.net
手の位置なんかが今のモデルだときちんと学習されてないからいくら細かく説明しても無理だろ。ガチャになる
現実的にはi2i。t2iでがんばりたいなら学習

125:名無しさん@お腹いっぱい。
22/10/20 21:00:49.26 71+yhCVw.net
頑張って手を加筆したのにAIにゴミかなんかと認識されて消されちゃう

126:名無しさん@お腹いっぱい。
22/10/20 21:09:54.00 jF/ZGOIs.net
あるあるw
指だとマニキュアを塗っておくといいって聞いたな
試してないからどのくらい効くのかは不明

127:名無しさん@お腹いっぱい。
22/10/20 21:12:47.00 Uw/FM52X.net
hypernetworkのlayer structureって何枚以上なら深くした方が良いとか何も目安ないのか

128:名無しさん@お腹いっぱい。
22/10/20 21:18:31.50 fy4YfJ+z.net
URLリンク(twitter.com)
layer structureはこの人がPR出したしコンタクト取ってみては
(deleted an unsolicited ad)

129:名無しさん@お腹いっぱい。
22/10/20 21:27:30.43 IxciBZIl.net
>>119
手抜きじゃなくてpromptと学習データに忠実なんだよ
逆にpromptを作ってる人間が手抜きしてると言った方が良い

130:名無しさん@お腹いっぱい。
22/10/20 21:44:08.72 HpfppTqv.net
麺をすするのはslurpで表現できたよ
しかし箸をなかなかちゃんと持ってくれない
3本以上の箸はざら、正しい持ち方はまず無理
URLリンク(i.imgur.com) これがわりとすぐ出てきたので油断した
URLリンク(i.imgur.com) うまく食べてるようで全然うまくいってない
URLリンク(i.imgur.com) 口元で箸と麺がごっちゃになっている
URLリンク(i.imgur.com) どんぶりから割り箸?メンマ?が立ち上がっている
URLリンク(i.imgur.com) 箸の処理がとにかく難しいようだ
URLリンク(i.imgur.com) 麺の前後関係がいろいろおかしい
URLリンク(i.imgur.com) 「この味は…お父さん…!?」
URLリンク(i.imgur.com) 箸の持ち方はともかく麺のすすり方が一番よかったのがこれ
URLリンク(i.imgur.com) プロンプトがある程度固まったところで36枚連続で出してみたもの。打率の低さがよくわかる

131:名無しさん@お腹いっぱい。
22/10/20 22:30:23.07 xqjiqLUE.net
飯テロ

132:名無しさん@お腹いっぱい。
22/10/20 23:07:14.15 y8UXCLHw.net
しかしすごい食べ方だな
やっぱりAIはこういうの出すときが面白い

133:名無しさん@お腹いっぱい。
22/10/21 00:01:14.65 zvW7DEoD.net
>>128
箸大量に持つのはもうデフォだしslurpですすらせても7枚目みたいな舌みたいな物体口から出してるのばっか出て麺すすってくれないわ

134:名無しさん@お腹いっぱい。
22/10/21 00:41:28.43 MXW0/TnA.net
StableDiffusion v1.5公開
URLリンク(huggingface.co)

135:名無しさん@お腹いっぱい。
22/10/21 02:08:21.34 ZVmSdpN8.net
DB作成のfp16ckptとfp32ってサイズが倍違うけど品質そんなに差があるの?
比較して作っても絵柄は一緒で細かい部分しか変わらずどっちが良い悪いとかなかったけど

136:名無しさん@お腹いっぱい。
22/10/21 02:13:09.38 +f3bihHp.net
非公式v1-5
なんか普通だな…

137:名無しさん@お腹いっぱい。
22/10/21 02:59:01.18 waK2Ivk1.net
>>133
画像という物の性質的に、fp32だから綺麗で正しい、fp16だから粗悪で間違いというわけではないからあんまり気にしなくて


138:いい このseedとpromptならfp32版がいいなってのもあるし、その逆もありうるからね



139:名無しさん@お腹いっぱい。
22/10/21 05:22:51.51 VRtKdqzh.net
古いGPUではよりAI演算向けに採用されたfp16が遅いものがあるからそっちの方が問題
単純に同じ32ビットのデータの受け渡しでfp16はfp32のほとんど使われない小数点以下の23bitを中心に思いっきり詰めて
倍の速度で演算しようっていうやり方なの
膨大な演算の中で演算中に捨てられていく小数点以下で多少の誤差はあるけど見た目でわかる範囲ならもっと話題になってるよ
見た目で差がわかってもfp16/fp32でこっちがいいっていうのはあるだろうけど、どっちが正しいというものじゃないからねぇ

140:名無しさん@お腹いっぱい。
22/10/21 06:29:46.16 9WMx4iO1.net
朝から滅茶苦茶だな。fp16は指数部も切り詰められてる普通の16ビットだよ
古いgpuでfp16の方が32よりも遅いのがあるかどうかは知らないけど、sd関連でよく言われるfp16の選択はそもそもvram節約のため
遅かろうがcpu使うよりは爆速だから問題ない

141:名無しさん@お腹いっぱい。
22/10/21 07:51:20.52 NO7Yv6GH.net
結局sd1.5はどういうことなんや? 公式でええんか?

142:名無しさん@お腹いっぱい。
22/10/21 07:55:45.80 Whkats22.net
「動作」を学習させるには静止画では無理があるな
出力するのが静止画であって学習は動画で行う必要がありそうだ

143:名無しさん@お腹いっぱい。
22/10/21 08:21:18.79 eRCYDaLX.net
公式は1.4の後何も動きないよね
なんなんだろう

144:名無しさん@お腹いっぱい。
22/10/21 08:50:58.14 RqBiJjo9.net
昨日か一昨日、ネットで発表してたから11月までには来るんじゃね?

145:名無しさん@お腹いっぱい。
22/10/21 09:06:05.43 abT+glr8.net
HN効きまくってる人ってどういう画像をどういう枚数でどれくらいのステップやってんだろ
6枚を左右反転させた12枚で30000ステップさせたけど「無い方が良くね?…」って結果になって悲しい
5枚とか少ない方が良いとか100枚以上読ませたほうが良いとかあって混乱

146:名無しさん@お腹いっぱい。
22/10/21 09:19:28.56 RqBiJjo9.net
と思ったら、キタw
URLリンク(huggingface.co)

147:名無しさん@お腹いっぱい。
22/10/21 09:25:02.85 drgdmwAM.net
>>143
いやいや、これは>132と同じで、Stability AIのアカウントじゃないでしょ

148:名無しさん@お腹いっぱい。
22/10/21 09:26:32.58 NH1hIngu.net
>>143
それなあ、公式じゃないんだよなあ。でも中身はほぼ公式みたいなんだよなあw

149:名無しさん@お腹いっぱい。
22/10/21 09:27:26.73 zpUZ3NIZ.net
>>142
学習率によるけど30000は多い
20枚、5e-6で1500、5e-7で10000が相場って言われてるけど細かいところは微調整かな
5e-6でいい感じになるまでやってから5e-7で追加で回すみたいな

150:名無しさん@お腹いっぱい。
22/10/21 09:37:44.32 abT+glr8.net
>>146
多かったの?!!
初期設定が10万だから足りないのかと思った…
5e-6だから1500程度で良かったなんて…
過学習てやつになってんのかぁ…

151:名無しさん@お腹いっぱい。
22/10/21 09:56:58.11 MXW0/TnA.net
なんかよく分からんなこのSD
半公式みたいな感じ

152:名無しさん@お腹いっぱい。
22/10/21 09:59:46.29 87QhY7XS.net
VRAM4GBでも1111省メモリならv1.5も動かせるね

153:名無しさん@お腹いっぱい。
22/10/21 10:00:09.69 9WMx4iO1.net
リークらしい。このリークばっかだな。いいぞもっとやれ
URLリンク(huggingface.co)

154:名無しさん@お腹いっぱい。
22/10/21 10:09:00.21 oesNOrqW.net
今の1111ってpythonを仮想化してモジュール入れて、引数付けるだけでxformers入れてって全部やってくれるんだな
この辺手動で設定してた頃の情報が全部ノイズになってるな

155:名無しさん@お腹いっぱい。
22/10/21 10:09:23.23 87QhY7XS.net
redditにまとめられてた経緯の要約
URLリンク(www.reddit.com)
よくわからんけどemad曰く問題ないらしい

156:名無しさん@お腹いっぱい。
22/10/21 10:29:02.97 wZcQ0oQi.net
Emad氏の立場がコレだから
URLリンク(six-loganberry-ba7.notion.site)
広まってくれるならなんでも許される気がする

157:名無しさん@お腹いっぱい。
22/10/21 10:52:39.26 U6poXslT.net
ハローアスカか試してみたんだけどなんか顔だけ崩れてて上手くいかんのだけど
どこか設定間違ってる?
URLリンク(imgur.com)
URLリンク(imgur.com)

158:名無しさん@お腹いっぱい。
22/10/21 11:21:43.27 hZt68tet.net
その設定画面みてて
そういやおれ俺GFPGANいれてねーな
というか導入の記事みててGFPGANいれろなんてなかった気が
いや、1,4を入れるなんてのもあったことはあったが
入れないことで窓アスカじゃないものが出力されるんだろうか
なおCPUで動かす場合だが
むりか
というかハローアスカのキモはENSDの設定値を初期値0にしておくことimg2imgでオイラー設定にしておくことだからな
レイヤーを2にってのはよく見かけるけれど、それよりもオイラーよ
NAIの標準であるオイラーaに準じてならアスカ出力後にENSDの数字変えてオイラーaにする必要がある
この設定みてるとできてるんじゃねとしか
あと忘れがちなのがapply settingsを押して確定しておくことか

159:名無しさん@お腹いっぱい。
22/10/21 11:35:07.38 VILOxZ33.net
顔・目がきれいに出ないのはvae.ptが読み込まれてないパターンでしょ しらんけど

160:名無しさん@お腹いっぱい。
22/10/21 11:58:55.13 YK438ocS.net
vaeってどういう効果あるんじゃろ

161:名無しさん@お腹いっぱい。
22/10/21 12:07:45.28 U6poXslT.net
>>155
>>156
GFPGAN抜いて
vae.pt入れ直したらハローアスカできたわ
助かったありがとう

162:名無しさん@お腹いっぱい。
22/10/21 12:12:58.04 B4Ejb01g.net
>>154
Restore facesのチェック外してみ

163:名無しさん@お腹いっぱい。
22/10/21 12:15:22.60 B4Ejb01g.net
>>159
おっと、リロードしてなかった...

164:名無しさん@お腹いっぱい。
22/10/21 13:06:12.77 SbwYZ3El.net
>>133
そもそもAUTOMATIC1111はfp16でしか読み込まないからfp32は無意味って聞いたよ

165:名無しさん@お腹いっぱい。
22/10/21 13:13:49.73 HcGYdvdy.net
技術系ディスコで出てた「Dreamboothでキャラ学習させた後、そのトークンをdeepbooruで生成されたタグファイルに付け加えてそのタグファイルでEmbeddings学習させる」っての面白いな
Dreamboothだと細かいキャラの雰囲気とかがいまいち再現されなくて困ってたけどこれするとかなり似るわ
学習ステップはかなり少なくて良さそう

166:名無しさん@お腹いっぱい。
22/10/21 13:30:22.21 hsUhZ6r7.net
>>161
オプションで「--no_half」使えばfloat32で読み込むことはできるらしい

指定しないとデフォルトはtorch.float16になるんで
基本fp16でしか読み込まないって話になるのかも

ソースはsd_models.py
github.com/AUTOMATIC1111/stable-diffusion-webui/blob/f894dd552f68bea27476f1f360ab8e79f3a65b4f/modules/sd_models.py#L177

まあ、ぶっちゃけ品質に大差はないきがする
服の柄とか装飾が少しだけ変わったり、僅かに違う絵が生成されたりする

167:名無しさん@お腹いっぱい。
22/10/21 13:34:11.38 3XBFjZmp.net
推論はfp16でもあんまり違いないけど学習はfp32が良いと思う

168:名無しさん@お腹いっぱい。
22/10/21 14:04:35.13 kfCVTtGa.net
間違ってネガティブプロンプトにプロンプトと同じ呪文をぶち込んで放置してたら大量の現代アートが生成されてしまった

169:名無しさん@お腹いっぱい。
22/10/21 14:07:14.66 XwYjYyyr.net
これやれ!でもするな!
AIちゃん「うっひょー!あばばばばhq54ぽj」

170:名無しさん@お腹いっぱい。
22/10/21 14:49:51.03 hZt68tet.net
>>158
なるほど、逆に考えると1111の導入なんかの記事でGFPGAN入れろとか書いてるのは
ハローアスカの再現する場合にはよろしくないのかもな
1111の記事かimugerの記事のハローアスカの記事ではGFPGANの事は記されていないはずだし
ハローアスカで再現できたらいろいろカスタムしてねってことでGFPGAN入れればいいだけで

171:名無しさん@お腹いっぱい。
22/10/21 14:56:44.81 hZt68tet.net
>>159
ワイ初期値でしか触っていないけれどそれもやな
今ワイ環境チェックしたら
txt2imgタブのRestore facesもチェック外れてるからそれもや

172:名無しさん@お腹いっぱい。
22/10/21 15:46:00.79 VILOxZ33.net
今回のケースはトラブルシューティングのvae.ptが無い時の画像と一致してるから他の話は大体的外れ
Troubleshoot Common "Hello Asuka" Errors (Euler)
URLリンク(imgur.com)

173:名無しさん@お腹いっぱい。
22/10/21 16:05:27.02 Lb02ee17.net
ちょっとストレージに余裕がないからHDDにつっこんでやってるんだけども
必要なデータは全部オンメモリでないとあかんみたいな話どっかで見た気がするから
ckpt読込はSSDより遅いけど、その後の生成速度はHDD/SSDで大して変わらんって認識でいいですかね

174:名無しさん@お腹いっぱい。
22/10/21 16:10:11.52 YK438ocS.net
読み込み終わればあとは一死よ
画像保存速度はまた影響あるかもだけど

175:名無しさん@お腹いっぱい。
22/10/21 16:31:03.98 Lb02ee17.net
ありがとう
小物ファイルのストレージ読み書きくらいで生成処理自体には影響なさそうなので
当面HDD運用しときます

176:名無しさん@お腹いっぱい。
22/10/21 16:44:41.85 3XBFjZmp.net
特にマージとかはHDDでやった方が良いな。SSDでやると寿命がマッハ
CrystalDiskInfo見てみたら総書込み量のグラフが指数関数みたいになってたわ…

177:名無しさん@お腹いっぱい。
22/10/21 16:52:37.79 VSk38xBB.net
>>167
GFPGANはハローアスカにはまったく無関係やで
むしろ入れておいてもなにも問題あらへん
というかAutomatic1111使う人はほぼ必ず入れてる

178:名無しさん@お腹いっぱい。
22/10/21 16:58:18.34 vvFuW/Cw.net
公開されたv1-5-pruned-emaonly.ckptはsd-v1-4.ckptとまったく同じサイズなんだね
3.97 GB (4,265,380,512 バイト)

179:名無しさん@お腹いっぱい。
22/10/21 17:16:30.77 bFxjWM09.net
学習元も同じだよ

180:名無しさん@お腹いっぱい。
22/10/21 17:42:57.27 NU6s9KP3.net
runwayが公開した最新のインペイントモデル
URLリンク(huggingface.co)
1111版でも利用できるようになったらしい
URLリンク(github.com)

URLリンク(i.imgur.com)
URLリンク(i.imgur.com)
URLリンク(i.imgur.com)

181:名無しさん@お腹いっぱい。
22/10/21 17:46:33.32 3XBFjZmp.net
inpaint時にモデル切り替えて使うって事?

182:名無しさん@お腹いっぱい。
22/10/21 17:55:48.27 NU6s9KP3.net
>>178
多分そうだと思う

183:名無しさん@お腹いっぱい。
22/10/21 18:40:30.39 kBCPEbqb.net
顔が複雑なキャラの全身絵をDreamboothで学習させると顔が下手くそ問題
全身絵をステップ数少なめで学習させたモデルと、顔アップでステップ数多めで学習させたモデルの2つ用意して
全身学習モデルで生成→顔学習モデルで生成した画像の顔部分をインペイントで修正
ってやったらうまくいった

184:名無しさん@お腹いっぱい。
22/10/21 19:55:43.75 TpTF0n0Z.net
>>173
それHDDでやったら無限に時間かかるってことじゃないのか?

185:名無しさん@お腹いっぱい。
22/10/21 20:07:42.67 0wkvfHyn.net
一時期HDDマイニングで脚光を浴びたPrimoCacheがここでも注目されるまさかの展開

186:名無しさん@お腹いっぱい。
22/10/21 21:19:16.69 hZt68tet.net
>>174
CPUだけで動かしてひーこらしてるから余計なの


187:入れて重くしたくないなぁって思ってたんよな 画像がでてくるまでもすげー時間かかるし でもまぁ、そういうことならとりあえず入れておくか 使わなけりゃ settingでGFPGANにチェックいれてなければいいだけってことやろ



188:名無しさん@お腹いっぱい。
22/10/21 21:20:14.45 U9ARqcgI.net
4090買お?

189:名無しさん@お腹いっぱい。
22/10/21 21:21:21.10 oesNOrqW.net
>>180
40万+電源+冷却+専用電線はちょっと

190:名無しさん@お腹いっぱい。
22/10/21 21:21:49.77 oesNOrqW.net
ごめん
>>184

191:名無しさん@お腹いっぱい。
22/10/21 21:24:09.82 I9LBNeoJ.net
どんどん円安が進んでいくからある意味常に今が買い時

192:名無しさん@お腹いっぱい。
22/10/21 21:26:10.39 9WMx4iO1.net
ドル151.8円だもんな。もう40xxなんて無理よ

193:名無しさん@お腹いっぱい。
22/10/21 21:28:46.07 VLysX14o.net
>>188
ふぁって?なった
打ち上げ花火みたいになってるなw

194:名無しさん@お腹いっぱい。
22/10/21 21:30:52.47 6V+eYaY5.net
3090の方がいいだろう
15万位だな

195:名無しさん@お腹いっぱい。
22/10/21 21:57:06.49 NRGQYIHp.net
ある程度画力無いとi2iでAIに加筆したものを正しく認識させるの難しいな
画力高い人が有利なのに変わりないな

196:名無しさん@お腹いっぱい。
22/10/21 22:03:27.15 KJS4brb8.net
hypernetwork
学習画像30枚くらい学習率0.000005で数万ステップやってるけど
過学習というか壊れてきてる感じがない
別によくなるわけでもなく、このままずっとこんな感じなのかな

197:名無しさん@お腹いっぱい。
22/10/21 22:21:47.78 zpUZ3NIZ.net
>>192
学習途中のプレビューでは大丈夫だけど、実際に適用してprompt打ち込むと壊れてるケースがある

198:名無しさん@お腹いっぱい。
22/10/21 22:34:44.65 KJS4brb8.net
そうなのか~~
hypernetworkも中々難しいな

199:名無しさん@お腹いっぱい。
22/10/21 22:55:37.92 zpUZ3NIZ.net
俺も目下やってるけど全然うまくいかない
きっと画風ってめちゃくちゃ繊細なんだろうね

200:名無しさん@お腹いっぱい。
22/10/21 23:50:29.49 NGw5Ptkx.net
Aesthetic embedding面白いね

201:名無しさん@お腹いっぱい。
22/10/22 00:25:42.81 X/fRIeN4.net
いつぞやにスレでも話に上がった分散型トレーニング、実現するみたいだな
参加するのにVRAM18GB必要みたいだからハードルが高いが…

202:名無しさん@お腹いっぱい。
22/10/22 00:28:03.24 qtVlgtao.net
>>196
なんかまた機能増えたの?

203:名無しさん@お腹いっぱい。
22/10/22 01:46:15.48 ylTqe+Oc.net
>>197
まじか
いろんなモデル出てきそうで楽しみ

204:名無しさん@お腹いっぱい。
22/10/22 01:47:53.96 mRX4uXQg.net
imagicって8GB環境でも動きます?
はやくstable diffusion Web uiにも実装されてほしい

205:名無しさん@お腹いっぱい。
22/10/22 02:20:37.69 ylTqe+Oc.net
SD1.5 girlだけ入れるとめっちゃ黒人出てこない?

206:名無しさん@お腹いっぱい。
22/10/22 02:27:37.98 hG++RA1d.net
うわぁ・・ついにご配慮来たのか
かなり前にDALLEがやって批判されてたのに
URLリンク(www.techno-edge.net)

207:名無しさん@お腹いっぱい。
22/10/22 02:36:22.40 UBnWxhgv.net
黒人はネガティブプロンプトで排除だ排除

208:名無しさん@お腹いっぱい。
22/10/22 02:38:24.33 ylTqe+Oc.net
>>201
novelAIのネガティブプロンプトが入ってた 取ったら同シードで白人になったわ


209:名無しさん@お腹いっぱい。
22/10/22 02:46:52.81 Sk/NlD/F.net
SD1.4でもwdもNAIも黒人って見てない気がするな指定しなきゃ出ないのかな

210:名無しさん@お腹いっぱい。
22/10/22 03:04:49.27 ylTqe+Oc.net
比較
URLリンク(i.imgur.com)
a high school girl
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low


211: quality, normal quality, jpeg artifacts, signature, watermark, username, blurry Steps: 23, Sampler: Euler a, CFG scale: 12.5, Seed: 2924474267, Size: 512x512, Model hash: a9263745, ENSD: 31337 https://i.imgur.com/qWwepdO.jpeg a high school girl Steps: 23, Sampler: Euler a, CFG scale: 12.5, Seed: 2924474267, Size: 512x512, Model hash: a9263745, ENSD: 31337



212:名無しさん@お腹いっぱい。
22/10/22 03:16:57.31 ylTqe+Oc.net
SD1.4でも同じことが起こった
URLリンク(i.imgur.com)
URLリンク(imgur.com)

213:名無しさん@お腹いっぱい。
22/10/22 03:26:01.32 Sk/NlD/F.net
へー。NAIの使うと出やすくなるのか

214:名無しさん@お腹いっぱい。
22/10/22 03:55:59.97 L/XYDd2n.net
黒人の写真のほうがコントラスト高くなって明暗がハッキリしてるから『良い絵』だと判定されてるのかもなー

215:名無しさん@お腹いっぱい。
22/10/22 06:24:07.88 h1Bf/WQq.net
な?
これが「企業にAIのプログラムを独占されてはいけない理由」なんだよ

216:名無しさん@お腹いっぱい。
22/10/22 06:39:40.48 rrs9Ah94.net
>>206,207
女子高生は白い歯出して笑うという学習があり、
黒人の方が白い歯出して笑うのが歪み少ないようにAIが判断しているのかな

217:名無しさん@お腹いっぱい。
22/10/22 07:02:50.66 OOskVO3j.net
>>202
3ヶ月ぐらい前の話題だこれ

218:名無しさん@お腹いっぱい。
22/10/22 07:31:40.76 mROUdVz7.net
指定してないとこは勝手に出すのは当然じゃん
モデル事務所に頼む時も人種指定しなきゃ余り物バンバン押し付けられるぞ☺

219:名無しさん@お腹いっぱい。
22/10/22 07:52:56.32 59DRyO/j.net
自分もDreamboothで以下のText Encoderのファインチューンやってみたけど
確かに学習率を下げることはできたけど学習stepを厳選した時より別に生成画像が改善しているわけではなかった。
URLリンク(wandb.ai)
効果あった人います?

220:名無しさん@お腹いっぱい。
22/10/22 09:41:42.24 XkF1robj.net
何を元データにしてどうしたくて何を変えようとしたのか、読み手に伝わる質問しできるようにならないとな
AIはもっと融通が利かない
AIが読み取りやすいノイズやごみの少ないデータと、再利用されやすいバリエーションで再現率上げるデータがあるのが前提だもんな
人間の目でいえば曇りガラスや霧の向こうより、コントラスト高めの高精細な真夏の屋外みたいな写真や安定したアウトラインのあるアニメ調の方が認識しやすいし
そこへ背景なのかキャラクタの顔なのか服装なのかエフェクト的なものを含めた画風なのかすべて用意するデータも傾向も違う
大雑把に言えば全身入れれば顔がつぶれる、気を利かせた同色の背景に馴染んでるコスチュームは見分けがつかないそんなところを気にすると安定しやすくなるよ
まぁ回数こなして癖を知るしかない

221:名無しさん@お腹いっぱい。
22/10/22 09:49:40.72 N/+Ox+2I.net
キャラではなく画風を覚えさせたくて背景込でHN学習させたらロスが連続0.16台で多い…
黎明期ゆえに海外でも手探り状態で正解がわからない…
しかしファインチューニングは面白い…

222:名無しさん@お腹いっぱい。
22/10/22 10:03:32.80 5FaanduC.net
URLリンク(imgur.com)
自分の絵を喰わせまくったら完全にコピーしてくれた
どうにしかして金に出来ないか

223:名無しさん@お腹いっぱい。
22/10/22 10:06:46.89 Fd+N1qUO.net
私の絵柄でキャラを最新技術で100体デザイン即日納品しますとか

224:名無しさん@お腹いっぱい。
22/10/22 10:15:46.05 uUOsKZH/.net
AI生成で100体ラフ(?)見せるんで気に入ったのあったらそこから仕上げます、とかですかね

225:名無しさん@お腹いっぱい。
22/10/22 10:34:44.71 y1/x81sL.net
Adobeの待とう

226:名無しさん@お腹いっぱい。
22/10/22 13:39:44.95 t4odu15N.net
URLリンク(danbooru.donmai.us)

227:名無しさん@お腹いっぱい。
22/10/22 13:41:48.31 HdjJkUfB.net
>>217
自分が普段から依頼受けてるならその手順をAIで加速すればいいだけでしょ
絵師がツールとして使って、修正もちゃんとしてるなら何の問題もないし

228:名無しさん@お腹いっぱい。
22/10/22 13:42:28.03 HdjJkUfB.net
絵師の場合下手に安売りしたところでむしろ収益下がるだけだと思う
AI絵師は元々の価格帯なんてゼロだから損しないけど

229:名無しさん@お腹いっぱい。
22/10/22 14:02:29.78 vkXywgoz.net
漫画にすればいいんじゃね

230:名無しさん@お腹いっぱい。
22/10/22 14:10:48.80 vSbXCGdN.net
>>217
絵だけ用意しました、でお金稼ぐのはさすがに難しい
その絵でゲームなりマンガなりコンテンツを自分で作るしかないな

231:名無しさん@お腹いっぱい。
22/10/22 15:08:52.47 I7pZrM1p.net
>>217
その学習工程をドキュメント化してBrainで売るとか?

232:名無しさん@お腹いっぱい。
22/10/22 15:11:38.47 aXjhwshw.net
NAIのローカル版ってWebUIの環境設定ができてりゃ基本的にはモデルとVAEを持ってきてファイルに入れるだけって認識でいいの?

233:名無しさん@お腹いっぱい。
22/10/22 15:17:46.45 OijEUlJ7.net
ええで

234:名無しさん@お腹いっぱい。
22/10/22 15:22:10.39 I7pZrM1p.net
世界一の呪文使いの称号が得られる大会とかやるでしょきっと

235:名無しさん@お腹いっぱい。
22/10/22 15:56:28.47 jRJuGo6F.net
>>206
これもう健全な肉体持つのは黒人ですわー宣言で草

236:名無しさん@お腹いっぱい。
22/10/22 15:58:17.23 jRJuGo6F.net
>>207
なんでいままで気づかなかったレベルでNAIとSDユーザー被ってないんやな

237:名無しさん@お腹いっぱい。
22/10/22 16:15:58.98 lGDUOyXt.net
high school girl単体で使うことまずないからな
high school girl, kawaiiって感じにしたらNAIネガで黒人出てこない

238:名無しさん@お腹いっぱい。
22/10/22 16:44:16.48 +Qdr8AX0.net
まあ本音を言えば黒人出てこない方が手間が省けてええやろ

239:名無しさん@お腹いっぱい。
22/10/22 18:19:22.07 X/fRIeN4.net
白人から言えばアジア人も同じかもな
4chanのプロンプトのネガにAsianって入ってたりするし

240:名無しさん@お腹いっぱい。
22/10/22 18:20:46.98 HdjJkUfB.net
つか何を出したいかによるんだからどうでもいいだろ……
逆にベースとしては人類って入れたら全人種出る、で別にいいんじゃね

241:名無しさん@お腹いっぱい。
22/10/22 18:22:03.61 OijEUlJ7.net
昔のムーランみたいなアジア顔を除去したいんだろう

242:名無しさん@お腹いっぱい。
22/10/22 18:31:17.10 5Qc4iwZ0.net
実写系をJapanese,Chineseで出力したらほぼ同じような顔出るし学習量の問題もあるやろ

243:名無しさん@お腹いっぱい。
22/10/22 18:33:35.42 BoyEFN+K.net
結構時間かけて人種別の女の子出してたことがあったが
タイ、ベトナム、中国 日本、タヒチとかでも結構違ってて正確だなと思った(自分の感覚ではね)
○○人って入れたほうがいいと思うけどね

244:名無しさん@お腹いっぱい。
22/10/22 19:08:52.65 5fhbPnA7.net
>>237
正直、SDでも学習の幅は全然足らんからな
「samurai」とか入れても、中華映画に出てくる中華鎧みたいなのばっか書いてくる
まだまだAIの知識はまだら模様で、割と当たり前の部分でも結構抜けがある感じ

245:名無しさん@お腹いっぱい。
22/10/22 19:17:40.68 6gVsyz9w.net
eスポーツみたいなノリでテーマに沿ったAI絵をその場で作るみたいな大会とかそういう風に一般的になるといいにゃー

246:名無しさん@お腹いっぱい。
22/10/22 19:24:56.58 M4bGVWRW.net
imagicのノート公開されてる。
URLリンク(colab.research.google.com)

247:名無しさん@お腹いっぱい。
22/10/22 20:07:14.98 HdjJkUfB.net
>>240
競技プログラミングみたいだな

248:名無しさん@お腹いっぱい。
22/10/22 20:24:02.54 8TGmW48L.net
どっちかっていうとその場でお題を告げられる料理番組みたいな

249:名無しさん@お腹いっぱい。
22/10/22 20:38:00.53 uUOsKZH/.net
適当に写真貼って完成した絵をプロンプト付きで出して下さいってやったらどこでも出来るなw

250:名無しさん@お腹いっぱい。
22/10/22 21:17:04.84 HdjJkUfB.net
プロンプトデュエルアニメが生まれる時代も近い

251:名無しさん@お腹いっぱい。
22/10/22 22:15:44.19 3/7/1me8.net
5ちゃんにそういうスレあったら面白いと思ってたんだよな

252:名無しさん@お腹いっぱい。
22/10/22 22:29:31.62 lGDUOyXt.net
今日のお題みたいな感じでみんなでプロンプト競い合って作るスレな。あったら面白いけど
どうせすぐにこんな絵のプロンプトくれくれスレになるw

253:名無しさん@お腹いっぱい。
22/10/22 22:30:12.19 5FaanduC.net
時短のためにTIとかHN必須になっているから
プロンプトってそこまで重要じゃない気もする

254:名無しさん@お腹いっぱい。
22/10/22 22:33:34.92 sme/FRcM.net
ここまで粘り強くAIやってる人は
かなりの割合でTIぐらいはやってるだろうしな
なんか素材集めたりパラネーターの数字いじったり、最初の頃に思ってるのとはだいぶ違うAI画像ライフになってる

255:名無しさん@お腹いっぱい。
22/10/22 22:38:37.53 5FaanduC.net
「文字入れるだけでイラスト作れる」が最初なのに、
効率を求めた結果、言語化が面倒になった

256:名無しさん@お腹いっぱい。
22/10/22 22:53:33.36 I7pZrM1p.net
詳細は伏せるけど
1枚0.005ETHのAI絵が即売れしたらしい

257:名無しさん@お腹いっぱい。
22/10/22 23:14:24.66 jRJuGo6F.net
ほんとにくっそどうでもいいなそれ

258:名無しさん@お腹いっぱい。
22/10/22 23:17:21.23 5FaanduC.net
その情報に何の価値があるんだ?
流石に詳細明かせよ

259:名無しさん@お腹いっぱい。
22/10/22 23:23:31.68 /mAw3n2R.net
質問なんだけど他人がTwitterに投稿しているAIイラストを勝手に高画質化AI通して相手にリプするってアリ?ネットリテラシーの問題だと思うけど

260:名無しさん@お腹いっぱい。
22/10/22 23:24:30.89 lGDUOyXt.net
1ETH40万だとしても2000円だよ
どうせ今は1ETH10万とかだろ?詳細あってもゴミ情報でしかない

261:名無しさん@お腹いっぱい。
22/10/22 23:26:58.66 OijEUlJ7.net
>>254
なんでそんなことをするのかわからん
小さいの上げてるから大きくしてやるよってこと?

262:名無しさん@お腹いっぱい。
22/10/22 23:27:01.99 qtVlgtao.net
そろそろお前らは総合スレへ行くんだ
スレリンク(cg板)

263:名無しさん@お腹いっぱい。
22/10/22 23:28:54.32 lGDUOyXt.net
>>254
ネットリテラシー以前の問題としてやる意味が分からない
唐突にリサイズされて送られてもだから何??って状態
俺だったら即ブロックで終わり

264:名無しさん@お腹いっぱい。
22/10/22 23:32:00.22 5FaanduC.net
1枚500円か そりゃ即売れするわ
ココナラとスキマは最低価格が高すぎてAI絵は売れる気がしない
詰んでる

265:名無しさん@お腹いっぱい。
22/10/23 00:10:13.11 Jv5euTB8.net
AI画像もNFTアートとして売れば独自性を主張できるな

266:名無しさん@お腹いっぱい。
22/10/23 00:22:07.38 /7akjf4X.net
>>254
アリとかナシとか以前に意味不明で気持ち悪い
なんちゅうかホラーの域だわ

267:名無しさん@お腹いっぱい。
22/10/23 00:29:53.69 /oENSYfM.net
>>254
それはネットリテラシー以前の問題だと思う
はい、あんたより高画質で上手な画像一分も掛からず作れちゃいました。
無駄な努力お疲れ
って言いたいなら送れば

268:名無しさん@お腹いっぱい。
22/10/23 00:39:19.55 SJbgths9.net
>>251
別にAI絵でなくてもコピペ使いまわし丸出しの差分絵がジェネレーティブNFTとして高額取引される世界だし
NFT絵はアムウェイの洗剤とかと同じ輪を広げて金を巻き上げる道具にしか過ぎない

269:名無しさん@お腹いっぱい。
22/10/23 00:50:50.74 H38OVxVB.net
寝てるポーズの生成が全然上手くいかないけど、良い方法あるの?

270:名無しさん@お腹いっぱい。
22/10/23 00:52:07.26 /7akjf4X.net
エロスレではdakimakuraと唱えれば成功率は上がるという研究結果があった

271:名無しさん@お腹いっぱい。
22/10/23 00:55:29.40 +OTk1lkt.net
横向きの寝てるポーズは基本的にうまくいかんな
打率が100分の1になるようなイメージ。縦なら上の人が言う通りdakimakura of xxでまあまあ上手くいくけど

272:名無しさん@お腹いっぱい。
22/10/23 00:57:34.04 /7akjf4X.net
開いた本なんかと同じで、この角度は上手くいかん素材っていうのがAIでは結構あるよね

273:名無しさん@お腹いっぱい。
22/10/23 01:51:26.68 5mif+fPK.net
寝てるポーズを集めてDBしたら上手くいくか?

274:名無しさん@お腹いっぱい。
22/10/23 02:13:40.67 LyyuQyow.net
座りポーズはDBできたよ。学習データ用意するの大変だったから二度とやりたくない

275:名無しさん@お腹いっぱい。
22/10/23 02:22:54.75 +OTk1lkt.net
まじで学習用のデータ集めが大変なのよな

276:名無しさん@お腹いっぱい。
22/10/23 02:23:54.29 +OTk1lkt.net
連投になってすまんけど、変なデータ集めるとかえって絵が下手になるしすごい素材集めが重大事

277:名無しさん@お腹いっぱい。
22/10/23 02:51:17.61 3x/brKAL.net
エロゲにモザイクがなければ良いデータセットになったのに

278:名無しさん@お腹いっぱい。
22/10/23 03:00:16.41 vD5FVmfX.net
寝てる絵ってそもそも総数自体が少なそう
AIは見たことない絵は描けない

279:名無しさん@お腹いっぱい。
22/10/23 07:18:43.89 kHzuPqw/.net
学習画像も512*512っていう制約がかなりきつい
前処理もめんどくさいしキャプションも自動だとあんま信用できないし

280:名無しさん@お腹いっぱい。
22/10/23 07:48:21.98 lp9Q2jY+.net
学習って3060でもできるの?

281:名無しさん@お腹いっぱい。
22/10/23 07:52:30.69 Rv61MoDw.net
余裕でできる

282:名無しさん@お腹いっぱい。
22/10/23 08:05:52.39 2tO5kSBj.net
ハイパーネットワークってやつで絵柄学習させてからdreamboothでキャラおぼえさせるのって出来るん?
順序逆だと出来るっぽいけど

283:名無しさん@お腹いっぱい。
22/10/23 08:43:16.45 3x/brKAL.net
TIとhypernetworkの違いを教えてくれ

284:名無しさん@お腹いっぱい。
22/10/23 08:46:23.21 tRckB+T4.net
>>276
学習速度と精度を落として省メモリ化してるのを余裕とは言わない

285:名無しさん@お腹いっぱい。
22/10/23 09:02:09.14 Rv61MoDw.net
とりあえず満足できる結果を得られるからそれで問題ない
ソフトの性能をフルに引き出すのが目的じゃないから16だろうと何だろうといいんだよ

286:名無しさん@お腹いっぱい。
22/10/23 09:33:46.48 tRckB+T4.net
次世代のStable DiffusionとWaifu Diffusionで高解像度化するのを忘れてないか?
3060のVRAM 12GBでは学習できない可能性が高い
512x512のモデルで割り切るなら3060もありっちゃありだけど

287:名無しさん@お腹いっぱい。
22/10/23 09:41:42.50 5mif+fPK.net
>>278
自分のなんとなくの理解だけど
TIは学習させた画像に近くなる書き方を単語と結びつける。学習に使ったモデルでしか使えない
HNは学習させた画像に近づけるために、プロンプト全体を調整する。学習に使ったモデル以外でも使える
って感じだと思う

288:名無しさん@お腹いっぱい。
22/10/23 09:54:47.14 3x/brKAL.net
>>282
ありがとう!

289:名無しさん@お腹いっぱい。
22/10/23 10:00:09.59 Ki6h1CqS.net
>>277
その順序に意味を持たせるなら自分でコード追加しないといけないんじゃね?
学習時にhypernetwork読み込まないだろうし

290:名無しさん@お腹いっぱい。
22/10/23 10:29:52.46 hiNWKzw+.net
>>282
TIは他モデルで使えないということはなくて、例えばSDで実写顔を学習させたものをwaifuで使うと
アニメ顔の似顔絵風が出せたりするよ

291:名無しさん@お腹いっぱい。
22/10/23 10:33:24.25 GjsUdFHb.net
原理は違うんだろうけど
使う側から見ればほぼ同じというイメージ

292:名無しさん@お腹いっぱい。
22/10/23 11:19:22.97 2tO5kSBj.net
>>284
やっぱそのままじゃダメか、ありがとう
それが出来たらキャラ覚えさせる時、同じ画風のモデル使い回せるのにな~と思って

293:名無しさん@お腹いっぱい。
22/10/23 11:21:42.53 2tO5kSBj.net
ハイパーネットワークって学習させれば他のモデルにも使える感じなのか

294:名無しさん@お腹いっぱい。
22/10/23 11:32:08.90 LyEkvEpb.net
HN、5e-6なら1500ステップで良いと書かれてたど1万超えた辺りでようやく元の絵柄に似てくる
今23000ステップ、どんどん線がくっきりしている状態は良くなっていると捉えてもOKですか?
それともノイズ発生以外でも逆に山頂を過ぎて悪くなる状態とかありえますでしょうか?

295:名無しさん@お腹いっぱい。
22/10/23 11:39:27.02 P/bzvgub.net
同じくそんな感じ
2000で十分とか言われてたけど全然そうならないからよくわからない
学習させる画像の量の問題かな

296:名無しさん@お腹いっぱい。
22/10/23 12:02:07.54 hiNWKzw+.net
最初に create hypernetwork するとき、
Select activation function of hypernetwork で選んだ活性化関数によって
ぜんぜん学習進まねぇとかある。linear 選ぶともりもり絵が変わる

297:名無しさん@お腹いっぱい。
22/10/23 12:14:53.56 EEr1AGqK.net
web ui更新したら日本語設定出来るようになった

298:名無しさん@お腹いっぱい。
22/10/23 12:16:16.70 smFY6Tyq.net
5e-06で10000ステップも回したらほぼほぼ過剰学習になる
色んなプロンプトで回して見たら分る

299:名無しさん@お腹いっぱい。
22/10/23 12:17:30.18 LyEkvEpb.net
Select activation function of hypernetworkはデフォルトの「relu」を選んでます
日々新機能搭載なのでこの関数の選択によって何がどういう状態になるのか全然わかんないですねw…
調べところ使わないという選択にあたる「linear」の方が良いという意見もあるみたいですね

300:名無しさん@お腹いっぱい。
22/10/23 12:36:37.51 kHzuPqw/.net
最終的には自分で試行錯誤するしかない

301:名無しさん@お腹いっぱい。
22/10/23 13:21:54.98 XrRdwaXU.net
いろいろ試したが学習元データとかテンプレートとかによって最適なステップ数は結構変わってくるな
その都度最適なところを見つけるしかない

302:名無しさん@お腹いっぱい。
22/10/23 14:25:16.21 P/bzvgub.net
顔アップとかバストアップとかポートレート系の画像で学習すると
たしかに引きの絵はすぐ壊れる
でもポートレート絵なら1万ステップ超えても壊れない
本格的にチューニングしたいなら顔面用と引き用で分ける必要があるのかもな…

303:名無しさん@お腹いっぱい。
22/10/23 14:34:36.10 dwUjlE2I.net
Stable Diffusion web UI AUTOMATIC1111版のローカル環境構築手順 (推奨)

304:名無しさん@お腹いっぱい。
22/10/23 14:37:09.78 dwUjlE2I.net
間違えた。
URLリンク(github.com) で指定されているものをインストールおよびDLする
インストールしたいディレクトリに移動し git clone URLリンク(github.com) を実行する
DLしたモデルファイルをmodelsフォルダに入れる
webui-user.bat を非管理者として実行する←いまここ
Couldn't launch python
exit c


305:ode: 9009 stderr: Python Launch unsuccessful. Exiting. 続行するには何かキーを押してください . . . 実行してもこのメッセージが出て終了してしまいます。Pythonはインストールしたはずなのですが…



306:名無しさん@お腹いっぱい。
22/10/23 14:44:06.20 Ki6h1CqS.net
>>299
pythonのパス指定が間違えてる

307:名無しさん@お腹いっぱい。
22/10/23 14:48:25.26 FjsDD+go.net
間違ってるというかパス通してないんでない?
パスの通し方わかるなら追加してわからなければPythonインストールするときにAdd Python to PATHにチェック入れると良い
因みにChocolateyでインストールすれば勝手にパス通るはず

308:名無しさん@お腹いっぱい。
22/10/23 14:50:58.98 /7akjf4X.net
定期的にパス通って無い来るな

309:名無しさん@お腹いっぱい。
22/10/23 14:59:22.69 FjsDD+go.net
ごめん自分Windowsじゃないから適当言ったわ
調べたらChocolateyって今はPowerShell限定なんだね
コマンドプロンプト使う場合はパス別々だから意味ないんでさっきの忘れて

310:名無しさん@お腹いっぱい。
22/10/23 15:01:02.83 EEr1AGqK.net
Pythonのインストーラーの最初の方の画面の下らへんにAdd PATHなんちゃらってチェックあるからそれ入れて再インストール

311:名無しさん@お腹いっぱい。
22/10/23 15:02:00.91 /7akjf4X.net
ここで同じこと書かれてるから、一読するよろし
URLリンク(github.com)

312:名無しさん@お腹いっぱい。
22/10/23 15:02:11.73 1JqdXzHc.net
普通にインストールすればpath通ると思うんだが…

313:名無しさん@お腹いっぱい。
22/10/23 15:02:24.00 dwUjlE2I.net
わ、ほんとだ行けた!
ありがとう!ありがとう!

314:名無しさん@お腹いっぱい。
22/10/23 15:04:01.44 /7akjf4X.net
デフォルトチェックボックスを内容も読まずに外しちゃうんだろう
まあ、アドウェア突っ込んだり関係ないアプリ突っ込んだりするアプリ多いから気持ちはわからんでもないが
ちゃんと読んでからチェックをはずそう

315:名無しさん@お腹いっぱい。
22/10/23 15:08:20.51 FjsDD+go.net
これWindowsがちゃんとしたパッケージ管理ソフト作ってればパス通らないなんてミス起こらないんだから、
Linuxみたいにyumでインストールできるようにすれば良いのにね
Pythonだけなら良いけど、依存するもの全部インストーラ実行するのは時間の無駄だし

316:名無しさん@お腹いっぱい。
22/10/23 15:25:02.53 1JqdXzHc.net
scoop.shかwinget使えばいいけど、両方そこそこハードル高いからなあ

317:名無しさん@お腹いっぱい。
22/10/23 15:32:36.54 3qDn7RLb.net
思うに、Microsoft Storeにpython 3.10があるからそっちから入れればいいんじゃね?

318:名無しさん@お腹いっぱい。
22/10/23 15:47:50.10 Ki6h1CqS.net
配布されてるDBモデルのstate_dictのkeyが追加されてるんだが
マージする時はどう扱えばいいんだ?新規に追加?それともどっかに混ぜるの?

319:名無しさん@お腹いっぱい。
22/10/23 16:25:43.02 dwUjlE2I.net
だめだ、俺のPCじゃ1111だと1枚ずつじゃないとメモリ死ぬようだ
NMKDに戻るわ…すまない

320:名無しさん@お腹いっぱい。
22/10/23 16:28:13.66 pHzfFD8+.net
適当にportable環境作ったが今ならdocker入れるのが一番夜早いのでは

321:名無しさん@お腹いっぱい。
22/10/23 16:31:24.25 HsqMJyAd.net
>>311
うろ覚えで申し訳ないがSD関連で
Microsoft Store版Pythonは使ってはならないという
記述をどこかで見たような記憶がある
今はまた状況が変わってるかも知れないし
与太話レベルなのだが

322:名無しさん@お腹いっぱい。
22/10/23 17:19:42.89 3kszmvpC.net
髪型に特徴のあるキャラをdreamboothで学習後webuiて出力させると髪型が左右反転するんだが何が問題かわかる?教えて貰えると助かる。
学習時に反転させてるからか、出力画像を反転させてるのか

323:名無しさん@お腹いっぱい。
22/10/23 18:13:23.95 5JeB7TaR.net
>>316
学習時に反転させてるならそれが原因

324:名無しさん@お腹いっぱい。
22/10/23 19:55:20.89 3kszmvpC.net
>>317
JoePenna版でやってるんだが自分で反転はさせてないけど内部


325:でやってたら無効化したいと思ってる



326:名無しさん@お腹いっぱい。
22/10/23 20:48:23.88 5mif+fPK.net
>>316
学習時に内部で反転させてるね
無効化したい場合は、v1-finetune_unfrozen.yamiのdata:→params:→train:→params:のインデント(size: 512, set: train, per_image_tokens: false, repeats: 100 がある所)に「flip_p: 0.0」と追記すれば反転しなくなるよ

327:名無しさん@お腹いっぱい。
22/10/23 21:24:07.38 iMc8n+/y0.net
AIは古塔つみから何も学んでいないらしい

328:名無しさん@お腹いっぱい。
22/10/23 21:27:44.34 6jCWCN5R.net
Filter NSFW contentにチェック入れてないのに、
ちょいちょい完全黒塗り画像が出てくるのはなんなんすかね・・・

329:名無しさん@お腹いっぱい。
22/10/23 21:50:41.69 GM4J5ylL.net
VRAMが一時的に不足した可能性

330:名無しさん@お腹いっぱい。
22/10/23 22:12:59.05 R+I9Wnvn.net
最近のアプデのせいなのかわからんけど1024でも余裕なのに768でさえ黒塗りになってしまう途中から…

331:名無しさん@お腹いっぱい。
22/10/23 22:25:12.51 pHzfFD8+.net
俺もなるわ。VRAM足りてるはず
何か黒塗りになりやすいプロンプトやi2iがあるからモデル上のバグか何か踏んでる気もしてる

332:名無しさん@お腹いっぱい。
22/10/23 22:31:04.60 R+I9Wnvn.net
早々VRAM1GB以上空いてるのにちゃんと使ってくれ~って感じ

333:名無しさん@お腹いっぱい。
22/10/23 22:35:18.80 GWuPMnAm.net
1111版でxformersを入れてタスクマネージャー監視してるんだけれど
生成開始の一瞬だけVRAM使用量が膨れ上がってその後半分以下に落ちる挙動してない?
同時生成枚数が多くても少なくても最大値が変わるだけで同じ挙動になるのが良くわからない
出てきてすぐのSDは生成中はVRAM確保しっぱなしだったんだよな

334:名無しさん@お腹いっぱい。
22/10/23 22:43:11.74 6jCWCN5R.net
なるほどVRAMかもしれないんすね・・・
同じシードでプロンプトをちょっと変えると、黒塗りにならずに白黒(目と唇だけ色がある)画像になったりもするんだよね・・・
とりあえずstep減らしたり解像度下げてみたりして試してみます。(それでも治らなかった人がいるみたいなので、ダメかもだけど)

335:名無しさん@お腹いっぱい。
22/10/23 23:00:48.04 qBd6vH/I.net
vae使ってるなら--no-half-vae追加すると黒いの出なくなるかも

336:名無しさん@お腹いっぱい。
22/10/23 23:52:08.09 5mif+fPK.net
>>326
逆に生成終了時に一瞬だけVRAM使用量が2倍に膨れ上がる挙動してる
生成開始時は特にないかな
最初は--medvramのせいかなと思ったけど関係なかった

337:名無しさん@お腹いっぱい。
22/10/24 06:38:50.78 uj06rDid.net
>>319
316じゃないけど知りたかった情報でした
ありがとう

338:名無しさん@お腹いっぱい。
22/10/24 09:57:28.39 ZX5pHXpC.net
>>319
316だけどありがとう。試してみる!

339:名無しさん@お腹いっぱい。
22/10/24 10:49:48.97 0QC7Z5Y4.net
waifu1.4は12/1か
目とか指も綺麗になるかな

340:名無しさん@お腹いっぱい。
22/10/24 10:53:53.34 j6yCwhyR.net
1.3は正直劣化NAIだったから次に期待や

341:名無しさん@お腹いっぱい。
22/10/24 11:02:40.55 uHh7/aOc.net
waifuにどこぞの、優秀な学習データが統合されてたりしないかな

342:名無しさん@お腹いっぱい。
22/10/24 11:03:50.34 JvoMaDGm.net
8bit adamオプションなしのdreamboothが12GB以下になることはないもんかな
3090買っとけばよかったな正直

343:名無しさん@お腹いっぱい。
22/10/24 11:07:00.27 U40vOPLN.net
NAIはNAIで公開後から進化させる気あるんかいな
サイレント変更は勘弁だが

344:名無しさん@お腹いっぱい。
22/10/24 11:16:52.82 iQthnA0M0.net
Twitter追っかけてればわかるが
今のNAIはミニマムセットみたいなもんだぞ

345:名無しさん@お腹いっぱい。
22/10/24 11:18:05.39 j6yCwhyR.net
まだ本気を出してないということ?

346:名無しさん@お腹いっぱい。
22/10/24 11:25:54.66 1/5L7Z53.net
NAIの本気は小説作成で培った言語解析の部分だろうね
ココがうまくハマれば、かなり正確な作画が出来る
SD1.5でも赤いボールと緑のキューブを綺麗に分離出来ないわけだけど、この辺のブレイクスルーに繋がるかもしれない
emmadがお気に入りなのもその辺があるんじゃないかな

347:名無しさん@お腹いっぱい。
22/10/24 11:38:42.91 hi54oxWA.net
個人的にはwaifuでもこまめに単語で区切るより文章で入れた方が出来良くなるイメージあるからなるべく文章で入れるようにしてるわ

348:名無しさん@お腹いっぱい。
22/10/24 11:42:01.62 1/5L7Z53.net
SD系が文章解析型なんでwaifuも本来はそうなんだけど、1.3でダンボタグを基本に据えすぎたのでタグ連打式になってしまった
1.4ではSD本来の文章解析式に戻すっぽいので期待
12月にリリース伸びちゃったが

349:名無しさん@お腹いっぱい。
22/10/24 12:05:12.34 oZKwd+yh.net
いかにもEmadが開発者みたいな話が広まってるけど
彼はあくまでも投資家のリーダーで
開発はドイツでいう東大のミュンヘン大学のCompVisっていう研究室だからね
URLリンク(github.com)

350:名無しさん@お腹いっぱい。
22/10/24 12:17:34.83 BHxMBlNy.net
>>339
同じくノウハウあるはずのとりんはパッとしない
NAIをエロ生成器としか思ってないdisツイートしてたりAIの進化に全くついていけてないようだが

351:名無しさん@お腹いっぱい。
22/10/24 13:40:01.08 PULubbLh.net
ワンパンMadとスパイダーMadワロタ
楽しんでんな

352:名無しさん@お腹いっぱい。
22/10/24 13:45:15.05 LggrrOtA.net
Dreambooth学習後は普通の立ち絵だけじゃなくて色んな構図出した方がいいな
過学習気味になると明らかに構図のバリエーション減るから分かりやすい
500ステップとか1000ステップごとのモデル保存してX/Yプロットするとめちゃくちゃ過学習がわかりやすい

353:名無しさん@お腹いっぱい。
22/10/24 15:45:08.67 tIvPctBB.net
>>339
そこはGPT-3に元からある問題でベンチャーレベルでどうこう出来るもんじゃないから
GPT-4の公開待ちでしょ
まあGPT-3すら正式公開はされてないからいつになるかしらないけど

354:名無しさん@お腹いっぱい。
22/10/24 16:57:27.59 8BJ00m8Y.net
dream boothで学習させる画像のサイズってgpu次第なのか?
とりあえず512512でやってるけどもうちょい大きくしたい。使ってるのは3060.12G。

355:名無しさん@お腹いっぱい。
22/10/24 17:20:43.03 uoNVmVv3.net
git pullで履歴タブが消えたこれカスタムスクリプトになった?

356:名無しさん@お腹いっぱい。
22/10/24 18:18:58.34 ZX5pHXpC.net
>>319
20枚ぐらい試したけど上手く行った。ありがとう

357:名無しさん@お腹いっぱい。
22/10/24 20:00:52.88 kvA8u7fg.net
ファインチューニングと違って単純な追加学習はやればやるほど元の内容忘れていくから
WD1.4では失われるものが1.3の時よりさらに多くなりそうだな

358:名無しさん@お腹いっぱい。
22/10/24 20:14:53.73 uwG/v6FF.net
>>348
「Image Browser」というのに変わったみたい

359:名無しさん@お腹いっぱい。
22/10/24 20:19:03.13 uwG/v6FF.net
>>351
と思ったら最新ではなくなっちゃったね「Image Browser」
短い命だった…

360:名無しさん@お腹いっぱい。
22/10/24 20:21:55.26 m2St1N1C.net
ころころ変えすぎだろw

361:名無しさん@お腹いっぱい。
22/10/24 21:03:56.95 0f5n+P2V.net
>>353
進化が早いことの代償なんだから我慢しろ

362:名無しさん@お腹いっぱい。
22/10/24 21:11:54.05 B+TyGnY3.net
NovelAIなんだけど、とりあえず10日前くらいに1000pt購入して使いきったんだが昨日か一昨日にいつの間にか1000pt追加なってた
決済ボタンポチ


363:ってないのに何でだろ気になる



364:名無しさん@お腹いっぱい。
22/10/24 21:15:39.52 xhsd2T6X.net
NAIがアナウンスしてるぞ
10月13日以降にサブスクしたアカウント全部に1000振り込んだって
ゴタゴタのボーナスじゃろ

365:名無しさん@お腹いっぱい。
22/10/24 21:17:14.20 RX0uUBxs.net
URLリンク(twitter.com)
Aesthetic Gradients、良し悪しはともかく思ったより強めに効くっぽいな
githabのサンプル画像見てると可能性感じちゃうけど、試した人いたら知見ほしい
(deleted an unsolicited ad)

366:名無しさん@お腹いっぱい。
22/10/24 21:19:02.44 j6yCwhyR.net
もう新しい追加学習出てきたの?

367:名無しさん@お腹いっぱい。
22/10/24 21:21:38.58 2uTOnuHf.net
>>356
おおたしかに使えない日があったなそうゆうことか、サンクス!

368:名無しさん@お腹いっぱい。
22/10/24 21:42:59.21 RX0uUBxs.net
>>358
URLリンク(github.com)
風景画に花が咲いてる画像見るとおもろいなと思った
現状の言語モデルでは言葉でイメージを完全に伝えるのはたぶん無理なので、「こんな感じ」を別のもので伝えられる機能には期待したい

369:名無しさん@お腹いっぱい。
22/10/24 21:54:28.77 9WXI4R3b.net
webuiから分離されたImageBrowserの入れ方
URLリンク(github.com)
extensionsフォルダにgit cloneするだけで入れられた
このタブは便利だから同梱でいいのに

370:名無しさん@お腹いっぱい。
22/10/24 21:55:22.12 VWU+6ueB.net
特定のテーマでフィルタを掛けるみたいなもんか
TIより画風移植に向いてそうだな

371:名無しさん@お腹いっぱい。
22/10/24 21:58:03.30 RX0uUBxs.net
promptでFlowerって入れても、いろんな質のFlowerが全体的に出てくるわけで
俺はこんな感じの花が欲しいんだよ!って時に使えるかも?

372:名無しさん@お腹いっぱい。
22/10/24 22:01:55.57 VWU+6ueB.net
>>361
まぁ機能豊富になってワチャワチャしてきてるからな。Gradioは割と重いし
各タブの追加・削除をユーザー側で設定出来るのが理想だな

373:名無しさん@お腹いっぱい。
22/10/24 22:03:07.59 xhsd2T6X.net
桜なんかは簡単にというか、ネガティブに突っ込んでも出てくるんだよな…
スタイルに京アニ書くだけで
京都強すぎだろ

374:名無しさん@お腹いっぱい。
22/10/24 22:23:40.83 7t919hNN.net
>>357
学習率を弄ると強く効き過ぎて崩壊するから基本はStepで調整するんだと思う
プロンプトによって調整が面倒だけど学習自体は長くても1分ぐらいで終わるから楽
下のは学習率は初期値で全部Step50でやったけどよく見ると腕折れたりしてる
一番上のオリジナルは元素法典の花火のやつ
URLリンク(i.imgur.com)

375:名無しさん@お腹いっぱい。
22/10/24 22:28:33.00 RX0uUBxs.net
>>366
ミリタリーすごいな!ちゃんと軍服着てる

376:名無しさん@お腹いっぱい。
22/10/24 22:31:16.98 VWU+6ueB.net
ハロウィンだと髪の色までハロウィンカラーになるのか。面白いな


次ページ
最新レス表示
レスジャンプ
類似スレ一覧
スレッドの検索
話題のニュース
おまかせリスト
オプション
しおりを挟む
スレッドに書込
スレッドの一覧
暇つぶし2ch