23/04/10 10:58:40.08 uKvk4C6+.net
■AUTOMATIC1111/Stable Diffusion WebUI URLリンク(github.com)
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki URLリンク(seesaawiki.jp)
■ブラウザなどで画像生成できるサービス
URLリンク(novelai.net) 有料。アニメ、マンガ風のイラストを手軽に生成できる
URLリンク(nijijourney.com) 日本語プロンプト可。最初の25枚は無料。特徴は同上
URLリンク(memeplex.app) 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
URLリンク(www.mage.space) googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
URLリンク(lexica.art) Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
URLリンク(www.stable-diffusion.click) Waifu1.2/1.3、trinart2を使える
URLリンク(page.line.me) LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop URLリンク(github.com)
クリスタ URLリンク(github.com)
blender URLリンク(platform.stability.ai) URLリンク(github.com)
Krita URLリンク(github.com) (1111のExtensionからインストール可能)
3:名無しさん@お腹いっぱい。
23/04/10 11:00:08.05 HtWYRQ14.net
質問いいですか
4:名無しさん@お腹いっぱい。
23/04/10 11:01:10.44 uKvk4C6+.net
■画像アップローダーや便利なツール
URLリンク(majinai.art) 生成した画像内の呪文などを抽出して掲載してくれる
URLリンク(imgur.com) 手軽にアップロードできるが画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:URLリンク(i.imgur.com)
URLリンク(photocombine.net) 画像を結合できるWebアプリ。文字入れも可能
■関連スレ
なんJNVA部★185
スレリンク(liveuranus板)
【StableDiffusion】AIエロ画像情報交換20【NovelAI】
URLリンク(mercury.bbspink.com)
【StableDiffusion】画像生成AI質問スレ5【NovelAI】
スレリンク(cg板)
【StableDiffusion】AI画像生成技術18【NovelAI】
スレリンク(cg板)
AI絵師のマネタイズ関連スレ ★18
スレリンク(doujin板)
NovelAI,Holara,TrinArt等画像生成AIサービス総合
スレリンク(esite板)
なんJnovelAI部ウェブ専★68
スレリンク(liveuranus板)
以下は雑談用。質問以外はこちらへ
AIイラスト 愚痴、アンチ、賛美スレ part43
スレリンク(illustrator板)
【Midjourney】AI関連総合18【StableDiffusion】
スレリンク(cg板)
5:名無しさん@お腹いっぱい。
23/04/10 11:02:05.78 uKvk4C6+.net
■FAQ
Q:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspaceなどのクラウド実行環境、どちらがいい?
A:ローカルは時間制限がなくエロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像でBANされる可能性がある
Q:ローカル環境でパソコンの性能はどのくらいがいい?
A:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低限16GB。ストレージはNVMeのような早いものにするとモデルの切り換えにストレスが少ない
Q:NMKDと1111、どちらをインストールしたらいい?
A:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q:画像を出力したら色が薄い、または彩度が低い
A:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
Q:〔1111〕自分の環境で使える?
A:利用は無料なのでインストールしてみるとよい。省メモリの設定は以下を参照 URLリンク(seesaawiki.jp)
Q:〔1111〕インストール方法がわからない
A:公式の簡易インストーラ(一部の拡張機能を使うにはPythonの追加インストールが必要かもしれない)
URLリンク(github.com)
解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる
Q:〔1111〕起動時の縦横解像度を512以外の数値にするなど、起動時の初期値や数値の増減量を変えたい
A:1111をインストールしたフォルダにある「ui-config.json」を編集
Q:〔1111〕作りすぎたスタイルを整理したい
A:1111をインストールしたフォルダにある「styles.csv」を編集
Q:〔1111〕出力するごとに生成ボタンをクリックするのがわずらわしい
A:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能
Q:〔1111〕アニメ顔を出力したら目鼻がなんか気持ち悪い
A:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用
6:名無しさん@お腹いっぱい。
23/04/10 11:07:49.11 pKcj1hYP.net
■FAQ2
Q:〔1111〕設定を変更したのに反映されない
A:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。設定によっては「UIの再読み込み(Reload UI)」(「再起動が必要」と書かれていてもこれですむものが多い)や1111の再起動が必要
7:名無しさん@お腹いっぱい。
23/04/10 11:15:00.57 pKcj1hYP.net
【CLIP設定ってどうしたらいい?】
イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる
【そもそもCLIPって何?】
ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと
CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた
その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施
これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと
そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている
実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない
またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある
ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている
もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い
と思われる
ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である
8:名無しさん@お腹いっぱい。
23/04/10 11:16:25.94 fL5v8uHz.net
次スレここなのです?前スレ5じゃなかった?6飛んでない?
9:名無しさん@お腹いっぱい。
23/04/10 11:21:31.21 HirLXsx3.net
では、次スレは7.1でw
10:名無しさん@お腹いっぱい。
23/04/10 11:29:41.05 7DbJ6yak.net
サンイチ
>>8
>>1にある通りで、前スレは5(実質6)
11:名無しさん@お腹いっぱい。
23/04/10 11:36:10.01 fL5v8uHz.net
前スレが間違えてたのかなるほど
12:名無しさん@お腹いっぱい。
23/04/10 12:07:17.89 HtWYRQ14.net
ほーん
CLIPの差し替えしないと出ない絵があるのか
知見だ
っぱComfyUIなんよ
13:名無しさん@お腹いっぱい。
23/04/10 12:17:06.80 WVXav9Jn.net
あと、etaも0~1の範囲で変更できて
モデルやプロンプト、シードによって構図がかなり変化することがある
これはCkip SkipやENSDと違ってPNG情報にも記録が残らないから
サンプルと同じ画像をお試して作ろうとして「なんだか構図がちょっと違うな」
というときは手探りで試してみるのもけっこう楽しいぞ
14:名無しさん@お腹いっぱい。
23/04/10 12:24:53.49 6jM0rl9T.net
前スレでcanny教えてくれた人ありがとう
リアル化できるようになりました
お尻の穴を差し出したいぐらい嬉しいです
URLリンク(i.imgur.com)
URLリンク(i.imgur.com)
15:前スレ981
23/04/10 12:30:19.82 dKnbtS08.net
前スレで>>981に回答くれた皆さんありがとうございます。
pantieではだめだったんですね。
underwear 系統にすると、一気に改善しました。なぜ、パンティーではだめなのか・・・・・
LoRAや画像からの生成の方がよいとの話もありましたが、話自体知りませんでした。
そっちも、これからやってみます。
16:名無しさん@お腹いっぱい。
23/04/10 12:34:52.10 K+K1lM3K.net
panties でいつもやってる
17:名無しさん@お腹いっぱい。
23/04/10 13:09:43.48 qHrU5p3u.net
>>14
なにこれ凄い
前スレのどれ読めば良い?
18:名無しさん@お腹いっぱい。
23/04/10 13:12:56.34 HtWYRQ14.net
Controlnetのcannyedgeの結果を学習したモデルにcannyedgeで検出できた画像を突っ込むことで構図を保って別の画像を生成するやつ
mikubilさんのreadmeを読んでControlnetのExtensionを導入しよう
19:名無しさん@お腹いっぱい。
23/04/10 13:20:58.91 qHrU5p3u.net
>>18
帰ったらやってみるありがとー
20:名無しさん@お腹いっぱい。
23/04/10 13:51:22.92 m+vGcaDt.net
少ない画像でLORA学習する時、正則化画像って取り除きたいモノの切り抜きで良いのかな?
例えば女の子と猫が写ってて、猫を学習させたく無い時はその猫の切り抜きを1_catにぶち込んで回してる
一応それで猫は出てこないけどそれがそれが果たして正しい使い方なのか気になってる
21:名無しさん@お腹いっぱい。
23/04/10 14:13:33.18 0PgglUy3.net
なんかアップスケールさせたほうがエロさ半減するっていうか顔がアップスケール顔になる。
リアル系だとわかり易いわ
対策ないです?
22:名無しさん@お腹いっぱい。
23/04/10 14:18:11.67 5BQuFX1U.net
アップスケール顔草
多分アップスケール時になんか滑らかになるあれの事かな
使うアップスケーラーによる気もする
23:名無しさん@お腹いっぱい。
23/04/10 14:32:32.96 sudfC82y.net
アップスケールすると手が破綻するのほんときらい
24:名無しさん@お腹いっぱい。
23/04/10 14:33:32.10 5BQuFX1U.net
まじか
アップスケールってそんな影響ある?
アップスケール面倒くさがってほとんどやらないんだけど
25:名無しさん@お腹いっぱい。
23/04/10 14:35:41.49 K+K1lM3K.net
アップスケールのロジックって、
一度作った画像をぼかして、
そのぼかしを元に大きい画像を再描画する感じでいいんだよね?
26:名無しさん@お腹いっぱい。
23/04/10 14:35:56.18 sjOkqFps.net
Denoising strength 低くしたら元絵とそんな変わらんっしょ
マックスにすると想像力豊かで芸術性あふれるクリーチャーが飛び出してくるw
27:名無しさん@お腹いっぱい。
23/04/10 14:36:03.93 gI9KiUCM.net
>>15
ちゅうかpantyじゃね?
pantyshotとか
28:名無しさん@お腹いっぱい。
23/04/10 14:39:11.53 sjOkqFps.net
Pantiesじゃないか?一個でも複数形みたいなやつ
29:名無しさん@お腹いっぱい。
23/04/10 14:39:19.59 5BQuFX1U.net
アップスケールと
hires.fixが混同してるオカンやないか
30:名無しさん@お腹いっぱい。
23/04/10 14:40:34.31 sjOkqFps.net
あーほんまや
Extraの話しか..
31:名無しさん@お腹いっぱい。
23/04/10 14:46:12.85 QqGBz1H1.net
Colab使ってLORA学習の環境構築方法解説してるサイトありますか…?
1111導入解説ばっかりでLORAの学習環境の方はなかなか見つからず…
32:名無しさん@お腹いっぱい。
23/04/10 14:47:52.62 7DbJ6yak.net
>>21
「アップスケール」とか言わずに正確な機能名で質問してね
33:名無しさん@お腹いっぱい。
23/04/10 15:20:56.39 rcAsaycw.net
>>15
そもそもアンダーウェアかランジェリーのほうが一般的だからじゃないかな
パンティー、ショーツは意味としては合ってるんだけどあまり使われないよ
34:名無しさん@お腹いっぱい。
23/04/10 15:22:43.34 CVqEfqSc.net
ショーツだと短パンみたいな感じになるね
35:名無しさん@お腹いっぱい。
23/04/10 15:27:14.30 sjOkqFps.net
豆じゃがストッキングを履かせようとしてpantyhoseを入れるとpantyに引っ張られるのかパンツを履いてしまうことが多い
そこでワシはover-the-knee-stockingsを使うんじゃがこれがよう上手くいく
(ちなみに色は白)
36:名無しさん@お腹いっぱい。
23/04/10 15:27:47.62 5n6g6KM0.net
パソコン使ってんだからスペルくらいネットで確認してくれよ
37:名無しさん@お腹いっぱい。
23/04/10 15:31:44.20 AT2ADv9U.net
>>31
youtubeでColab lora 学習で検索すれば動画あるけど
望んでる物と違ったらごめん
38:名無しさん@お腹いっぱい。
23/04/10 15:37:05.18 DGGuf2wS.net
>>28
必要なのは英語としての正確性ではないんだよ
タグとして何が使われているかが重要
航空英語みたいなものよ
39:名無しさん@お腹いっぱい。
23/04/10 15:44:12.40 5BQuFX1U.net
そんなに気になるんならSRしろ😡
40:名無しさん@お腹いっぱい。
23/04/10 15:45:23.36 K+K1lM3K.net
SRって何?
41:名無しさん@お腹いっぱい。
23/04/10 15:52:28.97 c1DNN0Kw.net
まがりなりにもAIなんだから構文理解くらいしてるだろ
って思う事もありました
42:名無しさん@お腹いっぱい。
23/04/10 15:57:19.15 8CpDpi2N.net
アビス系のマージモデル使ってるんだけど
パンスト脚にサンダル履かせるとつま先部分が
素足になってしまうんやが解決策ある?
海外ではサンダルにパンストは履かない習慣だから
学習されてないのかな?
43:名無しさん@お腹いっぱい。
23/04/10 16:05:15.31 xNsQcbGw.net
ひとつ前のスレで質問に答えてくださった。954、955
44:、958の方お答えありがとうございました!! とても参考になりましたm(_ _)m
45:名無しさん@お腹いっぱい。
23/04/10 16:15:06.36 FDKjJTnc.net
すいませんnovelAIからローカル環境に移行したいんだけど、PCに全く詳しくないから色々調べて訳分からんくなってる
モニターとかキーボードとか全部揃えてお買い得に買えるサイトとか教えてくれたら嬉しいです
30万くらいは出せるから3060?12GBとか条件満たしてるのが買いたいです
46:名無しさん@お腹いっぱい。
23/04/10 16:22:52.29 5BQuFX1U.net
見繕ってあげるからその30万を私に預けてみないか
47:名無しさん@お腹いっぱい。
23/04/10 16:27:18.38 YgwZBsjr.net
いやいや俺なら倍にしてあげるよ
48:名無しさん@お腹いっぱい。
23/04/10 16:31:10.19 dTB0XFul.net
何でもかんでも人任せにするやつって投資詐欺に遭いそう
49:名無しさん@お腹いっぱい。
23/04/10 16:33:23.62 +vfaOYcG.net
StableDiffusionでアニメ塗りにする方法で簡単なのどれでしょうか?
NovelAIはネガティブに3Dと入れると簡単にアニメ塗りできたのに
StableDiffusionはダメですね
50:名無しさん@お腹いっぱい。
23/04/10 16:33:43.12 mPQ8yg2a.net
すみません、質問です。
webuiにmultidiffusion-upscaler-for-automatic1111を導入したくてインストールした後に起動しなおすと以下のようなエラーが出てwebuiが立ち上がりません 。
webuiはgit pullして最新にしてみましたが同じでした。何かほかに必要な物があるのでしょうか?
バージョン
python: 3.10.6 • torch: 1.12.1+cu113 • xformers: N/A • gradio: 3.16.2 • commit: 48a15821 • checkpoint: 7c29d0da32
File "V:\stable-diffusion-webui\extensions\multidiffusion-upscaler-for-automatic1111\scripts\vae_optimize.py", line 756, in show
if devices.get_optimal_device_name() == 'mps':
AttributeError: module 'modules.devices' has no attribute 'get_optimal_device_name'. Did you mean: 'get_optimal_device'?
51:名無しさん@お腹いっぱい。
23/04/10 16:36:51.06 pbRVvmjd.net
>>48
ほんとダメだよな、あきらめろ
52:名無しさん@お腹いっぱい。
23/04/10 16:42:07.15 +LjXmdcS.net
>>48
ダメだからNAIに戻った方がいいよ
53:名無しさん@お腹いっぱい。
23/04/10 17:06:36.06 7DbJ6yak.net
>>49
extensionsフォルダ内にmultidiffusion~のフォルダが作成されているので、
ひとまず一旦どこか別の場所へ退避(移動)、または削除してください。
その後、1111を起動できるか確認してください。
起動できれば commit: 22bcc7be になっていると思います。
>何かほかに必要な物があるのでしょうか?
必要ないはずです。配布元の説明を読んでもそうですし、
俺も導入してみましたが特に何も必要ありませんでした。
54:名無しさん@お腹いっぱい。
23/04/10 17:12:34.45 AOCPksyf.net
>>44
お店についてはここではなくPC板で聞いたほうがいいよ
モニタ他含めて予算30万ならグラボは3060vram12
メモリは32GB
ストレージは最低でもSSD2TBぐらい
でうまい具合におさまるんじゃないかな
55:名無しさん@お腹いっぱい。
23/04/10 17:16:09.00 AOCPksyf.net
>>42
海外では、というよりそういう絵を学習していないから出ない、というだけ
あとは一応ネガティブにbare foot(素足)って入れておくか
でもそれでも厳しいかも
サンダルだけ単品で生成されそう
56:名無しさん@お腹いっぱい。
23/04/10 17:19:59.33 AOCPksyf.net
>>48
釣りだと思うが一応返答しておこう
NovelAIもStableDiffusionを使用したサービスだよ
使用モデルにNovelAI専用モデルを使っているというだけ
あと、質問するなら最低限の自分の環境、使用ツールや使用モデル等を書かないとまともな返答は得られないよ
57:名無しさん@お腹いっぱい。
23/04/10 17:23:22.25 FDKjJTnc.net
>>53
おお!ありがとう
参考にして引き続き調べてみる
58:名無しさん@お腹いっぱい。
23/04/10 17:41:58.20 ZmkK9/9s.net
サンプリング方法を複数同時に生成して比較する方法って無い?
59:名無しさん@お腹いっぱい。
23/04/10 17:42:12.26 xCiy5R7u.net
昔自分で作った同人誌をスキャンして取り込んだ画像があるんですけど
漫画の絵を実写化したり、違う絵柄みたいにする事は可能ですかね?
一枚絵じゃなくてコマ割されてます
遊びでやってみたいってレベルなんで本格的にできなくてもいいんですが何かあれば教えて下さい
60:名無しさん@お腹いっぱい。
23/04/10 17:45:55.52 AOCPksyf.net
>>57
AUTHENTIC1111であれば X/Y plot を使えば大抵のことは比較できる
61:名無しさん@お腹いっぱい。
23/04/10 17:46:23.12 AOCPksyf.net
AUTOMATICや なんや謎の綴りになった
62:名無しさん@お腹いっぱい。
23/04/10 17:58:25.98 S+wk7H9k.net
webui-user.batを実行するとtorchがインストールできないと言われてしまいます
はじめにwikiの手順でバッチファイルを実行
仮想環境が作れないとのエラー
URLリンク(i.imgur.com)
こちらのエラーで調べたところ「python -m venv venvで手動で仮想環境venvを作れ」とあったので実行
バッチファイル自体は通るようになったが
URLリンク(i.imgur.com)
とtorchがインストールできないとのエラー
こちらのエラーで調べたところ某wikiに「バージョン違いのpythonを使ったときのvenvが残ってるとこのエラーになるからvenvフォルダを削除しろ」とあったので削除
案の定1に戻る
という状態です
pythonのバージョンが影響するとのことなのでpythonは3.10.6をインストールし直し再起動(3.10.10でこのエラーが出たという過去の質問に3.10.6にしろとあったため)、リポジトリのクローンもやり直した上でこの状態です
pythonは64bit版、セキュリティソフトは標準のdefenderのみ、メモリエラーの表示もありません
63:名無しさん@お腹いっぱい。
23/04/10 17:58:45.73 7DbJ6yak.net
>>58
img2imgって呼ばれてる機能でできるよ。
でも遊びでやってみたいという話だから、1111導入じゃなくて、ここで試すのがいいかな。
URLリンク(dezgo.com)
512x512以下に自動リサイズされるという制限があるけど無料で利用できる。
解像度の都合上、1ページ丸々だと細部が潰れがちになるから、1コマ切り抜いた画像とかがいいよ。
あとはPrompt欄に入力する内容と、選択したModelによって絵柄が変わる。
Strengthで元画像からの変化の程度が変わる。
64:名無しさん@お腹いっぱい。
23/04/10 18:13:29.65 Ni0yBry0.net
普通に手順通りに導入したらそんなことにはならないんだがなんかいらんこと色々やってそう
もういっそお手軽導入系でいいのでは?
URLリンク(note.com)
65:名無しさん@お腹いっぱい。
23/04/10 18:14:16.06 FDKjJTnc.net
>>53
OS
Windows 11 Home (DSP)
プロセッサー
インテル Core i5-13400 プロセッサー [4.60GHz(P2.50GHz-4.60GHz/E1.80GHz-3.30GHz)/10コア(P6+E4)/16スレッド/20MBキャッシュ/TDP 65W-148W]
CPU冷却グリス
【熱伝導率: 16W/m・K】 ナノダイヤモンドグリス JP-DX1 塗布サービス
CPUクーラー
12cmラジエーターファン水冷CPUクーラー
グラフィックアクセラレーター
NVIDIA GeForce RTX 3060 12GB GDDR6 [HDMI×1・DisplayPort×2]
メインメモリ
32GB(16GB×2) [DDR5-4800 / デュアルチャンネル]
1stストレージ[OSインストール]
2TB SSD / NVMe M.2 [PCIe 4.0×4] (弊社特選※)
これで30万に収まった
ここ型落ち、性能足りないとかありますか?
66:名無しさん@お腹いっぱい。
23/04/10 18:15:46.97 yqeIE4Rm.net
導入方法なら同じようにするだけだぞ
pythonのバージョンが違うとか、ちゃんと説明みてやれとしか言えん
仮想環境の設定なんかした覚えがないわ
67:名無しさん@お腹いっぱい。
23/04/10 18:30:43.75 mPQ8yg2a.net
>>52
ありがとうございます!
やってみます。
68:名無しさん@お腹いっぱい。
23/04/10 18:35:46.00 eGTUqjFj.net
>>64
環境にもよるがi5のK無し定格でCPUクーラーに水冷は過剰でポンプの駆動音が気になるかも知れない、
ワイのは12世代のi7で大型ヒートシンクの空冷低速ファンで充分間に合う、横で寝てもほぼ無音な位や
オンボードグラフィック使えばVramをその分学習に回せる
メモリーは32GBで不足なら後から買い足せば良い、位やな
69:名無しさん@お腹いっぱい。
23/04/10 18:37:24.50 +LjXmdcS.net
>>64
BTO?
多分マザボの拡張性は要注意ね
70:名無しさん@お腹いっぱい。
23/04/10 18:37:43.06 v4pKCc++.net
実在の人物ローラ作りたいんですがなかなか似ません、どうしたら良くなりますでしょうか?
71:名無しさん@お腹いっぱい。
23/04/10 18:40:07.85 AOCPksyf.net
>>64
モニタ含めてフルセットで、だよね?それなら妥当な値段かな
あとは電源が書いてないけど3060なら最低でも650は欲しいぐらい
ショップによっては初期選択の電源の品質が低いっていう店もあるからレビューとかよく調べてみて
あと人によっては専用にSSD追加しろって言い出すかもしれんが、それは必要に応じてかね
お絵かきAI目当てでPC買っても飽きちゃう人も一定数いるし
72:名無しさん@お腹いっぱい。
23/04/10 18:40:45.17 5BQuFX1U.net
まずそのリテラシをどうにかしろw
73:名無しさん@お腹いっぱい。
23/04/10 18:42:19.09 mWIlVvon.net
>>14
これってどういう手順でやってるんですかね?
cannyで元絵の輪郭抽出→taggerで元絵のキャプション作ってpromptに貼り付け→cannyで生成、って感じでやってもここまで忠実な絵が出ない。
74:名無しさん@お腹いっぱい。
23/04/10 18:46:58.82 5BQuFX1U.net
題材が悪かったのでは
モデルや設定は?
75:名無しさん@お腹いっぱい。
23/04/10 18:49:40.95 FDKjJTnc.net
みなさんアドバイスありがとうございます!
76:名無しさん@お腹いっぱい。
23/04/10 18:50:11.32 7DbJ6yak.net
>>64
もしもSSDが1TBなら俺は「HDDを追加した方がいいぞ」って言ってたけど、
これはSSDが2TBあるからまあいっかって感じだな。好き好きだしね。
>>70の言う通り、モニタを含んでるかどうかと、電源容量を確認してねってだけだ。
あとは俺も>>67と同意見で、水冷より空冷の方がトラブルの心配が少ないと思う。
リテールのCPUクーラーじゃなくて他社製の空冷CPUクーラーね。
77:名無しさん@お腹いっぱい。
23/04/10 18:53:14.70 xCiy5R7u.net
>>62
おお、ドンピシャです
やってみます
ありがとう
78:名無しさん@お腹いっぱい。
23/04/10 18:58:01.20 FDKjJTnc.net
パソコン工房というサイトで自分で選択していく方式でモニターとかマウスとかも込みの価格です
空冷クーラー検討してみます
79:名無しさん@お腹いっぱい。
23/04/10 19:01:08.44 vR9HGbLx.net
Loraで学習させたあとのsafetensorsファイルから学習元の情報を引き出す方法ってありますか?
80:名無しさん@お腹いっぱい。
23/04/10 19:07:28.72 3NPjoP14.net
>>64
覚悟してるとは思うけどグラボが性能足りてない
lora+hiresかけると3060は1枚40秒以上かかる
4070tiは1枚14秒
4090なら1枚8秒
loraもhiresも頻繁に使うので我慢できるかスマホのストップウォッチで測ってみたらいいと思う
81:名無しさん@お腹いっぱい。
23/04/10 19:08:21.18 bafOYefU.net
VRAMにPCのメモリ使える設定あるのです?
82:名無しさん@お腹いっぱい。
23/04/10 19:13:20.71 FDKjJTnc.net
>>79
4070というのにするとプラス15万…
天秤にかけたらまぁ時間を我慢する方向でいこうかな…
83:名無しさん@お腹いっぱい。
23/04/10 19:14:20.43 S5mkiSDg.net
前スレに出てたjyojipan LoRAは実写系だと味気ないただの綿パンになっちゃう
実写系でもサンプル画像のようなガーリーなの生成してくれるやつないですかね
84:名無しさん@お腹いっぱい。
23/04/10 19:19:02.12 N3JqYgyg.net
>>81
もう自作した方がロスが少ない
結局パーツ見始めるとBTOのアラしか見当たらなくなる
超絶妥協するか予算を足すかだ
幸いパーツを調べる事自体は金かからんし結局性能云々言い出したら自作するのが簡単なくらい知識を備えないといかんのだよ
85:名無しさん@お腹いっぱい。
23/04/10 19:20:35.76 eoujD7dr.net
>>81
上見たら金溶けてくからその選択が賢いよ
ゲームもやるなら4070ti有っても腐らないけどね
ちなみに今月中に4070が出るね10万切る予想されてるVRAM12GBね
86:名無しさん@お腹いっぱい。
23/04/10 19:20:41.42 AOCPksyf.net
>>77
パソコン工房なら大丈夫そうだ
良い買い物になるといいね
オレはブーム当初から3060でやってるけど十分楽しめてるよ
次買い換える時は5000シリーズかな
87:名無しさん@お腹いっぱい。
23/04/10 19:25:33.21 AOCPksyf.net
>>80
VRAMとメインメモリはまったく違うシロモノなので残念ながら無理
ただ、低VRAMでも動かすオプションはあるので4GB程度でも一応生成は出来る
めちゃ遅いが
88:名無しさん@お腹いっぱい。
23/04/10 19:27:39.69 F8bbmWzR.net
>>61
Commit hashがnoneになっているから、pythonのvenvが適切に動いていないのは間違いない。
一度、pythonを含め全部削除したあと、>>2の手順を一切省略することなく手順通りにやってみ。
89:名無しさん@お腹いっぱい。
23/04/10 19:46:45.71 ahEI93EY.net
30万の予算があれば実質23万くらいの4090に全力ブッパして残り7万あれば構成組めるけど
自作初心者にはちょっと無理そうだな
でも4080は行けるっしょ
今更3060買うのはちょっとなぁ
90:名無しさん@お腹いっぱい。
23/04/10 19:51:19.01 AOCPksyf.net
>>88
モニタ備品他含めての予算だそうだ
91:名無しさん@お腹いっぱい。
23/04/10 20:01:34.89 f3/5/KcU.net
前は学習とVRAMだけ見てればよかったけど
今はloraとかhiresやmultidiffusionとかcontrolnetとかlatentcoupleとか
Extensionを重ねがけするのが当たり前になってきてるので
それをある程度ストレスなく使えるグラボっていう視点で選ばないとキツイと思う
92:名無しさん@お腹いっぱい。
23/04/10 20:02:36.02 GE9+LEE8.net
colabに課金でよくね?
93:名無しさん@お腹いっぱい。
23/04/10 20:05:52.40 5BQuFX1U.net
毎回環境構築に5分とかかけるのクソじゃない?
横着するために10万単位出せる人は出した方がいいよ
94:名無しさん@お腹いっぱい。
23/04/10 20:08:57.79 VDhf237j.net
>>59
解説動画見てきたありがとー
95:名無しさん@お腹いっぱい。
23/04/10 20:14:25.95 ahEI93EY.net
>>89
ざっと妄想した感じ
CPU 12世代 i3 or ryzen4300G 15000円
マザー BIOSTARでもいいので5000円
MEM DDR4 8GBx2 7000円
SSD hiksemi NVME 1TB 8000円
ケース適当なの8000円
電源 クロシコあたりの650W 7000円(CPUへちょいので無問題)
ここまでで5万円
マウスキーボードをロジの3000円にしてもモニターに1万円7000円ならまあなくは無い
クソ安モニターは割とAOCおすすめ
OSは当然ですがubuntuです
ネイティブ環境のPythonを堪能しましょう
96:名無しさん@お腹いっぱい。
23/04/10 20:20:36.76 f3/5/KcU.net
予算30万あるのに3060環境ってのは俺は全力で止める
97:名無しさん@お腹いっぱい。
23/04/10 20:22:10.87 5BQuFX1U.net
それ以外の選択肢が4090か3090しか……
98:名無しさん@お腹いっぱい。
23/04/10 20:23:04.15 gZFS/FFU.net
>>31
動画解説。環境のバージョンアップに合わせて動画もアップされてるけど、
うp主はそんなに詳しく無さそうなのであくまでふいんきを覚えるのに。
URLリンク(www.youtube.com)
日本語の解説
URLリンク(katsuyuki-karasawa.github.io)
英語の解説 (上よりはちょっとだけ詳しい?)
URLリンク(civitai.com)
99:名無しさん@お腹いっぱい。
23/04/10 20:25:24.61 mps9UXA7.net
4080tiが出るまで待つ
100:名無しさん@お腹いっぱい。
23/04/10 20:31:07.34 VDhf237j.net
プロンプトってなんでカンマの後に半角スペース1つ置くの?スペースなくても変わらんよね?
101:名無しさん@お腹いっぱい。
23/04/10 20:32:22.26 K+K1lM3K.net
>>99
可読性じゃない?
102:名無しさん@お腹いっぱい。
23/04/10 20:33:53.47 oVl1Kxkv.net
>>97
ふんいきな
103:名無しさん@お腹いっぱい。
23/04/10 20:38:32.12 +LjXmdcS.net
>>101
今更このネタに突っ込むとかマ?
104:名無しさん@お腹いっぱい。
23/04/10 20:46:15.74 oVl1Kxkv.net
>>102
ネタじゃないだろw
恥ずかしいやつだなw
105:名無しさん@お腹いっぱい。
23/04/10 20:48:21.04 7rQcLFyq.net
今買うくらいなら4/13発表らしい4070を見てからの方がよくない?
4070Tiが12万~だから、4070は10万切る可能性あるし
106:名無しさん@お腹いっぱい。
23/04/10 20:49:17.16 gkrOMa4m.net
趣味の範疇だから出せるのは五万までだなぁ
107:名無しさん@お腹いっぱい。
23/04/10 20:52:30.87 AOCPksyf.net
>>94
オレじゃなくて相談者のログを読んだうえで本人に説明すればいい
なんでみんな最初の質問も読まずに好き勝手言ってるんだ
108:名無しさん@お腹いっぱい。
23/04/10 20:55:22.10 +LjXmdcS.net
>>103
いやお前が一番恥ずかしいよ
109:名無しさん@お腹いっぱい。
23/04/10 21:01:08.35 oVl1Kxkv.net
>>107
キチガイから絡まれちゃってるふんいきなw
110:名無しさん@お腹いっぱい。
23/04/10 21:08:04.29 lq0fNwdp.net
2chは初めてか?力抜けよ
何もかもが懐かしいな
111:名無しさん@お腹いっぱい。
23/04/10 21:08:09.37 gkrOMa4m.net
おまえらそんなガキみたいな話題で良く書き込めるなw
112:名無しさん@お腹いっぱい。
23/04/10 21:08:52.96 oVl1Kxkv.net
>>109
ここは5chだぜw
肩の力を抜けよw
113:名無しさん@お腹いっぱい。
23/04/10 21:09:18.55 5BQuFX1U.net
ぬるぽ
114:名無しさん@お腹いっぱい。
23/04/10 21:09:45.70 lq0fNwdp.net
ガッ
115:名無しさん@お腹いっぱい。
23/04/10 21:12:38.03 YPF8fP3p.net
>>104
ベンチ見てから�
116:ナもいいがスペックはだいぶ落ちるぞ
117:名無しさん@お腹いっぱい。
23/04/10 21:15:13.57 gkrOMa4m.net
VRAMの容量さえ多ければ他のスペックなんか気にならない
118:名無しさん@お腹いっぱい。
23/04/10 21:28:49.00 Zggm3FNo.net
基本的には費用を抑えたいなら5万で3060で、予算が許すなら許す限り上位の40シリーズ狙いだろ
30万くれるって言われたら俺なら4080狙いだな
119:名無しさん@お腹いっぱい。
23/04/10 21:38:52.98 7rQcLFyq.net
>>114
それは当然理解してるけど、>>64の構成をいじって4070を押し込める可能性もあるから
後悔したくなければ、あと数日待った方がいいかなと
>>64の構成がそもそもいくらなのか書いてないしね
CPUが13400でGPUが4070は、CPUがちょっと弱いかなという気もするけど、画像生成AI用途なら
あまり問題にならんだろうし
120:名無しさん@お腹いっぱい。
23/04/10 21:51:55.20 L5aAYKWd.net
>>78
普通にメモ帳でもいいから開けばjson形式のメタデータが見れる
右みたいにファイル突っ込んで整形して"ss_tag_frequency"があれば頻度順に並び替えて表示するようにすると便利かもしれない
URLリンク(i.imgur.com)
121:名無しさん@お腹いっぱい。
23/04/10 21:53:39.37 DFlXLukc.net
loraのことで聞きたいことがある
例えば、りんごを学習させたいとして
りんごと女の子が写ってるやつを学習画像にすると、女の子のほうも学習しそうだから りんごだけ写ってる画像を用意して学習させる方が制度が高くなる
間違いないですか?
122:名無しさん@お腹いっぱい。
23/04/10 22:24:29.22 FDKjJTnc.net
OS Windows 11 Home (DSP)
インテル Core i5-13400 プロセッサー [4.60GHz(P2.50GHz-4.60GHz/E1.80GHz-3.30GHz)/10コア(P6+E4)/16スレッド/20MBキャッシュ/TDP 65W-148W]
CPU冷却グリス
【熱伝導率: 16W/m・K】 ナノダイヤモンドグリス JP-DX1 塗布サービス
CPUクーラー 空冷CPUクーラー
グラフィックアクセラレーター
NVIDIA GeForce RTX 3060 12GB GDDR6 [HDMI×1・DisplayPort×2]
メインメモリ
32GB(16GB×2) [DDR5-4800 / デュアルチャンネル]
1stストレージ[OSインストール]
2TB SSD / NVMe M.2 [PCIe 4.0×4] (弊社特選※)
2ndストレージ
1TB SSD / NVMe M.2 [PCIe 3.0×4] (弊社特選※)
チップセット インテル B760 チップセット
サウンド機能
High Definition Audio subsystem
内蔵ネットワークカード
有線:1000BASE-T ※無線機能はついておりません
光学ドライブ無し
ケースファン 12cm ケースファン 上面×1・背面×1 (水冷CPUクーラー搭載時は上面×2・背面×1)
電源 800W [80PLUS GOLD認証] / ATX電源
ケース ミニタワーMicroATXケース
キーボード Logicool keyboard K120(有線/日本語109 キー)
マウス 光学式マウス[ブラック](有線/USB接続)
ゲーミング・マウスパッド
SteelSeries QcK medium
液晶モニター
【27.0型(フルHD:1920×1080)/IPS】BenQ MOBIUZ EX2710S[リフレッシュレート:165Hz/HDR対応]
【LANケーブル・3m】LD-GFATBMシリーズ CAT6A準拠[厚さ1.4mm/10Gbps/ストレート]
単価 279,805円
熟考の末上記内容で注文しましたー
みなさんアドバイスありがとうございました😭
123:名無しさん@お腹いっぱい。
23/04/10 22:35:13.80 AOCPksyf.net
>>119
一概にそうとは言えないので難しい
例えばりんごの学習量がほぼ無いものだとして
自然に果物や食べ物としてりんごを出したいのであれば『皿の上のりんご』とか『手に持ったりんご』とか『木になったりんご』とか、使われ方がセットになった絵で学習したほうが自然な結果が得られるかもしれない
切り取った単体であっても、食べ物や果物というタグを付けるだけで、すでに覚えている他の果物や食べ物と差し替えて生成することが出来るかもしれない
メガネを例に出すと、メガネだけ単体で覚えさせると単なるアイテムとしてしか覚えずに空間に浮かんだりするけど、メガネをかけてる人の絵も一緒にタグ付けて覚えさせるとちゃんと顔につけてくれる
ただこの場合も、メガネに関して言えば、すでにそれなりに学習しているので案外単体でもいけるかもしれないし
なので、学習させたいモノとその用途次第で方法も変わってくる
特に用途が限定的であれば学習画像も少なくて済む
124:名無しさん@お腹いっぱい。
23/04/10 22:53:51.97 eoujD7dr.net
>>120
ホントに一式だね
熟考したなら大丈夫だ
125:名無しさん@お腹いっぱい。
23/04/10 22:54:45.49 vR9HGbLx.net
>>118
おお!凄い!
やってみます!
126:名無しさん@お腹いっぱい。
23/04/10 23:00:17.17 RjK0XNIk.net
macのm2では動きませんか?
127:名無しさん@お腹いっぱい。
23/04/10 23:13:08.46 bGRNE1ha.net
初歩的な質問で申し訳ないのですが
画像生成すると、高確率で首周りに襟やらリボンやらがついてくるんです
首周りは何もつけたくないんですけど、どういう呪文使えば首周りスッキリさせられますか?
128:名無しさん@お腹いっぱい。
23/04/10 23:16:22.50 F8bbmWzR.net
>>124
動くよ。おっそいけど。
129:名無しさん@お腹いっぱい。
23/04/10 23:18:27.17 eoujD7dr.net
>>125
この手の質問する時モデルはさておき入れてるプロンプトくらいは出してくれた方がアドバイスしやすいかも
130:名無しさん@お腹いっぱい。
23/04/10 23:19:41.67 F8bbmWzR.net
>>125
Negative Promptにそのくっついてきているものをそのまま記述して(xxx:1.9)くらい強調したらだいたい消える。
それでも消えなければ、指定しているプロンプトが、その首回りの要素も含めて一つのものとして学習していると思われる。
自作モデルなら画像のタグを見直して再学習、拾い物なら他のモデルにする。
131:名無しさん@お腹いっぱい。
23/04/10 23:28:23.15 bGRNE1ha.net
>>127
anything-v4.0 です!昨日ローカル版インストールしてあれこれ触ってるかんじで
呪文とか色々調べたりしてあれこれやってみたけど消えなくて
AIイラスト呪文生成器という便利なサイトさんでプロンプト作ってる感じです
>>128
なるほど、同じ画像が生成されると学習しちゃうんですね
モデルとか変えたりしてやってみます
まだ自作できるほどの知識がないので、借り物のモデル色々変えて記述を強調の仕方も頑張ります
ありがとうございます
132:名無しさん@お腹いっぱい。
23/04/10 23:34:48.41 aT5A33/y.net
おケツ越し振り向きが得意なモデル無いでしょうか
色々試したが大体ぐちゃぐちゃになる
133:名無しさん@お腹いっぱい。
23/04/10 23:38:08.52 wzqrRfI1.net
気に入らないごく一部を直そうとしてちょっとプロンプトいじると全体がガラッと変わっちゃうんだよね
i2iで部分修正するかフォトショで消すかしたほうがいいと思う
134:名無しさん@お腹いっぱい。
23/04/11 00:17:26.15 /plgkB0P.net
>>129
> なるほど、同じ画像が生成されると学習しちゃうんですね
いや、そうではない。生成された画像で再学習する仕組みはStable Diffusionにはない。
例えばショートヘアの画像に全て「short hair」というタグを付けることでshort hairといえばショートヘアと学習する訳だけど、
その学習画像のすべてが襟付きシャツだと、襟付きシャツまで含めて「short hair」として学習してしまう。
それを避ける為に、ロングヘアの画像を追加して「long hair」と付けて、両方に「collared shirt」と付けることで、シャツと髪型を分離できるんだが、
それが十分に出来ていない場合、ショートヘア画像を出そうとすると、襟まで出てきてしまうことが非常に多くなる。
で、Negative Promptに「collared shirt」を追加することで、他の画像で「collared shirt」の学習があれば、その様な描画を避けられるようになる。
が、そもそも「collared shirt」が学習されてないとなるとその様なことも出来ないので、そうなるとモデルを変えるしかなくなる。
135:名無しさん@お腹いっぱい。
23/04/11 00:22:28.29 LqYeyH3w.net
>>120
将来を見越した構成でいいと思う
無理してカツカツで
136:揃えるより安定した運用が出来ると思う 良い生成ライフを!
137:名無しさん@お腹いっぱい。
23/04/11 00:42:00.16 CiLK5bmi.net
>>124
余裕だね
138:名無しさん@お腹いっぱい。
23/04/11 00:53:07.80 JlX6xUWr.net
質問があります。civitai.comのLORAをに「Base Model SD 1.5」とありますが、これは「Stable Diffusion1.5を使え」ってことなんでしょうか?
139:名無しさん@お腹いっぱい。
23/04/11 00:59:10.04 Aq4fcDc5.net
1.5系と2.0系があるので1.5系だと言うことですね
本当にSD1.5のデフォモデルを使うと崩壊しますよ
140:名無しさん@お腹いっぱい。
23/04/11 01:06:19.18 JlX6xUWr.net
>>136
ありがとうございます。ただ、超初心者なのいまいち良くわかってません。Base Model SD 1.5と書いてあるLORAを使うにはGoogle Colabにどんな設定をすればいいのでしょうか。参考になるサイトなどあれば助かります。
141:名無しさん@お腹いっぱい。
23/04/11 01:07:46.24 Aq4fcDc5.net
俺はローカルなので、それは知らんので他の人に聞いて
142:名無しさん@お腹いっぱい。
23/04/11 01:08:31.15 JlX6xUWr.net
>>138
失礼いたしました。ありがとうございます。
143:名無しさん@お腹いっぱい。
23/04/11 01:22:20.96 LqYeyH3w.net
>>137
colabでの使用以前に、モデルのバージョンについて理解しておいたほうがいい
StableDiffusion(以下SD)の学習モデルには、大きく分けるとv1.4~v1.5をベースにした1系モデルとv2.0~v2.1をベースにした2系モデルの2種類がある
そしてその2種には互換性がない
とはいえ、今現在みんなが使用してるであろうモデル(AOM3とかchilloutとか色々)は大半が1系モデルなので、基本的にはSD1.5ベースと書かれているLoRAであれば問題ない
144:名無しさん@お腹いっぱい。
23/04/11 01:29:07.98 4FsYh0sx.net
>>132
わかりやすいな、ありがとう
145:名無しさん@お腹いっぱい。
23/04/11 01:46:18.23 M5iLIoRb.net
colabの最大の問題は、巡回BOTに生成画像が実写/アニメ関係なく未成年エロ画像と判断されて
アカバン&関連データ全部引き出せなくることだしな
さいとうなおきれべるならネタにできて笑いも取れるだろうが、一般人は泣き寝入りだしね
146:名無しさん@お腹いっぱい。
23/04/11 01:51:46.73 J5sSYNi8.net
LoRAの学習で素材画像が少ない場合、繰り返し回数とエポック数とでどちらを増やした方がいいとか目安はあるのかな?
147:名無しさん@お腹いっぱい。
23/04/11 01:56:49.88 2R9EmoTA.net
>>142
Googleドライブ上に画像データ残さなければいいんでそ?
148:名無しさん@お腹いっぱい。
23/04/11 02:08:53.22 eRVquMLr.net
キャラクターじゃなくて特定の絵師の画風だけを真似したくて色々探してるけど、わりと丁寧に説明しているのがこれくらいしかない。
URLリンク(youtu.be)
他にも簡単な方法とかあったりする?
149:名無しさん@お腹いっぱい。
23/04/11 02:17:29.54 +bzS9nYT.net
>>144
生成した瞬間引っかかるリスク
150:名無しさん@お腹いっぱい。
23/04/11 02:25:22.43 YAN30yUQ.net
(StableDiffusionの)txt2imgで生成している時点でupscale使うとどうしても絵が崩壊しがちになるけど、放置且つ複数のプロンプトで生成させてる状態で高解像度の画像を量産するにはこの手法しかないんですかね?
手動でなら幾らでもやりようはあるけども...
151:名無しさん@お腹いっぱい。
23/04/11 02:26:30.03 /plgkB0P.net
>>145
出来合いのLoRAでちょうどいいのがあればそれを適用する。
無ければ頑張って自作するしかない。AIは生成するまでの準備に手間がかかる。その労力は払うこと。
どうしても手間かけたくないなら、絵師に金払って描いてもらうのが最適。
152:名無しさん@お腹いっぱい。
23/04/11 03:06:45.28 QvBWRtIH.net
>>145
みんなやりたいこと色々だな
俺は逆に画風を除外したくて、あえて画風学習させたコピー機モデル作って
そのモデル使って更に学習させたい服やアイテムとの差分だけ学習とかしてみてるが、
まぁ中々にめんどくさい
153:名無しさん@お腹いっぱい。
23/04/11 03:08:54.86 UvrBS3X3.net
モデルの追加をしたくて、
models/Stable-diffusion
にsafetensorsファイル入れてるけど反映されない。
もしかしてやり方間違ってる?
154:名無しさん@お腹いっぱい。
23/04/11 03:13:06.51 k9egcHo0.net
更新ボダ押した?
155:名無しさん@お腹いっぱい。
23/04/11 03:16:42.13 UvrBS3X3.net
押したけどリストに出ない。
一応再起動も何度かしたけど出ない。
導入方法はフォルダに入れるだけみたいだけど前提手順があるのかな?
156:名無しさん@お腹いっぱい。
23/04/11 03:21:15.31 nvEl2ivj.net
>>147
(StableDiffusionの)txt2imgで生成している時点でupscale使うとどうしても絵が崩壊しがちになるけど
まずここを見直すんだ。崩壊しにくいupscaleを身につけよ
157:名無しさん@お腹いっぱい。
23/04/11 03:57:09.61 UvrBS3X3.net
昔入れたらしき
wd-v1-3-full.ckpt
model.ckpt
はリストに出るんだけど、今日入れてみようとした
v1-5-pruned.safetensors
sdHypernetNendroid_10.pt
maplestoryStyle_v30.safetensors
はファイルに入れても更新してもリストに載らない
158:名無しさん@お腹いっぱい。
23/04/11 04:52:50.44 hMMzeg4i.net
>>154
Maplestory styleはモデルじゃなくてLoraだからmodels/Loraに入れないとダメだな
Loraの使い方は調べてもろて
159:名無しさん@お腹いっぱい。
23/04/11 07:43:09.73 LqYeyH3w.net
>>154
昔入れたらしき、が気になるんだけどwebui全然更新してないのでは?
160:名無しさん@お腹いっぱい。
23/04/11 08:21:45.74 9rzK721Q.net
質問です。webuiなんですが
ノートパソコンのc直下にフォルダ作って使用してます。
これをまるっとコピーしてデスクトップに入れても動くでしょうか?
161:名無しさん@お腹いっぱい。
23/04/11 08:27:11.98 d/50ZgeT.net
>>146
スマホからエロ絵生成してるけどまずいんか...?
162:名無しさん@お腹いっぱい。
23/04/11 08:34:41.55 FbLKgWeJ.net
Loraの自作をしようと考えているのですが、モノクロ素材のみを学習させた場合、
着彩された絵が白っぽくなったり主線が強くなったりしますか?
形状だけに作用してもらえるとありがたいのですが。
163:名無しさん@お腹いっぱい。
23/04/11 08:38:02.03 LqYeyH3w.net
>>157
実はデスクトップはCドライブの深い階層にあるので大きなファイルフォルダは置くべきではない
まだC直下のほうがマシだよ
そもそもCドライブはシステムドライブなので出来ればCではなく別のドライブに置くのがベスト
164:名無しさん@お腹いっぱい。
23/04/11 08:42:54.22 LqYeyH3w.net
>>159
もちろんその可能性はある
あくまでもモノクロ、線画、ということをタグ付けし、使用時はネガティブにモノクロ、線画と入れることで抑えることは出来るかもだが、同時に本来の絵の成分も抑えられてしまう可能性もある
ともあれ、学習環境があるのならやってみるのが一番
納得できる再現レベルは本人にしかわからんし
165:名無しさん@お腹いっぱい。
23/04/11 08:44:17.03 d/50ZgeT.net
M.2じゃないとSSDのパフォーマンスを最大限引き出せないと聞いたのでSATAの増設SSDあるけどprogram fileとか入ってるM.2SSDをパーティション分割してそこにSD入れてる
166:名無しさん@お腹いっぱい。
23/04/11 08:45:17.31 LqYeyH3w.net
>>158
エロ自体諦めるか、凍結されてもいい捨てアカでやることだね
167:名無しさん@お腹いっぱい。
23/04/11 08:49:27.91 LqYeyH3w.net
>>162
そこまで速度にこだわる人達はグラボも4090とか買ってるレベルの人達だけだよ
普通の人はUSB3の外付けSSDでも十分ストレスなく遊べる
それにモデル入れ替えやマージなんかを多用すると劣化を爆速で早めるので、個人的にはシステムドライブにインストールするのはあまりオススメしない
168:名無しさん@お腹いっぱい。
23/04/11 08:58:46.19 lH7NccVQ.net
>>164
そうなんか...今度SATAに移すか...
169:名無しさん@お腹いっぱい。
23/04/11 0
170:9:23:48.62 ID:QulmKruq.net
171:名無しさん@お腹いっぱい。
23/04/11 09:25:13.94 N1eeewHp.net
顔はこのモデル、体はこのモデル、塗りはこのモデル、みたいな風にしたい時皆さんはどのようにしてますか?
172:名無しさん@お腹いっぱい。
23/04/11 09:25:38.32 C04FdgQZ.net
あのLoraほんま凄い
AIの良さ引き出しまくってる
173:名無しさん@お腹いっぱい。
23/04/11 09:28:37.31 /plgkB0P.net
>>158
凍結ならまだいいが、国際手配なんてされたら洒落にならんぞ。
クラウドでエロ絵は厳禁と思っとけ。
174:名無しさん@お腹いっぱい。
23/04/11 09:43:23.03 fup2kb5y.net
>>148
その頑張って自作する方法を聞いているのでは…?
175:名無しさん@お腹いっぱい。
23/04/11 09:45:55.34 fup2kb5y.net
キャラクターLORAはまだ簡単だけど画風だけ学習させるのほんとすごいわ
176:名無しさん@お腹いっぱい。
23/04/11 09:49:46.29 9rzK721Q.net
>>160
ごめんなさい質問が悪かったです
ノートパソコンからデスクトップパソコンに移動するという意味です
紛らわしくてすみません
177:159
23/04/11 09:55:28.03 FbLKgWeJ.net
>161
>166
あざます!
情報たすかります。
178:名無しさん@お腹いっぱい。
23/04/11 09:59:35.41 uuQfy0WW.net
生成中に他の作業すると時間だけじゃなくて結果に影響する可能性ってありますか?
179:名無しさん@お腹いっぱい。
23/04/11 09:59:58.23 /plgkB0P.net
>>170
画風学習は>>145自身が見ているようつべ動画で解説されているので、地道にやるしかないよ、ってことを案内している。
180:名無しさん@お腹いっぱい。
23/04/11 10:02:49.08 L4ywGsf/.net
>>174
画質や画像の内容には影響しません。VRAMが足りなくなって
CUDA oom(out of memory、メモリ不足)エラーを吐いて出力されない可能性はありますが。
181:名無しさん@お腹いっぱい。
23/04/11 10:05:01.51 LqYeyH3w.net
>>172
であれば、無理
あらためて再インストールしたほうがいい
ただ、モデルやLoRAとかはコピーして普通に使える
pythonとか入れたくないのであれば簡単系インストーラーでの導入もありかも
182:名無しさん@お腹いっぱい。
23/04/11 10:07:58.79 /plgkB0P.net
>>172
別PCへのコピーでは動作しない可能性がある。
新規でセットアップして、モデルだけ移植した方がトラブル起きない。
183:名無しさん@お腹いっぱい。
23/04/11 10:21:39.15 9t/tjTvo.net
新たにインストールするたびにバージョンが微妙に新しくなってる件
184:名無しさん@お腹いっぱい。
23/04/11 10:22:55.20 Hku7uS10.net
同じでいたいならハッシュはメモってもろて……
まあaなんたらかんたら安定って100人に聞いたら1000人がそう答えてくるけど
185:名無しさん@お腹いっぱい。
23/04/11 10:28:29.56 WRXrDfPn.net
ggの具をChilloutとかに階層マージする場合、
パラメータをどう設定すればいいですか?
186:名無しさん@お腹いっぱい。
23/04/11 10:28:32.96 yiygsLxT.net
>>177
>>178
ありがとうございます
やはりめんどくさがってはダメですね
インスコがんばります
アドバイスありがとうございました
187:名無しさん@お腹いっぱい。
23/04/11 10:36:50.41 jlT9dsbV.net
>>132
あれ?学習させたいものはタグを消すんじゃないの?
ごちになってきた
188:名無しさん@お腹いっぱい。
23/04/11 10:37:00.61 jlT9dsbV.net
>>132
あれ?学習させたいものはタグを消すんじゃないの?
ごちゃごちゃになってきた
189:名無しさん@お腹いっぱい。
23/04/11 10:38:33.01 9t/tjTvo.net
>>132
全体を見て細かくキーワードを設定すればいいのでは?
190:名無しさん@お腹いっぱい。
23/04/11 10:39:33.79 6so12ifd.net
たまにこういう感じで全体的に黒いジャギジャギの影みたいのが入った汚い画像になることあるんですけど回避する方法ないですか?
URLリンク(imgur.com)
通常はキレイな肌や背景になるんですけど数枚に1枚程度でなるんですよね
191:名無しさん@お腹いっぱい。
23/04/11 10:42:21.16 2JTQaQ1u.net
解説サイトを読むと、プロンプトにmasterpieceだのhigh qualityだの入れてるけど
192:、そんな「良し悪し」に関することをどうしてAIが判断できるんだ?
193:名無しさん@お腹いっぱい。
23/04/11 10:43:47.81 xBoBR92+.net
これは良しのデータであれは悪しのデータって人間が教えたから
194:名無しさん@お腹いっぱい。
23/04/11 10:43:47.71 LqYeyH3w.net
>>182
面倒ならこれとかクソ簡単よ
URLリンク(note.com)
195:名無しさん@お腹いっぱい。
23/04/11 10:46:49.07 9t/tjTvo.net
無垢なAIにどう教えたらどう覚えるか
この辺がノウハウになりそうだね
196:名無しさん@お腹いっぱい。
23/04/11 10:49:01.50 ySHNg+gJ.net
前に同じ質問あったら申し訳ないんですが
うちの環境だとウィンドウズのリアルタイム保護をオフにしないと、user.bat起動してもボリュームラベルがありませんとかでWEBUIが起動しないんだけど
同じ症状だった人とかいたら解決方法ご教授願いたいです
197:名無しさん@お腹いっぱい。
23/04/11 10:57:01.56 QulmKruq.net
>>191
user.batってなんですか?
198:名無しさん@お腹いっぱい。
23/04/11 10:59:10.48 x7+x0Var.net
今日は休みかい?
羨ましいね
199:名無しさん@お腹いっぱい。
23/04/11 10:59:29.82 QulmKruq.net
ってwebui-user.batか、考えすぎた
揚げ足で済まんがファイル名は正確に
リアルタイム保護=オフだとちゃんと動くのは確定でOK?うちはオンだけど普通に動いてるなぁ
SDフォルダを除外に入れてみたら?
200:名無しさん@お腹いっぱい。
23/04/11 11:00:50.90 /plgkB0P.net
>>184
LoRAの学習において、学習させたいもののタグを消す、ってのは、自動生成のタグのお話。
学習させたいものを形付ける要素がタグ付けされていると、学習させたいものと別のものとして学習されてしまう。
WD14 Captioningは、AIが一般的なモデルを使って一般的なタグを付けるので、その一般的なタグの中に、
学習対象を形付けるものが含まれている可能性があり、手動追加するタグと一体化させたいものはタグを消す。
例えば、galsoneを学習させたい時にWD14 Captioningを通したらglassesが入ってくるんじゃないかなと思う。
でもgalsoneの特徴としてglassesは欠かせないので、一体化させてgalsoneとして学習させるためにglassesを消す。
201:名無しさん@お腹いっぱい。
23/04/11 12:13:00.85 mRGLkD1e.net
Canny使うとギザギザになりがちなのはどうにかならないものか
202:名無しさん@お腹いっぱい。
23/04/11 12:47:16.88 Jz23BOKp.net
URLリンク(twitter.com)
こういう破綻のない4K画像ってどうやれば出せるんですか?
(deleted an unsolicited ad)
203:名無しさん@お腹いっぱい。
23/04/11 12:47:34.44 xBoBR92+.net
重み変えたりモデル変えてみたら?
どっかでモデルで微妙に変わるって意見見たよ
204:名無しさん@お腹いっぱい。
23/04/11 12:54:26.12 1FfNekCF.net
本人聞けよ
晒しか?
205:名無しさん@お腹いっぱい。
23/04/11 12:59:28.63 L4ywGsf/.net
>>197
直接本人に聞いてくれ。ヒの添付画像はメタデータが消える仕様だから、エスパーしかできない。
MultiDiffusionでも使ってるんじゃないか?
でも普通にHires.fixで出力してからExtrasタブで2倍にしてるだけかもしれんなー。
あと破綻は後からInpaintで修正してもいい。
206:名無しさん@お腹いっぱい。
23/04/11 13:00:38.45 P0BuW1Kt.net
>>111
刀抜けよに見えた
207:名無しさん@お腹いっぱい。
23/04/11 13:01:12.73 kG9rnWbR.net
こいつ本人に聞かないで他でも聞いてるし解決しても教える気はないって言ってるんでほっとけばいいよ
208:名無しさん@お腹いっぱい。
23/04/11 13:07:38.47 L4ywGsf/.net
>>202
ありがとな、本スレ見てきたわ
209:名無しさん@お腹いっぱい。
23/04/11 13:15:36.52 U2ByePJs.net
顔そのままで服だけ変えるにはどうしたらいいんだ?
210:名無しさん@お腹いっぱい。
23/04/11 13:24:33.64 fup2kb5y.net
img2imgでinpaintしてみるとか
211:名無しさん@お腹いっぱい。
23/04/11 13:57:21.32 jxbn11ZT.net
pci express3.0マザボにRTX4000シリーズ挿してる稀人おる?
ゲームだとほとんど変わらんらしいがAIだとどうだろう?
212:名無しさん@お腹いっぱい。
23/04/11 14:05:09.96 Zi+0GFmn.net
>>197
というかこれ4kなのか?
213:名無しさん@お腹いっぱい。
23/04/11 14:27:21.23 IAOrE7EJ.net
うんこしてる女の子の画像作りたいんですけど、よさそうなLoraのデータはどこかからダウンロードできるんでしょうか?
214:名無しさん@お腹いっぱい。
23/04/11 14:31:36.17 8VjX6+qg.net
リアル系で中々良い画像が出来たんで、高画質化にしようとhires.fixでやったのですが、
若干顔が変わってしまうのはしょうがない事ですかね?
URLリンク(yuuyuublog.org)
を見てやったんですけど。
メモリの問題で2倍は無理だったんで1.5倍にしました。
215:名無しさん@お腹いっぱい。
23/04/11 14:32:03.49 N1eeewHp.net
i2iでhiresfixを使う方法って無いんですか
216:名無しさん@お腹いっぱい。
23/04/11 14:56:25.63 BoZUzFQi.net
単純に解像度だけ上げたいならwaifu2xとか。
背景を拡張したかったらleonard.aiのcanvasとか。
217:名無しさん@お腹いっぱい。
23/04/11 14:57:08.10 rUUq1vmL.net
NHKクローズアップ現代でChatGPT来るか…
どんなスタンスで取り上げるのか見ものだな
218:名無しさん@お腹いっぱい。
23/04/11 15:05:47.93 LXv4xgYN.net
CEOが来日して岸田首相と会った話だろ
統一地方選挙の後半戦が始まるからヨイショ企画
219:名無しさん@お腹いっぱい。
23/04/11 15:06:18.37 Wf+nmBUf.net
>>169
まじかよ...俺捕まるんか?もう辞めるから許して
220:名無しさん@お腹いっぱい。
23/04/11 15:09:23.00 IJtuiqk+.net
児ポで国際手配されたらめちゃくちゃ有名人になれそう
それでYouTuberになればお金持ち
221:名無しさん@お腹いっぱい。
23/04/11 15:09:57.13 8eLk7sf6.net
Googleドライブなりアメリカのクラウドサービスに児童ポルノ入れてると米国に入国した時点で逮捕されるみたいな都市伝説は聞いたことある
222:名無しさん@お腹いっぱい。
23/04/11 15:13:16.45 mrFC7giA.net
>>207
pcブラウザで開くとバチバチの4K以上
4000x2160だったかな、こんな破綻が無くて解像感のある4K初めて見て衝撃だわ
ここも向こうもloraは鬼のように探求してるのに
高画質化は遅れてるんだよなー
223:名無しさん@お腹いっぱい。
23/04/11 15:28:34.43 aoUAEikM.net
>>216
スマホ内の画像チェックも抜き打ちでやられて
捕まった日本人がいたぞ
224:名無しさん@お腹いっぱい。
23/04/11 15:30:59.45 W+xgrdRO.net
>>208
civitaiでDefecationで検索
225:名無しさん@お腹いっぱい。
23/04/11 15:33:21.08 OsRnFH1K.net
>>218
俺もそういうニュースを見た記憶があるが、起動やログインはともかく空港職員が中身までチェックすることは有り得ないので、何らかの理由で元々目をつけられてたかアウロリ画像をホーム画面にしていたかだと思われる
226:名無しさん@お腹いっぱい。
23/04/11 15:42:25.78 aoUAEikM.net
>>220
抜き打ちでやってると聞いた
目を付けられてるわけじゃないよ
227:名無しさん@お腹いっぱい。
23/04/11 15:49:50.80 02lSMlk2.net
こちとら2次元にしか興味ないのに犯罪者予備軍と思われるのは心外だな
228:名無しさん@お腹いっぱい。
23/04/11 16:13:32.62 kbXOlNCk.net
真面目な絵出してんのに突然裸になったりするからな、どいつもこいつも
229:名無しさん@お腹いっぱい。
23/04/11 16:13:46.70 kChp2A8j.net
>>222
どう考えても二次元で捕まってる例がオーストラリアであるぞ
税関で何かアプリ経由で大量の画像が……とか漫画アプリだろというのがあった
230:名無しさん@お腹いっぱい。
23/04/11 16:15:44.58 aXebvO0f.net
解像度低いと画像破綻率低いけど解像度上げると破綻率も上がるんですかね
そこで解像度下げてHires.fixでアップスケールするとプレビューで見てる感じだと画像生成時はまともなのにHires.fix効く時点で破綻する事が多いです
例えば背景の空に浮かんだ雲が頭の帽子に変形したり腕の横のふとももだったのが一体化したり等々
なるべく破綻無く最終出力解像度上げる良いバランスや方法、考え方等アドバイスいただけないでしょうか
231:名無しさん@お腹いっぱい。
23/04/11 16:20:49.38 kG9rnWbR.net
Denoisingstrengthをさげる
232:名無しさん@お腹いっぱい。
23/04/11 16:27:12.94 nrEupirY.net
3:4が良いかなぁって576:768で生成してるけども少し下げた方が良いかな?
233:名無しさん@お腹いっぱい。
23/04/11 16:44:07.27 Hm7r2eSP.net
512:684でもいいかもしれんが破綻してないならいいじゃない
234:名無しさん@お腹いっぱい。
23/04/11 16:45:01.95 wdthZXpQ.net
コマンド操作でのエラーはコピーしてchatGPTに聞いてみ
これで何回か解決してきた
235:名無しさん@お腹いっぱい。
23/04/11 16:46:47.19 OsRnFH1K.net
>>221
空港職員が中身まで見るのは有り得ない
抜き打ちでやっているのは起動確認やログインまでで、これは本物の機械である(よく似せた爆発物等ではない)ことを確認するため
236:名無しさん@お腹いっぱい。
23/04/11 16:48:20.23 aXebvO0f.net
>>226
LoraでDenoising strength デフォルト値より低い値推奨のがあって基本ほとんどの値は高いほど良いと思い込んでたからそういう事なのかもですね
目から鱗です
試してみます!
237:名無しさん@お腹いっぱい。
23/04/11 16:49:15.93 IZrJroiU.net
なお容疑者は「このキャラは1006歳だから合法だ」などと意などと意味不明な供述を繰り返しており
238:名無しさん@お腹いっぱい。
23/04/11 16:56:37.37 aoUAEikM.net
>>230
いや児ポの抜き打ち検査だとはっきり言ってたから
間違いないんだよ
239:名無しさん@お腹いっぱい。
23/04/11 16:57:20.09 wdthZXpQ.net
複数のLoraを使ったり他の拡張(LatentCoupleとか)を組み合わせたりといった
生成に負担かかってそうなときはパラメータは思い切ってグッと下げる
weight、CFG、Denoisingとか
240:名無しさん@お腹いっぱい。
23/04/11 17:00:33.34 GmHmnPta.net
このご時世クラウドでアウロリ生成はBANに留まらず何時いかなる理由で
社会的にアウトになるかわからんから止めとけって結論は変わらないんだから
空港がどうとかスレ違いの方向でレスバしなくていいぞ
241:名無しさん@お腹いっぱい。
23/04/11 17:06:09.72 8VmvuWgC.net
google(colab)はアメリカ企業だという事をゆめゆめ忘れるな
242:名無しさん@お腹いっぱい。
23/04/11 17:12:25.36 jvxyS9+J.net
ロリじゃなければいいの?
243:名無しさん@お腹いっぱい。
23/04/11 17:13:55.94 AnxbCkue.net
どこまでがアウでどこまでがセフなのか
244:名無しさん@お腹いっぱい。
23/04/11 17:19:20.46 aoUAEikM.net
日本じゃOKだが、COMIC LOとか持ち込んだら100%捕まる
245:名無しさん@お腹いっぱい。
23/04/11 17:19:48.74 VKhvxf16.net
じゃけんローカルでやりましょうね~
246:名無しさん@お腹いっぱい。
23/04/11 17:20:25.70 HIhpFy9J.net
Googleドライブにjcjkの裏垢無修正を保存して5年経つけどお咎めなしだな
247:名無しさん@お腹いっぱい。
23/04/11 17:35:08.28 UNCCwM1k.net
>>87
ありがとう
python周りだけじゃなく過去にanacondaを導入したときに変更されてた設定回りとかも徹底的に潰したら起動できました
おかげでAI絵デビューできます
248:名無しさん@お腹いっぱい。
23/04/11 17:35:59.00 UNCCwM1k.net
連投&始めたばかりの赤ちゃんで申し訳ない
生成してみた感じVAEが適用されてないんだろうなという色の薄さなんだけど上の「SD VAE」にはちゃんとVAEがある(VAEの切り替えをした上でUIのリロードもした)
これはVAEは効いているんだろうか?
URLリンク(i.imgur.com)
それともまだプロンプトを入れて生成するとこまでしかやってないからモデルとVAEだけだとこんなものでLORAとか導入すると変わるんだろうか
249:名無しさん@お腹いっぱい。
23/04/11 17:43:58.91 oHYrTlrH.net
>>240
ローカルは貧弱なんだよ
おろろろろーん
250:名無しさん@お腹いっぱい。
23/04/11 17:45:07.38 0PRcSNOI.net
>>243
scriptでVAEを複数設定してみて比較するのはどうかな?
251:名無しさん@お腹いっぱい。
23/04/11 17:46:24.31 splNI6gg.net
>>243
ネガティヴプロンプトに前スレで貼られてたこれ
URLリンク(i.imgur.com)
入れてみると変わるかも?
252:名無しさん@お腹いっぱい。
23/04/11 17:47:25.88 wdthZXpQ.net
>>243
試しにネガティブにmonochrome入れてみて
それかEasyNegativeを入れてみ
253:名無しさん@お腹いっぱい。
23/04/11 17:50:23.97 wdthZXpQ.net
EasyNegativeはTextual inversionのやつのことで
ダウンロードしたファイルをstable-diffusion-webui/embeddingsのフォルダに入れて使うやつな
254:名無しさん@お腹いっぱい。
23/04/11 17:53:07.38 xBoBR92+.net
>>243
一応VAEなしと比較してみて変化があるか確認
モデル名と同じ名前のVAEファイル入れると自動で読み込む設定になってないか確認
safetensorsのやつに変えてみる等
255:名無しさん@お腹いっぱい。
23/04/11 17:54:59.42 UNCCwM1k.net
とりあえずネガティブにmonochrome入れてみた
ちょっと彩度上がったかも?
URLリンク(i.imgur.com)
256:名無しさん@お腹いっぱい。
23/04/11 17:56:30.98 rUUq1vmL.net
>>246
>>250
これ素晴らしい作例だね
いかにネガプロントが肯定プロンプトと同等かそれ以上に重要かが分かる
257:名無しさん@お腹いっぱい。
23/04/11 18:01:10.97 UNCCwM1k.net
>>246を参考にグレースケールも入れてみたらだいぶ発色がよくなった
VAEは効いてるってことでよさそうね
画像にあるkl-f8-anime2はckptしかなさそうだけどこれ使っちゃって大丈夫かな
URLリンク(huggingface.co)
258:名無しさん@お腹いっぱい。
23/04/11 18:09:05.79 UNCCwM1k.net
回答待たずにやってしまった
kl-f8-anime2も入れてみたらめちゃくちゃビビッドになりました
ありがとう
URLリンク(i.imgur.com)
259:名無しさん@お腹いっぱい。
23/04/11 18:15:20.82 J6RkTgKe.net
>>217
stable deffusinでわざわざ解像度上げながら生成しなくてもいいんだぞ
260:名無しさん@お腹いっぱい。
23/04/11 18:27:54.10 k9egcHo0.net
あとEuler aは淡め、下の方のも試してみて
261:名無しさん@お腹いっぱい。
23/04/11 18:37:12.60 LOhMayqf.net
生成途中のぼやけてる絵はいい感じなのに最後の補正で「残念!守備範囲外でした!」みたいになるの
本当にガチャだかスロットの演出に似てるわ・・・
262:名無しさん@お腹いっぱい。
23/04/11 18:48:32.12 AT4bO6p+.net
corabでエロを生成するのはダメだけどtiktokに画像上げてるJKの顔を学習させるのとかは全然オッケーなんだよね
ただの顔だしね
263:名無しさん@お腹いっぱい。
23/04/11 18:49:13.27 6pyu6hUe.net
モザイク補正
264:名無しさん@お腹いっぱい。
23/04/11 18:51:10.63 e30sM8lS.net
>>256
Live previewsのShow live previews of the created imageをオフにして結果だけを見るようにするとよろし
若干早くなるしな
265:名無しさん@お腹いっぱい。
23/04/11 18:51:40.03 EGNFmUpl.net
>>235
少なくとも日本国内では非実在なら問題無いぞ
猥褻物との�
266:高ンはあるとしても 合法な物を勝手にケシカランと騒ぎ立てるのはツイフェミや壺だけ
267:名無しさん@お腹いっぱい。
23/04/11 18:52:37.57 EGNFmUpl.net
>>256
なんでそっちになっちゃうの……っていうねw
268:名無しさん@お腹いっぱい。
23/04/11 19:06:57.20 N1eeewHp.net
easynegative とdeepnegative はそれぞれどっちがどういう役割かわからなくなってしまう
適当に上げたり下げたりしてるけど
deepnegativeが人体に関することで、easyは逆さまになったりっていう構図に関するものだっけ?
269:名無しさん@お腹いっぱい。
23/04/11 19:12:21.37 /plgkB0P.net
>>260
国内クラウドでGPU使えて利用料が安いところってどこかあるか?
ここの大多数が使ってるColabはGoogle提供で適用法は米国法。国内法で考えるものではない。
270:名無しさん@お腹いっぱい。
23/04/11 19:28:45.04 /plgkB0P.net
画像生成AIの怖いところは100%合法なものだけが生成されるという保証がない点。
事故でアウト品と見做されるものが生成される可能性がある以上、ローカル以外でのエロ画像生成は常に人生賭けた勝負になる。
実在人物のLoRAでも使わない限り、非実在なのは確定しているが、それを証明する術がなければ負け戦が確定する。
271:名無しさん@お腹いっぱい。
23/04/11 19:29:26.97 e30sM8lS.net
エロはローカルで。これは徹底して
海外企業のサービスでのロリエロは海外のフェミに付け入るスキを与える
やるなら日本企業・日本国内オンリーで
エロ同人もエロゲもそうやって生きてきた
272:名無しさん@お腹いっぱい。
23/04/11 19:49:40.08 LOhMayqf.net
RTX4090持ってる者なので、持たざる者の悩みはわからない
273:名無しさん@お腹いっぱい。
23/04/11 19:59:36.95 2R9EmoTA.net
RTX4070ti持ってるからtorch2.0を試したくて色々やったけど出来なかった
でもlaunch.pyから起動してstable diffusion web uiを開くと下の方にtorch2.0.0+cu118と出るようになった
なんでえ?
てかlaunch.pyで起動していいの?
webui-user.batから普段は起動してたけどどう違うだこれ
274:名無しさん@お腹いっぱい。
23/04/11 20:14:38.03 TM3KyBYq.net
それで質問は?
275:名無しさん@お腹いっぱい。
23/04/11 20:15:21.69 TM3KyBYq.net
あっ質問が来てたゴメン
でもわからないや
276:名無しさん@お腹いっぱい。
23/04/11 20:26:56.52 xBoBR92+.net
>>267
色々やるな
手順通り導入しろ
277:名無しさん@お腹いっぱい。
23/04/11 20:28:57.11 L4ywGsf/.net
>>267
それは…その…お前…アレだよ! なあ?
webui-user.batから起動する時とlaunch.pyから起動する時とで
利用される起動オプション(COMMANDLINE_ARGS)が違うからだろ?
でも前者を利用する前提になってるんだから、前者でどうにかするのが一番だぜ
というわけでwebui-user.batの内容を色々試すんだ
278:名無しさん@お腹いっぱい。
23/04/11 20:51:28.72 F5xi4l4R.net
PCIEx1にAI用グラボ追加したいのですがAIってマイニングみたいにグラボ内で演算完結するものなのでしょうか
279:名無しさん@お腹いっぱい。
23/04/11 21:06:57.26 QulmKruq.net
>>272
はい
めっちゃ古いCPUだけどベンチマークは最新使ってる同GPUの人と全く変わらない
280:名無しさん@お腹いっぱい。
23/04/11 21:27:35.90 62GhL7m1.net
>>263
だからローカルでやれよ
281:名無しさん@お腹いっぱい。
23/04/11 21:29:09.84 tfEOye1S.net
流刑になった犯罪者が祖先の国オーストラリアではAカップの裸体はアウトでなかったか?
当然二次元もアウトの頭おかしい国家
282:名無しさん@お腹いっぱい。
23/04/11 21:45:09.90 TpLwVRZt.net
パンティを脱がずに着衣させるコツはどんなプロンプトでしょうか?
それと一枚だけにしたいです
強調すると辺り一面に伸びきったパンティを出したり
はいているのに腿にパンティずり下ろしたり
脚の中から生えていたりと安定しません
よろしくお願いいたします
283:名無しさん@お腹いっぱい。
23/04/11 21:49:36.15 NIeoRgbs.net
3dの超リアルな全身
284:画像作りたいんですが なんかショボいのしかできません コツありますか?
285:名無しさん@お腹いっぱい。
23/04/11 21:50:59.24 NIeoRgbs.net
>>264
これマジすか?オンラインのブラウザ使用だと
なんかの画像から引っ張ってきてる感じ?
286:名無しさん@お腹いっぱい。
23/04/11 22:00:51.74 kG9rnWbR.net
sfwつけてnsfwをネガティブにいれてもエロでるしなあ
287:名無しさん@お腹いっぱい。
23/04/11 22:07:04.05 /plgkB0P.net
>>274
最初からそう言っている。
>>260が日本国内では合法なものを騒ぎ立てているとか頭悪い話しているから国内クラウドじゃねーだろって話をしている。
>>278
その様な話ではない。
AIはエロであるかどうか、ロリであるかどうか、という学習をしていない。ただ、このタグはこのような要素である、という学習しかしていない。
だから非エロのつもりで人間が指定しても、AIにとってのその要素に人間にとってのエロが含まれていれば容易にエロ画像になる。
(割と容易に脱ぐモデル、という話が出るのはそのため。)
288:名無しさん@お腹いっぱい。
23/04/11 22:07:16.76 uTt1y7eB.net
>>278
AIは学習したものしか出力できないので児ポ画像がでるということは
児ポ画像を学習しているということなのよ
出力された画像が実在の人物に近い場合も当然ありえる
有名人なんかはかなり似ているものが出力されるし
289:名無しさん@お腹いっぱい。
23/04/11 22:10:53.65 NIeoRgbs.net
>>280
>>281
解説助かります、こりゃオンラインでエロ作ってるやつはいずれ逮捕されますわ
あと男キャラとか、背景や車とか物を量産したいんですが、モデルデータはまだおんなめいんですか?
290:名無しさん@お腹いっぱい。
23/04/11 22:12:24.11 8HgzqJid.net
>>214
FBI 来た時 当然 英語だったから
英語の勉強しとけよ
291:名無しさん@お腹いっぱい。
23/04/11 22:14:34.04 2R9EmoTA.net
>>270
手順通りstable diffusionの導入からやり直したら無事できました
292:名無しさん@お腹いっぱい。
23/04/11 22:15:29.30 /plgkB0P.net
>>267
webui-user.bat → 利用者が指定した起動オプションをwebui.batに渡す。
webui.bat → webui-user.batから渡された起動オプションと、現在のシステム状態から適用できるオプションをlaunch.pyに渡す。
launch.py → webui.batから渡されたオプションを使って、SDのモジュールの準備と起動を行う。
webui-user.batとwebui.batはlaunch.pyの起動に必要なものを適宜準備してくれるもの。
それらで渡される機能が適切に準備されていれば、launch.pyを直接実行しても問題はない。
293:名無しさん@お腹いっぱい。
23/04/11 22:18:25.56 NIeoRgbs.net
>>283
FBiきた話詳しく
294:名無しさん@お腹いっぱい。
23/04/11 22:21:58.57 ZzKPP1Ep.net
初歩的ですが
何も指定しないと巨乳になる
Negativeにbreastsを入れるとペッタンコになる
中間はどうすれば良いでしょうか
295:名無しさん@お腹いっぱい。
23/04/11 22:23:06.54 /plgkB0P.net
>>287
small breasts
ただし、そのモデルが巨乳しか学習していないのであれば、どうにもならない。
296:名無しさん@お腹いっぱい。
23/04/11 22:23:20.80 NIeoRgbs.net
>>287
とんちだよ、とんち
大きくせず、小さくもせず、
こんもりとしたお椀はなーんだ?
297:名無しさん@お腹いっぱい。
23/04/11 22:24:21.25 NIeoRgbs.net
すいません、オンラインで人口AI使うのはわかるんですが
ローカルでもcpuでも同じ性能なんですか?
298:名無しさん@お腹いっぱい。
23/04/11 22:26:29.78 ZzKPP1Ep.net
>>288
small breastsは最初入れていたんですが、どうも効いていないようで
モデルはAOMとかAnythingです
>>289
お椀と指定するのかな、やってみます
299:名無しさん@お腹いっぱい。
23/04/11 22:29:06.84 Nv0MTTKb.net
SD
t2iでxyz ploのStylesにて複数のスタイルを設定、Batch countを100にして、
寝てる間に次から次に画像を出力しています
i2iでも色んな画像を登録して次々に出力したいんですが、
そのようなことが可能な方法ありますか?
300:名無しさん@お腹いっぱい。
23/04/11 22:53:03.47 exYv4azO.net
>>292
batch
301:名無しさん@お腹いっぱい。
23/04/11 23:17:05.05 QulmKruq.net
分か�
302:閧ノくいけどちゃんと中段右にBatchってタブがある
303:名無しさん@お腹いっぱい。
23/04/11 23:18:36.45 X0z1pdjT.net
ブーメランパンツ履かせた長髪洋ショタ作りまくってるだけな健全俺は許されたな!
304:名無しさん@お腹いっぱい。
23/04/11 23:23:08.65 PLcdVJR+.net
>>281
なんかおかしい誇張してるから突っ込んでおくが
「右手を挙げているおっさんの絵」と「右手を下げた女性の絵」を学習したAIは「右手を挙げている女性の絵」を出力できる
それと同じ事で子供の体形比率を学習したAIは大人の裸から子供の裸を描く事を試みれる
自ポ出力するのに自ポ学習する必要はない
だけど学習したわけではないから仔細が違う
その仔細まで再現するモデルがないからロリンスキーな人達はずっと優れたモデルを探し求めてる闇がある
305:名無しさん@お腹いっぱい。
23/04/11 23:26:05.39 Nv0MTTKb.net
>>293-294
ありがとうございます
目的通りできました
306:名無しさん@お腹いっぱい。
23/04/11 23:26:08.07 t3Mse05H.net
>>281
これドヤ顔でテキトーこいてたなら痛過ぎるなw
307:名無しさん@お腹いっぱい。
23/04/11 23:28:24.43 ncFQy/GE.net
>>281
ダサい
308:名無しさん@お腹いっぱい。
23/04/11 23:30:49.95 NIeoRgbs.net
これさ、ローカルの場合
その人のPCごとに学習させた内容で結果変わるのかな?
それとも、同じものできる?
309:名無しさん@お腹いっぱい。
23/04/11 23:36:04.41 Aq4fcDc5.net
普通はランダムキャプション入れてるから二度と同じものは作れない
310:名無しさん@お腹いっぱい。
23/04/11 23:44:13.21 NIeoRgbs.net
>>301
スゲー!!!
じゃあみんな違うもの作ってんの?
311:名無しさん@お腹いっぱい。
23/04/11 23:46:12.70 uTt1y7eB.net
>>296とか>>298-299とか
こういうのはリアルロリやってる奴だと思うけど
AIの仕組み的に学習していないものはまとに出力できない
こんなのは追加学習前のsd1.4とか1.5を使えはわかることだね
最近のモデルで簡単にリアルな児ポが出力できるということは児ポを学習させているから
逆に言い方をすると追加学習すれば著名人も版権キャラも簡単に出せる
児ポも同じことだわな
312:名無しさん@お腹いっぱい。
23/04/11 23:52:02.17 NIeoRgbs.net
ただもっと
サムネとか文字とかそういうの量産したいんだけど、まだ無理なのかな?
313:名無しさん@お腹いっぱい。
23/04/12 00:03:50.01 YmV+gJ5R.net
civitaiでdoggystyleで検索して9MODELSと出たのに選択出来ないのは何で?
ログインもしてるのに
314:名無しさん@お腹いっぱい。
23/04/12 00:09:22.49 CObU4b3i.net
>>303
めちゃくちゃ早口で喋ってそう
315:名無しさん@お腹いっぱい。
23/04/12 00:11:01.88 z2UuN1Zw.net
>>305
右上の目ん玉でフィルタ設定
関係ないけどクリックするより新しいタブで開く方が断然早いのはなんなんだろう
316:名無しさん@お腹いっぱい。
23/04/12 00:13:14.64 8xWwf/1z.net
>>302
お前なにかと色々勘違いしてんな
>>301は追加学習のこと言ってんだぞ?
LoRA作る時にランダム設定にしてるから二度と同じ物作れないって言ってるだけ
なんかぱぱっと簡単に学習してくれると思ってるようだけど全然そういう仕組みじゃないぞ
ちなみに通常の生成のことであれば、設定数値その他環境含めて同じにすれば、まったく同じ画像が出る
317:名無しさん@お腹いっぱい。
23/04/12 00:15:00.21 KLoYBJSX.net
webuiでpytorch2.0使えてるか確認する方法ってあります?
pythonもcudaもwebuiフォルダも全部違うドライブに入っててちゃんと読み込んでるのか分からなくて
一応それぞれPATHは通ってるみたいなんですけど
318:名無しさん@お腹いっぱい。
23/04/12 00:19:14.00 lmZKs0rr.net
>>303
danbooru画像には2Dロリ画像が山ほどあるから、それらを実写化して生成してるだけ
だから児ポ画像はWD1.2の頃から出せたよ
知ったかぶり恥ずかしい
319:ぞ
320:名無しさん@お腹いっぱい。
23/04/12 00:20:09.26 z2UuN1Zw.net
>>309
下に小さく出てる
321:名無しさん@お腹いっぱい。
23/04/12 00:21:15.74 WOnNB8Tw.net
>>309
webuiのページの一番下にtorch: 2.0.0+cu118って出てたらおk
322:名無しさん@お腹いっぱい。
23/04/12 00:30:05.35 8xWwf/1z.net
>>303
AIの仕組みを理解してないのはお前だよ
学習したものだけが出るわけではなく、学習した内容を複雑に組み合わせて生成出来るのが特徴だぞ
>>296の言う通り
ただ、実際に児ポ学習したモデルも存在する
一時期4chでも有名になったやつな
それで生成出来る絵は2D絵が元になったニセ児ポとは顔立ちや体型も全然違うのですぐにわかるよ
323:名無しさん@お腹いっぱい。
23/04/12 00:31:05.77 KLoYBJSX.net
>>311,312
ありがとうございます!
確認してみたらtorch: 1.13.1+cu117だったのでやっぱ失敗してるっぽいですね…
324:名無しさん@お腹いっぱい。
23/04/12 00:33:08.24 ozJESyHh.net
>>310
しったかもなにもAIの深層学習というのはそういうものなの
だから追加学習でリアルになってくんでしょ?
君が考えているような2次絵を学習してフォトリアルにするなんていう万能な仕組みはないの
(二次絵をを学習したらイラスト寄りになっていくので)
芸能人の写真を学習すれば、似たようものが作れるし
最近のモデルは児ポを学習しているから簡単に児ポが出力できる
こんなの常識以前だと思うけとね
325:名無しさん@お腹いっぱい。
23/04/12 00:39:31.79 z2UuN1Zw.net
>>314
venvフォルダを一旦削除して、
webui-user.batに
set TORCH_COMMAND=pip install torch==2.0.0 torchvision --extra-index-url URLリンク(download.pytorch.org)
を入れて実行してみて(CUDA11.8の場合)
326:名無しさん@お腹いっぱい。
23/04/12 00:45:32.47 ozJESyHh.net
>>313
実際の学習の仕組みわかってる?
というか自分で学習させてる?
学習の仕組みを知ってるならちょっと説明してみてよ
基本的にプロンプトのワードごとに数層にわけて学習していくので
学習仕組み的に大人の裸体が子供に変換されることはないの
子供の指定ワードに子供裸体がまったくない場合どうなると思う?
子供のボディの輪郭に大人のディティールが描かれることはあるけど
今のモデルはそのレベルじゃないでしょ?
児ポを学習しているから簡単に児ポが出力できるわけ
アイドル・タレントを学習すれば近いものが再現できるわけ
こんなの当たり前なのになにを頑張ってるのよ?
327:名無しさん@お腹いっぱい。
23/04/12 00:58:35.10 vhD0KK8T.net
>>315
というか炉なんて20年前に
写真何枚万も見て、見飽きたやつが
やってるだろ
だからあえて脱がすリスクなんて負わない
危ないと思ったらそもそも上げない
ギリギリ攻めるのは本物のアホか
手っ取り早く金稼ぎたい反社
いきなりタイーホで最初の判例になるのは
winnyで思い知ってるだろ
328:名無しさん@お腹いっぱい。
23/04/12 01:03:02.65 6TOPYb+F.net
どこまでのロリ
329:体型を想像してるかは知らんが成人女性でももろロリ体型してる女がいっぱいいるのはAVみてしってるだろ
330:名無しさん@お腹いっぱい。
23/04/12 01:07:17.39 vhD0KK8T.net
ガチ炉って
おそらく脳内で脱がせて乱暴するとこまで
イメージできてるからあえてすっぽんぽん
なんて見てないと思う
やっぱり表情 あと鎖骨
331:名無しさん@お腹いっぱい。
23/04/12 01:10:19.86 FSDqle9L.net
児ポ簡単生成できるとか言ってるけどやったことあんのか?じゃあ児童ポルノ製造と所持してるな?通報しとくよ
332:名無しさん@お腹いっぱい。
23/04/12 01:12:50.05 rWAK3hQt.net
欧米はロリ犯罪が多いし、実際に行方不明になってる幼女の数が半端ないからロリコンに厳しいのは仕方ないよ
日本人みたいに画像で満足できる人種じゃないから
333:名無しさん@お腹いっぱい。
23/04/12 01:13:09.31 9w17ywGY.net
なんか壺臭いのが湧いてるな
334:名無しさん@お腹いっぱい。
23/04/12 01:16:16.07 8M1xo/KS.net
dynamic promptの { | | | }構文でランダム出力の仕方はわかったけど
ランダムじゃなくて書いた順番通りに連続で出力させられる構文ない?
{small | medium | medium-large | large} breasts,
↑こんな感じで貧乳から徐々に巨乳になってく過程を一枚ずつ出力するイメージ
335:名無しさん@お腹いっぱい。
23/04/12 01:31:19.20 QdCiav0B.net
>>324
プロンプトそのままdynamic promptsのパネル開いて
Combinatorial generationをポチ
下の方のAdvanced option開いて Fixed seedをポチってからGenerate
336:名無しさん@お腹いっぱい。
23/04/12 01:33:52.71 QdCiav0B.net
Fixed seedを入れた場合はseedが固定されるのでほぼ同じ構図で出る
これを外すと通常処理と同じでseedがインクリメントされるから違う構図で出やすい
使い分けてね
337:名無しさん@お腹いっぱい。
23/04/12 01:34:18.59 GJ3cLNkq.net
すみません
ロリで盛り上がる所申し訳ないのですが
どなたかパンティの問題にお答えいただけませんか?
パンティをプロンプトに入れてもずらしたりして陰毛ボーボー姿になります
パンティを強調すると脱ぎかけから何やら布らしきものを散らかします
最悪脱ぎかけでもいいんですが脚から生えていたりと許容できない範囲です
履かせた姿が望みです
できればパンティは一枚のみ出現して欲しいです
プロンプトでどうすればいいか教えて下さい
338:名無しさん@お腹いっぱい。
23/04/12 01:35:47.15 ZzT5eC+C.net
>>327
ネガティブに陰毛とかプッシーとか入れたらええんやないか?
339:名無しさん@お腹いっぱい。
23/04/12 01:37:35.54 KLoYBJSX.net
>>316
わざわざありがとうございます!
ちゃんとtorch: 2.0.0+cu118になってて生成めっちゃ早くなりました
340:名無しさん@お腹いっぱい。
23/04/12 01:44:43.83 rBhmfwEA.net
>>329
早くなってもvram犠牲にするからね
341:名無しさん@お腹いっぱい。
23/04/12 01:46:34.38 vhD0KK8T.net
>>327
(((underwear:1.5)))
で回せばでてくる
342:名無しさん@お腹いっぱい。
23/04/12 02:02:37.10 ozJESyHh.net
>>327
そのAIモデルはパンティのワードで学習した内容がそういう感じなんだろうね
出力を縦長にして立ち絵指定にして、bikiniとかunderwearで試してみてブラ着用ならtoplessが効くかどうか
プロンプトの効き具合もAIモデルの学習内容によるので試してみるしかないかな
343:名無しさん@お腹いっぱい。
23/04/12 02:33:19.00 8M1xo/KS.net
>>325,326
神すぎる…マジでありがとう
これでおっぱいサイズの比較検討もできるし
年齢ごとのおっぱい成長記録も簡単に出力できる
今まで手打ちでやっててたのでマジで助かりました
344:名無しさん@お腹いっぱい。
23/04/12 04:00:56.02 GJ3cLNkq.net
返信ありがとうございます
一番正解に近いのが、モデルの学習状況だと思いました
XY
345:プロンプトでネガティブに入れて試したりしたのですが どうやらパンティは単独で着ているものと学習していないようです 陰毛除去もうまくできませんでした どうも股間周りは一式関連して学習しているようです ラクダと併用で誤魔化す所に落ち着きました モデル依存ぽいのでここまで ありがとうございました
346:名無しさん@お腹いっぱい。
23/04/12 04:08:06.41 b4fOsSLP.net
setting→stable diffusionにSD VAEの項目が見当たらないんですがどうすれば表示できるようになりますか?
347:名無しさん@お腹いっぱい。
23/04/12 05:06:19.66 b4fOsSLP.net
すみません、自己解決しました
348:名無しさん@お腹いっぱい。
23/04/12 06:25:26.99 OzlYU/Yb.net
自作loraを使うと生成画像がノイズだけになるんですけどどうすればいいですか?
349:名無しさん@お腹いっぱい。
23/04/12 06:41:10.06 r9zsetP7.net
なんかみんな難しいこと言っててどっちが正解かよくわからんけど
どう見てもこれ、リカちゃんだろって顔か出てくるEL ZIPANG。
350:名無しさん@お腹いっぱい。
23/04/12 06:57:11.19 7pesoOCV.net
>>338
香山?
351:名無しさん@お腹いっぱい。
23/04/12 07:01:18.36 r9zsetP7.net
もちろんぺぺで売ってた方の利香ちゃん
(漢字合ってるかな?)
352:名無しさん@お腹いっぱい。
23/04/12 07:14:21.12 LZ5oK7hu.net
modelデータにジポ画像が入ってるかどうかと
画像ディープラーニングがどういうものかというのとは別の話やしな
353:名無しさん@お腹いっぱい。
23/04/12 07:26:55.92 8xWwf/1z.net
>>317
間違いを指摘してんだってば
学習はお前が考えてるほど単純じゃなくて、覚えたことを複雑に組合せて出力出来るんだよ
実写モデルって2Dキャラを実写化出来るでしょ?あれも同じ
実際にリアルなキャラとか学習してなくても人間と2Dキャラの概念を混ぜて生成出来ちゃう
なので実際に直接学習してないものでも、組み合わせでそれっぽく生成出来るんだよ
354:名無しさん@お腹いっぱい。
23/04/12 07:38:16.06 OP4SO7kD.net
でもモデルをメモ帳で開くとただのテキストファイルなんだよね
すごいよね
355:名無しさん@お腹いっぱい。
23/04/12 07:42:12.92 /7j77nRE.net
え?
356:名無しさん@お腹いっぱい。
23/04/12 07:47:27.88 x14g9ICq.net
>>315
だから出来るんだよ2次と3次の合体が
ロリだけじゃなく学習してない色んなものが写実的に生成出来てるだろ実際に
ビギナーの多い質問板でこれ以上勘違い知識披露すんのやめろマジで
お前迷惑だよ
357:名無しさん@お腹いっぱい。
23/04/12 07:47:40.25 8M1xo/KS.net
どんなデータもメモ帳で開けばただのテキストファイルだぞ
358:名無しさん@お腹いっぱい。
23/04/12 07:52:21.47 8M1xo/KS.net
ID:ozJESyHhが何もわかってないパッパラパーなのは明らかにわかるが
かといって自分も学習についてちゃんとわかってるわけではないので何とも言えない
359:名無しさん@お腹いっぱい。
23/04/12 07:55:12.41 qwo/vi9U.net
この板小並感すごくね。
初期にいた人たちは旅立ってしまったのか。
360:名無しさん@お腹いっぱい。
23/04/12 08:19:26.70 31jzw5RO.net
>>333
英語的にはbreasts自体に巨乳のニュアンスが宿るので
small breasts より small chestとか flat chestの方が貧乳感出ると思うよ
もちろんモデル次第だけど
361:名無しさん@お腹いっぱい。
23/04/12 08:20:06.66 i1kz91w5.net
長々とロリロリ言って結局何が言いたいんだ
362:名無しさん@お腹いっぱい。
23/04/12 08:20:52.62 WOnNB8Tw.net
5chで嘘撒いて別所で情報商材売り
363:名無しさん@お腹いっぱい。
23/04/12 08:21:55.66 wcpMWPDT.net
赤ちゃんなんだが、ダンボールタグってどういう意味?
364:名無しさん@お腹いっぱい。
23/04/12 08:57:30.91 DzUZ8xIy.net
>>324のようなことはX/Y/Zプロットのprompt S/Rでやってたけど、dynamic promptでもできるんだね
365:名無しさん@お腹いっぱい。
23/04/12 09:00:30.10 x14g9ICq.net
>>352
danbooruっていうイラスト無断転載サイトのタグ分けのこと
NovelAIモデルの二次絵は全部そこ基準で学習されてるから、プロンプトもdanbooruタグを書くという仕様になってる
そしてほとんど
366:のモデルはNovelAIモデルが混ざってるので、他のモデルでもdanbooru基準のタグがわりと有効
367:名無しさん@お腹いっぱい。
23/04/12 09:06:01.17 ozJESyHh.net
>>350
リアル系のロリを投稿してる奴が、児童ポルノ法で逮捕されるのが怖いので
「児ポは学習してない!」ってデタラメ言ってるだけ
学習のやり方も知らないレベルだと思う
368:名無しさん@お腹いっぱい。
23/04/12 09:07:50.84 Shxz3ubt.net
いい加減スレチだからどっか行けよ
369:名無しさん@お腹いっぱい。
23/04/12 09:20:27.46 QYaMdIPz.net
Loraってなんか汎用的なものってあります?これ入れておけばとりあえずクオリティ上がるよみたいな
370:名無しさん@お腹いっぱい。
23/04/12 09:21:19.13 WOnNB8Tw.net
ない
371:名無しさん@お腹いっぱい。
23/04/12 09:23:56.50 ozJESyHh.net
>>342 >>345
しったかするなら学習のやり方とか階層学習の仕組みを説明してみろって
できないだろう?
ロラもブースも単語指定で学習してるの
だからトリガーワードで出力が変化するわけ
有名人を名前で学習してているから、名前を入れるとその人に近い画像がでてくる
子供とかロリとかの単語で3D児ポが出てくるってことは3次元の児ポ画像を学習しているからなの
ちなみにi2iで2Dから3Dに変換する場合も学習した画像に依存する
だからチビで新しいモデルを探してるんだろ?
372:名無しさん@お腹いっぱい。
23/04/12 09:25:51.93 DzUZ8xIy.net
>>357
LoRAじゃないけどEasyNegativeとかbad_prompt_version2とか
model/embeddingsに入れてネガティブプロンプトにこれらを書くと有効になる
いつも必ず絶対よくなるとは限らないから、新しいモデルを使うときなんかはオン/オフ両方試してるけどね
373:名無しさん@お腹いっぱい。
23/04/12 09:31:27.23 SXecaHVS.net
>>317
今使われているモデルは階層別マージモデル
例えば、Anythingは(どちらかというと非エロな)二次元強化モデルできれいだけどエロ画像が出にくい
gapeはエロ二次元特化モデルでエロ画像は作りやすいけどあまりきれいでない
インスタモデルは日本人のインスタ実写画像モデルでさまざまな年齢層の実写画像を出せるがエロはでない
これらを比率を考えてうまくマージするとさまざまな年齢層の実写のエロ画像が出せるようになる
実際basilmixあたりがこうやって作ったモデルで、非実在児ポが出せるようになったのはこのあたりから
ただ単純なマージだとそれほどうまくいかなかった
Diffusion Modelの画像を生成するUnetは入力層12層、中間層1層、出力層12層合計25層のニューラルネット
完全に分離しているわけではないが、層には実写風にする層とか背景を担当する層とか手を表現する層とか
層と概念との間に一定の関連性が存在している
なので全層まとめて同じ比率でマージするのではなく、各層ごとに別な比率でマージすることで、それぞれの
モデルから必要な表現力のみモデルに取り込むことができる
そうやって作ったのがchilloutmixのような階層別マージモデル
今のモデルは単に学習しただけではなく、脳みその改造みたいなことをしたから色んな画像が出せるようになったの