StableDiffusionXLと1.5の環境を分けてみた

こんにちは!サキナオコです^o^
また寒いこと。

さあ、まだやってました。StableDiffusion。

Stablediffusionは1.5とか2とかXLがあるんですよね。それで、それぞれに合ったモデルやら機能拡張やらがあって、そのバージョンに合ったものをいれないといけないわけです。

で、1つのStableDiffusionWebUIアプリにSD1.5とSDXLを混在させてもいいのかとGPTに聞いたところ、混在はいいけどモデル切り替えが煩雑、分けたほうが、用途ごとに起動時間や処理時間を最適化でき、拡張機能や設定の干渉を避けられる。

とのことで管理しやすく使いやすくなりそうです。ということで、フォルダも分けて管理したいので、先日インストールしたばかりのSDをモデルと機能拡張以外を削除しました。

SDXL用とSD1.5用のフォルダを新たにつくって、それぞれにStableDiffusionWebUIアプリを入れます。

SDXL用は以下のようにして設定。

無駄な記載は整理しました

よけていたモデルをmodels-Stable-diffusionの中へいれ、機能拡張はよけていたのを移動したところなんかおかしかったので、いったん削除して、git cloneしました。

こちら参照くださいな

それで大丈夫そうです。

何度もやってだいぶ早くできるようになってますよ!^^

はい、で次、1.5です。これは普通にSD1.5用のフォルダにStable-diffusion入れるだけですね。それでcontrolNET入れますが、これもXLの時と同じですね。

違うのはそれから、モデルを入れるとき。

✅ SD1.5用 ControlNetの導入手順

SDXLとは別フォルダのWebUIなので、ControlNetも新たにクローン&チェックポイント配置します。

🔁 手順1:ControlNet拡張を導入(SD1.5用WebUIに)

bashコピーする編集するcd C:\AI\sd-webui-sd15\extensions
git clone https://github.com/Mikubill/sd-webui-controlnet.git

またはWebUI上から「拡張機能」→「URLからインストール」でも可


📦 手順2:ControlNetモデル(SD1.5用)をダウンロード

モデルは .pth または .safetensors
※SD1.5とSDXLでは使うモデルが別なので注意!

モデル例内容配布URL
control_sd15_canny.pth輪郭検出Hugging Face (lllyasviel)
control_sd15_openpose.pthポーズ検出同上
control_sd15_depth.pth深度マップ同上
control_sd15_scribble.pthラフスケッチ同上

➡ 保存先:

C:\入っているフォルダ\sd-webui-sd15\models\ControlNet\

🔁 手順3:WebUIを再起動 → ControlNetタブが表示される


🔧 ControlNetが効いているかの確認ポイント

  • 起動後のログに ControlNet preprocessor location: ... が出る
  • WebUI上に ControlNet タブが出現する
  • モデル読み込み欄に control_sd15_***.pth が表示されていれば成功

✨ おまけ:おすすめ構成(SD1.5)

拡張名用途備考
ControlNet(SD1.5用)ポーズ・線画など制御生成必須級
After Detailer顔の自動修正・顔LoRA連携SD1.5で超便利
LoRAエクスプローラーLoRA管理のUI強化数が増えたら導入推奨

サキナオコメモ*一気にSD1.5へVAEも入れる

ℹ️ VAEの役割について

VAE(Variational Autoencoder)は、Stable Diffusionにおいて画像の潜在空間とピクセル空間の間での変換を担います。具体的には:

  • エンコード:画像を潜在空間に圧縮
  • デコード:潜在空間から画像を復元

これにより、生成される画像の品質、特に細部や色彩の再現性が向上します。特に「vae-ft-mse-840000-ema-pruned」は、顔のディテールや肌の質感の再現に優れており、リアルなポートレート生成に適しています。

サキナオコメモ*VAEは映えるってことでいいんですね

手順

下記リンクから.safetensorsファイルをダウンロード:
vae-ft-mse-840000-ema-pruned.safetensors

ファイルを以下のフォルダに移動:

stable-diffusion-webui/models/VAE/

Web UIを開き、「Settings」→「Stable Diffusion」→「SD VAE」から選択

「Apply settings」→「Reload UI」

とこれでとりあえずはオッケーだと思います。あとはLoraとかほかのモデル入れようと思います!

あ、それとこの機能拡張もいれよっと。顔や手の崩れを補正するらしいです。

✅ After Detailer(SD1.5用)の導入手順
🔁 ステップ1:拡張機能をクローンする
bashコピーする編集するcd C:\AI\sd-webui-sd15\extensions
git clone https://github.com/Bing-su/adetailer.git

※SD1.5用にインストールしたWebUIの extensions/ フォルダ内へ。

イメージブラウザを追加する

extensionsタブからInstall from URLタブのURL for extension’s repository以下入れて(GPTリンク間違ってたのでしばらく沼った。自分の記事にURLあった)

https://github.com/AlUlkesh/stable-diffusion-webui-images-browser

Install – Installedタブ – Apply and restart UI で最初の画面のタブに出てきます

記しといてよかった

GPTの言うURL入れたらauthorizeの画面が出て、こんなの出たことないと思ってGPTに聞くとそれは「悪意のあるものではないが、GitHubのアカウント権限を広く渡すことになるため注意」とか恐ろしいことを言うじゃありませんか。

それで前やっていたので自分の記事を探すとありました。ALUlkeshのところがAUTOMATIC1111になってたんですよ。んもう!

ちょいちょい違うので、信じすぎてはいけません。

とそんなこんなで無事環境を分けられました。controlNETでポーズをとらせたり、inpaintというもので崩れた顔を直したりして、今日は終了いたします。


Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


こんにちは!サキナオコです^o^
ごゆっくりどうぞ!

最近の投稿

2025年6月
 1
2345678
9101112131415
16171819202122
23242526272829
30  

Categories

Search the website

サキ ナオコのアバター