Stable Diffusion web uiの使い方まとめ!どんな機能がある?

自由自在に画像生成ができるStable DiffusionのUIである「Stable Diffusion web ui」の始め方からそれぞれの機能やパラメータなど、より精度の高い画像生成を行うための使い方をご紹介します。

目次

Stable Diffusion web uiとは

Stable Diffusion web uiとは2022年8月に無償で公開されたブラウザをインターフェイスとした画像生成AIツールで、直感的な操作で画像を生成することができます。作業環境を構築すればオフラインでも画像生成をすることができ、PCで起動しローカルサーバを立てることで、どのデバイスでもブラウザから操作を行うことができます。

Stable Diffusion web uiの必要スペック

Stable Diffusion web uiを使用するにはGPUが必要で、条件を満たさない場合には動かない場合があります。画像生成の所要時間も関わってくるためこれから購入を考えている方はより高いスペックのパソコンを購入することをお勧めします。

CPU特段古いCPUでなければ問題なく扱えます。
メモリ初めは16Gもあれば難なく画像生成をすることができますが、モデル学習といった機能を使う場合は32Gのものを用意することをお勧めします。
GPUNVIDIA製 12GB以上推奨 最低でも4~8GBは必須
ストレージ:SSDモデルのダウンロード数や生成画像の枚数、解像度にもよります。最低限30GBはあった方がいいでしょう。

MacについてはM1,M2を積んでいるパソコンであれば動かすことができますが、しっかりとGPUをを積んだWindowsパソコンには劣る部分があります。

Stable Diffusion web uiをインストールする方法

実際にStable Diffusion Web UIをインストールする方法をご紹介します。

WindowsでStable Diffusion web uiを使う方法

WindowsにStable Diffusion web uiをインストールの前に「Python」「Git」のインストールが必要です。

①Pythonをダウンロードする

(1)Pythonのダウンロードページを開きます。

(2)下記画像の赤枠で囲われた「Python 3.10.6」をダウンロードします。

②Gitをダウンロードする

次にGitをダウンロードします。

(1)Gitのダウンロードページを開きます。

(2)下記画像の赤枠で囲われた「Click here to download」をクリックすると、Windows版の最新ファイルをダウンロードできます。

③Web UI(AUTOMATIC1111)をダウンロードする

インストールしたGitを使ってWeb UI(AUTOMATIC1111)をダウンロードしていきます。

(1)Web UIをダウンロードしたいフォルダを右クリックして、「Git Bash Here」をクリックします。

(2)Gitが開いたら、下記の分をコピペします。すると自動でダウンロードしてくれます。

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

(3)「stable-diffusion-webui」というフォルダが新しく作成されていることを確認しましょう。

(4)stable diffusionを起動するためにはまず、「stable-diffusion-webui」フォルダを開き、下から2番目の「webui-user」をクリックします。

(5)するとコマンドプロンプトが開き、下記画像のようなコードが生成されます。(数分かかる)

コードが生成されたら、下記画像の下から4行目のURL: に続く

http://127.0.0.1:7860

をコピーします。

(6)コピーしたURLをブラウザに張り付けると、Stable Diffuisonを起動することができます。

MacでStable Diffusion webuiを使う方法

Homebrewのインストール方法

まず、Homebrewをインストールする必要があります。ターミナルを開き下記の手順でコマンドを実行してください。ターミナルは「command+spaceキー」でSpotlightを呼び出しターミナルと検索すると出てきます。

brew -v

を実行します。この時に「Homebrew 〇〇{バージョン}」と表示されたら既にHomebrewはインストールされています。ツールのインストールから行なってください。

「zsh: command not found: brew」と表示された場合はHomebrewのサイトの「インストール」の下のコードをコピーします。

Homebrew:https://brew.sh/index_ja

先ほどコピーしたものをターミナルに貼り付け実行します。この時管理者パスワードを要求されますが、打ち込んでも表示されないので注意が必要です。

しばらくするとNext steps!:Run these two commands in your terminal to add Homebrew to your PATH:」と出てくるので、その下に現れる2行のコードをコピーし、再び新しくペーストして実行します。

「~% 空白」の字列が出てきたら完了です。確認のために「brew -v」を実行して「Homebrew 〇〇{バージョン}」と表示されたらインストール成功です。

ツールのインストール方法

Homebrewをインストールした上で下記のコードを一つ一つ実行することでツールをインストールすることができます。

brew install cmake protobuf rust python@3.10 git wget
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui
./webui.sh

これでインストールが始まります。初めはかなり時間がかかるので時間に余裕のある時に行うことをお勧めします。

しばらくすると、「Running on local URL:」と表示されるので、その後ろのhttpから始まるリンクをコピーしブラウザに貼り付けます。

ブラウザ上にこの作業画面が表示されれば成功です。以上でインストール終了になります。

Stable Diffusion web UIで使うモデルのダウンロード方法と保存先

ツールに合わせてStable Diffusion web UIを使うには画像生成の元となるモデルをダウンロードする必要があります。モデルの配布サイトは「Civitai」「Hugging Face」の2つがありますが、「Hugging Face」はモデルのサンプル画像が少なく、イラストの完成図が分かりづらいので「Civitai」を使用することをお勧めします。

関連記事

「Stable Diffusionのモデルは何を使えばいい?」「リアルな画像やアニメ風の画像を生成できるモデルを知りたい!」 このような疑問をお持ちの方は多いのではないでしょうか? Stable Diffusionのモデルとは[…]

Civitaiからダウンロードする方法

Civitaiは実際に生成された画像並んでおりその中からモデルを選ぶことができるため、モデル選びにはおすすめのサイトです。

Civitai:https://civitai.com/

好みの画像をクリックするとモデルのダウンロードページに飛ぶので青枠の「Download」をクリックします。

保存先は「Stable Diffusion web ui」→「models」→「Stable Diffusion」です。商用利用不可能のモデルもあるので著作権については注意が必要です。

Hugging Faceからダウンロードする方法

Hugging Faceはモデルやさまざまなツールをダウンロードできるサイトです。

Hugging Face:https://huggingface.co/

上の項目をから「Model」を選択し、左の項目から条件を入れながら好みのモデルを探します。

おすすめのモデル

Stable Diffusion で使えるおすすめのモデルをご紹介します。

モデル名概要ダウンロードサイト
Chilloutmixアジア人系の人物生成に使えるモデルで高品質で精製でいるメジャーなモデルhttps://civitai.com/models/6424/chilloutmix
yayoi_mix表情豊かでリアルアジア人女性が生成されるモデルhttps://civitai.com/models/83096/yayoimix
Realistic Vision写真風や実写のような画像を生成するモデル
人に限らず動物や風景もリアルに生成できる
https://civitai.com/models/4201/realistic-vision-v20
CyberRealistic凡庸性が高く、リアルな画像が生成されるモデルhttps://civitai.com/models/15003/cyberrealistic
Flat-2D Animerge線がはっきり出やすい2Dのモデルhttps://civitai.com/models/35960/flat-2d-animerge
DosMix3D風のイラスト画像が生成できるモデルhttps://civitai.com/models/6250/dosmix
MeinaMixアニメイラスト風の画像が生成できるモデル
繊細なタッチとファンタジー系の雰囲気が特徴
https://civitai.com/models/7240/meinamix

Stable Diffusion web UIのアップデート方法と注意点

Stable Diffusion web uiをアップデートせずに使っていると、いざ拡張機能を使いたい時に使えない場合があるので、定期的に確認しましょう。しかし、最新のバージョンはバグが多く発生する場合があるので注意が必要です。

WindowsでStable Diffusion web UIをアップデートする方法

WindowsでStable Diffusion web UIをアップデートする方法をご紹介します。

MacでStable Diffusion web UIをアップデートする方法

MacでStable Diffusion web UIをアップデートする方法をご紹介します。

ターミナルを開き、

cd ~/stable-diffusion-webui

を実行し、「stable-diffusion-webui」のファイルに移動します。そこで、

git pull

のコマンドで更新できます。

Stable Diffusion web uiを日本語化する方法

Stable Diffusion web uiは英語で提供されているサービスですが、拡張機能を使うことでさまざまな言語での作業が可能になります。

Stable Diffusion web uiを日本語化する方法についてはこちらの記事で詳しく解説しています。

関連記事

「Stable Diffusion WebUIを使っているけど、英語表示で使いづらい」「Stable Diffusion WebUIを日本語表示で使いたい」 このような悩みをお持ちの方は多いのではないでしょうか? 今回PROM[…]

Stable Diffusion web uiで作った画像は例外を除いて商用利用可能

画像生成AI「Stable Diffuision」は商用利用することができます。しかし、場合によっては商用利用が禁止されているため、細心の注意を払う必要があります。

「img2img」「Train」を使う場合に元の画像に商用権がない限り使用することができません。また、モデルによっては商用利用不可能なものもあります。

関連記事

「Stable Diffusionの商用利用できるの?」「画像生成AIを商用利用する上で注意することは?」そう思う方もいるのではないでしょうか。 今回PROMPTYでは、Stable Diffusionの商用利用についてのライセンス[…]

Stable Diffusion web uiの機能一覧

txt2imgtxt2imgはStable Diffusionの基本的な機能で、テキストから画像生成する項目で、プロンプトやパラメータに忠実に画像が生成されます。
img2imgimg2imgは元となる画像をアップすることで、その画像をもとに画像生成がされます。
Extras画像の解像度を上げることができます。
PNG infoPNG infoでは画像から以下の項目の数値やプロンプトを知ることができます。
プロンプト・ネガティブプロンプト・ステップ数・サンプラー・CFGスケール・シード値・Width・Height・モデル名
Checkpoint MergerCheckpoint Mergerでは画像生成で使用するモデルを組み合わせ、オリジナルのモデルを生成することができます。画像をもとに生成するimg2imgとは違い、モデル自体を作るのでさまざまな応用を加えることができます。
TrainTrainでは複数の画像を学習させることでオリジナルのモデルを作成することができ、そのトレーニングをもとに画像を生成することができます。
SettingStable Diffusion自体の設定ができます。
ExtensionsStable Diffusionの拡張機能のインストール、反映ができます。

Stable Diffusion web uiでは画像生成するだけでなく、画像の解像度を上げたり、画像生成に用いるモデルを新しく作ることができます。それぞれの機能をご紹介します。

画像生成をする場合は「txt2img」「img2img」を使用します。

Stable Diffusion web uiのそれぞれの項目とパラメータを設定する方法

Stable Diffusion は比較的設定項目が多く、微妙な調整で完成画像に大きく関わります。初期設定は標準の値に設定されていますが、より細かい調整を加えていき、理想の画像に近づけていきます。下の画像のそれぞれの項目をご紹介していきます。

モデルを設定する

Stable Diffusion web ui ではあらかじめダウンロードしたモデルから学習し、プロンプトに合わせて画像が生成されます。それぞれのモデルに特徴があり、雰囲気やスタイルに影響する生成画像の根幹となるかなり重要な項目です。

プロンプトを設定する

生成AIで最も重要となってくるのは「テキストプロンプト」と呼ばれる完成画像の説明文で、自分のイメージをそのまま言語化するだけでさまざまなパターンの画像を生成できます。対応言語は英語なので、全て英語で入力する必要がありますが、翻訳サービスなどを使って理想の画像の説明を入力します。

プロンプト例:

8k, masterpiece, 1girl, Asian, realistic, portrate,  detail, 

逆に生成したくないものも「ネガティブプロンプト」として組み込むことができ、完成イメージに対するより精度の高い画像生成ができます。

ネガティブプロンプト例:

cartoon, anime, sketches, worst quality, normal quality,  lowres, normal quality, acnes, skin blemishes, bad anatomy,  loli, bad lighting, bad color contrast, nsfw

ここまで設定できればしっかりとした画像を生成することができます。画像生成数の制限もないので、一度ここまで作成した段階で画像生成してみてください。

パラメータを調整する

ここからはより理想の画像に近づけていく作業になります。それぞれのパラメータを調整してどの程度芸術的に寄せるのかや、アスペクト比の設定などコンマ単位の設定をしていきます。

4.Sampling method画像生成する時のアルゴリズム
5.Sampling steps生成の過程の回数です。される画像の詳細さを設定します。値がより大きい方が細かく描写されますが、生成時間が長くなります。
6.Restore faces / Tiling / Hires. fix顔を左右対称にする/絵などで敷き詰める/高画質で生成する
7.Width, 8.Height縦横のサイズをPixelで設定します。
11Batch count同条件で画像を生成する枚数。
12.Batch size一つのプロンプトに対して同時に画像を生成する枚数。
9.CFG Scale芸術性とプロンプトの比重を設定します。値が大きいほどプロンプトに忠実になります。
10.Seed生成画像それぞれにseed値が生成され、そのseed値を記入して生成することで、元の画像に似た画像を生成することができます。

パラメータは初めからデフォルトの値に統一されているので、あえて設定する必要はありません。生成した画像に対して変更したい要素があった場合、少しずつ変更していきます。

画像の精度に関する値を大きく変更してしまうと鳥肌が立つような画像が生成されるので注意が必要です。

Stable Diffusion web uiで画像を生成する方法

全ての設定が終わったら画像を生成していきます。右上の「generate」をクリックすると生成が始まります。

画像の生成中に中止したい場合は「Skip」、割り込みで生成を始めたい場合は「Interrupt」をクリックします。

Stable Diffusion web uiで生成画像をダウンロードする方法

画像生成後、画像の下部から保存方法などを選ぶことができます。

SavePNGで画像を保存します。
ZipZip形式で画像を保存します。
Send to 〇〇生成した画像をStable Diffusion内でさらに修正、変更などを加えられます。

Stable Diffusion web uiで実際に画像を生成してみた

今回ご紹介したStable Diffusion web uiを実際に試していきます。「txt2img」を使ってリアルなアジア人女性の画像を生成していきます。

「img2img」の使い方はこちらをご覧ください。

モデルとプロンプトのみを設定したパターン

モデル:

chilloutmix_NiPrunedFp32Fix.safetensors [fc2511737a]

プロンプト:

8k, masterpiece, 1girl, Asian, realistic, portrate,  detail, 

ネガティブプロンプト:

cartoon, anime, sketches, worst quality, normal quality,  lowres, normal quality, acnes, skin blemishes, bad anatomy,  loli, bad lighting, bad color contrast, nsfw

生成画像:

リアルな女性の画像が生成されました。瞳や髪の毛の描写など細かく描かれています。

パラメータを調節してみたパターン

次にプロンプトは変えず、パラメータをいくつか調整して生成してみます。どのような違いが出てくるでしょうか。

より詳細にプロンプトに忠実になるように変更して生成

Sampling method:DPM++ 2M Karras
Sampling steps:80
Batch count:4
CFG Scale:3

生成画像:

4枚の画像が生成されました。「Sampling steps」「Batch count」を変更したため10分ほど時間がかかりました。

荒めに芸術にパラメータを振って生成

Sampling method:PLMS
Sampling steps:19
Batch count:4
CFG Scale:20

生成画像:

クオリティの低い画像が生成されました。また、服装や衣装にも少し特徴が見られるため、パラメータの値が画像生成に大きく影響していることがわかります。Sampling stepsを通常20のところを19に変更するだけでこれだけ乱れが出ます。

数値を1変えるだけで大きく画像が変わってしまう項目もあります。ぜひ遊びながら色々試してみてください。