自由自在に画像生成ができるStable DiffusionのUIである「Stable Diffusion web ui」の始め方からそれぞれの機能やパラメータなど、より精度の高い画像生成を行うための使い方をご紹介します。
- 1 Stable Diffusion web uiとは
- 2 Stable Diffusion web uiの必要スペック
- 3 Stable Diffusion web uiをインストールする方法
- 4 Stable Diffusion web UIで使うモデルのダウンロード方法と保存先
- 5 Stable Diffusion web UIのアップデート方法と注意点
- 6 Stable Diffusion web uiを日本語化する方法
- 7 Stable Diffusion web uiで作った画像は例外を除いて商用利用可能
- 8 Stable Diffusion web uiの機能一覧
- 9 Stable Diffusion web uiのそれぞれの項目とパラメータを設定する方法
- 10 Stable Diffusion web uiで画像を生成する方法
- 11 Stable Diffusion web uiで生成画像をダウンロードする方法
- 12 Stable Diffusion web uiで実際に画像を生成してみた
Stable Diffusion web uiとは
Stable Diffusion web uiとは2022年8月に無償で公開されたブラウザをインターフェイスとした画像生成AIツールで、直感的な操作で画像を生成することができます。作業環境を構築すればオフラインでも画像生成をすることができ、PCで起動しローカルサーバを立てることで、どのデバイスでもブラウザから操作を行うことができます。
Stable Diffusion web uiの必要スペック
Stable Diffusion web uiを使用するにはGPUが必要で、条件を満たさない場合には動かない場合があります。画像生成の所要時間も関わってくるためこれから購入を考えている方はより高いスペックのパソコンを購入することをお勧めします。
CPU | 特段古いCPUでなければ問題なく扱えます。 |
メモリ | 初めは16Gもあれば難なく画像生成をすることができますが、モデル学習といった機能を使う場合は32Gのものを用意することをお勧めします。 |
GPU | NVIDIA製 12GB以上推奨 最低でも4~8GBは必須 |
ストレージ:SSD | モデルのダウンロード数や生成画像の枚数、解像度にもよります。最低限30GBはあった方がいいでしょう。 |
MacについてはM1,M2を積んでいるパソコンであれば動かすことができますが、しっかりとGPUをを積んだWindowsパソコンには劣る部分があります。
Stable Diffusion web uiをインストールする方法
実際にStable Diffusion Web UIをインストールする方法をご紹介します。
WindowsでStable Diffusion web uiを使う方法
WindowsにStable Diffusion web uiをインストールの前に「Python」「Git」のインストールが必要です。
①Pythonをダウンロードする
(1)Pythonのダウンロードページを開きます。
(2)下記画像の赤枠で囲われた「Python 3.10.6」をダウンロードします。
②Gitをダウンロードする
次にGitをダウンロードします。
(1)Gitのダウンロードページを開きます。
(2)下記画像の赤枠で囲われた「Click here to download」をクリックすると、Windows版の最新ファイルをダウンロードできます。
③Web UI(AUTOMATIC1111)をダウンロードする
インストールしたGitを使ってWeb UI(AUTOMATIC1111)をダウンロードしていきます。
(1)Web UIをダウンロードしたいフォルダを右クリックして、「Git Bash Here」をクリックします。
(2)Gitが開いたら、下記の分をコピペします。すると自動でダウンロードしてくれます。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
(3)「stable-diffusion-webui」というフォルダが新しく作成されていることを確認しましょう。
(4)stable diffusionを起動するためにはまず、「stable-diffusion-webui」フォルダを開き、下から2番目の「webui-user」をクリックします。
(5)するとコマンドプロンプトが開き、下記画像のようなコードが生成されます。(数分かかる)
コードが生成されたら、下記画像の下から4行目のURL: に続く
http://127.0.0.1:7860
をコピーします。
(6)コピーしたURLをブラウザに張り付けると、Stable Diffuisonを起動することができます。
MacでStable Diffusion webuiを使う方法
Homebrewのインストール方法
まず、Homebrewをインストールする必要があります。ターミナルを開き下記の手順でコマンドを実行してください。ターミナルは「command+spaceキー」でSpotlightを呼び出しターミナルと検索すると出てきます。
brew -v
を実行します。この時に「Homebrew 〇〇{バージョン}」と表示されたら既にHomebrewはインストールされています。ツールのインストールから行なってください。
「zsh: command not found: brew」と表示された場合はHomebrewのサイトの「インストール」の下のコードをコピーします。
Homebrew:https://brew.sh/index_ja
先ほどコピーしたものをターミナルに貼り付け実行します。この時管理者パスワードを要求されますが、打ち込んでも表示されないので注意が必要です。
しばらくするとNext steps!:Run these two commands in your terminal to add Homebrew to your PATH:」と出てくるので、その下に現れる2行のコードをコピーし、再び新しくペーストして実行します。
「~% 空白」の字列が出てきたら完了です。確認のために「brew -v」を実行して「Homebrew 〇〇{バージョン}」と表示されたらインストール成功です。
ツールのインストール方法
Homebrewをインストールした上で下記のコードを一つ一つ実行することでツールをインストールすることができます。
brew install cmake protobuf rust python@3.10 git wget
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui
./webui.sh
これでインストールが始まります。初めはかなり時間がかかるので時間に余裕のある時に行うことをお勧めします。
しばらくすると、「Running on local URL:」と表示されるので、その後ろのhttpから始まるリンクをコピーしブラウザに貼り付けます。
ブラウザ上にこの作業画面が表示されれば成功です。以上でインストール終了になります。
Stable Diffusion web UIで使うモデルのダウンロード方法と保存先
ツールに合わせてStable Diffusion web UIを使うには画像生成の元となるモデルをダウンロードする必要があります。モデルの配布サイトは「Civitai」「Hugging Face」の2つがありますが、「Hugging Face」はモデルのサンプル画像が少なく、イラストの完成図が分かりづらいので「Civitai」を使用することをお勧めします。
「Stable Diffusionのモデルは何を使えばいい?」「リアルな画像やアニメ風の画像を生成できるモデルを知りたい!」 このような疑問をお持ちの方は多いのではないでしょうか? Stable Diffusionのモデルとは[…]
Civitaiからダウンロードする方法
Civitaiは実際に生成された画像並んでおりその中からモデルを選ぶことができるため、モデル選びにはおすすめのサイトです。
Civitai:https://civitai.com/
好みの画像をクリックするとモデルのダウンロードページに飛ぶので青枠の「Download」をクリックします。
保存先は「Stable Diffusion web ui」→「models」→「Stable Diffusion」です。商用利用不可能のモデルもあるので著作権については注意が必要です。
Hugging Faceからダウンロードする方法
Hugging Faceはモデルやさまざまなツールをダウンロードできるサイトです。
Hugging Face:https://huggingface.co/
上の項目をから「Model」を選択し、左の項目から条件を入れながら好みのモデルを探します。
おすすめのモデル
Stable Diffusion で使えるおすすめのモデルをご紹介します。
モデル名 | 概要 | ダウンロードサイト |
Chilloutmix | アジア人系の人物生成に使えるモデルで高品質で精製でいるメジャーなモデル | https://civitai.com/models/6424/chilloutmix |
yayoi_mix | 表情豊かでリアルアジア人女性が生成されるモデル | https://civitai.com/models/83096/yayoimix |
Realistic Vision | 写真風や実写のような画像を生成するモデル 人に限らず動物や風景もリアルに生成できる | https://civitai.com/models/4201/realistic-vision-v20 |
CyberRealistic | 凡庸性が高く、リアルな画像が生成されるモデル | https://civitai.com/models/15003/cyberrealistic |
Flat-2D Animerge | 線がはっきり出やすい2Dのモデル | https://civitai.com/models/35960/flat-2d-animerge |
DosMix | 3D風のイラスト画像が生成できるモデル | https://civitai.com/models/6250/dosmix |
MeinaMix | アニメイラスト風の画像が生成できるモデル 繊細なタッチとファンタジー系の雰囲気が特徴 | https://civitai.com/models/7240/meinamix |
Stable Diffusion web UIのアップデート方法と注意点
Stable Diffusion web uiをアップデートせずに使っていると、いざ拡張機能を使いたい時に使えない場合があるので、定期的に確認しましょう。しかし、最新のバージョンはバグが多く発生する場合があるので注意が必要です。
WindowsでStable Diffusion web UIをアップデートする方法
WindowsでStable Diffusion web UIをアップデートする方法をご紹介します。
MacでStable Diffusion web UIをアップデートする方法
MacでStable Diffusion web UIをアップデートする方法をご紹介します。
ターミナルを開き、
cd ~/stable-diffusion-webui
を実行し、「stable-diffusion-webui」のファイルに移動します。そこで、
git pull
のコマンドで更新できます。
Stable Diffusion web uiを日本語化する方法
Stable Diffusion web uiは英語で提供されているサービスですが、拡張機能を使うことでさまざまな言語での作業が可能になります。
Stable Diffusion web uiを日本語化する方法についてはこちらの記事で詳しく解説しています。
「Stable Diffusion WebUIを使っているけど、英語表示で使いづらい」「Stable Diffusion WebUIを日本語表示で使いたい」 このような悩みをお持ちの方は多いのではないでしょうか? 今回PROM[…]
Stable Diffusion web uiで作った画像は例外を除いて商用利用可能
画像生成AI「Stable Diffuision」は商用利用することができます。しかし、場合によっては商用利用が禁止されているため、細心の注意を払う必要があります。
「img2img」「Train」を使う場合に元の画像に商用権がない限り使用することができません。また、モデルによっては商用利用不可能なものもあります。
「Stable Diffusionの商用利用できるの?」「画像生成AIを商用利用する上で注意することは?」そう思う方もいるのではないでしょうか。 今回PROMPTYでは、Stable Diffusionの商用利用についてのライセンス[…]
Stable Diffusion web uiの機能一覧
txt2img | txt2imgはStable Diffusionの基本的な機能で、テキストから画像生成する項目で、プロンプトやパラメータに忠実に画像が生成されます。 |
img2img | img2imgは元となる画像をアップすることで、その画像をもとに画像生成がされます。 |
Extras | 画像の解像度を上げることができます。 |
PNG info | PNG infoでは画像から以下の項目の数値やプロンプトを知ることができます。 プロンプト・ネガティブプロンプト・ステップ数・サンプラー・CFGスケール・シード値・Width・Height・モデル名 |
Checkpoint Merger | Checkpoint Mergerでは画像生成で使用するモデルを組み合わせ、オリジナルのモデルを生成することができます。画像をもとに生成するimg2imgとは違い、モデル自体を作るのでさまざまな応用を加えることができます。 |
Train | Trainでは複数の画像を学習させることでオリジナルのモデルを作成することができ、そのトレーニングをもとに画像を生成することができます。 |
Setting | Stable Diffusion自体の設定ができます。 |
Extensions | Stable Diffusionの拡張機能のインストール、反映ができます。 |
Stable Diffusion web uiでは画像生成するだけでなく、画像の解像度を上げたり、画像生成に用いるモデルを新しく作ることができます。それぞれの機能をご紹介します。
画像生成をする場合は「txt2img」「img2img」を使用します。
Stable Diffusion web uiのそれぞれの項目とパラメータを設定する方法
Stable Diffusion は比較的設定項目が多く、微妙な調整で完成画像に大きく関わります。初期設定は標準の値に設定されていますが、より細かい調整を加えていき、理想の画像に近づけていきます。下の画像のそれぞれの項目をご紹介していきます。
モデルを設定する
Stable Diffusion web ui ではあらかじめダウンロードしたモデルから学習し、プロンプトに合わせて画像が生成されます。それぞれのモデルに特徴があり、雰囲気やスタイルに影響する生成画像の根幹となるかなり重要な項目です。
プロンプトを設定する
生成AIで最も重要となってくるのは「テキストプロンプト」と呼ばれる完成画像の説明文で、自分のイメージをそのまま言語化するだけでさまざまなパターンの画像を生成できます。対応言語は英語なので、全て英語で入力する必要がありますが、翻訳サービスなどを使って理想の画像の説明を入力します。
プロンプト例:
8k, masterpiece, 1girl, Asian, realistic, portrate, detail,
逆に生成したくないものも「ネガティブプロンプト」として組み込むことができ、完成イメージに対するより精度の高い画像生成ができます。
ネガティブプロンプト例:
cartoon, anime, sketches, worst quality, normal quality, lowres, normal quality, acnes, skin blemishes, bad anatomy, loli, bad lighting, bad color contrast, nsfw
ここまで設定できればしっかりとした画像を生成することができます。画像生成数の制限もないので、一度ここまで作成した段階で画像生成してみてください。
パラメータを調整する
ここからはより理想の画像に近づけていく作業になります。それぞれのパラメータを調整してどの程度芸術的に寄せるのかや、アスペクト比の設定などコンマ単位の設定をしていきます。
4.Sampling method | 画像生成する時のアルゴリズム |
5.Sampling steps | 生成の過程の回数です。される画像の詳細さを設定します。値がより大きい方が細かく描写されますが、生成時間が長くなります。 |
6.Restore faces / Tiling / Hires. fix | 顔を左右対称にする/絵などで敷き詰める/高画質で生成する |
7.Width, 8.Height | 縦横のサイズをPixelで設定します。 |
11Batch count | 同条件で画像を生成する枚数。 |
12.Batch size | 一つのプロンプトに対して同時に画像を生成する枚数。 |
9.CFG Scale | 芸術性とプロンプトの比重を設定します。値が大きいほどプロンプトに忠実になります。 |
10.Seed | 生成画像それぞれにseed値が生成され、そのseed値を記入して生成することで、元の画像に似た画像を生成することができます。 |
パラメータは初めからデフォルトの値に統一されているので、あえて設定する必要はありません。生成した画像に対して変更したい要素があった場合、少しずつ変更していきます。
画像の精度に関する値を大きく変更してしまうと鳥肌が立つような画像が生成されるので注意が必要です。
Stable Diffusion web uiで画像を生成する方法
全ての設定が終わったら画像を生成していきます。右上の「generate」をクリックすると生成が始まります。
画像の生成中に中止したい場合は「Skip」、割り込みで生成を始めたい場合は「Interrupt」をクリックします。
Stable Diffusion web uiで生成画像をダウンロードする方法
画像生成後、画像の下部から保存方法などを選ぶことができます。
Save | PNGで画像を保存します。 |
Zip | Zip形式で画像を保存します。 |
Send to 〇〇 | 生成した画像をStable Diffusion内でさらに修正、変更などを加えられます。 |
Stable Diffusion web uiで実際に画像を生成してみた
今回ご紹介したStable Diffusion web uiを実際に試していきます。「txt2img」を使ってリアルなアジア人女性の画像を生成していきます。
「img2img」の使い方はこちらをご覧ください。
モデルとプロンプトのみを設定したパターン
モデル:
chilloutmix_NiPrunedFp32Fix.safetensors [fc2511737a]
プロンプト:
8k, masterpiece, 1girl, Asian, realistic, portrate, detail,
ネガティブプロンプト:
cartoon, anime, sketches, worst quality, normal quality, lowres, normal quality, acnes, skin blemishes, bad anatomy, loli, bad lighting, bad color contrast, nsfw
生成画像:
リアルな女性の画像が生成されました。瞳や髪の毛の描写など細かく描かれています。
パラメータを調節してみたパターン
次にプロンプトは変えず、パラメータをいくつか調整して生成してみます。どのような違いが出てくるでしょうか。
より詳細にプロンプトに忠実になるように変更して生成
Sampling method:DPM++ 2M Karras
Sampling steps:80
Batch count:4
CFG Scale:3
生成画像:
4枚の画像が生成されました。「Sampling steps」「Batch count」を変更したため10分ほど時間がかかりました。
荒めに芸術にパラメータを振って生成
Sampling method:PLMS
Sampling steps:19
Batch count:4
CFG Scale:20
生成画像:
クオリティの低い画像が生成されました。また、服装や衣装にも少し特徴が見られるため、パラメータの値が画像生成に大きく影響していることがわかります。Sampling stepsを通常20のところを19に変更するだけでこれだけ乱れが出ます。
数値を1変えるだけで大きく画像が変わってしまう項目もあります。ぜひ遊びながら色々試してみてください。