NMKD Stable Diffusion GUIとは?導入方法と使い方を徹底解説!

「画像生成ツールを使いたいが複雑で手が出せない…」「NMKD Stable Diffusion GUIで画像生成を簡単に行うことができるの?…」そう思う方もいるのではないでしょうか。

実は、NMKD Stable Diffusion GUIを利用すれば、AIを活用した高品質な画像生成が手軽にできます。

今回PROMPTYでは、NMKD Stable Diffusion GUIの導入方法とその使い方について徹底的に解説します。

NMKD Stable Diffusion GUIとは

NMKD Stable Diffusion GUIは、N00MKRAD氏により開発・配布されているソフトウェアで、簡単にStable Diffusionで画像を生成できるツールとなっています。

このソフトウェアは専門的な環境構築を行う必要がなく、その利便性が最大の魅力です。また、GUIを通じて簡単に画像を生成でき、その全てが無料で利用可能な点も大きなメリットです。

Stable Diffusionを利用するツールとして、NMKD Stable Diffusion GUIと並んで、Stable Diffusion web UIがあります。Stable Diffusion web UIについて詳しく知りたい方は、こちらの記事をご覧ください。

関連記事

自由自在に画像生成ができるStable DiffusionのUIである「Stable Diffusion web ui」の始め方からそれぞれの機能やパラメータなど、より精度の高い画像生成を行うための使い方をご紹介します。 Stabl[…]

推奨されるスペック

NMKD Stable Diffusion GUIの公式ページによると、推奨されるスペックは次の通りです。

OS: Windows 10/11 64-bit
〇Minimum:
GPU: Nvidia GPU with 4 GB VRAM, Maxwell Architecture (2014) or newer
・Alternatively, with limited feature support: Any DirectML-capable GPU with 8 GB of VRAM
・RAM: 8 GB RAM (Note: Pagefile must be enabled as swapping will occur with only 8 GB!)
・Disk: 10 GB (another free 5 GB for temporary files recommended)
〇Recommended:
・GPU: Nvidia GPU with 8 GB VRAM, Pascal Architecture (2016) or newer
・RAM: 16 GB RAM
・Disk: 12 GB on SSD (another free 5 GB for temporary files recommended)
〇rofessional/DreamBooth-capable:
・GPU: Nvidia GPU with 24GB VRAM, Turing Architecture (2018) or newer
・RAM: 32 GB RAM
・Disk: 12 GB on NVME SSD (another free 25 GB for temporary files recommended), system-managed paging file enabled

引用元:Github

現在はWindowsのみに対応しており、「Recommended」を参照すると、快適にNMKD Stable Diffusion GUIを動かすためには、ある程度スペックが高いPCを準備する必要があります。

CPU特に制限なし
GPU8GB以上のVRAMを搭載したNvidia製のGPU
メモリ16GB以上
ディスク12GB以上のSSD

NMKD Stable Diffusion GUIの導入方法

ダウンロード方法

itch.ioというサイトからNMKD Stable Diffusion GUIの圧縮ファイルをダウンロードします。

Webページ(https://nmkd.itch.io/t2i-gui)にアクセス

“Download Now”と書かれた箇所をクリックします。

価格が表示されますが、”No thanks…”を選んで、ソフトを無償で利用することが可能です。

複数のリンクから選ぶことができますが、はじめからモデルが搭載されている「Including model」のついたものを選択してダウンロードします。

インストール方法

ダウンロードが完了したらファイルを展開します。その際、フォルダ名に日本語の名前は避けましょう。展開後のフォルダ内で “StableDiffusionGui.exe”を開きます。

問題なくGUIが起動できれば、準備は完了です。

NMKD Stable Diffusion GUIの使い方

モデルやVAEのインストール

①モデルファイル・VAEファイルを保存する

NMKD Stable Diffusion GUIでは、使用するモデルやVAEを変更することができます。デフォルトのモデルのほかにダウンロードしたモデルやVAEを導入するときは、次のフォルダに保存します。

  • モデル:SGD-(バージョン名)/Data/models
  • VAE:SGD-(バージョン名)/Data/models/vae

今回は、Beautiful Realistic Asians v5を使用します。

Stable Diffusionのモデルについてはこちらの記事で詳しく解説しています。

関連記事

「Stable Diffusionのモデルは何を使えばいい?」「リアルな画像やアニメ風の画像を生成できるモデルを知りたい!」 このような疑問をお持ちの方は多いのではないでしょうか? Stable Diffusionのモデルとは[…]

②モデルファイルを変換する

2023年7月時点では、NMKD Stable Diffusion GUIでsafetensors形式のモデルファイルを導入することができません。そのため、GUI上でckpt形式に変換する必要があります。

右上の”Developer tools”をクリックします。

”Convert Models”を選択

Model Input Formatには”Safetensors”を、Model Fileには変換するモデルファイル(今回はbeautifulRealistic_brav5.safetensors)を、Model Output Formatには”Pytorch”を選択して”Covert!”をクリックします。変換が完了すると、ckpt形式のモデルファイルが保存されます。

③使用するモデルを選択する

使用するモデルの設定は、GUI右上のSettingsから行います。

Settingsの画面で、Stable Diffusion ModelとStable Diffusion VAEをそれぞれ使用するものを選択します。

テキストから画像を生成する

インストールが終わったら、実際にStabel Diffusionで画像を生成します。ここでは、テキスト(プロンプト)から画像を生成する機能を紹介します。

画像を生成する手順は、

①”Enter your prompt here”の欄(赤枠)にプロンプトを入力

②”Enter your negative prompt here”の欄(青枠)にネガティブプロンプトを入力

③緑枠部分のパラメータを設定する

① プロンプトを入力する

プロンプトにはカンマ(,)で区切った英語を入力します。人物の画像を生成する場合、クオリティに関する単語、人数や性別、服装や髪型など細かく指定できます。なお、プロンプト中に改行を使用すると別々の画像をして複数出力されてしまうので注意してください。

今回はこちらのプロンプトを入力します。

8k,masterpiece, RAW photo,best quality,extremely detailed face,1girl,head on,smile,school uniform,black long straight hair,blue eyes,

プロンプトで指示する単語についてはこちらの記事で詳しく解説しています。

関連記事

Stable Diffusionでは画像を生成する際に、適切なプロンプトを入力することで、人物が着用している服装を指定することができます。 今回は、「Counterfeit-V2.5」を使用して、様々な服装を指定するためのプロンプト[…]

関連記事

Stable Diffusionで画像を生成する際に、適切なプロンプトを入力できていない場合、望む人物を適切に描写することが出来ない場合があります。 プロンプトでは「long hair」のような単一の特徴しか記述しない場合、多くのプ[…]

関連記事

Stable Diffusionで画像生成を行う際に、思った通りの独自の構図やアングルの画像が出力されないことはないでしょうか。 Stable Diffusionで思い通りの画像を生成するためには、描写に関連するプロンプト(呪文)を[…]

② ネガティブプロンプトを入力する

ネガティブプロンプトには、生成画像から除外したい要素を入力します。クオリティに関する単語や、顔や指が不整合にならないようにネガティブプロンプトで指示します。

今回はこちらのプロンプトを入力します。

worst quality,painting,sketch,flat color,ugly face,bad face,bad anatomy,missing fingers,nsfw,nude

ネガティブプロンプトについてはこちらの記事で詳しく解説しています。

関連記事

「ネガティブプロンプト」とは、Stable Diffusionなどの画像生成AIによるイラスト制作において「描いてほしくない要素」を管理するためのものです。 今回PROMPTYでは、ネガティブプロンプトとは何か、ネガティブプロンプト[…]

③ パラメータを設定する

最後に、緑枠部分の数値を設定することでStable Diffuisonが画像を生成する方法や解像度、枚数などを指定します。各パラメータの意味は次の通りです。

  1. 「Amount Of Image To Generate」は、一度の生成する画像の数を決定します。
  2. 「Generation Steps」は、画像を生成するステップ数を設定します。この値を高くするほど、計算に要する時間は増えます。
  3. 「Prompt Guidance (CFG Scale)」機能では、テキストに基づいた画像をどの程度作り出すかを決めます。しかし、設定を過剰に高めると、画像が壊れやすくなります。
  4. 「Seed(Empty=Random)」は、画像のシード値を指定します。未設定の場合はその都度ランダムな画像が作られます。作られたファイル名には自動的にSeedの値が記入されます。この数値を再入力すると、同一の画像を再度生成できます、。
  5. 「Resolution(Width × Height)」は出力画像の解像度を設定します。解像度を大きくすると、処理に時間がかかります。デフォルトの解像度は512 × 512です。
  6. 「Sapmler」は画像生成の方法に関するパラメータです。8種類のサンプラーが用意されており、これらを変えることで生成される画像が変わります。
  7. 「Generate Seamless (Tileable) Images」機能は、四方がつながったパターンの画像を作り出します。これを有効にしておくと、テクスチャ素材や完全な360パノラマなどを作ることができます。

今回パラメータは、次のように設定しました。

Amount Of Image To Generate:4

Generation Steps:25

Prompt Guidance (CFG Scale):8

Seed(Empty=Random):Randam

Resolution(Width × Height):512×512

Sampler:Euler Ancestral

Generate Seamless (Tileable) Images:Disabled

最後に”Generate!”をクリックすると画像が生成されます。

生成された画像:

プロンプトで指示した通り、制服を着たロングヘアーで青い目の女性の画像が生成されました。

他の画像を参照して画像を生成する

NMKD Stable Diffusion GUIでは、テキストからの画像生成だけではなく、既存の画像を参照にして、それをベースに新しく画像を作成することも可能です。

ここでは他の画像を参照して新しく画像を生成する方法について紹介します。

はじめに、プロンプト欄の「Load Image」を選択して、画像ファイルをアップロードします。

今回は先ほど生成した制服を着た女性の画像のうちの1つを選択しました。

参照する画像:

画像を選択すると、GUIが少し変化します。前章で示したパラメータに加えて”initialization Image Strength (Influence)”の値を指定します。この値で参照画像がどのくらい維持されるかが決定されます。

今回は元の画像から、表情と髪型と目の色を変えた画像を生成してみます。

プロンプト:

8k,masterpiece, RAW photo,best quality,extremely detailed face,1girl,head on,angry,school uniform,blonde short hair,red eyes

ネガティブプロンプト:

worst quality,painting,sketch,flat color,ugly face,bad face,bad anatomy,missing fingers,nsfw,nude

initialization Image Strength (Influence):0.5

Amount Of Image To Generate:1

Generation Steps:25

Prompt Guidance (CFG Scale):8

Seed(Empty=Random):Randam

Resolution(Width × Height):512×512

Sampler:Euler Ancestral

Generate Seamless (Tileable) Images:Disabled

生成された画像:

髪の長さは少し歪になってしまいましたが、元の画像の構図や服装を維持したまま、表情と髪型、目の色を変えた画像を生成することができました。

まとめ

今回PROMPTYでは、NMKD Stable Diffusion GUIの導入方法と使い方を紹介しました。

  • NMKD Stable Diffusion GUIでは、仕様を満たすスペックがあれば、初心者でもAIを利用した高品質な画像生成を行うことが可能です。
  • NMKD Stable Diffusion GUIのファイルは、無料かつ簡単にダウンロードが可能です。
  • NMKD Stable Diffusion GUIでは、プロンプト・ネガティブプロンプトを入力することで指定した画像を生成することができます。
  • さらに、NMKD Stable Diffusion GUIでは他の画像を参照して画像を生成することもできます。

今回の記事を参考に、皆さまもNMKD Stable Diffusion GUIを使って画像生成に挑戦してみてはいかがでしょうか。

~Stable Diffusionで素早く画像生成するには~

Stable Diffusionの画像生成スピードや画像サイズは、グラフィックボード(GPU)の性能によって大きく変わります。

このため、より効率的かつ快適な画像生成を望むユーザーにとって、最適なグラフィックボードの選択が重要となります。

推論処理やLoRAなどの追加学習処理といった大量の計算を効率よく行うためには、12GB以上のVRAMを持つグラフィックボードを選ぶことを強くおすすめします。

2GBや4GBのVRAMを持つグラフィックボードでは、学習プロセスや高解像度の画像生成に支障が出る可能性が高いです。 コスパを重視する方は、RTX 3060を選ぶと良いでしょう。

このグラフィックボードを使えば、Stable Diffusionの画像生成機能を最大限に活用することが可能となります。