Stable Diffusion web UIをMacで試してみた

はじめに

テキストから画像を生成できるstable-diffusion-webuiをApple siliconのMacで動かしてみました。

環境について

動作環境は以下になります。

準備

webuiのapple silicon向け説明に従って準備をしていきます。

github.com

brewpythonがインストールされていることが前提になります。

1.実行コードの準備

適当なディレクトリへ、以下のgitリポジトリからコードをクローンします。 github.com

緑色のCodeをクリックし、CloneのURLをコピーします。 ターミナルで任意のディレクトリに移動し、

git clone <コピーしたURL>

を実行します。

または、DownloadZipでコードを直接ダウンロードし展開します。

2.環境構築

ターミナルで実行コードのディレクトリに移動しwebui.shを実行します。

. ./webui.sh

または、webui.shをクリックして実行します。

シェルスクリプトの中でvenv仮装環境の構築が行われます。

必要な学習済みモデルをダウンロードするため、ネットワークの接続状況によっては時間がかかります。

3.Web-UIの起動

初回のファイルダウンロードが完了するとwebUIにアクセスできるようになります。 ターミナルに以下のように出力されたら準備完了です。

LatentDiffusion: Running in eps-prediction mode
Running on local URL:  http://127.0.0.1:7860

http://127.0.0.1:7860をcommandキーを押したままクリックすることでブラウザでwebUIを開くことができます。

テキストから画像の生成

Web-UI画面

promptにテキストを入力し、「Generate」ボタンを押すと画像の生成が開始されます。

生成された画像はWeb-UIの以下のディレクトリに出力されます。

./outputs/txt2img-images/{日付}/{生成画像}

起動コマンドを追加しなくてもMacGPUを使って画像の生成が行われるようになっていました。

終わりに

Macでの画像の生成をWeb-UIを使って行いました。 GPUを使う設定が自動で選択されるため、Macでも十分に生成ができるようになりました。 今後は様々なプラグインや追加モデルを試してみたいと思います。

また、関連するリポジトリをメンテナンスしている皆様に感謝いたします。