はじめに
テキストから画像を生成できるstable-diffusion-webuiをApple siliconのMacで動かしてみました。
環境について
動作環境は以下になります。
- Model:MacBook Pro 2021
- SoC:M1 Pro (CPU:10C GPU 16C)
- RAM:16GB
- OS:MacOS Ventura
- Python:3.9.16
準備
webuiのapple silicon向け説明に従って準備をしていきます。
brew、pythonがインストールされていることが前提になります。
1.実行コードの準備
適当なディレクトリへ、以下のgitリポジトリからコードをクローンします。 github.com
緑色のCodeをクリックし、CloneのURLをコピーします。 ターミナルで任意のディレクトリに移動し、
git clone <コピーしたURL>
を実行します。
または、DownloadZipでコードを直接ダウンロードし展開します。
2.環境構築
ターミナルで実行コードのディレクトリに移動しwebui.shを実行します。
. ./webui.sh
または、webui.shをクリックして実行します。
シェルスクリプトの中でvenv仮装環境の構築が行われます。
必要な学習済みモデルをダウンロードするため、ネットワークの接続状況によっては時間がかかります。
3.Web-UIの起動
初回のファイルダウンロードが完了するとwebUIにアクセスできるようになります。 ターミナルに以下のように出力されたら準備完了です。
LatentDiffusion: Running in eps-prediction mode
Running on local URL: http://127.0.0.1:7860
http://127.0.0.1:7860
をcommandキーを押したままクリックすることでブラウザでwebUIを開くことができます。
テキストから画像の生成
promptにテキストを入力し、「Generate」ボタンを押すと画像の生成が開始されます。
生成された画像はWeb-UIの以下のディレクトリに出力されます。
./outputs/txt2img-images/{日付}/{生成画像}
起動コマンドを追加しなくてもMacのGPUを使って画像の生成が行われるようになっていました。
終わりに
Macでの画像の生成をWeb-UIを使って行いました。 GPUを使う設定が自動で選択されるため、Macでも十分に生成ができるようになりました。 今後は様々なプラグインや追加モデルを試してみたいと思います。
また、関連するリポジトリをメンテナンスしている皆様に感謝いたします。