はじめに
テキストから画像を生成できるstable-diffusion-webuiをApple siliconのMacで動かしてみた記録の続きです。 追加学習されたモデルをダウンロードして好みの画像を生成できるか試してみました。
環境について
動作環境は以下になります。
- Model:MacBook Pro 2021
- SoC:M1 Pro (CPU:10C GPU 16C)
- RAM:16GB
- OS:MacOS Ventura
- Python:3.9.16
準備
stable-diffusion-webuiの準備
以前行った環境をそのまま利用します。
モデルのダウンロード
webで公開されている学習済みモデルをダウンロードします。 今回は以下のモデルを使用しました。
ページ右側にある「Download」をクリックしてモデルをダウンロードします。
モデルの配置
stable-diffusion-webuiの環境に先ほどダウンロードしたモデルを以下のように配置します。
./models
┗/Stable-diffusion
┗cetusMix_Whalefall2.safetensors
画像の生成
モデルのページにあるプロンプトを使って画像生成を行っていきます。
プロンプトや設定の確認
以下のページの右下にあるPromptとNegative promptを確認します。
web-UIを起動しモデルを選択します。
Prompt、Negative Promptに先ほど確認したページのものをコピーします。
Generateボタンを押すと画像生成が始まります。
今回の設定では画像サイズやランダムシード値をオリジナルに合わせていないため、以下のような似たテイストの絵が生成されました。
終わりに
webで公開されている学習済みモデルを使ったイラストの生成を試してみました。 今後も進化を続けていく画像生成について、使い方を継続して学んでいきたいと思います。