この記事では、Stable Diffusion Web UIが正しく起動した後、どのようにして画像を生成するか、そのプロセスをさらに掘り下げて解説します。また、最初の画像を生成する際の具体的な手順や、便利な機能についても詳述します。
1. Web UIへのアクセス方法
前の記事で述べた通り、Web UIの起動後は、ブラウザのアドレスバーに以下のURLを入力します。
このURLはローカルホスト(自分のPC)上で動作しているWeb UIにアクセスするためのものです。インターネット接続は不要で、PCがオフラインでもアクセス可能です。
2. Web UIのインターフェース概要
ブラウザでWeb UIにアクセスすると、txt2imgやimg2imgなどのメインタブが表示されます。各タブには、それぞれの機能に対応したオプションが用意されています。
- txt2img:テキストプロンプトを入力して、ゼロから画像を生成するメインの機能です。これが最も基本的な機能で、多くのユーザーがこの機能を使って美少女イラストやその他の画像を生成しています。
- img2img:既存の画像を元にして新しい画像を生成します。例えば、粗いスケッチや既に存在する写真を加工して、より詳細なアートワークに変換する際に使われます。
- Inpainting:画像の一部を選択して、その部分を変更したり、補完する機能です。例えば、背景を変更したり、キャラクターの顔を修正したい場合に役立ちます。
- アップスケール機能:生成された画像を高解像度に拡大する機能です。元の解像度が低い場合でも、アップスケールを使用して、品質を損なわずに大きなサイズの画像を生成することが可能です。
3. txt2imgでの最初の画像生成
次に、txt2img機能を使って、最初の画像を生成する具体的な手順を詳しく見ていきます。
- Web UIの
txt2img
タブを開き、中央にあるプロンプト入力欄にテキストを入力します。 - 例として、以下のプロンプトを入力します。
A cute anime girl with long pink hair, blue eyes, wearing a sailor uniform, standing in a sunny park.
- プロンプトには、キャラクターの見た目や背景、ポーズ、表情などを詳細に記述します。
画像サイズ、サンプル数(生成する画像の数)、ステップ数(画像生成プロセスの詳細度)など、各種設定項目が用意されています。デフォルト設定でも十分に高品質な画像が生成されますが、必要に応じて調整が可能です。
- 解像度:512×512ピクセルや768×768ピクセルなど、必要に応じて解像度を変更します。解像度を上げるほど、生成に時間がかかりますが、より詳細な画像が得られます。
- ステップ数:生成プロセスの反復回数です。多くのステップを指定すると、より詳細な画像が得られますが、時間も長くかかります。通常、20~50ステップが適しています。
- 設定が完了したら、画面右下にある「Generate」ボタンをクリックします。これでテキストプロンプトに基づいた画像生成が開始されます。
- 生成プロセスは数秒から数十秒かかります。PCのスペック(特にGPUの性能)や設定した解像度、ステップ数に応じて生成時間が変わります。
- 生成が完了すると、画面下部に生成された画像が表示されます。この画像は、テキストプロンプトに基づいてAIが生成したもので、次々と異なる画像を生成することも可能です。
- 必要に応じてプロンプトを修正し、再度「Generate」ボタンを押して新しい画像を生成できます。
4. プロンプトの工夫と応用
最初の画像が生成された後、プロンプトを工夫することで、さらに多様な画像を作成できます。
- 詳細なプロンプトの作成:
- より具体的なプロンプトを入力することで、細かいディテールを指定できます。
例:A beautiful anime girl with long flowing silver hair, wearing a futuristic space suit, standing in front of a glowing cityscape at night.
- より具体的なプロンプトを入力することで、細かいディテールを指定できます。
- スタイルやフィルターの指定:
- プロンプトに特定のスタイルやアーティスティックな要素を追加することで、独自のスタイルの画像を生成できます。
例:In the style of Studio Ghibli, a forest spirit with large glowing eyes, walking through a dense mystical forest.
- プロンプトに特定のスタイルやアーティスティックな要素を追加することで、独自のスタイルの画像を生成できます。
- ネガティブプロンプト:
- 生成される画像に不要な要素を取り除くために、ネガティブプロンプトを使用します。これにより、特定の要素が出現しないように制御できます。
例:beautiful anime girl with long pink hair, blue eyes, wearing a sailor uniform, smiling. (negative: blurry, poor quality)
- 生成される画像に不要な要素を取り除くために、ネガティブプロンプトを使用します。これにより、特定の要素が出現しないように制御できます。
5. 画像の保存と共有
生成された画像は、Web UI内で簡単に保存できます。保存する際の手順は次の通りです。
- 画像の保存:
- 生成された画像の上にマウスを移動すると、Saveボタンが表示されます。これをクリックして、画像をローカルPCに保存します。
- 保存先フォルダは、設定で変更することも可能です。
- 画像の共有:
- 生成された画像は、SNSやポートフォリオで簡単に共有することができます。ただし、Stable Diffusionで生成された画像を商用利用する際には、モデルのライセンスに従う必要があります。具体的な使用条件については、使用しているモデルのライセンスを確認するようにしましょう。
6. img2imgとInpaintingの活用方法
Stable Diffusionには、img2imgやInpaintingといった便利な機能が搭載されており、既存の画像をベースに新しいイメージを作り出すことができます。これらの機能を使うことで、創作の幅を広げることができます。
img2imgの使用
img2imgは、既存の画像を元にして、新たな画像を生成する機能です。例えば、手書きのラフスケッチや、ぼんやりとしたデジタル画像を詳細なアート作品に変換することができます。以下の手順でimg2imgを活用してみましょう。
- 元になる画像をアップロード:
- Web UIのimg2imgタブを選択し、アップロードセクションから使用したい元画像をアップロードします。スケッチ、写真、アートなど、どのような画像でも構いません。
- プロンプトを入力:
- 次に、画像に基づいて生成したいスタイルや追加要素をプロンプトに入力します。
例:A highly detailed fantasy landscape with castles and dragons, glowing skies, and mist-covered mountains.
- プロンプトを入力することで、元画像のスタイルを変えたり、新たな要素を追加することができます。
- 次に、画像に基づいて生成したいスタイルや追加要素をプロンプトに入力します。
- 生成の設定:
- 画像の**デノイズ強度(denoise strength)**を調整することで、元画像のどれだけの部分が影響を受けるかを指定します。強度が低い場合は、元の画像の構成を保持しながら新しいディテールを追加します。強度が高い場合は、元の画像から大幅に変更されたものが生成されます。
- 生成ボタンをクリック:
- すべての設定が完了したら、Generateボタンをクリックして画像を生成します。しばらく待つと、新しいバージョンの画像が下部に表示されます。
Inpaintingの使用
Inpaintingは、画像の一部を修正したり、新しい要素を補完するために使用する機能です。たとえば、生成された画像の一部が気に入らない場合や、画像の一部に何かを追加したい場合に便利です。
- 修正したい画像をアップロード:
- Web UIのInpaintingタブを選択し、修正したい元の画像をアップロードします。
- 修正する領域の選択:
- 画像上で修正したい部分を選択します。選択した部分が赤色でハイライトされ、ここにAIが新たな要素を補完します。
- プロンプトの入力:
- プロンプト欄に、修正部分に対してどのような要素を追加したいのかを入力します。たとえば、画像の中のキャラクターに新しい服装を着せたい場合は、「A character wearing a royal outfit」などと入力します。
- 生成ボタンをクリック:
- 「Generate」ボタンをクリックすると、AIが選択された部分に基づいて修正を行い、画像が表示されます。修正結果に満足できなければ、再度選択部分を調整して新しいプロンプトを入力し、生成を繰り返します。
img2imgとInpaintingの応用
これらのツールは、クリエイティブなプロジェクトに非常に役立ちます。たとえば、img2imgを使用して、簡単なスケッチを詳細なアート作品に昇華させたり、Inpaintingでキャラクターや背景のディテールをさらに磨き上げることができます。
- キャラクターデザインの改善:img2imgを使用して、初期のキャラクターデザインに新しい要素やディテールを加えることで、よりプロフェッショナルな外観に仕上げることができます。
- 背景の補完:Inpaintingを使って、既存の背景に新しいオブジェクトを追加したり、欠けている部分を自然に埋めることが可能です。
7. 高度な生成設定
Stable Diffusion Web UIでは、基本設定だけでなく、高度なオプションも多数用意されています。これらの設定を調整することで、より精度の高い画像を生成することが可能です。
- サンプル数(Samples):
- 生成される画像の枚数を設定します。初期設定では1枚ですが、複数のバリエーションを一度に生成することで、より多くの選択肢が得られます。
- CFGスケール:
- このスケールは、プロンプトと生成される画像の一致度を調整します。値を大きくすると、プロンプトに忠実な画像が生成されますが、あまり高く設定しすぎると不自然な結果になることもあります。一般的には、7~10の範囲が適切です。
- シード値:
- シード値は画像生成の元になる乱数を制御するための値です。同じシード値を使うと、同じプロンプトで再度画像を生成しても同じ結果が得られます。シード値を指定しない場合、ランダムに設定されます。
- バッチサイズ:
- 一度に生成する画像のバッチ数を指定します。バッチサイズを大きくすると、生成にかかる時間が増えますが、一度に複数の画像が生成されます。
8. 生成結果の最適化と保存
生成された画像に満足したら、以下の方法でさらに調整や保存を行います。
- アップスケール機能:
- 生成された画像を高解像度に変換するアップスケール機能を活用して、より大きなサイズの画像を生成できます。この機能は、ポスターや大判印刷などにも対応できる高品質な画像を作成するのに役立ちます。
- 保存:
- 生成された画像は、Web UIの「Save」ボタンを使ってPCに保存します。保存した画像は、後で修正したり、他のプロジェクトで再利用することも可能です。
9. まとめ
Stable Diffusion Web UIを使って画像を生成するプロセスを、詳細に解説しました。まず、基本的なtxt2img機能から始め、次に高度なimg2imgやInpainting機能を使った応用例まで、幅広い方法で画像をカスタマイズすることができます。これらのツールを使いこなすことで、自分だけの独自のアート作品を簡単に作り出すことができ、さらなるクリエイティブな可能性が広がります。
次の記事ではこれまでに説明した技術を活用し、より高度なテクニックやスタイルの研究に取り組めるよう解説していきます。