7
全体公開
投稿していない中から毎週チョイスしています。 R18ボツ集は支援者限定です。 https://membership.chichi-pui.com/posts/images/5477584b-5bed-435e-8e25-bf8df3a49c55/
15
580コイン/月以上支援すると見ることができます
24
100コイン/月以上支援すると見ることができます
17
580コイン/月以上支援すると見ることができます
18
580コイン/月以上支援すると見ることができます
36
580コイン/月以上支援すると見ることができます
7
全体公開
投稿していない中から毎週チョイスしています。 R18ボツ集は支援者限定です。 https://membership.chichi-pui.com/posts/images/785296de-5225-4674-aaf4-dfe818fe084d/
6
全体公開
今回は、元画像からテキスト指示で画像を編集できるQwen Image Editを試してみました。 例によって、差分の画像をStart-Endにフレーム指定して動画を作るのに便利、という動機からです。 まずは元画像としていつものようにAnim4gineで画像を用意します(2枚目)。 これを3枚目の画像のようにしてQwen Image Editのワークフローにセットします。 プロンプトとしては、「背景だけをフォトリアルな森の画像に差し替えてください」みたいな自然文をgoogle翻訳で英語にしたものを使ってみました(4枚目)。 今度は4枚目の画像を元にして、「キャラクターを削除して背景だけにしてください」とすると、5枚目のような森の風景だけの画像になりました。消しゴムマジックみたいなことができますね。 さらに「キャラクターを削除するけど、線画だけは残してくれ」としてみたのが6枚目で、そこから「背景を夜にして、線画を光らせてくれ」としたのが1枚目、といった感じです。 nano bananaほど指示がきれいに反映されるというわけではなく、融通が利かないところもあるんですが、これをローカルのPCで使い放題というのは結構楽しいです。 いろいろ試してみたくなりますね。
14
580コイン/月以上支援すると見ることができます
10
500コイン/月以上支援すると見ることができます
500コイン/月以上支援すると見ることができます
19
108コイン/月以上支援すると見ることができます
7
全体公開
投稿していない中から毎週チョイスしています。 R18ボツ集は支援者限定です。 https://membership.chichi-pui.com/posts/images/a3f98189-5a3a-4ee1-a749-9240b0a319e1/
5
全体公開
アイノ生誕祭/爱诺生日快乐/아이노의생일 無料、4K
11
全体公開
プロンプトをいじったおかげか前回より文字が増えてそれっぽい感じになった。 個人的には1、5、7辺りが好き。
6
全体公開
Wan2.2で動画を作るときにはポーズ差分の画像があるとStart-Endでフレーム指定で安定した動画が生成できるので、最近はポーズ差分画像をどう作るかをいろいろ試しています。 nano bananaは強力なのですが、制約があったり絵柄がnano banana絵柄に寄ったりするので他の手段も試している、というか。 私がメインで使っている画像生成モデルはAnimagine4なので、Controlnetでポーズ指定するという手が使えます。 SDXL系のControlnetとしてはAnytestという強力なブツがあるので、それを試してみました。 まずは2枚目のような、大雑把な構図指定画像を手描きします。これはClip Studio Paintでマウスでちょいちょいと5分程度で描いた代物で、「まあなんとなく言いたいことは分かる」レベルのものかな、と思います。 この構図指定画像を参照画像として設定しているのが3枚目の画像で、Anytestを使うためのComfyUIワークフローです。このワークフローで画像を生成したのが1枚目です。なんとなくそれっぽくはなっている気がしますね。 ↓プロンプトはこんな感じにしています。 1girl, _, from _, blonde long hair, blue eyes tareme, forehead, pointy ears large breast, groin tendon slim bod, single-shoulder long magical black robe, bra strap, mini skirt under robe frill skirt, contrapposto, water wave background, smile, (glitter magic circle effect:1.2) from hand, blue water effect, pure clear realistic water, splash water around wind blowing さて、Anytestですが、結構いろいろなことができる「万能Controlnet」と言われていて、例えば4枚目の画像の真ん中の部分を黒塗りでつぶして(5枚目)これを参照画像として渡すと、1枚目の画像のポーズを変更することができたりもします(6枚目)。 1枚目の画像と6枚目の画像を動画のStart-Endフレームに指定すれば、なんとなく水魔法を使っているエルフ姉さんの動画ができるような気がしますね! とまあこんな感じに便利なControlnet「Anytest」ですが、月須和さんがHuggingFaceで公開してくれています。ありがたいですね。 https://huggingface.co/2vXpSwA7
11
580コイン/月以上支援すると見ることができます
40
580コイン/月以上支援すると見ることができます
11
100コイン/月以上支援すると見ることができます
16
580コイン/月以上支援すると見ることができます
3
全体公開
前回はWan2.2のS2Vモデルを使って、セリフ音声と画像から、読み上げ動画を作りましたが、今回はセリフ音声と動画から、読み上げ動画を作ってみます。 前回のはWan2.2 S2Vで1枚の画像から動画を生成したのですが、口元以外の箇所はあまり動かないというか、ほぼ口パク動画、みたいな感じでした。 今回は人物がなにか動いている動画をもとに、口元をセリフに合わせて口パクさせるというもので、動きのある読み上げ動画を作る場合はこちらの方が良いようです。 こういった手法はVideo to Video(V2V)と呼ばれているようですね。 読み上げのためのV2VにはInfiniteTalkを用いてみました。 InfiniteTalkはまだWan2.2には対応していないので、Wan2.1と組み合わせて使ってみています。 2枚目の画像がInfiniteTalkを使うためのComfyUIのワークフローで、画面下の方で元となる動画(1枚目)を指定しています。 セリフ音声は上の方(音声を読み込む、のところ)に指定してみています。 3枚目もワークフローの一部で、真ん中のあたりにプロンプトを指定しています。この手法の場合、キャラクターの見た目も動きも動画で指定しているので、プロンプトは簡単に「The woman turns to me, stretches her body, and speaks with a smile.」(その女性は私の方を向き、体を伸ばして、笑顔で話します)としました。 あとは実行すると、セリフ音声に合わせて口元の動きが調整されます。
6
全体公開
投稿していない中から毎週チョイスしています。 R18ボツ集は支援者限定です。 https://membership.chichi-pui.com/posts/images/046fe62c-b7b6-4ea6-8701-1b807d7031e4/
33
580コイン/月以上支援すると見ることができます
40
580コイン/月以上支援すると見ることができます
38
580コイン/月以上支援すると見ることができます
500コイン/月以上支援すると見ることができます
4
全体公開
オリジナルキャラクターを構築中 お約束な黒髪清楚令嬢です😅
6
全体公開
投稿していない中から毎週チョイスしています。 R18ボツ集は支援者限定です。 https://membership.chichi-pui.com/posts/images/1156d17a-7952-45b7-968a-dc61256e09e1/
3
全体公開
今回はWan2.2のS2Vモデルを使って、セリフ音声と画像から、読み上げ動画を作ってみました。 S2Vは、音声からそれに合った動画を生成するものですが、元画像を指定するとそれをもとにI2Vのように画像に沿った動画を生成してくれます。 前回使った魔法少女画像の顔アップ(2枚目)を元画像に指定し、音声として「魔法少女Muacca、いつもみんなと楽しく、ですです」という読み上げ音声を指定してできたのが1枚目の動画です。 残念ながらちちぷいには音声付の動画は投稿できないので、口パクだけになってしまいますが、元画像のキャラがなにかしゃべっている感じになっているのは分かるかと思います。 Wan2.2 S2Vですが、UIとしては公式から配布されているComfyUIワークフローを用いて実行しました(3枚目)。 基本的にはデフォルト値のままで使うのがいいようです。 ちなみに16fpsが指定されているのですが、これを30fpsとかにすると音声と口パクがズレるので、変えないほうが良いようです。fpsを変更したい場合は、生成した動画を別のツールでフレーム補間すればよいと思います。 あと、公式の情報では生成される動画は77フレーム分と書いてあって、これは変更しないほうが良いとのことでした。16fpsだと4秒くらいの動画になるはずなのですが、結果として生成されたのは14秒くらいのものだったので、それがなぜなのかはよくわかりません。投入した音声は4秒くらいだったので、ここに投稿しているものは後ろの無音声部分をカットしてあります。
28
580コイン/月以上支援すると見ることができます
30
108コイン/月以上支援すると見ることができます
4
全体公開
ガジェットを持ち探索するアールちゃん
35
580コイン/月以上支援すると見ることができます
4
全体公開
ソファでくつろぐアールちゃん
13
580コイン/月以上支援すると見ることができます
4
全体公開
アサルトライフルを持ち任務にあたるアールちゃん
4
全体公開
この度メンバーシップを作成しました そこで以前から作成を進めてた、オリジナルキャラクターのアールちゃん(仮名)を投稿する 専用メンバーシップにしようと思います 他のメンバーシップも作成予定です
10
580コイン/月以上支援すると見ることができます
8
全体公開
カレーをテーマにした雑誌の表紙風画像w あまり選ばずに適当にアップしていきます。個人的には1、6かな。
500コイン/月以上支援すると見ることができます
6
全体公開
投稿していない中から毎週チョイスしています。 R18ボツ集は支援者限定です。 https://membership.chichi-pui.com/posts/images/9d846031-9a27-486e-84da-992ad0f2e281/
4
全体公開
今回はEasyWan22でEndImageを指定して動画生成してみました。 いままでは動画の元画像をStartImage(最初の1枚)だけに指定していましたが、動画の最後の1枚(EndImage)も指定すると、どういう動画にするのかのコントロールがやりやすくなります。 2枚目の普段着のMuaccaさん画像と、3枚目の魔法少女風なMuaccaさんを使って試してみます。 4枚目の画像がEasyWan22のワークフローで、黄色い丸で囲んだノード「UseEndImage」の「Enable EndImage」を「yes」にします。デフォルトでは「no」になっているので、それをクリックして「yes」にかえてください。 そうするとその下にある「EndImage」ノードがアクティブになるので、そこに最後の1枚の画像を指定します。 上記のようにStartImageとEndImageを指定して生成したのが1枚目の動画です。普段着からだんだん魔法少女っぽい衣装に切り替わっていく感じになりましたね! ↓ちなみに以下が動画生成時のプロンプトです。ご参考まで。 ========== An elf girl spins clockwise. As she spins, her clothes change into a cute magical girl outfit, emitting magical effects. Countless pop star patterns around her continue to rotate and rise into the sky. The girl's hair and outfit flutter gently in time with her movements. The color intensity does not change.
10
580コイン/月以上支援すると見ることができます
11
580コイン/月以上支援すると見ることができます
5
100コイン/月以上支援すると見ることができます
6
全体公開
投稿していない中から毎週チョイスしています。 R18ボツ集は支援者限定です。 https://membership.chichi-pui.com/posts/images/1b0f885b-e87d-4615-a543-d7f330acc062/
5
全体公開
前回はお試しだけでしたが、今回はEasyWan22の基本的な使い方についてです。 まずは動かしたい元画像を用意します(2枚目)。これは普通に生成AIで出力してもいいですし、手書きでも写真でもOKです。(個人的な利用ではない場合、権利関係は気を付けましょう) EasyWan22を起動すると、ComfyUIのワークフロー画面が開きます(3枚目)。 大量に箱や線がありますが、その全部を理解しなくても動画は生成できますので、大丈夫です。 ワークフローの中から、「StartImage」と書かれた「ノード」を探します。ノードというのは緑色や茶色をした四角い箱のような表示のもので、それぞれ画像や動画を生成するための役割と設定値を持っています。 「StartImage」は茶色の箱で、そこに何らかの画像をドラッグ&ドロップすると動画の元画像として設定されます。 (左側の黄色い〇の部分が「StartImage」のノード) なお、EasyWan22では主に茶色のノードに設定をするだけで、基本的な使い方はできるように組まれています。 設定をカスタマイズする場合でも、緑色のノードを触るくらいで良いように、整理してくださってます。 次に、今度は「PositiveInput」のノードを探します(右側の黄色い〇の部分が「PositiveInput」のノード)。 ここにどういう動画にしたいかの説明を入力します。EasyWan22の場合、ここの入力は日本語の自然文でOKです。 いろいろ試したところ、SD1.5系やSDXL系の画像生成と異なり、タグの羅列を入力するよりは、自然文で単語と単語の関係性を明示する方が、意図に近い結果を得ることができるようです。 また、日本語よりは英語や中国語で入力する方が文意通りの結果になりやすいようです。ここは学習量の差だと思います(Wan2.2は中国発のAIモデルという事情から)。 もし英語や中国語でテキストを入力したい場合は、Google翻訳などを用いるといいようです。 ちなみに、EasyWan22では翻訳機能のノードも用意されているので、自動で翻訳したテキストをプロンプトとして使ってもらうこともできます。 元画像とプロンプトをセットした状態で、3枚目の右下の再生ボタンを押下すると、動画の生成が始まります。 パソコンの性能や生成する動画の縦横サイズによりますが、3秒くらいの長さの動画が1分程度で生成される感じです。 今回生成してみたものが1枚目の動画です。 また、動画を生成した際に、合わせてEndFrameも静止画webpファイルとして出力されます(4枚目)。 これを5枚目のように、今度は「StartImage」ノードにセットして動画を生成することで、続きを出力させることができます。 ただ、何度も生成させているとだんだん絵柄がある一定の方向に寄って行くのと、なぜか色合いが濃い目の高彩度にシフトしていくクセがあるようなので、何度も繰り返しEndFrame指定生成するのは微妙なのですが…。
6
全体公開
9
全体公開
4
100コイン/月以上支援すると見ることができます
6
全体公開
12
全体公開
38
580コイン/月以上支援すると見ることができます
6
全体公開
15
全体公開
8
全体公開
10
全体公開
9
全体公開
3
全体公開
古いものは全体公開しているわ!
全体公開
あっという間に8月も残り半分