管理人がやりたかったこと。それは、自分が用意したAIアバター画像を自由自在に動かす動画を作ること。
AIアバターを動かすといっても、Blenderなどでやるほど暇ではない。いや、そんな技術力がない。
アバターにこんな動きをさせたいと思ったとき、自分でその動きをする動画を作り、その動画と同じ動きをアバターにさせることができれば、やりたいことの目的が達成できます。
まずは、こんな動きをさせたい、の動画をご覧ください。
このAI女性(AI川AI子さん)の上半身画像はネット上でよく見かけます。
今回、これを全身画像にします。これは、Photoshopの機能を使いました。更に、動かすために、背景の幅と高さを拡張します。これもPhotoshopが勝手に広げてくれます。
Photoshopでは、人物と背景を分離した画像を作ります。人物だけと背景だけの二枚です。理由は、分割した方がAIがきれいに動画を生成してくれるから、です。
動画の冒頭の踊り出すシーンは、「VIGGLE」というサイトで生成しています。静止画像と動画をアップロードすると、動画の動きを静止画像に反映して動かしてくれます。この元動画は「metaperson.avatarsdk.com」で作っています。関心のある方は過去記事をご覧ください。
その後のカメラに向かって近づいてくるシーンは、「lumalabs.ai」で生成した動画を使って「VIGGLE」で処理しています。
残りの部分(TikTokとラジオ体操)も「VIGGLE」です。ラジオ体操の前半は加藤ツバキさん、後半は高園ゆり子さんの動きを使っています。
ここで、なぜ、人物と背景とを分離したのか、その理由を説明します。
「VIGGLE」で処理すると、人物が床から浮きあがったような奇妙な動画になる場合があります。人物と背景を分離することで、人物だけの動画を静止画の背景の床に着地させることができます。
また、人物と背景を分離し、人物の背景を緑色にしてクロマキー合成をやりやすくします。
YouTubeにAI生成サービスについて動画をアップしている人たちがいます。その人たちが言わないのは、「こんな凄い動画が作れる」というサービスは、数秒しか作れないサービスと言うこと。これについてはだれも指摘していません。
最初は凄いと思っても、ワンカット2、3秒の動画を連続で見せられる視聴者側のストレスはかなり大きいと感じます。そんな細切れ動画など二度と見たくない。
画像を動かすアプリはいくつかありますが、そのほとんどが顔が別人になる、という問題があります。それでは使えません。