先に結論
この4つは全部「写真から動画」を扱えそうに見えますが、実際には主語がかなり違います。
- 人物写真を短尺動画にする → Sora
- 1枚画像から会話できるブランドキャラを作る → Runway Characters
- 音声付き talking avatar を量産する → Hedra
- 静止画から cinematic な映像にして keyframe でつなぐ → Luma Dream Machine
なので一番大事なのは、「写真→動画」をやりたいのか、「画像→会話アバター」をやりたいのか、「音声駆動キャラ動画」をやりたいのかを先に分けることです。
特に Runway Characters と Hedra はどちらも avatar 文脈に見えますが、Runway は リアルタイム対話体験をプロダクトへ埋め込む API、Hedra は talking video を作る studio の色が強いです。ここを混ぜると選定を外しやすいです。
なぜ今この比較が重要か
2026年2月から3月にかけて、「画像を動かす」系の論点が一気に実務寄りになりました。
OpenAI は 2026-02-04 に Image 2 Video with people を広げ、家族や友人の写真から動画を作れるようにしました。ただし、同意確認、より厳しい安全ガードレール、現実人物を検知した場合の自動スタイライズ、水印など、かなり強めの制約を前提にしています。さらに 2026-03-19 には Sora editor を追加し、trim、stitch、reorder、reprompt、remix を Sora 内で扱えるようにしました。
Runway は 2026-03-09 に Runway Characters を公開し、single image から zero fine-tuning で conversational character を作れる real-time video agent API へ踏み込みました。これは「画像を動画化する」というより、画像を対話インターフェース化する 進化です。
Hedra は 2026年時点で、Omnia や Character-3 を軸に、画像・音声・動画をまとめるスタジオとして前に出ています。公式ガイドでも portrait / character animation、audio-driven generation、talking avatar、UGC-style ads、教育・営業用途がかなり明確です。
Luma Dream Machine は keyframes と image extensions を前面化し、静止画から始めて、start frame / end frame / extend で動画を物語的につなぐ 方向がより分かりやすくなりました。
つまり今は、ただ「写真が動く」だけでなく、
- 写真を安全に短尺動画化したいのか
- キャラを会話可能にしたいのか
- 声に合わせて avatar をしゃべらせたいのか
- 映像表現としてシーン遷移を作りたいのか
で選ぶべき時期です。
比較表
| 比較軸 | Sora | Runway Characters | Hedra | Luma Dream Machine |
|---|---|---|---|---|
| 主戦場 | 人物入り image-to-video / 短尺生成 | リアルタイム conversational avatar API | talking avatar / audio-driven character video | cinematic image-to-video / keyframe演出 |
| 入力 | 写真、画像、既存 draft | 単一 reference image | 画像、音声、テキスト、reference | 画像、prompt、start/end keyframes |
| 出力の主語 | 短尺動画 | 会話できる video agent | 音声付きキャラ動画 | シーン遷移つき短尺動画 |
| 会話性 | 弱い | 非常に強い | 中。動画化中心 | 弱い |
| lip sync / listening 表現 | 限定的 | 強い | 強い | 弱い |
| 音声駆動 | 弱い | API連携前提 | 強い | 弱い |
| keyframe / extend | Extensions と editor | 主眼ではない | Composer で後段編集 | 強い |
| API 埋め込み | 限定的 | 主戦場 | 一部ワークフロー寄り | 限定的 |
| ブランド mascot / support avatar | 中 | 非常に強い | 強い | 弱い |
| 向いている人 | 写真を安全に短尺動画化したい人 | 会話型キャラを自社プロダクトに組み込みたい人 | 教育・営業・UGC 風 avatar 動画を作る人 | 画像から映像演出を作りたいクリエイター |
4サービスの違いを実務目線で整理する
Sora は「人物写真を動かす」入口が広がったが、ガードレール込みで考えるべき
2026-02-04 の Sora release notes で重要なのは、単に image-to-video が増えたことではありません。人物入り写真を扱えるようにした代わりに、かなり強い安全制約を前提にしている 点です。
OpenAI は、
- 画像内の人物に対する同意確認
- known public figures の禁止
- kids / young-looking persons へのより厳しい moderation
- realistic person を検知した場合の自動スタイライズ
- 共有時の watermark
を明示しています。
つまり Sora は、「家族写真を少し動かす」「人物入り静止画を思い出動画っぽくする」には強いですが、完全に自由な photorealistic avatar 制作基盤として見るとズレます。
ただし 2026-03-19 の editor で trim、stitch、reorder、extend、reprompt、remix が入り、生成→軽編集→再生成 の往復はだいぶやりやすくなりました。短尺の感情的な動画や、SNS 向けの雰囲気クリップなら、十分に選択肢になります。
Runway Characters は「画像を対話UIに変える」enterprise avatar 側の本命
Runway Characters は 2026-03-09 に出た時点で、かなり主語がはっきりしています。Runway 自身が real-time video agent API と言っていて、単一画像から
- natural facial expressions
- eye movements
- lip-syncing
- gestures during speaking and listening
- voice / personality / knowledge / actions の API 制御
まで一気に持たせています。
ここで重要なのは、Runway Characters が「短い動画を作るツール」ではなく、会話体験を支えるキャラ基盤 だという点です。
向いている用途はかなり明確です。
- サポート avatar
- 学習用 tutor / coach
- ブランド mascot の対話化
- 商品や在庫、ナレッジベースとつながる enterprise avatar
逆に、「商品写真を cinematic に動かしたい」「1本の talking video をさっと作りたい」という主語なら、Runway Characters はややオーバースペックです。ここでは Hedra や Luma の方が分かりやすいです。
Hedra は「音声付き talking avatar を作る studio」として強い
Hedra の公式ガイドはかなり分かりやすく、portrait and character animation、audio-driven generation、UGC-style ads、localized content、explainer videos など、誰が何のために使うのか がはっきりしています。
特に強いのは、画像をただ揺らすのではなく、声やスクリプトに合わせてキャラをしゃべらせる 文脈です。公式ガイドでも Omnia は vision / text / audio をまとめて処理し、Character-3 は shorter character clips 向けの軽量寄りモデルとして整理されています。
Hedra が刺さりやすいのは次です。
- AI talking avatar を作りたい
- faceless コンテンツや UGC 風動画を量産したい
- 教育、営業、CS、マーケ向けの spokesperson 動画を作りたい
- 画像生成から音声、動画化まで 1 つの studio で回したい
つまり Hedra は、Runway Characters のように「対話型プロダクトへ埋め込む API」より、完成済みの talking video を作る制作ワークフロー に寄っています。
Luma Dream Machine は「静止画から cinematic な遷移を作る」方向で強い
Luma の keyframes ガイドはかなり実務的です。start frame と end frame を置き、必要なら text prompt を足して、シームレスな遷移動画を作る。さらに image extensions では、既存動画を image keyframe に向けて延長でき、4秒動画を起点に最長 9 秒までつなぐ 方向が明示されています。
この設計が意味するのは、Luma が強いのは「しゃべる avatar」より、画作りと遷移演出 だということです。
向いているのは次です。
- イラストや商品画像を cinematic に動かしたい
- start / end の見せたい絵が決まっている
- 1枚絵から別の1枚絵へ変化する気持ちよさを作りたい
- story や board ベースで短尺映像をつなぎたい
人物写真をそのまましゃべらせる用途なら Hedra の方が自然ですし、会話型 avatar を作るなら Runway Characters の方が主語に合います。Luma はそこより 映像としての気持ちよさ が強みです。
用途別おすすめ
家族写真や人物写真を安全に短尺動画化したいなら Sora
- 人物入り image-to-video を試したい
- OpenAI の安全ガードレール込みで扱いたい
- 生成後に trim / stitch / remix も少しやりたい
この条件なら Sora が候補です。ただし public figures 禁止や realistic person への制約を前提に、自由度より安全性を優先するツールとして見るのが自然です。
会話できるブランドキャラや support avatar を作るなら Runway Characters
- 1枚画像から conversational character を作りたい
- voice / knowledge / actions を API で制御したい
- サポート、教育、ブランド体験に埋め込みたい
この条件なら Runway Characters が本命です。短尺動画制作ツールではなく、video-native interface の基盤として捉えると理解しやすいです。
talking avatar や UGC 風動画を量産するなら Hedra
- スクリプトや音声に合わせて人物・キャラをしゃべらせたい
- faceless content や educational avatar を作りたい
- 画像生成、音声、動画を 1 サービスで近くまとめたい
この条件なら Hedra が強いです。特に「会話そのもの」ではなく「話している動画」が欲しいなら、Runway Characters より導入しやすいです。
start/end の絵を決めて cinematic に動かすなら Luma Dream Machine
- 画像から動画へ自然な遷移を作りたい
- keyframe 演出を使いたい
- extend でシーンを少し長くつなぎたい
- プロダクト写真、アート、サムネ系ビジュアルを映像化したい
この条件なら Luma が最もハマります。
どれを選ぶべきか
1. まず「会話させたい」のか「動画化したい」のかを分ける
- 会話させたい → Runway Characters
- 動画化したい → Sora / Hedra / Luma
ここを先に分けるだけで、かなり失敗しにくくなります。
2. talking avatar なら Hedra、enterprise avatar なら Runway Characters
どちらも avatar ですが、Hedra は動画制作、Runway Characters は対話体験です。
3. 写真を安全に短尺化するなら Sora、映像演出なら Luma
Sora は人物入り写真の安全な image-to-video、Luma は keyframe ベースの cinematic 演出、と理解すると選びやすいです。
既存記事とどうつなぐか
このテーマは単体で終わりません。
- 画像そのものを作る比較は Luma UNI-1 vs Nano Banana 2 vs GPT Image 1.5 vs Seedream 比較
- 生成した動画を多言語化する比較は Vozo vs ElevenLabs Dubbing vs HeyGen vs Sora 比較
- 編集基盤まで含めて見たいなら OpenCutAI vs Descript vs VEED 比較
という回遊を作ると、静止画生成 → 動画化 → ローカライズ → 編集の導線をつなげやすいです。
参考にした主な公式情報
- OpenAI Help Center: Sora Release Notes(2026-02-04 Image 2 Video with people、2026-03-19 editor)
- Runway News: Introducing Runway Characters(2026-03-09)
- Hedra Blog: The Complete Guide to Image-to-Video AI in 2026
- Luma Learning Hub: Dream Machine Guide: How to Use Keyframes?(2026-03-19)