SeedanceのマルチモーダルAIで、プロ級のビデオ作成を。キャラクター画像や動きの参考動画、BGMのリズムを組み合わせて、プロンプトひとつで思い通りの動画が生成できます。
Seedanceは、ByteDanceが開発した高精度なマルチモーダル動画生成モデルです。人気アプリJimeng (即梦)を支える強力なエンジンとして広く知られており、まるで映画監督のように動画をコントロールできます。一般的なText-to-Videoツールとは異なり、画像、動画、音声を同時にインプットすることで、カメラワークからキャラクターの同一性まで、生成の細部を自在に操ることが可能です。
現在のバージョン:Seedance 2.0(近日公開)
旧バージョンは左側のナビゲーションパネルからご利用いただけます。
Seedance 2.0は、単なる「運任せ」の生成ではなく、意図を持った合成を可能にします。最大12個の素材(画像9点、動画3点、音声3点)をアップロードし、生成のガイドとして使用できます。
これにより、画像を使ってキャラクターの顔を固定(ロック)しながら、別のリファレンス動画でカメラの動きを指定するといった高度な操作が実現します。
物理的な正確さが大幅に向上しました。物体が質量、運動量、衝突ルールに従って動くため、初期のAI動画でよく見られた「形が崩れる」ような違和感が解消されています。
布の柔らかな揺れや、環境とキャラクターのリアルな相互作用、さらには複雑なアクションシーンでも、構造を維持したまま自然に描写されます。
Seedance 2.0では、既存の映像に対するテキストベースの編集機能が登場しました。タイムラインを手動で調整する代わりに、「赤い車をヴィンテージのトラックに変えて」といった自然な言葉で指示を出すだけで特定の要素を変更できます。元のシーンのライティングや質感、物理挙動を維持したまま、ターゲットとなるピクセルだけを更新します。
Seedance 2.0では、@メンション構文を使って、アップロードしたファイルに役割を割り当てます。まずファイルをアップロードし、プロンプト内でそのファイルIDを参照して機能を指定します。
テンプレート: [シーンの説明] 、参照: @[FileID]([属性]用)。
例:
最初のフレームを指定: @Image1 を一コマ目に設定。
モーション転送: @Image1 をメインキャラクターに。歩く動作とカメラアングルは @Video1 を参照。
動画の延長: @Video1 を5秒延長。カメラを上にパンして空を映す。
セマンティック編集: @Video1 を参照。天気を晴れから雨に変更。
Somakeで生成された動画は、マーケティング、ブランディング、コンテンツ制作などの商用目的で自由にご利用いただけます。
Seedance 2、1.5 Pro、1.0 Pro、Liteの各バージョンを一つのインターフェースで切り替え可能。複数のアカウントを管理する手間はありません。
Seedanceは、ByteDanceが開発したAI動画生成モデルシリーズです。音声と動画のシームレスな同期を目的に設計されており、テキストや画像のプロンプトから、映像、セリフ、効果音、BGMが同期したコンテンツを生成できます。
標準中国語および各地域の方言(陝西、四川など)に加え、英語、韓国語、スペイン語、インドネシア語に対応しています。
はい。Somakeで生成された動画は、マーケティングやブランディング、商業制作などのビジネス用途で利用可能です。
はい。Seedance 2.0はキャラクターの同一性を維持する能力に優れているため、アニメ制作においても非常に高い評価を得ています。
バージョン | リリース日 | 最大解像度 | 音声サポート | 最大再生時間 |
|---|---|---|---|---|
Seedance 2.0 | 近日公開 | 1080p | ✔️ | 15秒 |
Seedance 1.5 Pro | 2025年12月 | 720p | ✔️ | 12秒 |
Seedance 1.0 Pro | 2025年6月 | 1080p | ❌ | 12秒 |
Seedance 1.0 Lite | 2025年6月 | 720p | ❌ | 12秒 |