使用 Seedance 多模态系统开启 AI 视频创作。支持通过图片参考角色、视频参考动作、音频控制节奏,只需简单的自然语言提示词即可随心掌控。
Seedance 是由字节跳动公司开发的高保真多模态视频生成模型。作为热门应用 即梦 (Jimeng) 背后的核心技术引擎,Seedance 就像一个专业的 AI 导演。与传统的文生视频工具不同,它支持同时输入图片、视频和音频,让用户能够精准控制生成过程中的每一个细节——从镜头运动到角色的一致性,皆可随心掌控。
当前版本:Seedance 2.0 (即将上线)
旧版本可通过左侧导航栏进行访问。
Seedance 2.0 将随机生成升级为“定向创作”。你可以上传多达 12 个素材(包括 9 张图片、3 个视频和 3 个音频文件)来引导生成结果。
这意味着你可以通过图片“锁定”人物面部,同时利用另一段参考视频来驱动镜头推移。
该模型大幅提升了物理性能。生成的物体遵循质量、动量和碰撞规则,彻底告别了早期 AI 视频中常见的“物形坍塌”或扭曲现象。
衣物的飘动更加自然,角色与环境的交互也更有质感,复杂的动作序列能够保持极佳的结构稳定性。
Seedance 2.0 引入了基于文本的视频二次创作。无需手动调整时间轴,用户只需输入自然语言指令(例如“将红色的车换成复古卡车”)即可修改特定元素。模型在更新目标像素的同时,能完美保留原场景的灯光、噪点和物理特性。
Seedance 2.0 采用 @ 提及语法来为上传的文件分配角色。请先上传文件,然后在提示词中引用文件 ID 来指定其功能。
模板:[场景描述] 参考 @[文件ID] 的 [属性]。
示例:
固定首帧:以 @Image1 为首帧。
动作迁移:以 @Image1 为主角,参考 @Video1 的走路动作和镜头角度。
视频续写:将 @Video1 延长 5 秒。镜头向上摇移,展现天空景象。
语义编辑:参考 @Video1,将天气从晴天改为雨天。
在 Somake 上生成的视频可用于市场营销、品牌推广和各类商业创作,无版后顾之忧。
无需管理多个账号,即可在一个界面内轻松切换 Seedance 2、1.5 Pro、1.0 Pro 以及 Lite 版本。
Seedance 是字节跳动推出的 AI 视频生成模型家族,专为原生音视频协同创作而设计。它能够通过文本或图片提示词,同步生成画面、旁白、音效和音乐。
支持普通话及方言(如陕西话、四川话等),此外还支持英语、韩语、西班牙语和印尼语。
是的,在 Somake 上生成的视频已获得商业授权,可用于营销、品牌和商业制作。
是的,由于 Seedance 2.0 在跨帧保持角色一致性方面表现优异,它非常适合制作二次元动漫内容。
版本 | 发布日期 | 最高分辨率 | 音频支持 | 最长时长 |
|---|---|---|---|---|
Seedance 2.0 | 即将上线 | 1080p | ✔️ | 15 秒 |
Seedance 1.5 Pro | 2025年12月 | 720p | ✔️ | 12 秒 |
Seedance 1.0 Pro | 2025年6月 | 1080p | ❌ | 12 秒 |
Seedance 1.0 Lite | 2025年6月 | 720p | ❌ | 12 秒 |