在 Somake 上体验云端极速渲染,轻松创作出画面逼真、情节连贯的视频。
暂无历史记录
Kling O1(Omni-1)代表了生成式媒体领域的全新变革,是行业首款具备“推理”能力的视频模型。与传统仅依靠模式匹配生成画面的扩散模型不同,Kling O1 采用统一的 Transformer 架构,在渲染前能够“理解”场景中的物理规律和空间逻辑。
这种架构上的突破让它能在同一个神经网络中处理文本生成视频、图像生成视频,以及复杂的视频编辑,生成内容可高度还原现实物理效果,前所未有地真实自然。
Kling O1 拥有类似先进大语言模型的推理能力,能够在生成前计算物体之间的物理交互——比如流体动力、光线反射、布料仿真等。这大大降低了“幻觉”现象(如手部变形),并保证了复杂动作过程中的时序一致性。
模型引入了“声明式编辑”体验。无需使用蒙版或手动抠像,用户只需输入“换一套西装为礼服”或“把背景变成雨夜赛博朋克都市”等指令,模型便能理解视频的语义结构,仅修改目标元素,动作保持自然衔接。
Kling O1 配备了更强大的“注意力锁定”机制。通过分析参考图片,为角色生成一致的 3D 特征表示,让角色在不同场景、角度与光照下都能一眼认出,非常适合叙事创作。
为实现多模态精准控制,Kling O1 支持通过符号指令直接管理输入。用户只需在输入框输入 @,即可直接引用已上传的图片、特定视觉元素或视频片段。这样,文本指令会立即锚定到该素材,在渲染过程中模型会严格参考指定的人物或动作。
示例:让@image1中的角色微微转头、眨眼生动起来。为最终动画应用@image2中的水彩纹理和柔和漫射光效,保证主角与背景之间过渡自然流畅。
这两款模型虽然都是 2025 年生成式 AI 的巅峰之作,但定位各有侧重。
Kling O1 是创作者引擎,可细致控制动作与物理效果。统一架构让其更适合需要反复编辑镜头、实现复杂人物表演的工作流,是叙事影片和视觉特效创作的不二之选。
Veo 3.1(Google) 则是内容发布引擎,擅长以极少的描述词生成高质量、上镜感强的“素材库”风格视频。
自然语言提示词可与视觉参考无缝结合,引导生成过程。目前,Somake 上的 Kling O1 集成特别针对图像生成视频场景优化。用户可用文本加上传图片(如使用变量 @image1),定义角色一致性、结构或风格。注意:目前暂不支持视频素材作为输入。
Somake 免去了多个平台切换的麻烦,让你在一套简洁操作台中即刻用上 Kling O1、Veo 等主流模型。
我们采用企业级云 GPU,应对 Kling O1 高强度计算,帮助你极速生成高清画质视频,无需昂贵本地硬件。
Somake 将 Kling O1 复杂参数封装进直观的 UI,智能提示助手帮助你高效组织输入,轻松获得理想视频。
支持,O1 最新架构可生成与画面完美同步的音频,包括音效和环境声。
Kling O1 对视频中招牌、屏幕、标签等文字的渲染有了大幅提升,大大减少了早期模型常见的“AI 火星文”现象。
支持。你拥有所生成视频的全部商业使用权,适用于广告、社交媒体和影视项目。
支持。Kling O1 可接收镜头运动参数(如平移、俯仰、缩放、旋转),让你像导演一样自由操控“镜头”。