Crea videos con IA usando el sistema multimodal de Seedance. Usa imágenes de referencia, videos de movimiento y audio, todo controlado con lenguaje natural.
Seedance es un modelo de generación de video multimodal de alta fidelidad desarrollado por Bytedance. Ampliamente reconocido como el motor detrás de la popular app Jimeng (即梦), Seedance funciona como un motor de dirección. A diferencia de las herramientas estándar de texto a video, permite a los usuarios introducir imágenes, video y audio simultáneamente para controlar aspectos específicos de la generación, desde el movimiento de cámara hasta la identidad del personaje.
Versión actual: Seedance 2.0 (Próximamente)
Las versiones anteriores están disponibles a través del panel de navegación de la izquierda.
Seedance 2.0 reemplaza la generación aleatoria con síntesis dirigida. Puedes subir hasta 12 archivos distintos (9 imágenes, 3 videos, 3 archivos de audio) para guiar el resultado final.
Esto te permite "fijar" el rostro de un personaje usando una imagen mientras diriges el movimiento de la cámara con un video de referencia aparte.
El modelo mejora significativamente la precisión física. Los objetos respetan las reglas de masa, impulso y colisión, eliminando los artefactos de "deformación" comunes en los videos de IA anteriores.
La tela fluye de forma natural, los personajes interactúan con solidez con el entorno y las secuencias de acción complejas mantienen su integridad estructural.
Seedance 2.0 introduce la edición basada en texto para metraje existente. En lugar de ajustes manuales en una línea de tiempo, los usuarios dan órdenes en lenguaje natural (ej. "Sustituye el coche rojo por un camión antiguo") para modificar elementos específicos. El modelo actualiza los píxeles objetivo manteniendo la iluminación, el grano y la física de la escena original.
Seedance 2.0 utiliza una sintaxis de mención con @ para asignar roles a los archivos subidos. Primero sube tus archivos y luego referencia su ID en el prompt para especificar su función.
Plantilla: [Descripción de la escena] referenciando a @[IDdeArchivo] para [Atributo].
Ejemplos:
Configurar el primer fotograma: @Image1 como el primer fotograma.
Transferencia de movimiento: @Image1 como personaje principal. Referenciar @Video1 para el movimiento al caminar y el ángulo de cámara.
Extensión de video: Extiende @Video1 por 5 segundos. Mueve la cámara hacia arriba para mostrar el cielo.
Edición semántica: Referencia @Video1. Cambia el clima de soleado a lluvioso.
Accede a Seedance junto con otros modelos de video líderes en una sola plataforma para encontrar el que mejor se adapte a cada proyecto.
Los videos generados en Somake están autorizados para marketing, branding y producción comercial.
Cambia entre las versiones Seedance 2, 1.5 Pro, 1.0 Pro y Lite desde una única interfaz sin tener que gestionar cuentas separadas.
Seedance es la familia de modelos de generación de video con IA de ByteDance, diseñada para la creación conjunta nativa de audio y video. Genera visuales sincronizados, diálogos, efectos de sonido y música a partir de prompts de texto o imagen.
Chino mandarín y dialectos regionales (Shaanxi, Sichuan y otros), además de inglés, coreano, español e indonesio.
Sí, los videos generados en Somake están autorizados para marketing, marca y producción comercial.
Sí, Seedance 2.0 está muy bien valorado para anime gracias a su capacidad para mantener la consistencia del personaje en todos los fotogramas.
Versión | Fecha de lanzamiento | Resolución máx. | Soporte de audio | Duración máx. |
|---|---|---|---|---|
Seedance 2.0 | Próximamente | 1080p | ✔️ | 15 seg |
Seedance 1.5 Pro | Diciembre 2025 | 720p | ✔️ | 12 seg |
Seedance 1.0 Pro | Junio 2025 | 1080p | ❌ | 12 seg |
Seedance 1.0 Lite | Junio 2025 | 720p | ❌ | 12 seg |