Créez des vidéos avec l'IA de Seedance. Utilisez des images pour vos personnages, des vidéos pour le mouvement et de l'audio pour le rythme, le tout via de simples prompts.
Seedance est un modèle de génération vidéo multimodale haute fidélité développé par Bytedance. Largement reconnu comme le moteur de la célèbre application Jimeng (即梦), Seedance fonctionne comme un véritable assistant de réalisation. Contrairement aux outils texte-vidéo classiques, il vous permet d'importer simultanément des images, des vidéos et du son pour contrôler des aspects précis de la création—du mouvement de la caméra à l'identité des personnages.
Version actuelle : Seedance 2.0 (Bientôt disponible)
Les anciennes versions restent accessibles via le panneau de navigation à gauche.
Seedance 2.0 remplace la génération aléatoire par une synthèse dirigée. Vous pouvez importer jusqu'à 12 fichiers distincts (9 images, 3 vidéos, 3 fichiers audio) pour guider le résultat final.
Cela vous permet de "verrouiller" le visage d'un personnage avec une image tout en pilotant le mouvement de la caméra grâce à une vidéo de référence séparée.
Le modèle améliore considérablement la précision physique. Les objets respectent les règles de masse, d'inertie et de collision, éliminant les effets de "morphing" fréquents dans les premières vidéos par IA.
Les tissus bougent naturellement, les personnages interagissent de manière solide avec leur environnement et les séquences d'action complexes conservent leur intégrité structurelle.
Seedance 2.0 introduit l'édition textuelle pour vos séquences existantes. Au lieu de faire des ajustements manuels sur une timeline, vous donnez des instructions en langage naturel (ex: "Remplace la voiture rouge par un vieux camion") pour modifier des éléments spécifiques. Le modèle met à jour les pixels cibles tout en préservant l'éclairage, le grain et la physique de la scène originale.
Seedance 2.0 utilise la syntaxe @ pour attribuer des rôles aux fichiers importés. Téléchargez d'abord vos fichiers, puis mentionnez leur ID dans le prompt pour spécifier leur fonction.
Modèle : [Description de la scène] en utilisant @[FileID] pour [Attribut].
Exemples :
Définir la première image : @Image1 comme première image.
Transfert de mouvement : @Image1 comme personnage principal. Utiliser @Video1 pour le mouvement de marche et l'angle de caméra.
Extension vidéo : Étendre @Video1 de 5 secondes. Faire un panoramique vers le haut pour révéler le ciel.
Édition sémantique : Se baser sur @Video1. Changer le temps ensoleillé en temps pluvieux.
Accédez à Seedance ainsi qu'à d'autres modèles vidéo de pointe sur une plateforme unique pour trouver l'outil idéal pour chaque projet.
Les vidéos générées sur Somake sont autorisées pour le marketing, le branding et la production commerciale.
Basculez entre Seedance 2, 1.5 Pro, 1.0 Pro et les versions Lite depuis une seule interface, sans avoir à gérer des comptes séparés.
Seedance est la famille de modèles de génération vidéo par IA de ByteDance, conçue pour la création conjointe audio-vidéo native. Elle génère des visuels, des dialogues, des effets sonores et de la musique synchronisés à partir de prompts textuels ou d’images.
Le chinois mandarin et les dialectes régionaux (Shaanxi, Sichuan, etc.), ainsi que l'anglais, le coréen, l'espagnol et l'indonésien.
Oui, les vidéos générées sur Somake peuvent être utilisées librement pour le marketing, l'image de marque et la production commerciale.
Oui, Seedance 2.0 est particulièrement apprécié pour l'anime grâce à sa capacité à maintenir la cohérence des personnages d'une image à l'autre.
Version | Date de sortie | Résolution Max | Support Audio | Durée Max |
|---|---|---|---|---|
Seedance 2.0 | Bientôt disponible | 1080p | ✔️ | 15 sec |
Seedance 1.5 Pro | Décembre 2025 | 720p | ✔️ | 12 sec |
Seedance 1.0 Pro | Juin 2025 | 1080p | ❌ | 12 sec |
Seedance 1.0 Lite | Juin 2025 | 720p | ❌ | 12 sec |