Crie vídeos incríveis com o sistema multimodal do Seedance. Use imagens, vídeos e áudio como referência, tudo controlado por comandos simples em linguagem natural.
O Seedance é um modelo de geração de vídeo multimodal de alta fidelidade desenvolvido pela Bytedance. Amplamente reconhecido como o motor por trás do popular app Jimeng (即梦), o Seedance funciona como um motor de direção. Ao contrário das ferramentas padrão de texto para vídeo, ele permite que os usuários insiram imagens, vídeo e áudio simultaneamente para controlar aspectos específicos da geração — desde o movimento da câmera até a identidade dos personagens.
Versão Atual: Seedance 2.0 (Em breve)
As versões anteriores estão disponíveis no painel de navegação à esquerda.
O Seedance 2.0 substitui a geração aleatória pela síntese dirigida. Você pode carregar até 12 arquivos distintos (9 imagens, 3 vídeos, 3 arquivos de áudio) para orientar o resultado.
Isso permite que você "trave" o rosto de um personagem usando uma imagem enquanto comanda o movimento da câmera com um vídeo de referência separado.
O modelo traz uma melhoria significativa na precisão física. Os objetos respeitam regras de massa, impulso e colisão, eliminando aquelas falhas de "deformação" (morphing) comuns em vídeos de IA antigos.
Tecidos fluem naturalmente, personagens interagem de forma sólida com os ambientes e sequências de ação complexas mantêm a integridade estrutural.
O Seedance 2.0 introduz a edição baseada em texto para filmagens existentes. Em vez de ajustes manuais na linha do tempo, os usuários dão comandos em linguagem natural (ex: "Substitua o carro vermelho por uma caminhonete vintage") para modificar elementos específicos. O modelo atualiza os pixels desejados preservando a iluminação, a textura e a física da cena original.
O Seedance 2.0 utiliza uma sintaxe de menção com @ para atribuir funções aos arquivos carregados. Faça o upload dos seus arquivos primeiro e, depois, mencione o ID deles no prompt para especificar sua função.
Modelo: [Descrição da cena] referenciando @[IDdoArquivo] para [Atributo].
Exemplos:
Definir o primeiro quadro: @Image1 como o primeiro quadro.
Transferência de Movimento: @Image1 como personagem principal. Referencie @Video1 para o movimento de caminhada e ângulo de câmera.
Extensão de Vídeo: Estenda @Video1 por 5 segundos. Mova a câmera para cima para revelar o céu.
Edição Semântica: Referencie @Video1. Mude o clima de ensolarado para chuvoso.
Acesse o Seedance junto com outros principais modelos de vídeo em uma única plataforma para encontrar a melhor opção para cada projeto.
Os vídeos gerados no Somake estão liberados para marketing, branding e produção comercial.
Alterne entre as versões Seedance 2, 1.5 Pro, 1.0 Pro e Lite a partir de uma única interface, sem precisar gerenciar contas separadas.
O Seedance é a família de modelos de geração de vídeo por IA da ByteDance, projetada para a criação conjunta nativa de áudio e vídeo. Ele gera visuais sincronizados, diálogos, efeitos sonoros e música a partir de comandos de texto ou imagem.
Chinês mandarim e dialetos regionais (Shaanxi, Sichuan e outros), além de inglês, coreano, espanhol e indonésio.
Sim, os vídeos gerados no Somake estão liberados para marketing, branding e produção comercial.
Sim, o Seedance 2.0 é muito bem avaliado para animes devido à sua capacidade de manter a consistência do personagem entre os quadros.
Versão | Data de Lançamento | Resolução Máxima | Suporte a Áudio | Duração Máxima |
|---|---|---|---|---|
Seedance 2.0 | Em breve | 1080p | ✔️ | 15 seg |
Seedance 1.5 Pro | Dezembro de 2025 | 720p | ✔️ | 12 seg |
Seedance 1.0 Pro | Junho de 2025 | 1080p | ❌ | 12 seg |
Seedance 1.0 Lite | Junho de 2025 | 720p | ❌ | 12 seg |