Wan 2.6 omdanner tekst og billeder til videoer med lip-sync, dialog med flere karakterer og brugerdefinerede personaer.
Ingen historik fundet
Genereringen mislykkedes
Wan er en open source AI-videogenereringsmodel-serie udviklet af Alibaba Groups Tongyi Lab. Wan-familien er Alibabas flagskib inden for multimodal AI og er skabt til at forvandle tekstprompter, billeder og referencevideoer til videoinhold i høj kvalitet med realistiske bevægelser og visuel sammenhæng.
Nuværende version: Wan 2.6 (december 2025)
Senest opdateret: december 2025
Wan 2.6 kom hurtigt efter version 2.5 og har særligt fokus på tættere integration mellem forskellige medier og flere kreative kontrolmuligheder. Denne version retter op på vigtige begrænsninger fra de tidligere udgaver og tilføjer nye funktioner, der gør det lettere at arbejde med mere avanceret indhold.
Forbedret indbygget lydgenerering: Lydkvaliteten er markant forbedret i forhold til Wan 2.5, og output lyder mere naturligt, selvom det stadig halter lidt efter premium-modeller som Veo 3 og Sora 2 når det gælder stemmerealisme.
Forlænget varighed: Understøtter nu klip på op til 15 sekunder i 1080P, og du kan kombinere flere klip til længere sekvenser.
Karakter-referencesystem: Upload op til tre karakterreferencer fra video, så udseendet forbliver ensartet i alle dine generationer (Bemærk: Funktionen er endnu ikke tilgængelig på Somake)
Personlig avataroprettelse: Optag dit eget ansigt fra flere vinkler og indtal stemmeprøver for at skabe en gennemgående AI-persona (Bemærk: Funktionen er endnu ikke tilgængelig på Somake)
Dialog mellem flere karakterer: Håndterer nu samtaler mellem flere personer uden at replikkerne overlapper.
Styr på omgivelser og påklædning: Skift karakterens tøj og miljø i scenerne bare ved hjælp af prompter.
Smooth bevægelseskvalitet: Videoerne har nu overbevisende kameraeffekter som zoom og sløring – alt sammen med flydende bevægelser.
Karakterers udseende og stemmer matcher ikke altid referenceklip—ansigter og stemmer kan godt afvige lidt fra det originale materiale.
Komplekse actionscener med flere personer (fx slåskampe) kan give visuelle fejl og forvrængninger.
Anime-stil giver stadig et mere sløjt visuelt resultat sammenlignet med realistiske stilarter.
Udvalgte funktioner kan variere, og der kan af og til opstå sprogmæssige afvigelser i output.
Uventede elementer eller drømmende resultater kan dukke op – det er en velkendt udfordring i al nuværende tekst-til-video AI.
Version | Vigtigste funktioner | Maks. varighed | Maks. opløsning | Understøttelse af lyd |
|---|---|---|---|---|
Wan 2.1 | Tekst-til-video, billede-til-video, visuel tekstgenerering | 5 sekunder | 720P | Nej |
Wan 2.2 | Hurtigere, VACE-integration, open source | 5 sekunder | 720P | Nej |
Wan 2.5 | Lyd- og videosynkronisering, forbedret bevægelse | 10 sekunder | 1080P | Basal |
Wan 2.6 | Multi-shot fortællinger, karakterreferencer, brugerdefinerede personaer | 15 sekunder | 1080P | Forbedret A/V |
H Bald på SoMe på få sekunder: Mangler du en fængende 10 sekunders video-annonce til Instagram? Skriv fx: "Et dynamisk billede af vores nye sneaks, der sprøjter gennem en vandpyt – biografagtigt og energifyldt" og få en professionel reklame på ingen tid.
Produktvisualiseringer: Lav videoer af dit produkt i alle tænkelige omgivelser. Fx: "Vores nye kaffekop på et skrivebord i en hyggelig, regnfuld parisisk café, dampen stiger op."
Historie bliver levende: En lærer kan generere et klip af "romerske soldater, der marcherer gennem en skov, set fra frøperspektiv," for at gøre undervisningen mere spændende.
Forklar naturvidenskab: En studerende kan lave en video, der forklarer et kompliceret emne som fx "En animeret tur ind i en plantecelle, hvor mitokondrierne arbejder."
Hurtig prototyping: Få hurtigt visualiseret en scene fra dit manuskript og se om stemning og billede fungerer—det sparer både tid og ressourcer.
Unikke visuelle effekter (VFX): Skab surrealistiske, drømmeagtige scener eller abstrakte visuelle baggrunde, som ville være svære eller helt umulige at lave på traditionel vis.
Multi-shot fortælleprompt skabelon
En filmisk [genre]-scene.
Optagelse 1: [Bred/mellem/nærbillede], [beskriv scene, karakter og handling].
Optagelse 2: [Kameravinkel], [beskriv overgang og nyt fokus].
Optagelse 3: [Kameravinkel], [beskriv opløsning eller det afsluttende moment].
Stil: [realistisk/filmisk/stiliseret]. Lys: [naturligt/dramatisk/blødt].
Bedste praksis til karakterreferencer
Brug optagelser forfra med god belysning, når du laver karakterreferencer
Optag referencevideoer fra flere vinkler, når du skaber personlige avatarer
Brug maks. 3 karakterreferencer for at bevare konsistens
Til stemmematch: Brug rene lydklip uden baggrundsstøj
Forvent små variationer i ansigter og stemmer—lav gerne flere generationer
Virker bedst: Dialogscener, talende hoveder, fokus på én karakter, enkle interaktioner, hverdagsagtige scener med flere personer
Brug med forsigtighed: Actionscener med flere karakterer, kampkoreografi, hurtige bevægelser
Undgå eller forvent fejl: Komplekse anime-stile, meget urolige gruppescener
Aktivér udvidet prompt, hvis din indtastning er simpel eller hvis du ønsker rigere visuelle detaljer. Systemet tilføjer beskrivende elementer for at forbedre komposition, stil og sammenhæng i resultatet.
Problem: Stemmen lyder robotagtig eller unaturlig → Løsning: Det er en kendt begrænsning ved Wan 2.6. Skal du bruge meget realistisk stemme, så brug videoen med eksternt genereret eller optaget lyd.
Problem: Uventede karakterer eller surrealistiske elementer opstår → Løsning: AI-artefakter er almindelige med tekst-til-video. Gør prompter mere simple, reducer antallet af personer eller elementer og prøv igen. Gennemse altid outputtet grundigt inden brug.
Problem: Actionscener har visuelle forvrængninger → Løsning: Komplekse actionscener med flere karakterer er en kendt svaghed. Del dynamiske scener op i enklere klip, fokuser på én eller to personer ad gangen, og undgå koreograferede slåskampe.
Problem: Anime-stil ser dårligt ud → Løsning: Wan 2.6 er stadig svag til anime. Vælg andre modeller til anime-indhold eller brug realistiske stil-prompter.
Problem: Sproget i outputtet matcher ikke det ønskede → Løsning: Der kan forekomme sproglige fejl. Skriv tydeligt i prompten hvilket sprog du ønsker—og regenerér, hvis det ikke passer.
Det intuitive interface gør det nemt for alle at lave professionelle visuelle materialer—beskriv bare hvad du vil have, og generér på få sekunder.
Lav både billeder og videoer direkte fra samme platform, så du får en nem arbejdsgang fra idé til færdigt resultat.
Betalende brugere får fuld kommerciel brugsret til deres kreationer, så de nemt kan bruges i reklamer, kampagner og til kundeprojekter.
Overhovedet ikke! Det er netop fordelen ved vores platform. Vi klarer alle de tunge beregninger på vores servere—du skal bare bruge en hvilken som helst enhed med internet og en browser.
Ja! Alle videoer du laver på vores platform er dine egne og kan bruges frit. De er perfekte til kommercielle formål, fx i markedsføringskampagner, på din monetiserede YouTube-kanal eller til andre forretningsformål.
Wan 2.6 er en open source AI-videogenereringsmodel udviklet af Alibaba, som laver videoer ud fra tekst, billeder eller referencevideoer. Den tilbyder multi-shot fortællinger, indbygget lydsynkronisering og værktøjer til ensartede karakterer, og output på op til 15 sekunder i 1080P.
Lydkvaliteten er blevet markant forbedret siden Wan 2.5 og nærmer sig kvaliteten på premium-modeller, selvom stemmerne stadig kan lyde mere robotagtige end på Veo 3 og Sora 2.