Wan 2.6 gjør om tekst og bilder til videoer med leppesynk, dialog med flere karakterer og egne personaer.
Ingen historikk funnet
Genereringen mislyktes
Wan er en åpen kildekode AI-videogenereringsmodell utviklet av Alibaba Groups Tongyi Lab. Wan-familien er Alibabas flaggskip innen multimodal AI, laget for å forvandle tekst, bilder og referansevideoer til videoer av høy kvalitet med realistiske bevegelser og visuell sammenheng.
Nåværende versjon: Wan 2.6 (desember 2025)
Sist oppdatert: desember 2025
Wan 2.6 ble lansert kort tid etter versjon 2.5, med fokus på bedre integrasjon mellom ulike medier og flere kreative kontrollmuligheter. Denne utgaven fikser flere viktige svakheter fra tidligere versjoner, og innfører funksjoner laget for mer komplekse arbeidsflyter innen innholdsproduksjon.
Forbedret lydgenerering: Lydkvaliteten har fått et skikkelig løft siden Wan 2.5, med mer naturlig lyd – men ligger fortsatt litt bak toppmodeller som Veo 3 og Sora 2 når det gjelder stemmerealisme
Forlenget klippvarighet: Du kan nå lage opptil 15 sekunders klipp i 1080P, og kombinere flere klipp til lengre sekvenser
Karaktersystem: Last opp opptil tre karakterreferanser fra video for å bevare likhet og sammenheng (Merk: Denne funksjonen er ikke tilgjengelig på Somake ennå)
Lag din egen AI-avatar: Ta opp ditt eget ansikt fra ulike vinkler og legg til stemmeprøver for å lage en personlig AI-persona (Merk: Denne funksjonen er ikke tilgjengelig på Somake ennå)
Dialog mellom flere karakterer: Håndterer samtaler mellom flere karakterer, uten at replikkene flyter i hverandre
Kontroll på miljø og antrekk: Endre klær eller miljø med enkle tekstbeskrivelser
Mer flytende bevegelser: Videoresultatene får realistiske kameraeffekter som zoom og blur – alt med jevn bevegelse
Likhet med karakterer og stemmegjenkjenning kan variere—ansikt og stemme hender å avvike fra referansematerialet
Komplicertere actionsekvenser med flere karakterer (f.eks. slåsscener) kan gi uønskede bildefeil og forvrengninger
Anime-stil gir ofte svakere visuell kvalitet enn realistiske stiler
Det kan tidvis oppstå funksjons-variasjoner, inklusiv språkmiks i output
Uventede elementer eller surrealistiske innslag kan forekomme – en vanlig utfordring i tekst-til-video-AI akkurat nå
Versjon | Nøkkelfunksjoner | Maks varighet | Maks oppløsning | Lydstøtte |
|---|---|---|---|---|
Wan 2.1 | Tekst-til-video, bilde-til-video, visuell tekstdannelse | 5 sekunder | 720P | Nei |
Wan 2.2 | Bedre ytelse, VACE-integrasjon, Åpen kildekode | 5 sekunder | 720P | Nei |
Wan 2.5 | Lyd- og bildesynk utrullet, forbedret bevegelse | 10 sekunder | 1080P | Enkel |
Wan 2.6 | Historier med flere klipp, karakterreferanser, egendefinerte personaer | 15 sekunder | 1080P | Forbedret innebygget lyd/bilde |
Kjappe SoMe-annonser: Trenger du en fengende 10 sekunders video til Instagram? Bare skriv inn «Et dynamisk klipp av den nye sneakeren vår som spruter gjennom en vanndam, kinofølelse, energisk stemning» – så har du en proff annonse på et par minutter.
Produktvisualisering: Lag videoer som viser frem produktet ditt i akkurat det miljøet du ønsker. «Den nye kaffekoppen vår på et skrivebord i en koselig, regnvåt parisisk kafé, med dampen stigende opp.»
Gjøre historien levende: En lærer kan for eksempel lage et klipp med «Romerske soldater marsjerer gjennom en skog, sett fra froskeperspektiv» for å fange elevenes interesse.
Forklare naturfag: En elev kan lage en video som forklarer et vanskelig tema, som «En animert reise gjennom en plantecelle, med mitokondriene i arbeid.»
Rask prototyping: Visualiser raskt en scene fra manuset ditt for å teste stemning og komposisjon, og spar både tid og ressurser.
Unike visuelle effekter (VFX): Lag surrealistiske, drømmende sekvenser eller abstrakte bakgrunner som ville vært krevende – eller umulig – å filme på ordentlig.
Mal for historier med flere klipp
En filmatisk scene innen [sjanger].
Klipp 1: [Oversikts-/halvnær-/nærbilde], [beskriv scene, karakter og handling].
Klipp 2: [Kameravinkel], [beskriv overgang og nytt fokus].
Klipp 3: [Kameravinkel], [beskriv løsning eller sluttscene].
Stil: [realistisk/filmisk/stilisert]. Lyssetting: [naturlig/dramatisk/myk].
Tips for karakterreferanser
Bruk forfra-video med godt lys når du legger til karakterreferanser
Ta referansevideoer fra flere vinkler hvis du lager en personlig avatar
Begrens deg til maks 3 karakterreferanser for best resultat
For å matche stemmer, sørg for klare lydprøver uten bakgrunnsstøy
Vær forberedt på litt variasjon i både ansikt og stemme – test gjerne flere ganger
Fungerer bra: Dialogscener, snakkehoder, én karakter i fokus, enkle interaksjoner, samtale mellom flere karakterer
Bruk med forsiktighet: Actionsekvenser med flere karakterer, slåsskamper, raske bevegelser
Unngå eller forvent feil: Komplisert anime-stil, svært dynamiske gruppescener
Slå på prompt-utvidelse hvis du starter med en enkel beskrivelse, eller ønsker mer visuelle detaljer. Systemet legger til flere beskrivelser for å gjøre utformingen, stilen og helheten bedre i resultatet.
Problem: Stemmen høres robotaktig eller unaturlig ut → Løsning: Dette er en kjent svakhet med Wan 2.6. Hvis du trenger realistiske stemmer, bruk videofilen og legg på innspilt/generert lyd separat.
Problem: Uventede karakterer eller surrealistiske elementer dukker opp → Løsning: AI-artefakter er vanlig i tekst-til-video-generering. Gjør prompten din enklere, reduser antall karakterer eller elementer, og prøv igjen. Sjekk alltid resultatet før bruk.
Problem: Actionscener gir visuelle feil → Løsning: Komplekse actionscener med mange karakterer er en kjent svakhet. Del opp dynamiske scener i enklere klipp, og fokuser på én eller to personer om gangen. Unngå innviklede slåsskamper.
Problem: Anime-stil ser dårlig ut → Løsning: Wan 2.6 er foreløpig svak på anime-generering. For anime-innhold, vurder andre modeller eller bruk realistiske stikkord.
Problem: Språkfeil i generert innhold → Løsning: Det kan forekomme variasjon og språkblanding. Oppgi ønsket språk tydelig i prompten, og prøv på nytt hvis resultatet ikke stemmer.
Det brukervennlige grensesnittet lar hvem som helst lage proffe visuelle medier – bare beskriv hva du vil ha, og generer på sekunder.
Lag både bilder og videoer på én plattform, så slipper du å bytte mellom ulike verktøy – alt fra idé til ferdig resultat.
Betalende abonnenter får full kommersiell bruksrett til det de lager, så du enkelt kan bruke resultatet i annonser, kampanjer og kundeprosjekter.
Ikke i det hele tatt! Det er nettopp poenget med plattformen vår. Vi tar oss av all den tunge regnekraften på våre servere – alt du trenger er en enhet med nettleser.
Ja, selvfølgelig! Alt du lager på plattformen er ditt til fritt bruk. Videoene passer perfekt for markedsføring, på sosiale medier, på din monetiserte YouTube-kanal, eller til andre forretningsformål.
Wan 2.6 er en åpen kildekode AI-videogenerator utviklet av Alibaba. Den lager videoer ut fra tekst, bilder eller referansevideoer. Modellen støtter historier med flere klipp, leppesynk og verktøy for karakter-gjenkjenning, med videoer på opptil 15 sekunder i 1080P oppløsning.
Lydkvaliteten er mye bedre enn i Wan 2.5 og nærmer seg nivået på premium-modeller, men stemmene kan fortsatt låte litt robotaktige sammenlignet med Veo 3 og Sora 2.