Nærbillede af en asiatisk pige, der puster på en kold bilrude og skaber et tykt lag dug på glasset. Hun tegner et smiley-ansigt med fingeren i den duggede rude. Hyperrealistisk, filmisk belysning, detaljeret vandkondens.
HappyHorse-1.0 er en førsteklasses open-source AI-videogenerationsmodel med stærk opbakning fra Alibaba Taotian Group og hele 15 milliarder (15B) parametre. Som en samlet Transformer-model bryder den traditionelle barrierer og kan direkte generere filmisk 1080p-video sammen med perfekt synkroniseret lyd ud fra tekst- eller billedprompts.
HappyHorse-1.0 understøtter seks store sprog som standard: kinesisk, engelsk, japansk, koreansk, tysk og fransk. Den leverer ikke kun meget udtryksfulde mikroudtryk i ansigtet og utroligt naturlige kropsbevægelser, men opnår også ultrapræcis flersproget lip-sync. Den genererer synkroniseret dialog, baggrundslyd og Foley samtidig med videobillederne, hvilket helt eliminerer behovet for tidskrævende efterdubbing. Takket være ekstrem algoritmisk optimering kræver modellen ikke classifier-free guidance (CFG) og bevarer topklasse visuel kvalitet med kun 8 denoising-trin ved rekordhastigheder. Lige nu ligger HappyHorse-1.0 solidt på førstepladsen i Artificial Analysis Text-to-Video Arena med en enorm Elo-score på 1333.
Hos WeryAI er HappyHorse-1.0 lige ved hånden. En model med 15 milliarder parametre kræver normalt ekstremt kraftig lokal GPU-hardware. Men nu behøver du ikke investere i dyr hardware gennem WeryAI-platformen. Dit team kan hurtigt teste prompts, finjustere referencemateriale og straks downloade fejlfri, færdige klip med indbygget synkroniseret lyd direkte i browseren, så din kreative vision kan realiseres gnidningsfrit.