Creator: Stephany
Flux de travail

Guide vidéo Wan2.1

Promptus
18 minutes
Wiki 20
promptus ai video generator

Guide pour créer des vidéos IA de haute qualité avec Wan 2.1

Prêt à créer de superbes vidéos avec l'IA ? Ce guide amusant vous montrera comment utiliser ET 2.1 , un modèle vidéo d'IA de pointe d'Alibaba, pour transformer vos idées en clips vidéo de haute qualité. Nous allons faire en sorte que les choses restent simples et adapté aux débutants, en expliquant tous les termes techniques au fur et à mesure. À la fin, vous connaîtrez les meilleurs paramètres (comme la taille et la durée de la vidéo), comment ajouter de la musique ou de la voix, un flux de travail étape par étape et des conseils pour éviter les pièges courants. Allons y plonger !

Qu'est-ce que le WAN 2.1 ?

Le WAN 2.1 est un puissant Modèle de génération vidéo AI — en gros, un programme intelligent qui permet de créer de courtes vidéos à partir d'une description textuelle ou d'une image. Considérez-le comme un réalisateur de mini-film : vous lui donnez un script (invite) ou une image, et il produit un clip vidéo pour vous. C'est open source, ce qui signifie qu'il est gratuit et que le code et les modèles sont accessibles au public pour que tout le monde puisse les utiliser ou les améliorer.

L'équipe d'Alibaba a formé le WAN 2.1 sur un énorme quantité de données (plus d'un milliard de clips vidéo !) , il a donc appris à générer des scènes assez réalistes à l'aide de Wan 2.1 image vers vidéo (720p). Il peut gérer conversion de texte en vidéo (T2V) et de l'image à la vidéo (I2V), notamment certaines tâches de montage vidéo et de conversion de texte en image. Pour une version vidéo de ce didacticiel, rendez-vous ici : Installation locale de Wan 2.1 sur PC à l'aide de 8 Go de VRAM - Promptus

Fonctionnalité intéressante : WAN 2.1 est l'une des premières IA vidéo capable même de générer du texte à l'intérieur la vidéo (comme un panneau ou un sous-titre en anglais ou en chinois) si vous le demandez. Ainsi, vous pourriez, par exemple, l'inviter à afficher un panneau d'affichage avec un message, et il essaiera de l'écrire. Dans l'ensemble, n'oubliez pas que WAN 2.1 = IA qui crée de courtes vidéos à partir de vos instructions, ce qui est très pratique pour les projets créatifs !

Outils pour le modèle Run Wan 2.1

Il n'est pas nécessaire d'être un génie du codage pour utiliser le WAN 2.1. Voici quelques méthodes et outils conviviaux pour démarrer :

  • Générateurs en ligne : Option la plus simple — Promptus intègre le WAN 2.1, où il vous suffit de saisir une invite et d'obtenir une vidéo. Aucune installation n'est nécessaire (attention aux temps d'attente ou aux limites d'utilisation).
  • Téléchargement de l'application Promptus (pour une utilisation locale) : Une application populaire dotée d'un visuel basé sur des nœuds interface (comme les blocs d'organigramme) qui prend en charge le WAN 2.1. Il vous permet de régler facilement les paramètres. Si vous avez un PC décent avec un bon GPU, vous pouvez installer WAN 2.1 et le charger dans Promptus dans l'onglet ComfyUI.
  • Warmui ou autre est : Certaines interfaces utilisateur communautaires (comme SwarmUI, similaire à ComfyUI) prennent également en charge le WAN 2.1, offrant une interface Web simple une fois configurée.
  • Hugging Face/Colab : Si votre ordinateur n'est pas assez puissant, vous pouvez essayer les services cloud. Certains ordinateurs portables Google Colab et Hugging Face Spaces exécutent le WAN 2.1 dans le cloud (souvent limités à de courtes vidéos de 5 secondes pour des raisons de coût).
  • GitHub et Python directs : Pour les férus de technologie, vous pouvez obtenir le code sur GitHub et exécuter generate.py avec vos paramètres. Cela nécessite d'installer les dépendances et de télécharger les fichiers de modèle (attention : le fichier de modèle 14B est volumineux !). L'itinéraire GitHub est plus manuel, mais vous donne un contrôle total.

Remarque sur le matériel :

Le WAN 2.1 possède deux tailles de modèle principales : 14B (grand) et 1,3 Go (litre). Le allégé 1,3 Go le modèle est optimisé pour fonctionner sur des GPU grand public (~8 Go de VRAM). Par exemple, un RTX 3060 Ti ou similaire peut gérer le modèle 1.3B. Le grand 14B le modèle a besoin de plus de VRAM (idéalement 16 Go ou plus) pour fonctionner à des résolutions plus élevées.

Si vous possédez une carte haut de gamme telle qu'une RTX 4090 (24 Go de VRAM), vous pouvez même utiliser la 14B à 720p en douceur : un utilisateur rapporte environ 4 minutes pour générer une vidéo de 5 secondes à 480p sur une 4090. En gros, presque tous les PC de jeu peuvent essayer le WAN 2.1 avec le petit modèle, et les GPU plus puissants peuvent utiliser le modèle complet pour une qualité optimale.

Maintenant que vous avez une idée des outils et de la configuration, voyons comment obtenir sortie de la meilleure qualité à partir de WAN 2.1.

Choisir les meilleures dimensions vidéo (résolution)

L'une des premières décisions est la taille (en pixels) de vos images vidéo. Une résolution plus élevée = une vidéo plus nette, mais aussi plus de travail pour l'IA (plus lente et plus de mémoire). Voici ce que nous vous recommandons :

  • Optez pour la HD (720p) si vous pouvez : Le modèle a été entraîné à deux résolutions : 832 × 480 (souvent simplement appelé 480p) et 1280 × 720 (720p). Le 720p L'option donne des détails nettement plus nets, alors utilisez-la si votre matériel peut le gérer. Un GPU avec environ 16 Go de VRAM (ou plus) est généralement nécessaire pour la génération 720p. Sur les GPU grand public disposant de moins de mémoire, il se peut que vous manquiez de VRAM à 720p.
  • 480 pence pour les débutants : Si 720p est trop lent ou ne fonctionne pas, 480p est toujours de bonne qualité. Vous obtenez une vidéo 832 × 480, qui s'affiche correctement sur les petits écrans et est plus rapide à générer. Le 1,3 B Le petit modèle est en fait conçu pour produire 480p par défaut (clips de 5 secondes). En savoir plus sur dev communauté. Ne vous sentez pas mal en utilisant le 480p, vous pouvez toujours haut de gamme plus tard.
  • Passez à la résolution 1080p (Full HD) après génération : La propre génération du WAN 2.1 au-delà de 720p (comme essayer directement le 1080p) n'est pas recommandée sur la plupart des GPU, elle peut écraser ou produire des artefacts si vous le poussez trop haut. La meilleure approche : générez à 480p/720p, puis utilisez un upscaler AI sur les images ou les vidéos finies pour atteindre 1080p. Ce processus en deux étapes donne des résultats plus nets que de forcer le modèle à faire 1080p en une seule fois. Il existe des outils gratuits tels que Vidéo 2X ou VFIO, et même des nœuds intégrés dans ComfyUI pour améliorer les cadres (par exemple, les modèles ESRGAN). C'est une étape supplémentaire, mais elle en vaut la peine pour une vidéo finale nette.

Contrôle terminologique : Résolution signifie simplement la largeur x la hauteur de la vidéo en pixels (par exemple 1280 × 720). Étiquettes courantes : 480 p = 852 x 480 (qualité SD, DVD), 720p = 1 280 x 720 (HD), 1080p = 1 920 x 1 080 (Full HD). Une résolution plus élevée = plus de détails, mais aussi des fichiers plus lourds et un traitement plus lent.

En bref : utilisez 720p pour une meilleure qualité si votre système le permet, sinon le 480p est une solution de repli solide, et prévoyez de passer à la Full HD si nécessaire.

Gardez également à l'esprit le rapport hauteur/largeur : par défaut, un écran large 16:9 est utilisé (vous pouvez également utiliser un format vertical 9:16 si vous voulez le style TikTok, par exemple 720 × 1280).

Combien de temps doit durer votre vidéo IA ? (Durée de la vidéo)

Le WAN 2.1 excelle dans clips courts. N'oubliez pas qu'il n'est pas (encore) possible de réaliser un film complet de 2 heures sur votre ordinateur portable. Voici des conseils sur la durée des vidéos :

  • Durée recommandée : environ 5 secondes par clip. De nombreux utilisateurs s'en tiennent aux alentours 5 secondes maximum (environ 80 images à 16 images par seconde) lors de la génération d'un seul clip. Cette durée est suffisamment longue pour montrer une petite scène ou une action, mais suffisamment courte pour maintenir une qualité élevée et un temps de traitement raisonnable. En fait, la valeur par défaut de certaines interfaces est de 5 secondes.
  • Pourquoi courte ? Plus la vidéo continue est longue, plus il est difficile pour l'IA de maintenir la cohérence. Après un certain nombre d'images, le modèle peut commencer à « oublier » à quoi ressemblaient les images initiales et dérive hors sujet (par exemple, l'apparence d'un personnage peut changer subtilement au fil de très longues séquences). De plus, les vidéos plus longues consomment beaucoup plus de VRAM et de temps, ce qui augmente les risques d'erreurs ou d'artefacts étranges.
  • Vous avez besoin d'une vidéo plus longue ? Tu peux cousez plusieurs clips ensemble. Par exemple, générez trois scènes de 5 secondes et modifiez-les l'une après l'autre. Pour faciliter la transition, vous pouvez prendre la dernière image du clip 1 comme image de départ pour le clip 2 afin que la scène continue grâce à son architecture sophistiquée, mais dans la pratique, il est plus sage de diviser les éléments en plusieurs parties puis de les combiner. De cette façon, chaque partie reste nette.
  • Fréquence d'images (FPS) : Par défaut, les sorties WAN 2.1 sont situées autour 16 IMAGES PAR SECONDE (images par seconde). 16 images par seconde, c'est un peu moins que la vidéo standard (qui est généralement de 24 ou 30 images par seconde), ce qui signifie que la vidéo brute peut sembler légèrement saccadée.

    Ne vous inquiétez pas, vous pouvez augmentez la fréquence d'images après génération par interpolation de trames. Une astuce populaire consiste à générer à 16 images par seconde, puis à utiliser un outil comme SÉVISSE (par exemple via l'application Flowframes) pour doubler la fréquence d'images à 32 images par seconde, puis lire à environ 30 images par seconde pour des mouvements ultra-fluides). Dans la plupart des cas, vous pouvez simplement convertir 16 images par seconde -> 24 images par seconde ; les images intermédiaires manquantes seront devinées intelligemment par un logiciel d'interpolation, ce qui donnera une vidéo fluide).

    Le flux de travail est donc le suivant : générez les images, puis augmentez le nombre d'images par seconde si nécessaire pour des raisons de fluidité.

Donc, soyez bref et doux. Visez quelques secondes par génération. Si vous avez un scénario en tête, planifiez-le en petites scènes. Vous obtiendrez une meilleure qualité et pourrez ensuite assembler les scènes comme un storyboard.

Création d'une vidéo avec le flux de travail WAN 2.1

Passons en revue l'ensemble du processus, de l'idée à la vidéo finale. Ne vous inquiétez pas, c'est plus facile qu'il n'y paraît. Procédez comme suit :

wan 2.1 workflow comfyui
  1. Trouvez une idée — Imaginez une courte scène que vous souhaitez. Par exemple, un « chien faisant du skateboard sur un arc-en-ciel » ou peut-être « une ville futuriste avec des voitures volantes au coucher du soleil ». Soyez créatifs ! Si vous souhaitez inclure un style spécifique (dessin animé, réaliste, cinématique), notez-le également. Cette idée deviendra votre invite de texte. Si vous avez une image de départ (pour une conversion d'image en vidéo), comme la photo d'un personnage que vous souhaitez animer, gardez-la prête.
  2. Configuration de l'outil — Lancez l'interface de votre choix. Si vous utilisez Promptus, assurez-vous que le modèle WAN 2.1 est chargé (vous pouvez utiliser une communauté flux de travail configuration de fichiers ou de nœuds spécifiquement pour le WAN 2.1). Dans le générateur d'applications Web Promptus, accédez simplement à la section modèle et sélectionnez Cosy WAN 2.1.
    • Choisissez le mode : Sélectionnez Texte en vidéo (T2V) si vous utilisez uniquement une invite textuelle. Si vous avez une image à animer, choisissez Image vers vidéo (I2V) et téléchargez votre image (et vous pouvez toujours ajouter une invite textuelle pour indiquer le style ou la scène). Le WAN 2.1 prend en charge les deux modes.
    • Résolution : Réglez la résolution de l'image comme indiqué (480p ou 720p). De nombreuses interfaces utilisateur comportent une liste déroulante pour les résolutions courantes. Commencez par 480p en cas de doute, pour tester le terrain.
    • Nombre d'images/durée : Décidez du nombre d'images ou de secondes. Par exemple, à 16 images par seconde, 80 images ≈ 5 secondes. Certaines interfaces vous permettent de saisir simplement les secondes et les images par seconde et de calculer les images. Entrez un nombre modeste (par exemple « 80 images à 16 images par seconde » ou « 5 secondes »).
    • Autres paramètres : Il y aura des curseurs tels que « Échelle de guidage » (dans quelle mesure il suit strictement votre invite) et « Étapes » (combien d'itérations de raffinement). Ne vous laissez pas intimider : de bonnes valeurs par défaut sont souvent fournies. Pour le WAN 2.1, une échelle de référence autour de 5 à 7 est recommandé (une valeur trop élevée peut provoquer un scintillement, nous l'expliquerons ci-dessous). Vous pouvez le régler sur ~6 pour démarrer. L'échantillonnage pas environ 20 à 30 par image sont courants.
    • Graine (facultatif) : Si vous voyez un la graine valeur, cela contrôle simplement le caractère aléatoire. N'importe quel chiffre est acceptable ; définir une graine spécifique signifie que vous pouvez reproduire le même résultat plus tard. Si vous le laissez aléatoire, la sortie peut varier à chaque exécution. Pour l'instant, le hasard est acceptable. Vous pouvez toujours verrouiller une graine sur une prise que vous souhaitez peaufiner.
  3. Rédigez votre invite — Entrez votre invite de texte dans la zone de dialogue. Soyez clair et essayez de brosser un tableau avec des mots. Incluez tous les détails concernant le réglage, l'éclairage, le style ou le mouvement. Par exemple :

    Rapide : « Un chevalier en armure étincelante chevauche un dragon volant au-dessus d'une cité médiévale au crépuscule, éclairage cinématique et panoramique fluide de la caméra. »
    Cette invite indique à l'IA ce qu'elle doit afficher (un chevalier sur un dragon, une ville médiévale) et donne même des indications sur les mouvements de la caméra (« panoramique fluide de la caméra »).

    Le WAN 2.1 répond à certains mots-clés de mouvement tels que « caméra en mouvement » ou « marcher » car il a appris quelques schémas de mouvement de base. Gardez-le une scène par clip — n'essayez pas d'effectuer trop d'actions différentes en 5 secondes. Enregistrez des actions distinctes pour des clips distincts.

    Conseil :
    Vous pouvez également utiliser invite négative pour dire à l'IA quoi pas à montrer. Par exemple, « —pas de flou, pas de texte, pas de filigrane » pour éviter les artefacts indésirables.
  4. Générez la vidéo — Frappe ça « Générer » ou « File d'attente » bouton ! 🚀 Attendez maintenant que le WAN 2.1 opère sa magie. Cela prendra un peu de temps car il crée plusieurs images. Pour un clip 480p de 5 secondes sur un GPU décent, cela peut prendre quelques minutes de traitement. Si vous utilisez une application Web en ligne Promptus, cela peut prendre quelques minutes de plus. Soyez patient, prenez peut-être un verre.

    Au cours de la génération, le modèle crée essentiellement chaque image étape par étape à l'aide d'un processus de diffusion, un peu comme le fonctionnement des générateurs d'images IA, mais avec une dimension temporelle supplémentaire.
  5. Afficher un aperçu du résultat — Une fois terminé, vous obtiendrez un fichier vidéo (souvent en .mp4 ou .gif format) ou une série de cadres. Regardez la vidéo et voyez à quoi elle ressemble ! C'est la partie la plus intéressante : le résultat correspondait-il à votre vision ? Peut-être que le chevalier et le dragon sont là et volent doucement, ou peut-être avez-vous besoin d'ajuster quelque chose. Evaluer :
    • Est-ce que mouvement lisse ? S'il y a un peu de nervosité à faible FPS, n'oubliez pas que nous pourrons interpoler plus tard.
    • Sont-ils visuels cohérent ? Vérifiez qu'il n'y a pas de morphing ou de scintillement étrange entre les images.
    • Est-ce qu'il suit les rapide de près ? Peut-être que « l'éclairage du crépuscule » ressemble davantage à midi ; vous pouvez modifier l'invite ou les paramètres.
    • Des bizarreries indésirables ? Par exemple, les vidéos d'IA peuvent parfois scintiller ou le sujet peut légèrement changer de couleur. Ces problèmes peuvent souvent être corrigés à l'aide de paramètres.
  6. Affiner si nécessaire — Il est courant de ne pas obtenir une vidéo parfaite du premier coup. Ne vous découragez pas ! Des modifications mineures peuvent l'améliorer :
    • Ajuster l'invite: S'il manquait quelque chose d'important, rendez-le plus explicite dans l'invite. Si quelque chose de bizarre était présent, vous pouvez l'ajouter à l'invite négative (par exemple, « pas de texte » si vous avez vu du charabia apparaître).
    • Échelle de guidage: Si la vidéo présente beaucoup de scintillement ou change soudainement d'image en image, votre guidage est peut-être trop élevé. Essayez une valeur légèrement inférieure (disons 5 au lieu de 7). Un guidage élevé peut rendre l'IA terminé-corrigez chaque image en fonction de l'invite, ce qui provoquera une instabilité. Si la vidéo était trop hors sujet ou trop floue, vous pourriez augmentation un peu d'orientation. C'est un équilibre.
    • Étapes: L'augmentation du nombre d'étapes de diffusion par image peut parfois améliorer la netteté des détails (avec un temps de génération plus long). Si vous avez utilisé 20 étapes, vous pourriez en essayer 30. Si la production était très lente, vous pourriez réduire les étapes pour accélérer à un certain coût en termes de qualité.
    • Aides à la cohérence: Ajustement avancé : si vous utilisez Promptus, il existe des moyens d'améliorer la cohérence (par exemple, insérer chaque image dans la suivante ou utiliser la dernière image comme point de départ pour la diffusion suivante). Mais si vous êtes débutant, vous pouvez ignorer cette étape ou utiliser des flux de travail communautaires sur lesquels ces nœuds sont configurés. Souvent, le WAN 2.1 fait un travail décent dès le départ grâce à sa conception interne qui vise déjà la cohérence temporelle (il possède ce que l'on appelle un VAE spatio-temporelle pour aider à maintenir la fluidité des mouvements.
    • Essayez la conversion de l'image en vidéo: Si la conversion texte-vidéo pure ne permet pas de résoudre un sujet complexe, une astuce consiste à générer d'abord une seule image (avec la fonctionnalité de synthèse d'image d'une image AI ou du WAN 2.1), puis à utiliser cette image comme image de départ via le mode image-vidéo. Cela permet de conserver l'apparence d'un personnage ou d'une scène, et le modèle n'a plus qu'à l'animer plutôt que de l'inventer à partir de zéro.
    Générez à nouveau avec vos nouveaux paramètres et voyez. Vous pouvez faire quelques itérations jusqu'à ce que vous soyez satisfait. Une partie du plaisir réside dans l'expérimentation : même les artistes expérimentés en intelligence artificielle parcourent plusieurs générations pour obtenir les meilleurs résultats.
  7. Améliorez et augmentez le FPS (facultatif) — Une fois que vous avez un clip que vous aimez, vous pouvez le post-traiter pour une qualité encore meilleure :
    • Mise à l'échelle : Si votre objectif final est une résolution plus élevée, prenez les images ou la vidéo et passez à l'échelle supérieure. Certains outils vous permettent de télécharger une vidéo et d'augmenter l'échantillonnage de chaque image par IA. Par exemple, Topaz Video AI (payant) ou des vidéos gratuites comme Video2X, ou même en utilisant img2img de Stable Diffusion avec un modèle haute résolution sur chaque image (un peu avancé). Si vous avez généré en 720p et que vous êtes satisfait, vous pouvez ignorer cette étape. Mais si vous n'avez obtenu que 480p à cause du matériel, la mise à l'échelle vers 720p ou 1080p lui donnera un aspect beaucoup plus net en mode plein écran. Assurez-vous d'utiliser un upscaler basé sur l'IA pour de meilleurs résultats (ils ajoutent des détails), et pas simplement un redimensionnement.
    • Interpolation de trames (pour FPS) : Comme indiqué, vous pouvez lisser le mouvement en augmentant la fréquence d'images. Des outils tels que Schémas de flux (qui utilise SÉVISSE AI) sont parfaits pour cela : vous chargez votre vidéo à 16 images par seconde, vous sélectionnez « Multiplier les images par 2 » et vous obtiendrez une vidéo à 32 images par seconde. Vous pouvez ensuite y jouer à une vitesse normale (en mode ralenti ou très fluide) ou supprimer quelques images pour cibler 24/30 images par seconde. Le résultat est une vidéo beaucoup plus fluide sans en modifier le contenu. Cette étape est facultative mais peut faire une différence notable pour les scènes d'action.

C'est le flux de travail de base. Ensuite, nous aborderons certains les meilleures pratiques et les erreurs les plus courantes afin que vous puissiez résoudre les problèmes et affiner vos vidéos comme un pro.

Conseils de pro pour obtenir d'excellents résultats vidéo grâce à l'IA

Même en suivant les étapes ci-dessus, il existe quelques conseils supplémentaires qui peuvent faire passer votre vidéo IA de bonne à excellente. Voici quelques choses à faire et à ne pas faire :

✅ Veillez à ce que les instructions soient cohérentes pour une scène : Si vous ne générez qu'un seul clip, évitez de modifier la description en cours de route. Par exemple, n'utilisez pas d'invite qui commence à parler d'une forêt et finit par parler de l'océan en une seule fois : le modèle sera confus image par image. Une scène = une invite.

Vous pouvez toujours créer un clip séparé pour la scène suivante. La cohérence de l'invite entraîne la cohérence de la vidéo. Si vous besoin une transition, faites-le en deux clips et fusionnez via le montage. Des changements brusques peuvent provoquer un scintillement discordant ou des sauts de scène.

✅ Utilisez des conseils modérés (échelle CFG) : Comme nous l'avons mentionné, un guidage entre 5 et 7 est généralement préférable pour les vidéos. Cela permet à l'IA de suivre votre demande sans en faire trop. Ne le maximisez pas à 15 ou 20 — un CFG élevé peut faire en sorte que chaque image essaie tellement de correspondre à l'invite qu'elle finit par introduire des lumières vacillantes ou par modifier les détails entre les images. D'un autre côté, trop bas (comme 1 ou 2), l'IA risque de dériver et d'ajouter des éléments aléatoires. Donc, la règle de Boucle d'or : environ 6, c'est juste ce qu'il faut dans la plupart des cas.

✅ Étapes d'échantillonnage étendues (mais pas extrêmes) : Si vos images vidéo semblent un peu grossières ou peu détaillées, envisagez d'augmenter légèrement les étapes de diffusion (par exemple de 20 à 30). Cela donne à l'IA plus d'itérations pour peaufiner le cadre. Mais une valeur trop élevée (environ 50 par image) ralentira considérablement les choses pour des gains sans doute minimes. De plus, quel que soit échantillonneur que vous utilisez, respectez-la pendant toute la vidéo (ne changez pas par image). La cohérence permet d'éviter tout problème de continuité étrange.

❌ N'essayez pas de générer une vidéo extrêmement longue en une seule fois : Nous ne saurions trop insister sur ce point : générer, disons, un clip de 30 secondes en un seul passage risque de se solder par une déception (si le clip se termine sans perte de mémoire). Non seulement c'est lent, mais la qualité de la dernière partie de la vidéo peut se dégrader ou commencer à varier. Divisez le contenu le plus long en morceaux de quelques secondes. C'est plus facile à gérer et vous pouvez toujours les coller ensemble par la suite. Si vous souhaitez une prise de vue plus longue et ininterrompue, vous pouvez utiliser l'astuce qui consiste à utiliser la dernière image d'une génération comme la première de la suivante, afin de maintenir la continuité entre les segments.

❌ Évitez directement les très hautes résolutions : Comme indiqué dans la section sur la résolution, le fait de passer directement à 1080p ou au-delà dans le WAN 2.1 entraîne des problèmes sur du matériel normal. Vous risquez des accidents ou d'étranges distorsions. Il est plus efficace de générer aux résolutions définies (480p/720p) et de passer à la version supérieure plus tard pour plus de clarté. Le point d'entraînement idéal du modèle réside dans ces tailles, alors tenez-vous-en à celles-ci pendant une génération. Si vous avez besoin de 4K... eh bien, peut-être dans une future version ou utilisez plusieurs fois des upscalers externes (mais c'est avancé et lourd).

❌ Ne mettez pas trop d'action dans une seule scène : Si votre invite essaie d'avoir « une course automobile, suivie d'une invasion extraterrestre, puis d'une soirée dansante » le tout en un seul clip de 5 secondes, le résultat sera probablement un flou désordonné. Concentrez-vous sur concept unique ou action continue par clip. Si vous voulez plusieurs choses, prévoyez plusieurs clips. Cela vaut également pour les mouvements de caméra : un clip peut être un « panoramique de la caméra autour d'un personnage », mais n'essayez pas de zoomer et de faire 10 choses à la fois. Plus c'est simple, plus c'est sûr, surtout quand on apprend. Vous pouvez toujours faire preuve de fantaisie en éditant plusieurs clips d'IA ensemble pour des séquences complexes.

✅ Tirez parti de l'interpolation pour plus de fluidité : Nous en avons déjà parlé, mais c'est un moment courant pour les nouveaux arrivants. Si vous trouvez le mouvement un peu instable, la solution n'est pas de générer à un FPS plus élevé (ce qui coûte simplement plus d'images et de VRAM), mais d'utiliser l'interpolation par la suite. Augmenter le FPS du modèle signifie directement plus d'images pour rester cohérent (plus difficile) et plus de mémoire. Donc, générez à environ 16 images par seconde, comme le modèle, puis utilisez un logiciel d'interpolation pour atteindre 24/30 images par seconde. Cela préserve la qualité et permet d'économiser une tonne de calcul.

✅ Utilisez le modèle adapté à votre GPU : Si vous manquez de mémoire ou si le logiciel tombe en panne, vous essayez peut-être d'utiliser le modèle 14B sur un GPU qui ne peut pas le gérer. Passez au modèle 1.3B (souvent étiqueté « WAN2.1-T2v-1.3b » ou similaire dans l'interface utilisateur) pour alléger la charge. La sortie est peut-être un peu moins détaillée, mais elle reste très bonne, et un rendu stable vaut mieux qu'un rendu en panne !

Alternativement, certaines communautés ont publié Versions quantifiées 8 bits ou 4 bits du WAN 2.1 qui utilisent moins de VRAM pour un petit compromis en termes de qualité. Ceux-ci peuvent permettre au modèle 14B de fonctionner sur des cartes de 8 à 12 Go.

❌ Ne négligez pas les messages négatifs : Si vos vidéos contiennent souvent des artefacts indésirables (tels que des taches de texte, des filigranes ou des objets étranges), essayez d'utiliser une invite négative pour les interdire explicitement. Par exemple, ajoutez (« texte » :1.2), (filigrane), (logo) dans le champ d'invite négatif (la syntaxe peut varier selon l'interface). Ce n'est pas garanti, mais cela peut aider l'IA à s'éloigner de ces éléments. Par exemple, certains modèles insèrent parfois du texte brouillé comme s'il s'agissait d'une signature. Une invite négative peut réduire cette probabilité.

✅ Enregistrez votre travail et vos paramètres : Lorsque vous obtenez enfin un résultat que vous aimez, notez les paramètres (ou enregistrez le projet dans l'interface utilisateur). Ainsi, si vous souhaitez effectuer un nouveau rendu ou l'ajuster plus tard, vous avez la recette. Dans Promptus, vous pouvez enregistrer le graphique du flux de travail. Dans d'autres interfaces utilisateur, vous pouvez enregistrer un préréglage. Au minimum, notez la graine, l'invite, les étapes, les conseils, etc., peut-être dans un fichier texte. C'est très utile lorsque vous expérimentez davantage.

Corrections rapides de dépannage :

  • Problème : La vidéo scintille ou change rapidement de couleur — Essayez de réduire le guidage CFG, assurez-vous que votre invite n'est pas contradictoire et maintenez un éclairage constant dans la description. Vérifiez également que vous ne modifiez pas par inadvertance la source à chaque image (la plupart des interfaces utilisateur s'en occupent pour vous).
  • Problème : Le sujet change d'apparence à mi-chemin — Le concept est peut-être trop complexe ou le modèle peine à le maintenir. L'utilisation d'une image initiale (mode I2V) peut verrouiller le sujet. Ou divisez la vidéo en deux segments et renforcez peut-être l'invite du second. Par exemple, pour une séquence de 10 secondes d'un caractère, générez les 5 premières secondes, puis utilisez la dernière image + invite pour générer les 5 secondes suivantes. Cela rappelle au mannequin à quoi ressemblait le personnage.
  • Problème : Erreurs de mémoire insuffisante — Réduisez la résolution (720p -> 480p), réduisez le nombre d'images ou utilisez la variante de modèle plus petite. Fermez également les autres programmes à l'aide de votre GPU. Si vous utilisez une interface utilisateur telle que Automatic1111 ou ComfyUI, assurez-vous de ne pas conserver accidentellement un énorme historique d'images en mémoire. Générant parfois en lots de diffusion (une image à la fois de manière séquentielle) est nécessaire au lieu de toutes les images d'un seul lot. De nombreuses interfaces utilisateur fonctionnent une par une par défaut pour économiser de la mémoire.
  • Problème : La vidéo est floue ou peu détaillée — Augmentez légèrement les étapes ou utilisez un modèle à résolution plus élevée si possible. Vous pouvez également essayer un technique haut de gamme + raffinement: générez à 480p, puis prenez chaque image et faites-la passer à un modèle d'image puissant (comme Stable Diffusion XL) avec un faible niveau de bruit pour améliorer les détails sans modifier le contenu. Ceci est avancé mais donne des images plus nettes. Il existe des scripts pour automatiser cette amélioration image par image. Sinon, comptez simplement sur un bon upscaler.
  • Problème : D'étranges distorsions aux bordures ou au bas des cadres — Cela peut arriver si le VAE de l'IA (la partie qui décode les images) rencontre des difficultés. Une astuce consiste à activer le « carrelage » pour le VAE si l'option existe, ou simplement à recadrer un tout petit peu des bords du poteau. Assurez-vous d'utiliser le VAE adapté au modèle s'il s'agit d'un réglage manuel.

En suivant ces conseils et en faisant attention aux hoquets courants, vous améliorerez considérablement vos résultats. La clé est de affiner de manière itérative — même les professionnels de l'IA font plusieurs essais pour obtenir le clip parfait. Chaque tentative vous apprend quelque chose de nouveau sur ce que le WAN 2.1 aime ou n'aime pas.

Conclusion

Le WAN 2.1 ouvre un monde de possibilités créatives. C'est comme si vous disposiez d'un studio de cinéma virtuel qui tient sur votre bureau. Grâce à ce guide, vous savez maintenant comment l'exploiter : choisissez la bonne taille d'image, faites en sorte que vos vidéos soient courtes et agréables, ajoutez du son pour plus de style et utilisez le flux de travail étape par étape pour passer d'une idée à une vidéo optimisée générée par l'IA. Nous avons démystifié le jargon (images, résolution, images par seconde, etc.) et vous avons donné des conseils d'initiés pour éviter le scintillement et d'autres pièges.

C'est maintenant à vous de laisser libre cours à votre imagination. Que vous souhaitiez créer un clip vidéo surréaliste pour une chanson, des illustrations conceptuelles animées pour une histoire ou simplement vous amuser à créer des clips dignes d'un mème, WAN 2.1 est un outil incroyable à votre disposition. Un jeune de 19 ans qui a une idée géniale et qui a cette IA peut créer quelque chose qui aurait nécessité toute une équipe d'animation pour le réaliser par le passé. N'est-ce pas cool ?

Dernière réflexion : Expérimentez, appréciez le processus et n'ayez pas peur d'échouer. Certaines de vos expériences seront complètement hors cible. Cela fait partie de l'apprentissage ! Mais beaucoup seront également époustouflants. À mesure que la technologie de l'IA s'améliore, vous serez à l'avant-garde de cette nouvelle forme de création de contenu. Continuez donc à affiner ces instructions et paramètres, et vous créerez des vidéos d'IA de haute qualité comme un pro en un rien de temps. Bonne création ! 🚀

Rejoignez notre newsletter pour créateurs.

Newsletter mensuelle avec des conseils de créatrices et des actualités sur l’IA.

Thank you! Your submission has been received!
Oops! Something went wrong
ai image generatorai video generator
promptus ai video generator