Zen like Buddha
Salut les afficionados de la surcharge cognitive, bienvenue dans ce nouvel opus de GENERATIVE, la newsletter qui déborde un peu moins que l’actu de l’IA (on fait un peu de curation malgré les apparences).
Big up à Caro cette semaine qui a assuré seule la majeure partie du boulot sur cette édition. De quoi ériger une modeste statue à son effigie
Une semaine un peu plus calme que les précédentes, mais de la à dire que ça ne bouge pas… Seule Caro reste zen comme Bouddha.
Sans plus attendre, let’s go !
Si tu es nouveau par ici, je suis Gilles Guerraz, réalisateur publicitaire devenu expert en outils créatifs GEN AI. Avec Caroline Thireau (AI Creative Technologist), nous te proposons une plongée hebdomadaire dans la marmite bouillonnante de l’actualité de l’IA générative !
Si on t’a transféré cette lettre, abonne-toi en un clic ici.
Ma prochaine session de formation CPF aura lieu à Paris les 12 et 13 février prochains !
Si tu es salarié.e ou indépendant.e, et que tu souhaites monter en compétence sur la génération d’images et de vidéo, tu es le/la bienvenue.e !
La session est 100% finançable par le CPF. Les inscriptions se font ici.
Si ce n'est pas déjà fait, tu peux aussi :
Découvrir mes formations IA pour les créateurs, 100% finançables par le CPF. Les inscriptions se font ici.
Former tes équipes à l'IA générative grâce à nos formations entreprise finançables par ton OPCO
Nous contacter directement pour discuter de ton projet IA générative
Me suivre sur LinkedIn, YouTube ou TikTok pour ne rien rater.
Et c'est parti ! 🚀
🔹 Mise à jour de Google Veo 3.1 : Ingredients to Video
On parlait de ce type de fonctionnalités côté Higgsfield ou Kling, c’est à présent Google qui se met à jour avec la fonction “Ingredients to Video” qui permet de générer une video à partir d’éléments (personnages, objets, scènes et styles) sans image au départ.
La cohérence visuelle est renforcée sur toute la séquence. Les autres nouveautés : support du format vertical 9:16, sortie jusqu’en 4K et amélioration visible du rendu en 1080p. Google ajoute en prime un upscaling vidéo natif à Veo, pour agir sur la netteté et la stabilité globale, sans modifier le montage ni la durée.
Avis de Caro : le fameux adage “Garbage in, Garbage out” prend tout son sens avec ce type de fonctionnalité où la qualité des éléments en question influera sur le rendu obtenu.
🔹 Freepik : Change Camera
Freepik s’équipe de Change Camera, une fonction qui génère une vue complète à 360° à partir d’une seule image. L’outil calcule différents angles pour explorer la scène et ajuster le point de vue sans nouvelle prise ni rendu 3D manuel. L’usage préconisé est plutôt orienté prévisualisation, déclinaisons de cadrage et composition.
Top sur le papier, dans les faits on perd pas mal de détails. ON les soupçonne d’utiliser un modèle Qwen Edit plutôt qu’un wrapper Nano Banana Pro
Avis de Caro : Comme toujours sur ce type d’outils, attention aux angles morts de votre image d’entrée qui peuvent poser la question de cohérence d’un plan à l’autre. Le module Camera Preview est très user friendly !
En atteste la mignonnerie de démo de Lordwind E. Aguilar Ramírez ci-dessous :
ou encore celle de Jesús Terrada Gómez ici :
Avis de Caro : ça ne vous rappelle pas un certain Project Neo côté Adobe ? Avec l’avantage d’être dans la Suite Freepik !
🔹 FREEPIK Favorites
Freepik fait également de l’humour cette semaine en nous envoyant des coeurs ! Voici l’arrivée des favoris dans vos grilles d’historique. On en rit mais cette fonctionnalité était très attendue par de nombreux utilisateurs.
🔹 Higgsfield AI : Layer Mixed Media (Video-to-Video)
Layer Mixed Media de Higgsfield AI applique une style visuel prédéfini (filtre) sur une vidéo pré-existante. L’outil conserve personnages, mouvements et temporalité, tout en recalculant les images selon l’un des 33 styles proposés. Réglages possibles : 4 à 24 fps, sortie en 1K, 2K ou 4K. Génération par segments de 10 s, temps de calcul lent, clignotements visibles. Coût très élevé, indexé sur le framerate.
Vidéo de comparatif de Gilles ici :
🔹 Runway Story Panels
Story Panels de Runway génère 3 images à partir d’un seul visuel de personnage ou de produit. Pratique pour de la narration simple par juxtaposition, sans animation ni montage vidéo et donc plutôt pour des usages rapides.
Avis de Caro : Runway peine à rattraper son retard. Cette fonctionnalité arrive longtemps après les sorties de la même fonctionnalité à la concurrence comme par exemple chez Freepik, Higgsfield ou Dreamina
🔹 Wavespeed Z-AI GLM Image Edit
Wavespeed propose GLM-Image Edit : un modèle d’édition d’image piloté par prompt textuel. Il permet de modifier une image via des instructions en langage naturel et jusqu’à 4 images de référence. L’outil vise la consistance des éléments clés, tout en appliquant des changements ciblés. Au niveau de Nano Banana Pro aka NBP pour les intimes ? Pas sûrs à la rédaction de GENERATIVE.
🔹 PixVerse R1 : Real-time World Model
PixVerse présente R1, son modèle vidéo génération en temps réel, capable de générer des environnements continus à partir d’une image d’entrée. En théorie, il est mis en avant une notion de monde persistant, avec navigation et variation de points de vue sans coupe. La démo juste en dessous était alléchante. En pratique, on vous le dira aussi honnêtement qu’en 2025 : pas ouf ! (ou en tous cas pas encore au niveau).
🔹 Reve : References & Effects
Reve a déployé 2 fonctions coup sur coup.
- References, sortie juste après la diffusion de notre précédente édition (Damn!), qui permet d’utiliser des visuels existants (visages, objets, lieux) pour guider le style et maintenir une cohérence de personnage ou d’apparence. Par ici ça nous rappelle les srefs.
- Effects, lancé cette semaine, ajoute des traitements visuels pilotés par curseurs (texture, lumière, couleur) proches de filtres avancés qu’on retrouve notamment dans le Creative Cloud. L’approche est orientée image fixe, direction artistique et itération rapide.
🔹 LTX Storyboard Builder
Le Storyboard Builder de LTX transforme un script en storyboard visuel en environ 60 secondes. L’outil automatise la mise en page des plans pour structurer une idée avant production. Il vise surtout les phases de pitch, les publicités, les courts-métrages et les prototypes. A vos chronos !
🔹 FLUX.2 [klein]
FLUX.2 [klein] est le modèle de génération d’images de Black Forest Labs mais orienté vitesse. Il produit des visuels en moins d’une seconde, tout en maintenant un niveau de détail élevé. Pensé pour l’idéation rapide, le changement de style et les tests visuels 0 → 1, il fonctionne via API ou en local. Avec 2 variantes annoncées : Klein 4B sous licence Apache 2.0 et Klein 9B en poids ouverts.
🔹 Agents IA : montage multi-caméras à partir d’une seule performance
Glif propose 2 agents combinés pour produire un montage type clip vidéo sans tournage multi-caméras.
- le premier génère une planche contact d’images multi-angles à partir d’images de référence (sujet + décor), avec itération directe sur le style et le rythme ;
- le second (Kling Clean Motion Control) anime ces images en vidéo en pilotant le mouvement par prompt.
🔹 Dzine AI Video Enhancer
Dzine AI lance son outil d’upscaling vidéo IA, avec export annoncé jusqu’en 8K sans réglages avancés nécessaires.
🔹 StyleFrame + Cinema4D :Video2Video avec transfert de matériaux
Une animation Cinema4D est utilisée comme base de mouvement, puis restylisée sans casser l’animation ni mélanger les matériaux. StyleFrame s’appuie sur la profondeur et des images de référence placées sur la timeline pour garder une cohérence visuelle, même quand les formes changent. Cette méthode est proche d’un pipeline 3D + compositing, appliquée ici à de la génération IA contrôlée.
🔹 Apple Creator Studio
Info relayée par le très actif Rémi Rostan, Apple lance un abonnement unique qui regroupe ses apps de création. Final Cut Pro, Logic Pro et Pixelmator Pro sont inclus sur Mac et iPad. Motion, Compressor et MainStage restent réservés au Mac. Des fonctions et contenus premium sont ajoutés aux apps bureautiques. L’offre vise surtout une centralisation des outils image, video, son et la chaîne de production pour orchestrer. Nous vous revenons fin Janvier avec plus de détails quand nous aurons pu tester.
🔹 Evénement Runway AI Summit New York
Runway annonce un sommet AI à New York le 31 mars prochain. Cet événement réunit des acteurs des médias, du cinéma, de la publicité et de la tech pour discuter de l’impact de l’IA sur les méthodes de création avec une conférence d’ouverture assurée par Kathleen Kennedy de Lucasfilm… Qui a dit que les professionnels du cinéma ne 's’intéresseraient pas à la génération vidéo ? Plus d’infos ici : Runway AI Summit.
🔶 CÔTÉ OPEN SOURCE
🔸 Crystal video upscaler
Voici un nouveau kid in town comme dirait Gilles. Disponible sur Fal et nommé Crystal Video Upscaler, ce nouvel outil permet de passer en 4K avec un excellent rendu et une bonne conservation des détails. Côté coût nous sommes à 0.10$ par megapixel / seconde qui sera à multiplier en fonction du FPS, fameux nombre d’images par seconde (x1 jusqu’à 30 FPS, x2 jusqu’à 60FPS et x3 jusqu’à 90 FPS).
On apprécie cette démo de Arminas Valunas :
🔸 ComfyUI + Wan 2.2 Animate : masquage ciblé
L’excellent Eric Solorio propose ce test de masquage précis pour ajouter un élément dans un plan existant. Seule la zone du masque est regénérée, sans toucher au personnage ni au plan. La performance et le timing d’origine sont conservés. Cette approche s’apparente au compositing VFX classique, utilisée ici comme retouche localisée. Comme il le dit lui même, le résultat perfectible mais la méthode pertinente pour des modifications fines sans refaire un plan entier.
🔸 FaceLift: Image unique vers tête 3D
FaceLift est une méthode de recherche qui reconstruit une tête 3D complète à 360° à partir d’une seule image. Le système génère d’abord des vues cohérentes (profil, arrière) via un modèle de diffusion multi-vues, puis reconstruit la tête en 3D avec des Gaussian splats. L’identité est bien préservée. Entraîné uniquement sur des têtes synthétiques, le modèle fonctionne aussi sur des photos réelles et peut supporter aussi l’entrée vidéo pour vues 4D et animation faciale. Plus d’info sur Huggingface.
🔸 WorldCanvas contrôle du mouvement en vidéo IA
Cette semaine, Arcad nous parle de WorldCanvas, un framework de génération vidéo IA qui combine texte, trajectoires de mouvement et images de référence. Pour cela, on définit actions, déplacements, timing et visibilité des objets. Les vidéos de la démo suivante montrent une cohérence temporelle plutôt stable. Disponible sur Github.
🔹 Lily
La pépite de la semaine est le film lauréat du 1 Billion Followers Summit. Ce court métrage de zoubeir jlassi a remporté le 1er prix de 1 000 000 $.
Cette compétition a rassemblé :
- 30 000+ participants issus de 116 pays
- 3 500 films soumis
- 400 heures de film critiquées par le jury du prix
Zoubeir raconte :
« Ma fille a une poupée, qui s’appelle aussi Lily. Cette poupée a vécu avec nous à travers nos moments de griefs, de joie et de victoires. »
« Avec ce film, j’espère inspirer les cinéastes en herbe à rêver, à reprendre des idées dans leurs archives, à les exécuter et à les partager sur leurs propres plateformes sans dépendre de gros budgets de production ou d’équipements coûteux. »
Cette édition est terminée, merci de l’avoir lue jusqu’ici ! Si elle vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également me suivre sur LinkedIn (Caroline est par ici) et activer la cloche 🔔, je poste régulièrement sur l’intelligence artificielle générative. Vous pouvez également me contacter pour toute proposition de création, intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditionsons 👇






R1 by PixVerse def looks sick. Imagine with you could do with API and N8N. I would share that on https://automatio.ai/models/pixverse-r1.