Le Roi est mort, vive le Roi !
Salut les aficionados du prompt, bienvenue dans cette 123e édition de GENERATIVE.
Le coup de tonnerre de cette semaine c’est Seedreeam 4, dont il se murmure qu’il surclasse Google Nano Banana qui rendait pourtant les internets hystériques il y a tout juste 2 semaines.
2 semaines, c’est le nouveau standard d’obsolescence (programmée ?) des nouveautés dans le monde impitoyable de l’IA Gen.
Vous ne pourrez plus zapper la lecture de GENERATIVE qu’une semaine sur deux.
Vous voilà prévenus.
Let’s go !
Si ce n'est pas déjà fait, tu peux aussi :
Découvrir mes formations IA pour les créateurs, 100% finançables par le CPF. Les inscriptions se font ici et la prochaine est à Marseille les 18 et 19 septembre prochains !
Former tes équipes à l'IA générative grâce à nos formations entreprise finançables par ton OPCO
Nous contacter directement pour discuter de ton projet IA générative
Me suivre sur LinkedIn, YouTube ou TikTok pour ne rien rater.
Et c'est parti ! 🚀
🟦 R.I.P. NANO BANANA
🔹 ByteDance : Seedream 4.0 avec 6 références et 4K
Une révolution en appelle une autre : ByteDance dévoile Seedream 4.0, concurrent direct du fameux Nano Banana de Google. Le moteur permet de générer des visuels en 2K (en moins de 1,8 sec.) et propose aussi du 4K (à seulement 0,03 $ par rendu).
Et les premiers tests montrent qu’il est parfois supérieur à Gemini 2.5 Flash (Nano Banana)
Prompt : "Remove all the ingredients from the burger and keep only the top and bottom buns. Leave a gap between them, keeping the same spacing as if the fillings were still inside." (Source Angaisb_)
D’autres tests font état d’une meilleure cohérence sur les sujets humains, un rendu plus esthétique que celui de Nano Banana et moins de restrictions qu’avec Google.
Vous pouvez le tester gratuitement dans le playground de Wavespeed.
L’édition se fait en langage naturel, permet d’utiliser jusqu’à 6 images de référence et de choisir librement les rapports d’aspect. Sur Freepik, Les abonnés Premium+ et Pro bénéficient de générations illimitées. Une approche qui vise à renforcer la précision visuelle et la flexibilité, tout en s’adressant autant aux créateurs indépendants qu’aux professionnels de l’image.
Disponible dans Krea AI :
Egalement chez ImagineArt avec les start/end keyframes :
Mais il peut surtout se tester gratuitement sur Wavespeed :
🔹 Freepik : Visual Prompt (le coup de coeur de Caro)
Freepik étend ses invites visuelles, déjà présentes sur l’image, à la génération vidéo. Les utilisateurs peuvent tracer des trajectoires, ajouter des croquis ou annoter directement la scène pour guider la création. Cette approche augmente la précision et rapproche le rendu final de l’idée initiale, en allant au-delà des simples instructions textuelles. La fonctionnalité est intégrée au générateur vidéo IA et disponible pour tous les utilisateurs.
Avis de Gilles : j’adore cette fonctionnalité qui m’amuse beaucoup, regardez :
Et première pub TV 100 % IA pour Alain Afflelou
En Espagne, Alain Afflelou a diffusé cette publicité télévisée entièrement produite avec Freepik AI.
Très cool mais… on vous a déjà parlé de BanGGer ?
🔹 Higgsfield Seedream 4.0 illimité & Ads 2.0 &
Avec une obsolescence quasi instantanée, le time-to-market est crucial, comme dirait chatGPT. Higgsfield propose déjà Seedream 4.0 sans limite pendant un an sur ses plans Pro, Ultimate et Creator, avec génération d’images 4K “en une seconde”
En parallèle, Ads 2.0 vise la création publicitaire : upload d’un produit, choix de préréglages (packshot, lifestyle, cinématographique) et génération immédiate de photos ou vidéos. Les utilisateurs accèdent aussi à des variantes illimitées pour tester leurs campagnes. Une offre pensée pour accélérer la production marketing et créative.
Très complémentaire avec leur approche marketing associant les produits à des sons ASMR, connus pour leur effet immersif et attractif. Une intégration qui élargit les usages du placement produit, en ajoutant une dimension auditive pour capter et fidéliser l’audience. Allez, vous reprendre bien un peu de bruit de nouilles…
🔹 Kling AI : lancement d’Avatar pour personnages animés
Kling AI introduit Avatar, une mise à jour qui lui permet de commencer à jouer sur le terrain de ses petits camarades. L’avatar généré peut exprimer différentes émotions, adopter divers rôles et s’animer avec la voix choisie.
Avis de Gilles : je pense que c’est la dernière génération d’avatars avec des rendus un peu synthétiques (comprendre : “pas 100% réaliste”). Les prochaines seront photoréalistes, et j’ai bien conscience de l’aspect dérangeant/anxiogène de ce que j’écris.
Démo officielle ici :
🔹 Google Flow : formats verticaux et Flow TV
Google enrichit Flow avec le support des vidéos verticales, adaptées aux usages mobiles et réseaux sociaux. Et c’est enfin accessible aux Européens après des restrictions liées à la régulation. Champagne !
Pendant ce temps, Flow TV diffuse 24h/24 du contenu IA sur des chaînes thématiques, initialement construites sur Veo 2 et désormais élargies avec Veo 3. Chaque vidéo est accompagnée du prompt utilisé pour créer une sorte de galerie interactive.
🔹 ImagineArt et Veo3 en baisse
ImagineArt rend Veo 3 plus accessible en divisant par deux le coût en crédits. Une génération standard passe à 1900 crédits, tandis que la version rapide tombe à 700. L’objectif est d’encourager une utilisation plus large de ce moteur vidéo IA en réduisant la barrière financière, sans changer les capacités techniques. Un bon moyen de multiplier les tests et expérimentations sans épuiser rapidement l’abonnement.
🔹 Midjourney : explorateur de styles et poursuite Warner
Midjourney, qui a maintenant un compte Instagram depuis cet été, a lancé son Style Explorer, une page qui permet de parcourir un grand nombre de styles visuels, de les sauvegarder en favoris et de les rechercher grâce à un moteur intégré pour les appliquer instantanément à leurs créations. Approuvé par le camarade expert Nicolas Fensch de Geniart, qui pense malgré tout que cela reste perfectible. A suivre.
De l’autre côté, Warner Bros. Discovery poursuit toujours la plateforme pour reproduction non autorisée de ses personnages protégés (Superman, Batman, Scooby-Doo, etc.). Le dénouement de cette affaire qui soulève la question du statut juridique des créations IA reste très attendu comme le souligne l’article de TheVerge.
Note de Caro : Effectivement, pas de blocage mais une simple fenêtre apparaît sur vos 3/4 premières générations. Ensuite, plus rien…
🔹 Kinetix : modèle vidéo IA conditionné en 3D
Kinetix lance un modèle vidéo IA intégrant une compréhension 3D, comblant les limites habituelles de cohérence et de mouvement. Les créateurs disposent désormais d’un contrôle précis sur l’animation de personnages complets, la gestion des caméras 3D et la continuité des environnements. Issu d’un large jeu de données de mouvements et d’une expertise en génération 3D, ce système vise à rendre la vidéo générative plus proche des outils comme Unreal Engine. Ambitieux.
🔹 ElevenLabs : tests de sécurité pour agents IA
ElevenLabs lance Agent Testing, un cadre de validation pour vérifier le comportement des agents conversationnels avant mise en production. Les tests incluent des scénarios simulant des dialogues réels et des vérifications techniques sur l’appel correct des outils. Ils peuvent être générés à partir de conversations existantes et en cours de développement du logiciel. L’approche rapproche la discipline des agents IA des standards de qualité logiciels déjà en place dans l’ingénierie.
🔹 Vidu AI : référence multiple pour images et vidéos
Vidu AI ajoute la possibilité de combiner plusieurs images de référence pour générer une composition globale. Les personnages, décors et accessoires restent alignés avec précision, tout en permettant la transformation d’images fixes en vidéos transparentes en un clic. Cette technologie cible des usages variés, allant de la publicité au cinéma en passant par l’animation. Une avancée qui démontre la capacité d’acteurs moins médiatisés à proposer des innovations solides.
🔹 Runway : compositing IA avec Aleph
Runway avait publié un guide sur l’intégration d’Aleph dans les workflows de montage vidéo. Dans ce nouveau volet, le processus consiste à sélectionner une zone précise dans une plaque haute résolution, générer via IA, puis réintégrer le résultat dans la timeline avec possibilité de mise à l’échelle et d’ajouts sonores. Ce flux de travail permet de mélanger prises réelles et contenus générés avec plus de rapidité et de contrôle, sans sacrifier la qualité cinématographique attendue en postproduction.
🔹 OpenAI : Critterz, premier long-métrage IA à Cannes
Critterz, film d’animation généré avec GPT-5 et DALL·E, sera présenté à Cannes avant une sortie mondiale en 2026. Avec un budget de 30 M$ (contre 150/200 M$ pour un film Pixar) et une production en un temps record de 9 mois, le projet interroge sur le droits d’auteur, la rémunération et l’avenir du cinéma IA.
🔹 Minimax Music 1.5 et une génération musicale contrôlée
Avec Music 1.5, Minimax propose des morceaux complets jusqu’à 4 minutes avec contrôle du style, de l’émotion et de la scène via texte. Le modèle gère voix chantées naturelles, différents tons, instruments traditionnels et arrangements détaillés. Il offre une structuration claire couplet/refrain et une expressivité vocale assez proche d’une performance humaine.
🔹 Adobe adopte Nano Banana !
Adobe continue d’accélérer sur l’IA en intégrant de + en % de modèles tiers. Cette fois ci c’est Nano Banana et c’est l’évangéliste Adobe Kris Kashtanova qui nous partage cette bonne nouvelle!
Avis de Caro : intégré nativement dans Photoshop, plus besoin du plugin qu’on se partageait tous depuis la sortie de Gemini Flash 2.5 !
🔹 Captions devient Mirage
L’application Captions change de nom pour devenir Mirage et adopte une orientation vers la recherche en modèles multimodaux appliqués à la vidéo courte (TikTok, Reels, Shorts). La plateforme intègre des avatars IA avec expressions réalistes, génère des vidéos à partir d’audio ou selfie… Mise de départ à 49$ le 1er mois puis 89$ les suivants.
🔹 Stability AI : lancement de Stable Audio 2.5
Stability AI dévoile Stable Audio 2.5, un modèle pensé pour la production sonore professionnelle. Il génère des morceaux complets de 3 minutes en moins de 2 secondes, avec intro, développement et outro. Le système propose aussi l’inpainting audio pour prolonger ou corriger un extrait existant et un réglage fin permettant de créer des signatures sonores propres à une marque.
🟧 LE COIN OPEN SOURCE
🔸 Le Workflow ComfyUI de la semaine : Qwen-Image InstantX
ComfyUI intègre désormais nativement Qwen-Image InstantX avec support ControlNet, permettant des retouches d’images professionnelles. Les adeptes du local peuvent remplacer des objets, modifier du texte, changer l’arrière-plan ou peindre de nouveaux éléments directement dans leurs flux de travail avec un contrôle local comparable aux méthodes traditionnelles de retouche, mais avec la rapidité et la flexibilité de l’IA générative.
🔸 ByteDance USO : style et sujet unifiés dans ComfyUI
ComfyUI intègre aussi désormais USO (Unified Style-Subject Optimized), un modèle open-source de ByteDance construit sur Flux.1. Il combine transfert de style et cohérence de sujet dans un seul cadre : on peut placer un personnage dans une nouvelle scène sans perdre son identité, appliquer un style artistique précis, ou fusionner les deux. Les utilisateurs peuvent aussi contrôler la mise en page et mélanger plusieurs styles. L’installation se fait directement via la dernière version de ComfyUI.
🔸 HuMo : génération vidéo centrée sur l’humain & conditionnement multimodal
HuMo est un framework conçu pour créer des vidéos de sujets humains à partir de plusieurs types d’entrées : texte, images et audio. Il permet de générer des vidéos avec synchronisation audio-mouvement, fidélité au sujet (apparence, vêtements, accessoires) et respect des instructions textuelles. Trois modes de génération sont possibles : texte-image, texte-audio, texte-image-audio. Les vidéos produites sont pour l’instant en 480p ou 720p, avec des limites de durée (≈ 97 frames à 25 fps) au-delà desquelles la qualité peut baisser. Le modèle le plus lourd disponible est HuMo-17B. Plus d’info sur Github ici.
🔹 Runway : « Prompted », court-métrage lauréat du concours mondial
Le film Prompted de Ron Baranov figure parmi les 10 gagnants du concours mondial Runway. Réalisé en combinant plusieurs outils IA et traditionnels, l’auteur Ron Baranov souligne que la narration et les choix artistiques priment sur la seule technologie utilisée. Une philosophie qui nous plaît bien !
Son BTS ici :
Cette édition est terminée, merci de l’avoir lue jusqu’ici ! Si elle vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également nous suivre sur LinkedIn (Caroline est par ici) et activer la cloche 🔔, je poste régulièrement sur l’intelligence artificielle générative. Vous pouvez également me contacter pour toute proposition de création, intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditions 👇
















