Sora 2 again and again... et Veo 3 ?
Salut les forçats du pédalo !
Ouais, on pédale dur dans l’IA générative et ça n’avance pas toujours très vite.
Cette semaine a été placée sous le raz de marée Sora 2.
Le nouveau modèle d’OpenAI est partout, à la faveur de la diffusion de son API.
Mais Google s’apprête à répliquer avec Veo 3.1.
Et dans le même temps, de nouveaux modèles sortent.
D’autres s’updatent.
Bref, c’est le chaos.
Comme chaque semaine.
On vous explique tout.
Let’s go !
Si vous êtes nouveau par ici, je suis Gilles Guerraz, réalisateur publicitaire devenu expert en outils créatifs GEN AI. Avec Caroline Thireaux (Creative Technologist et Mascotte Officielle), nous te proposons une plongée hebdomadaire dans la marmite bouillonnante de l’actualité de l’IA générative !
Si on t’a transféré cette lettre, abonne-toi en un clic ici.
P.S. Après la publication de la dernière édition, certains lecteurs nous ont remercié de notre honnêteté et notre transparence. Avec Caro, on dit toujours ce qu’on pense réellement et on est ravis que cela vous plaise.
Si ce n'est pas déjà fait, tu peux aussi :
Découvrir mes formations IA pour les créateurs, 100% finançables par le CPF. Les inscriptions se font ici.
Former tes équipes à l'IA générative grâce à nos formations entreprise finançables par ton OPCO
Nous contacter directement pour discuter de ton projet IA générative
Me suivre sur LinkedIn, YouTube ou TikTok pour ne rien rater.
Ma prochaine session de formation CPF aura lieu à Paris les 16 et 17 octobre prochains !
Si tu es salarié.e ou indépendant.e, et que tu souhaites monter en compétence sur la génération d’images et de vidéo, tu es le/la bienvenue.e !
La session est 100% finançable par le CPF. Les inscriptions se font ici.
Et c'est parti ! 🚀
🔹 Sora 2 everywhere
OpenAI a publié l’API de Sora 2.
Du coup, c’est disponible à peu près partout. Et à certains endroits en illimité. Sans watermarks. Je vous laisse visualiser mentalement le raz de marée qui s’annonce .
Sora 2 est dispo chez Freepik, Invideo, Higgsfield, Krea.ai (en illimité avec les forfaits les plus chers), sur fal.ai et replicate (10 centimes la seconde) et tout ça sans watermark.
Plus je vois passer des vidéos virales générées, plus je me dis “TikTok c’est terminé”.
Plus je vois passer des fausses pubs pas si mal fagotées, plus je me dis que le marché de la pub low cost est bientôt mort.
Et en même temps, j’ai aussi peu de certitudes là-dessus que de temps disponible pour tester tout ce qui sort chaque semaine. Mais quelque part, on a le sentiment que la hype n’a jamais été aussi forte que maintenant. Et qu’il n’y a jamais eu autant de questions en suspens.
Par rapport à la semaine dernière, Open AI a augmenté les restrictions. Il est désormais de plus en plus difficile de générer des personnages connus ou des œuvres protégées. C’est à se demander pourquoi ils n’ont pas mis ses restrictions en place avant la sortie de l’outil plutôt que maintenant, avec toutes les polémiques suscitées dans l’intervalle.
Toujours est-il qu’on peut néanmoins faire des choses non autorisées comme ces messages publicitaires de notre ami Nicolas Guyon que nous remercions pour son enthousiasme.
On en profite pour saluer la newsletter de Nicolas, que nous vous invitions à découvrir ICI
🔹 Sora 2 est VRAIMENT partout…
HeyGen intègre Sora 2 pour optimiser la génération de vidéos au sein de l’app.. L’usage vise la narration, la formation et les vidéos explicatives, le tout depuis la même interface.
Sora 2 est également bien arrivé dans Weavy, Morphic, Veed.IO, ImagineArt… Caro se demande si les générations sont moins bonnes via les API par rapport à sora.com. Et vous ?
Allez, on est sympas, on vous partage un peu du raz de marée :
Mais aussi dans Comfy Ui :
🔷 DU CÔTÉ DES SAAS & DES PLATEFORMES
🔹 Badaboum ! Voilà Veo 3.1 !
A peine une semaine après la sortie de Sora 2, Google réagit et annonce Veo 3.1. Cette nouvelle version allonge la durée des vidéos jusqu’à… 1 minute !
On nous promet également la cohérence des personnages entre les plans, une définition 1080p native avec des “préréglages cinéma” pour un rendu plus pro. La fonction multi-prompt devrait permettre de générer plusieurs séquences reliées dans une même narration en reposant sur une image de référence et/ou un texte de scénario pour créer des séquences vidéos déjà montées et sonorisées.
Et encore une fois, Higgsfield AI prépare déjà la sortie de ce nouveau modèle qui promet , outre des durées plus longues et une synchro audio automatique (voix, effets, lèvres), une génération plus rapide.
🔹 Opera Neon génère directement depuis le navigateur
Opera Neon, le navigateur agentique d’Opera, peut également générer des vidéos IA directement depuis le navigateur grâce à l’intégration de Sora 2. Il vous suffit de saisir un prompt pour créer une vidéo partageable en ligne et le moteur choisit automatiquement le modèle IA le plus adapté, issu d’OpenAI ou de Google. Aucune info pour l’instant sur le coût ou les limites d’usage.
🔹 Faut il être gaga de GAGA-1 ?
GAGA-1 combine voix et image dans un même modèle pour créer un acteur virtuel unique. L’outil génère des performances avec émotions réalistes, synchronisation audio-vidéo instantanée et prise en charge multilingue.
🔹 xAI & Imagine v0.9
xAI publie Imagine v0.9, une version améliorée de son modèle vidéo. Les mouvements sont plus précis, les effets de caméra mieux gérés et l’audio natif est désormais intégré avec synchronisation labiale et chant expressif. Le modèle produit des séquences complètes sans montage, disponibles gratuitement sur Grok Imagine.
🔹 Grok upgrade la vidéo
Cette video de Julie Wieland nous montre justement les nets progrès de la dernière version de Grok Video. Les plans sont plus stables, les visages restent cohérents et les textures conservent leur détail.
🔹 LTX Studio et sa fonction multi-références
LTX Studio permet désormais d’utiliser plusieurs références d’image pour modifier un personnage. On peut changer une tenue, ajouter ou retirer un accessoire puis ajuster le rendu dans Nano Banana : couleur, matière ou style. Le système garde la cohérence du visage et de la posture entre les versions.
🔹 AI Keyframe Generator dans After Effects
La petite nouveauté qui réjouit Caro côté Adobe, et après les annonces de Tether dont on vous parlait la semaine dernière, c’est aussi “Extension” qui permet de générer, modifier ou de faire de l’inpaint d’image directement dans la timeline d’After Effects en évitant les allers-retours avec Photoshop. Compatible avec plusieurs modèles IA et l’API Replicate, elle conserve les réglages de composition et les masques selon Eric Day.
🔹 Adobe Premiere Mobile
Et l’autre nouveauté Adobe, c’est Premiere qui arrive sur mobile avec les fonctions de montage habituelles et des outils IA intégrés. L’app permet de générer des vidéos, images et sons directement depuis le téléphone. L’interface reste simple pour monter, couper et exporter rapidement. Disponible maintenant sur iOS et Android, ici.
🔹 D’ailleurs Krea AI est aussi sur mobile…
Via leur application iOS. Lien par ici.
Tips de Caro : attention aux applis aux noms très similaires… On avait connu ce problème avec Seedance sur l’été, ici scrollez un petit peu et évitez les faux logos !!
🔹 Pika fait de la prédiction
Pika ajoute Predictive Video, une fonction qui génère automatiquement un clip complet à partir d’une simple idée écrite. L’outil crée scénario, son, lumière et animation sans prompt complexe. Le processus est entièrement automatisé sur iOS, ouvert à tous sans code d’accès. Lien ici.
On vous partage ici l’excellente video tuto de Jerrod Lew :
🔹 Arcads AI – modèle vidéo de déballage
Arcads AI lance un générateur vidéo capable de créer un déballage complet à partir d’une seule photo de produit. L’IA ajoute mouvements, éclairage et angles de caméra variés pour générer une publicité uniquement à partir de votre produit. Conçu pour l’e-commerce et les campagnes sociales, avec choix d’arrière-plans dynamiques et rendu en quelques secondes.
Avis de Caro : si cet outil génératif semble intéressant pour produire du contenu sponsorisé côté influenceurs social media, la grille des tarifs reste assez élevée (1 vidéo revient à 10$).
🔹 Sync Labs : multi-segment lip-sync
Sync Labs ajoute la synchronisation labiale multi-segments. Une seule requête API suffit désormais pour appliquer plusieurs pistes audio sur différentes parties d’une même vidéo. Le système garde la cohérence du mouvement et du son sans montage séparé. Il semble loin le binôme anglo-saxon de NotebookLM !
🔹 Mosaic : éditeur vidéo IA multi-intégrations
Mosaic est un agent IA dédié au montage vidéo. Il transforme des instructions en langage naturel en actions concrètes sur la timeline : couper, ajouter des sous-titres ou changer le format. Son interface en “tiles” permet de construire un pipeline d’édition automatisé. L’outil réduit considérablement le temps de montage pour les contenus courts ou localisés. Quelques ajustements manuels restent nécessaires pour le rythme ou la cohérence visuelle.
Une découverte du camarade Rémi Rostan cette semaine.
🔹 Moonlake AI & création de mondes interactifs
Moonlake AI, fondée par d’anciens ingénieurs de Roblox, Unity et Nvidia, permet de générer des jeux et simulations 2D/3D à partir de texte. Le système crée terrains, personnages et mécaniques en temps réel.
🔹 Ray 3 est toujours là
Alors que tous les regards sont braqué sur Sora 2, les concurrents peinent à exister dans l’espace médiatique. LumaLabs se démène cependant, multipliant les publications avec des vidéos d’une qualité et d’un réalisme assez impressionnants.
🔹 Topaz Labs Bloom & sa fonction Face Preserve
Chez Topaz Labs, Face Preserve a été ajouté à Bloom. C’est une option qui garde les détails du visage même dans les plans larges. Les traits restent nets et cohérents sans dérive de couleur, un défaut fréquent corrigé ici. Le rendu global gagne en stabilité, surtout sur les portraits et séquences vidéo retouchées.
🔹 VEED & son modèle vidéo “Emotions”
VEED.IO lance Emotions, un modèle de vidéo parlante IA plus expressif. Les visages affichent des émotions plus crédibles et des mouvements faciaux mieux synchronisés avec la voix. L’objectif : rendre les avatars plus naturels pour les présentations ou contenus sociaux. Une offre de 200 crédits est proposée aux 150 premiers utilisateurs.
🔹 Boba AI Labs : Anime 1.4
Boba AI Labs (aucun rapport avec le Duc de Boulogne) publie Anime 1.4, une mise à jour qui rend les animations plus fluides et les dialogues mieux synchronisés. Les personnages restent cohérents entre les scènes, et la génération atteint 720p sur des clips de 5 à 8 secondes (1080p à venir). Deux rendus peuvent être lancés en parallèle pour tester plus vite les variations.
🔹 James Cameron a quelque chose à nous dire sur l’IA
Et quand James parle, on l’écoute :
🔹 Sora 2 vs Veo 3 vs Wan 2.5 vs Kling 2.5
Les comparatifs entre Sora 2 “et les autres” commencent à pleuvoir. En voici un de Tianyu Xu. Sora 2 d’OpenAI se distingue par ses scènes animées, ses plans sportifs et sa gestion multi-caméras. Veo 3 de Google reste solide si les invites sont bien rédigées. Wan 2.5 et Kling 2.5 offrent des rendus corrects selon les usages. Aucun ne domine : chacun a ses forces selon le visuel de départ, le style et le flux de travail.
🔶 CÔTÉ OPEN SOURCE
🔸 ComfyUI 0.3.63 : sous-graphes et refonte de la boîte à outils
La version 0.3.63 de ComfyUI introduit la publication de sous-graphes : tout fragment de workflow peut être enregistré et réutilisé comme un nœud complet dans la bibliothèque. La boîte à outils de sélection a aussi été repensée avec une interface plus claire et un menu extensible. Ces ajouts rendent les flux plus modulaires, rapides à adapter et mieux organisés.
🔸 Morpheus & NanoBanana Mask (version light)
La nouvelle version gratuite du Morpheus de Sergio Valsecchi pour ComfyUI est un flux léger qui permet de créer un masque sur une zone précise d’une image et de la modifier avec un prompt grâce à Gemini 2.5 et l’API NanoBanana. L’édition reste locale, utile pour retoucher peau, cheveux ou accessoires sans régénérer toute la scène. Moins de charge système, meilleure cohérence visuelle. Lien par ici : Morpheus light version.
🔸 Character.AI : OVI (Open Video Intelligence)
Tout dernier sorti, c’est OVI de Character.AI. Pas le plus quali, mais très rapide à générer (moins d’une minute pour 5 secondes en 512p) et très économe (0.20 $ la vidéo, soit moins qu’une image Nano Banana). Et avec du son s’il vous plaît ! Il produit des clips 720×720 à 24 fps avec voix, effets et synchro labiale intégrée, sans post-production. Une architecture jumelle qui relie en temps réel les flux audio et vidéo !
🔸 Fal et lancement de Sandbox
Fal AI lance Sandbox, un espace de test qui permet d’exécuter la même requête sur plusieurs modèles en parallèle. Les utilisateurs peuvent comparer vitesse, qualité et coût directement depuis la plateforme, sans configuration supplémentaire. Un outil pensé pour évaluer rapidement les performances de centaines de modèles IA.
🔹 Spike Jonze se met à l’IA
Le dernier travail de Sam Finn pour THE TIGER. Un court-métrage de Spike Jonze et Halina Reijn, présenté par Gucci, qui même IA avec beucoup de prises de vue réelle.
Cette édition est terminée, merci de l’avoir lue jusqu’ici ! Si elle vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également me suivre sur LinkedIn (Caroline est par ici) et activer la cloche 🔔, je poste régulièrement sur l’intelligence artificielle générative. Vous pouvez également me contacter pour toute proposition de création, intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditionsons 👇










