Bye bye Sora, bonjour Seedance
Salut les prompteurs orphelins (oui, ceux qui avaient encore un abo Sora hier matin), bienvenue dans cette nouvelle édition de GENERATIVE.
OpenAI a tué Sora. Comme ça, un mardi, sans prévenir. Deux ans d’existence, un deal Disney à 1 milliard annulé dans la foulée, et un communiqué qui tient en deux phrases. Les équipes Disney bossaient encore avec OpenAI 30 minutes avant l’annonce. Ambiance.
Pendant ce temps, ByteDance a lâché dans la nature Seedance 2.0 : A l’heure où nous rédigeons ces lignes, il devrait être dispo sur les plateformes Dreamina et Capcut, toutes deux propriété de Bytedance.
Bref, le buzz vidéo IA change de continent (en attendant Veo 4) et comme chaque semaine, beaucoup (trop) d’autres news viennent compléter l’actualité, on vous raconte tout ça tout de suite.
Let’s go !
Si tu es nouveau par ici, je suis Gilles Guerraz, réalisateur publicitaire devenu expert en outils créatifs GEN AI. J’ai fondé NEXTREND, organisme de formation spécialisé en outils créa IA et BANGGER, société de production audiovisuelle IA et hybride.
Avec Caroline Thireau (AI Creative Technologist), nous te proposons une plongée hebdomadaire dans la marmite bouillonnante de l’actualité de l’IA générative !
Si on t’a transféré cette lettre, abonne-toi en un clic ici.
Ma prochaine session de formation CPF aura lieu à Paris les 2 et 3 avril prochains !
Si ce n'est pas déjà fait, tu peux aussi :
Découvrir mes formations IA pour les créateurs, 100% finançables par le CPF. Les inscriptions se font ici.
Former tes équipes à l'IA générative grâce à nos formations entreprise finançables par ton OPCO
Nous contacter directement pour discuter de ton projet IA générative
Me suivre sur LinkedIn, YouTube ou TikTok pour ne rien rater.
Et c'est parti ! 🚀
🔷 Seedance sort ENFIN pour le grand public !
Cette semaine, Seedance 2.0 commence son déploiement :
🔹 Dreamina déploie Seedance 2.0 sur sa plateforme avec l’ensemble des fonctions phares mises en avant : cohérence entre les plans, contrôle via références multiples, gestion du lip-sync, micro-expressions et couches sonores synchronisées.
🔹 Le modèle est aussi intégré à CapCut, avec un déploiement progressif selon les régions. Le modèle est disponible dans Video Studio sur le web avec omni reference, dans AI Video sur desktop pour le text-to-video et image-to-video, et enfin sur mobile via AI Lab, AI Generator et AI Video. CapCut précise que le déploiement reste progressif selon les régions et les comptes.
Note de Caro : les options se sont étoffées depuis la beta accessible depuis février aux creative partners. CapCut commence à devenir un bel éventail d’options IA avec son avantage d’intégration direct en edit.
Note de Gilles : Polémique sur les internets, certains early users se plaignent d’une baisse de la qualité des génération depuis la sortie officielle. Affaire à suivre !
🔹 En parallèle, Vadoo AI annonce un accès global à la gamme Seedance 2.0 Lite, Pro et Edit, avec génération à partir de texte, image et vidéo.
🔹 Seedance 2.0 est aussi disponible en nodal sur Martini.Art, qui propose un plan gratuit avec 200 crédits et l’accès à ses modèles via son éditeur web, soit 2 génération video seedance 2.0 en standard / 5 sec. / 720p). 500 crédits offerts à chaque nouvel abonné. Et du nodal avec un nouveau modèle, il n’en fallait pas plus à Caro pour crashtester en beta :
🔹 Sora, clap de fin
OpenAI annonce l’arrêt de Sora app. Des précisions sur le calendrier, l’API et la conservation des créations doivent encore arriver. Côté développeurs, Sora 2 et la Videos API sont déjà dépréciés, avec un retrait prévu le 24 septembre 2026.
Plusieurs enquêtes citent 10 Milliards de coût de développement, un coût d’exploitation d’environ 15 Millions $ par jour, soit environ 5 Milliards de dollars par an pour Sora/Sora 2, essentiellement en GPU et infra, avec très peu de revenus en face.
Merci à Sam Altman, qui a pris le temps de remercier la rédaction de GENERATIVE dans un communiqué non-officiel :
Même notre cher ami Nicolas Guyon ne s’en remet pas :
Et puisqu’on parle de Nicolas Guyon, nous avons le plaisir de vous annoncer que Gilles a participé à l’incontournable podcast “Comptoir IA”, une référence en francophonie. L’épisode est sorti la semaine dernière !
Dispo sur toutes vos plateformes de podcasts, ainsi que sur YouTube (ne vous fiez pas au titre, les 45mn font référence à mon avant dernière vidéo de promo pour ma formation CPF (celle avec l’astronaute). Pour mon dernier court-métrage, il m’a fallu 60 heures)
🔹 Topaz Starlight Precise 2.5
Topaz lance Starlight Precise 2.5, une mise à jour de son modèle d’upscaling vidéo. Objectif + de réalisme, moins d’artefacts, et en 4K s’il vous plait. L’accès est annoncé dans Astra, ainsi que via HeyGen, Higgsfield AI et ComfyUI.
🔹 Runway Multi-Shot App
Runway lance Multi-Shot App qui permet de faire du montage directement dans le prompt. Dialogues et effets sonores sont également de la partie. Il fonctionne en text-to-video ou à partir d’une image. Disponible sur le web, dans la section App.
Runway ouvre aussi les candidatures de son AI Festival 2026 jusqu’au 20 avril 2026. Plus d’infos par ici pour participer : Runway AIF 2026
🔹 Luma Uni-1
Uni-1 de Luma est lun nouveau modèle agentique qui fonctionne avec une architecture basé sur le raisonnement.
Sorte de Bano Banana à la sauce Luma, uni-1 permet de générer et modifier jusqu’à 9 images de référence, contrôler par seed pour itérer, décliner en 9 formats d’image et conserver la composition d’un visuel source. Luma met aussi en avant son raisonnement spatial et sa gestion de consignes complexes. Les rendus sont encore disparates : parfois un effet wow, à d’autres moments besoin d’itérer plusieurs fois.
Tests de Gilles : qualité inégale d’une génération à l’autre mais souvent très intéressante
Tests de Caro ici :
Note de Caro : loin des systèmes nodaux que j’affectionne tout particulièrement, je me suis laissée prêter au jeu de l’échange conversationnel avec les Agents Luma. J’ai aussi apprécié le canevas façon white board pour pouvoir comparer les rendus et voir l’ensemble du cheminement créatif. Un bon outil d’idéation selon moi.
🔹 Freepik Relight
Relight est un nouvel outil de Freepik pour ajuster direction, intensité, température, couleur et direction de la lumière sur des images et vidéos. Il peut aussi reproduire l’éclairage d’une image de référence et appliquer des presets modifiables.
🔹 Freepik 3D Scenes
Freepik, toujours, déploie 3D Scenes qui permet de construire un environnement 3D, d’y placer objets et personnages, puis de déplacer la caméra comme sur un plateau photo virtuel. L’outil peut partir d’un preset, d’une image, d’un objet 3D, d’un panorama Street View ou d’une scène vide avec une certaine cohérence de rendu sur les différents angles de vue.
Avis de Caro : à défaut d’annoncer Seedance 2.0, la suite AI sort quelques features utiles.
🔹Lovart Move Object
On parlait d’eux déjà la semaine dernière, Lovart ajoute Move Object, sa fonction d’édition pour sélectionner un objet avec la sélection ou l’outil lasso et le repositionner ailleurs dans l’image. On peut compléter les instructions avec un prompt pour modifier au cours de l’opération.
Avis de Caro : Un bon moyent de faire de la composition dans une seule image cohérente, sans workflow à base de masques, calques ou rerolls. Un bon outil à suivre côté design selon moi.
🔹Pika AI Selves
Pika reste sur son créneau tout en ouvrant l’accès de AI Selves au public. En créant son double agentique à partir d’un selfie, d’un enregistrement vocal et de quelques éléments sur la manière de penser et d’écrire, il est possible de le faire parler, publier, mémoriser à votre place. Cette feature s’adapte à plusieurs réseaux sociaux.
Avis de Caro : troublante cette ressemblance avec un certain personnage… #spiderverse
Avis de Gilles : grand rival de Runway en 2024, Pika reste focus sur le social content.
🔹VEED Fabric API
VEED met en avant Fabric 1.0 API, son modèle de talking video à partir d’une image et d’un audio. Les upgrades : vidéos jusqu’à 5 minutes, génération jusqu’en 480p à partir de 0,08 $/seconde, lip-sync, rendu présenté comme plus réaliste. A vous de juger ici :
En parallèle, petit teaser sur l’arrivée prochaine des Dynamic Subtitles API : waitlist disponible sur demande auprès de leur compte linkedin.
🔹 Recraft Exploration Mode
Recraft, que Caro aime tout particulièrement, met en avant Exploration Mode dans Recraft Studio, une option liée à leur V4 qui génère 8 variations à partir d’un seul prompt pour explorer plusieurs directions créatives, avec plus de liberté d’interprétation que le mode standard.
En parallèle, son plugin Framer permet de générer et éditer directement dans l’éditeur des images raster, vecteurs éditables, illustrations, icônes et logos pour des sites web.
🔹 Higgsfield Chat
Higgsfield lance Chat, un espace social intégré à sa plateforme de création. Les fonctions mises en avant : projets partagés, tchat, salons vocaux, vidéo, publication en privé ou public et possibilité de rejoindre les projets publics d’autres créateurs pour voir la génération de contenu en direct. Un positionnement d’outil de collaboration natif, plus proche d’un studio social que d’une messagerie classique.
🔹 Reve Annotate Anything
Reve met en avant Annotate Anything. Vous pouvez modifier une image en dessinant ou en pointant directement les zones à changer. Trois outils sont proposés :
- Spotlight pour cibler une zone
- Draw pour esquisser un objet à ajouter
- Select pour saisir un élément existant afin de le déplacer, redimensionner, remplacer ou supprimer.
Il est aussi possible d’ajouter des objets par collage.
🔹 Leonardo et video frames vidéo en full resolution
Leonardo ajoute la possibilité de sauvegarder des frames vidéo en pleine résolution directement dans les uploads. Ces images peuvent ensuite servir de reference images ou de start frames pour prolonger une scène avec plus de continuité visuelle.
🔹 CapCut Video Studio
CapCut lance Video Studio, un espace web qui remplace la timeline classique par un canvas illimité. L’outil combine écriture assistée, storyboard, génération d’images et de vidéos avec références, puis édition dans le même environnement. non négligeable avec l’arrivée de Dreamina Seedance 2.0 dans ses outils.
🔹 Kling AI Team Plan
On vous voit les Team Kling. Le Team Plan est une offre pensée pour vous et le travail en groupe. Les fonctions mises en avant : collaboration jusqu’à 15 membres, assets partagés dans un même workspace, gestion d’équipe et cadre annoncé comme adapté à un usage commercial. Disponible sur desktop app et web.
Suno V5.5
Arrivée fraîchement ce jeudi, Suno V5.5 est une mise à jour centrée sur la personnalisation. Les nouveautés sont “Voices” pour créer avec sa propre voix, “Custom Models” pour adapter le modèle à son style à partir de morceaux importés et “My Taste”, qui ajuste les générations selon les préférences de l’utilisateur. Suno parle de la V 5.5 comme son modèle le plus expressif à ce jour.
🔶 CÔTÉ OPEN SOURCE
🔸 daVinci-MagiHuman
daVinci-MagiHuman est un modèle open source 15B conçu pour générer des vidéos de personnes avec le son associé. En clair, il peut comprendre texte, image, vidéo et audio dans un seul système, avec des consignes dans 6 langues. Côté performances, il produit 5 secondes en 1080p en 38,4 secondes sur un H100, avec aussi une version plus légère et plus rapide en 256p. Plus d’infos par ici sur Huggingface.
🔸 Workflow clothes swap avec Flux.2 [klein] 4B + LanPaint
Ce workflow associe FLUX.2 [klein] 4B et LanPaint pour changer une tenue à partir d’une photo, d’une image du vêtement et d’une consigne texte. L’idée est de remplacer les vêtements en gardant le visage, la pose et le décor stables, avec une intégration plus propre sur les contours. Le modèle est pensé pour la génération et l’édition d’image, mais il reste moins adapté aux tissus très fins ou très détaillés. Démo ici via une app de Floyo.
🔹 Keep Running
La pépite de la semaine, c’est “Keep running” un court métrage full IA très bien écrit/réalisé/monté/post produit, qui évoque “Trainspotting” de Danny Boyle, avec quelques twists habiles (et justifiés par l’utilisation de l’IA Gen) que je vous laisse découvrir :
Cette édition est terminée, merci de l’avoir lue jusqu’ici ! Si elle vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également me suivre sur LinkedIn (Caroline est par ici) et activer la cloche 🔔, je poste régulièrement sur l’intelligence artificielle générative. Vous pouvez également me contacter pour toute proposition de création, intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditionsons 👇










