Veo 3 est enfin là !
Salut les petits clous, tenez bons, on est bientôt en vacances.
En attendant, voici les nouveautés de la semaine, qui sont relatiivement plus calmes que d’habitude. Cela signifie t-il qu’il ne s’est rien passé ?
QUE NENNI !
On vous raconte tout, tout de suite, ou presque, puisque d’abord il faut que je vous parle de la superbe dernière projection du Prompt Club au Théâtre de l’IA à Paris mercredi 2 juillet dernier.
C’était une édition très spéciale puisque nous avions des invités : les américains de Machine Cinema. C’est une plateforme fondée par Minh Do et Fred Grinstein qui explore la création audiovisuelle avec l’IA, de façon collective et expérimentale.
Présente à San Francisco, Los Angeles, Cannes ou SXSW, la communauté organise aussi des Gen Jams. Ce sont des événements “Jam Session” mais version hackathon créatif où l’on co-crée en équipe des mini-films ou clips musicaux à l’aide d’IA génératives. La première session française a lieu cet après-midi au Théâtre de l’IA.
Si ce n'est pas déjà fait, tu peux aussi :
Découvrir mes formations IA pour les créateurs, 100% finançables par le CPF. Les inscriptions se font ici.
Former tes équipes à l'IA générative grâce à nos formations entreprise finançables par ton OPCO
Nous contacter directement pour discuter de ton projet IA générative
Me suivre sur LinkedIn, YouTube ou TikTok pour ne rien rater.
Et c'est parti ! 🚀
🔹VEO 3 dispo Worldwide !
LA grosse nouvelle de la semaine, c’est l’arrivée de Google Veo 3 en Europe ! Google vient en effet d’ouvrir son générateur de vidéos ultra-performant à tous les abonnés de Google AI Pro. Les abonnés à Google AI Pro (21,99/mois) peuvent accéder à Veo 3 Fast, une version allégée du modèle, 5 fois moins chère et qualitativement très proche.
Pour accéder au “vrai” modèle, il faudra souscrire un abonnement Google AI Ultra (275 euros/mois, ouch).
Comment tester Veo 3 ?
Si vous faites partie des abonnés à Google AI Pro, vous pouvez tester Veo 3 en vous rendant dans l’application Gemini (3 générations par tranches de 24h). Une fois dans l’interface de la conversation, cochez l’outil « vidéo » et entrez votre description. Quelques minutes plus tard, Gemini affichera la vidéo générée par Veo 3. La qualité est top, mais tu as beau ajouter “No subtitles” dans ton prompt, ça ne marche pas une fois sur deux à peu près :
En revanche, Google Flow n’est toujours pas dispo en Europe. C’est assez frustrant parce qu’avec Whisk, c’est tout un ecosystème outil s créatif qui s’organise en un véritable workflow qu’on regrette de ne pouvoir tester.
🔹La génération d’images open bar de Freepik
La 2ème bonne nouvelle de la semaine, c’est la génération d’images illimitée chez Freepik. Tous les modèles font partie de cette offre accessible aux comptes Premium + et Pro : Google Imagen 4, Seedream, Chat GPT-4, Kontext… TOUS !
En clair : c’est la teuf.
🔹Higgsfield SOUL… gratuit aussi !
La teuf continue chez Higgsfield, qui ouvre gratuitement l’accès à son nouveau modèle SOUL. On vous en parlait la semaine dernière, plus aucune raison de ne pas le tester. Avec toujours, son rendu très UGC (User Generated Content).
D’ailleurs leur fonction Inpaint est également dispo sur SOUL depuis hier soir !
🔹HeyGen Avatar V4 & mise à jour discrète
HeyGen améliore son Avatar V4 avec une meilleure expressivité, une synchro labiale améliorée, ainsi qu’une meilleure coordination corps/visage. C’est mieux, mais l’amélioration reste subtile, qu’en pensez vous ?
🔹MiniMax Hailuo 02
MiniMax Hailuo 02, dont on vous parlait dès l’édition du 21 juin, est depuis accessible via OpenArt. On vous partage ici une séquence Text-to-video inspirée de Transformers. Le modèle gère plutôt bien les mouvements dynamiques et mécaniques complexes, rares pour ce type d’outil. L’ajout du mode image-to-vidéo pourrait renforcer la cohérence des séquences à l’avenir… Franchement, à la rédaction on trouve ça déjà pas mal !
🔹Dream Recorder : génération de rêves
Dream Recorder, conçu par Modem, transforme une description orale de rêve en vidéo impressionniste en très basse définition. L’appareil enregistre la voix, l’IA génère une séquence floue visible sur son écran intégré. Ce projet mêle design et IA pour explorer mémoire et imaginaire… Le prochain IoT sur vos tables de nuit ?
🔹Popcorn.co
Présentée lors de la soirée Prompt Club & Machine Cinema, cette application de générer facilement de courtes séquences vidéo à partir de vos idées. Simple d’usage et ludique, elle offre une première approche accessible de la création vidéo automatisée, tout en donnant forme à vos concepts. Pour rejoindre la bêta c’est par là.
A gauche l’interface, au centre les différents sections créées par l’app, à droite le résultat généré en moins d’une minute sur téléphone lors de la soirée de projection Prompt Club.
🔹Flora x Hailuo 02 Pro
Et sinon Hailuo 02 Pro, leur meilleur modèle pour les mouvements extrêmes et l’adhérence au prompt, est à présent disponible sur Flora.
🔹 Le new kid de la semaine : Scenario & Image-to-3D
Scenario permet désormais de convertir toute image en modèle 3D texturé en quelques minutes. L’outil propose plusieurs modèles (Hunyuan, Trellis...) et exporte directement vers Blender ou Unity. L’ensemble s’intègre dans une plateforme unique regroupant images, vidéos, matériaux et 3D. Rigging et animation arrivent bientôt.
Avec Gilles, ça nous rappelle les workflows de début 2025 où tout le monde construisait son château fort avec Claude. Pas vous ?
🔹Luma AI sur iOs pour tester à tout moment
Luma Dream Machine est à présent disponible sur iOs. Application dispo par ici.
Pour mettre en application, vous pouvez directement tester ce workflow “Rayon X”, pour transformer une simple vidéo de main en séquence surréaliste. On enregistre un clip sur fond neutre, on le stylise dans n’importe quel générateur d’image qui le permet, puis on réintègre cette image dans Luma Modify pour générer une vidéo avec différents paramètres de réglage. Pas d’excuses, go buddy !
🔹Intégration de Luma Modify
Sinon vous pouvez juste tester le même workflow dans Krea AI ou Weavy depuis sa récente intégration dans ces plateformes. Cela vous permettra d’obtenir des clips de 10 secondes . Souvenez-vous on en parlait il y a 2 semaines ! Pour rappel, il y a 3 modes : « Adhere » (léger), « Flex » (plus créatif et assez équilibré), « Reimagine» (pour une transformation complète). Attention toutefois, l’outil reste limité sur les détails fins (mains, petits objets) et le coût en crédits est élevé.
🔹 Weavy : Hunyuan 3D & logo
Lars Richter combine des logos générés dans Reve avec les outils 3D de Weavy. Après comparaison en terme de lisibilité et rendu, c’est le modèle Hunyuan 3D 2.0 qui s’est révélé le plus fiable pour les logos typographiques découpés selon lui, comparé à Rodin, Trellis, ou Mely. Voici son workflow : inverser l’image (noir/blanc), supprimer l’arrière-plan, transformer en objet 3D. La visualisation sous différents angles permet de tester efficacement la mise en page.
(Note de Caro : les plateformes nodales comme Weavy sont pratiques car elles permettent vraiment d’explorer un workflow complet sans passer d’un outil à l’autre. Le résultat obtenu par Lars est à la fois très propre et vraiment intéressant.)
🔹 Kling AI : lip-sync jusqu’à 60 sec. under control
Kling AI permet désormais de générer des vidéos avec synchronisation labiale jusqu’à 60 secondes avec quelques nouveautés : choix de personnage, timeline ajustable et possibilité de garder l’audio original. On salue l’effort mais faut travailler la qualité du lipsync les gars…
🔹 La polémique de la semaine
L’agence brésilienne DM9 a perdu son Grand Prix aux Cannes Lions International Festival of Creativity pour avoir présenté une vidéo intégrant des scènes générées par IA comme réelles. L’agence a ensuite choisi de retirer deux autres campagnes et leur co-président a démissionné dans la foulée. Depuis, Cannes impose un nouveau cadre éthique pour encadrer l’usage de l’IA sans nuire à la création : divulgation obligatoire de l’IA, retraits publics en cas d’infraction, détection des contenus générés et comité dédié. Rien que ça !
🔹 Topaz Astra
On vous parlait du modèle d’upscaler Astra il y a quelques semaines à sa sortie, Topaz Labs propose de nous en expliquer les nuances entre le Creative Mode et le Precise Mode. Pour faire simple, vous avez le choix entre un upscale classique “à la Topaz” et un upscale “à la Magnific AI”.
Dans les faits, on n’a pas encore eu le temps de le tester de manière extensive mais les premiers essais montrent un lissage excessif des textures, avec une perte de qualité du lipsync, qu’en pensez-vous ?
Vous pouvez également consulter leur démo officielle “très sérieuse” juste ici.
🔹 L’outil open source de la semaine : xMAGREF
MAGREF (Masked Guidance for Any-Reference Video Generation) est l’équivalent d’un Kling Multi-Element, mais en version Open-source. Il permet de contrôler exactement qui apparaît dans vos vidéos à l’aide d’images de référence. Il fonctionne dans ComfyUI et propose 3 modes :
• Identifiant unique : une personne dans plusieurs scènes
• Multi-ID : plusieurs personnes spécifiques ensemble
• ID+Objet+Arrière-plan : contrôle total de la scène
Plus d’infos par ici sur Github.
Conseils pour un meilleur résultat : des photos nettes et claires avec une luminosité similaires pour un résultat homogène et des prompts simples.
🔹Mais aussi… OmniAvatar de Alibaba, avatars IA pilotés par la voix
Alibaba dévoile OmniAvatar, un modèle générant des avatars animés avec mouvements corporels complets, expressions contrôlées et synchronisation labiale précise guidés par le fichier audio d’origine. L’animation repose sur un mix audio multi-couches et LoRA.
Lien Github également par ici.
🔹 Et un autre pour la route : EX-4D (Bytedance)
EX-4D transforme une vidéo 2D en séquence 4D (3D + temps) contrôlable. L’IA reconstruit un mesh 3D complet, même dans les zones invisibles, simule des vues latérales pour générer ses propres données d'entraînement et enfin, utilise un module LoRA pour guider la génération avec cohérence spatiale et temporelle. Dit comme ça, ça peut paraître compliqué, mais retenez simplement qu’il n’y aucun besoin de caméras multiples ou de dataset complexe.
Merci au camarade Stéphane Parsoire pour ce nouveau partage.
🔹FLUX.1 Kontext [dev] : édition avancée dans ComfyUI
Black Forest Labs lance une version open-source de FLUX.1 Kontext, intégrée à ComfyUI. Ce modèle diffusion (12B) est optimisé pour GPU NVIDIA avec de meilleures performances permet l’édition multi-étapes avec cohérence de style, suppression d’objets et références croisées. Optimisé pour GPU NVIDIA, il offre des performances rapides.
🔹 Configurateur auto 3D piloté par Unreal Engine & Gemini
Le designer Nils Bakkerdévoile un configurateur auto 3D où l’on échange avec l’interface au lieu de cliquer. Reliant Unreal Engine à l’IA Gemini, l’outil adapte le véhicule à votre mode de vie : « J’ai un dinosaure de compagnie et j’aime l’Asie ! » (toute ressemblance avec Gilles n’est pas fortuite) → la voiture s’adapte. L’IA peut aussi capturer une image personnalisée de la scène et l’envoyer sur votre téléphone. Pour en savoir plus sur les explorations de Nils, c’est ici !
🔹 Comparatif de la semaine : 2023 vs 2025
Même scène et chorégraphie, mais une précision de mouvement et détails nettement supérieure aujourd’hui, avec un vrai rendu 3D. L’auteur, James Gerde, souligne l’écart « massif » entre les versions, révélateur des avancées rapides sur ces 2 dernières années.
🔹 Le Clip Veo de Max Joseph
Le réalisateur/monteur Max Joseph a utilisé Google Veo pour créer un clip généré sur le titre "A Certain Romance" des Arctic Monkeys, qui lui a demandé 250 heures de montage. Max témoigne : “J’ai toujours rêvé de faire ce clip sur l’amour, la vie et les relations et je l’ai finalement fait la semaine dernière en utilisant l’IA”.
On vous laisse apprécier la qualité du travail :
🔹 Untold, The Immortal Blades Saga : série annoncée pour 2026
Après 8 ans de travail, Kavan Cardosa, alias Kavan the Kid, dévoile sa bande-annonce concept d’Untold. Ce projet personnel, dont la saison 1 est prévue pour 2026, est centré sur un univers fantasy original. On sent une diversité d’inspiration Dune / Lord of The Rings / Final Fantasy.
Techniquement, ça envoie du très lourd et commence à dessiner les contours d’une nouvelle forme de cinéma… généré.
Cette édition est terminée, merci de l’avoir lue jusqu’ici ! Si elle vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également me suivre sur LinkedIn et activer la cloche 🔔, je poste régulièrement sur l’intelligence artificielle générative. Vous pouvez également me contacter pour toute proposition de création, intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditions 👇