Comme une tartine de confiture
Salut les androïdes, les cyborgs, les hybrides et les humanoïdes, bienvenue dans cette 96e édition de GENERATIVE, la newsletter qui vous tient informés de l’actualité des outils créatifs d’IA générative.
Comme chaque semaine, votre grosse tartine dégoulinante de news vous attend, merci à Caroline Thireau de m’aider à étaler la confiture.
Et comme on n’est pas là pour plaisanter, on a demandé à Sora et à Veo 2 de vous montrer un petit Behind The Scenes de comment ça se passe au bureau.
Ça rigole pas.
Sans plus attendre, let’s go !
🔹 Les nouveaux effets Pikadditions de Pika by Caro
Avec une intro pareille de Gilles, impossible de résister : à gauche, une video de petit déj générée et mise en musique sur Freepik grâce leur dernière nouveauté audio ; A droite, un visuel de un pot de confiture qui déborde. Ensuite la magie Pika opère…
Verdict de Caro :
Le rendu de la video est plus ou moins réaliste selon la combinaison demandée… (Et oui, ne fait pas du Kling Element qui veut !) Par contre, un point positif : nous avons peut-être trouvé une solution clé en main pour éviter les débordements de news…
La vidéo officielle :
🔹 Hugging Face strikes back
Hugging Face relooke son “Spaces à la manière d’un "App Store" d'IA : un catalogue de plus de 400 000 applications. Les utilisateurs peuvent rechercher instantanément des outils spécialisés comme des éditeurs vidéo avec sous-titres, des générateurs de scripts ou des applications de superposition de logos. Une plateforme hyper intéressante pour découvrir rapidement des solutions d'IA adaptées à chaque besoin.
🔹 Freepik Tunes lance un générateur d’effets sonores par IA
Du coup, effectivement, la nouvelle fonctionnalité de la suite Freepik -qu’on n’arrête plus- simplifie la création d’effets sonores personnalisés pour divers projets. Les utilisateurs peuvent décrire un son, choisir une variation et le télécharger… comme sur Eleven Labs.
Et depuis ce matin, le lip sync fait également son apparition chez Freepik ! Grande bibliothèque disponible de voix en différentes langues, avec des variations comme le '“French parisian” accent, on peut utiliser le texte, le recording ou bien télécharger son propre audio. On a testé vite fait avec une génération Runway, verdict : pas ouf.
🔹 Clap de fin pour Haiper
Le générateur vidéo Haiper a récemment cessé d'offrir ses services de création d'images et de vidéos, ce qui confirme la théorie selon laquelle ce marché ultra compétitif serait déjà saturé. Trop d’acteurs, beaucoup de poids lourds (Hello Google), la lutte est inégale pour les “petits” candidats.
🔹 Event Luxe Intelligence IA
Mon ami Stéphane Gallenni organise le 11 février prochain un événement intitulé Luxe Intelligence IA, dans lequel j’aurai le plaisir d’intervenir. Un évènement qui s’inscrit en marge des débats le 10.2 et le 11.02 lors du Sommet pour l'action sur l'IA à Paris, organisée par L'Élysée, sous la bannière #FrenchTechIA #FrenchTouchIA
Toutes les infos ICI
🔹 Le AI Film Festival 2025 de Runway
Comme de nombreux autres maintenant, le festival AIFF 2025 met en avant des films intégrant l'IA générative. Les 10 finalistes seront projetés à New York et Los Angeles et plus de 60 000 $ de prix en jeu avec des partenaires comme Tribeca, IMAX, Nvidia et Goldman Sachs. Participation possible jusqu'en mars ici : aiff.com.
🔹WAIFF is coming
Puisqu’on parle de festivals IA, j’aurai l’honneur d’intégrer le prestigieux jury du premier World AI Film Festival qui se tiendra les 11 et 12 avril prochains à Nice.
Ce rendez-vous proposera des projections, des rencontres avec des professionnels et une cérémonie de remise de prix. Le Grand Prix du Festival, doté de 10 000 euros, distinguera le meilleur film conçu avec l’I.A. Plus d’infos ICI
🔹2e Session de formation parisienne
Ma session de formation IA les 20 & 21 février est complète. Comme je continue de recevoir des demandes, j’aurai le plaisir d’animer une 2e session sur Paris au mois de mars, ainsi qu’une session à Marseille fin mars ou début avril.
Le programme dure 2 jours avec : 1 jour image IA + workshop, 1 jour vidéo IA + workshop, l’accès à une plateforme e-learning, une certification IA et 30mn de visio individuelle après la formation.
Contactez moi pour plus d’informations.
🔹 Le home staging de Mode Maison
Mode Maison propose d’utiliser l’IA pour transformer une image en scène 3D interactive grâce à un système qui améliore le réalisme et permet de manipuler des objets en temps réel. Ce qui nous rappelle l’isolation d’éléments dans les Pikaffect.
🔹 L’editing de Letz.ai
LetzAI lance l’édition d’images avec l’Inpainting et l’Outpainting. Ces outils permettent d’ajouter ou modifier des éléments sur n’importe quelle image créée avec LetzAI. Les utilisateurs peuvent personnaliser et remixer des images tout en conservant leur historique. Si la plateforme Letz a ses aficionados, ses rendus nous semblent certes très esthétiques mais légèrement en deça de ceux des meilleurs concurrents.
🔹Krea Chat
Krea.ai lance Krea chat, une interface à la chatGPT pour aller plus loin dans le contrôle de vos créations visuelles. Ça vient de sortir, on teste ça dès que possible.
🔹Le podcast Act One & Frames
Runway nous propose de passer au mode podcast en utilisant Frames & Act One.
Est-ce vous pensez qu’on devrait décliner cette newsletter en podcast animé ?
🔹Eleven Labs Studio
Studio, l'éditeur audio de longue durée d’Eleven labs, est désormais accessible à tous (il était initialement réservé aux abonnés payants uniquement). Il propose des outils puissants pour créer des livres audio, voix-off, articles et podcasts. Les utilisateurs gratuits peuvent réaliser trois projets, tandis que les abonnés payants bénéficient d'un nombre illimité.
🔹Hunyuan 3D 2.0 & Blender
Hunyuan3D 2.0 propose un add-on open-source pour Blender qui permet de générer des modèles 3D avec textures à partir de texte ou d’images. L’outil convertit des images en maillages, génère des modèles à partir de descriptions et applique des textures. Gratuit et intégré à Blender, il simplifie complètement la création 3D. Lien ici : Github.
🔹Project Odyssey
On vous parlait de ce concours dans notre précédente édition ici, nous sommes heureux de compter Johannes Vorillon, membre du Prompt Club, parmi les 20 finalistes avec sa vidéo qui met en scène une Aston Martin. Extrait ici :
🔹Trellis-stable-projectorz & 3D
StableProjectorz a été amélioré avec Trellis (dont nous parlions déjà dans l’édition de décembre), un outil qui génère des modèles 3D cohérents à partir d’images ou de texte. Plus qu’une simple retouche de textures, il permet de créer des objets complets et interactifs, idéaux pour les artistes 3D et développeurs.
🔹VcEdit
VcEdit améliore l’édition de 3D Gaussian Splatting en garantissant la cohérence entre les vues. Il corrige les incohérences des modèles 2D avec des modifications plus fluides et réalistes sur les modèles 3D. Lien Github ici : VcEdit.
🔹Riffusion, le challenger audio
Riffusion,une IA musicale gratuite qui génère des morceaux entiers à partir de prompt ou d’audio, avec une grande variété de styles, lance sa version FUZZ-08 en bêta. Petit coup de coeur de Caro sur l’interface très user friendly, qui ne va pas sans rappeler celles de ElevenLabs. Accessible et sans abonnement, elle se positionne comme une alternative de qualité aux solutions payantes pour la création musicale assistée par IA. La preuve en musique avec ce qui aurait pu être le générique de GENERATIVE dans une bonne série des 80s :
🔹Janus-Pro-7B de DeepSeek
Chez Deepseek, ils sont persuadés que leur modèle Janus-Pro-7B surpasse DALL-E 3 et Stable Diffusion en génération d’images. Il est vrai qu’avec 7 milliards de paramètres, ce modèle peut revendiquer des résultats détaillés et stables… ce qui le positionne à minima comme un sérieux concurrent open-source d’OpenAI.
+ d’info sur Hugging Face.
🔹 Ideogram lance Text Tool pour la personnalisation graphique
Ideogram introduit le Text Tool, permettant d’ajouter du texte, de choisir des polices et de modifier les couleurs directement dans Ideogram Canvas. Cette nouvelle fonctionnalité simplifie la création graphique avec plus de flexibilité et de personnalisation.
🔹 Ideogram again avec Describe
La fonction Describe analyse une image et génère une description détaillée, permettant de générer des images dérivées. Disponible pour les abonnés Plus et Pro.
🔹 ByteDance dévoile OmniHuman
La maison mère de TikTok lance donc OmniHuman, un outil capable de générer des vidéos réalistes à partir d’une seule photo. Son entraînement sur un large volume de données lui permet de surpasser les solutions existantes, pour le meilleur… et pour le pire. On en pense quoi de cette intervention d’Einstein ?
🔹 FaceSwap Open Source
VisoMaster est une nouvelle solution open-source de face swapping. Basé sur le code Rope, cet outil permet de remplacer des visages dans des images et vidéos avec une grande qualité. Doté d'une interface simple, il supporte plusieurs formats, utilise l'accélération GPU et offre des modèles personnalisables. Bien que son installation nécessite des compétences techniques, VisoMaster représente une avancée significative dans la manipulation d'images par IA.
Git - https://lnkd.in/dVsAmcGg
Tutorial - https://lnkd.in/d86Cpk3i
Source : Luka Tisler
🔹 MoCapade 3.0 et la capture de mouvement
Meshcapade dont nous parlions dans notre 83e édition dévoile MoCapade 3.0, qui intégre la capture multi-personnes, des gestes détaillés et l'estimation du mouvement de la caméra en 3D. Deux formats d’exports spécifique à la 3D y sont possibles :
• au format .GLB pour faciliter l’intégration des modèles 3D optimisés dans Unreal Engine, Unity, Blender, Fortnite et Roblox ;
• au nouveau format .SMPL pour standardiser la représentation 3D du corps humain pour l’industrie et la recherche.
🔹 DynVFX
DynVFX permet d’ajouter des effets dynamiques aux vidéos existantes avec le maintien d’une certaine cohérence globale en sortie. Cette approche promet d’améliorer l’interactivité et la modifications de contenus videos post génération.
Une innovation qui pourrait redéfinir la manière de faire des effets spéciaux visuels. Merci à AK pour ce partage sur X dans l’attente d’info sur la page Github.
🔹 ChatGPT intègre Finegrain pour l’édition d’images avancée
Finegrain permet désormais d’éditer des images avec ChatGPT juste avec un prompt, offrant un niveau de retouche proche de Photoshop. Cette nouvelle fonctionnalité vise à simplifier l’édition graphique sans logiciel dédié.
🔸Quelques grammes de finesse…
De l’artiste Techhalla sur X
La pépite de la semaine est ce court métrage de SF réalisé par Nik Kleverov, qui explique avoir utilisé l’IA pour développer une idée narrative qu’il trainait depuis longtemps : un avenir où les artistes peignent des souvenirs humains pour que les androïdes se sentent vivants.
Au total, c’est une dizaine de personnes et presque autant d’outils Ia qui ont été sollicités, parmi lesquels Flux Dev (avec un custom LoRa), Midjourney, Magnific AI, Hailuo/Minimax, Kling, Sora, Runway (pour les ralentis), Topaz, Photoshop, After Effects, Premiere, TouchDesigner (pour les séquences de souvenirs et les titres de fin), Udio et ElevenLabs.
Cette édition est terminée, merci de l’avoir lue jusqu’ici ! Si elle vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également me suivre sur LinkedIn et activer la cloche 🔔, je poste régulièrement sur l’intelligence artificielle générative. Vous pouvez également me contacter pour toute proposition de création, intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Merci d'avoir lu Generative ! Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditions 👇