Salut les prompteurs vidéophiles, et bienvenue dans cette nouvelle édition de GENERATIVE, la newsletter spécialisée dans les outils créatifs d’intelligence artificielle générative.
Je commence avec des excuses pour le retard dans la parution. Je viens de vivre ma semaine professionnelle la plus intense depuis mon entrée dans la vie active. Je vous raconte plus bas.
Cette semaine, on ne parle (presque) que de Gen-3, le nouveau générateur de vidéo de Runway, leader sur ce marché depuis la sortie de Gen-2 en avril 2023 (il y a une éternité).
Vous le savez depuis plusieurs semaines désormais, le secteur de la génération de vidéo IA connait une évolution spectaculaire actuellement. Pour résumer grossièrement, nous sommes en train de passer de l’animation à la quasi-vidéo.
Je vous en dis plus dans cette nouvelle édition de :
Sommaire
1. Des news et encore des news
2. Ma semaine de dingue
3. Dossier Runway Gen-3 : le turning point
4. Et toi, tu fais quoi avec l’IA ? Des explorateurs de Gen-3 partagent leur retour d’expérience
5. Bonus Track 1 & 2
Les news de la semaine
Figma IA
Figma, l'outil de design collaboratif, prévoit d'intégrer l'intelligence artificielle de manière extensive dans sa plateforme. La mise à jour prochaine inclura des fonctionnalités IA pour faciliter le processus de conception grâce à des suggestions automatiques, des corrections d'erreurs et une meilleure personnalisation des outils. Les fonctionnalités incluront également des capacités de génération de contenu basé sur des descriptions textuelles, rendant le design plus accessible et fluide.
LHC revient !
L’édition de juillet du magazine LHC créé par mon ami Rémi Rostan est sortie.
Au sommaire : Les dernières mises à jours de Midjourney, La chronique juridique d’Aurore Sauviat sur l’IA & le clonage vocal, Zoom sur Seelab.AI et sur Sezam, dont j’interviewais les fondateurs la semaine dernière. Et éhalement un focus sur le pari de Freepik avec Pikaso. Un must read si vous vous intéressez à la création et à l’IA.
http://juillet.studiolhc.art/
AI Music
YouTube négocie actuellement un accord avec les maisons de disques pour développer la musique générée par IA. L'objectif est de trouver un terrain d'entente qui bénéficie à la fois aux créateurs de contenu et aux titulaires de droits d'auteur. Ces discussions incluent des propositions pour intégrer des outils d'IA dans le processus de création musicale tout en assurant une compensation équitable pour les artistes et les producteurs.
Le côté obscur de l’IA générative
Une enquête du journal The Guardian révèle les conditions de travail difficiles des modérateurs de contenu et des annotateurs de données en Afrique, notamment au Kenya et en Ouganda. Ces travailleurs sont exposés à des contenus traumatisants et soumis à une surveillance constante pour un salaire d'environ 1 dollar de l'heure. Ils doivent traiter des centaines de "tickets" par jour, visionnant des contenus violents et explicites sans soutien psychologique adéquat. Les entreprises exploitent la vulnérabilité de ces travailleurs du Sud global, offrant des contrats précaires et peu de protection. Cette main-d'œuvre est pourtant essentielle au développement de l'IA et à la modération des réseaux sociaux. L'article souligne le contraste entre l'image high-tech de l'IA et la réalité laborieuse de sa production, appelant à une prise de conscience sur les conditions de production des outils numériques que nous utilisons quotidiennement.
Une suggestion de lecture pour aller plus loin sur le sujet.
”Chéri, à quoi tu penses ?”
Des chercheurs de l'Université Radboud (Pays-Bas) ont développé une IA capable de reconstruire des images précises à partir de l'activité cérébrale. L'équipe a utilisé des IRM fonctionnelles humaines et des enregistrements d'électrodes chez un singe macaque. Le système d'IA amélioré a appris à se concentrer sur les zones cérébrales pertinentes, augmentant considérablement la précision de la reconstruction. Bien que l'étude présente des limites, cette avancée pourrait avoir des applications majeures, de l'aide aux victimes d'AVC à la reconstitution des rêves. (Je sais que vous pensez à de la lecture de pensée, regardez ce visuel:)
AI Voiceover
L'industrie cinématographique hollywoodienne serait en train d’explorer de nouvelles voies avec l'intégration de narrateurs IA. Ces voix synthétiques, créées par des algorithmes avancés, sont capables d'adapter leur tonalité et leur style en temps réel. En offrant une alternative flexible et moins coûteuse aux acteurs humains, cette technologie pourrait à la fois transformer de manière significative la production de films et de séries, et soulever des questions sur l'authenticité artistique et les implications éthiques liées à l'utilisation de l'IA dans la narration voix off.
Moshi Moshi
La start-up française Kyutai a lancé Moshi, un assistant vocal IA en temps réel capable de répondre avec diverses émotions et styles. Moshi peut écouter et parler simultanément, avec 70 émotions différentes et une latence de 160 ms (vs 300ms pour les très véloce chatGPT 4-o). Kyutai prévoit de publier la recherche et le modèle en open source. Créée en 2023 avec 324 millions de dollars de financement, l'équipe de 8 chercheurs a développé Moshi en seulement quatre mois. Cette innovation représente une avancée majeure pour l'IA française et un concurrent sérieux pour OpenAI.
Un exemple saisissant ci dessous : une conversation live avec Moshi entrainé sur un dataset de près de 12000 conversations téléphoniques enregistrées sur un total de 1960 heures, entre des américains entre les années 90 et début 2000.
Kling est toujours là
Alors que l’attention est focalisée sur Runway Gen-3, le modèle chinois Kling continue de faire parler de lui avec des exemples assez impressionnants en terme de cohérence visuelle, comme cette vidéo du réalisateur britannique Ryan Phillips.
Montage automatique
La plateforme Captions.ai a lancé AI Edit. Il s’agit d’un outilo capable de réaliser un montage avec des habillages à partir d’une vidéo “brute”. L’IA analyse votre vidéo et votre audio pour personnaliser le montage et appliquer automatiquement des améliorations (zooms, transitions, B-Roll, graphiques et légendes).
Exemple :
Distinguer le réel
On en parle plus bas, avec l’essor d’outils capables de produire des vidéos ultra-réalistes en quelques secondes, il devient déjà de plus en plus difficile de distinguer le vrai du faux sur les réseaux sociaux. Ce phénomène inquiète de nombreux experts qui craignent une perte de repères et une recrudescence de la désinformation.
Comme l’explique le sociologue français Gérald Bronner, « nous entrons dans l’ère de l’hyper-trucage, où il sera presque impossible de distinguer la réalité de la fiction. C’est une révolution cognitive majeure.”
En réponse à ce défi, les plateformes de médias sociaux tentent de réagir. TikTok a annoncé en mai qu’elle étiquèterait automatiquement les vidéos générées par l’IA. Meta et X (Twitter ) travaillent sur des systèmes de détection de deepfake. Mais la tâche s’avère difficile à mesure que l’IA progresse rapidement.
Leonardo s’update
La plateforme de génération d’images Leonardo propose deux nouveautés cette semaine : une fonction “describe with AI” capable de proposer un prompt descriptif de n’importe quelle image uploadée.
Et “Abstract Line Art”, une option pour générer des visuels “minimalistes avec des touches de couleurs vibrantes”.
Il parait qu’il faudrait associer cette fonctionnalité aux modèles SDXL 1.0 et Vision XL pour obtenir les meilleurs résultats.
Deepfake Live
Le modèle LivePortrait de KwaiVGI, désormais disponible, permet d'animer des portraits à partir de vidéos sources. Accessible via ComfyUI, il offre d'excellents résultats pour les rotations de tête jusqu'à 45° et les expressions faciales subtiles. Avec une vitesse d'inférence de 12,8 ms par image (sur RTX 4090), l'animation en temps réel semble à portée de main. On imagine déjà les cas d’usage pour la prochaine génération de Youtubers/TikTokers.
Mimic Motion
Dans le même esprit, Tencent vient de dévoiler MimicMotion, un nouveau modèle d'animation basé sur Stable Video Diffusion. Utilisant un modèle de mouvement pré-entraîné guidé par DWPose, MimicMotion se distingue par sa fluidité temporelle exceptionnelle et sa préservation de la qualité d'image. MimicMotion s'impose comme une référence parmi les modèles de mouvement, promettant de nouvelles possibilités pour continuer à saturater du marché des vidéos de danse IA.
Style Transfer bis
Krea.ai a lancé une nouvelle fonctionnalité appelée “Scene Transfer”. Proche du “Style Transfer” de Magnific.ai, cette fonctionnalité permet de changer complètement le look d’une image à partir d’une 2e image de référence, sans toucher au sujet principal.
Crédit vidéo Emmie Langlais
Iconic Voices
ElevenLabs, entreprise spécialisée en audio IA, a lancé "Iconic Voices" pour son application Reader. Cette fonctionnalité permet aux utilisateurs d'écouter des textes lus par des voix IA de célébrités hollywoodiennes. Le catalogue initial inclut Judy Garland, James Dean, Burt Reynolds et Sir Laurence Olivier, avec d'autres ajouts prévus. ElevenLabs a obtenu les licences auprès de CMG Worldwide, gérant les successions des stars décédées. Cette innovation établit un précédent en matière clonage vocal.
A new kid on the block ?
L'entreprise Phenaki, spécialisée dans la génération vidéo à partir de texte, a rejoint les rangs de Google DeepMind après deux ans d'indépendance. Dans le même temps, Stability AI se démarque avec un projet de création de vidéos à partir de texte et ambitionne de devenir le prochain leader sur ce marché en pleine expansion.
A suivre….
Une semaine de dingue
C’est le moment où je raconte ma vie. Tu peux passer à l’article suivant si tu es là pour Gen-3.
No hard feelings.
Jamais je n’avais vécu de semaine aussi intense que celle ci.
Elle a commencé lundi par une intervention lors d’une table ronde chez Creatis à Paris, un événement organisé par Samsa, organisme de formation spécialiste du domaine des médias et de la communication.
Sous la modération de Romain Saillet, J’ai échangé avec Sylvain Bodin, DG de Spintank et Amandine Fouqué de l’agence Publicis sur le thème de la transformation des métiers de la communication avec l’IA.
J’ai ensuite eu le plaisir d’assister à des conférences très intéressantes, sur des thèmes variés tels que l’automatisation par Erwan Kezzar (ça m’a donné très envie de me mettre à Zapier, en attendant de me mettre à make), l’IA dans les process de post production avec le très compétent Skan Triki, ou encore le retour d’expérience de PPC sur l’utilisation de la technologie d’Argil.ai dans la création d’avatars vidéos réalistes.
Mardi, j’ai animé une session d’acculturation à l’IA générative destinée à un public de créatifs chez Sisley Paris, dans le bel écrin de leur auditorium très classe. Merci à mon ami Guillaume Boulte pour cette sollicitation.
Mercredi, j’ai pris la route pour la Normandie avec mon amie Faustine Duriez, pour former le Codir des Jardins d’Arcadie. Une journée passionnante avec un public attentif et curieux, ponctuée par un workshop ludique et productif à la fois.
Jeudi, je formais les équipes créa et prod de la société de Production Satisfaction, fondée et dirigée par l’animateur télé Arthur (qui est venu passer une tête pendant la session). La session s’est déroulée dans une superbe salle de réunion à la déco Pop Culture qui m’inspire des réflexions pour un futur bureau. Merci à AI Sisters pour ce projet.
Jeudi soir, je m’envolais pour Casablanca ou j’assurais vendredi une formation Video IA destinée à des graphistes, designers et directeurs artistiques de Tribal DDB Casablanca et Rapp Maroc. Une journée vivante et interactive, avec beaucoup de manipulations et un public très pro-actif, enclin à naturellement mélanger le outils d’IA pour obtenir les meilleurs résultats.
Et entre temps, des calls, des visios, des slides à modifier, des nuits courtes, des matches de l’Euro, de la veille et la rédaction de cette newsletter.
Vivement les vacances.
RUNWAY GEN-3
TLDR si vous êtes pressés : Avec Luma Ai dream machine, Gen-3 représente l’avancée la plus significative en matière de vidéo générée par l’IA. Il y a aura clairement un avant et un après 3e génération.
RÉFLEXIONS INITIALES :
+ Énorme amélioration par rapport à Runway Gen-2
+ Cohérence spatiale excellente (beaucoup moins de déformations vs Gen-2)
+ Uniquement des prompts textuels pour le moment
+ Durée de vidéos de 5 ou 10 secondes
+ Contrôle avancé du mouvement de la caméra via les prompts
+ Le temps de génération est étonnamment rapide (Moins de 2mn en moyenne)
+ Résolution de sortie 720p (1280x768 pixels) correcte mais un peu juste
+ Les résultats peuvent être très créatifs !
REMARQUES :
+ Le teint et la texture de la peau proposent un bon niveau de réalisme
+ Les mains sont cohérentes sur des mouvements lents mais déformées sur des mouvements rapides
+ Il est plus difficile d’obtenir de bons résultats en text-to-video plutôt qu’en image-to-video.
+ Soyez précis avec vos descriptions et avec les détails
Je suis très impatient de voir ce que l’image-to-video nous réserve avec Gen-3 !
Retour sur la plus grosse sortie de ces derniers mois
Runway a ouvert Gen-3 au grand public lundi soir autour de 18h. Mon pote Sane d’Upmynt m’a prévenu à 18h05. A 18h07, j’étais en train den prompter.
Les rendus sont spectaculaires dès les premières tentatives :
Plus je continuais les tests, plus j’étais impressionné tant l’outil semble à l’aise dans toutes les situations :
Comme la plupart des IA génératives, Gen-3 est moins à l’aise avec les séquences complexes, comme cette scène de basketball :
Mais globalement, ça reste très impressionnant.
Au point ou sur X (Twitter), il y a toujours quelqu’un pour twitter “RIP Sora, Gen-3 is here”. Heureusement qu’il nous reste les comparatifs side by side pour garder à l’esprit le gap entre les deux outils. Sora reste clairement devant mais Gen-3 recèle de quelques surprises, qu’en penses-vous ?
J’ai vu passer des clips impressionnants toute la semaine dans mes feeds X et Linkedin, mais en toute franchise, il s’agissait quasi exclusivement de démonstrations techniques de l’outil.
Dans ce contexte, j’ai eu plaisir à trouver quelques pépites dont les auteurs se sont emparés de Gen-3 pour en faire un outil de storytelling.
J’ai retrouvé des sensations éprouvées il y a 15 ans, à la sortie du 5D Mark II, le premier appareil photo doté d’un mode vidéo digne de ce nom. Toute la toile partageait des tests techniques. Les véritables oeuvres ont attendu la digestion de l’adoption de ce nouvel outil par les utilisateurs.
Le réalisateur berlinois Phil Langer s’est laissé inspirer par l’oeuvre de Werner Herzog et par le film “The Thing” de John Carpenter pour réaliser ce trailer qui mélange Luma Ai Dream Machine et Runway Gen-3.
”Voyageur” est un court métrage de l’artiste IA Abel Art dont les 9 minutes valent réellement le visionnage. Abel confesse avoir consommé 60 heures et utilisé Gen-3 “à 95%” pour réaliser ce court. Le résultat laisse présager de possibilités très intéressantes pour quiconque sait manier le storytelling :
Mon opinion est la suivante :
J’ai la conviction que nous vivons actuellement un moment important, un tournant dans la manière de produire des contenus audiovisuels.
Le changement est très certainement plus fort et radical que l’apparition des caméras numériques grand public à la fin des années 90, l’émergence du mode vidéo des appareils photo à la fin des années 2000 ou encore le perfectionnement de la vidéo sur smartphone au fil des années 2010.
Nous assistons à la naissance d’un nouveau medium.
D’un nouveau moyen de faire des vidéos, de representer le réel et l’imaginaire. Et ce nouveau médium nécessite encore moins de connaissances et de contraintes que ses prédécesseurs.
Alors oui, de la même manière que la majorité des utilisateurs de chatGPT rédigent des prompts fainéants ou impatients, avec des résultats à l’avenant, les nouveaux créateurs de vidéos IA feront probablement de même dans leur majorité.
Mais les autres, les exigeants, les passionnés du storytelling, ceux qui ont quelque chose à raconter, y trouveront un mode d’expression inédit, à la fois techniquement accessible (moyennant des crédits couteux j’en conviens) et extrêmement puissant.
Le côté obscur de tout cela, c’est que nous seront peut être submergés de contenus videos médiocres comme nous ne l’avions jamais été (même si le raz de marée contenus video smartphone Tik Tok Instagram YouTube Shorts nous y a préparé)
Mais le côté lumineux, c’est que tous les artistes potentiels, les créateurs en devenir, les cinéastes du week end vont y trouver un moyen d’expression extraordinaire, qui fera émerger des talents, des histoires et des émotions que nous n’aurions jamais connues sans cette technologie
What a time to create new stories !
Et toi, tu fais quoi avec l’IA ?
Au vu de l’importance du sujet, j’ai tenu à donner la parole à des camarades explorateurs d’IA générative, qui ont gentiment accepté de partager ici leur ressenti sur Gen-3, comparé à Luma Dream Machine.
Stéphane Gallieni, créatif IA et co-founder BLSTK
Depuis 2023, j’utilise Runway Gen-2 pour mes productions vidéo. C’était, à date, l’outil le plus performant du marché AI vidéo. L’arrivée inopinée de LUMA Dream machine, il y a quelques semaines, a bousculé le marché promis par le tant attendu SORA ou d’autres acteurs du GAFAM comme VEO (Google) ou nouveaux entrants venus de chine comme KLING (Kuaishou, accessible depuis un portable chinois). Il y a quelques poignées de jours, Runway est le seul acteur à avoir réagi face à l’OVNI Luma Dream machine avec une nouvelle version, GEN-3, pleine de promesses sur ses premières démonstrations en beta-test.
La force de Luma Dream Machine est de pouvoir générer des vidéos ultra-réalistes sur des scènes complexes ou la direction d’acteur (avatars) est prise en compte grâce au tracking shot, qui permet de suivre le modèle dans une action, comme ouvrir une porte ou se lever d’une table, par exemple, avec une fluidité déconcertante. Ce n’est pas encore parfait, mais avec différents essais de prompt bien sentis, on peut diriger les mouvements d’un personnage combiné à des mouvements de caméras complexes. Ce qui n’est pas le cas de Runway Gen-2 et même Gen-3 qui a encore du mal à gérer les déplacements humains sans malformations physiques ou déformations latentes de l’image qui interprètent de façon plus aléatoire les prompts indiqués.
En revanche, Runway GEN-3 offre des plans plus spectaculaires sur la gestion d’espace vide (décor) avec plus de fluidité dans le mouvement de caméra, Steadycam ou plan panoramique, par exemple. L’autre promesse de Runway GEN-3 que Luma Dream Machine ne propose pas, c’est la gestion des textes pour vos panneaux titres dynamiques. Vous pouvez, par exemple, prompter vos mots-clés qui s’illustreront dans des éléments de décor : votre enseigne de marque clignotante comme un néon à Las Vegas, brodé sur un tissu ou tagué sur un wagon de train, par exemple. La gestion de la typographie n’est pas encore au point car le rendu vidéo final peut octroyer une lettre sur votre mot-clé, ce qui correspond à un plan perdu, donc inexploitable. Et à 10$ sur un crédit de 10 plans de 10 secondes, on perd vite de l’argent malgré une commande en prompt bien détaillée.
D’autre part la structuration des prompts diffèrent d’une application à l’autre. En copiant-collant le même descriptif d’image, on obtient des résultats totalement différents entre Luma Dream Machine ou Runway Gen-3. Il faut donc s’entraîner sur une même base de prompt en adaptant l’invite selon les rendus, qui peut être assez chronophage dans l’aller-retour homme-machine, mais nécessaire pour apprivoiser ces deux outils, aux commandes bien différentes.
Une vidéo de Stéphane Galllieni a.k.a. Incognito Influenceur
Pierrick Chevalier, Youtuber et explorateur IA infatigable
Pas besoin de tourner autour du pot : Gen3 est la meilleure IA de text-to-video actuellement. Même en version Alpha, elle impressionne par la fluidité et la cohérence de ses rendus. Certes, il y a encore quelques imperfections, mais bien moins que sur DreamMachine. Gen3 consomme beaucoup de crédits, donc un abonnement illimité est nécessaire pour un usage pro. En résumé, Gen3 surpasse Luma en text-to-video, mais Luma reste indispensable avec son img-to-video et son système de keyframe. Les deux sont donc complémentaires et essentiels.
Vidéo réalisée par Pierrick Chevalier
Matthieu Grambert, AI Artist
Concernant Gen3 qui est celui que j'ai le plus poncé, pour l'instant on est sur une avancée pas si spectaculaire que ça. Comme d'habitude : les plans minimalistes marchent bien, ceux qui reproduisent des paysages réels également.
Pour le reste ça se corse un peu dès qu'on veut des choses plus précises, ça demande souvent une multitude d'essais pour avoir quelque chose de chouette. Je trouve l'avancée visuelle in fine pas si probante que ça par rapport à la V2.
Au final ce que j'en retiens c'est surtout les plans qui passent de 4 à 10sec, pour le reste personne ne verra la différence par rapport à ce que j'ai déjà pu faire. Car là vu qu'on ne peut démarrer que par du texte et non pas image to vidéo, du coup on est réduit aux résultats moyens d'un utilisateur moyen.
J'ai pas tellement utilisé Luma mais comme souvent vs Runway, les autres outils ont parfois une bien meilleure compréhension du contexte. Là où Runway continue à nous faire du ralenti, on réitère pour amortir les dégâts (mais un peu moins qu'avant ceci dit). On reste très loin des possibilités d'un Sora visuellement et contextuellement.
(je ne donne pas de préféré car moi c’est celui qui est gratuit mdr)
Vidéo réalisée par Matthieu Grambert
Mathieu Crucq, Directeur Général de l’agence Brainsonic
J’ai été surpris de voir Gen-3 sortir aussi rapidement, mais la course aux modèles vidéos a probablement impacté les planning de certains éditeurs. Aujourd’hui, Gen-3 permet de prompter des séquences jusqu’à 10 secondes, ce qui est déjà plus que la majorité des outils vidéos self-service.
L’outil est hyper intéressant même si encore limité à date. Ce qui fait la grosse différence de Gen-3 par rapport à la Dream Machine de Luma, ou à Kling, c’est que la structuration des prompts semble bien plus aboutie . Runway a travaillé sur une structure de prompts assez proche de Midjourney avec les axes de caméras, les rendus, les mouvements, la lumière etc… Ce qui fait que la notion de « contrôle » est nettement supérieure à ses concurrents, qui sont bons également mais toujours aléatoires.
« Timelapse of a construction of a BRAINSONIC phone”
“Dynamic motion, low angle shot of A bioluminescent ocean at night, filled with glowing creatures under a starry sky. Additional details: The scene starts with a macro close-up of a glowing jellyfish, revealing its intricate details in diffused lighting. The camera then gently pulls back and ascends to showcase the entire ocean, illuminated in various iridescent colors. The jellyfish undulates and transforms as it moves, creating ripples in the water.”
Du coté des rendus en tant que tels, je ne suis pas « plus » impressionné par Gen-3 que par Luma par exemple, d’autant que ce dernier permet déjà une fonctionnalité essentielle à savoir l’animation avec une image de départ (et de fin éventuellement). Les deux sont très bons et convergent vers des rendus assez similaires.
Dans tous les cas, cela reste exploratoire car mon enjeu à moi, c’est d’obtenir des rendus parfaitement contrôlés pour les utiliser dans du brand content. Sous cet aspect, tout n’est pas encore possible (notamment sur des séquences longues). Mais on teste à fond et surtout on compare les modèles entre eux. Par exemple nous sommes sur un projet client en ce moment nécessitant de la vidéo AI. La réalité, à la fin, est que toutes les technos sont mobilisées et combinées. Runway Gen-3, mais aussi Luma, Kling (modèle chinois) ou ImmersityAI qui permet quant à lui de faire des animations basées sur des Depthmap d’images statiques (et donc du parallaxe).
Comme pour les autres modèles AI sur d’autres sujets, on se rend que ce n’est jamais ou rarement un outil qui est la solution. Mais bien une stack complète, pilotée et retouchée par des pros. Et c’est in-fine rassurant.
Faire tout en AI est intéressant pour explorer et se mettre des défis technos, mais je ne crois aucunement que ça sera une fin en soi. Tout cela va s’hybrider, se combiner, se recombiner.
Et à la fin la seule vraie question demeure : que veut-on faire, et pourquoi ?
BONUS TRACK 1
Javi Lopez, le fondateur de la célèbre plateforme MagnificAI a publié sa liste des “meilleurs prompts” pour Runway Gen-3.
Vous les retrouverez tous ici : https://x.com/javilopen/status/1808140481232359736
Avec une vidéo d’exemple pour chaque prompt.
“Super fast drone view around a lighthouse, English cliffs, dramatic, point of view, cinematic”
“A wizard casting a magic spell, CGI, particle effects, realistic high resolution, fast, speed”
BONUS TRACK 2
Un utilisateur de Singapour a créé un GPT pour vous aider à prompter Gen-3.
Il est basé sur le guide officiel de Runway et des conseils supplémentaires tirés de son expérience.
Caractéristiques principales :
1. Il traduit des mots simples ou vagues en prompts qui fonctionnent pour Runway.
2. Il propose une version de base, une version optimisée et trois alternatives.
En clair, ça donne ça :
Voilà le résultat du 1er prompt. Pas mal :
Vous pouvez l’essayer ici : https://lnkd.in/ga5w4F_n
Cette édition est terminée, merci de l’avoir lue jusqu’ici ! Si elle vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également me suivre sur LinkedIn et activer la cloche 🔔, je poste régulièrement sur l’intelligence artificielle générative. Vous pouvez également me contacter pour toute proposition de création, intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditions 👇
Félicitations Gilles to ze moooon !