Les news, Marseille, Sezam et la vidéo IA
Salut les scrapeurs, bienvenue dans cette nouvelle édition de GENERATIVE, la newsletter qui vous résume l’actu de l’IA générative… dans le domaine de la créativité.
J’avoue avoir eu des difficultés à assurer une veille sereine ces dernières semaines. trop de news, d’updates, de sorties, tous les jours, à un rythme inhumain. A croire que tous ces outils d’IA Gen qui sortent sans cesse sont déjà développés par des machines qui s’auto-clonent et ne dorment jamais.
En parallèle, je connais actuellement un pic d’activité professionnelle : les formations/ ateliers/workshops/keynotes en IA s’accélèrent. Chaque projet nécessite des réunions, des échanges de mails, des contenus à préparer, des slides à finaliser, des déplacements, etc… Tout cela prend du temps et n’est pas toujours compatible avec une veille et une curation toujours très chronophage.
En conséquence, j’ai décidé de spécialiser GENERATIVE dans le domaine des outils créatifs. Sauf info exceptionnelle, terminé les news exotiques sur les robots, les rachats de sociétés IA, les statistiques, etc… En revanche je continuerai de parler des LLM qui me fascinent tant.
Mais globalement, GENERATIVE sera désormais la newsletter de celles et ceux qui s’intéressent à la création assistée par l’IA sous toutes ses formes. Pour l’actu généraliste, il existe de (très) nombreuses autres sources d’information.
Avant d’aller plus loin, as tu songé à t’abonner pour ne rien rater de l’indispensable lecture des prochaines éditions ?
Sommaire
1. Des news et encore des news
2. Inclusivity Project, la série de Nathalie Dupuy
3. Retour sur MASSIL.IA, le meetup IA marseillais
4. Interview des créateurs de SEZAM
Les news de la semaine
ToIAz are Us
La célèbre marque de jouet Toys’R’Us a récemment sorti un “film” publicitaire généré en partie avec Sora. J’écris “en partie” car j’ai beaucoup lu sur le net “entièrement généré avec Sora”, or certains détails me laissent à penser que le résultat final a bénéficié de certains effets spéciaux visuels “à l’ancienne”.
Ce film, conçu par l’agence Native Foreign, dont le Creative Director aurait déclaré à propose de Sora : “nous avons obtenu certains plans très rapidement. D’autres ont nécessité plus de 70 itérations”.
Que pensez-vous de ce spot qui, je le sens, risque de faire débat sur les internets ?
More Control
Luma AI enchaine les updates avec la sortie d’une nouvelle option "add end frame"qui offre un meilleur contrôle sur le mouvement des vidéos générées. Après quelques tests, c’est pas encore la “magic feature” mais ça présage de bonnes choses pour l’avenir.
Le contrôle et la cohérence sont les 2 nerfs de la guerre en génération vidéo IA.
Les meilleures performances sont obtenues avec des images similaires et des rotations inférieures à 90°. Cette fonctionnalité s'avère particulièrement utile pour les scènes à mouvement limité. Pour des résultats optimaux, il est évidemment conseillé de maintenir une cohérence de style et de personnage entre les images.
Des procès
Warner Music Group a interdit l'utilisation non autorisée des voix de ses artistes par les modèles d'IA générative. Parallèlement, les majors poursuivent les startups Suno et Udio pour violation de droits d'auteur liée à la musique générative. Ces actions reflètent les inquiétudes de l'industrie musicale face à l'exploitation non autorisée des œuvres par l'IA. Les répercussions pourraient être significatives pour l'évolution de la musique assistée par l'IA et la protection des artistes. A suivre de près.
Gen-3 fait monter la pression
Si Runway Gen-3 continue de se faire attendre (j’avoue hésiter entre upgrader mon abonnement à Luma Ai et attendre Godot Gen-3), des vidéos d’alpha testeurs continuent d’apparaitre sur le net. La cohérence temporelle semble réellement excellente, en dépit d’un peu de motion blur (flou de mouvement)
Kling
Kling, le générateur d’images disponible uniquement en Chine (ou pour les chanceux qui ont accès à un numéro de téléphone chinois) a annoncé 2 nouvelles fonctionnalités : « Image vers vidéo » et « Extension vidéo ».
Les vidéos peuvent désormais durer jusqu'à 3 minutes.
Qui a accès à un numéro de téléphone chinois ?
Luma MMA
Pendant que tout le monde lutte à essayer d’obtenir les résultats les plus professionnels et les plus esthétiques possibles avec Luma, d’autres cultivent le goût de la vidéo IA foutraque (poke Will Smith mangeant des spaghetti), avec des déformations, des aberrations, etc…
Le résultat est à mi-chemin entre l’irregardable et le bizarrement amusant.
Luma Joli
A l’autre bout du spectre, nous avons le créatif finlandais Mojo Erämetsä qui a sué sang et eau sur ChatGPT, MidJourney, krea.ai, Luma AI Dream Machine, Runway, ElevenLabs, Udio, Photoshop, Adobe Premiere et Topaz Labs Video AI pour réliser cette vidéo en une dizaine d’heures d’après son décompte.
Je trouve qu’on est proche de la qualité d’un bon teaser de jeu vidéo. Et vous ?
Synthétique
Le marché de l’avatar IA est en train d’exploser. D’un côté je trouve la technologie très impressionnante et d’un autre, je sens que ça va rapidement me fatiguer de ne voir que des humains de synthèse sur les réseaux sociaux dans un futur proche.
Tout ça pour dire que Synthesia (LE concurrent de HeyGen) a dévoilé ses dernières nouveautés : des vidéos interactives, un lecteur vidéo multilingue à la Netflix, un enregistrement d'écran géré par l'IA, des avatars personnalisés, y compris des personnages dotés de mains.
Chut !
OpenAI a temporairement désactivé la fonctionnalité vocale de ChatGPT en raison d'une faille de sécurité. Cette décision vise à garantir la confidentialité des utilisateurs après plusieurs plaintes concernant des enregistrements vocaux non autorisés. Pendant ce temps, OpenAI travaille à renforcer la sécurité et à améliorer l'infrastructure technologique avec pour objectif est de réintroduire la fonctionnalité vocale rapidement et de manière sécurisée pour tous les utilisateurs.
Perso, j’attends impatiemment l’upgrade la voix franco-québécoise actuelle…
Encore du style
La startup française Pimento implémente le transfert de style dans sa plateforme.
Vous pouvez transférer votre propre style ou en choisir un dans leur bibliothèque de styles.
IMMERSITY
Pendant que l’attention est sur Luma AI, Kling et Gen-3, Immersity AI (anciennement LeiaPix) montre qu’il est possible de faire des choses chouettes en combinant l’outil avec des images Midjourney.
Angoisses littéraires
Groqbook est une plateforme qui permet de générer des e-books en quelques minutes grâce à l'intelligence artificielle. Il est possible de rédiger, structurer et formater un livre complet en utilisant des modèles prédéfinis et des algorithmes de traitement du langage naturel.
Le genre de news qui me crée des angoisses. Les plateformes d’e-books vont bientôt regorger de livres écrits avec les pieds d’un chatbot, sans saveur, au style littéraire unifié (“quel style ?” rétorquerez-vous).
La bonne nouvelle en revanche, c’est que dans cet océan de médiocrité annoncé, les auteurs humains (ou les prompteurs de génie ?) qui proposent une vraie singularité (sans jeu de mot) réussiront à tirer leur épingle du jeu (et de la botte de foin).
LTX en approche ?
Blair Vermette, réalisateur canadien, raconte son expérience avec la version bêta de LTX Studio. Il a testé l'outil en écrivant une ligne simple sur la Terre qui se désintègre vue de l'espace. L'IA a développé une histoire d'astronaute en difficulté sauvé par son équipage. Vermette décrit l'interface comme bien conçue, avec des scènes divisées en plans modifiables et la possibilité de choisir la bande sonore. Il apprécie particulièrement la mise en page du storyboard.
Concernant le résultat, on note plusieurs incohérences de style. Malgré cela, Vermette souligne la rapidité impressionnante de la génération vidéo.
Ma question : annoncé il y a plusieurs mois déjà, cet outil est il toujours compétitif ?
New Kid on the Block
Rubbrband, une nouvelle plateforme de création visuelle, vient d'être lancée. Concrètement, elle propose une interface web pour accéder à Stable Diffusion. Rubbrband offre un stockage illimité d'images et une bibliothèque de plus de 20 outils, dont Stable Diffusion et GPT-4V. La plateforme permet l'intégration de modèles CivitAI et encourage le partage communautaire.
J’ai trouvé l’interface un peu aride. Vous pouvez essayer ici.
Banque d’inspiration
La plateforme sezam.ai, dont les créateurs sont interviewés un peu plus loin dans cette édition, a sorti sa “Banque d'Inspiration” . Il s’agit d’ une banque d'image accessible gratuitement, qui permet de puiser de l'inspiration parmi plus de 700 images générées sur SEZAM et de découvrir comment elles ont été créées, y compris les prompts et les styles utilisés. De plus, comme il s'agit d'une banque d'images libre de droit, vous pouvez télécharger n'importe quelle image et l'utiliser librement pour vos projets.
Les LLM open source reclassés
Hugging Face améliore son classement des modèles de langage open source avec de nouveaux critères d'évaluation plus exigeants. Cette mise à jour vise à relancer les progrès dans les performances des IA, qui stagnaient récemment. Le classement intègre désormais six nouveaux tests et un système de notation normalisé. Qwen2-72B-Instruct mène actuellement, suivi par Llama-3-70B-Instruct de Meta et Mixtral 8x22b.
Cette refonte permet une évaluation plus fine des capacités des modèles, guidant ainsi les chercheurs vers des améliorations ciblées alors que les IA s'approchent des performances humaines sur de nombreuses tâches.
Stability 2, le retour
Stability AI, la société derrière Stable Diffusion, a levé 80 millions de dollars lors d'un tour de table mené par plusieurs investisseurs de renom. Dans un contexte financier tendu, cette levée de fonds apparait comme une bouée de sauvetage pour la start-up, qui luttait avec d'importantes dettes envers les fournisseurs de cloud. Elle a également introduit Prem Akkaraju comme nouveau CEO, précédemment à la tête de Weta FX (la boite de VFX oscarisée de Peter Jackson), renforçant son focus sur les effets visuels dans l'industrie cinématographique.
Détecteur de faux
La société Truepic, en collaboration avec Qualcomm, développe une technologie pour identifier les contenus générés par l’IA. Ce système, intégré dans les puces Snapdragon 8 Gen 3, ajoute des métadonnées cryptographiques aux images pour suivre les manipulations par IA. Une technologie très intéressante pour distinguer le vrai du “AI Generated” dans un monde où les frontières deviennent de plus en plus floues.
Visionnaire ou génie du makerting ?
L’avenir le dira. Sam Altman, CEO d’OpenAI, se prête souvent eu jeu des prédictions. Il a récemment déclaré qu’un jour prochain, on pourra “tout” demander à l’IA.
INCLUSIVITY PROJECT
Coup de coeur cette semaine pour la superbe série “Inclusivity Project” de la D.A. / Formatrice Midjourney Nathalie Dupuy. Je trouve quelque chose de très intéressant dans cette série, tant sur le fond que sur la forme, avec une direction artistique forte et “catchy” comme on dit dans mon quartier.
MASSIL.IA NUMERO UN !
Mercredi soir s’est tenue la première édition de MASSIL.IA, le meetiup IA que j’ai co-organisé à Marseille, en collaboration avec le Riality Lab.
La veille de l’événèment, je découvrais avec effroi m’heure du coup d’envoi du match France - Pologne : 18h. Une demi heure avant le coup d’envoi de MASSIL.IA. Je craignais tellement le pire que j’en ai fait une vidéo :
J’ai utilisé Musavir pour le homeless avatar
MagnifciAI pour l’upscale
Hedra pour l’animation
Topaz pour l’upscale video (passage de 512 pixels 24fps à 1024 pixels 60fps*)
Et Capte pour le sous-titrage automatique.
*fps = Frame By Second
Tout ça pour dire que j’avais quelques doutes quant à la fréquentation de ce premeir meetup marseillais, d’autant plus que la météo était morose mardi soir dans la cité phocéenne : les parapluies étaient de sortie.
Quoi qu’il en soit, il fallait y aller sns arrière pensée. A 18h15, les premiers participants arrivaient, entre 18h20 et 18h30, les arrivées s’accéléraient. Je me suis retrouvé obligé de rajouter des chaises !
A 18h45, la salle était remplie, il était temps de démarrer ce premier meetup.
Pendant que Marguerite Leenhardt présentait le RialityLab, je comptais les participants. Nous étions 55 à ce moment là.
un chiffre inespéré pour un 1er événement organisé un mardi, soir de match de l’équipe de France de football. Après l’arrivée de quelques retardataires, nous frôlions les 60 participants.
Eglantine Germain a ouvert le bal en abordant des exemples concrets de biais des modèles d'IA de génération d’images, un sujet qui a suscité des réactions et des échanges dans le public. J’étais tiraillé entre l’envie de modérer pour respecter le chrono et de laisser vivre les discussions parce que, après tout, n’est-ce pas là l’objectif de ce type d’événement ?
J’ai ensuite eu le plaisir d’accueilir mon ami Rémi Rostan, créateur du magazine LHC, que j’ai toujours beaucoup de plaisir à croiser. Rémi est la gentillesse incarnée, associée au talent et au travail. 3 choses que j’admire chez les autres.
Rémi a présenté LHC, citant au passage ses collaborateurs (que je salue également) comme Sane d’Upmynt, Nicolas Geniart, l’avocate Aurore Sauviat et l’artiste IA Neïla Romeyssa que j’avais eu le plaisir de revoir à Alger au mois d’avril.
Yannick Tian & Martin Jauffret de Gojob, sont venus nous présenter en détail l'assistant virtuel d'IA de Gojob dédié au recrutement. Je suis contents qu’ils soient venus (merci Thibaut Watrigant), je souhaitais que des sujets plus “tech” équilibrent les angles créatifs vers lesquels je penche naturellement dans ma curation d’intervenants.
Leur présentation a également suscité des échanges intéressants à le fin de leur intervention.
Au bout de 3 interventions, on sent parfois l’attention retomber dans la salle. c’est pour ça que j’ai décidé de lancer un quizz visuel, demandant au public de distinguer des images réelles d’images générées avec l’IA. Un moment ludique très vivant : grâce à l’application Kahoot, les participants votaient en direct, avec un suivi des scores en temps réel.
Enfin, le directeur artistique marseillais Stéphan Muntaner est venue nous montrer l’étendue de son talent à travers ses superbes créations graphiques qui mêlent IA générative et outils traditionnels. Un grand moment.
Au final, je suis ravi de ce moment, de ces rencontres, de ces échanges. Il y a quelque chose de précieux dans le fait de faire les gens se connecter entre eux, échanger enrichir leurs connaissances.
Je tiens à remercier publiquement Nicolas Guyon.
Sans lui, je n’aurais jamais eu l’idée d’organiser un meetup. Je n’aurais pas rencontré Bertrand Bigay qui m’a proposé l’idée à l’issue de l’AIM Marseille en novembre dernier, où j’étais intervenu au stade Vélodrome sous la bannière de Comptoir IA.
Merci Nico donc, et merci Kids Connexion pour le sponsor des pizzas et des boissons !
Cette première édition a été tellement réussie qu'elle en appellera une seconde à la rentrée !
Et toi, tu fais quoi avec l’IA ?
Cette semaine, j’ai la grand plaisir d’interviewer Nicolas Papin et Aurélien Gomez, les créateurs de la plateforme de génération d’images 100% française SEZAM.
Bonjour Nicolas, peux-tu te présenter brièvement ?
Je suis Nicolas Papin, un ingénieur de l’Epita ayant toujours eu un fort focus technique mais aussi produit.
Même si j’aime la tech, adore que ce soit bien pensé et développé, mon objectif principal est d’utiliser la tech pour servir un produit et non de faire de la tech pour la tech.
Au début de ma carrière, je suis rapidement tombé dans le développement mobile (j’ai commencé à coder en 2008 sur iOS 2.0 et Android 1.0 🙂 ) et suis rapidement devenu l’un des experts du développement mobile sur la place de Paris. Par son côté tech mais aussi sa composante fonctionnelle et UX, le monde du mobile me parlait particulièrement !
Fort de mes compétences en mobile et de mon esprit entrepreneurial, j’ai pu participer à la création de plusieurs startups dont Chauffeur-privé en 2011 (qui est devenu Kapten puis Freenow), un concurrent de Uber. Sur Chauffeur-privé, j’ai écrit toute l’architecture back-end puis développé tout seul les applications mobiles iOS client et chauffeur. Si vous avez utilisé Chauffeur-privé à ses débuts, vous avez utilisé mon code 🙂
J’ai aussi accompagné en tant que freelance le PMU (c’est moi qui ai supervisé les premières applications mobiles sport et hippique) puis la FDJ sur des postes divers, de responsable mobile, product owner, coach agile ou architecte fonctionnel puis j’ai rejoins en CDI la startup Travelcar (qui est devenue Free2move) en tant Product Manager ou j’ai évolué en tant que Head of product & engineering.
Bonjour Aurélien, peux-tu te présenter brièvement ?
Bonjour Gilles, je suis Aurélien Gomez. J'ai un background de désigner (notamment Product designer / Ux et directeur artistique) avec plus de 18 ans d'expérience. J'ai accompagné de nombreuses start-ups et scale-up en indépendant, en les aidant à créer des dizaines de produits et applications. En parallèle, j’ai créé plusieurs entreprises notamment dans le secteur de l’image.
Je suis passionné par les IA depuis une dizaine d’années. L’arrivée de l’IA générative grand public et open source ces trois dernières années, combinée à ma passion pour le monde de l’image m’a naturellement poussé à m’engager pleinement dans ce domaine.
Pouvez-vous nous parler de Sezam ?
AG & NP :
Sezam est une plateforme de génération d'images par intelligence artificielle. Notre mission est de créer des images de haute qualité à la demande, facilement et utilisables professionnellement. Nous avons tiré parti de notre expertise en IA, en image et en expérience utilisateur pour simplifier le processus de création d'image, permettant ainsi à chacun d'obtenir facilement les meilleurs résultats.
Sezam s'adresse principalement au B2B. Par exemple, nous permettons aux entreprises de créer des styles spécifiques entraînés sur leurs images, telles que des illustrations, des photos ou même des objets. Cela leur permet de générer de nouvelles images respectant leur univers en quelques minutes, alors qu'auparavant cela prenait plusieurs jours.
L'idée derrière Sezam est d'augmenter les capacités créatives des entreprises, de leur faire gagner du temps et de leur permettre de créer des images de qualité pour atteindre leurs objectifs.
Pouvez-vous nous raconter la genèse du projet ? A quel moment vous vous êtes dit "on va le faire !" ?
NP :
Sezam est parti d’un constat très simple et très terre à terre. Quand j’étais chez Free2move, j’ai rapidement eu besoin d’avoir un product UX/UI designer senior et ai donc recruté Aurélien, mon co-fondateur qui était product designer freelance pour nous accompagner dans la création des produits Free2move.
AG :
La mission s’est terminée, et nous sommes restés en contact et échangions régulièrement sur des idées de projets prometteurs. En effet, notre expérience de travail chez Free2move s’étant avérée efficace et agréable nous avions la volonté de travailler ensemble.
De mon côté, j'expérimentai de plus en plus avec les nouveaux outils d'IA, notamment ceux liés à l'image, car ils correspondaient à mes compétences. Je me suis dit que c'était des outils géniaux, mais, potentiellement assez compliqué à utiliser pour obtenir des résultats de qualité et notamment dans un cadre professionnel où les visuels doivent être parfait et cohérent entre eux (le branding tout ça) pour être utilisable.
NP :
Un jour Aurélien est venu me voir en me disant il faut que je te montre un truc et la il m’a montré Stable Diffusion et les images qu’il était possible de générer et nous nous sommes dit que ce serait génial professionnellement d’avoir un outil simple à utiliser, qui génère des images de qualité mais aussi qui respecte le style qu’on lui demande et donc le style de la société.
AG :
En discutant avec Nicolas, nous avons réalisé que nous avions une affinité pour ce projet et que nos compétences étaient complémentaires. Nous pouvions allier le côté technique de Nicolas avec mes compétences dans l’image, l’Ux et l'IA, pour créer des images de qualité facilement.
NP :
Nous avons fait un MVP, énormément travaillé la nuit pour simplifier la création d’images, améliorer les rendus et permettre à cette technologie d’entrer dans le monde l’entreprise. L’accueil a été chaleureux, de là est né Sezam
Pourquoi "Sezam" ? Il y a des fans d'Ali Baba dans l'équipe ? 😁
AG :
C'est en référence à la caverne des trésors, bien évidemment 😁. L'idée est que Sezam renferme énormément de trésors de créativité à travers les styles que nous proposons. Si tu regardes le logo, il représente une montagne stylisée avec le S de Sezam et une ouverture dans la montagne qui représente la caverne d'Ali Baba.
NP :
Il y a aussi le fait que l’IA générative semble un peu magique, qu’en un claquement de doigt, tu as un résultat venu de nulle part, il y a l'expression Sésame ouvre toi, nous ce serait plutôt Sezam, génère moi !
De manière simple et didactique, pouvez vous nous expliquer la valeur ajoutée de Sezam par rapport à ses principaux compétiteurs sur un marché très concurrentiel ?
AG & NP :
Nous proposons un produit simple à utiliser qui permet de créer des images de qualité rapidement : pas besoin de savoir parler comme un expert à une IA, tu sélectionnes ton style et tu décris ton besoin avec des mots simples
cohérence des rendus : la sélection du style te permet d’avoir des rendus dans le style sélectionné
Styles personnalisés : nous entraînons des modèles avec vos images dans le but que vous ayez un style personnalisé, ce qui vous permet de générer en quelques clics des visuels dont vous avez besoin et qui respecte votre style
Styles Sezam : styles entraînés sur des images libres de droits (qui sont dans le domaine public) ou via des créateurs partenaires
Qualité des rendus : nous sommes très exigeant sur la qualité des rendus et proposons à l’heure actuelle une qualité de rendu souvent supérieure à la concurrence, notamment sur les modèles photo réalistes
Banque d’image d’inspiration : nous proposons gratuitement à nos clients des images générées par Sezam leur permettant donc de gagner du temps
Nous offrons un accompagnement complet à nos clients, que ce soit pour l'entraînement de styles personnalisés ou pour la formation de leurs équipes afin de découvrir toutes les possibilités offertes par Sezam. Nous sommes en écoute permanente de leurs besoins pour optimiser au maximum leur workflow. Avec nous, ils ont la certitude de disposer d'un outil qu’ils maîtrisent, qui crée les visuels dont ils ont réellement besoin et qui correspondent à leur univers.
Quels ont été les plus grands défis rencontrés lors du développement de la plateforme et comment l'équipe les a-t-elle adressés ?
AG & NP :
Il y en a eu pléthore comme par exemple :
réussir à entraîner des modèles qui vont respecter le style parfaitement. Quand nous disons parfaits, nous voulons dire que, typiquement, lorsque nous entraînons un style d'image, il doit être impeccable graphiquement pour être utilisable professionnellement. La limite est très fine entre un modèle moyen, inutilisable, et un modèle qui produit des images correspondant à 100 % aux assets graphiques du client.
faire en sorte que l’IA n’hallucine pas trop en générant par exemple des personnages à 3 bras
faire en sorte de pouvoir générer en parallèles de nombreuses tâches
Quels sont vos plans pour les futures updates de Sezam ?
AG & NP :
continuer à optimiser nos modèles de manière à augmenter la qualité des rendus
améliorer encore la compréhension des prompts
Accélérez les partenariats avec les artistes/créateurs pour proposer encore plus de styles sur Sezam
Ajouter une gamme d’outils pour simplifier la vie de nos utilisateurs, en intégrant ceux qu’ils utilisent quotidiennement dans leurs workflows, afin de leur faire gagner énormément de temps et réduire les coûts liés à l’utilisation de multiples plateformes
proposer des modèles de rendu vidéo entraînés sur nos styles
D'une manière générale, quel est votre rapport personnel aux outils d'IA générative et comment les utilisez vous dans votre quotidien ?
NP :
Je m’en sert quotidiennement, notamment pour coder ou quand j’ai une question. Cela m’aide à être plus productif et à aller plus vite sur certains sujets.
AG :
Je m'en sers quotidiennement également, autant pour l'idéation que de la création de contenus ou pour la correction de textes, bien sûr pour la création d'images avec Sezam, pour les résumés de réunions, et nous explorons de plus en plus tout ce qui se fait en termes de développement assisté par IA.
En regardant vers l'année 2024, quels développements majeurs anticipez-vous dans l'utilisation de l'IA générative ? Y a-t-il des avancées technologiques spécifiques que vous attendez avec impatience ?
AG & NP :
Nous pensons qu'il y a énormément de belles choses qui arrivent. Pour nous, les IA génératives sont des outils qui augmentent les capacités créatives. Par exemple, maintenant avec Sezam, n'importe qui peut créer un shooting dans n'importe quel pays avec un budget accessible, générer des images en 3D en quelques secondes, et obtenir des assets graphiques de qualité ce qui était réservé auparavant à quelques sociétés avec énormément de moyens. Maintenant, c'est accessible à tous, et c'est génial d’un point de vue créatif.
En termes d'avancées technologiques, avec les derniers événements chez Stability AI (cf les news de la semaine), il y a un revirement inattendu avec la création de nombreux modèles open source qui vont apporter énormément de possibilités dans le secteur. Il y a aussi énormément de recherche publiés, qui bien qu'encore au stade expérimental, permettront bientôt de réaliser des choses incroyables très simplement, notamment pour la retouche d'images et les exports vidéo ou 3D professionnels.
C'est vraiment excitant pour l'avenir.
Merci à vous deux d’avoir pris le temps de répondre à toutes mes questions !
Pour tester Sezam, c’est par ici
Cette édition est terminée, merci de l’avoir lue jusqu’ici ! Si elle vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également me suivre sur LinkedIn et activer la cloche 🔔, je poste régulièrement sur l’intelligence artificielle générative. Vous pouvez également me contacter pour toute proposition de création, intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditions 👇