Salut les utilisateurs d'intelligence artificielle, bienvenue dans cette nouvelle édition de GENERATIVE, la newsletter qui résume l’actu de la Gen AI, vous présente des outils et des personnes qui font des choses éclairantes avec l’IA.
Je souhaite la bienvenue aux 117 nouveaux abonnés qui nous ont rejoint ce mois-ci !
Et je félicite toutes celles et ceux qui sont assez âgés (ou assez cultivés) pour avoir saisi la référence au tube de Jackie Quartz de 1983 dans le titre de cette édition !
(ici pour les amnésiques et/ou les plus jeunes et/ou les plus nostalgiques d’entre vous).
Cette semaine, l'actu et une présentation détaillée des derniers updates de Midjourney et Gen-2, les deux boss de fin de niveau de la création visuelle assistée/augmentée par l’intelligence artificielle.
Si vous appréciez la lecture de cette newsletter hebdomadaire gratuite, la meilleure manière de soutenir mon travail, c'est de le faire découvrir à plus de personnes :
Merci !
✔️TLDR : le résumé de l’actu en 3mn chrono
✔️les (très) nombreuses news de la semaine
✔️Aïe Aïe A.I. à la NFT Factory
✔️Les updates incontournables de Midjourney et Gen-2
C’est parti !
TLDR : le résumé des news de la semaine
💢 Le respecté Ethan Mollick pense que l'IA continuera de s'améliorer, avec 4 scenarii possibles : Selon lui, les discussions politiques actuelles supposent à tort que l'IA restera au niveau actuel (option 1) ou atteindra rapidement une intelligence artificielle générale (option 4). Il pense à des progrès lents (option 2), et très probablement des améliorations exponentielles continues sans toutefois atteindre l'intelligence artificielle générale (option 3). Et vous ?
💢 Quant à lui, Shane Legg, co-founder de Google Deepmind, prédit depuis plus de 10 ans qu'il y a 50% de chances que l'intelligence artificielle générale atteigne le niveau de l’intelligence humaine d'ici 2028, se basant sur l'augmentation exponentielle de la puissance de calcul et des données.
💢 Veolia lance Veolia Secure GPT, un outil d'IA générative pour ses 213 000 employés, conçu en 2 mois pour optimiser les processus métiers comme la rédaction ou la traduction. Propulsé par OpenAI et hébergé par Microsoft et Google, il offre une plateforme digitale sécurisée avec confidentialité des données.
💢 D-ID a récemment lancé l'application mobile 'Creative RealityTM Studio'. Les créateurs peuvent désormais utiliser des images de la bibliothèque de leur téléphone et intégrer rapidement des avatars, générer des voix et écrire ou télécharger des scripts utilisés pour augmenter la production de contenu.
💢 Face aux critiques sur les menaces pour l'emploi et en dépit de son intérêt pour l'innovation responsable, le groupe de presse Ebra a suspendu son projet d'utiliser l'IA générative dans ses rédactions.
💢 Google vient d'annoncer des outils pour aider les utilisateurs à consulter les métadonnées des images, y compris les champs indiquant s'il s'agit d'une image générée par l'intelligence artificielle.
💢 Grâce à l'IA, une chanson inédite des Beatles de 1970 a pu être finalisée : "Now and Then" de John Lennon, à laquelle Paul McCartney, Ringo Starr et même George Harrison décédé ont ajouté leurs parties musicales.
💢 Amazon lance un nouvel outil d'IA permettant aux annonceurs de générer automatiquement des arrière-plans engageants pour leurs publicités produits, dans le but de stimuler les performances marketing à moindre coût. Cette fonctionnalité s'inscrit dans la stratégie d'Amazon de placer l'IA générative au cœur de ses activités publicitaires.
💢 Shutterstock intégre des capacités d'IA à sa plateforme. Les nouvelles mises à jour permettent aux utilisateurs de modifier les photos de stock de sa bibliothèque de 750 millions d'images. L'entreprise rémunère les créateurs originaux et limite l'utilisation de l'IA à sa bibliothèque existante.
💢 L'IA a un coût environnemental caché lié à la consommation d'énergie de ses centres de données, dont l'impact pourrait être réduit par plus de transparence sur l'empreinte carbone des modèles et en incitant les utilisateurs à minimiser les requêtes.
💢 La startup 1337 mise sur des influenceurs virtuels hyperpersonnalisés générés par IA pour créer une nouvelle génération d'influenceurs 2.0 en surfant sur ce marché prometteur ; un concept innovant (terrifiant?) mariant IA et économie collaborative.
💢 Aux États-Unis, un juge a rejeté la plainte pour contrefaçon de 3 artistes contre des générateurs d'images par IA, estimant que seules 16 des centaines d'oeuvres étaient protégées et que les images générées ne sont pas nécessairement dérivées d'une oeuvre protégée.
💢 Des professeurs de Pennsylvanie s'inquiètent de l'impact de l'IA conversationnelle comme ChatGPT sur le cerveau et la créativité, craignant une perte de savoir-faire et de capacités cognitives si ces outils fournissent instantanément des réponses toutes faites; un impact à évaluer précisément pour repenser l'éducation face à l'essor de l'IA.
Le TLDR est terminé. Pour continuer la lecture c’est par ici 👇
Les news de la semaine
Le très respecté Ethan Mollick a récemment publié sur LinkedIn sa vision du futur pour l’IA. ll envisage 4 scenarii :
Ce qu’on a aujourd’hui, c'est tout ce qu'on aura. Les modèles de langage ne s'amélioreront plus.
Des progrès lents en capacité. Jarvis d’Iron Man pas avant 2035 dans vos chaumières.
Des améliorations exponentielles continues, mais pas d'intelligence artificielle générale (une IA auto-dirigée plus intelligente qu'un humain)
Une Intelligence Artificielle Générale.
D’après Mollick, il semblerait que beaucoup des discussions politiques actuelles visent l'option 4 et que la plupart des gens supposent uniquement l'option 1.
Pourtant, il affirme avec confiance qu'au moins l'option 2 se réalisera dans les prochaines années, mais l'option 3 semble très probable aussi. Pour le long terme, personne ne sait, et les informaticiens en débattent constamment, tous comme les lecteurs de cette newsletter.
Même si les modèles de langage atteignent leurs limites en tant que technologie, et qu'il n'y a pas de technologie de remplacement, l'intégration d'IA de niveau GPT-4.5 avec d'autres outils et systèmes résultera en des années de croissance continue des capacités.
AGI is coming
Un autre son de cloche nous est donné par Shane Legg, co-fondateur de Google DeepMind, qui maintient sa prédiction selon laquelle l'intelligence artificielle générale (AGI) aura une chance sur deux d'atteindre le niveau d'intelligence humaine d'ici 2028. Cette prédiction, faite il y a plus d'une décennie, est basée sur l'augmentation exponentielle de la puissance de calcul et de la quantité de données disponibles. Legg s'est inspiré du livre "The Age of Spiritual Machines" de Ray Kurzweil, qui prévoit un avenir avec des IA surhumaines.
De plus, il estime que la première étape pour atteindre l'AGI serait de former des modèles avec des données dépassant ce qu'un humain peut expérimenter en une vie. Malgré son optimisme, Legg estime qu'il n'y a que 50% de chances que l'AGI soit réalisée avant la fin de cette décennie. Moi je trouve ça TRES prochain. Et vous ?
Source : Futurism
Veolia se renomme VeolIA
Non, Veolia ne se renomme pas, mais le spécialiste de la gestion de l'eau et des déchets accélère sa transformation digitale en lançant Veolia Secure GPT, un outil d'intelligence artificielle générative à destination de ses 213 000 collaborateurs à travers le monde. Conçu en deux mois seulement, cet outil innovant vise à optimiser les processus métiers tels que la rédaction, la traduction ou la synthèse d'informations.
Propulsé par les technologies d'OpenAI et hébergé sur les plateformes cloud de Microsoft et Google, Veolia Secure GPT offre une plateforme digitale sécurisée pour les collaborateurs du groupe. Veolia met en avant la confidentialité des données assurée par cet outil interne. Déployé progressivement depuis juillet 2023, il est désormais accessible à tous les employés du groupe depuis octobre.
Source : la revue du Digital
D-ID goes mobile
L'entreprise israélienne D-ID, spécialisée dans les technologies d’avatars animés par l'intelligence artificielle, vient de rendre accessible son logiciel Creative RealityTM Studio via une application mobile. Disponible sur iOS et Android, cette application permet à tout utilisateur de créer facilement des vidéos de personnages virtuels à partir de simples photos et de scripts.
Déjà plébiscité dans sa version desktop avec plus de 150 millions de vidéos générées, ce studio d'effets spéciaux newgen ambitionne de doubler son nombre d'utilisateurs grâce à cette application mobile. Conçue pour un usage intuitif, elle donne accès à une large bibliothèque d'avatars et de voix dans 120 langues différentes. Les vidéos créées peuvent être partagées instantanément sur les réseaux sociaux et plateformes de messagerie. J’ai installé l’appli mais n’ai pas encore trouvé le temps de la tester; Je vous en reparle prochainement.
To the next level
Vous connaissez Fiverr ? C’est une place de marché en ligne pour travailleurs indépendants. Enormément de graphistes, illustrateurs, designers, créatifs dont l’activité est susceptible d’être impactée par l’IA. La plateforme s’est emparée du sujet dans sa dernière campagne de pub. Sur les affiches, les job titles fleurent bon le bullshit (Combien de AI video makers et de AI 3D Artists dans vos réseaux ?) mais préfigure probablement d’un futur pas si éloigné.
Ebra fait marche arrière
La semaine dernière, je vous parlais du groupe de presse Ebra qui avait décidé de déployer l'intelligence artificielle et générative dans ses salles de rédaction. Face aux critiques sur les menaces sur l'emploi, Ebra a suspendu ce projet. L'objectif était d'expérimenter les capacités de ChatGPT à produire des contenus avec validation humaine. Mais le Syndicat National des Journalistes) y voit une dérive et une menace pour le journalisme. Le groupe reste intéressé par l'innovation responsable mais veut prendre le temps de la réflexion avec ses équipes. Ce sujet montre les défis éthiques de l'utilisation de l'IA pour des contenus journalistiques.
Source : Le Figaro
Google distingue les images AI generated
Google a lancé une nouvelle fonctionnalité "À propos de cette image" pour aider à vérifier l'authenticité des images dans les résultats de recherche. Elle affiche l'historique de l'image, son utilisation sur le web et ses métadonnées, qui peuvent indiquer si elle a été générée par IA. Il suffit de cliquer sur les trois points à côté d'une image dans Google Images pour y accéder.
Google a aussi créé “Fact Check Explorer” pour obtenir rapidement des infos sur une image, et une API “FactCheck Search” pour l'intégrer dans des outils de vérification.
La société a également annoncé qu'elle marquerait toutes les images créées par Google AI, à l'instar d'Adobe Firefly.
Source : ZDnet
Google relance de 2 milliards
Google relance les enchères dans la course à l'intelligence artificielle générative en investissant 500 millions de dollars supplémentaires dans la start-up Anthropic, avec la possibilité d'aller jusqu'à 2 milliards. Ce nouvel investissement fait suite à celui d'Amazon de 1,25 milliard en septembre, pouvant atteindre 4 milliards. Les modèles de langage d'Anthropic, comme Claude, rivalisent déjà avec ceux d'OpenAI comme GPT. Personnellement, j’apprécie beaucoup Claude, que je préfère même à chatGPT-4 pour certaines tâches rédactionnelles.
Ces investissements massifs dans le calcul haute performance laissent présager des modèles encore plus puissants et démontrent la volonté des géants technologiques d'être à la pointe de l'IA générative.
Source : Le Monde Informatique
l’IA rend les Beatles immortels
La technologie d'intelligence artificielle utilisée pour le documentaire de Peter Jackson sur les Beatles a permis de sortir une "dernière" chanson du groupe. Intitulée "Now and Then", elle a été écrite et chantée par John Lennon dans les années 1970. Grâce à un logiciel séparant sa voix de sa démo piano, Paul McCartney, Ringo Starr et le guitariste George Harrison (décédé) ont pu enregistrer de nouvelles parties.
Cette chanson inédite, que Harrison jugeait à l'époque de piètre qualité, est sortie hier (2 novembre). Les survivants du groupe se disent émus de travailler à nouveau ensemble sur cette chanson retrouvée. L'IA a rendu cela possible près de 50 ans après la séparation des Beatles.
L’IA chez Amazon
Amazon déploie une nouvelle fonctionnalité permettant aux annonceurs de créer des arrière-plans pour leurs produits via l'intelligence artificielle. Selon Amazon, cet outil facilite la création d'images publicitaires plus engageantes et performantes. Il suffit de sélectionner le produit, cliquer sur "Générer" et choisir parmi les options proposées en quelques secondes. Les annonceurs peuvent aussi affiner les images avec des textes. Amazon espère ainsi réduire les frictions pour les annonceurs, leur offrir plus d'impact tout en diminuant les efforts. Cet outil s'inscrit dans la stratégie d'Amazon de placer l'IA générative au coeur de ses activités publicitaires. La fonctionnalité est pour l'instant déployée à certains annonceurs avant un déploiement étendu.
Shutterstock intègre l’IA
Shutterstock, le leader mondial du marché des images de stock, se lance dans l'intelligence artificielle avec Creative AI, un outil de génération d'images basé sur la technologie d'OpenAI. Cette intégration permet aux utilisateurs de créer et de modifier plus de 700 millions d'images sous licence. Creative AI, encore en phase bêta, inclut la dernière version de Dall-E d'OpenAI et propose des fonctionnalités telles que Magic Brush pour les retouches d'images, la génération de variations et l'expansion d'images.
Tiffany Gilron, directrice du marketing produit chez Shutterstock, souligne que ces outils permettent de produire du contenu sur mesure rapidement et facilement, sans expérience préalable en retouche photo. Bien que l'utilisation de Creative AI soit gratuite, l'achat des images finales nécessite un abonnement. Shutterstock insiste sur le fait que son générateur d'images AI produit du contenu prêt à être licencié et indemnise pour un usage commercial, et que les contributeurs sont rémunérés pour leur travail.
Source : Decrypt
Le coût environnemental de l’IA
L'intelligence artificielle a un coût environnemental caché. Ses centres de données énergivores consomment de l'eau pour refroidir leurs serveurs et produisent des émissions de CO2. Une conversation avec ChatGPT utiliserait 50 cl d'eau. Avec 1,5 milliard d'utilisateurs mensuels, l'impact s'accumule vite. Ces centres de données représentent 1% de l'énergie mondiale. Les émissions de CO2 dépendent des sources d'électricité pour l'entraînement.
Une étude de Microsoft montre qu'en changeant le lieu d'entraînement, on pourrait réduire les émissions de 75%. Le défi est la transparence sur le lieu d'entraînement et l'empreinte carbone des modèles d'IA. Cela permettrait aux utilisateurs de faire des choix éclairés pour minimiser leur impact, comme privilégier le moteur de recherche au lieu de solliciter excessivement ChatGPT.
Source : Euronews
Nouvelle vague d’influenceurs
La news “SF WTF” de la semaine c’est la startup 1337 (prononcer “Leet”) qui mise sur l'intelligence artificielle pour créer une nouvelle génération d'influenceurs virtuels hyperpersonnalisés. Ces "Entités", au nombre de 50 pour l'instant, possèdent chacune histoire, talents et centres d'intérêt uniques. Elles seront officiellement lancées en 2024. Les utilisateurs peuvent co-créer le contenu de ces personnalités 2.0 via Discord.
Modérés avant publication, ces posts sont générés par l'IA, dont GPT-4 et Midjourney. 1337 a levé 4 millions de dollars notamment auprès de Credo Ventures et du PDG de Hugging Face. L'objectif : développer cette communauté de "super-créateurs" rémunérés selon l'engagement de leurs Entités. Un concept innovant terrifiant qui marie IA et économie collaborative pour surfer sur le marché prometteur des influenceurs virtuels.
IA et copyright
Une décision de justice aux États-Unis marque une avancée dans le débat sur la violation du droit d'auteur par les générateurs d'images par intelligence artificielle. Le juge a rejeté en grande partie la plainte pour contrefaçon déposée par trois artistes contre Stability AI, Midjourney et DeviantArt. Seules 16 des centaines d’œuvres citées étaient effectivement protégées par le droit d'auteur.
Le juge estime qu'il n'est pas plausible que toutes les images utilisées pour entraîner ces IA soient protégées. De plus, les images générées ne sont pas nécessairement dérivées d'une œuvre protégée. Cette décision fait largement débat entre les défenseurs de l'IA générative et les artistes réfractaires à l’IA, qui peuvent encore déposer une plainte plus ciblée.
ChatDégénéré
Des professeurs de l'université de Pennsylvanie s'interrogent sur l'impact de l'intelligence artificielle conversationnelle comme ChatGPT sur le cerveau et la créativité humaine. Certains craignent que ces outils assèchent la créativité en fournissant instantanément des réponses toutes faites.
S'il permet de se concentrer sur l'essentiel, son utilisation excessive fait peser un risque de perte de savoir-faire et de capacités cognitives à long terme. Ces réflexions amènent à repenser l'éducation face à l'essor de l'IA. Mais entre excitation et crainte, l'impact réel de ces technologies sur l'esprit humain reste à déterminer précisément.
Aïe Aïe A.I.
Le 6 novembre prochain, la NFT Factory (dont je suis membre) accueille un événement intitulé : “Aïe Aïe A.I.”.
Sous ma casquette de Creative lead AI de Fleet Collective (qui organise l’événement), j’aurai le plaisir de prendre la parole aux côté de Charlotte Cohen de Braand Studio et d’Anne Lise Stern de GxrlsRevolution.
Le sujet : L'I.A. représente-t-elle plutôt une menace ou une opportunité pour les créateurs ? Comment les artistes et designers apprivoisent cette technologie ? Quels sont les outils et usages que nous recommandons ?
Les présentations seront suivies d’une table ronde.
RDV lundi 6 novembre prochain a la NFT Factory !
Juste une mise à jour sur les plus belles images de ma vie
Cette semaine a vu non pas une mais deux mises à jour sur deux des outils d’IA générative les plus en vue chez les créatifs audiovisuels : Midjourney et Runway Gen-2
1 - “T’as tuné l’bouzin ?”
Midjourney, l'un des générateurs d'images par intelligence artificielle les plus populaires, lance une nouvelle fonctionnalité : le style tuner. Cet outil permet aux utilisateurs de générer leur propre style visuel unique et de l'appliquer à toutes les images qu’ils produiront par la suite avec Midjourney.
Lancé à l'été 2022, Midjourney est régulièrement mis à jour avec de nouvelles fonctionnalités comme le “Zoom out”, le "panning" ou le "vary region".
Mais le style tuner est sans doute la plus importante à ce jour pour résoudre l’une des problématique récurrente de Midjourney : la cohésion visuelle entre les images générées. Il existe bien évidemment des astuces pour contourner le problème, par exemple :
Jusqu'à présent, les utilisateurs devaient répéter leurs descriptions textuelles pour obtenir un style homogène sur plusieurs images, sans garantie de résultat à 100%. Désormais, grâce au style tuner, ils peuvent choisir parmi divers styles et obtenir un code à appliquer à toutes leurs créations. Ils peuvent aussi partager ce code pour permettre à d'autres utilisateurs de générer des visuels dans le même style.
Comment ça marche ?
Dans le serveur Discord de Midjourney, il suffit de taper "/tune" suivi d’un prompt pour commencer à jouer avec les styles
Par exemple : "/tune a robot wearing a cozy sweater and siting in front of a fireplace drinking hot chocolate out of a mug” (un robot porte un sweatshirt douillet et est assis devant une cheminée en train de boire du chocolat chaud dans un mug).
Midjourney demande alors si l'on souhaite continuer et propose deux menus déroulants.
Le premier permet de choisir le nombre de "directions de style" (16, 32, 64 ou 128). C'est le nombre d'images différentes que Midjourney va générer pour offrir des styles distincts.
ATTENTION ! Plus il y a d'images, plus le crédit GPU requis est important. + d’une heure de temps de GPU pour 128 images.
Le second menu permet de sélectionner le "mode" (défaut ou brut). Le mode brut (“raw”) donne des images non stylisées, plus “authentiques”. Après validation, Midjourney génère les images selon les paramètres fournis.
Une fois le traitement terminé, Midjourney envoie un lien vers le site tuner.midjourney.com. L'utilisateur a alors deux options :
La première consiste à comparer deux styles à la fois. Les images générées s'affichent par paire. L'utilisateur sélectionne une image dans chaque paire, sur autant de lignes qu'il le souhaite. Midjourney combine ces styles en un style unique. Plus il choisit d'images, plus le style est nuancé. Moins il en sélectionne, plus le style est marqué.
La seconde option affiche la grille complète des images générées. L'utilisateur en choisit une seule, ce qui donne un style plus précis mais aussi plus limité.
Une fois les choix effectués, Midjourney crée automatiquement un code alphanumérique court qui correspond au style personnalisé. Ce code peut être copié et collé à la fin des prompts pour appliquer ce style à toutes les images générées par la suite. Le code fonctionne avec les autres paramètres comme le format.
De retour sur Discord, il suffit d'ajouter "-style [CODE]" à la fin de sa consigne. Les nouvelles images produites adopteront ce style sur mesure.
Mon exemple de chien sur la lune est tellement moche qu’il mériterait une récompense mais il faut dire que l’image de ref n’était pas piquée des hannetons :
Vous avez saisi le concept : si la cohérence visuelle n’est pas encore 100% parfaite, le style tuner de Midjourney représente une avancée majeure pour les professionnels de la création qui recherchent une identité visuelle homogène.
J’y vois également un super outil d’exploration stylistique. A partir d’un unique prompt, la fonction /tune permet d’explorer de 16 à 128 styles différents. Ça donne le tournis. Un outil à apprivoiser pour éviter de se retrouver noyé sous les options, comme lors de nos soirées d’errance à essayer de décider quel film/série regarder sur Netflix.
2 - Runway Gen-2.5
Runway vient de mettre à jour son logiciel phare : Gen-2, l’outil de text et/ou image-to-video favori de la plupart des créatifs IA.
La mise à jour apporte des améliorations majeures à la fois à la fidélité et à la cohérence des résultats vidéo. Concrètement, le réalisme fait un bond en avant, la qualité devient littéralement spectaculaire.
Je pense personnellement que nous arrivons à un turning point dans la génération de vidéos. Et parce que quelques images valent 1000 mots, regardez plutôt :
Nicolas Neubert a créé cette vidéo à partir de visuels Midjourney, animés dans Gen-2. C’est donc 100% Ai generated.
Un deuxième exemple, si vous préférez les animaux sauvages aux fashion videos :
Alors oui, quelques bizarreries et petits artefacts subsistent ça et là mais souvenez vous où en était la vidéo générée au premier trimestre 2023 (et Allez Zizou !) :
Et maintenant imaginez où on en sera dans 6 mois ?
J’ai ma petite idée sur la question…
Cette édition est maintenant terminée, merci de l’avoir lue jusqu’ici. Je vous souhaite une excellente fin de semaine, avec pas trop de spaghettis dans le nez.
Si cette édition vous a plu, vous pouvez la partager en cliquant juste ici :
Vous pouvez également me suivre sur LinkedIn et activer la cloche 🔔 pour être tenu informé des prochains posts, et me contacter pour toute proposition d’intervention, conférence, projet, formation liée à l’intelligence artificielle générative.
Et n’oubliez pas de vous abonner pour ne rien rater des prochaines éditions 👇
Les innovations sur MJ et Runway sont complètement dingues 😳😳😳😳