Le NeRF de la guerre
Salut les humains, bienvenue dans cette nouvelle édition de GENERATIVE, la Newsletter consacrée aux outils et aux usages de l'intelligence artificielle generative.
Au programme de cette édition :
Le NeRF, ça vous parle ?
Les news de la demi-semaine
Et toi, tu fais quoi avec l'IA : La très grosse interview de Mathieu, un power user IA.
C'est parti !
Le NeRF, ça vous parle ?
Si lorsqu'on vous dit "NERF" vous pensez à ça
Ou à ça
Alors cet article est fait pour vous.
Qu'est-ce que le Neural Radiance Field (NeRF) ou champ de radiance neuronal en français dans le texte ?
Il s'agit d'une technique qui génère des représentations 3D d'un objet ou d'une scène à partir d'images 2D, en utilisant le Machine Learning.
La technique consiste à encoder l'ensemble d'un l'objet ou d'une scène dans un réseau neuronal artificiel, qui prédit l'intensité lumineuse - ou radiance - en tout point de l'image 2D afin de générer de nouvelles vues 3D sous différents angles.
La génération proprement dite fonctionne en interpolant les images d'entrée pour restituer une scène complète.
Ce processus est analogue à la manière dont les hologrammes peuvent encoder différentes perspectives, qui sont débloquées en faisant briller un laser dans différentes directions. Dans le cas des NeRF, au lieu d'éclairer, une application envoie une requête indiquant la position et la taille de la fenêtre de visualisation souhaitées, et le réseau neuronal génère la couleur et la densité de chaque pixel de l'image résultante.
Les NeRF sont incroyablement prometteurs pour représenter les données 3D plus efficacement que les autres techniques et pourraient permettre de générer automatiquement des objets 3D très réalistes. Utilisés avec d'autres techniques, les NeRF ont un potentiel incroyable pour compresser massivement les représentations 3D du monde, les faisant passer de gigaoctets à des dizaines de mégaoctets.
En 2022, le magazine Time a classé une application NeRF de Nvidia, parmi les meilleures inventions de l'année. Alexander Keller, directeur de la recherche chez Nvidia, a déclaré au Time que les NeRF "pourraient être aussi importants pour les graphiques 3D que les appareils photo numériques l'ont été pour la photographie moderne".
Et parce que certaines images valent 1000 mots, voici quelques exemples en images :
https://youtube.com/shorts/ZBBBUQpxaZ4?feature=share
https://youtube.com/shorts/MCc0CE_homs?feature=share
Les news de la demi-semaine
GigaChat
La Russie s'est lancée dans la course aux chatbots d'IA avec GigaChat, qui ambitionne de devenir un rival de ChatGPT. Pour l'instant, GigaChat n'est disponible qu'en mode test sur invitation.
Depuis que les pays occidentaux ont réduit leurs exportations vers la Russie en imposant des sanctions sévères en raison de la guerre en Ukraine, la Russie aurait réalisé des investissements majeurs dans la technologie afin de réduire la dépendance du pays à l'égard des importations. GigaChat serait l'un des "fruits" de ces investissements technologiques.
Le Monde s'intéresse à l'IA generative
Le journal Le Monde a récemment publié un article assez fouillé sur les usages de l'intelligence artificielle generative pour lequel j'ai eu le plaisir d'être interviewé ❤️
L'article est accessible pour les abonnés ICI
Solana sur le front de l'IA
Les utilisateurs de Solana pourront bientôt interagir avec le réseau grâce à un plugin open source activé sur ChatGPT. Ce plugin permettra à ChatGPT de vérifier les portefeuilles, les soldes, de transférer des jetons natifs de Solana (SOL) et d'acheter des NFT.
Solana Labs encourage également les développeurs à tester l'utilisation du code open source pour récupérer les données de la chaîne qui pourraient les intéresser.
https://github.com/solana-labs/chatgpt-plugin
Track Anything
Il y a une quinzaine d'années, j'ai réalisé un court métrage avec un caméscope mini DV La profondeur de champ était immense, l'image était plate et ne me plaisait pas. Sous After Effects, j'ai entrepris de rotoscoper (découper) mes personnages à la main pour les détacher du fond, sur lequel j'appliquais un effet de flou. Au bout de 55 heures de travail et une terrible tendinite au poignet, j’abandonnais. Aujourd'hui, j'utiliserais “Track Anything” et ça me prendrait 10 secondes.
Track-Anything est un outil pour le suivi et la segmentation d'objets vidéo. Il permet de spécifier n'importe quel objet à suivre et de le segmenter en quelques clics. Pendant le suivi, les utilisateurs peuvent changer les objets qu'ils veulent suivre ou corriger la zone d'intérêt s'il y a des ambiguïtés.
Ça a l'air diablement efficace 👇
Et puisqu’on montre des super héros, lors d'une récente interview, Joe Russo (réalisateur de Avengers Endgame) a déclaré qu'il pensait qu'un film entièrement basé sur l'IA - un film si convaincant qu'on ne sait même pas qu'il s'agit d'une IA - n'était plus qu'à deux ans de distance.
Difficile de dire si cette déclaration est une bonne ou une mauvaise nouvelle. Je pense que les producteurs feront la course au premier pour le “AI generated movie", mais que l'effet de hype devrait s'estomper par la suite. Quoi qu'il en soit, Joe Russo doit savoir de quoi il parle : il est membre du conseil d'administration de plusieurs entreprises spécialisées dans l'IA.
AI Avatars are coming
TikTok serait sur le point de lancer une fonctionnalité qui créera des photos de profil générées par l'IA. À première vue, l'outil crée des profile pictures qui ressemblent beaucoup à celles produites par l'application Lensa de Prisma Labs, mais intégré directement à TikTok.
L'avalanche d'avatar IA dans les feeds TiTok devrait bientôt déferler.
Et toi, tu fais quoi avec l'IA ?
Salut Mathieu, peux tu te présenter brièvement ?
Bonjour, Je suis Mathieu Crucq , j’ai 37 ans et je suis directeur général de l'agence Brainsonic.
Au-delà du pilotage de l’agence avec mes partners in crime et de l’accompagnement stratégique pour des grands comptes, je porte les sujets d’innovations à l’agence.
Peux tu nous parler de ton usage de Midjourney et de ChatGPT pour tes projets pro et/ou perso ?
Alors c’est assez poreux entre le pro et le perso. Quand j’ai commencé à creuser le sujet des AI, c’était autour de l’été 2022. A cette époque pas si lointaine, c’était encore de la science fiction pour 99,99% des gens. On en parlait peu, c’était très niche, et ca m’a permis de faire pas mal de tests sans trop de pression. Restrospectivement, ça nous a surtout permis de monter en compétence avant l’engouement général et donc d’avoir, un peu plus, de prise de recul quant à ces technologie pour les utiliser dans nos flux de production. Et d’accompagner la conduite du changement en interne.
Aujourd’hui, j’ai un rôle de veille sur Midjourney (je forme beaucoup, je continue à faire la veille et à former nos équipes) plus que de production pure (ce n’est pas mon métier).
Mais 60 000 visuels ont été créé par Brainsonic sur les 6 derniers mois sur notre Discord agence. Aujourd’hui, 100% des créa et 100% des équipes social media + évenementiel utilisent Midjourney dans leur routine de travail.
Idem avec chatGPT. J’explore beaucoup, lance des projets tech avec l’équipe web mais surtout forme mes équipes et nos clients à sa bonne utilisation pour aider à la productivité. Aujourd’hui, l’outil est extrêmement utilisé à tous les niveaux, et on a même formé les équipes à « finetuner » (c’est un peu exagéré mais on voit l’idée) la solution pour des contextes clients bien précis.
Parles nous de ton utilisation de la technologie NeRF.
J’ai découvert NeRF via ma veille sur Twitter et Reddit. Ça m’a paru fou alors j’ai eu envie de creuser le sujet. A l’agence on a l’avantage d’être bien staffé (un peu plus de 130) avec des équipes spécialisées dans la production vidéo et motion. Du coup, c’est devenu un projet interne. On a fait beaucoup de veille, de tests pour aboutir à la production d’une vidéo NeRF interne servant de démonstration. L’idée était à la fois de monter en compétence (moi + les équipes, comprendre les limites) pour demain pouvoir dégainer la technologie dans des cas de figures pertinents.
Et ca a joué son rôle puisque suite à cette vidéo nous avons eu des demandes bien réelles !
Cette technologie permet d’envisager des choses impensables il y a encore quelque temps et j’ai hâte de pouvoir tester ZIP-NeRF (une sorte d’évolution encore plus quali) pour concevoir des dispositifs immersifs bluffants et ultra réalistes.
Que te permettent de faire ces outils que tu ne faisais pas avant ?
Il y a leur rôle tangible (faire plus, plus vite), et leur rôle philosophique. En effet, la déferlante des AI génératives interroge forcément notre rôle, sur le sens, sur notre métier, et interroge sur la notion de valeur ajoutée ; Ils permettent une vraie prise de conscience et impose à la fois du recul et un peu d’humilité.
Peux tu quantifier leur apport ?
Il y a beaucoup de fantasme sur l’apport ou sur le remplacement des hommes pas les AI. Ça va arriver mais le premier frein, c’est d’abord l’appropriation. Faire 3 tests sur Midjourney et ChatGPT et le passer à l’échelle dans une agence ce n’est pas pareil. Là encore, ça nécessite plus que de la mise à disposition seule. Il faut former, expliquer, faire de la pédagogie. On dit que ces outils pénètrent par le bas les entreprises c’est partiellement vrai.
J’observe que ces technos sont préemptées par tous les services, c’est vrai, mais surtout par des early adopters qui peuvent ou pas rayonner sur le reste de l’équipe. Nous avons fait parier à l’agence sur les 2 cotés. Donner les clefs pour une appropriation autonome, mais en même temps, conduire le changement avec des interventions, des formations, des projets internes, des tests, la mise à disposition de licences etc…
De ma fenetre, l’apport est à plusieurs niveaux :
En créa, on peut crafter plus vite des rendus plus fous, voire des maquettes définitives.
En conseil ou social media, on utilise les AI pour brainstormer, trouver des idées, développer certains sujets. Ca désengorge des services où il fallait du staffing et du temps pour chaque livrable. Aujourd’hui, certaines tâches sont exécutées en autonomie, permettant de ne pas saturer certaines équipes avec des micro demandes.
Ca inverse en partie le temps pour l’idée et le temps pour l’éxécuter.
Comment aimerais tu les utiliser à l'avenir ?
Mon rôle principal aujourd’hui est d’être en pointe sur ces sujets pour :
Accompagnement la conduite du changement interne + clients
o Un devoir en tant que DG mais aussi pour garantir de toujours se positionner en experts VS subir ce qui arrive
Tester beaucoup pour anticiper les évolutions du marché et saisir de nouvelles opportunités business
o Fera-t-on toujours telle activité dans 12 mois ? 24 mois ? 36 mois ? Comment se positionner ? Comment développer de nouvelles compétences ? Comment les valoriser ?
o Les annonceurs seront-ils toujours OK pour payer une prestation 300k euros qu’une machine pourra peut-être faire ?
Et à titre perso, si j’arrive à entrainer une AI pour me doublonner dans mon quotidien, je ne suis pas contre Car le jour où elle fera ça, je serai moi en train de faire autre chose
Utilises tu d'autre outils d'IA generative ?
A l’agence on a une stack AI qui commence à être bien étoffée.
En génération d’image on utilise Midjourney et Stable Diffusion. Demain évidemment, avec les implémentations Adobe on utilisera aussi Adobe Firefly.
En langage ChatGPT + son API pour du développement applicatif ainsi que Notion AI.
Pour le reste on utilise du Adobe Podcast pour du traitement de son, Descript pour du transcript, Runway pour certains projets vidéos, Looka dans certains cas et enfin une batteries de solutions techniques qui, couplées à certaines solutions no-code, permettent d’automatiser des processus.
Globalement, quel est ton sentiment sur les outils d'IA générative ?
Je pense que tout cela va se normaliser, comme internet s’est normalisé, comme les RS, ou comme le smartphone, etc... In-fine, l’AI sera un service comme le correcteur orthographique. Mais avec son déploiement massif, des métiers d’aujourd’hui s’effaceront et de nouveaux métiers, propres à un monde dopé à l’AI, naîtront.
Comment vois tu l'avenir de ce point de vue ?
Ma plus grande crainte ne concerne pas les experts d’aujourd’hui qui ont connu l’avant et peuvent challenger la production d’un AI à l’aune de leur formation / culture métier. Mais quid demain, dans 5 ans, dans 10 ans. Il est impératif de se pencher dès maintenant sur l’évolution de l’enseignement dans un monde dopé aux AI. Pour que l’humain conserve sa capacité à interroger et challenger ce qu’elles produiront .
Merci Mathieu !
Et voilà, c'est la fin de cette édition du vendredi 28 avril, j'espère que le contenu vous a plu.
N'hésitez pas à vous abonner et à en parler autour de vous. Soyez les chatGPT du bouche a oreille !
Excellente fin de semaine, à la semaine prochaine pour une nouvelle édition !