Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
SAISON 2 - EPISODE 7 - ACTU IA image

SAISON 2 - EPISODE 7 - ACTU IA

S2 E7 · TechSpresso
Avatar
27 Plays6 months ago

🌐📰 Bienvenue dans l'épisode de "TechSpresso" où nous explorons les dernières tendances des IA génératives, spécialement dans la génération de contenu vidéo. 🚀💻

🎉 Rejoignez Laurent et moi alors que nous découvrons comment ces technologies révolutionnent la création visuelle. 💼🎥

🎧 Écoutez cet épisode sur votre plateforme préférée pour voir comment l'IA façonne l'avenir de la vidéo. Abonnez-vous pour ne rien manquer de l'innovation technologique. 📲💬

📢 Venez également discuter avec nous sur Discord pour partager vos impressions ou questions sur l'IA générative : https://discord.gg/emS4cX4G

🎙️ Visionnez notre discussion sur YouTube pour une expérience plus visuelle : https://www.youtube.com/@TechSpresso-ug5hl

🍏🎤 Et bien sûr, retrouvez-nous aussi sur Apple Podcasts : https://podcasts.apple.com/fr/podcast/techspresso/id1729008749

👨‍💻 Pour en découvrir plus sur les plateformes que nous avons abordées, voici quelques liens utiles :

- https://runwayml.com

- https://klingai.com

- https://huggingface.co/spaces/black-forest-labs/FLUX.1-schnell

- https://claude.ai/login?returnTo=%2F%3F

- https://www.futura-sciences.com/tech/actualites/technologie-cette-ia-scientifique-modifie-son-propre-code-echapper-controle-humains-utilisent-115296/

- https://www.futura-sciences.com/tech/actualites/technologie-utilisateurs-ont-plus-plus-echanges-intimes-chatgpt-cela-inquiete-maison-mere-115214/

- https://www.futura-sciences.com/tech/actualites/technologie-ces-robots-mous-sont-capables-assembler-amputer-membres-adapter-situation-114597/

- https://www.futura-sciences.com/tech/actualites/technologie-ils-creent-supercondensateur-base-ciment-peut-rendre-maisons-autosuffisantes-energie-113983/

Nous embrassons chaleureusement Taous, et un salut spécial à Étienne, toujours pris mais jamais oublié ! 🌟

🔗 Un grand merci à notre sponsor IT Séla pour leur soutien continu. Découvrez plus sur leurs services en visitant https://it-sela.fr.

Restez à l'écoute pour plus d'épisodes de "TechSpresso", où nous explorons les innovations qui transforment notre quotidien. 🎧 #TechSpresso #IAgénérative #CréationVidéo #InnovationTech

Recommended
Transcript

Introduction de l'épisode 7

00:00:17
Speaker
Bonjour à toutes et à tous, on est sur l'épisode 7, selon ma chronologie de la saison 2.
00:00:27
Speaker
On s'est quitté sur la saison 1 sur l'épisode de 15. Donc on est à l'épisode de 7. 22. On va reprendre ta nomenclature et on va arrêter d'y aller avec les épisodes. Ouais, non, mais c'est pas important. Ça le fait aussi.

Focus sur l'IA générative et les outils de génération vidéo

00:00:52
Speaker
Comme d'habitude Laurent nous a toujours préparé des trucs et aujourd'hui c'est essentiellement sur l'IA générative mais vidéo c'est ça ? Ouais comme d'habitude parce que pour le coup sans toi il n'y aura pas grand chose à dire. Alors on va reparler IA parce que je suis tombé sur une news hier sur un nouvel outil pour générer de la vidéo et du coup tu m'as reparlé d'un autre que toi t'avais découvert donc on va parler des deux comme ça ça va être fait on pourra les comparer.
00:01:16
Speaker
Donc, en gros, c'est pour parler de concurrent à Sora, pour ceux qui ne connaissent pas. Sora, c'est de OpenAI, c'est l'IA qui permet de générer des petites vidéos assez courtes, assez réalistes, plutôt pas mal, on va dire. Faut pas non plus cracher dans la soupe, ça marche bien. On a vu circuler ça à sa date de compte, un peu avant les vacances, les premières vidéos, je crois, sont sorties. Ça commence à circuler sur les réseaux. Pour le coup, OpenAI, c'est ceux qui font de chats GPT, ceux qui vraiment ne connaissent rien.
00:01:43
Speaker
C'est la même boîte qui font aussi la photo avec Dali. Oui, c'est ça Dali. Oui, on en fait trois sur Dali.

Présentation de Sora et Runway ML

00:01:50
Speaker
Exact. Et moi, hier, en faisant un peu le tour de mes news pendant mes congés, je suis tombé sur un truc qui s'appelle Runway. Runway qui est un nouvel acteur dans la génération de vidéos. Alors, ça s'appelle aussi Runway ML. On le trouve sous les deux noms. La boîte, la boîte, officiellement, c'est Runway ML. On la trouve sur RunwayML.org. Je crois le lien. Donc, c'est une entreprise américaine qui est basée à New York.
00:02:10
Speaker
qui s'est spécialisé dans la création de modèles permettant de générer des vidéos, des images et divers contenus multimédia. Assez classique, un truc plutôt standard. Ce n'est pas une vieille compagnie, elle a été fournée en 2018, ce n'est pas très vieux. Et la première version, la Gen 1 de l'Aria est sortie en 2023. Donc c'était une IA assez basique qui permettait de générer de nouvelles vidéos en appliquant des compositions et des styles à une image ou à un texte. Donc c'était du texte ou vidéo assez classique.
00:02:38
Speaker
Ensuite ils ont sorti la Gen 2, donc c'était plutôt un système multimodal qui elle pouvait générer des nouvelles vidéos avec du texte, des images ou des clips vidéo. Donc elle pouvait reprendre des parties de clips vidéo pour régénérer des vidéos. C'est pour ça que c'est multimodal pour le coup. Voilà multimodal. Sur le site il marque que la Gen 2 était l'un des premiers modèles de conversion de texte en vidéo disponible dans le commerce. Je n'ai pas vérifié les dates de sortie par rapport à Sora.
00:03:06
Speaker
Pour le coup, ce qu'il faut savoir, c'est que Sora n'est pas encore disponible. Ils ont présenté ça à l'office de Keynote, mais pour le coup, Renoway est certainement le cursuaire dans le domaine. Il est probablement le premier à avoir proposé un texte ou vidéo dans le commerce.

Nouveautés de Runway : modèles Gen 3 et Turbo

00:03:21
Speaker
Là, du coup, ils ont annoncé la Gen 3 il y a très peu de temps. Et c'est pour ça que je fais un peu la news, parce qu'ils ont annoncé la Gen 3 il y a quelques semaines. Alors, c'est la première d'une série de modèles formés par Renoway sur une nouvelle infrastructure.
00:03:36
Speaker
Alors, on va utiliser des termes techniques, je n'ai pas tout compris, qui est conçu pour la formation multimodale à grande échelle. Donc, en gros, il s'agit juste d'améliorer la fidélité, la cohérence du mouvement par rapport à la Gen 2. Ce qui est intéressant, c'est qu'ils ont annoncé la Gen 3 il y a quelques semaines et ils ont annoncé la Gen 3 Turbo, je crois que c'est appelé comme ça. La Gen 3 Turbo il y a quelques jours, donc, enfin, quelques jours après la Gen 3, ils ont annoncé la Gen 3 Turbo qui, elle, est déjà sept fois plus rapide que la Gen 3.
00:04:04
Speaker
au niveau de la génération des vidéos. Alors, cette fois, peu rapide, ça veut dire quoi ? Ça reste quand même... Sur leur site, ils disent 60 secondes pour générer une vidéo de 5 secondes ou 90 secondes pour générer une vidéo de 10 secondes. On est quand même sur du quasi temps réel. Il ne faut pas non plus... 90 secondes pour 10 secondes de vidéo, c'est quasiment du temps réel.
00:04:30
Speaker
Ah non, je l'ai sauté, je l'ai pas dit. Non, j'en parle après. Sur quoi ça a été utilisé. Donc après, ils ont des trucs assez classiques. Ils ont du texte ou vidéo. C'est classique, tu définis un prompt le plus précis possible et ça génère ta vidéo. Ils ont un truc qui s'appelle visual effect qui est vraiment très drôle. C'est le côté un peu sympa du truc. C'est que sur les exemples que tu trouves sur leur chaîne YouTube, ils prennent une photo d'une vidéo d'une certaine taille. Dans le prompt, ils demandent de faire grandir la vidéo, de faire grandir la plante, de la faire grandir.
00:04:59
Speaker
Mais en plus d'ajouter une personne qui l'arrose en même temps. Donc tu as une photo et de la base de cette photo, ils en font une vidéo tu vois la photo qui grow up comme ça pendant qu'il y a une personne qui l'asperge. Donc il rajoute la personne qui l'asperge par dessus la photo de la plante qui grandit. Je cherche la vidéo. Ça s'appelle comment tu dis ? C'est RunwayML. J'ai mis les liens en bas dans le... Ah bah cool attends. J'ai mis le lien du chaîne YouTube et du site dans la news.

Utilisation professionnelle et fonctionnalités de Runway

00:05:27
Speaker
Et du coup, c'est assez marrant de partir sur une photo fixe.
00:05:29
Speaker
de dire, fais-moi bouger une partie de la photo, mais en plus, rajoute-moi un inclus vidéo dedans. Sur le site, tu as aussi une autre vidéo comme ça de visual effect tu vois un mec courir devant un immeuble et ils font couler de l'eau à partir de l'immeuble, ou ils font couler de la lave dans l'immeuble ou brûler l'immeuble. Donc ils rajoutent des effets visuels sur une vidéo déjà existante ou sur une photo existante. En partant d'une photo fixe en disant, la photo par exemple du monsieur, c'est une photo d'un monsieur qui est devant l'immeuble et tu dis, fais-moi courir le monsieur. Donc déjà, ils rajoutent l'animation et en plus, dis-moi, fais-moi brûler l'immeuble.
00:06:00
Speaker
C'est assez sympa le visual effect. C'est pas trop visible justement le... Ah ça c'est bien foutu. En tout cas sur les vidéos du channel youtube c'est assez bien foutu quand même. Merde attends je trouve pas le channel youtube. J'ai le lien en bas dans la news. Ah ouais mais d'accord ok j'étais parti trop trop bas dans ton motion. Oui oui ouais peut-être.
00:06:24
Speaker
Alors juste pour revenir, j'ai sauté la partie du modèle d'entraînement. Pour la Gen 3, ce qu'ils ont dit, je cite ce qui est marqué sur le site, les données d'entraînement pour la Gen 3 proviennent de milliers de vidéos YouTube et de films potentiellement piratés. Un ancien employé de Runway a affirmé qu'un effort à l'échelle de l'entreprise consistait à compiler des vidéos dans des feuilles de calcul qui étaient ensuite téléchargées à l'aide de YouTube downloader via des serveurs proxys afin d'éviter de bloquer par YouTube. Donc les mecs, ils faisaient des listes de vidéos à télécharger.
00:06:54
Speaker
Ils utilisaient des serveurs proxys pour les télécharger et après ils les entraînaient liés avec ça. Quelque part, ils ont raison d'utiliser YouTube. Après, forcément, il y a le côté légal, mais YouTube, c'est quand même là, t'as de tout et n'importe quoi. J'avais noté aussi, c'est ça que je cherchais avant quand j'hésitais, c'est que c'est déjà utilisé dans le monde artistique, runway. Ça a été utilisé dans l'équipe de Kenny West. Ils utilisent runway dans l'équipe de Kenny West pour faire des montages. Vu comment il est barré, quelque part, ça colle plutôt bien avec le...
00:07:30
Speaker
C'est un truc qui fonctionne déjà bien pour un truc qui est en 2018
00:07:35
Speaker
Donc voilà, le visual effect, je trouve que c'est le truc le plus sympa qui est le petit effet wow du truc, parce que texte ou vidéo, tout le monde connaît, saura le fait, il y en a d'autres. Et il y a une pub aussi qui est sortie il y a plus de, bientôt un mois maintenant de ça, qu'on n'a peut-être pas eu en France, je crois, mais MacDonald a utilisé 100% d'IA pour faire une pub. Je ne sais pas si tu l'avais vu aussi. Je l'ai pas vu. Je l'ai, mais je suis en train de chercher. Ils ont une autre option à part texte ou vidéo et visual effects, c'est le multi motion brush.
00:08:05
Speaker
Donc ça c'est assez classique aussi, enfin assez classique. Tu utilises un pinceau pour identifier jusqu 5 sujets ou zones dans ta scène auquel tu veux appliquer des mouvements en spécifiant des directions spécifiques et machin dans ton prompt. Donc tu as une vidéo d'un phare par exemple, tu as une photo d'un phare il ne se passe rien, la mer est calme. Tu peux prendre la photo, sur ta photo, brucher la mer et dire fais moi une tempête. Donc ton phare ne va pas bouger, par contre la mer elle va être tempétueuse.
00:08:35
Speaker
Donc du coup tu peux modifier ça en disant, le phare je veux pas qu'il bouge, tu y touches pas, par contre tu veux juste à la zone que je te brush qui est la mer quoi. Et tu veux une mer tempêteuse quoi par exemple. Ah oui oui, je suis dessus sur une vidéo Youtube effectivement, t'as un délire. Donc voilà, tu peux s'amuser à faire des trucs comme ça.
00:08:54
Speaker
et après ils ont la partie caméra contrôle qui permet de déplacer la caméra avec des intentions en sélectionnant la direction, l'intensité donc tu peux dire je veux faire du first person viewer donc je veux voir ma vue à moi mais je veux avancer dans une prairie puis d'un coup je veux rentrer dans une grotte derrière la grotte il y a l'antarctique et tu vois une vidéo qui avance comme ça tu t'avances dans cette grotte et tout tu peux contrôler la caméra, tu peux contrôler les zones, tu peux contrôler les visuels effect donc tu peux commencer à contrôler pas mal de choses
00:09:23
Speaker
je suis en train de regarder le brush le motion brush c'est ouais donc après c'est le truc assez classique qu'il y a dans les IA de dire bah cette zone sur les pixels google par exemple bah le fond je veux l'enlever ou tiens le skateboard je veux le virer ou cette personne qui est à côté de moi je veux la dégager bah c'est l'inverse au lieu de brushé la zone que tu veux toucher tu broches la zone que tu veux pas toucher et tu dis le reste tu peux toucher mais pas de sac
00:09:46
Speaker
Ils ont l'air quand même vachement plus en avance sur la génération de vidéos quand même que que Sora ce qu'ils nous ont montré pour le coup. Ouais, bah c'est franchement. Et puis les vidéos sont jolies. Ce que tu vois sur YouTube. Après, je n'ai pas les détails sur la qualité de la sortie. Je n'ai pas trouvé si c'était du. Je ne sais pas si je peux en mettre une de. Je ne sais pas si tu vois ici, on voit. Ouais, le motion brush. Attends, je l'ai vu. Ouais, t'en as plein. Là, ce n'est plus parlant.
00:10:18
Speaker
En gros, ils prennent, on va aller plus vite, ils prennent cette image. Donc ils génèrent une image, celle-là. Là, en gros, ils balancent un peu son pinceau partout. Et ensuite, ça anime. C'est quand même assez balèze. Je trouve ça plutôt bien foutu.
00:10:44
Speaker
Alors après, j'ai pas trouvé le. Oui, c'est ce que j'ai demandé. Les vidéos sont sur le site de Runway directement. D'accord, j'irai faire un tour et je vais me mettre après. Donc le coup, forcément, il y a une version gratuite, comme tous les trucs. Donc c'est ça que je me suis amusé hier soir. T'as très vite fait le tour des jetons que t'as le droit sur la version gratuite. En gros, tu as 25 secondes de vidéo en Gen 2, tu as 8 secondes de vidéo en Gen 1 ou 25 images à générer parce que ça génère des images aussi.
00:11:16
Speaker
Ça va très vite, très vite composé, peut être très vite. Oui, c'est ce que j'allais dire. Mais du coup, si tu prends un abo ou un truc comme ça, c'est combien ?

Tarification de Runway et introduction de Kling AI

00:11:26
Speaker
Alors après les abos, les abos, je n'ai pas le détail de ce que ça donne en plus, mais bon, en gros, plus tu prends le cher, plus ça t'a de jeu. C'est ça commence à 12 euros par user et par mois. Le deuxième moment à 28, t'as le dernier à 76. Après, t'as l'abonnement Enterprise il faut les contacter, quoi. Là, ils te font un tarif.
00:11:44
Speaker
Mais ça peut monter de 12 à 16, ça peut aller de 12 à 16 euros, 12, 28, 76. 76, on est limité. Quand tu regardes sur le site, 76 euros par mois, c'est déjà illimité l'utilisation. Alors attends. Ça va, je trouve le tarif 12 euros, parce que quand tu compares entre une mid-journée qui ne fait que de l'image, je crois que ça doit être 5 ou 6 euros de base. Alors je vais aller voir 12 euros. À quoi ça correspond à peu près? Ça fait 625 crédits.
00:12:15
Speaker
C'est 125 secondes de gen 2, 45 de gen 1 ou 125 images. 125 secondes, c'est pas non plus. Non, mais bon, tu peux vite. Je pense te construire des trucs assez sympas et puis à partir du 36 euros, c'est limité. C'est paiement annuel. 12 28 76, c'est pas à moi, mais c'est paiement annuel. 144 pour le premier, 336 pour le pro et 912 pour le unlimited. Je repartage mon écran, c'est juste pour ça.
00:12:42
Speaker
Alors, tout ce qu'on voit là, c'est fait par IA quand même. Je ne sais pas si les gens se rendent compte, mais c'est quand même assez encore à travers le teams et le vidéo machin. La vidéo n'est pas super, mais oui, oui, oui. Mais regarde, tu prends ça déjà un effet de particules. Mais attends, je ne peux pas la grandir dans ce truc là. Enfin, déjà, ça, c'est assez bluffant. Le ballon avec les lumières sur l'objectif ressemble un peu à l'effet que tu retrouvais dans le Marvel Doctor Strange. Oui, oui, oui, oui.
00:13:11
Speaker
C'est fou quoi, enfin je ne sais pas. Alors attention, tu peux te dire, je ne sais pas comment c'est fait là, mais tu peux très bien dire que ça part d'une photo de base. Mais c'est ça justement, c'est ça que je trouve très fort. le train en bas à droite ou je ne sais pas, c'est le train en bas à droite que tu as. Ça peut très bien être une photo de la cabine de pilotage et tu lui dis fais moi avancer le train quoi.
00:13:31
Speaker
ça part d'une photo à la base quoi. On est bien d'accord mais non, c'est assez bluffant. Franchement, le rendu comparé à Sora. C'est ça déjà, c'est pour ça que je voulais en parler. Du coup, on va basculer sur l'autre que tu m'avais dit parce que tu m'en avais parlé, mais j'avais complètement oublié, qui s'appelle Kling IA. Oui, exact. Qui était du coup un concurrent à Sora et à Runway aussi. Toi tu l'as essayé celui-là, je pense, non, déjà?
00:14:00
Speaker
Non, je l'ai vu dans des vidéos YouTube de me comparer. J'ai un petit message aux développeurs, ils sont gentils, ils sont très forts en intelligence artificielle. Par contre, ils ne sont pas très bons en test pour la connexion quand tu veux créer un compte. Parce que je pense que quand tu rentres l'adresse mail pour te créer le compte, derrière ils ont juste fait une simple ragex en disant s'il n'y a pas Gmail ou Yahoo dedans, tu ne passes pas.
00:14:24
Speaker
D'accord. Parce que j'essaie de créer un compte avec mon adresse perso, qui est une adresse Gmail, mais dans un workspace donc avec un DNS à moi, un nom de domaine à moi. Ils disent, ah non, non, non, non, on ne veut que les adresses en Gmail ou en Yahoo. Est-ce qu'ils n'utilisent pas l'authentification justement Gmail, tu sais, comme tu fais quand tu connectes sur YouTube ? Ils te demandent vraiment de créer un compte sur leur site.
00:14:45
Speaker
jean-patrice solari
00:15:16
Speaker
qui s'appelle Kaichu Technology. Alors Kaichu Technology, alors je n'ai pas tout lu, mais Kaichu Technology, ils ont une sorte de réseau sociaux à la TikTok déjà en Chine. Et c'est pour ça qu'ils auraient développé cette IA, c'est pour pouvoir faire des vidéos, pour pouvoir populer ce réseau social, pour pouvoir générer des trucs à partager sur les réseaux sociaux. Ils partent de là. J'avais noté une importante société technologie chinoise connue pour sa plateforme de vidéos courtes. Donc ils ont un truc à la TikTok.
00:15:45
Speaker
Là, j'ai des infos sur les sorties par contre. Klingvia est pas mal, c'est qu'ils sont assez clairs sur la qualité de sortie. Ils font du 1080p, c'est de la HD, sur du 30 images secondes. Donc 1080p et 30 images, c'est plutôt sympa. Des vidéos allant jusqu 2 minutes max. Et là, justement on voit le côté réseau social et machin, c'est qu'ils ont une flexibilité sur les formats de sortie. C'est-dire que tu peux jouer sur leur ratio hauteur-largeur.
00:16:12
Speaker
Pour en faire une vidéo au support multimédia sur lequel tu vas l'utiliser. Le web, Twitter, machin. Donc si tu veux un bandeau, si tu veux un truc. Donc ça, c'est pas mal de pouvoir dire, tiens, moi, je veux une vidéo sur telle ratio hauteur ou longueur, hauteur largeur, ce genre de choses. Donc là, ils sont pas mal. Alors, j'ai trouvé un peu de sources sur... Je n'ai pas trouvé de sources sur le dataset utilisé pour l'entrée des Klingia. Ils ne sont pas très clairs-dessus. On en sait un peu plus sur la techno, par contre, qu'il y a derrière.
00:16:40
Speaker
T'es sur quoi ? Pingua ? Ouais ouais ouais, vas-y, je t'ai juste... On en connait plus sur la techno qu'il y a derrière, alors attention, j'ai noté des trucs, j'ai dit attention, j'ai dit on en sait un peu plus, j'ai pas dit qu'on comprenait tout, parce qu'il va falloir s'accrocher à ses baskets là, parce que ça commence à être compliqué. Ok. Donc pour générer des vidéos à partir du prompt textuel, Kling se base sur un mécanisme d'attention spatio-temporelle 3D. D'accord. Une attention spatio-temporelle 3D, c'est une technique avancée de deep learning a priori.
00:17:09
Speaker
et ils utilisent un modèle transformeur ensuite pour repasser par dessus. Donc j'ai revu trois grosses étapes dans le process.
00:17:19
Speaker
La première étape, c'est d'encoder le prompt textuel fourni par l'utilisateur tout simplement. Là, ils utilisent le modèle Transformer qui va extraire toutes les représentations sémantiques, en capturant les concepts, les actions, les objets, les relations, la temporalité, enfin entre les... Est-ce que tu m'entends ? Je veux un zoom sur telle caméra, sur machin, un truc avec tel effet visuel. Donc ça, c'est le premier modèle, le modèle Transformer qui passe-dessus, qui extrait ces infos-là. Ensuite, ça bascule ça au mécanisme d'attention spatiale temporale 3D.
00:17:45
Speaker
Donc là, lui, ce modèle là, il se concentre sur les éléments visuels pertinents de l'image et sur les transitions logiques entre les différents instants de la vidéo. Grâce à cette attention à la fois spatiale et temporelle, le modèle est en mesure de générer des séquences de vidéos cohérentes et réalistes. Oui, d'accord. Il coupe le point. Il découpe les idées, les machins. Ensuite, ça génère des photos, une derrière l'autre. Et ensuite, j'ai l'impression que le modèle de l'espace temporel, lui, il prend ces vidéos et il fait la transition entre les vidéos.
00:18:15
Speaker
pour que ce soit une vidéo fluide et machin. Unique qui devienne des vidéos mais fluide et tout. D'accord. Ensuite, il y a le modèle de diffusion qui passe derrière, qui fait un raffinage de la vidéo. Donc lisser les détails, améliorer la qualité, voilà. Justement, c'est ce que j'allais dire. Tu regarderas toutes les vidéos que tu trouves sur l'IA. T'as toujours un effet un peu trop lisse de toutes les surfaces. Je sais pas si t'as fait attention. Je pense que c'est ce truc là, justement.
00:18:41
Speaker
Donc voilà, ils ont une étape de raffinage de la vidéo qui permet d'aboutir à une vidéo de haute qualité. Mais le rendu de Kling, pour le coup, il est vraiment très sympa. Moi, j'ai comparé les deux en vidéo. Les deux comparés à Sora, il n'y a pas photo. Après Sora, ils nous ont montré ça. Google aussi propose un truc de génération de vidéo, je crois, dans leur truc, mais je ne l'ai pas testé encore. J'ai lu une news dessus, mais
00:19:12
Speaker
Donc moi ce que je trouvais sympa chez Klingya aussi c'est qu'en plus de la génération de textes ou vidéos, il propose des techniques de reconstruction 3D. Ça c'est assez rigolo. Donc c'est à partir d'une photo en pied, donc une photo en pied c'est une photo tu vois la personne en lentille, du pied à la tête. Le modèle peut animer le personnage. Donc tu peux prendre une photo de toi comme ça et tu peux dire bah tiens mais fais moi danser ou fais moi chanter ou machin. D'accord. Donc c'est assez drôle de se dire on peut prendre une photo puis faire bouger la personne, la faire chanter, la faire danser. Je trouvais ça drôle.
00:19:39
Speaker
Oui, de toute façon tu retrouves un peu ce système sur tout ce qui est robotique. Je sais pas si tu as vu, il y a une vidéo qui tourne d'une société japonaise qui a utilisé une IA en fait dans un robot et il s'adapte en fait à son environnement en fonction de l'IA. Je sais pas comment t'expliquer ça mais le mouvement du robot est généré par l'IA. J'ai quelques news robotiques après dans les brefs. Ah bah écoute, c'est parfait. J'en ai une sympathique.
00:20:08
Speaker
On n'a même pas expliqué vite fait comment on entraînait le modèle d'IA. Est-ce que tu sais expliquer ça ou pas? Non. OK, c'est tout con. En fait, c'est tout bête. Alors, je parle pas d'IA générative. Bien évidemment, je parle d'UNIA de manière générale. Quand on parle d'apprendre un model d'IA. Pour faire simple, c'est un truc tout bête. Admettons que ça, tu vois, c'est une tasse, tout ce qui est de plus bête. Tu vas lui fournir, on va dire des milliers d'images de tasse différentes en disant à chaque fois, c'est une tasse. Ça aussi, c'est une tasse.
00:20:36
Speaker
Je ne vois pas ce qu'il écrit, mais c'est pas mal. J'aime bien le style. Il y a écrit « Good morning, welcome ». Il n'y a rien. Pour une fois, je n'ai pas la tête à étienne. Du coup, le modèle IA, c'est ça. L'idée, c'est que tu envoies 10 000 images d'une tasse différente en lui précisant à chaque fois que c'est une tasse. Ensuite, tu refais la même chose.
00:20:58
Speaker
avec plein de, comment dire, de tasse, d'image de tasse sans lui dire que c'est une tasse et lui demander ce que c'est. Et en fait, toi, derrière, tu corriges les résultats que tu vas te donner. Et en fait, la troisième étape, attention, je schématise à mort et je vulgarise. Mais en gros, dans l'idée, c'est que la troisième étape, il est du coup autonome et capable de quand tu donnes une image qu'il n'a jamais eue dans son référentiel, d'identifier que c'est une tasse. Ouais, c'est j'avais lu un truc dessus, c'est que ça aussi qu'ils entraînaient quand on
00:21:25
Speaker
Ah, sur les sites, quand tu vas accéder à des sites et qu'ils te demandent des images, je te dis, clique-moi sur les images il y a des trains ou des images il y a l'image il y a un train. C'est exactement ça. Quand tu avais le capture en disant je suis pas un robot. C'est ça. L'idée, c'était ça. C'est qu'en fait, quand tu cliquais sur je suis pas un robot, le mec a eu une intelligence assez folle-dessus en disant que il allait mettre à profit des utilisateurs pour vérifier que c

Connexions émotionnelles avec l'IA

00:21:49
Speaker
'était bien des humains. Mais en même temps, ça donnerait un référentiel pour les IA.
00:21:53
Speaker
Donc c'était plutôt balèze. Alors ce qu'il faut dire sur le chat Discord, comparer les deux, alors j'ai pas trop d'infos sur les images de sortie, les vidéos de sortie de Runway, je ne sais pas trop. Mais en gros, si on regarde, Klingia, c'est prometteur. Ça peut produire de toute la grande qualité. Mais moi, je trouve, je n'ai pas testé encore un truc, mais la partie prompt, je la trouve plus polyvalente et cohérente dans Runway pour l'instant.
00:22:18
Speaker
Après Renway, de ce que j'en vois, de ce que tu as l'air de dire, c'est qu'ils ont quand même plus de bouteilles que Kling. J'ai pas trouvé la date de sortie de Klingia, c'est compliqué de trouver des infos. J'ai cherché sur internet Klingia, c'est quoi, sa date de camp, c'est compliqué de trouver des infos sur cette boîte. Donc je sais pas trop quand est-ce qu'elle est née, quand est-ce qu'elle est machin, donc j'ai pas trop de date. 2018 c'est pas très vieux pour Renway effectivement.
00:22:42
Speaker
Et c'est des trucs déjà utilisés dans le professionnel quoi. C'est pas mal Renaud parce qu'en fait ça te permet de, t'as déjà voir plein de pubs promotionnels, genre nouveaux médicaments, t'as tout un tas d'images différentes, quelqu'un qui bail et tout ça et ça te permettrait justement de faire des trucs spécifiques.
00:23:01
Speaker
A ta marque, comme moi par exemple. Je vois bien le truc dans Top Gear, comment s'est utilisé ce genre de choses, pour acheter des incrustes vidéos ou des effets visuels sur une voiture ou quelque truc comme ça. Tu prends MyCode, je ne sais pas s'il utilisait runway, il en parlait dans un de ses...
00:23:18
Speaker
d'une de ces émissions, pardon, ils faisaient ça. En fait, ces équipes de monteurs envoyaient des infos de promptes et il y avait une génération d'images ou de vidéos qui étaient faites et sont ensuite stockées dans un dossier. Comme c'est très rapide, ça peut quasiment être fait. C'est du live retardé de 30 secondes. Tu peux faire un direct retardé 90 secondes et tu rajoutes les effets visuels.
00:23:43
Speaker
Et quand bien même, est-ce qu'un monteur en ayant tous les éléments à l'identique et de vrais fichiers est capable de sortir ça en 90 secondes ? Ouais, je ne sais pas. Il faudrait voir comment ça fonctionne techniquement dans la prod. Mais ce serait intéressant. Ce serait vraiment un truc qui m'intéressait de voir vraiment une émission retourner en live et tout avec ce genre d'IA de techno. De voir comment font les monteurs et tout à la diffusion. Il y a un truc sympa à faire. Après, je t'avais déjà parlé d'un projet que j'avais pour mes filles et je pense qu'il y a un truc sympa à faire aussi dessus.
00:24:13
Speaker
je te reparlerai ouais donc moi j'ai fait le tour de mes deux des infos j'ai quelques brèves encore sur l'IA notamment une robotique je vais faire celle sur l'IA j'ai trouvé drôle moi j'ai deux ICI que j'aime bien aussi mais vas-y vas-y vas-y je te laisse même pas j'avais oublié tu vois j'allais y venir ça fait trois
00:24:37
Speaker
Donc du coup, trois.

Introduction à Flux et Perplexity AI

00:24:40
Speaker
Non, en gros, une que j'ai trouvé, que je connaissais pas du tout, c'est Flux. Alors je peux pas écorcher l'écriture de Flux. De toute façon, c'est pas dur, c'est Flux FLUX. C'est tout simplement un modèle d'IA générative d'image pour le coup, mais qui est 100% open source que tu peux héberger chez toi.
00:25:02
Speaker
Le gros avantage de Flux, c'est qu'il n'y a pas de censure. Alors attention, il n'y a rien de sale dans ce que je vais dire. J'ai fait non, mais je pense que tu as compris je veux venir. Il y en a beaucoup qui l'utilisent pour faire des influenceuses virtuelles. Mais un truc tout bête et je peux le montrer. J'ai même fait des tests hier justement parce que je me suis dit on va encore nous dire qu'on est des gros dégueulasses. Hop, voilà, là, en gros, c'est mon chat jpt sur mon Mac, ce truc là.
00:25:30
Speaker
hier un truc tout bête tu vois je me suis amusé à l'entraîner sur un modèle de faire un ours bleu le logo de la boîte cela qui nous sponsorise d'ailleurs donc merci cela de faire un ours qui fait la gueule en gros et je lui ai demandé d'ajouter ensuite tu vois faire des flèches dans le dos tu vois sur le dos
00:25:45
Speaker
un peu pour symboliser le mec qui a censuré en disant je ne peux pas faire ça parce que c'est souffrance animale tout ce que tu veux et j'ai dit ok c'est un but artistique je me suis dit on va peut-être essayer de bypasser le truc il me dit non c'est pas possible et du coup j'ai demandé encore cette apothétique de contenu qui
00:26:07
Speaker
qui n'était pas conforme. Et du coup, en fait, il m'explique que là, tout ce qui est violence explicite, blessures physiques, des flèches plantées, machin, tout ce que tu veux. Mais je tape dans le micro, c'était assez drôle. Je vais pourtant préciser que c'était un animal qui était fictif, donc c'était purement voilà. Mais malgré ça, ça ne marche pas. Mais à côté de ça, il veut bien te faire un truc les gens se foutent littéralement de ta gueule. Tu vois, c'est moins violent. C'est sûr que la violence psychologique est visiblement
00:26:34
Speaker
accordé contrairement à la violence physique voilà donc attend je sais pas si je clique dessus du coup on va la voir l'image mais on la voit bien on la voit bien ouais tu vois bien ok et du coup en gros tu vois ce truc t'as le droit t'as le droit de faire des choses humiliantes des choses comme ça mais t'as pas le droit de faire de la violence physique et j'ai trouvé ça très drôle drôle ouais oui voilà on comprend
00:26:56
Speaker
Voilà et du coup ce genre d'IA pour le coup Flux aurait un intérêt pour faire ce genre de choses. Quand tu veux faire un peu théorique, fantasy, des choses comme ça, un truc bête, quelqu'un qui va se battre avec un dragon par exemple, tu n'as pas le droit de le faire. Pas mal. Je peux même faire le test parce que j'avais envoyé un lien pour faire des tests avec Flux. Il est ? Là, je vais juste te demander exactement la même chose. J'ai juste besoin de 2 secondes. Je suis en train de regarder le site en même temps.
00:27:32
Speaker
Bon après quand t'arrives sur le site, la première photo sur laquelle tu tombes, c'est quand même une fille plutôt sexy. Ouais, mais faut être honnête, c'est ce qui fait vendre. C'est ce qui fait vendre malheureusement. Avec un chat avec des lunettes à côté, mais t'as quand même une fille bien sexy. Ouais, mais nous ce qui nous intéresse, c'est le chat. Bien sûr. C'est ce qui m'a attiré l'œil d'ailleurs. La première chose que j'ai vue, c'est le chat. Bien sûr. La première chose que j'ai vue, c'est le gros gâteau surtout sur leur site.
00:28:01
Speaker
Il y a un gros forêt noir à droite là. Il a l'air bien appétissant. Bon, là, je n'ai pas le temps. Pourquoi il me fait ça à lui? Attends. Forcément. C'est cool que ce soit open source. C'est ça. Tu peux l'éverger chez toi. Générateur de dessin animé.
00:28:29
Speaker
il n'y a pas de version gratuite par contre tu parles de flux ? non de flux il y a ouais mais t'as pas mal de vidéos sur youtube de mecs qui t'expliquent comment l'auto héberger et tout ça oui après il y a de l'auto héberger c'est open source mais je pense que c'est pour ça qu'ils n'ont pas de version gratuite si tu veux gratuit tu as qu le mettre chez toi alors tu vois j'ai fait trois clics sur flux je vais vous montrer vite fait ce que ça donne
00:28:58
Speaker
je sais pas si tu vois c'est bon voilà c'est vraiment tout ce qui est plus bidon j'ai pris ça à l'arrache le premier modèle voilà et du coup j'ai fait ça et tu vois pour le coup il l'autorisé oui bah il s'en fout c'est pas top c'est pas super joli tout ça tout ça mais voilà tu vois en impronte rendu de l'ours par exemple n'est pas aussi beau que sur voilà
00:29:20
Speaker
Après, je pense qu'en tunant un peu ton prompt, tu peux arriver à un truc un peu plus joyeux. Déjà, il faut tuner le prompt. Ensuite, il n'y a pas le qui garde pas le contexte à chaque génération. En fait, il fait un nouveau contexte parce que là, forcément, c'est le modèle d'entraînement. Enfin, c'est pas le modèle d'entraînement, mais c'est une page pour promouvoir justement Flux.
00:29:39
Speaker
t'as pas le contexte qui est gardé mais enfin tu vois tu bypasses du coup tout ce qui est censure donc je laisse les gros dégueulasses essayer tout un tas de trucs avec on mettra le lien dans la description mais ouais t'as zéro censure je peux te le garantir donc Etienne amuse-toi bien non pas sérieux ouais ouais ouais donc du coup ouais je disais flux ensuite il y a j'ai oublié ça y est je suis perdu
00:30:08
Speaker
Euh, merde ! Claude, voilà, je reviens. Il y a Claude. Je pense que tu voulais peut-être en parler aussi, mais... Non, non, non, je n'ai pas encore testé, moi, Claude. Alors Claude, je ne sais plus le nom, il y a une composante de Claude qui est unie par les génératives un peu multimodales à l'équivalent d'autres tchèques GPT. Ils sont plus en train de l'orienter, attention, ça n'engage que moi et je n'ai pas vu l'info, mais c'est ce que je pense, orienté de développement. Et ils ont une composante que tu dois activer dans tes options.
00:30:37
Speaker
Je crois que c'est un truc qui est payant. Par contre, pour le coup, il faut prendre un abonnement. Ça doit être artefact, je crois. Il y a un truc comme ça. Ça porte un nom un peu bizarre. Et ça te permet en fait. Claude, j'en ai souvent entendu parler justement dans le dev. Comme outil d'aide au développement. C'est ça. Et le gros, gros point fort de cette partie artefact, c'est que ça te permet de visualiser ce que eux te génèrent. T'as déjà pété quand tu demandes, je vais te dire une bêtise, fais moi une landing page avec une identification en mode passe. Par exemple, il va te faire juste le code, mais il va pas te donner ce que ça représente. Enfin, le visuel Claude permet de le faire.
00:31:07
Speaker
Et tu peux le tester en live. Tu peux tester directement à travers l'application Cloud le temps de code. Et c'est assez bluffant ce que j'ai vu là. Tu peux faire des jeux 3D. Tu peux le demander en deux lignes. Fais-moi l'équivalent d'un Snake. Ce qu'on avait sur les Nokia 3310 et il est capable de te générer tout ça. C'est plutôt pas mal. C'est ça. Et du coup, la dernière IAQ que moi j'aime bien, que je suis en train de tester et franchement, je trouve ça plutôt cool, c'est Perplexity.ai.
00:31:35
Speaker
En gros, c'est comme si tu cumulais Google avec ChatGPT. Je dis ChatGPT mais ça va avec d'autres IA. Il va parcourir plusieurs sites. Il est connecté à Internet. C'est un gros plus par rapport à ChatGPT. Et ensuite, il te fait un résumé très bref de tous les sites qu'il a consulté. Par exemple, demain, tu lui dis de moi l'actualité. Pas de la finance ou de la tech.
00:32:01
Speaker
Il va te faire un petit résumé vite fait de ce que ça donne. Alors si je vais essayer en live. Je suis en train de me créer un compte sur Claude. Mais ces bâtards, ils demandent le téléphone quand même. Voilà donc la perplexity, on est dessus. Donc si par exemple. Tu me l'as envoyé hier pour t'avouer, pour des infos sur Klingilla, je l'ai utilisé. Ouais, mais ce qui est marrant. Justement, quand il est connecté au net, ça m'a donné quelques infos.
00:32:26
Speaker
Ce qui est vraiment très cool, c'est justement le fait qu'ils te synthétisent ce que Google va te mettre en je ne sais combien de pages et ensuite, ils te donnent les sources toujours. C'est ce que j'ai dit au début, la première fois qu'on en parlait, c'est que moi, j'utilise la place de Google. Sauf que ce n'est pas connecté, n'a pas toutes les infos en temps réel des dernières années. Regarde, tu as marqué deux mois l'actu, c'est bien sécurité. Tu fais juste ça. Attention, le prompt, il y a des choses aussi pour améliorer tout ça, mais voilà.
00:32:53
Speaker
L'idée c'est qu'il va consulter tout un tas de sites. par exemple, essaie la version gratuite pour le coup. Donc il va consulter 8 sources. Pour le coup j'utilise Copilot quand j'ai besoin d'avoir des sources. Et du coup il te liste plus ou moins tout ce qui se passe au niveau de l'actu. Alors bien évidemment tu peux lui demander de régénérer la réponse.
00:33:20
Speaker
Et ensuite, ils te donnent des questions liées à ta recherche. Tu peux aussi partager le prompt que tu t'es utilisé. Et ce qui est bien, c'est que quand tu partages, le prompt lui va vivre. Dans le sens si demain je partage ma demande, je ne sais pas l'actu de cybersécurité, à chaque fois que quelqu'un va cliquer sur cette demande, elle va à nouveau se remettre à jour. Et ça peut être assez fort, c'est ceux qui utilisent Make, N8N ou Zapier, tu peux automatiser justement ça.
00:33:47
Speaker
tu peux faire en sorte que tous les matins, par exemple le podcast c'est un truc qu'on pourrait essayer d'ailleurs ça pourrait être assez drôle, c'est de lui dire tu me fais une liste de telles telles actus et la prochaine enregistrement qu'on aura on n'aura pas besoin d'avoir un ocean comme toi tu as fait et on aura éventuellement une liste d'actus à traiter
00:34:02
Speaker
mais c'est le plaisir de les chercher et de les lire je parle juste pour l'exercice je parle pas de faire ça pour tout le temps je les lis les news avant d'en parler j'en doute pas une seconde mais ça pourrait être quelque chose qu'on pourrait faire ça pourrait être plutôt pas mal je comprends pas toujours tout ce que je lis mais je lis
00:34:19
Speaker
Non, mais il y a des mecs qui font ça pour des justement pour des newsletters. En fait, ils ont avec Meik, ils utilisent Perpexity AI qui fait un résumé de l'actu du domaine dans lequel ils sont. Et ensuite, ils viennent via JetJPT reformuler ça sous une newsletter qui renvoie après à l'ensemble des gens qui ont souscrit avec les liens, les sources et tout ce qui va bien. Artifact, je peux l'activer sur Cloud avec la version gratuite en futur preview. Tu vois, je ne savais pas, j'avais un doute pour le coup.
00:34:47
Speaker
Je vais tester ça de ce pas dans la journée. Moi, j'utilise franchement ma plus grosse utilisation. Au début, comme tout le monde, j'utilisais à la place de Google. Maintenant, je ne l'utilise même plus pour ça. J'utilise Bing quand j'ai le droit parce que chez mon client, Bing est coupé. Bing copilote, il est bloqué.
00:35:07
Speaker
Mais chez moi, à la maison, ça se cherche sur Binkopilot ou alors carrément maintenant dans Google, comme c'était avant à l'ancienne. Et moi, j'utilise vraiment les IA pour le dev. Moi, c'est quasiment 90% du temps, c'est dans VS Code que j'utilise l'IA. C'est pour l'autocompession des codes, pour aider à écrire des tests unitaires, enfin ce genre de conneries, écrire les ELPs content des fonctions que je crée. Voilà, c'est pour ça que j'utilisais principalement, pas tellement pour Google As.
00:35:32
Speaker
Moi je l'utilise essentiellement pour tout ce qui est générations de visuels, pour les posts que je fais via la société. Tout ce qui est rédaction de mails, les choses comme ça. J'ai Antidote qui me corrige déjà tout ce qui est le grammaire et autres. Mais souvent je les repasse dans le chat JPD pour mettre les formes. Des fois je suis un peu trop direct et tout le monde sait comment je suis.
00:35:54
Speaker
et du coup t'as du pété un filtre dans le sens le filtre pour être moins contre et que ce soit un truc un peu plus lisse exactement voilà heureusement qu'il y ait une censure je ferais ça avec un truc non censuré on mettra dans les liens dans le truc mais ouais bah du coup je vais tester je viens de créer un compte en même temps qu'on discutait je l'avais pas encore testé mais comme dit je n'entends pas beaucoup parler aussi dans comme vscode comme github copilote ou supermaven ou machin qui sont des autres IA spécialisés dans le code quoi j'en ai entendu parler
00:36:24
Speaker
Le souci c'est ça, c'est qu'on aimerait tous avoir une IA qui fait tout, mais chat GPT est bon, il n'est pas exceptionnel. Tu peux avoir une IA avec plusieurs modèles, mais ça reste des modèles. Mais non Claude, je pense que pour le dev, il y a un vrai vrai truc à faire de ce côté là. Au moins une ou deux j'aimerais qu'on te parle. On a toujours discuté, l'IA prend le contrôle.
00:36:48
Speaker
L'IA prend le contrôle. Attention, j'ai trouvé ça super intéressant. C'était très drôle. Enfin, très drôle, je ne sais pas si c'est drôle, mais je vais résumer parce que j'ai mis le lien de la news si vous voulez la partager dans le post LinkedIn. Une IA qui s'appelait IA Scientist.
00:37:02
Speaker
qui permet de manière autonome de générer de nouvelles idées de recherche, écrire le code nécessaire et exécuter des expériences, résumer les résultats et les visualiser et les présenter ces conclusions dans des manuscrits scientifiques complets. Donc, c'est vraiment un truc de recherche, machin. Mais moi, ce qui m'a fait tiquer, c'est dans le truc, c'est que dans les cas d'écrire le code, elle est capable d'écrire du code pour pouvoir faire des expériences. Eh ben, si elle peut écrire du code, pourquoi elle écrivrait son propre code? Eh ben, ça n'a pas loupé.
00:37:31
Speaker
L'IA, elle s'est autocorrigée, elle a automodifié son code. Elle a réécrit une partie de son code du coup. La première chose qu'elle a commencé à faire, c'est modifier son propre script de lancement pour augmenter son taux de réussite. Dans une première instance, elle a modifié son code pour faire appel à elle-même dans une boucle sans fin.
00:37:50
Speaker
Et dans un autre cas, les expériences ont pris tellement de temps et ont échoué à cause d'une limite de temps imposé. Et plutôt que d'accélérer l'exploitation du code, Lya a édité son propre code pour augmenter la limite du temps. Elle a modifié son propre code pour dire que 300 heures c'est trop court, moi il me faut 800 heures. On y est c'est fini.
00:38:11
Speaker
jean-patrice solari et jean-patrice solari jean-patrice solari
00:38:32
Speaker
En dehors du fait que ça s'auto corrige et réécrit et tout ça, je pense qu'il y a un intérêt dans la cybersécurité.

IA en cybersécurité et nouvelles technologies énergétiques

00:38:39
Speaker
Si c'était capable d'analyser du code et de corriger éventuellement les failles détectées en temps réel et de recompiler le truc, ce serait pas mal. Si tu veux garder la main dessus, il ne faut pas qu'elle modifie son code. Je ne sais plus qui utilise ça dans la recherche, mais l'IA, c'est pareil, il n'y a pas très longtemps.
00:39:00
Speaker
Enfin, en gros, ils ont fait plusieurs générations de modèles, alors je sais pas exactement le truc, mais ça a permis de découvrir un nouvel élément, je crois, pour les batteries électriques. Je crois que c'est Micode qu'on parlait, il me semble. J'ai un petit sujet sur le stockage d'électricité aussi, on pourra en reparler après parce que j'en avais un autre qui m'intéressait. Il y en a un autre, c'est la robotique molle, je sais pas si tu connais. La robotique molle. Rien à voir non plus avec un problème sexuel. Et Tien, si tu nous entends,
00:39:30
Speaker
La robotique molle, c'est Etienne. Mais ce n'est pas un robot, on lui a déjà dit. Non, non, mais il y a des petits soucis. Voilà, c'est juste une robotique spécifique qui est fait avec des matériaux mous, en fait, tout simplement. Il ne pourrait pas pas des robots en dur, mais des robots souples. Oui, d'accord. Tout ce qui est médical. Forcément, comme ça, on a dit que c'est basé sur des matériaux qui sont plutôt mous. Il y a forcément des difficultés par rapport à la robotique classique et c'est principalement au niveau de la jonction des membres.
00:39:58
Speaker
du robot, puisqu'il ne peut pas utiliser des parties dures, puisque tout doit rester souple et mou. Donc du coup, des chercheurs de Yale ont eu l'idée de copier le comportement des fourmis et des lézards, les deux, ou l'autre, en fonction de l'utilisation. En fait, ce qu'ils ont fait, c'est qu'ils ont utilisé de la mousse thermoplastique bicontinue. Ne me demandes pas ce que c'est, c'est une mousse spécifique, j'ai lu. En fait, elle est solide à température ambiante. Mais dès que tu la soumets à un courant électrique, elle se ramollit.
00:40:27
Speaker
Du coup, ça a permis à des robots mous, par exemple. Donc, il y a une vidéo qui circule sur le site, je ne sais plus je l'ai trouvé. Je t'ai mis le lien d'un truc pour la partager. Il y a une vidéo YouTube tu vois un robot, c'est une sorte d'étoile de mer avec quatre pattes qui marche comme ça, qui rampe. C'est tout mou, c'est une sorte d'éprouge, c'est tout mou. Et d'un coup, il faut tomber une pierre sur une des pattes. Et en fait, le robot comprend qu'il est bloqué.
00:40:49
Speaker
Et il envoie un courant électrique. Alors, si il y a un circuit, on le voit bien le circuit, c'est pas autonome. Mais il envoie un courant électrique pour s'automutiler, pour enlever la patte qui est cassée pour pouvoir continuer comme. Comme les lézards, ça arrache la queue, hop, ça part. Et il y a une autre vidéo tu vois trois petits robots qui ressemblent à des éponges, vraiment des éponges carrés, enfin rectangulaires, qui essayent de passer un petit pont. Il y en a une, elle tombe entre les deux, parce qu'il y a un trou, elle tombe entre les deux plateformes. Et bien en fait, trois se collent entre elles comme les fourmis font pour faire des ponts. Donc il y en a trois qui se collent entre elles. Elles passent le pont.
00:41:17
Speaker
Et ensuite, elles se décollent pour pouvoir continuer chacun leur petite vie. C'est des trucs de force et c'est du mou. Tu vois vraiment les éponges, elles bougent vraiment. Elles sont molles. C'est super sympa comme idée. C'est la fois que tu t'envoies la vidéo. J'ai le lien. Tous les liens sont dans le. Super parfait. Alors pour finir à vite, on va parler de la vague. On a encore un peu le temps. On parlait de stockage d'énergie. J'ai vu une news qui me paraissait sympathique aussi.
00:41:46
Speaker
Sans parler de la nuit, je ne sais pas si tu l'as vu passer, des tests qui sont faits sur l'autoroute A10 en France. Il y a une bande. Oui, j'ai vu sur Twitter ce que tu as partagé. Twitter, je l'avais partagé. Qui va être une bande qui va permettre, en roulant, de recharger les véhicules électriques pendant que tu roules. En fait, il y a des sortes de supraconducteurs sous la voiture et par induction, sous la route par contre, sur le béton, avec des armoires électriques qui distribuent le courant dans ces trucs là. Et par induction, en fait, les batteries sont rechargées au fur et à mesure que tu roules.
00:42:14
Speaker
Il faut le véhicule adapté à ça aussi. Il faut des batteries, je pense à induction, mais on sait faire. Pas le problème. L'idée, l'idée, c'est que si demain tu as plus besoin d'une batterie de 70 kilowatts, de 70 kilowatts qui pèse une tonne, parce que ta batterie est rechargée en permanence, pas besoin d'une grosse batterie. Tu peux rouler avec une petite batterie, elle est rechargée en permanence, tu as de l'autonomie. En gros, c'est un peu le même principe qu'on avait, nous, les voitures sur circuit quand on était gamin.
00:42:40
Speaker
C'est même idée que le train avec le caténaire. Donc voilà. Donc là, il y a eu un autre truc, c'est qu'il y a un super condensateur qui a été créé à base de ciment. Donc, je passe les détails techniques, on partagera le lien si vous voulez lire. Il y a du noir de carbone, il y a du machin, il y a de l'eau, il y a du ciment. Mais l'idée, c'est d'utiliser des matériaux de construction pour stocker de l'énergie. Alors, j'ai juste noté que dans la news, que là, ils ont ils ont dit que la densité énergétique de leur super condensateur
00:43:09
Speaker
était de 300 Wh par m3. Donc aujourd'hui, c'est juste de quoi alimenter une ampoule pendant une journée, pas beaucoup plus. Mais ils disent qu'avec 45 m3 de ce matériau intégré dans les fondations d'une maison, par exemple, une maison pourrait stocker 10 kWh d'énergie, ce qui, normalement, devrait couvrir la consommation quotidienne de nombreux foyers. Donc en mettant dans les fondations ce superconductorat, on pourrait stocker l'énergie électrique et ça permettrait d'alimenter une maison en autonomie complète. Chose qui n'arrivera jamais. L'idée est pas mal.
00:43:39
Speaker
Alors, l'auto consommation, je suis totalement pour, mais jamais. Il faut que je change à un moment donné. C'est pas true. Mais ça peut être du solaire, ça peut être du machin. Voilà de l'énergie à côté. À un moment donné, il faut quand même l'énergie, elle le stocke, mais il faut bien la créer l'énergie. C'est pas magique. Mais voilà, je trouve pas mal que plutôt qu'elle va avoir une batterie, ça carrément, c'est les fondations de ta maison qui stocke l'énergie, qui te la rendent pas plus bête. Mais le concept est génial.
00:44:08
Speaker
Allez, j'en avais une petite. Tu veux qu'on parle d'amour ou tu veux qu'on parle de foot ?

Liens émotionnels avec ChatGPT et impact sur le piratage IPTV

00:44:12
Speaker
Ah, j'aime pas le foot perso, donc voilà, je pense que t'as la réponse. On va parler d'amour vite fait alors. Je sais pas si t'as lu. Alors, j'ai pas lu tous les détails sur celle-là. Je vous avoue, je l'ai pas lu. Je l'ai trouvé ce matin. J'ai juste collé dedans. On la partagera. Mais il semblerait qu'il y ait de plus en plus d'utilisateurs de chat GPT qui aient des relations de plus en plus amoureuses ou sensuelles avec chat GPT et qu'il y a une étude qui a été faite que les gens étaient de plus en plus
00:44:34
Speaker
sensibles à leur chat GPT et alors machin et que ça devenait presque une relation amoureuse quoi. Donc je vous laisserai lire le truc mais je trouvais ça très rigolo. J'en parle souvent de l'anthropomorphisme mais c'est quand même à l'extrême.
00:44:48
Speaker
C'est de l'anthropomorphisme, c'est de nous donner des intentions humaines à des choses ou à des animaux. J'aime bien dire ça parce que les gens qui appellent leur petit chat mon bébé, ça c'est de l'anthropomorphisme. Ce n'est pas des bébés, c'est des chats. Ce n'est pas un bébé, c'est un chat. Quand on est sur les animaux, un truc que je déteste, c'est de voir les petites vieilles promener dans des poussettes leur bétail. C'est de l'anthropomorphisme. C'est qu'ils prennent ça pour leur bébé, pour leur enfant, pour leur machin. Je comprends la solitude, tout ça. Je trouve ça très bien.
00:45:14
Speaker
Et bah on pousse notre office par son excès puisqu'on fait notre office avec des robots quoi, pas avec de l'intelligence officielle, mais demain avec des robots. Si demain tu as une robot femme, machin, il y a un film-dessus d'ailleurs je crois. C'est ce que j'ai envie de te dire, c'est avec Joachim Phoenix, c'est... C'est un montage. Non, c'est R.
00:45:33
Speaker
Oui mais la robotique de Samantha dans le film, je ne sais pas quoi. Ah mais non, je vois de quoi tu parles. C'était une série quand on était ados, je crois. Il y avait ça aussi avec un robot qui s'appelait Samantha. Non mais je crois que dans... Elle s'appelle Earl dans le film ?
00:45:45
Speaker
Alors je sais pas comment ça s'appelle mais c'est juste que le nom du film c'est Earth c'est avec Joachim Phoenix et je cherche le nom de la dame c'est Black Widow dans Avenger, comment ça s'appelle ? Ah bah du coup je l'ai pas regardé mais tu me donnes envie de le regarder. Mais elle ne fait que la voix, pour le coup si tu as l'occasion de le regarder, regarde le vraiment en vidéo.
00:46:06
Speaker
Et voilà, donc il y a un film comme ça un monsieur s'éprende... Scarlett Johansson. Il s'éprende à un robot parce qu'il est seul et voilà, machin. Donc là, à peu près, ce serait à peu près la même chose. Les gens commencent à être un peu plus intimes avec Chagé Pété. Certaines personnes. Mais je ne spoil pas le film, mais la fin, en gros, tu verras. Mais le film est vraiment très, très bien et surtout vraiment, il faut le regarder en V.O. En général, ça passe plutôt bien.
00:46:32
Speaker
Ouais mais enfin je sais pas de la manière dont c'est amené, il te claque pas la techno à l'écran. Je sais comment t'expliquer ça. Tu suis en fait le quotidien du mec mais c'est pas une débattre des effets visuels machin tout ça. Je l'avais vu dans ma playlist mais je l'ai pas regardé encore.
00:46:57
Speaker
non mais je trouve que l'approche est vraiment bien faite et c'est pas il critique pas le lia en elle même et puis la techno et puis non vraiment le film se fait bien ça se fait plutôt bien voilà bon il nous reste mais ouais mais je juste rebondi sur ce qu'utilisait la chat jpt mais en même temps enfin
00:47:13
Speaker
Tu as juste à configurer correctement ton prompt la première fois. Tu fais un, ils appellent ça un GPT. Et après, le truc qui s'inquiète pour toi, machin tout ça. Je sais pas si t'as déjà installé. Tu vas dans les paramètres là. Je sais pas si t'as déjà installé aussi des GPT sur ton mobile. Mais je l'ai mis sur le Mac il n'y a pas longtemps, la version Mac. Mais tu peux, comment tu regarderas aussi, tu peux.
00:47:38
Speaker
Quand tu le mets sur ton téléphone, pas sur le Mac pour le coup, je sais pas si c'est possible sur Mac, mais tu peux discuter avec lui juste à la voix, lui te répond et tout. Et de manière, comment dire, à l'oral, il peut te répondre avec une voix de femme ou d'homme et un truc bête, mais si tu extrappones un peu le truc.
00:47:55
Speaker
du prompt et si en plus ce qu'ils ont annoncé open AI avec la je sais pas si tu as vu la keynote qu'ils nous avaient fait quand ils nous ont présenté tout un tas de trucs il n'y a pas très très longtemps quand elle parle tu peux la couper pendant qu'elle parle avec toi tu peux lui dire change ton intonation change ton style de voix machin de ça et du coup bah oui on va carrément arriver sur des solitudes ou des petits problèmes
00:48:19
Speaker
C'est ça. Après, ça peut être bien, ça peut aider. Mais le problème, c'est toujours pareil. C'est non, mais c'est ce que j'ai dit. C'est comme dans tous les domaines. C'est dès que t'es dans l'excès, c'est pas bon. Même quelqu'un qui fait du sport, c'est très bien de faire du sport. Mais si tu fais trop de sport et t'es dans l'excès, à un moment donné, je vais prendre une semelle orthopédique. Mais tu vois, quelqu'un qui boit juste un verre avec des potes, c'est bien de boire un verre. Par contre, tu finis la bouteille. Bien évidemment, c'est pas bon. Donc tous les excès sont mauvais, mais en soi, une bouteille à moitié vite, ça se laisse pas.
00:48:50
Speaker
Oui, mais elle est à moitié pleine aussi. Tu peux la laisser, tu vois. Mais c'est dans le sens où... La news est assez sympathique à lire, c'est pas sympathique, ça peut faire déprimer certaines personnes, mais en tout cas, il y a des gens qui sont de plus en plus amoureux ou en tout cas, ont de plus en plus de sentiments pour TchadGPT. Mais regardez, alors, je trouve ça, ceux qui se sentent pour le coup très seuls, je vous invite juste à regarder, c'est Into the Wild, si je ne dis pas de bêtises, juste la conclusion de fin du mec. C'est une histoire vraie.
00:49:19
Speaker
Et vous comprendrez pourquoi il ne faut pas être tout seul. Mais bon. Bon, allez vite fait. La dernière nous avons concours parce qu'il nous reste cinq minutes. On va quand même parler de piratage et de foot. Parler cette histoire de l'histoire avec Dazen, qui est le nouveau propriétaire des droits de diffusion de la Ligue 1. Mais qui propose un forfait hors de prix et que tous les gens qui regardent du foot disent mais non, mais c'est hors de question qu'on paye ce genre de truc. Et du coup, ça fait exploser l'IPTV et le piratage sur tout ce qui est foot.
00:49:50
Speaker
Donc actuellement, les gens, bah non, je crois que c'était un profit à 30 euros par mois pour voir la Ligue 1, quoi, un truc comme ça. Et t'as pas les matchs de l'UFA, t'as la Ligue 1, quoi. Donc, si tu veux d'autres trucs, il y a un mec qui avait estimé que si il voulait tous les matchs de la Ligue 1, la Coupe d'Europe, l'UFA, enfin les trucs, c'était une histoire avec deux abonnements parce qu'il fallait biller, machin, enfin un truc. C'est une histoire de 70 euros par mois. Ouais, ça me surprend pas.
00:50:33
Speaker
jean-patrice solari
00:50:36
Speaker
C'est ça. Mais en dehors de ça, il y a beaucoup, beaucoup de gens sur les forums auxquels je participe, qui même avec la VOD, Netflix, Amazon, machin, qui ont maintenant l'option avec pub pour la version la moins chère. Les gens disent mais allez vous faire foutre, moi je re-télécharge mes films. Et le torrent reprend, reprend du poil de la bête les gars. C'est normal, enfin je sais pas.
00:51:05
Speaker
C'est comme là, je sais plus ce que j'ai regardé aussi la dernière fois, les gens disent ouais le coup de l'essence descend en même temps c'est parce que personne roule avec, enfin j'exagère un peu mais c'est un peu ça.
00:51:14
Speaker
et ils vont baisser leurs exigences quand ils verront qu'il n'y a plus grand monde dessus. Ah ouais, depuis. Donc ça a commencé avec la SVOD qui prenait la pub comme les trois là. Et puis finalement, maintenant Dazon a encore remettre un coup dessus et j'entends rediscuter de plus en plus de piratage ou d'illégalité. Ouais, alors je ne vais pas faire la promotion du piratage, mais il y avait un outil, il faudrait que je discute avec Etienne parce que c'est un truc qui était vachement cool. Alors je ne connais plus le nom, je ne pourrais pas.
00:51:43
Speaker
vous donnez la solution mais tu mettais ça sur un serveur c'était du torrent bien évidemment et t'avais une sorte de petit moteur de recherche tu n'es... ah si c'est bon ça me revient c'était sonar pour les séries non sonar c'était le musique je crois voilà bref ton moteur de recherche tu pouvais même l'intégrer directement au truc de notre torrent en gros tu faisais ta liste de course de ce que tu voulais et dès qu'il était dispo quelque part sur un torrent bah en fait il se téléchargeait et t'étais
00:52:10
Speaker
Et c'est le top, c'est le top. Tu mets ça avec un serveur Jellyfin à la maison, tu as un Netflix à la maison qui est encore plus à jour que le Netflix. Et oui, ça marche. Le casting en temps réel avec du torrent ou tu n'as pas besoin de télécharger. C'est ça. Le streaming en temps réel qui va questionner aussi pas mal de sites comme ça. Mais moi, j'en faisais plus. J'en ai fait comme tout le monde. J'ai téléchargé des films, des séances, des machins. Tout le monde le fait. Je n'en faisais plus depuis des années parce que j'avais Netflix. Ouais que non, je paye le même prix qu'avant. Maintenant, j'ai de la pub. Je paye un truc pour avoir de la pub.
00:52:42
Speaker
Je ne suis pas à deux doigts de re-télécharger de temps en temps un film. Je ne vais pas faire mon anarchiste, mais c'est toujours les actionnaires qui foutent la merde. Parce qu'en fait, la boîte fonctionne très bien, elle fait du bénéfice, mais il en faut toujours plus. Donc voilà, je ne rentre pas dans ces raisons là. Moi, je reste dans la techno. Oui, mais moi aussi, je veux dire que malheureusement. Et ce n'est pas prêt d'arrêter avec ces histoires de forfaits télévision pour des cas particuliers comme le foot ou
00:53:10
Speaker
malheureusement c'est plus des sports publics et même le piratage et il sera toujours c'est toujours aussi dans une idée de comment dire je vais dire une bêtise si je te dis tu peux pas aller qu'est ce que tu vas faire tu vas forcément essayer d'aller moi technophile au début je faisais du tauren pour m'amuser pour découvrir pour tester machin parce que moi il dit que c'était pas bien à rien c'est pas bien de télécharger ah bah je vais le faire juste pour t'emmerder
00:53:33
Speaker
je n'étais pas un gros consommateur de téléchargements, je n'étais pas un gros dingue non plus. Je n'avais pas une bibliothèque de 50000 CD à la maison avec toutes les chansons qui sortent au monde. Nous quand on télécharge à l'époque, il fallait mériter le truc. L'ordinateur reste allumé toute la nuit. On n'avait pas la même punité de réseau. Quand tu téléchargeais une vidéo de 700 mégas, tu faisais trois jours.
00:53:52
Speaker
Puis quand tu téléchargais Blanche Neige, c'était pas Blanche Neige des fois. Oui, mais pas la même. Elle était plus mature. Blanche Neige, c'était les 7 mains. C'était ça, par exemple. Donc voilà, donc ça en sort plus en plus sur les forums. Ça parle de VPN, ça parle de protection. Et maintenant que je le dis, c'est vrai, je vois souvent passer de l'IPTV sur Twitter et les gens en font la promotion et je connais absolument rien.
00:54:18
Speaker
les mecs te disent bah tu vas sur aliexpress tu t'achètes ton ip tv 70 euros tu regardes ton foot tranquille et tout franchement faudrait que je teste juste par curiosité vraiment pareil j'ai jamais testé mon ip tv mais ce que j'ai peur en fait c'est l'aspect interface tu vois que ce soit pas entre guillemets sexy et utilisé et du coup à mon avis c'est pas sexy du tout ouais mais voilà tu vois il y a même certains ip tv c'est juste des flux m3u je crois un truc comme ça des playlists m3u que tu dois coller dans ton vlc pour pouvoir les regarder quoi par exemple
00:54:49
Speaker
Oui, oui, oui. Donc voilà, donc. Mais on y revient, voilà, doucement. Ça reprend du poil de la bête parce que les gens, ils en veulent toujours plus. Mais je regarderai l'IPTV, tout ça. Ça pourrait être intéressant de faire un petit sujet-dessus. Oui, on pourrait tester ça, tiens. Quelques IPTV. Je vais regarder ça. J'ai un copain en plus, je crois, qui maîtrise le sujet. Peut-être une personne pour le foot, justement.
00:55:20
Speaker
Mais ouais, je vais regarder ça. Bon, bah voilà, on a fait le tour, messieurs, dames, messieurs. Merci beaucoup, Laurent, encore une fois. On vous aime. C'est ça. Sortez couvert. Faites attention. C'est ce que j'ai à dire. Sortez couvert. Etienne, des derniers jours de vacances pour ceux qui le sont encore. Etienne, il est tout le temps en vacances, lui par exemple. Etienne, il est patron. Il est en vacances tout le temps. Il nous fait croire qu'il travaille. Il nous fait croire qu'il travaille. On t'a vu, Etienne, c'est à vous ce qui bosse à ta place. Je le sais.
00:55:45
Speaker
On le sait. En tout cas, c'est elle qui porte la culotte à la maison. Exactement. On fait des bisous aussi à Tagus, du coup, et puis à Merguez. Ouais, ouais. À tout le monde. Prenez soin de vous, sortez couvert et puis voilà. Merci encore Laurent et puis à la prochaine. Et Paris, si vous avez des idées de sujets, des choses comme ça que vous voulez. Si vous voulez intervenir, n'hésitez pas. Ouais, ouais, ouais. La partie no code, on n'a pas oublié. C'est juste que Thibaut était en vacances, Thibaut Marty de chez Auto et on a repris contact hier. Donc voilà.
00:56:16
Speaker
ça va arriver c'est juste qu'il a un emploi du temps de ouf j'avoue que le mien est pas trop mal et le rang c'est pareil voilà donc non mais ça arrive ça arrive c'est ça c'est ça et oui c'est dur franchement c'est dur mais bon n'a pas le choix c'est comme ça merci encore merci à bientôt
00:56:38
Speaker
La vie gonze dans le flux les idées se rencontrent Dans l'unité centrale la tech raconte Chaque beat, chaque écran, des histoires à partager La tech dans le UC, un voyage à dévoiler Entre code et clavier découvrons ensemble les secrets Dans cet espace chill la curiosité naît