IA : les limites de Midjourney selon ChatGPT ?

ChatGPT, Midjourney, Dall-E, les intelligences artificielles sont partout et fabriquent des tonnes de textes et d’images impressionnants de réalisme. Et vous, avez-vous déjà été trompé par une “fausse“ image générée par une IA ? Peut-être la photo du pape François en doudoune de luxe ? Ou l’arrestation de Donald Trump en plein New York ? Si oui, une simple astuce aurait pu vous alerter : les mains. Car sur ces images générées par les IA, les doigts sont souvent trop nombreux ou pliés de manière improbable. Ce n’est pas tout, d’autres aberrations anatomiques ou des textes incohérents trahissent ces programmes. Grâce à ces indices, on peut détecter la duperie. Mais ces lacunes techniques peuvent-elles protéger durablement des risques de désinformation ? Et comment appréhender les nombreuses questions soulevées par ces nouveaux outils ? Pour y répondre, il faut s’intéresser au fonctionnement de ces logiciels, capables de générer des images en quelques clics. Explication dans cette vidéo, avec l’aide de ChatGPT. ✅ Abonnez-vous à la chaîne YouTube du Monde (et activez la cloche pour les notifications 🔔 !) Sources : « Deep unsupervised learning using nonequilibrium thermodynamics », Jascha Sohl-Dickstein, Eric A. Weiss, Niru Maheswaranathany, Surya Ganguli (2015) : « DALL·E 2 pre-training mitigations », OpenAI (2022) : « Photorealistic text-to-image diffusion models with deep language understanding », Google Research (2022) : « Denoising diffusion probabilistic models », Jonathan Ho, Ajay Jain, Pieter Abbeel (2020) : « Point·E : a system for generating 3D point clouds from complex prompts », Alex Nichol, Heewoo Jun, Prafulla Dhariwal, Pamela Mishkin, Mark Chen (2022) : Exemple de bases de données utilisées par ces algorithmes :
Back to Top