Podcast Ex Machina | IA génératives : du fake plus vrai que nature

Ep.16 avec Gabriel Turinici, professeur du CEREMADE spécialiste des algorithmes, et Estelle Cognacq, directrice de l’Agence Radio France.

Les textes, les sons et les images générés par les intelligences artificielles génératives qui circulent en ligne sont les témoins des progrès extraordinaires de l’IA ces dernières années. Avec la mise à disposition de logiciels comme ChatGPT et Midjourney au grand public, il est de plus en plus difficile de déceler le vrai du faux sur le web.

Couplés avec les phénomènes des fake news et la viralité des réseaux sociaux, la vague des IA génératives soulèvent de vrais enjeux politiques et sociaux

Basées sur des principes de probabilité, les IA ont, pour le moment, toujours besoin d’une main humaine pour être guidée et vérifiée. Les modèles d’IA génératives peuvent-ils encore s’améliorer ? Comment peut-on détecter et contrôler ces contenus générés par des machines ? Quel est le rôle des médias et des pouvoirs publics dans cette lutte contre la désinformation ?  

Pour tenter de répondre à ces questions, Eric Nahon, journaliste et directeur adjoint d'IPJ Dauphine | PSL, reçoit ce mois-ci deux experts en la matière :  

  • Gabriel Turinici, professeur de mathématiques à l'Université Paris Dauphine – PSL spécialisé dans les algorithmes d’écriture automatique, chercheur du laboratoire CEREMADE  
  • Estelle Cognacq, journaliste et directrice de l’Agence Radio France, qui œuvre à vérifier les sources des informations diffusées par les antennes de France Info. 

Comment assurer la fiabilité des informations générées sur ChatGPT ? 
 

« Je crois qu'une bonne partie du chemin est parcouru lorsqu'on sait que ça peut être faux. Déjà, se poser la question, c'est la moitié de la réponse. (...)
Par exemple, sur Wikipédia, on sait qu'il y a parfois des fausses informations, mais les gens ont testé et puis finalement, il n'y en a pas tant. Donc on se dit qu'il y a un risque que ça soit faux, mais il se peut aussi que ça marche et donc peut être qu'on vérifie encore un peu plus Wikipédia par rapport aux encyclopédies.

ChatGPT, actuellement, la version 3.5 dit beaucoup de bêtises. Dans la version 4, il y en a moins. D'ici trois ou quatre ans, on ne pourra pas le distinguer de Wikipédia en termes de qualité, je pense, d'information. Donc, il faut effectivement juste être un peu cohérent avec les outils qu'on a et s'attendre à ce qu'il soit éventuellement faillible. » Gabriel Turinici
 

Comment sensibiliser les internautes à démêler le vrai de l'IA ?
 

« On en revient finalement à un principe philosophique. Il faut douter, et l'humain va devoir douter presque de tout ce qu'il voit, entend, lit, croit. Il y a un gros enjeu là dessus de formation, d'éducation, de ne plus rien prendre pour argent comptant.

On sait que les jeunes générations, ils sont saturés par les réseaux sociaux, ils connaissent les risques. Ils sont donc en capacité de développer ces compétences de vérification, de se poser les questions, de savoir chercher les informations ou comment être agile avec tous ces logiciels.

Je pense que c'est plus compliqué pour les publics plus âgés qui, eux, ont moins été habitués... Ils vont voir la photo, mais ne seront pas forcément en capacité d'aller vérifier sur Google ou ailleurs si elle est vraie ou fausse. » Estelle Cognacq

« Néanmoins, une image réelle, ça représente un message, ça représente un transmetteur. Donc l'identification de ce transmetteur est importante et on va bien sûr arriver à une réglementation quelque part. Chaque image générée devrait dire « Je suis une image générée quelque part. »

Avec quelques chercheurs, on essaye depuis plusieurs années d'alerter un peu sur ces points. C'est paradoxal de voir qu'on (...) a des règles strictes pour l'alimentaire, pour les recherches en médecine, en virologie, en nucléaire, et on ne pense pas important d'investiguer un peu sur les règles pour la recherche en IA. Il faut le faire. » Gabriel Turinici

ÉCOUTER TOUS LES ÉPISODES D'EX MACHINA SUR LES PLATEFORMES D'ÉCOUTE


Ex Machina est un podcast préparé par Dauphine Numérique, un projet de recherche transversal de l’Université Paris Dauphine – PSL qui développe une approche réflexive de l’IA, ses modalités, ses usages et ses effets. 

En savoir plus sur le projet Ex Machina

Publié le 12 mai 2023