Dossier | Dauphine Digital Days 2022 "IA & société" - Les actes #1
Impact de l'IA dans les médias : outils, enjeux et pratiques actuelles dans les rédactions
Si elles peuvent effrayer certains, les nouvelles technologies peuvent se révéler en réalité utiles pour le travail quotidien des journalistes.
Table ronde animée par Éric Nahon, directeur adjoint de l'IPJ Université Paris Dauphine – PSL et président de l'EJTA, avec Soline Ledésert, cheffe de produit et conceptrice UX-UI au Consortium international des journalistes d'investigation (ICIJ), Grégoire Lemarchand, rédacteur en chef de la vérification numérique, rédacteur en chef adjoint mondial AFP, Claude de Loupy, CEO, Syllabs, Gabriel Turinici, professeur de mathématiques, Université Paris Dauphine – PSL
En liant les mots « intelligence artificielle » et « journalisme », bien des boucliers se lèvent. La crainte d’un logiciel surpuissant capable d’écrire la totalité du journal inquiète… « Certains imaginent des rédactions remplacées par robots, capables de rédiger une information personnalisée, complètement adaptée aux attentes et aux besoins des destinateurs. Cette idée des technologies menaçantes est assez ancienne dans notre milieu », relève Pascal Guénée, directeur de l’IPJ Dauphine - PSL.
Cette crainte de la nouveauté, Eric Nahon, directeur adjoint de l’IPJ Dauphine - PSL, l’a observée dès son début de carrière au tournant du millénaire, remarquant alors une « certaine réticence » des professionnels des médias en place face aux progrès technologiques. « Les plus anciens que moi pourraient parler des premiers micro-ordinateurs dans les rédactions. Nous observons aujourd’hui les mêmes arguments lorsque l’on évoque l’arrivée de l’IA : elle n’est pas encore assez précise, ou encore "je n’y comprends rien, ce n’est pas fait pour moi". Les journalistes semblent ne pas vouloir prendre conscience que leur métier va se transformer encore une fois. Ou peut-être a-t-il déjà changé, sans que l’on ne s’en soit aperçu ? », questionne-t-il. L’intelligence artificielle serait-elle une menace pour les médias et ceux qui les font ?
Délester de travaux rébarbatifs
Pourtant, ces nouvelles technologies peuvent être précieuses pour les professionnels de l’information. Elles peuvent tout d’abord les délester de tâches rébarbatives, où leur travail n’apporte que peu de valeur ajoutée. « Prenons la rédaction d’articles répétitifs, par exemple à la fin de chaque journée de bourse. Personne n’a envie d’écrire qui a perdu ou gagné en cotation. Je ne pense pas que des étudiants viennent en école de journalisme pour faire cela ! Pourquoi y passer du temps, alors qu’une intelligence artificielle le fait très bien », suggère Gabriel Turinici, enseignant-chercheur au Ceremade. Autre exemple intéressant : les résultats de chaque circonscription, à la suite d’une élection, qu’une IA pourra traiter de façon simple et immédiate.
C’est justement ce que propose Claude de Loupy, CEO de la start-up Syllabs. Sa spécialité : la production automatique de contenus. Il tient cependant à ne pas tout mélanger : « Je déteste le terme de robot-journaliste, qui est totalement erroné et qui donne une impression fausse de ce que nous faisons ». La raison est simple, sa jeune pousse ne vise en aucun cas à remplacer les rédactions, bien au contraire. « Nous ne pouvons pas voler le travail du journaliste. Pour produire un texte et le garantir correct, via de l’intelligence artificielle, nous devons y passer beaucoup de temps. Pour rentabiliser ce temps, il faut énormément de contenus similaires à produire. Pour les résultats des élections ou la météo, cela fait sens. Cela est impossible pour une interview ou une analyse de discours politique ! », tranche l’entrepreneur.
Analyse massive de documents
Les logiciels capables de brasser d’énormes masses de données se révèlent également particulièrement utiles dans les enquêtes. Soline Ledésert est cheffe de produit au Consortium international des journalistes d’investigation (ICIJ). Si le grand public ne connaît pas forcément le nom de cette association, il a sans doute lu l’une de ses enquêtes : les Panama Papers, les Pandora Papers, ou encore les Uber Files. « Elles se fondent sur beaucoup de documents, depuis que nous avons commencé notre activité, nous en avons recueilli environ soixante millions sur nos serveurs ! », explique-t-elle. Concrètement, un « leak » se présente sous la forme d’un drive ou d’une clé USB. Il appartient ensuite aux journalistes du Consortium, qui travaillent pour différents médias dans le monde, de fouiller dans les milliers de textes présents.
Un travail de fourmi hautement fastidieux. Alors, le Consortium a développé plusieurs plateformes, dont une nommée Data Share. « C’est une sorte de Google sécurisé et privé dans lequel les journalistes vont pouvoir chercher des noms ou des localisations, par exemple pour voir s’il y a des célébrités, des hommes politiques ou des personnalités intéressantes de leur zone géographique, qui sont cités », précise Soline Ledésert. Première utilisation de l’IA : des logiciels d’ « OCR », alias Optical character recognition, permettant grâce à des réseaux de neurones de transformer des photos ou des scans de textes en caractères.
Étape suivante : des logiciels de NLP, du traitement de langage naturel, offrant la reconnaissance d’entités nommées. « Nous allons demander à ces logiciels quels noms de personnes, d’entités, de lieux, d’adresses, sont dans ce document. Par exemple, ils vont repérer que Total est cité tant de fois, Emmanuel Macron tant de fois. Cela nous donne une première vue du leak, s’il parle de la France, de la Chine, d’un secteur… », détaille Soline Ledésert. Bien sûr, des erreurs, doublons et approximations peuvent apparaître. L’équipe data du Consortium prend également la main pour filtrer et trouver les bons contenus. Exemple : si un lanceur d’alerte donne l’intégralité de sa boîte mail. Il faut exclure d’emblée les newsletters, spams… Un savant mélange d’intelligence artificielle, mais aussi humaine.
Le mythe de Tintin
Alors, la presse est-elle prête à se saisir de ces outils ? Il le faut, estime Grégoire Lemarchand, rédacteur en chef investigation numérique à l’AFP : « Dans les rédactions, il y a une vraie difficulté à embrasser les outils techniques, car on a l’impression qu’on va perdre son métier, que ce ne sera plus la même chose, que l’on ne pourra plus faire du reportage, du terrain… On est encore dans le mythe de Tintin, avec son calepin et son crayon. Or, l’apport de l’intelligence artificielle et le travail humain sont complémentaires. La technique peut mener à l’excellence journalistique. Ce que fait le Consortium le prouve… »
De l'intelligence artificielle contre les fake news
Dans le cadre de son MediaLab, l’AFP a développé un outil gratuit et à disposition de tous : InVID, un plug-in permettant de vérifier les informations sur internet. Cet outil rassemble 80 000 utilisateurs actifs hebdomadaires. « Une recherche inversée d’image ou de vidéo peut être fastidieuse, surtout s’il s’agit d’une longue vidéo. Avec un système généré par une intelligence artificielle, Invid permet d’accélérer les recherches et d’aller dans les méta-data, pour voir si le fichier a été altéré ou modifié », décrit Grégoire Lemarchand, rédacteur en chef investigation numérique à l’AFP. En analysant des milliers de commentaires, l’IA permet aussi de faire ressortir les plus pertinents, notamment si un internaute déclare que le document est faux. Des indices précieux, en somme.
L’outil fait désormais partie d’un projet européen, Vera.ai, avec 14 partenaires et huit laboratoires de recherche. « Nous voulons continuer à développer ce plug-in, par exemple avec plus d’intelligence artificielle pour améliorer la détection des visages, mais aussi les indices textuels, comme les panneaux visibles dans l’image. Quand la vidéo est floue, de mauvaise qualité, l’IA peut aussi permettre de rendre les images plus claires », détaille Grégoire Lemarchand. Cela peut aussi concerner l’analyse du son, par exemple si l’on entend quelqu’un parler dans une vidéo, pour géolocaliser ou dater la vidéo.