Collection | Ex Machina, l’ère des algorithmes
Analyse des données : quand l’IA prédit notre avenir
Episode 15 (Saison 2) du podcast Ex Machina, avec Henri Isaac, maître de conférences expert en transformation numérique, et Théo Delemazure, doctorant en intelligence artificielle.
Lorsqu'on parle de big data, on parle de millions de données collectées en ligne. Des surfaces locatives, des clics sur des vidéos, des photos de chats... Ces énormes jeux de données complexes, par leur volume, font le bonheur des data scientists et permettent de nourrir les intelligences artificielles.
C'est grâce à cette mise en données du monde que les IA peuvent désormais prédire le cours d'une action, les futurs achats d'un internaute, voire ses intentions de vote.
Les données sont au cœur de l'IA, mais d'où viennent-elles réellement ? Que peuvent-elles nous dire sur notre monde... et sur notre avenir ?
Pour tenter d'y répondre, Eric Nahon (IPJ Dauphine | PSL) reçoit ce mois-ci :
- Henri Isaac, maître de conférences à l'Université Paris Dauphine - PSL, auteur de nombreuses publications sur la transformation digitale dans les organisations, et président du think tank Renaissance Numérique
- Théo Delemazure, doctorant en intelligence artificielle à l’Université Paris Dauphine - PSL, connu pour son site « C’est de droite ou de gauche » qui a cartonné sur les réseaux sociaux
Quand a-t-on commencé à collecter et analyser les données ?
« La numérisation de la société, elle est ancienne d'abord, parce qu'elle n'a pas commencé hier ou avant hier. Il y a un phénomène qui l'a accéléré, c'est fondamentalement le smartphone et l'Internet.
L'internet et la mise en réseau de la société, ça a permis à tout un chacun de publier, ça a permis à un site comme Wikipédia d'exister.
La numérisation, c'est globalement transformer toute action en données. Les Américains parlent de « datafication » : on est passé de 300 millions de gens qui utilisent un ordinateur à 4,8 milliards de gens qui ont un smartphone ; cela permet de générer bien davantage de données. On ne comprend pas totalement que, chacun d'entre nous, on a contribué à fournir des images de chatons, de barbecue, qui ont permis d'entraîner beaucoup de modèles prédictifs en computer vision. Sans ces données, on n'aurait pas pu avancer aussi vite qu'on l'a fait ces dernières années.
Quand on regarde à partir de quelle année, globalement, on a fait des percées dans le deep learning, c'est très concomitant de la disponibilité de ces données. On avait globalement les modèles et les idées, il manquait juste des données et de la puissance de calcul qui ont été la combinaison qui a fait que depuis globalement 2008, les choses ont accélérées très fortement. 2008, c'est l'année de la sortie de l'iPhone. » Henri Isaac
« Un data set peut permettre de comprendre des choses sur la société qui nous entoure »
« Le métier d'un data scientist, comment je le comprends ? C'est qu'on vient vous voir avec des données et le but, c'est grâce aux données, d'essayer d'identifier, par exemple, des problèmes ou des axes d'amélioration et potentiellement des solutions.
On a une grande variété de données, un grand volume de données et des données qui se répètent dans le temps. On cherche à y trouver des tendances et potentiellement de prédire aussi, mais pas forcément toujours prédire. Ça peut être aussi juste voir ce qui se passe actuellement dans les données, analyser, identifier les points importants de ces données et apporter des solutions potentiellement à partir des données.
Pendant la crise du Covid, il y avait Covid Tracker qui avait beaucoup tourné et c'était exactement ça. C'était un site qui utilisait les open data de tout ce qui touchait aux données de santé et puis ça les présentait pour le grand public. Et en fait, les gens, ça les intéresse de connaître les données, mais quand on est face à un tableau de 100 000 lignes ou un beau graphique, ce n'est pas pareil. » Théo Delemazure
Ex Machina est un podcast préparé par Dauphine Numérique, un projet de recherche transversal de l’Université Paris Dauphine – PSL qui développe une approche réflexive de l’IA, ses modalités, ses usages et ses effets.