Candidater
Comprendre le monde,
éclairer l’avenir

Dossier | Dauphine Digital Days 2022 "IA & société" - Les actes #1

Conditions techniques, juridiques et institutionnelles d’une IA de confiance et de son acceptabilité sociale

Publié dans IA & Numérique 9 mn - Le 23 novembre 2023

La réponse à cette question est bien entendu complexe. Pour tenter d’y répondre, avec une approche aussi pluridisciplinaire que possible, voici les travaux et réflexions de plusieurs chercheurs, venus chacun d’un champ différent…

Table ronde animée par Olivia Tambou, maître de conférences en droit européen, Université Paris Dauphine – PSL, avec Céline Castets-Renard, professeure, Université d'Ottawa, titulaire de la Chaire IA (et Chaire ANITI), Raja Chatila, professeur émérite, Sorbonne Université, ancien membre du Groupe d’Experts de Haut Niveau sur l’IA, Karine Gentelet, professeure agrégée, Département des sciences sociales, Université du Québec en Outaouais, Jérome Lang, directeur de recherche au CNRS, Université Paris Dauphine – PSL

Pour réfléchir sur les conditions techniques, juridiques et institutionnelles d’une intelligence artificielle de confiance, et son acceptabilité sociale, trois chercheurs apportent leur éclairage, avec chacun son prisme et ses problématiques de recherche.

Poser un cadre règlementaire sur l'IA, par Céline Castets-Renard

Comment cerner les spécificités de l’approche européenne, en matière de l’encadrement de l’IA ? C’est la question à laquelle tente de répondre Céline Castets-Renard, professeure à la faculté de droit de l’université d’Ottawa, dans le cadre de ses travaux. Elle observe notamment une volonté forte de l’Europe de se positionner sur ces sujets : « L’Union européenne a voulu être la première à porter une réglementation d’envergure à l’échelle internationale, elle veut planter le drapeau haut et fort, affirmer ces valeurs. Pour caricaturer : elle vise à dire qu’elle n’est pas comme la Chine, qu’elle ne veut pas d’une technologie de surveillance au détriment des libertés et des droits des personnes, ni comme les États-Unis, qui symbolisent le tout-marché. La Commission européenne, depuis plusieurs années, a ainsi instauré une réglementation dense et ambitieuse en matière de numérique ».

Elle remarque que l’adoption du RGPD (Règlement général de protection des données) de 2018 a été un premier jalon fort, suivi du DMA (Digital Markets Act) et du DSA (Digital Services Act) l’an dernier. Et désormais d’un texte sur l’intelligence artificielle.

Un enjeu stratégique

Pour l’Union européenne, il s’agit d’un enjeu stratégique avant tout. « L’UE sait qu’elle ne gagnera pas la compétition technologique. En revanche, elle peut peut-être l’emporter sur le terrain du droit. Ce qui est structuré ici aura forcément un impact ailleurs, et c’est toute l’ambition de cet effet de Bruxelles ». Du côté des États-Unis, s’il n’y a pas de volonté d’une loi fédérale globale, elle observe tout de même du mouvement du côté de la Maison Blanche, avec des lignes directrices adoptées. Un pouvoir fort est aussi accordé aux régulateurs, notamment la FTC (Federal Trade Commission). « Celle-ci a affirmé à plusieurs reprises qu’elle utiliserait ses pouvoirs pour contrôler les algorithmes, notamment dans le domaine bancaire. Et elle le fait ! C’est une organisation intéressante, qui agrège des compétences en droit de la concurrence, de la consommation et des données personnelles », relève-t-elle. Un point positif, contrairement à la France, où les régulateurs, chacun dans leur silo, doivent trouver des solutions pour articuler leurs actions.

Quid du Canada ? « Ils sont au milieu du gué. Le pays a un projet de loi sur l’intelligence artificielle et les données, mais une législation beaucoup moins large et ambitieuse que l’Union européenne ».

Difficile normalisation

Autre problématique importante à ses yeux quant à l’instauration d’une IA de confiance : la normalisation. « Pour mettre en place des IA responsables, l’approche de la proposition de règlement est que les IA doivent être certifiées. Les fournisseurs qui mettent des systèmes contenant de l’IA sur le marché doivent s’y conformer, soit en faisant certifier leur système d’IA, soit via un contrôle interne. S’ils respectent certains standards, ils peuvent bénéficier d’une présomption de conformité, ce qui va faciliter la preuve ». Ce qui simplifierait les choses lors d’un éventuel contrôle des futures autorités, comme la CNIL.

Ce standard est en effet un véritable avantage, mais il peut être aussi un point délicat à résoudre, surtout sur ces nouvelles technologies. « Les organismes de standardisation font très bien leur travail pour des produits, par exemple sur la dangerosité d’un jouet pour enfant, mais quand il s’agit d’IA et de respect des droits fondamentaux, ces organisations ne sont pas du tout formées à prendre en considération ces questions. Ce type d’appréciations relève en général d’un juge ou d’une autorité indépendante ». Une équation difficile à résoudre.

Intégrer toute la population dans les données par Karine Gentelet

Les travaux de Karine Gentelet, professeure agrégée au département des sciences sociales de l’Université du Québec, portent sur l’usage de la technologie numérique de l’IA au service de la justice sociale, et plus précisément la représentativité des personnes dans les données. La chercheuse s’est alors demandé : quid de l’invisibilité numérique de certains groupes d’individus ?

En effet, des groupes, marginalisés socialement et politiquement, peuvent se retrouver absents des jeux de données, ensuite utilisés par des algorithmes d’intelligence artificielle. Karine Gentelet a mené une enquête pour comprendre comment certains d’entre eux ont réussi à résoudre ce problème. La première difficulté est d’abord de faire le constat, de se rendre compte de l’impasse. La chercheuse a échangé avec une dizaine de personnes portant des initiatives en ce sens : « Ils ont essayé de prendre le contrôle sur la production des données, en incluant leur participation à certains mécanismes de collecte de données, comme le recensement, pour contrôler ainsi la donnée produite pour eux et par eux ».

Des recours à créer

Elle donne un exemple concret : lors de la crise sanitaire, au Canada, des groupes communautaires, notamment racialisés, ont décidé de collecter leurs propres données. « Santé Canada a vu la qualité de leurs données et a passé un accord pour les inclure dans ses statistiques. Ces types d’initiatives sont encore rares, mais ils commencent à émerger, car les gens prennent conscience de l’importance de l’utilisation à bon escient de ces données », met en avant la sociologue, relevant toute l’importance de « faire en sorte que l’IA soit gouvernée par la société, pour la société, et soit incluse dans la société, pour faire participer les citoyens ».

Enfin, Karine Gentelet insiste sur l’importance de la possibilité de recours directs pour les citoyens, s’ils sont impactés par un algorithme et s’ils ont le sentiment d’avoir subi une discrimination. « Nous en sommes encore aux balbutiements, sur un champ qui existe depuis cinq ans, mais ces dimensions ne sont pas encore saisies et elles vont prendre de l’importance à moyen et long terme », conclut-elle, affirmant l’importance de la société civile et des ONG, qui doivent être inclus dans ces prises de décisions, et pas seulement dans le cadre de simples consultations.

Améliorer la participation citoyenne grâce à l'IA par Jérôme Lang

Spécialiste de la théorie du choix social computationnel, Jérôme Lang étudie comment la création d’une intelligence artificielle plus inclusive et démocratique. Ce directeur de recherche au CNRS et à Dauphine observe notamment comment les algorithmes peuvent concrètement aider à une meilleure participation citoyenne. « Prenons l’exemple des budgets participatifs des communes. Une ville comme Paris consacre une partie de son budget à des projets collectifs, pour lesquels les citoyens votent. La plupart des villes utilisent des méthodes qui sont notoirement injustes : à Paris, si 51 % des électeurs votent pour un projet sportif, 49 % pour un projet culturel, tout le budget ira au projet sportif. Il manque une garantie de proportionnalité, qui n’est pas respectée. Les chercheurs travaillent justement sur des méthodes plus efficaces et proportionnelles », détaille-t-il. Des solutions pourraient être trouvées grâce à des algorithmes, pour arriver au bon équilibre.

Autre exemple : la formation d’assemblées citoyennes représentatives. « On veut constituer des groupes de citoyens de taille raisonnable, qui soient cependant représentatifs sur tout un ensemble d’attributs sociaux et démographiques. Pour cela, il ne suffit pas de tirer au sort les gens et d’espérer obtenir un échantillon représentatif. Des chercheurs travaillent ainsi sur des méthodes appropriées. C’est un autre exemple où le choix social computationnel peut aider à concevoir des méthodes plus justes et équitables, tout en étant efficace », explique le chercheur.

Des décisions difficiles, avec ou sans IA

Parcoursup est un exemple d’appariement grâce à une grande masse de données, bien connu des parents d’élèves. « On se plaint parfois dans la population du manque de transparence de Parcoursup, mais c’est une grosse erreur. Parcoursup est une implémentation de l’algorithme de Gale et Shapley, connu depuis les années 1960 et complètement transparent et explicable. S’il y a quelque chose qui n’est pas transparent et explicable, c’est la façon dont les universités décident du classement de leurs futurs étudiants », tranche le chercheur, proposant l’idée que les établissements d’enseignement supérieur publient justement ces critères, par effort de transparence. Il se souvient de sa propre expérience, pas forcément meilleure que le fonctionnement actuel : « Quand j’étais étudiant, l’affectation se faisait autrement : on faisait la queue toute la nuit, les premiers arrivés étaient pris. Là c’est transparent et explicable, mais est-ce souhaitable… ? »

La problématique est la même avec l’utilisation d’algorithmes de triage dans le cadre de la médecine. Si un hôpital ne dispose que d’un seul ventilateur pour deux patients, comment choisir ? Quels critères faut-il prendre ? « On peut recourir à des mécanismes de préférences sociétales, laisser la décision au médecin, ou à l’État. Dans tous les cas, ce sont des décisions difficiles… 

Les auteurs