Candidater
Comprendre le monde,
éclairer l’avenir

Management & Entreprise

Ancrer l’intelligence artificielle dans le travail réel : explicabilité située et responsabilité managériale

4 mn - Le 30 septembre 2025

Synthèse de l’intervention de Yann Ferguson lors de la soirée de lancement du Cercle Travail en transitions, le 5 février 2025, à l’Université Paris Dauphine - PSL.

Avant la sortie mondiale de l’intelligence artificielle générative en France en 2022, dont l’exemple le plus connu est ChatGPT, moins d’1 % des travailleurs utilisaient l’intelligence artificielle (IA) au travail. Aujourd’hui, 50 % des Français auraient utilisé l’IA au travail au moins une fois. 

La réalité actuelle de l’utilisation de l’IA au travail est celle d’employés qui utilisent un outil grand public, souvent à l’insu de leur direction. Dans ce contexte, il est nécessaire de développer un dialogue social technologique sur l’utilisation de l’IA au travail

Depuis les années 2010, le modèle dominant d’IA a évolué du modèle « logique », qui se contentait de dupliquer le raisonnement humain, à un modèle capable de formaliser par lui-même ce que l’on ne savait pas lui enseigner : la machine a réussi à imiter l’apprentissage humain. Elle apprend dorénavant à travers l’accumulation de données, présentes en grand volume sur internet à travers les big data. Ces données doivent néanmoins être préparées au préalable par des humains, ce qui rend la machine encore largement dépendante du travail humain. Les pays européens ont délocalisé ce travail de labellisation, par exemple au Kenya dans le cas d’Open AI pour ChatGPT ou à Madagascar dans le cas de la France. 

Nous faisons cependant face à un problème de taille : la répercussion du paradoxe de Michael Polanyi chez les IA. Ce paradoxe réside dans notre incapacité à expliquer de manière exhaustive les connaissances tacites que nous possédons. Ainsi, nous ne savons expliquer comment les IA raisonnent

Ce problème de l’explicabilité pose des questions éthiques conséquentes, notamment lors de l’utilisation des IA pour effectuer une tâche critique. Le professionnel qui reçoit une aide à la décision nécessite en effet une explication sur le fondement de cette recommandation. Aujourd’hui, ce sujet de l’explicabilité est un verrou scientifique

Ainsi, les années 2010 voient les prémices du développement d’une éthique de l’IA, dont l’un des moments fort en Europe culmine en 2018, avec la définition de sept exigences à respecter pour qu’une intelligence artificielle soit considérée comme « digne de confiance ». Alors que l’AI Act adopté en mars 2024 a posé le cadre légal en Europe, et que le règlement européen est toujours en cours d’élaboration, la dignité de confiance de l’IA n’est pas encore scientifiquement établie.

L’éthique du travail avec l’intelligence artificielle :

Depuis la révolution industrielle, le travail est considéré dans nos sociétés européennes comme une activité définie par trois dimensions principales :

  • C’est l’activité par laquelle on « transforme le monde »,
  • Elle permet d’acquérir une dignité matérielle et spirituelle qui forge l’identité singulière du travailleur,
  • Elle permet d’exprimer notre ultra sociabilité : on travaille pour les autres, et avec les autres.

La question au cœur de la recherche menée par le LaborIA est la suivante : dans quelle mesure ces trois grandes dimensions du travail sont remises en question par l’introduction de l’outil qu’est l’IA ?

Le problème posé par l’introduction du numérique dans le travail est la puissance de son affordance, c’est-à-dire de la capacité de l’outil à suggérer son usage, qui sème une confusion entre facilité d’utilisation et compétence professionnelle.

Les spécificités de l’usage de l’intelligence artificielle au travail : 

Quel est le nouveau sens du travail avec l’IA ? Différentes dimensions du travail sont affectées par l’introduction de l’IA : 

  • Les interactions sociales : nous interagissons de plus en plus naturellement avec les machines, ce qui modifie notre rapport anthropologique à l’objet, et nous amène à privilégier les relations avec les IA. Cela menace l’ultra-sociabilité normalement permise par le travail.
  • Le processus d’apprentissage croisé : les machines apprennent de nous et nous apprenons des machines. Ces situations d’apprentissage croisé créent des effets que nous n’avons pas encore mesurés. Nous devons ainsi développer un esprit critique vis-à-vis de nos outils, et des biais qu’ils induisent.
  • L’éthique : il est nécessaire d’établir une explicabilité située, qui ne soit pas simplement une explication générale du fonctionnement de l’IA, mais une explication contextuelle qui permette d’engager éthiquement notre responsabilité.
  • La responsabilité managériale : les managers doivent créer des environnements de travail adaptés à l’IA : le travailleur doit être réassuré, formé à l’IA ; et le manager doit s’assurer que les outils soient respectueux du droit et de l’éthique de l’entreprise. Il faut donc inventer des cadres pour accompagner individuellement et collectivement ce nouveau binôme humain-machine.

Ce contenu est publié sous licence Creative Commons Creative CommonsByShare-a-like

À lire aussi

Tout au long du XIXe siècle, l’idée que les travailleurs devraient être associés à la production et à la propriété des instruments de travail a été...

Le 11 septembre 2025 - 8 mn - Dominique Méda

Hier fer de lance du droit européen, les régulations sociales et environnementales des entreprises sont aujourd’hui menacées. Pressions géopolitiques...

Le 11 septembre 2025 - 10 mn - Beatrice Parance

Dans les coulisses des régulations internationales se joue un débat comptable entre la simple et la double matérialité. Loin d’être anecdotique, il...

Le 11 septembre 2025 - 8 mn - Bernard Colasse, Frédérique Déjean