Économiste au Centre d'études prospectives et d'informations internationales (CEPII), cofondatrice de l'Observatoire des emplois menacés et émergents (OEM), Axelle Arquié déplore que la classe politique ne prenne pas la mesure des conséquences de l'intelligence artificielle (IA) sur le travail et notre modèle social. Un entretien à retrouver
dans notre trimestriel La Vie ouvrière, d’avril 2026.
Pensez-vous qu'avec l'intelligence artificielle, nous assistons à une nouvelle révolution industrielle ?
Oui. La raison est que l’IA est une technologie à usage général au sens où nous l'entendons en économie, c'est-à-dire qu’elle va avoir un impact sur tous les secteurs, pas seulement celui de la tech, ce qui va modifier l'ensemble des processus de production et la façon dont nous travaillons. L'intelligence artificielle porte en elle des grappes d'innovations qui font boule de neige. Une autre de ses caractéristiques est qu'elle devient de plus en plus efficace, et de moins en moins chère. Donc, oui, on peut la comparer aux technologies qui ont fondé la révolution industrielle – le chemin de fer, l'électricité… – ou celle d'Internet. Mais ses effets, à mon sens, seront plus forts, en particulier dans le rapport de force entre le travail et un capital concentré entre les mains de quelques grands acteurs.
Est-ce aussi, selon vous, une révolution anthropologique ?
Je ne suis pas la mieux placée pour répondre à cette question, dans la mesure où ce n'est pas mon domaine de recherche. Mais, effectivement, l'IA risque d'avoir des effets sur la façon dont nous pensons. De nombreux philosophes s'en préoccupent. Dans le domaine de l'éducation, l'IA peut, par exemple, représenter une formidable aide à l'apprentissage, adaptable à chaque personne. Mais on peut aussi lui abandonner son pouvoir de réflexion, et ça, c'est plus inquiétant. Des scientifiques de la Silicon Valley se sont regroupés au sein d'une association, Everyone.AI, afin de réfléchir à des outils qui ne dénaturent pas le cerveau en construction des jeunes. Mais le risque existe aussi pour les adultes, il n'y a qu'à voir la manière dont les réseaux sociaux pèsent sur l'attention.
De plus, le fait que ces outils permettent d'automatiser des tâches qui, à la base, demandent un raisonnement, peut se révéler problématique, voire dangereux, d'un point de vue politique et démocratique. Outre le risque de manipulation de la réalité, les IA sont sujettes à des hallucinations [information qui semble réelle mais qui ne correspond pas à la réalité, NDLR], des erreurs, des biais. Les données sur lesquelles les modèles sont entraînés sont issues d'un corpus majoritaire, constitué de données américaines. Tous ces biais ne sont pas lisibles. Il y a un aspect « boîte noire » assez angoissant si l'on pense à la manière dont ça peut être utilisé. Jusqu'à présent, le paradigme technologique reposait sur un code [ensemble des instructions qui indiquent à un outil comment exécuter certaines tâches], un corpus de règles explicites et lisibles. Aujourd'hui, les décisions des modèles dépendent de calculs tellement complexes que chez leurs créateurs, par exemple OpenAI (ChatGPT) ou Anthropic (Claude), on trouve des laboratoires entiers dont le travail est d'essayer de rendre lisible, pour un esprit humain, le fonctionnement de leurs propres modèles.
D'où des risques sur le plan opérationnel, mais aussi juridique pour les entreprises ?
C'est effectivement un problème si une société n'est pas capable d'expliquer une décision. Cela pose la question de la responsabilité, dans le cas, par exemple, où un modèle « dirait » à un agent de production d'effectuer une opération d'une importance critique. Comment savoir si la demande relève d'une décision purement logique ou d'une hallucination ? Qui serait responsable s'il survenait un accident ? En l'état actuel, l'être humain joue toujours un rôle, mais la question est prégnante au sein de la communauté scientifique avec l'émergence, à court ou moyen terme, d'une intelligence suprahumaine capable de gérer des problèmes autrement plus avancés que ceux gérés par les modèles de langage actuels, et dotée d'une capacité de planification à long terme.
Mais n'est-ce pas l'humain qui définit les algorithmes utilisés par l'intelligence artificielle ?
Oui, mais avec le machine learning [sous-domaine de l'intelligence artificielle qui permet à un système d'apprendre et de s'améliorer de manière autonome], les IA extraient des données d'entraînement des relations statistiques hypercomplexes, illisibles pour l’homme. L'humain choisit effectivement les données avec lesquelles il alimente les IA, mais nous ne savons pas exactement ce qu'elles en extraient comme résultat. Il y a deux ans, la Caisse d'allocations familiales [CAF] a revu son algorithme de datamining (exploration des données), qui avait été conçu pour estimer les risques d'indus. Seulement, quinze organisations (dont la Ligue des droits de l'Homme, Amnesty international, la Fondation pour le logement des défavorisés…) ont découvert par la suite qu'il comportait toute une série de biais discriminatoires et qu'il ciblait, en particulier, les plus précaires. Parmi les facteurs qui augmentaient les scores de suspicion, il y avait le fait de percevoir des revenus faibles, de toucher le RSA ou l'allocation aux adultes handicapés. Les dirigeants de la CAF se sont réfugiés derrière l'opacité de l'algorithme pour minimiser leur responsabilité.
Régulièrement, des études tentent de mesurer l'impact de l'IA sur l'emploi. Les résultats révèlent des différentiels importants. Est-ce pour cela que vous avez fondé l'Observatoire des emplois menacés et émergents ?
Les outils principaux de la recherche en économie ne sont pas adaptés pour penser un nouveau monde, à savoir les régressions sur les données du passé : il faut plutôt faire de la prospective. Ce que font en la matière certains économistes depuis les années 2000 et l'avènement des NTIC [nouvelles technologies de l'information et de la communication], c'est qu'ils prennent un métier, le décomposent en tâches et disent si, oui ou non, elles sont automatisables. Au sein de l'Observatoire, nous essayons d'aller à un niveau plus granulaire, d'extraire des actions élémentaires et voir, ainsi, quels métiers sont plus ou moins en danger. Nous travaillons aussi avec la Coface [société d'assurance pour les entreprises spécialisées dans le risque] à une étude sur la base de 923 métiers, que l'on décline au plan local afin de dire si tel ou tel département est particulièrement exposé ou pas.
Dans un premier temps, les métiers qui vont être les plus touchés par l'IA sont les métiers de « cols blancs ». Lors de l'apparition de la robotique dans les années 1990-2000, des tâches cognitives dans les bureaux ont été remplacées en même temps que des activités manuelles, mais il s'agissait de tâches assez répétitives. La différence avec l'IA générative, dans la mesure où il s'agit de modèles capables d'une certaine improvisation, d'une adaptabilité au contexte, est que l'on peut automatiser des tâches qui ne sont pas répétitives : comptable, consultant, avocat, journaliste, économiste, les métiers de la création, la publicité… Je ne dis pas qu'à l'arrivée on obtient la même qualité, le même degré d'inventivité, mais les entreprises peuvent avoir tendance à opérer la substitution plus facilement. Je rejoins l'idée du sociologue Juan Sebastian Carbonell d'un taylorisme augmenté, ou cognitif. Si les tâches cognitives sont fragmentées en différentes étapes et que l'on assigne aux LLM [modèles spécifiques utilisés pour le traitement du langage naturel] les tâches à haute valeur ajoutée parce qu'on estime que les modèles de langage sont plus efficaces que l'humain pour rédiger un texte, par exemple, et qu'on attribue à l'humain la mission de vérifier, le risque est d'avoir un appauvrissement du contenu du travail et une déqualification. Et si les compétences des salariés se dégradent, leur pouvoir de négociation face à une direction diminue. Chacun devient plus interchangeable.
Des entreprises ont fait machine arrière après avoir adopté l'IA, en réembauchant des salariés après, pourtant, en avoir licenciés. Comment l'expliquez-vous ?
Si l'on prend l'exemple de l'électricité, il a fallu quarante ans aux entreprises pour réorganiser les usines autour de l'innovation qu'était la chaîne de montage et voir des gains de productivité se matérialiser. Là, de la même façon, si vous déployez l'IA sans repenser le process de production et modifier l'organisation en conséquence, ça ne peut pas marcher. Une des grosses problématiques pour une entreprise, c'est ce que l'on appelle le « human in the loop strategy », autrement dit la manière dont on définit l'endroit du processus où l'humain doit intervenir afin de garantir l'exactitude, la sécurité, la responsabilité ou la prise de décision. Si vous déployez l'IA sans avoir réfléchi à ces points d'entrée, les choses peuvent vite mal tourner. Ceux qui semblent réussir, tout du moins aux États-Unis, sont ceux qui développent l'outil à un endroit de l'entreprise, les ressources humaines, par exemple, regardent comment ça fonctionne et, ensuite, le généralisent progressivement aux autres secteurs. Aussi, je pense que les effets de l'IA se feront sentir réellement sur l'emploi quand la technologie sera mature.
Qu'en est-il de l'IA agentique ?
L'IA agentique repose sur les mêmes soubassements technologiques que l'IA générative, les mêmes modèles de langage… La différence est qu'elle orchestre plusieurs modèles de langage pour qu'ils travaillent ensemble. Le fait de les combiner permet de leur donner plus de capacité de planification et une forme de mémoire externe. De plus, elle peut aller voir vos fichiers, avoir accès à Internet… Elle a une interaction avec le monde physique. Concrètement, sur le plan du travail, une fois déployés ces systèmes, vous n'allez pas simplement automatiser une tâche prise isolément, mais plusieurs, voire un processus de production. Vous pouvez assigner à l'outil un objectif et ensuite il se débrouille. Pour l'heure, l'IA agentique n'est pas opérationnelle, il reste à résoudre un certain nombre de problèmes techniques, sur le plan des protocoles – la manière dont les systèmes se parlent entre eux, par exemple –, de la sécurité, de l'amplification des erreurs, entre autres. Nous avons élaboré deux scénarios avec la Coface, une première phase avec les LLM utilisés isolément, et une seconde avec l'IA agentique : la part d'emplois menacés passe de 4 à 16 %. Mais ça reste prospectif.
Deux études récentes des universités de Stanford, en Californie, et de Harvard, dans le Massachusetts, montrent que les jeunes diplômés sont les premières victimes du recours à l'intelligence artificielle dans les entreprises…
Ces études révèlent effectivement une baisse de l'embauche des juniors, de 16 % environ. Selon moi, il y a derrière une question de maturité technologique : plutôt que de licencier des seniors, les entreprises ralentissent leur recrutement, ce qui a une incidence, en premier lieu, sur les jeunes. Qui plus est, les tâches des métiers d'entrée sont généralement moins riches en expérience, donc plus faciles à automatiser. Un autre article montre également un effet à la baisse sur les salaires, particulièrement fort chez les juniors. Mais cet impact sur les jeunes ne pourrait être qu'une première étape, le temps que l'IA agentique soit déployée et que des licenciements de postes plus « seniors » aient lieu.
Des chercheurs parlent d'une revanche des « cols bleus » sur les « cols blancs ». Qu'en pensez-vous ?
C'est vrai, à court terme. Mais quand on voit la manière dont la robotique progresse avec davantage d'agilité, de dextérité, couplée à des modèles d'IA adaptative, le choc pourrait également se produire pour des métiers manuels cognitivement complexes. Ce n'est pas seulement des tâches répétitives que vous pouvez automatiser, mais toute une palette d'applications dans des domaines très variés, de la santé, de la vie domestique, etc. Sachant, par ailleurs, que les robots ne dorment, ne se plaignent pas… Se posent aussi les questions du coût et de la contrainte écologique. À terme, les entreprises auront malheureusement recours à ce qui est le moins cher entre un humain ou une humaine et un robot ou un algorithme.
Les dirigeants politiques prennent-ils, d’après vous, la mesure de ce qui se joue ?
Je me pose la question. À quelques rares exceptions, comme le démocrate Bernie Sanders aux États-Unis, tous ne parlent que de gains de productivité, ou n'abordent même pas le sujet. Or, le pendant de la révolution technologique et industrielle en cours, c'est le marché du travail. Si le basculement qui est en train de s'opérer devait aboutir à une automatisation importante du travail et, in fine, à sa marginalisation, c'est tout le système qu'il faudrait redéfinir. Et ce ne sera pas juste une réforme à la marge ; il faudra repenser la fiscalité, la taxation des hauts patrimoines, à la manière dont la valeur est créée et comment la capter.
Peut-être aussi faudra-t-il revoir notre modèle de protection sociale, y compris l'idée d'une redistribution fondée sur le travail. Les « cols blancs » paient plus d'impôts et de cotisations sociales que les autres, et un choc de 20 % sur le marché du travail (le taux de chômage au moment de la Grande Dépression de 1929 était de 25 %) pourrait avoir un effet ciseau très violent pour l'État et ses finances publiques. Cette éventualité n'est, pour l'heure, pas du tout envisagée par les dirigeants politiques. Or, aussi bien les modèles, les données, que les puces graphiques ou le Cloud, sont la propriété de grands groupes américains. La France, elle, ne dispose que d'un seul acteur, Mistral. L'enjeu, selon moi, est de faire émerger des technologies en Europe, de créer un écosystème à l'échelle de l'Union, avec des États dans un rôle moteur. Les coûts d'entraînement pour développer des LLM sont tellement énormes qu'ils impliquent de réfléchir, du point de vue industriel, à des partenariats éventuels avec le privé.
Les destructions d'emplois ne seraient-elles pas compensées par la création de nouveaux métiers, ce que l'économiste Joseph Schumpeter appelait la « destruction créatrice », concept repris par Philippe Aghion, prix Nobel d'économie en 2025 (qui a inspiré à Emmanuel Macron son programme en 2017) ?
Là où je suis d'accord avec Philippe Aghion, c'est que, sur le plan historique, lorsqu'une technologie est venue révolutionner nos sociétés, des gens ont perdu leur emploi mais de nouveaux métiers ont émergé. Au niveau macro-économique, le solde a parfois été positif, il n'y a pas eu de décroissance de l'emploi humain, notamment quand les femmes sont entrées sur le marché du travail. Mais dire que, parce que ça s'est passé de cette manière pendant deux cent cinquante ans, cela se passera toujours ainsi, j'ai un doute. Sans compter qu'avant que la révolution industrielle ne profite à toute la société, la population en Angleterre s'est appauvrie, de nombreux enfants ont dû aller travailler à la mine.
Il y a autre chose : les données sur lesquelles s'appuie Philippe Aghion sont celles de l'ancienne IA, non celles de l'IA générative, encore moins de l'IA agentique. Ça me paraît compliqué d'extrapoler sur la base des anciens types d'IA et de généraliser au niveau macro-économique et d'un secteur ce qui se passe au niveau micro-économique et d'une entreprise. Les gains de création d'emplois mesurés au niveau d'une entreprise qui adopte l'IA ne révèlent qu'un effet de progression de part de marché sur les concurrents : cela ne signifie pas nécessairement que la taille du gâteau grandit et que l'emploi total croît ! De nouveaux métiers vont émerger, mais je ne suis pas sûre qu'ils remplacent tous ceux qui seront détruits. Et puis, les transitions sont compliquées : il a, par exemple, été difficile de passer d'un emploi d'ouvrier dans une usine à Roubaix, dans le Nord, à celui de data scientist [qui développe des algorithmes d'apprentissage automatique selon les besoins des métiers] à La Défense, à Paris, et ce n'est pas qu'une question de formation, mais aussi d'éloignement géographique. Même en cas de scénario positif, il faudra s'attendre à des problèmes d'ajustement. Avec le souci que les pertes d'emplois liées à la désindustrialisation se sont accompagnées de conséquences politiques profondes pour les régions les plus touchées, à commencer par la montée de l'extrême droite. Donald Trump, aux États-Unis, n'est pas tombé du ciel ; dans les zones les plus touchées par la concurrence internationale, la position des Républicains s'était radicalisée.
Beaucoup de gens disent que les IA ne sont que des « perroquets stochastiques » : elles ne comprendraient pas le sens de leurs résultats et seraient incapables de créativité…
La créativité humaine est de combiner deux choses existantes, or, ça, l'IA sait déjà le faire. En revanche, elle n'a pas encore de véritable capacité à généraliser. Et la vraie définition de l'intelligence, c'est la faculté de généraliser, autrement dit d'apprendre quelque chose et de transférer des connaissances et des compétences acquises dans un domaine à un autre. Et ça, les IA ne le font encore que partiellement. Du moins, pour le moment, mais les choses vont vite…