« Les machines peuvent-elles penser ? », se demandait le mathématicien Alan Turing en 1950. Soixante-dix ans après la conférence de Dartmouth, qui marqua la naissance officielle de l'« intelligence artificielle », la question ne se pose plus tant elle est devenue l'un des grands enjeux du XXIe siècle. « Celui qui maîtrisera l'IA deviendra le maître du monde », prédisait le dirigeant russe Vladimir Poutine en 2017. Qu'en est-il aujourd'hui ? Un décryptage, garanti 100 % sans IA, à retrouver
dans notre trimestriel La Vie ouvrière, d’avril 2026.
Au cours des années 1950, l'intelligence artificielle (IA) était l'apanage des geeks et des moustachus tapis au fond de laboratoires obscurs. Les premières machines dites « intelligentes », comme le Perceptron en 1957, précurseur du machine learning, parvenaient à reconnaître laborieusement les lettres de l'alphabet. Rien de spectaculaire, jusqu'à ce que, quarante ans plus tard, Deep Blue, un ordinateur IBM, fasse connaître l'intelligence artificielle au grand public en battant le prodige des échecs Garry Kasparov. À partir des années 2000, la machine s'est emballée. En 2011, le programme d'IA Watson, développé par IBM, remporte le jeu télévisé de culture générale Jeopardy. En 2016, c'est au tour du go, l'un des jeux les plus complexes du monde, quand le champion Lee Sedol s'incline face au logiciel de DeepMind, AlphaGo. En 2022, ChatGPT, l'agent conversationnel d'OpenAI, est capable de tenir une conversation avec un être humain et de répondre à des questions complexes. Son adoption a été fulgurante, avec à ce jour 900 millions d'utilisateurs actifs chaque semaine.
Une poule aux œufs d'or
Le potentiel de l'intelligence artificielle n'a pas échappé aux multinationales. Les géants du secteur, principalement aux États-Unis et en Chine, se livrent une guerre sans merci à travers le globe pour s'assurer la mainmise sur la poule aux œufs d'or. Cette percée fulgurante s'accompagne de son lot d'inquiétudes. Si les machines peuvent tout faire, que va-t-il advenir du travail et des liens sociaux ? Comment assurer la confidentialité des données personnelles dont se nourrit l'intelligence artificielle, et préserver l'intimité humaine ? Comment se protéger de l'IA lorsque celle-ci s'immisce dans nos institutions démocratiques ou qu'elle est utilisée comme arme de guerre ? Bref, l'être humain risque-t-il de perdre le contrôle de sa créature ?
D'après les chiffres de l'Organisation de coopération et de développement économiques (OCDE), 20,2 % des entreprises déclaraient utiliser l'IA en 2025, contre 14,2 % en 2024 et 8,7 % en 2023. La croissance de l'utilisation de l'IA au niveau des entreprises a atteint 42,4 % en 2025, marquant toutefois un ralentissement par rapport aux années précédentes. Dans l'ensemble des pays de l'OCDE, elle est principalement utilisée dans le secteur des technologies de l'information et de la communication (TIC), et de plus en plus dans l'hôtellerie-restauration et dans la construction, qui accusaient auparavant un retard.
C'est en Corée du Sud (30 %) et au Danemark (27 %) que les entreprises d'au moins dix salariés y recouraient alors le plus. Suivaient la Suède, la Belgique, la Finlande, le Luxembourg, les Pays-Bas, la Slovénie, la Norvège et l'Autriche (de 25 % à 20 %). La France (10 %) arrivait loin derrière. Sachant que, dans les pays de l'OCDE, la part des grandes entreprises (250 salariés ou plus) utilisant l'IA est deux à trois fois supérieure à celle des petites. Sans surprise, les entreprises les plus jeunes sont également souvent celles qui y recourent le plus.
Quels gains pour quels coûts ?
Plusieurs études soulignent que l'impact de l'IA au niveau macroéconomique est encore incertain. L'OCDE a calculé que l'IA pourrait contribuer à hauteur de 0,2 à 1,3 point à la croissance annuelle de la productivité du travail dans les économies du G7 – qui regroupe les sept plus grandes puissances industrielles – au cours des dix prochaines années. La banque Goldman Sachs estimait en 2023 qu'une adoption généralisée de l'IA générative aux États-Unis pourrait à elle seule augmenter la croissance annuelle de la productivité du travail du pays de presque 1,5 point sur dix ans.
Pour l'Europe, l'étude du Fonds monétaire international (FMI) « Artificial Intelligence and Productivity in Europe », publiée en 2025, suggère que l'IA générative pourrait augmenter la productivité totale des facteurs (la capacité à produire plus avec les mêmes ressources) d'environ 1,1 % cumulé à moyen terme. À l'horizon 2035, ces modélisations tendent vers 1,5 %, voire davantage. Mais avec de grosses disparités, souligne le FMI : un pays à haut revenu comme le Luxembourg pourrait voir ses gains de productivité approcher les 2 %, soit près du double de la moyenne européenne, tandis que les pays à revenus inférieurs plafonneraient autour de 0,5 %. Des économistes estiment que les coûts engagés pour l'adoption de l'IA (investissements, réorganisation du travail au sein des entreprises…) seraient pour le moment supérieurs à ses bénéfices. « Le coût économique est très important, confirme Olivier Cappé, directeur de recherche au Centre national de la recherche scientifique (CNRS). L'entraînement de ChatGPT s'élève à plusieurs dizaines de millions d'euros à chaque nouvelle version. »
Guerre technologique
Au niveau individuel, les gains de productivité seraient plus sûrs et mesurables. D'après des études récentes publiées dans le Journal of Digital Economy et dans la revue Science, l'utilisation d'un assistant de programmation IA dans le domaine informatique, ou d'un agent conversationnel pour des écrits basiques, permettrait des gains de productivité de respectivement 55 % et 37 %. D'autres études réalisées auprès des chauffeurs de taxi, des conseils clientèle ou encore des consultants montrent que l'IA permettrait de réduire les écarts de productivité entre les travailleurs en facilitant les tâches des moins productifs et des moins expérimentés, et ce, quel que soit le niveau de qualification de la profession.
Ces bénéfices sont à nuancer. Le FMI a mesuré l'impact de certaines réglementations comme celles protégeant les données personnelles, ainsi que l'IA Act de l'Union européenne de 2024. Cumulées, ces réglementations pourraient réduire les gains potentiels de productivité de plus de 30 % dans les secteurs qui brassent beaucoup de données : la santé, le travail social, la finance ou encore les TIC. Une compétition mondiale fait rage autour de l'IA, dominée par les États-Unis et la Chine. En dix ans, les États-Unis ont investi 335 milliards de dollars dans le développement de l'IA. La Chine, elle, a mis 104 milliards sur la table. Mais l'écart semble se réduire. Depuis 2017, les États-Unis ont développé 161 modèles d'IA, contre 127 en Chine. Celle-ci semblant remporter la bataille intellectuelle : 70 % des brevets relatifs à l'IA déposés en 2023 étaient chinois, et seulement 14 % états-uniens (contre 40 % en 2010).
Derrière ces deux poids lourds, la concurrence est négligeable. Au sein de l'Union européenne, seuls 41 modèles d'IA ont été mis au point depuis 2017, comme Le Chat en France ou Luminous en Allemagne. Les Européens n'ont pas accès aux mêmes bases de données gargantuesques pour nourrir l'IA et leurs investissements sont dérisoires. Malgré les déclarations de Vladimir Poutine, la Russie en aurait développé seulement trois. La guerre a éclaté aussi autour des puces, devenues essentielles aux programmes de machine learning, de plus en plus exigeants. La société états-unienne Nvidia, qui est sans conteste le leader mondial des puces, est au cœur de toutes les convoitises. Or, 70 % d'entre elles sont fabriquées par la taïwanaise TSMC. En 2022, le président démocrate Joe Biden a restreint l'exportation des meilleures puces de Nvidia vers la Chine. Pékin a riposté en interdisant l'exportation de matériaux utilisés pour fabriquer lesdites puces. En 2026, Donald Trump a pressé TSMC de délocaliser aux États-Unis 40 % de sa production destinée au marché américain. « C'est impossible », a objecté Taïwan début février.
« Dépossession machinique »
D'après le FMI, 40 à 60 % des emplois dans le monde sont exposés à l'IA. Pour la moitié d'entre eux, les applications de l'IA pourraient exécuter des tâches essentielles actuellement assurées par des êtres humains, ce qui pourrait diminuer la demande de main-d'œuvre, faire baisser les salaires et réduire les embauches. Dans les cas extrêmes, certains de ces emplois pourraient être amenés à disparaître. Mais, en parallèle, une utilisation croissante de l'IA pourrait créer des emplois. La machine a un besoin constant d'êtres humains à ses côtés. De nombreux ingénieurs interviennent pour régler les paramètres de départ, entraîner, améliorer et évaluer les programmes. Un ChatGPT performant nécessiterait ainsi des centaines voire des milliers d'ingénieurs.
« L'IA date au moins des années 1950, ce n'est pas la première fois qu'on nous annonce la fin du travail et il n'y a pas eu de suppression massive d'emplois », nuance le sociologue Juan Sebastian Carbonell. Pour lui, ce discours catastrophiste serait surtout un prétexte pour licencier et se positionner sur le créneau. Amazon a ainsi annoncé la suppression de 30 000 emplois ces derniers mois pour investir massivement dans l'IA. Mais plutôt qu'à une disparition des salariés qui seraient peu à peu remplacés par l'IA, « on constate une forme de dégradation du travail, alerte-t-il. Il y a une “dépossession machinique”. L'algorithme dépossède les travailleurs de leurs connaissances et de leur contrôle sur le processus de travail ».
Dans les entrepôts logistiques, par exemple, ce sont des algorithmes qui organisent le travail des salariés depuis une quinzaine d'années. Résultat : des cadences intensifiées, avec des conséquences graves sur leur santé. C'est vrai aussi pour les professions « semi-artisanales », qui avaient gardé jusque-là un certain contrôle sur leur rythme et leur façon de travailler. L'usage de l'IA est de plus en plus souvent imposé aux traducteurs, réduits au simple rôle de relecteurs de traductions moins bonnes, mais plus rapides, faites par la machine. Dans la presse aussi, le groupe Ebra (L'Est républicain, Le Progrès, Les Dernières Nouvelles d'Alsace…) a commencé à expérimenter l'IA pour la relecture et la correction des articles – une tâche assurée avant par les secrétaires de rédaction. « Rien ne dit que ce modèle soit rentable, précise Juan Sebastian Carbonell. C'est une automatisation “passable” ; la qualité de service est dégradée. »
Des « ouvriers de la donnée »
Certains travailleurs interrogés par l'OCDE en 2023 témoignent aussi d'impacts positifs : un meilleur épanouissement et un meilleur confort au travail avec la délégation à l'IA des tâches les plus fastidieuses, pour se concentrer sur les plus intéressantes. Dans une entreprise du secteur aérospatial, par exemple, c'est désormais un outil de contrôle visuel piloté par l'IA qui vérifie les aubes de turbine neuves destinées aux moteurs à réaction. Ce travail long et exigeant était auparavant effectué minutieusement par des salariés, dans une pièce sombre, avec un instrument grossissant.
Mais l'engouement des patrons pour l'intelligence artificielle précarise les travailleurs de l'autre côté du globe. L'IA a un besoin constant de données, dont l'étiquetage est délégué à des sous-traitants. Ceux-là font appel à des « ouvriers de la donnée », pour reprendre l'expression du sociologue Antonio A. Casilli, des petites mains généralement payées à la tâche et au lance-pierre.
Sur le plan environnemental et énergétique, l'IA représente un coût gigantesque. « Le système actuel n'est pas soutenable », tranche Olivier Cappé, du CNRS. On compte dans le monde environ 11 800 centres de données, nécessaires au fonctionnement de l'IA. Les États-Unis en concentrent près de la moitié (5 400), puis vient l'Europe avec 2 400 data centers répartis de manière inégale dans différents pays (plus de 500 en Allemagne et en Grande-Bretagne, plus de 300 en France). Les pays d'Asie et du Pacifique en ont 1 600 (dont 450 en Chine). Dans son rapport d'octobre, le think tank The Shift Project a évalué la consommation d'électricité mondiale de ces centres de données : 420 TWh en 2024, soit l'équivalent de la consommation d'électricité française totale. Il estime que les centres de données rejetteront jusqu'à 920 millions de tonnes de CO2 par an en 2030. Deux fois les émissions annuelles de la France.
Notre meilleure ennemiE
Chez les utilisateurs, l'IA peut avoir une influence encore plus directe. Plutôt que d'aller s'allonger sur le divan d'un psy, de plus en plus de patients préfèrent confier leur mal-être… à leur téléphone. Près de 36 % des Français âgés de 18 à 30 ans auraient déjà abordé des sujets personnels avec une IA, principalement ChatGPT, d'après une enquête Ifop de 2025. Une oreille attentive, empathique et jamais contradictoire, gratuite et disponible à toute heure du jour ou de la nuit. Un pote, en mieux. « L'IA se souvient de tout ce qui a été dit avant et va compléter en imitant la manière de parler de son interlocuteur, ce qui crée une impression de lien et de proximité, déchiffre Olivier Cappé. Dans un but mercantile, le système ne doit pas résister à l'utilisateur mais susciter son adhésion. Quelqu'un qui est toujours d'accord avec vous, c'est rassurant. »
Certains n'arrivent plus à s'en passer, développant une véritable dépendance émotionnelle qui a provoqué plusieurs drames. Ces trois dernières années, de jeunes adultes et adolescents vulnérables en raison de leurs antécédents psychiatriques et/ou de leur isolement se sont suicidés alors que l'IA était devenue leur unique confidente – voire une relation amoureuse imaginaire. L'IA peut aussi aggraver des troubles de la santé mentale, en particulier chez les personnes psychotiques. À tel point qu'on parle de « psychose induite par l'IA ». La chaîne de télé France 24 a relayé les conclusions d'une expérience de Morpheus Systems, une entreprise spécialisée dans le développement de l'IA, selon laquelle GPT-4o, le modèle par défaut de ChatGPT, confirmait des messages délirants dans 68 % des cas.
Une arme redoutable
Il faut dire que l'IA est une arme redoutable pour retourner le cerveau. Qui n'a jamais entendu parler des deepfakes, ces images, vidéos ou sons manipulés grâce à l'IA à des fins de canulars ou de véritables campagnes de désinformation ? Dans le premier deepfake « grand public », diffusé en 2018, on voyait Barack Obama, ancien président des États-Unis, insulter copieusement son successeur, Donald Trump. Plus récemment, on a pu entendre une journaliste annoncer un « coup d'État » en France dans une vidéo visionnée plus de 13 millions de fois sur Facebook…
L'IA s'impose aussi sur les champs de bataille. Elle a été utilisée pour la première fois dans une opération de grande ampleur le 28 février, lorsque l'armée américaine a dirigé 900 frappes en un seul jour sur l'Iran grâce à Claude, de la société Anthropic, qu'elle utilise depuis fin 2024, a rapporté le Wall Street Journal. Ce n'est pas tout. Début mars, le Pentagone a inscrit Anthropic sur sa liste noire et rompu toute collaboration avec la start-up après qu'elle a refusé que ses outils d'IA soient utilisés à des fins de surveillance de masse des populations ou à l'automatisation d'attaques mortelles. En réponse, Anthropic a assigné le gouvernement américain en justice le 9 mars.
Plusieurs chercheurs en informatique alertent par ailleurs sur les « trous béants de sécurité » de l'IA, pour reprendre l'expression de Yoshua Bengio, professeur au département d'informatique de l'université de Montréal et fondateur de l'Institut québécois d'intelligence artificielle. Invité sur le plateau de France Inter fin février, il mettait en garde contre le risque, selon lui bien concret, que la machine se retourne contre l'humain, dans un scénario qui n'a pas grand-chose à envier au film d'anticipation Matrix. « C'est très très facile de faire dévier les instructions de la machine par quelqu'un à l'extérieur, insistait-il. Il suffit qu'elle lise dans un fichier des instructions contraires à ce qu'elle est supposée faire, par exemple de partager des informations privées avec un attaquant à l'extérieur, et elle va le faire. » Selon le Canadien, l'IA représente une menace sérieuse pour nos institutions : « L'IA va donner un pouvoir énorme à ceux qui la contrôlent, et un pouvoir concentré, c'est le contraire de la démocratie ! » Et les garde-fous réglementaires et technologiques actuels sont « insuffisants par rapport aux avancées des capacités intellectuelles des IA », prévient-il.
« Le système actuel n'est pas soutenable »
Jusqu'où tout cela va-t-il aller ? En 2023, des centaines d'experts et de PDG (dont Elon Musk) appelaient dans une tribune à faire une pause dans le développement de l'IA en raison des « risques majeurs pour l'humanité » qu'elle représente. Et ceux-ci sont nombreux. « Une fois qu'on sort du côté bluffant et du fantasme, on rencontre vite des problèmes en termes de qualité et d'équité », abonde Olivier Cappé.
L'IA se nourrissant de nos données, elle est un reflet implacable de notre société. Les décisions publiques se basent de plus en plus sur ses calculs biaisés par des préjugés racistes, sexistes ou classistes bien connus, au détriment des droits fondamentaux. « Les outils d'intelligence artificielle permettent de personnaliser les pratiques de manipulation, analysent les professeures de droit Sabine Bernheim-Desvaux et Juliette Sénéchal. Ces techniques numériques sont en outre souvent mises en œuvre par des opérateurs économiques puissants, usant de multiples canaux afin de récupérer les données des consommateurs et disposant d'une force de frappe sans précédent. Il en résulte une asymétrie des moyens qui permet de malmener le libre arbitre et d'exploiter la faible conscience du risque de manipulation par les utilisateurs. »
Justement, depuis l'adoption de l'IA Act en février 2024, l'Union européenne interdit trois types de pratiques : la manipulation des usagers (à l'aide de messages subliminaux, par exemple), la notation sociale des citoyens par les pouvoirs publics et l'identification biométrique à distance (reconnaissance faciale) en temps réel. Malgré cela, les expérimentations de vidéosurveillance algorithmique pilotée par l'IA se multiplient au nom de la « sécurité ». En France, dès mai 2023, la loi relative aux Jeux olympiques de 2024 a ouvert une brèche en autorisant l'« expérimentation » de la reconnaissance faciale en temps réel. Elle a été testée en 2024 dans plusieurs gares de Paris et de Marseille. L'expérience est désormais prolongée au titre des Jeux olympiques d'hiver de 2030 qui se tiendront aussi en France.
Mi-février, les députés ont validé son expérimentation dans les commerces et supermarchés jusqu'à fin 2027, afin d'y détecter des comportements associés aux vols. « Nous sommes rattrapés par la technologie qui va plus vite que le législateur », s'est inquiété le député socialiste Hervé Saulignac durant les débats. Jusqu'où tout cela va-t-il aller ? Bonne question. Ce qui est sûr, c'est que la série d'anticipation Black Mirror n'a déjà plus rien de futuriste.