À venir
Votre identifiant correspond à l'email que vous avez renseigné lors de l'abonnement. Vous avez besoin d'aide ? Contactez-nous au 01.49.88.68.50 ou par email en cliquant ici.
HAUT
Enquête

Mensonges des chatbots, deepfakes, bulles algorithmiques… Comment la technologie nous manipule

17 mai 2026 | Mise à jour le 13 mai 2026
Par
Mensonges des chatbots, deepfakes, bulles algorithmiques… Comment la technologie nous manipule

Cette photo de la capture de Nicolás Maduro par l'armée américaine, qui a beaucoup circulé sur les réseaux sociaux, est en réalité… une photo générée par IA.

De fausses images plus crédibles que des vraies, des algorithmes perfides, des chatbots qui mentent… Alors que les intelligences artificielles génératives et les réseaux sociaux s'imposent comme des sources d'information, le vrai et le faux s'entremêlent. Or, la désinformation sur Internet, amplifiée par l'arrivée des IA, fait le lit des idées d'extrême droite et de celles préemptant le débat public. Un article à retrouver dans le trimestriel de La Vie ouvrière d’avril 2026.

Le jour de la capture du président vénézuélien Nicolás Maduro, de nombreuses fausses photos de son arrestation ont circulé. Quand un cliché de lui en sweat-shirt gris, yeux bandés et menotté par des militaires américains, a été posté par Donald Trump sur son réseau Truth Social, même les journalistes du New York Times ont hésité. Et si c'était un fake ? « Les équipes d'AFP Factuel ont galéré à savoir si c'était une vraie photo. Le problème, c'est que l'image était diffusée par la Maison-Blanche. Or, les instituts de fact-checking ont établi qu'en 2024, 97 % de ce qu'avait dit Trump était mensonger », sourit le journaliste Thomas Huchon, spécialiste du déchiffrage des fausses informations.

Avec 30 573 mensonges relevés par le Washington Post pendant sa mandature de 2017 à 2021, Donald Trump, qui a fait des fake news un instrument politique, a fait basculer le monde dans une ère de « post-vérité ». En 2016, ce terme (post-truth) avait été désigné mot de l'année par l'Oxford English Dictionnary. Pour l'institution britannique, il fait référence « à des circonstances dans lesquelles les faits objectifs ont moins d'influence pour modeler l'opinion publique que les appels à l'émotion et aux opinions personnelles ». Dans ce contexte, mentir en toute impunité n'est plus un problème, ce qui compte c'est que le plus de gens possible vous croient. Avec l'appui de réseaux sociaux qui agissent comme des caisses de résonance maximum.

Bulles de réalités

« La post-vérité désigne une époque où, finalement, les croyances importent plus que la réalité elle-même. Où les gens préfèrent l'image qu'ils se font du monde au monde lui-même. Jusqu'à prendre leurs peurs, leurs fantasmes et leurs désirs pour des réalités, et inverser le réel », constate le chercheur en économie Michaël Lainé, auteur de l'essai L'Ère de la post-vérité. Comment les algorithmes changent notre rapport à la réalité (La Découverte). Dans cette ère, l'inversion du réel n'est plus « réservée à une minorité sectaire de la population, mais devient l'opinion majoritaire ». Quand un « fait alternatif », même démenti par des enquêtes journalistiques, finit par s'ancrer comme une vérité, il devient très difficile de s'en défaire. D'autant que le fonctionnement des algorithmes sur les réseaux sociaux est conçu pour nous enfermer dans des bulles de réalités où les fausses informations circulent au point de fabriquer des réalités parallèles.

« Alors que les individus sont plus diplômés que jamais, nos biais sont de plus en plus exacerbés par l'écosystème des médias sociaux. Les algorithmes obtiennent que nous mobilisions notre esprit pour autre chose que la recherche de la vérité », nous alerte Michaël Lainé. Nos « biais de confirmation » – c'est-à-dire notre tendance à chercher dans les informations de quoi confirmer nos opinions au lieu de voir en quoi elles pourraient aussi être compatibles avec d'autres grilles d'analyse – orientent notre perception du réel et nous poussent à adhérer aux récits complotistes ou sécuritaires, qui finissent par s'imposer comme des vérités. « On a tous un besoin de vérité, mais on a aussi des besoins psychologiques de sécurité cognitive, notamment lorsqu'on éprouve de la peur. Dès lors, on peut utiliser notre intelligence dans le but de sauvegarder à tout prix le sens que l'on donne au monde », ajoute l'économiste.

Nous séduire à tout prix

En outre, parce que les médias sociaux reposent sur un modèle économique de l'attention, le microciblage à partir de nos données pousse les utilisateurs vers des contenus toujours plus clivants et anxiogènes qui formatent le débat public. « Les algorithmes ne sont pas faits pour acheminer le contenu le plus intelligent, le plus pertinent ; ils sont faits pour nous séduire, souligne Michaël Lainé. Ils ont appris, à partir de toutes les traces numériques qu'on laisse sur Internet, à interpréter qui nous sommes. Parce qu'ils ont un objectif : susciter en nous de l'engagement. C'est-à-dire nous faire interagir le plus longtemps possible en ligne. En jouant sur la peur, l'indignation, la colère, qui sont les émotions les plus puissantes et celles qu'on est le moins en mesure de contrôler. »

Nano Banana développé par Google, Sora d'Open AI, Meta AI… L'arrivée d'IA génératrices d'images toujours plus performantes est en train de bouleverser un peu plus notre écosystème informationnel. « L'arrivée des IA génératives renforce la post-vérité, puisqu'elle permet de fabriquer des images qui concorderont avec des récits alternatifs ou qui les généreront », estime encore Michaël Lainé. En 2025, lors des commémorations de la libération des camps de concentration, les réseaux sociaux ont été envahis de photos historiques des camps, fabriquées de toutes pièces, jouant sur la puissance émotionnelle suscitée par les déportations pour obtenir un très large partage. Des images créées dans le but d'alimenter un discours négationniste, ou tout simplement de devenir des usines à clics. « On arrive à un niveau inédit de dérégulation entre le vrai et le faux. On vit dans un régime du n'importe quoi plus que du mensonge, qui consiste à occuper l'espace communicationnel pour générer de la confusion. Cela crée une situation d'incroyance où l'on en vient à se méfier de tout. Et ce qui change, c'est que n'importe qui peut maintenant fabriquer des faux », s'alarme l'historien Jean-Frédéric Schaub, auteur de l'ouvrage Le passé ne s'invente pas (Albin Michel), paru en janvier 2026.

Des chatbots qui racontent n'importe quoi

Mais que se passe-t-il quand la machine elle-même se met à présenter des faits erronés comme des vérités ? « Nous sommes habitués à déceler le mensonge chez les autres humains. Ce qui change profondément, c'est que ce sont des IA de recommandation qui nous mentent », souligne le journaliste Thomas Huchon. Les résultats des derniers tests effectués par le baromètre de l'institut NewsGuard auprès de dix chatbots, sur leur propension à propager des fausses informations sur des faits d'actualité, sont sans équivoque : dans 35 % des cas, ces robots conversationnels racontaient n'importe quoi – soit le double des tests effectués en août 2024 –, ChatGPT, le plus utilisé, figurant parmi les plus mauvais élèves. Des erreurs commises soit parce que les IA ont des « hallucinations » (des erreurs involontaires), soit parce qu'elles relaient de fausses informations…

« Les grands modèles de langage (LLM) puisent désormais dans un écosystème d'informations en ligne pollué – parfois même délibérément empoisonné par de vastes réseaux d'acteurs malveillants, comme des opérations de désinformation russes – et traitent des sources peu fiables comme si elles étaient crédibles », indique le baromètre. « Les IA ont commencé par s'entraîner en lisant des encyclopédies, puis des millions de livres, d'articles de journaux… Elles sont maintenant passées aux réseaux sociaux. Quand tu t'entraînes avec un ballon pourri, tu ne mets plus de but… », déplore Thomas Huchon. Une situation alarmante alors que plus de la moitié des moins de 25 ans – mais aussi un cinquième des Français – se détourne de la presse et utilise réseaux sociaux, plates-formes vidéo (YouTube) et IA comme principaux canaux d'information, selon un baromètre de l'Agence de la régulation de la communication (Arcom). Un risque bien réel pour nos démocraties.

La technologie au service de l'influence

Car ces nouveaux outils numériques sont aujourd'hui utilisés non seulement pour mener des opérations d'influence à des fins politiques, mais aussi comme des instruments de déstabilisation des États. Sur le plan géopolitique, les régimes autoritaires en usent massivement pour mener des guerres technologiques, la Russie en premier lieu. Victime d'un piratage le 16 mars 2022, la télévision ukrainienne a diffusé sur ses écrans un deepfake du président Zelensky appelant les soldats ukrainiens à déposer les armes. En début d'année, ce sont des vidéos de jeunes influenceuses polonaises faisant la promotion du « Polexit » – la sortie de l'Union européenne – qui ont largement circulé en Pologne. Générées par IA et publiées par un compte souverainiste, elles ont bénéficié de plus de 200 000 vues avant d'être retirées par TikTok.

Partout, les droites extrêmes – identitaires, nationalistes, masculinistes – se saisissent des outils d'intelligence artificielle pour propager des mensonges ou pour mener leurs campagnes électorales. Avec l'appui d'algorithmes et de chatbots qui favorisent leurs publications et font progresser leurs idées. Avec succès. « On constate qu'à force de baigner dans la peur, l'indignation et la colère, d'immerger régulièrement les individus dans des messages clivants et anxiogènes, à la longue, cela rend les idées d'extrême droite plus convaincantes », soupire Michaël Lainé. En France, deux jours après qu'une enseignante a été poignardée, de fausses vidéos de profs en train de craquer devant des élèves se moquant d'eux et présentés comme des « étrangers » ont surfé sur ce fait divers et sont devenues virales, après avoir été partagées sur des comptes racistes, pour un total de trois millions de vues. Certaines incohérences visuelles, relevées par des décrypteurs faisant de la pédagogie en ligne, comme Ninon Bajard, permettent de repérer les deepfakes (main de l'enseignant passant à travers le dossier, lunettes bizarrement positionnées…). Mais pour combien de temps ? Avec les nouveaux modèles tels que le Chinois Seedance 2.0, il est désormais possible de créer des scènes d'action aussi réalistes qu'au cinéma. Entre de mauvaises mains, on ne peut qu'imaginer ce que ces outils pourraient donner…