
Le New York Times a publié le 6 janvier 2026 une critique du livre Watching Over Her de Jean-Baptiste Andrea. En mars, un lecteur a signalé que des passages ressemblaient étrangement à une critique du Guardian publiée en août 2025. Le critique freelance, Alex Preston, a admis avoir utilisé un outil IA pour "aider" son brouillon. Le Times l'a viré.
Le mois dernier, Ars Technica a licencié un journaliste tech senior qui avait inclus des citations fabriquées par IA dans un article. Il disait avoir demandé à l'IA de générer des notes, pas des citations. L'IA a inventé les guillemets.
Simon Willison, développeur britannique et co-créateur de Django, a relevé un pattern sur son blog : le risque n'est plus seulement que l'IA invente, c'est qu'elle résume si bien qu'on croit citer.
Le piège de la citation synthétisée
Voici le problème central. Un LLM ne distingue pas "ce que quelqu'un a vraiment dit" et "ce que je comprends qu'il voulait dire". Quand vous demandez à Claude ou ChatGPT de vous aider à rédiger, il va reformuler, optimiser, synthétiser. Si vous aviez noté une phrase approximative d'un entretien ou d'un article, l'IA va la nettoyer. Elle va produire une phrase parfaitement claire, grammaticalement impeccable.
Vous la lisez. Elle vous semble exacte. Vous la mettez entre guillemets.
Mais personne n'a jamais dit ça exactement comme ça.
Même des journalistes expérimentés peuvent se laisser piéger en baissant leur garde face à ces outils, qui ont tendance à halluciner et à assembler le travail d'autrui sans attribution.
Preston n'est pas un débutant. Six romans, des articles pour le Guardian, le Financial Times. C'est quelqu'un qui sait ce qu'est une citation. Mais il a délégué la reformulation à un outil IA, et l'outil a mixé deux sources sans qu'il s'en aperçoive.
Pourquoi les LLM amplifient le risque d'attribution fausse
Les modèles de langage sont entraînés à produire du texte fluide, cohérent, qui "sonne vrai". Pas du texte vérifiable. Quand vous leur donnez deux inputs (vos notes + un article du Guardian qu'ils ont peut-être déjà vu dans leur corpus d'entraînement), ils vont naturellement les fusionner en une version optimisée.
Le journaliste humain devrait alors vérifier chaque phrase mot pour mot contre sa source d'origine. Mais si le résumé IA sonne juste, si ça colle avec ce dont on se souvient, on saute l'étape. C'est exactement ce qui s'est passé.
Le vrai danger, c'est la confiance. L'IA produit un texte si lisse qu'il ne déclenche pas notre radar "ça sonne bizarre, je devrais revérifier". Au contraire, il fait gagner du temps. On se dit : "C'est exactement ce que je voulais dire, mais en mieux."
Ça devient un problème structurel. Selon un rapport 2023 du London School of Economics, plus de 75% des journalistes, éditeurs et professionnels des médias utilisent l'IA dans la production d'actualités. Si trois quarts des rédactions utilisent déjà ces outils, combien d'attributions douteuses passent inaperçues chaque semaine ?
Ce que le NYT fait vraiment avec l'IA (et ce qu'il interdit)
Le Times a approuvé l'usage d'IA en interne pour rédiger des titres, suggérer des questions d'interview et proposer des modifications. Ils recommandent aussi l'IA pour résumer des papers de recherche, analyser des documents internes, générer des quiz d'actualité. Mais avec une règle claire : les journalistes restent responsables de tout ce qui est publié et ne doivent pas utiliser l'IA pour rédiger ou réviser substantiellement un article, ni pour entrer du contenu tiers protégé par le droit d'auteur (en particulier des informations de sources confidentielles).
Le Times a développé en interne un outil appelé "Manosphere Report", qui utilise des LLM pour transcrire et résumer des dizaines d'épisodes de podcasts. Selon Zach Seward, directeur éditorial pour les initiatives IA, cet outil leur a donné un signal rapide et clair sur la réaction d'une partie de la base électorale du président.

L'usage est massif, mais encadré. Du moins en théorie.
Preston était freelance. Les freelances ont moins de supervision, moins de formation interne, et souvent des deadlines plus serrées. L'incentive à déléguer à l'IA est énorme. Le Times peut avoir les meilleures guidelines du monde, si le critique reçoit sa commande avec deadline courte et qu'il a un outil qui "aide juste à reformuler", il va l'utiliser.
L'effet d'échelle : combien de citations fausses passent inaperçues ?
Une étude récente utilisant un logiciel de détection IA a trouvé que les sections opinion du NYT et du Wall Street Journal étaient six fois plus susceptibles de contenir de la prose générée par IA que leurs articles d'actualités, suggérant que tous avaient probablement publié du contenu écrit par IA à un moment donné, sciemment ou non.
Six fois plus dans les opinions. Ça a du sens : les opinions sont produites plus vite, avec moins de fact-checking, souvent par des contributeurs externes. Mais ça veut aussi dire qu'on a un angle mort massif.
Si un lecteur attentif n'avait pas repéré la similarité avec le Guardian, l'article de Preston serait resté en ligne tel quel. Combien d'autres sont passés sans qu'on les détecte ? Pas forcément des plagiat directs, mais des résumés IA présentés comme des citations, des faits "optimisés" qui dérivent de la source d'origine, des attribuions floues qui sonnent bien mais qu'on ne peut pas vérifier.
Le problème, c'est qu'on ne peut pas auditer tout rétroactivement. Les détecteurs IA sont peu fiables (trop de faux positifs). Et même si on pouvait détecter le texte généré par IA, ça ne nous dit pas si l'attribution est juste.
Ce qu'on devrait faire (et qu'on ne fait pas)
Anthropic, OpenAI, tous les labs mettent des warnings "vérifiez les faits". Mais personne ne les lit vraiment. Le workflow réel ressemble à ça :
- Le journaliste a des notes d'entretien ou un brouillon moche
- Il balance ça à Claude/ChatGPT avec "reformule ça proprement"
- L'IA sort un texte parfait
- Le journaliste relit en diagonal, ça sonne bien
- Publication
L'étape manquante, c'est : vérifier mot pour mot chaque citation contre l'enregistrement ou la source écrite originale.
Mais qui a le temps ? Qui a le budget ? Les rédactions se sont effondrées en effectifs depuis 10 ans. Les délais se sont raccourcis. L'IA arrive comme une bouée de sauvetage, et on saute dessus sans se demander si elle va tenir.
Pour les journalistes du Times, freelances ou salariés, s'appuyer sur l'IA et inclure du travail non attribué d'un autre auteur constitue une violation grave de l'intégrité du Times et des standards journalistiques fondamentaux.
Le standard est clair. Le respect du standard ne l'est pas.
Le retour d'expérience d'un dev qui utilise Claude tous les jours
J'utilise Claude Code quotidiennement avec un abonnement Anthropic Max. J'ai abandonné plusieurs projets faute de distribution, ce blog fait partie de la correction. Et je peux vous dire : Claude est incroyablement bon pour reformuler, pour clarifier, pour produire du texte qui sonne mieux que ce que j'ai écrit. C'est tentant de lui faire confiance.
Mais je ne lui demande jamais de générer des citations. Jamais. Parce que j'ai vu trop de fois où il inventait un chiffre plausible, où il reformulait une phrase en changeant subtilement le sens, où il "optimisait" une stat en arrondissant d'une manière qui change tout.
Si je cite un chiffre ou une personne dans cet article, c'est parce que je l'ai trouvé dans une source que je peux linker. Si je n'ai pas la source, je ne mets pas le chiffre. C'est la seule règle qui tient.
Les journalistes devraient appliquer la même règle. Mais ils ont des deadlines que je n'ai pas. Ils ont une pression de volume que je n'ai pas. Et beaucoup d'entre eux n'ont pas encore intégré que l'IA ne fait pas que reformuler, elle recompose.
FAQ
L'IA peut-elle vraiment inventer des citations de toutes pièces ?
Oui. Les LLM génèrent du texte probabiliste basé sur des patterns vus dans leur entraînement. Si vous lui demandez "donne-moi une citation de X sur Y", il va produire une phrase qui sonne comme ce que X aurait pu dire, mais qu'il n'a jamais dite. Ce n'est pas un bug, c'est le mode de fonctionnement du modèle.
Comment vérifier qu'une citation est réelle et pas générée par IA ?
Retourner à la source primaire. Enregistrement audio, vidéo, transcription officielle, ou article original avec guillemets. Si vous ne pouvez pas retrouver la phrase exacte dans une source vérifiable, ne la mettez pas entre guillemets. Reformulez en attribuant l'idée générale sans citer mot pour mot.
Le New York Times va-t-il interdire l'IA complètement après cette affaire ?
Non. Le Times a été explicite sur le fait que le personnel éditorial ne devrait pas utiliser l'IA dans son travail. Mais derrière les gros titres, le journal est en réalité très prudent et limité dans son usage de l'IA. Cela montre que malgré son statut, le Times est dans le même bateau que d'autres organisations médiatiques qui se débattent avec la question de comment utiliser l'IA en toute sécurité. L'IA est déjà trop intégrée dans les workflows. La question n'est pas de l'interdire, c'est de poser des garde-fous clairs et de les faire respecter.
Est-ce que ce problème touche seulement le journalisme ?
Non. N'importe quel métier où l'attribution et la véracité comptent est touché : recherche académique, droit, médecine, audit. Dès qu'un professionnel utilise un LLM pour "aider" à rédiger un rapport et qu'il ne revérifie pas chaque fait, le risque d'erreur d'attribution monte en flèche. Le journalisme est juste plus visible parce que les corrections sont publiques.
Peut-on faire confiance aux outils IA pour résumer des sources sans risque ?
Non. Un résumé IA est une reconstruction, pas une copie. Le modèle va inférer, relier, optimiser. Si vous utilisez ce résumé comme base d'un article sans revenir aux sources d'origine, vous prenez le risque d'amplifier une interprétation ou une erreur. Le résumé IA est un point de départ pour gagner du temps, jamais un point d'arrivée.
Le cas du New York Times n'est pas un accident isolé. C'est le symptôme d'un changement structurel : les LLM produisent du texte si fluide qu'ils court-circuitent nos réflexes de vérification. Même les pros tombent dedans. Et tant qu'on n'aura pas intégré que "résumé IA" ne signifie pas "citation vérifiable", on verra d'autres corrections embarrassantes.