L'IA générative va-t-elle transformer la recherche en économie ?

Depuis l'essor des grands modèles de langage à partir de fin 2022, l'intelligence artificielle générative intervient au cœur même du travail scientifique : rédaction, revue de littérature, analyse empirique, modélisation. Elle se distingue en cela profondément de l'IA prédictive, qui avait élargi l'arsenal empirique des économistes sans en modifier l'organisation. Au-delà des gains de productivité documentés, cette transformation pourrait reconfigurer les mécanismes de sélection académique, fragiliser la valeur informative de l'évaluation par les pairs et renforcer le poids du capital académique au détriment du contenu scientifique.

La diffusion des grands modèles de langage depuis fin 2022 a ouvert une séquence nouvelle dans l'histoire de la production scientifique. Pour la première fois, l'intelligence artificielle ne se contente plus d'améliorer certains outils d'analyse : elle intervient dans les opérations cognitives mêmes qui structurent le travail du chercheur, qu'il s'agisse d'explorer la littérature, de rédiger un article, de produire du code ou d'interpréter des résultats. Cette transformation mérite d'être distinguée clairement de la vague précédente d’intégration de l’IA dans la discipline.

L’IA prédictive, notamment les méthodes de machine learning diffusées dans la discipline depuis le milieu des années 2010, a profondément enrichi l’arsenal empirique des économistes. Le double machine learning (Chernozhukov et al., 2018), les forêts causales (Athey et al., 2019) ou les méthodes de traitement des données textuelles (Gentzkow, Kelly et Taddy, 2019) ont élargi l'espace des questions traitables et des données mobilisables, sans pour autant modifier la logique de la recherche : formuler une question, définir une stratégie d'identification, estimer, tester, interpréter. L'IA générative est d'une autre nature. Elle ne perfectionne pas les instruments empiriques de l’économiste ; elle prend en charge des tâches qui relevaient jusqu’ici directement du travail intellectuel du chercheur (Korinek, 2023, 2025).

Figure 1 : Taux d'utilisation de l'IA générative par les chercheurs selon la discipline

Source : Wiley (2025), The evolution of AI in research. Note : Enquête auprès de 2 430 chercheurs issus de différentes disciplines.

 

Cette transformation se manifeste déjà de manière empirique, même si les données disponibles appellent quelques précautions. Une enquête conduite en 2025 par l’éditeur Wiley auprès de 2 430 chercheurs issus de différentes disciplines illustre l’ampleur du phénomène. Désormais, 84 % des chercheurs déclarent utiliser des outils d’IA dans leur travail, contre 57 % un an plus tôt, et 62 % les mobilisent directement pour des tâches directement liées à la production de recherche. Cette diffusion est particulièrement marquée en économie-gestion, où 70 % des chercheurs déclarent recourir à ces outils dans leurs activités scientifiques. Dans ce contexte, les IA généralistes (ChatGPT, Gemini, Claude, etc.) s’imposent très largement : 80 % des chercheurs ont déjà utilisé ce type d’outils, contre seulement 25 % pour des outils spécialisés comme Elicit ou Scite. En économie-gestion, ChatGPT domine nettement, avec un taux d’utilisation de 75 %, confirmant le rôle central des modèles généralistes dans la transformation en cours. 

Les effets perçus sur la productivité sont substantiels : 85 % des utilisateurs estiment que l'IA a amélioré leur efficacité, et 77 % qu'elle a accru le volume de leur production. Ces perceptions sont corroborées par des données observationnelles. À partir de l'analyse de 2,1 millions de preprints issus d'arXiv, bioRxiv et SSRN, Kusumegi et al. (2025) montrent que l'adoption des modèles de langage est associée à une augmentation de la production individuelle comprise entre 36 % et 59 % selon les bases de données, avec un effet particulièrement prononcé pour SSRN. Les gains sont particulièrement marqués pour les chercheurs dont l'anglais n'est pas la langue maternelle, atteignant près de 89 % pour les chercheurs affiliés à des institutions asiatiques, contre 24 % à 46 % pour les chercheurs anglophones. Ces résultats suggèrent que l'IA générative réduit certaines des inégalités, notamment linguistiques, qui pesaient sur la production scientifique internationale, tout en créant potentiellement de nouvelles inégalités liées à l'accès aux modèles eux-mêmes, qui restent inégalement distribués selon les institutions et les pays.

Figure 2 : Gains de productivité associés à l'adoption des LLM

Note : Estimations par différence-en-différences empilées portant sur 168 553 auteurs (arXiv, bioRxiv, SSRN), janvier 2022 – juillet 2024. L'axe des abscisses représente les mois avant et après la première adoption détectée des LLM dans les écrits scientifiques. Les gains indiqués (+36 %, +53 %, +60 %) sont mesurés relativement aux non-adoptants. Source : Kusumegi et al. (2025).

 

Des gains de productivité qui rebattent les cartes de la sélection académique

Ces gains de productivité ne sont pas sans conséquences sur le fonctionnement du système académique. En augmentant mécaniquement le volume des articles soumis aux revues, l'IA générative provoque un choc d'offre sur un marché qui ne peut pas s'ajuster par les prix, mais par le rationnement. Tous les articles ne pouvant être publiés, la probabilité d'acceptation se réduit pour chacun, mais de manière hétérogène. Pour opérer la sélection parmi les articles, les revues s'appuient non seulement sur le contenu des papiers, mais aussi sur le capital académique de leurs auteurs, défini comme un ensemble de signaux supposés indirectement corrélés à la qualité du papier : historique de publication, affiliation institutionnelle, réputation dans le champ. À qualité perçue égale, les articles issus d’auteurs les mieux dotés en capital académique sont ainsi plus favorablement évalués, ce qui, dans un contexte de rationnement accru, pénalise davantage les chercheurs les moins établis.

Ce mécanisme pourrait toutefois être amplifié par une transformation plus subtile : l'homogénéisation des styles rédactionnels induite par l'IA. L'étude de Cong et Zhu (2025), portant sur plus de 627 000 articles, montre que les modèles de langage rapprochent l'écriture des jeunes chercheurs et des non-natifs de celle des chercheurs confirmés. Ce nivellement modifie la valeur informationnelle du style : lorsque produire un texte fluide et sophistiqué devient peu coûteux, la qualité rédactionnelle cesse d'être un signal crédible de la qualité scientifique. Kusumegi et al. (2025) le confirment empiriquement : avant l'IA, la complexité rédactionnelle était positivement corrélée à la probabilité de publication ; pour les articles assistés par LLM, cette relation s'inverse. Les évaluateurs semblent ajuster leurs critères en conséquence, substituant un signal devenu peu coûteux à produire par d'autres, dont certains comme la réputation ou l'affiliation, échappent au contrôle des auteurs.

L'évaluation par les pairs sous pression

L’autre face de cette transformation concerne l’évaluation par les pairs elle-même. Des travaux récents mettent en évidence une diffusion déjà significative de l’usage de l’IA dans ce processus. L'étude de Russo et al. (2025) portant sur la conférence ICLR 2024 révèle qu'au moins 15,8 % des rapports d'évaluation ont été rédigés avec une assistance par IA. Or cet usage n'est pas neutre : les évaluations ainsi produites sont en moyenne plus favorables, et pour les contributions proches du seuil d'acceptation, la présence d'au moins un rapport assisté par IA est associée à une augmentation relative de 31 % des chances d'être accepté. Parallèlement, les expériences menées par Li et al. (2025) montrent que l'évaluation automatisée par LLM, si elle est plus rapide (gain moyen de deux heures et demie), présente des biais documentés : hallucinations, manque de jugement autonome, sensibilité aux formulations exagérées, et taux de concordance avec les sélections humaines ne dépassant pas 38,6 %.

Il convient de distinguer différents niveaux d'usage de l'IA par les référés. Lorsque l'IA aide simplement à reformuler des commentaires déjà formés, le gain d'efficacité peut être réel sans affecter la qualité du jugement. En revanche, lorsqu'elle est sollicitée pour évaluer le contenu scientifique lui-même, elle réduit l'indépendance du référé et peut biaiser la sélection. Plusieurs revues et conférences ont pour ces raisons interdit le recours à l'IA dans le processus d'évaluation. Il n'est toutefois pas établi que l'évaluation assistée soit, par nature, moins fiable que l'évaluation humaine : à terme, l'IA pourrait contribuer à automatiser des vérifications utiles, comme la détection d'incohérences dans une preuve ou le test de reproductibilité de certains résultats.

Ce qui est en jeu, au fond, dépasse la question de l'efficacité du processus d'évaluation. Si les évaluations deviennent plus bruitées et les styles rédactionnels moins informatifs, la hiérarchie des revues perd une partie de sa valeur de signal. Or c'est sur cette hiérarchie que repose la bibliométrie, mobilisée comme instrument d'objectivation dans les recrutements et les promotions. Un affaiblissement de ce signal pourrait renforcer le poids du capital académique et des réseaux dans la carrière des chercheurs, au-delà même du seul marché des juniors. Le risque, à terme, est celui d'un système académique où les mécanismes de reconnaissance seraient moins directement liés au contenu scientifique des travaux.

L'IA générative constitue ainsi bien plus qu'un outil de productivité. Elle reconfigure les conditions dans lesquelles la recherche est produite, évaluée et reconnue. L'enjeu pour la communauté des économistes n'est pas de savoir s'il faut l'adopter, puisque cette adoption est déjà largement engagée. Il est de définir collectivement les règles du jeu qui permettront d'en tirer les bénéfices sans en subir les effets les plus déstabilisateurs pour la qualité de la science. 

Cela suppose des ajustements concrets, dont certains sont déjà à portée de main. Du côté des revues, la généralisation des exigences de déclaration d'usage de l'IA, sur le modèle de ce que pratiquent déjà plusieurs revues de premier rang, constitue un premier pas nécessaire, bien qu'insuffisant. Du côté des comités de recrutement et des jurys de promotion, une réflexion s'impose sur le poids accordé aux indicateurs purement quantitatifs de production dans un contexte où le volume d'articles augmente mécaniquement. Du côté des financeurs, encourager la recherche sur les biais introduits par l'IA dans le processus éditorial serait une contribution directe à la qualité de la science. Car si l'IA peut accroître la puissance individuelle des chercheurs, la qualité collective de la science continuera de dépendre des institutions chargées d'organiser la confiance et la discussion critique au sein du monde académique.

Figure 3 : L’IA générative impacte le marché de la publication scientifique

Source : Napkin AI

 

Références citées

Athey, S., Tibshirani, J. et Wager, S. (2019). Generalized random forests. Annals of Statistics, 47(2), 1148-1178.

Chernozhukov, V. et al. (2018). Double/debiased machine learning for treatment and structural parameters. Econometrics Journal, 21(1), C1-C68.

Cong, W. L. et Zhu, W. (2025). Divergent LLM adoption and heterogeneous convergence paths in research writing. arXiv:2504.13629

Gentzkow, M., Kelly, B. et Taddy, M. (2019). Text as data. Journal of Economic Literature, 57(3), 535-574.

Korinek, A. (2023). Generative AI for economic research. Journal of Economic Literature, 61(4), 1281-1317.

Korinek, A. (2025). AI agents for economic research: August 2025 update to “Generative AI for economic research: use cases and implications for economists”. Journal of Economic Literature, 61(4).

Kusumegi, K. et al. (2025). Scientific production in the era of large language models. Science, 390(6779), 1240-1243. 

Li, C., Hu, X., Xu, M., Li, K., Zhang, Y., and Cheng, X. (2025). Can large language models be trusted paper reviewers? A feasibility study. arXiv preprint arXiv:2506.17311.

Russo, G. et al. (2025). The AI review lottery. Proceedings of the ACM on Human-Computer Interaction, 9(CSCW), Article 486. 

Wiley (2025). The evolution of AI in research. White paper.