La question du statut de la science économique est ancienne. Elle est au centre de la querelle des méthodes qui opposa, à la fin du 19e siècle, les économistes de l’école de Vienne à ceux de l’école historique en Allemagne. Au début des années 1970, prolongeant la critique des universitaires américains rassemblés au sein de l’Union of Radical Political Economy (URPE), Attali et Guillaume (1974) se saisissent à nouveau de la question et proposent de démystifier la science économique. Démystification car, selon ces auteurs, « la réflexion économique se diffuse et s’impose comme un emboîtement de mythologies » (Attali et Guillaume, p. 14) afin de mieux dissimuler sa fonction politique. Organisée autour de mythes majeurs (dont celui de la croissance économique) et de mythes mineurs, l’économie est construite à partir de plusieurs niveaux de discours. Le centre, constitué d’un noyau abstrait et formalisé garant de la scientificité, est occupé par les spécialistes. Le second niveau concerne les praticiens de l’économie, dont le rôle est de préparer la prise de décision. Le troisième est celui des journalistes qui relayent la décision et lui donne un aspect de fatalité.
À la fin des années 1990, un mouvement parti des élèves de l’École Normale Supérieure dénonçait l’autisme de l’enseignement de l’économie à l’université [1]. La critique portait sur l’absence d’une approche empirique venant compléter les mondes imaginaires de la théorie, une utilisation non contrôlée des mathématiques et une demande de davantage de pluralisme dans les modèles étudiés. Cette contestation ne s’est pas limitée à la France et le mouvement s’est constitué en un réseau [2]. Plus récemment, un groupe d’étudiants de Harvard boycotta le cours de Greg Mankiw, sous prétexte qu’il propageait, sous couvert de science, une idéologie conservatrice. En 2014, des étudiants de l’université de Manchester ont publié, sous le nom de Post-Crash Economy Society, un manifeste pour une réforme de l’enseignement de la discipline [3].
La crise des subprimes de 2007/2008 raviva les controverses sur la nature de la science économique. Il est vrai qu’il y avait de quoi. En effet, très rare étaient les économistes qui avaient su anticiper la crise financière. La reine d’Angleterre elle-même demanda, fin 2008, des explications à cette profession qui est traditionnellement si sûre d’elle-même [4]. Avec la multiplication des critiques, la science économique entra à son tour en crise. Certains voyaient dans ce vacillement le début d’une remise en cause salutaire du modèle mainstream et l’avènement d’un véritable pluralisme dans cette discipline [5] avec, notamment pour ce qui concerne la France, la création d’une nouvelle section CNU permettant d’ouvrir l’économie aux autres sciences sociales. La parution de l’ouvrage Le négationnisme économique et comment s’en débarrasser, en 2016, ainsi que la décision de la Ministre Najat Vallaud-Belkacem de renoncer à l’ouverture de cette section, ont encore attisé les tensions, au point que, désormais, les positions des uns et des autres semblent irréconciliables.
C’est dans ce contexte que paraît en 2015 l’ouvrage de Dani Rodrik, Economics Rules : The Rights and Wrongs of the Dismal Science. La traduction française en 2017 a retenu le titre explicite : « Peut-on faire confiance aux économistes ? ». L’auteur est professeur à la Ford Fondation d’économie politique à Harvard et est reconnu internationalement pour ses travaux sur la croissance, l’économie internationale et du développement. Le propos de l’ouvrage est à la fois un plaidoyer en faveur de la science économique et en même temps une critique forte – l’auteur n’oublie pas au passage de critiquer les critiques adressées à cette science et à ceux qui la pratique – de cette discipline.
Les économistes : renards ou hérissons ?
Revisitant la discipline, Jean Tirole (2016) reconnaît que les économistes étaient, il y a quarante ans, surtout des hérissons [6]. Ils connaissaient parfaitement le modèle néo-classique et ses enchaînements logiques, car celui-ci constituait le paradigme le plus accompli de l’économie. Pour cette raison, il était appliqué à un grand nombre de situations : « Les hérissons cherchent toute leur vie, guidés par une idée fixe, et souvent tentent de convaincre des disciples d’emprunter la même voie qu’eux » (Tirole 2016, p. 146). Depuis, Jean Tirole note que les modèles se sont multipliés afin de mieux prendre en compte la diversité des situations qui sortent du cadre de la concurrence pure et parfaite. Cette évolution a conduit à transformer les économistes en renards : « Les renards regardent avec suspicion les théories globalisantes, et, bâtissent à partir de plusieurs approches, se remettent souvent en cause ». Au final, l’auteur souligne qu’« aucun des deux styles n’est supérieur à l’autre, et [que] la science a besoin de renards et de hérissons […] » (Tirole 2016, p. 146).
À quoi servent les modèles en économie ?
Sans reprendre la métaphore animalière, le diagnostic de Dani Rodrik sur l’évolution de la pratique des économistes est le même. L’économie comme discipline a renoncé aux grandes théories, préférant porter ses efforts sur « une théorisation à petite échelle, dans un type de réflexion contextuelle qui clarifie la cause et l’effet, et qui apporte un éclairage – bien que partiel – sur la réalité sociale » (Rodrik 2017, p. 9). Dorénavant, les économistes renards construisent de multiples modèles pour analyser et comprendre des aspects essentiels des interactions économiques.
Les modèles et la modélisation sont donc au cœur de la pratique des économistes [7]. C’est, selon l’auteur, ce qui la distingue le plus des autres disciplines en sciences humaines [8]. Les modèles sont à la fois la fierté des économistes et assurément, la source principale des critiques qui leurs sont adressées : manque de réalisme, réduction de la complexité de la vie sociale, complexification inutile du banal, etc. Les modèles économiques, malgré leurs défauts et leurs limites, constituent paradoxalement pour l’auteur le principal intérêt de cette discipline. Depuis le modèle classique de l’offre et de la demande jusqu’au dilemme du prisonnier en passant les modèles de coordinations, pour ne citer que quelques exemples, la grande variété des modèles permet de saisir les différents aspects des interactions sociales. Chaque modèle présente une vision particulière du fonctionnement des marchés et apporte des réponses très circonstanciées.
Le modèle, nous dit l’auteur, peut être vu comme une fable, c’est-à-dire, un récit court et fictif qui révèle, à l’aide d’une histoire naïve, une morale pour le lecteur. Il peut être également considéré comme une expérience de laboratoire, qui crée un environnement artificiel afin de mettre à jour un enchaînement causal à partir de variables préalablement identifiées et isolées. Les modèles permettent alors aux chercheurs de préciser les hypothèses critiques, celles qui, si elles sont changées, modifient les résultats du modèle. Enfin, le recours aux mathématiques est nécessaire pour deux raisons essentielles : la clarté et la cohérence (p. 36). L’usage des mathématiques permet que les éléments d’un modèle – hypothèses, mécanismes de comportement, résultats – soient exprimés clairement et sans ambiguïté. L’auteur oppose les grandes théories littéraires de Marx, de Keynes ou encore de Schumpeter, qui prêtent encore aujourd’hui à des débats sans fin pour savoir ce que voulaient dire ces penseurs, aux modèles mathématiques rigoureux des économistes actuels. Les mathématiques garantissent également la cohérence interne d’un modèle, de manière à ce que les conclusions découlent rigoureusement des hypothèses. L’auteur reconnaît l’existence d’une dérive réelle qui conduit certains économistes à « faire des maths pour des maths » (p. 39). Cela dit, il affirme que des applications très utiles pour l’économie réelle sont directement issues de modèles purement mathématiques.
La modélisation économique relève-t-elle de la science ?
Pour aborder cette question, Dani Rodrik rappelle un épisode qui a entraîné une très vive controverse largement relayée par la presse. En 2010, deux économistes de notoriété internationale, Carmen Reinhart et Kenneth Rogoff, publient un article qui pointe les effets néfastes sur la croissance d’un endettement public excessif. La crise financière de 2007 et la Grande Récession qui s’en est suivie ont occasionné des déficits importants dans les pays développés. Comme les finances publiques de la plupart de ces pays étaient déjà dégradées avant la crise, la dette publique a atteint des niveaux qui n’avaient pas d’équivalent depuis la Seconde Guerre mondiale. Aussi, les gouvernements européens ont-ils adopté, dès 2009, des mesures d’austérité pour stabiliser la trajectoire de leur dette. Un débat vif s’est alors engagé entre les partisans de cette politique et ceux pour qui l’austérité aggravait la situation en pénalisant la croissance, en augmentant le chômage et, au final, en accroissant la dette publique.
C’est dans ce contexte, que les deux économistes présentèrent les résultats de leurs travaux. Les résultats indiquaient que des niveaux de dette publique supérieurs à 90% du PIB conduisaient à une récession de l’ordre de -0,1 % dans les pays sur la période. L’article donna du grain à moudre aux partisans de l’austérité et permit de justifier les politiques adoptées [9].
En 2013, Thomas Herndon, étudiant à l’université du Massachussetts, découvre que l’étude de Reinhart et Rogoff comporte des erreurs. Si certaines sont mineures – il a notamment révélé que les formules de calcul Excel étaient fausses – d’autres portent sur des choix méthodologiques très discutables. La publication de l’article d’Herndon déclencha une tempête de protestations envers Carmen Reinhart et Kenneth Rogoff, qui même s’ils reconnurent rapidement leurs erreurs, furent accusés de fournir de fausses preuves académiques à des politiques aux conséquences sociales très sévères.
L’analyse de cet épisode par Dani Rodrik prend le contrepied de la plupart de celles qui ont été produites. Délaissant les éléments idéologiques du débat, il rappelle que Thomas Herndon a fait simplement « ce que l’on attendait d’ordinaire d’un universitaire : reproduire le travail d’un tiers et le soumettre à la critique » (p. 72). Cette controverse, du fait de sa violence, a fait perdre de vue l’essentiel, à savoir qu’en économie « ce qui détermine la pertinence d’une recherche n’est pas son affiliation, son statut ou le réseau de son auteur ; c’est combien elle répond aux critères de recherche de la profession même. […] Et parce que ces standards sont partagés au sein de la profession, n’importe qui peut pointer du doigt des travaux de mauvaise qualité et les dénoncer comme tels » (p. 74).
Dani Rodrik rappelle à plusieurs reprises que les réponses apportées par les modèles ne sont valables que dans un contexte donné et sont toujours historiquement situées. Les chercheurs en économie ont donc été amenés à multiplier à l’infini les modèles pour étudier chaque situation. L’auteur défend ainsi l’idée que la modélisation est une science et que la réflexion économique fait des progrès. Non pas des progrès verticaux comme dans les sciences exactes, où une théorie dont le pouvoir explicatif est meilleur remplace une autre moins bonne, mais horizontaux, en s’enrichissant au fil du temps de nouveaux modèles, qui traitent de sujets ou de liens non étudiés auparavant et qui peuvent intégrer des dimensions psychologiques, sociales, culturelles, etc.
Il y a au moins un domaine, cependant, où cette analyse peut paraître excessivement optimiste. C’est celui de la prévision économique. En 2016, le rapport de la Maison Blanche sur l’économie mondiale soulignait les erreurs systématiques dans les prévisions de croissance réalisées par le FMI (Jensen 2018). Ces prévisions, réalisées en septembre 2011 pour la période 2012-2016, font apparaître dès la première année un écart de 0,5 point. Au bout de cinq ans, le taux de croissance réel (3%) est presque deux fois moins élevé que le taux prévisionnel (5%). On pourrait s’attendre, si l’on croit Dani Rodrik, à ce que les économistes corrigent leurs modèles dès la première année, après avoir constaté leurs erreurs. Or, comme le note fort justement Pablo Jensen, « les économistes du Fonds monétaire international (FMI) ne semblent pas pouvoir (ou vouloir ?) apprendre de leurs erreurs passées » (p. 137).
La raison des échecs de la modélisation en la matière tient à ce que des prévisions économiques appartiennent à la catégorie des prédictions auto-réalisatrices. Le politique espère créer un cercle vertueux à partir duquel la croissance annoncée crée les conditions de la croissance réelle. La surestimation des prévisions touche toutes les études. Ce biais systématique atteste qu’il ne s’agit pas d’erreurs scientifiques – sinon il y aurait autant de surestimation que de sous-estimation et, en moyenne, l’écart serait nul – mais de volonté d’induire une orientation à la politique économique. Comme le souligne Pablo Jensen, « les prévisions vous en disent donc beaucoup sur ceux qui les font, mais pas grand-chose sur l’avenir » (p. 139-140).
La question du choix du bon modèle.
Si dorénavant les économistes préfèrent le statut de renard à celui d’hérisson, se pose la question du choix du bon modèle. Ce choix, reconnaît Dani Rodrik, est en effet problématique. C’est un art qui relève « autant du savoir-faire que de la science » (p. 77) et où le discernement et l’expérience sont indispensables. L’auteur préconise, à partir de son expérience, d’élaborer un diagnostic afin de déterminer le modèle sous-jacent, c’est-à-dire, celui « qui met en évidence le mécanisme causal ou les chaines causales dominants à l’œuvre » (p. 79). L’auteur revêt alors son habit de pédagogue et propose un guide méthodologique que l’économiste apprenti ou confirmé doit suivre. Ce guide fait penser à la check-list des pilotes d’avions avant le décollage. L’économiste doit : 1) vérifier les hypothèses critiques, 2) vérifier les mécanismes de causalité, 3) vérifier les implications directes et 4) vérifier les implications secondaires. Ce processus consiste à faire de nombreux allers-retours entre les modèles candidats et le monde réel.
Si Dani Rodrik consacre tout un chapitre à cette question, c’est qu’il a parfaitement conscience des enjeux soulevés. Le choix du modèle constitue peut-être le principal maillon faible de la science économique. À l’origine de ce problème se trouve un biais psychologique qui pousse les économistes à prendre « un modèle pour le modèle » (p. 131), ce qui entraîne deux types d’erreurs : des erreurs d’omission et des erreurs de commission. Pour illustrer les erreurs d’omission [10], Rodrik revient sur la crise économique de 2007/2008, qui a conduit à la Grande Récession. Elle a pris de court la très grande majorité des économistes qui « avaient placé une foi exagérée en certains modèles » (p. 134), notamment dans ceux qui postulent l’hypothèse de l’efficience des marchés. Cette dernière, formulée par Eugène Fama dans les années 1970, signifie « qu’un marché financier efficient est celui sur lequel les actifs financiers sont évalués correctement, compte tenu de l’information disponible à l’instant considéré » (Orléan 2011, p. 273). Cette confiance excessive dans l’efficience des marchés financiers a conduit les économistes à négliger d’autres modèles – portant sur les bulles financières et sur le rôle des institutions de régulation – et à sous-estimer les risques de l’innovation financière. Pensant qu’une autre dépression était impossible, elle a conduit l’ensemble les acteurs à prendre des risques financiers inconsidérés.
Le second exemple proposé par Dani Rodrik pour illustrer l’erreur de commission est celui du consensus de Washington, qui a prévalu durant toute la décennie 1990. Ce consensus reposait sur un corpus de mesures, appliquées par le Fonds Monétaire International et visant à conditionner les aides financières aux pays en développement à des pratiques de bonne gouvernance. À l’origine de ce consensus, nous dit l’auteur, se trouve l’accord des économistes sur une certaine vision du monde « selon laquelle les marchés sont la solution de tous les problèmes en matière de politique publique » (p. 137). Ce consensus ne tenait pas compte des problèmes institutionnels ni des spécificités propres à chaque pays. Au fur et à mesure des échecs, la solution consistait à rallonger la liste des recommandations. Le vrai problème, admet Rodrik, c’est que « les économistes à la base du consensus de Washington oublièrent qu’ils œuvraient dans un monde qui se caractérise intrinsèquement par un optimum de second rang » (p. 139) – autrement dit, ils prenaient le modèle pour la réalité.
L’intérêt de ces exemples est de rappeler que le risque de prendre un modèle pour le modèle est permanent, et peut transformer la science économique en un corpus idéologique permettant de légitimer certaines politiques économiques. C’est la raison pour laquelle Dani Rodrik plaide pour « une science modeste, pratiquée avec humilité […] » (p. 9). Cette attitude demande cependant beaucoup de discernement, car les deux exemples soulignent que cette erreur n’est pas uniquement l’apanage des ignorants. Elle renvoie également à une des fonctions du modèle économique, celle d’être une fable. Elle est productrice de croyances, voire d’idéologie, reconnaît implicitement Rodrik : « même si les détails spécifiques des modèles sont oubliés, ils restent des archétypes permettant de comprendre et d’interpréter le monde » (p. 27). Les effets des modèles économiques ne se cantonnent pas au cénacle restreint des économistes, mais irradient l’ensemble de la société, à commencer par le politique. Ainsi, s’interroge Jean-Paul Fitoussi au sujet de la crise de 2008 : « Comment pensez que les gouvernements aient pu faire leur le “théorème” de Fama sur l’efficience des marchés financiers ? Et pourtant, cette hypothèse a joué un rôle majeur dans le développement des marchés financiers et dans l’habitude qui fut prise de les considérer comme des oracles » (Fitoussi 2013, p. 62).
La science économique et ses critiques.
« La science économique sans ses critiques, ce serait comme Hamlet sans le prince » (p. 151) écrit Dani Rodrik. Cela dit, l’auteur précise immédiatement les choses. Il y a les bonnes et les mauvaises critiques. Les mauvaises sont celles qui ne tiennent pas compte de la science économique telle qu’elle se pratique réellement. Nous allons, dans cette deuxième partie, rappeler quelques-unes de ces controverses, dont certaines naissent avec la mathématisation de la discipline et d’autres, plus récentes, dont l’ouvrage de Dani Rodrik se fait l’écho.
Petit retour sur la querelle des méthodes en économie.
À partir des années 1870, le courant néo-classique, fondé séparément par l’anglais Stanley Jevons (1835-1882), l’autrichien Carl Menger (1840-1921) et le français Léon Walras (1834-1910), introduit une nouvelle méthode d’analyse économique, le marginalisme. L’introduction des outils mathématiques en économie n’est cependant pas allée de soi. Walras s’est exilé en Suisse pour fonder l’école de Lausanne [11]. En Allemagne, le développement du courant néoclassique va être à l’origine d’une querelle des méthodes, ou Methodenstreit. Elle va opposer Menger, fondateur de l’école de Vienne, au chef de file de l’école historique allemande, Gustav von Schmoller.
La querelle des méthodes, qui a souvent été réduite à un débat opposant l’économie littéraire à l’économie mathématique, portait sur le but de la science économique (Hédoin 2011). Schmoller considère que l’économiste doit établir les faits et les rendre intelligibles dans un contexte donné. Il doit rendre compte des spécificités historiques des différentes économies nationales. En outre, si les économistes allemands défendent une démarche fondée sur la monographie historique et la collection statistique de données, ils sont opposés à toute forme de systématisation théorique à la manière des économistes anglais. L’économie ne peut revendiquer ni l’établissement de lois universelles ni l’autonomie vis-à-vis des autres sciences sociales. À l’inverse, Menger (1985) considère que l’objectif de la science économique est de parvenir à saisir l’essence des objets étudiés. Il plaide pour une méthode qui consiste à isoler les aspects essentiels du phénomène étudié et à les réduire à leur forme la plus élémentaire. Dans cette perspective, la science économique doit œuvrer à la découverte de lois exactes, de relations universelles entre des phénomènes économiques réduits à leur essence. À la fin du 19e siècle, l’affirmation des thèses marginalistes et leur diffusion aux États-Unis conduisent les économistes américains, jusque-là proches de l’école historique allemande, à se rallier progressivement à l’approche néo-classique.
L’Angleterre présente une évolution différente. Elle a été pionnière, avec David Ricardo, de la démarche hypothético-déductive. Les économistes néo-classiques de l’école de Cambridge, rassemblés autour d’Alfred Marshall à partir des années 1890, vont l’approfondir. Ce courant de pensée va dominer à la fois le monde académique et les débats pendant près de soixante ans (1870-1930). Il sera cependant remis en cause par John Maynard Keynes (1969). Partant du principe que l’économie relève d’une science morale, ce dernier considère qu’elle doit apporter des réponses concrètes aux problèmes de la société. Au sujet de la méthode des néo-classiques, Keynes s’est attaché à montrer que ce n’était pas tant sa logique interne qui posait problème, mais plutôt ses présupposés : « Notre critique de la théorie économique classique considérée comme vraie n’a pas tant consisté à relever des erreurs logiques dans son analyse qu’à mettre en évidence le fait que ses hypothèses implicites sont rarement voire jamais vérifiées, de telle sorte qu’elle se trouve incapable de résoudre des problèmes économiques du monde réel » (Keynes 1969, p. 371). La théorie de Keynes, qui inspira les politiques économiques de l’ensemble des pays développés jusqu’au tournant des années 1970, sera finalement réintégrée dans le cadre néo-classique. Formulé dans sa première version par John Hicks en 1937, repris par Franco Modigliani en 1944 et ensuite vulgarisé par Alvin Hansen, le modèle IS/LM est censé résumer l’apport de Keynes en quelques équations et un diagramme (Gazier 2009). Cette démarche sera désignée de synthèse néo-classique par Paul Samuelson.
En France, le courant néo-classique mettra du temps à s’imposer. Ainsi, pour l’économiste Paul Leroy-Baulieu, professeur au Collège de France, la modélisation mathématique de l’économie « est une pure chimère, une vraie duperie » (Leroy-Baulieu 1914, p. 85). Pour David Spector (2017), le rejet des outils des économistes néoclassiques vient de la rigueur qu’ils imposent dans l’analyse et qui met à mal, le plus souvent, les positions politiques à cette époque très engagées des économistes français. Même si certains d’entre eux, les ingénieurs économistes, sont considérés à bien des égards comme les fondateurs de cette école (Dupuit, Cournot), leurs travaux sont restés, en France, ignorés du grand public.
Cette querelle des méthodes s’est élargie, au milieu du 20e siècle, aux économistes de l’entreprise. À l’origine de la controverse de l’entreprise (Mongin 1986), ces derniers reprochent aux économistes néo-classiques de construire des modèles à partir d’hypothèses irréalistes, dénuées de tout fondement empirique. Lors de son enquête auprès d’industriels, Richard Lester (1946) observe que les chefs d’entreprise ne prennent pas leurs décisions selon le principe de maximisation du profit et des coûts marginaux, mais qu’au contraire ils accordent une place importance aux règles empiriques et aux routines. La question de savoir pourquoi conserver une conceptualisation irréaliste des comportements est à nouveau posée.
La première justification est celle de Milton Friedman (1953). Elle s’appuie sur une analogie avec la théorie évolutionniste de Darwin. C’est le fameux as if, qui considère que la sélection naturelle, qui opère dans la nature le tri entre les bonnes et les mauvaises mutations au sein des espèces, joue également pour les entreprises. Dans ce cas, le marché procède à la sélection et assure que seules survivent les entreprises se comportant comme si elles maximisaient leur profit et calculaient leurs coûts marginaux. La conclusion est claire : la théorie néo-classique, malgré ses hypothèses irréalistes, décrit de façon satisfaisante le comportement des entreprises. Une seconde justification est proposée par Fritz Machlup (1971). Il rappelle que l’objectif de la théorie néoclassique n’est pas de donner une conceptualisation réaliste de l’entreprise, mais de déterminer l’allocation optimale de ressources dans le cadre de la théorie de l’équilibre général. Aussi, que l’entreprise soit considérée comme un pantin abstrait [12], réagissant mécaniquement aux signaux des marchés, n’est pas en soi critiquable, car c’est le type d’abstraction requis pour répondre aux visées de la théorie (Bouba-Olga 2003). Ces thèses se sont heurtées à de nombreuses critiques (Penrose 1952), qui ont été par la suite déterminantes pour le développement de nouveaux cadres d’analyse de l’entreprise (théorie de l’agence, théorie des coûts de transaction, etc.).
Les modèles économiques comme expérience de laboratoire.
Revenons sur la question du rôle des modèles économiques comme équivalent des expériences de laboratoire dans les sciences exactes. La thèse d’Olivier Favereau (1995), si elle ne contredit pas celle de Dani Rodrik, approfondit les conditions et les limites de cette équivalence. Favereau admet que « les modèles sont, pour la science économique, l’analogue des expériences pour les sciences dures […] parce que rationalité individuelle et coordination inter-individuelle ont été modélisées séparément » (Favereau 1995, p. 133-142). Cette étrange construction théorique est le résultat d’un processus historique qui s’est élaboré à partir d’une double axiomatisation : celle du critère de rationalité individuelle et celle des conditions d’existence de l’équilibre général d’un système de marchés interdépendants. En outre, ce travail d’axiomatisation est circulaire, dans la mesure où « le problème de la rationalité individuelle a été résolu, en supposant résolu le problème de la coordination inter-individuelle [13] – et vice versa » (Favereau 1995, p. 153).
Cette tautologie théorique – l’optimisation nécessite l’équilibre qui nécessite lui-même l’optimisation – est à l’origine du « biais anti-réaliste des modèles » (Favereau 1995, p. 132). Elle permet de comprendre le bien fondé des critiques associées à ces modèles. Cela place, selon Favereau, la science économique dans un piège inextricable, car cette double axiomatisation repose sur une fausse symétrie. L’axiomatisation de la rationalité individuelle relève de la micro-économie, tandis que celle de la coordination entre agents est macro-économique : « La tradition de recherches dominantes en économie s’appuie sur deux piliers qui, si on fait abstraction de la différence de niveau micro/macro, s’impliquent l’un l’autre, mais qui s’excluent l’un l’autre, si on rétablit la différence de niveau » (Favereau 1995, p. 145). Cette situation conduit les économistes à privilégier l’étude des états et à délaisser l’analyse qui conduit à ces états. Ce faisant, la modélisation néo-classique n’est pas en mesure de rendre compte de l’imbrication de la rationalité individuelle et de la coordination inter-individuelle que l’on observe dans toutes les organisations qui composent une économie. Comme le souligne le mathématicien Nicolas Bouleau :
« [L]’économie prend exemple sur la mécanique par un parallèle très étroit, les équations sont identiques à celles qu’on a pour l’équilibre des corps pesants, mais le travail reste inachevé, incomplet, les néoclassiques ne parvenant pas à écrire des lois économiques en tant que mouvement. Il y a une page blanche sur ce que serait la cinétique économique et les équations gouvernant les systèmes économiques en fonctions du temps » (Bouleau 2014, p. 76).
La conclusion d’Olivier Favereau diffère de celle de Dani Rodrik. Si les deux admettent l’équivalence entre modèles économiques et expériences de laboratoire, Favereau estime que c’est « en cessant de copier les sciences exactes dans ce qu’elles ont de formel que la science économique commencera à leur ressembler dans ce qu’elles ont de meilleur : l’attention aux faits, la possibilité de réfutations, l’édification d’un savoir pratique situé et la primauté de l’essentiel sur le général » (Favereau 1995, p. 153).
Réponses aux critiques adressées à la science économique.
D’emblée, nous dit l’auteur, toutes les critiques qui voient la science économique comme l’expression d’une pensée unique se trompent de cible : « les reproches habituels tendent à passer à côté de la diversité qui règne au sein de la profession et des nombreuses idées qui sont expérimentées » (p. 152). La grande variété de modèles n’aboutit pas à une conclusion unique mais, au contraire, « la réponse correcte à presque n’importe quelle question en science économique est : ça dépend » (p. 25). Cela dit, Rodrik soulève un important paradoxe : une enquête réalisée par un de ses collègues montre que sur de nombreux sujets, les économistes sont presque toujours du même avis [14]. Alors que les modèles pointent dans toutes les directions, les avis des économistes « convergent souvent d’une façon que ne peut justifier la force des preuves disponibles ». Rodrik reconnait d’ailleurs que c’est là « […] un des paradoxes centraux de la science économique : l’uniformité au milieu de la diversité » (p. 130).
En ce qui concerne la question du réalisme des hypothèses, l’auteur reconnaît que la thèse de Milton Friedman doit être fortement nuancée : « nous avons toujours besoin d’appliquer un filtre de réalisme aux hypothèses critiques avant qu’un modèle puisse être considéré comme utile » (p. 32). Concernant la validation empirique des modèles, il souligne à plusieurs reprises qu’elle est toujours mise en défaut. Il y a trop d’interactions dans le monde réel pour démêler les liens de causalité de manière certaine, si bien que « l’analyse empirique n’est jamais concluante » (p. 155).
Un reproche récurrent porte sur les jugements de valeur dont recèle la science économique et sur les biais des économistes en faveur des marchés. À l’origine de ces critiques, il y a le principe de la main invisible des marchés, doublé de la fiction de l’homo eoconomicus qui se trouvent au cœur de l’édifice de la microéconomie. Dani Rodrik reconnaît que l’égoïsme, la rationalité calculatrice, l’efficience des marchés sont les vertus cardinales pour les économistes [15]. Étant donné les limites de leurs outils conceptuels, l’auteur admet que sur de nombreuses questions de société, les économistes ne peuvent fournir que des réponses partielles.
Un autre élément sur lequel insiste Rodrik, c’est la distinction entre modèle et théorie économique. La théorie englobe le modèle et lui donne un cadre et une cohérence :
« Généralement, un modèle est développé dans le prolongement d’une théorie, dont il est en fait une projection. Parce qu’il fait référence à une gamme plus limitée de situations que la théorie dont il est issu, le modèle est habituellement d’application plus réduite. Le modèle n’est pas un outil explicatif et de généralisation mais il joue un rôle important dans la formulation des théories » (Willett 1996, p. 9).
Ainsi, il est de coutume, en sciences économiques, de distinguer plusieurs théories : la théorie classique, néo-classique, keynésienne, etc. Claude Mouchot (2003) rappelle que chacune de ces théories a donné lieu, au moment de son émergence, à une révolution paradigmatique (révolution marginaliste, révolution keynésienne) au sens de Thomas Kuhn. Il reconnaît cependant – et en ce sens il fait sienne l’analyse de Rodrik sur les progrès de la science économique – que l’adoption d’un nouveau paradigme par les économistes, à la différence de la science physique, ne conduit pas à l’abandon des précédents.
Le discours de la science économique n’est donc pas unifié, mais pluriel. Loin de certains fondamentalismes, Dani Rodrik défend une posture scientifique très prudente : « Les théories économiques générales ne sont rien de plus qu’un étayage pour des contingences empiriques. Elles sont un moyen d’organiser nos pensées davantage que des cadres explicatifs indépendants » (p. 104). Cette attitude est cohérente avec l’idée que l’auteur se fait des modèles économiques. Ces derniers produisent des connaissances nécessairement limitées. Si la situation étudiée est complexe, le modèle ne livre qu’une explication partielle de celle-ci. Cette attitude lucide et nuancée contraste avec celle, dogmatique, de nombre d’économistes qui considèrent que « seule la théorie dominante (néo-classique) constitue la science économique, toutes les autres approches étant au mieux non scientifiques, au pire nulles et non avenues » (Mouchot 2013, p. 127).