L’objectivité en économie est-elle possible ?

Print Friendly

Christophe Moussu, ESCP Europe

Steve Ohana, ESCP Europe

 

Dans sa théorie générale publiée en 1936, Keynes écrit cette phrase restée célèbre :

« …les idées, justes ou fausses, des économistes et des politologues ont plus d’importance qu’on ne le pense en général. À vrai dire, le monde est presque exclusivement mené par elles. Les hommes d’action qui se croient parfaitement affranchis des influences doctrinales sont d’ordinaire les esclaves de quelque économiste passé. Les illuminés du pouvoir qui se prétendent inspirés par des voies célestes distillent en fait des utopies nées quelques années plus tôt dans le cerveau de quelque écrivailleur de Faculté »

La crise financière de 2007-2008 et la crise économique qui l’a suivie ont logiquement rouvert le débat sur la responsabilité morale et intellectuelle des économistes. Ainsi, dans une longue tribune parue dans le New York Times, le prix Nobel d’économie Paul Krugman se demande « comment les économistes ont pu se tromper à ce point »[1]. En particulier, il s’interroge sur l’absence de sens critique de sa profession quant aux dangers posés par la financiarisation de l’économie. Mais Krugman ne s’arrête pas là : il déplore que les économistes aient, dans leur travail scientifique, « confondu la vérité avec la beauté », privilégiant la perfection formelle des modèles au détriment de l’objectivité et souvent de l’utilité. La recherche en économie a en effet été caractérisée depuis trente ans par la poursuite d’un niveau de formalisme de plus en plus similaire à celui des mathématiques. Or, si les mathématiques sont essentiellement un exercice de logique formelle, où le chercheur tente de dérouler les conséquences de certains postulats de base, admis sans aucune exigence de conformité avec la réalité, la formalisation en économie ne peut en aucun cas être une fin en soi, seulement un instrument au service d’une finalité positive et normative : décrire le comportement des agents réels et former des prédictions et des recommandations pour améliorer effectivement leur bien-être.

Dans cet essai, nous allons interroger la notion d’objectivité en économie. Nous discuterons dans une première partie les différences entre la science économique et les sciences « dures », en mettant en évidence l’omniprésence de l’idéologie dans cette discipline. Dans une seconde partie, nous montrerons comment le rapport de l’économiste à son environnement conditionne la production du savoir dans cette discipline.

***

Comme toutes les sciences sociales, l’économie s’intéresse à la compréhension des motivations et des décisions des individus ainsi qu’à leur interaction avec leur environnement. Cependant, l’économie se distingue des autres sciences sociales par son approche plus formelle des phénomènes sociaux et humains. Cette formalisation débute réellement avec l’avènement de la « théorie de l’équilibre général » de Walras[2], s’accélérant depuis une soixante d’années. Des modèles mathématiques de plus en plus sophistiqués se sont développés pour analyser les fluctuations du prix des actifs financiers, valoriser les « produits dérivés » et décrire les comportements des acteurs économiques aux niveaux individuel (microéconomie) ou agrégé (macroéconomie).

Ce formalisme est vraisemblablement la raison pour laquelle l’économie est la seule science sociale à disposer d’un « prix Nobel ». Bien que ceci lui confère un statut à première vue similaire à celui des sciences physiques ou de la médecine, les théories économiques n’ont en aucun cas le même degré d’objectivité que celles issues des sciences dites « dures ».

Source : Pixabay

Source : Pixabay

Si les sciences de la nature ont pour objet l’étude de phénomènes caractérisés par un niveau élevé de répétabilité et de déterminisme, les sciences sociales ont pour matière le comportement d’êtres humains doués de libre arbitre, pour lequel la répétabilité est fortement sujette à caution et le cadre déterministe trop réducteur. Les motivations humaines sont celles d’êtres libres, conscients et dotés de sens moral et dépendent crucialement du contexte (normes en vigueur, environnement social, passé familial…). D’autre part, ces motivations sont en retour influencées par les représentations des sociologues ou des économistes, un phénomène réflexif que Giddens nomme la « double herméneutique »[3] : entre l’observateur et l’objet observé, la relation ne va pas que dans un sens (l’observateur étudie l’objet observé) mais potentiellement dans les deux sens (le comportement de l’objet observé est en retour influencé par les théories émanant de l’observateur).

La double herméneutique soumet la recherche en sciences sociales à une ambigüité fondamentale, entre positivité et normativité. L’économie, en tant que science positive, a pour objectif de décrire la façon dont se comportent les individus réels. Toutefois, en tant que science normative, elle a pour ambition de réfléchir à la manière dont les individus devraient se comporter de façon « optimale » ou « rationnelle ». Ainsi, l’économiste tente d’une part, comme le chercheur en sciences physiques et naturelles, de découvrir les lois gouvernant les décisions et les interactions humaines.  Mais d’autre part, ses théories contiennent nécessairement une dimension normative en ce qu’elles sont amenées, voire destinées, à influencer les décisions humaines qu’elles s’efforcent de représenter. Par conséquent, l’économiste est partie prenante des phénomènes qu’il décrit. C’est un problème épistémologique auquel sont rarement confrontés le physicien ou le biologiste.

Cette différence explique sans doute la violence particulière des querelles entre économistes. Si les différends ont toujours existé entre physiciens et entre biologistes, la réconciliation est souvent possible par accumulation de preuves tendant à valider une théorie aux dépens d’une autre. Au contraire, les querelles des économistes ne s’épuisent jamais car elles reposent sur des présupposés idéologiques inhérents à chaque économiste. Par exemple, le présupposé idéologique de l’économiste Milton Friedman[4] est que la morale ne doit en aucun cas intervenir dans les décisions économiques et que, si elle y joue un rôle dans les faits, il est du devoir de l’économiste de l’en chasser dans la théorie. Ce modèle Friedmanien de l’« homo economicus », où les agents économiques sont décrits comme motivés uniquement par la poursuite de leurs propres intérêts financiers, tient plus, comme nous allons le voir, de la posture normative que de l’approche descriptive. Le niveau élevé de formalisation mathématique que permet cette approche explique son grand succès au sein des cercles académiques. La formalisation facilite le processus de validation par les pairs (sur lequel nous reviendrons dans la dernière partie de cet article) et fournit un habillage « scientifique » à un positionnement qui est en réalité de nature principalement idéologique. L’utilisation du formalisme mathématique permet en outre de s’affranchir de la contrainte de falsifiabilité et de conformité au réel, la remplaçant, à l’image des mathématiques, par la seule contrainte de cohérence interne du modèle. L’économie quitte ainsi la sphère des sciences positives pour entrer dans une terra incognita au niveau épistémologique, située quelque part entre le pur exercice de formalisme mathématique et la spéculation normative sur la façon dont fonctionnerait une économie idéale fondée sur des comportements « rationnels » et des marchés « parfaits ».

            Les économistes manipulant ce type de modèles ont toujours été embarrassés par le manque de réalisme de leurs hypothèses. Les exemples de « non rationalité » des agents (au sens de Friedman) sont en effet  pléthore. Le plus célèbre est sans doute celui de « l’ultimate game ». Dans ce dernier, on demande à un premier joueur de répartir entre lui et le second joueur une somme de 100€, puis on laisse au second joueur le choix entre accepter la répartition décidée par le premier joueur ou décider qu’aucun des joueurs ne touchera le moindre euro. Si les individus étaient seulement guidés par l’intérêt monétaire, le second joueur devrait « rationnellement » accepter n’importe quelle répartition offerte par le premier joueur (pourvu que la somme qui lui est allouée soit positive !). Dans les faits, le second joueur n’acceptera pas les partages trop inéquitables décidés par le premier joueur. Des expériences similaires ont été menées chez les chimpanzés, avec exactement les mêmes résultats : l’inéquité des partages mène à la révolte, même lorsque l’intérêt personnel commanderait de se soumettre aux conditions d’un partage inégal. Dans les organismes de don de sang, on a constaté un effondrement du taux de participation lorsque le don est rémunéré au lieu d’être gratuit. Dans les écoles, on a observé une recrudescence des retards lorsque les parents doivent payer une pénalité pour chaque minute de retard de leurs enfants. Ainsi, le sentiment d’équité, le plaisir du don désintéressé et le devoir moral sont des déterminants forts des décisions humaines, non pris en compte dans la théorie utilitariste. Par ailleurs, de nombreuses expériences ont révélé le caractère myope et temporellement incohérent des décisions humaines. Les individus attribuent un poids beaucoup plus important au plaisir instantané qu’aux coûts et plaisirs différés. L’engagement verbal du « Demain j’arrête » est rarement respecté en pratique et peut continuer jusqu’à un stade « d’inefficience » ultime. Les économistes Daniel Kahneman et Amos Tversky (deux chercheurs en psychologie n’ayant pas suivi un seul cours d’économie dans leur cursus universitaire mais ayant tout de même été récompensés par le prix Nobel d’économie en 2002 pour leurs découvertes majeures en économie comportementale) ont mis en évidence par leurs expériences une myriade de comportements « irrationnels » dans le choix des individus, en particulier dans un contexte d’incertitude[5]. Ainsi, les individus confrontés à la perspective d’une perte financière vont avoir tendance à prendre des risques importants pour s’offrir une chance d’effacer leurs pertes. Ceci explique notamment le comportement des joueurs de casino et des traders qui préfèrent parfois prendre le risque de finir totalement ruinés plutôt que d’accepter une perte modeste. Un autre exemple particulièrement important est celui du « biais de disponibilité », qui explique la tendance des individus à attribuer une probabilité subjective importante à des événements qui viennent de se produire ou qui font écho à des expériences personnelles marquantes. Un autre phénomène mis en évidence par Kahneman et Tversky est le biais d’ancrage, qui explique la tendance des individus à se fier de manière exagérée, pour former leurs jugements, à la première information, si subjective soit-elle, qui leur est fournie. Ces observations remettent évidemment en cause l’intérêt de modèles de « comportements rationnels » pour décrire les décisions des agents. Or, ces hypothèses, qui sont les plus couramment utilisées dans la littérature économique, ont des conséquences lourdes sur les prescriptions finales des modèles. Pour ne citer qu’un exemple, particulièrement sensible dans le contexte actuel, certains modèles d’ « anticipations rationnelles » des agents économiques servent à appuyer la thèse de la « neutralité » des agents aux politiques de relance monétaire ou budgétaire au cours des récessions. Les agents sont en effet censés déjouer les effets de toute relance par leurs anticipations parfaites des effets monétaires et des contraintes budgétaires futures dans leurs décisions de dépenses présentes. De manière intéressante, il suffira pour les économistes appartenant à une branche dissidente dite « néo-keynésienne » d’introduire au cours des années 80 quelques « imperfections », c’est-à-dire en fait une dose de réalisme, dans ces mêmes modèles (rigidité à la baisse des prix et des salaires, besoin de désendettement ou myopie de certains agents etc.) pour aboutir à des conclusions et prescriptions radicalement opposées sur les effets des relances budgétaires ou monétaires. Malgré toutes les preuves empiriques, récentes ou plus anciennes, de la validité des théories néo-keynésiennes, les tenants les plus orthodoxes des modèles d’anticipations rationnelles « micro-fondés » promus par Lucas à partir de la fin des années 70[6] ignoreront les avancées décisives des néo-keynésiens et s’enfermeront jusqu’au bout dans leur tour d’ivoire, enfonçant depuis les années 80 la macroéconomie dans une querelle stérile dont elle n’est toujours pas sortie.

Plusieurs possibilités s’offrent aux économistes les plus dogmatiques pour surmonter les nombreux écarts entre leurs hypothèses et la réalité des phénomènes qu’ils prétendent modéliser et prédire. Certains choisiront de mettre l’accent sur les quelques exemples particuliers confortant leurs théories. A titre illustratif, l’un des auteurs a pu entendre un célèbre professeur d’économie évoquer auprès de ses élèves l’exemple réel d’un bûcheron se sciant volontairement le bras pour toucher des indemnités d’assurance. De cette manière, il cherchait à influencer la perception de son audience quant à la nature humaine. Ainsi, il pouvait plus aisément justifier le cadre conceptuel de la « théorie de l’agence », fondé sur l’intérêt privé et les conflits entre parties dans le cadre d’une relation contractuelle[7]. En effet, si un bûcheron est prêt à sacrifier un bras pour toucher une prime d’assurance, il apparaît alors bien naturel qu’un dirigeant puisse servir ses intérêts propres au détriment de ceux des actionnaires qui l’ont mis en place, ou qu’un salarié cherche à tricher dans la relation qui le lie à son employeur. De manière intéressante, un médecin ou l’homme de la rue tendront à voir le comportement de notre bûcheron comme relevant d’un déséquilibre mental plutôt que représentatif de la « nature humaine ».

Un autre tour de passe-passe est parfois utilisé pour évacuer le problème de l’irréalisme des hypothèses : pour certains économistes, dont Friedman, une théorie économique ne devra pas être jugée à l’aune du réalisme des hypothèses sous-jacentes sur le comportement des agents. Seule la validité empirique de ses prédictions décidera en dernier ressort de sa valeur. Cependant, ce dernier ancrage de « positivité » des théories économiques pourra lui-même s’évaporer au nom de la défense de la « bonne cause ». Nous avons vu plus haut l’exemple du déni de réalité des tenants des modèles d’anticipations rationnelles les plus orthodoxes, qu’aucune réfutation empirique n’a jamais réussi à ébranler dans leur dogmatisme. Nous avons été confrontés dans notre travail à un autre exemple de déni de réalité. Dans une contribution récente[8], nous montrons empiriquement que la mise en œuvre de programmes de santé destinés à améliorer le bien-être des salariés dans des entreprises américaines est reliée négativement au niveau d’endettement qu’elles utilisent. Pourtant ces programmes sont documentés comme étant très rentables pour les entreprises, compte tenu des coûts gigantesques relatifs à la santé qu’elles supportent. Notre résultat suggère donc que l’impact de la dette sur la politique de santé des entreprises est négatif. Or, dans la théorie de l’agence (voir la définition de cette théorie plus haut), le résultat que la dette décourage l’investissement est interprété, dans une perspective « positive », comme la preuve de l’existence d’un « effet disciplinant » de la dette sur le comportement potentiellement déviant des dirigeants. De manière intéressante, les académiques familiers de cette perspective ont eu beaucoup de mal à accepter que la dette puisse aussi peser sur un bon investissement. Ils préféraient en fait remettre en question la validité des études prouvant l’importance des programmes de santé. Dans ce cas, la « bonne cause » était de protéger le paradigme puissant issu de la théorie de l’agence.

Un autre exemple du primat de l’idéologie nous est fourni par le débat sur « l’efficience des marchés ». L’économiste Eugène Fama, professeur comme Milton Friedman à l’université de Chicago, définit un marché « efficient » comme un marché où le prix d’un actif financier reflète à tout instant l’ensemble de l’information disponible aux agents[9]. Le marché fournit à tout moment le prix le plus « juste » possible, dans la mesure où l’évolution future ne peut pas être prédite efficacement en utilisant l’information apportée par les prix passés ou des informations privées d’autre nature. De façon intéressante, chez Fama (comme chez de nombreux autres économistes), le positif (comment se comportent les marchés réels) se confond avec le normatif (comment devraient se comporter les marchés idéaux). Fama a été le défenseur ardent dans tout son travail de l’hypothèse des marchés efficients, moquant systématiquement ceux qui prétendent identifier des bulles dans le prix des actifs et expliquant avoir résilié son abonnement au magazine The Economist « car ils utilisent le mot bulles trois fois par page ». A l’inverse, l’histoire financière ainsi que de nombreux travaux empiriques récents, comme ceux de Robert Shiller[10] sur les marchés immobiliers et boursiers, accréditent l’idée de marchés fonctionnant en cycles d’exubérance (« bulles financières ») suivie de corrections plus ou moins brutales (paniques financières voire « krachs »). André Orléan[11] fait référence quant à lui au comportement « auto-référentiel » des prix des marchés, une idée également portée par le financier George Soros (qui fait référence à la « réflexivité » des prix de marché). L’opinion des acteurs n’est pas forgée simplement par des données exogènes aux prix de marché (ce qu’on appelle couramment « l’information fondamentale » sur l’économie, les entreprises etc.) mais par la dynamique propre des prix: plus les prix ont augmenté dans le passé récent, plus la demande des investisseurs pour un actif est amplifiée, car plus ils anticipent pouvoir le revendre avec une plus-value, et donc plus la dynamique haussière a des chances de se poursuivre… Ce type de comportement a d’ailleurs été confirmé par des expériences de simulation de marchés financiers en laboratoire. Un autre mécanisme d’auto-amplification endogène est celui de l’octroi de crédit, qui est toujours plus souple quand l’actif financé à crédit et posé en garantie voit son prix de marché s’accroître au cours du temps, un mécanisme particulièrement bien décrit par l’économiste Hyman Minsky[12]. Selon Keynes, les exubérances irrationnelles des marchés persistent au cours du temps car « le marché peut rester irrationnel plus longtemps que les investisseurs ne peuvent rester solvables ». Les investisseurs dits « fondamentalistes » parieront donc contre les bulles à leurs risques et périls… Les gérants de portefeuilles étant constamment évalués à l’aune de la performance de leurs pairs, le fait de ne pas participer à une bulle peut leur être extrêmement coûteux en termes de réputation, de revenus et même de carrière. Ces mécanismes sont susceptibles d’expliquer la présence de comportements inefficients des marchés. Aucune preuve définitive ne viendra là encore valider ou réfuter définitivement les conceptions de Fama ou de Shiller[13]. Ces théories ne rentrent pas dans le champ des théories scientifiques « falsifiables » de Karl Popper. Ici encore, ce sont les positions idéologiques préalables des économistes qui détermineront leur positionnement par rapport aux bienfaits ou aux dangers des économies financiarisées[14].

Comme on le voit, derrière les clivages intellectuels, se trouvent souvent des clivages de valeur. Des travaux portant sur les désaccords entre économistes ont d’ailleurs révélé que les clivages de valeur déterminent leur avis sur des questions de politique économique faisant l’objet d’études empiriques aux conclusions contrastées (par exemple, l’effet du salaire minimum sur le taux de chômage)[15]. Les valeurs auxquelles on croit (primat de la liberté, corruption du pouvoir politique et vertus du marché dérégulé pour les uns, méfiance envers le marché et vertus de la régulation et de la redistribution pour les autres etc…) conditionnent donc, sous l’habit de la science, le choix des modèles mathématiques que l’on adoptera mais aussi l’interprétation que l’on fournira aux mêmes résultats empiriques. En économie, plus encore que dans les sciences physiques ou naturelles, les « validations empiriques » ne tiennent jamais lieu de preuve absolue, du fait de la complexité inhérente aux phénomènes étudiés et de l’impossibilité de mener des expériences contrôlées permettant d’en isoler parfaitement les causes. La discussion est déterminée très largement par les positions idéologiques préalables des uns et des autres.

Mais, de manière plus pernicieuse et inconsciente, les controverses entre économistes peuvent être également déterminées par le type de modèles que chaque économiste a l’habitude de côtoyer et de manipuler dans son travail de publication.

***

            En effet, les économistes peuvent aisément faire l’objet d’une capture liée au besoin de publication. L’économiste, dans le but de publier plus aisément ses recherches, trouvera opportun de se rattacher à un courant de pensée ou à un certain type de formalisme populaire au sein des journaux où il ambitionne de positionner ses travaux. Cela commence souvent par la publication d’un nouveau paradigme séduisant par un économiste influent (comme Robert Lucas dans les années 80 avec les modèles  macroéconomiques « micro-fondés », Michael Jensen avec la « théorie de l’agence » ou encore Eugene Fama avec l’hypothèse de « marché efficient ») qui finit par générer d’abord un effet de mode puis finalement un système de pensée fermé. Le processus de revue des articles par les « pairs » est un rouage fondamental de ce processus d’homogénéisation de la pensée et de mise aux normes des publications. Pour réussir dans le monde académique, il est de plus en plus vital de publier. Et pour publier, il faut se conformer au type de formalisme et d’idéologie des revues visées. « La liberté de la presse n’est garantie que pour ceux qui la possèdent», disait le grand journaliste américain A.J Liebling. Si le degré d’homogénéité idéologique des articles au sein des revues « mainstream » atteint un certain stade, alors, de façon endogène, cette homogénéité sera appelée à se renforcer davantage car les économistes, qui sont des « homo economicus » comme les autres, verront un grand risque à mener des recherches au format ou aux conclusions iconoclastes. En d’autres termes, pluralisme et conformisme intellectuels s’auto-entretiennent au cours du temps. Force est de constater l’appauvrissement du débat intellectuel au sein des grands journaux académiques. Les grandes controverses fondamentales, qui agitaient la communauté des économistes des années 30 jusqu’aux années 80, ont fait place à des modèles théoriques raffinant à la marge les modèles préexistants, ainsi qu’à des études empiriques semblant confirmer les théories déjà établies.  On peut déjà voir les prémisses d’une révolte des économistes contre la pauvreté du débat intellectuel au sein de leur discipline[16]. Cette révolte est bienvenue car la discipline a plus que jamais besoin de questionner les dogmes dominants et de revenir à ses fondamentaux. L’absence de pluralisme de la pensée, l’hyperspécialisation, le formalisme extrême et le caractère de plus en plus stéréotypé des publications est peut-être à l’origine de ce que Paul Krugman nomme « l’âge sombre de la pensée économique »[17], c’est-à-dire une forme de régression intellectuelle chez les économistes par rapport à la finesse et à la profondeur de raisonnement des pères fondateurs de la discipline.

Cet âge sombre de la pensée économique n’est pas sans conséquence sur le réel car les théories économiques peuvent avoir une influence décisive sur le monde tel qu’il existe. Dans la réalité, lorsqu’une théorie se répand, elle tend à être appliquée de manière si dogmatique que ses messages initiaux peuvent en être facilement dévoyés. Par exemple, la rémunération incitative dans les entreprises devait permettre selon Michael Jensen, le père de la théorie de de l’agence, de lutter contre l’opportunisme des dirigeants et permettre une allocation meilleure des ressources dans l’économie. Dans la réalité, l’exploitation du cadre théorique a conduit à une explosion des revenus de dirigeants d’entreprises, devenus par ce biais encore plus opportunistes. Il est également établi que cette rémunération excessive tient une part importante dans la prise de risque excessive des banques ayant conduit à la crise et dans le sous-investissement de certaines entreprises. Enfin, ces systèmes de rémunération incitative ont contribué de façon décisive à l’explosion des inégalités de revenus au sein des pays industrialisés. Il y a donc eu dévoiement total de l’objectif initial que Jensen avait en tête, un dévoiement reconnu et combattu d’ailleurs par Jensen lui-même quelques dizaines d’années plus tard[18]. D’autres académiques, comme Goshal[19], tendent à voir dans le paradigme posé initialement la cause même des dérives observées.

Pourtant, les théories forgées par les économistes restent également fondamentales pour lutter contre certaines croyances disséminées dans les pratiques managériales. Par exemple, la théorie financière élémentaire des années 50 explique très bien pourquoi la distribution de dividendes[20] n’est pas source de création de valeur pour les entreprises. C’est d’ailleurs aujourd’hui un argument que certains académiques en finance répètent inlassablement, pour lutter contre la montée inexorable des dividendes depuis quinze ans. De manière intéressante, cette montée généralisée des dividendes est légitimée par une lecture biaisée du rôle des dividendes proposé dans un autre cadre théorique.

Le monde politique traverse son propre « âge sombre de la pensée économique ». Ainsi, un excellent exemple de dévoiement des théories économiques est celui du tournant austéritaire de 2010 dans les principaux pays développés. De nombreux économistes se sont prononcés contre ce tournant austéritaire, s’appuyant notamment sur les travaux de Keynes et de Fisher portant sur la crise des années 30, sur ceux de Koo portant sur la déflation japonaise des années 90-2000 ainsi que sur les modèles « néo-keynésiens », qui sont devenus les modèles macroéconomiques de référence au sein de toutes les Banques Centrales ainsi que tous les organes de régulation et de prévision internationaux (FMI, OCDE, Commission Européenne…). Cependant, un certain consensus politique s’est forgé autour de la nécessité de plans d’austérité suite aux plans de relance budgétaire de 2009, à l’accroissement des ratios de dette publique dans les pays développés et à l’éclatement de la crise grecque fin 2009 : les gouvernements devaient absolument couper immédiatement dans leurs dépenses pour éviter de se retrouver dans la situation de la Grèce. Même si les économistes keynésiens ont bien expliqué le caractère non transposable du cas grec aux autres pays avancés, les responsables politiques pro-austérité, soutenus par des milieux d’affaires soucieux de « diminuer le poids de l’Etat dans l’économie » pour « restaurer la confiance des entreprises », ont alors invoqué certaines études empiriques récentes pour justifier cette nouvelle orientation : une étude statistique d’Alesina et Ardagna[21] indiquait l’existence d’épisodes de « contractions budgétaires expansionnistes » (pro-croissance) tandis que l’étude empirique récente de Reinhart et Rogoff[22] semblait prouver un effondrement brutal de la croissance future au-delà d’un certain seuil de dette publique, qui correspondait exactement à celui atteint par les pays développés en 2010. En réalité, les expériences identifiées comme « austéritaires » par la première étude n’en étaient pas toutes et surtout ne s’appliquaient pas au contexte actuel de désendettement privé et de taux nuls dans les pays développés. Quant à la seconde étude, elle reposait sur une série de choix empiriques contestables et d’erreurs de traitement des données. D’autre part, le lien de causalité de la dette publique vers la perte de croissance n’était pas clairement établi dans l’étude de Reinhart et Rogoff, la causalité pouvant également aller dans le sens d’une croissance faible vers une dette publique élevée. D’autres études empiriques postérieures, comme celle du FMI en 2013[23], montraient au contraire l’impact négatif plus élevé qu’attendu des politiques de contraction budgétaire dans le contexte particulier des pays développés de 2010 à 2012. Mais cette fois, ces conclusions ne correspondaient plus du tout à ce que les décideurs politiques et les milieux d’affaires avaient envie d’entendre…

Dans le cas des rémunérations excessives, des dividendes ou du tournant austéritaire, les académiques ne sont probablement pas les premiers responsables du dévoiement des théories économiques et financières par les praticiens. Dans tous les cas, ce sont des intérêts privés, ainsi que la diffusion de fausses croyances au sein des mondes managérial ou politique, qui sont à incriminer. Au contraire, certaines théories très établies et anciennes et d’autres études empiriques plus récentes auraient pu servir d’utiles garde-fous aux dérives des praticiens.

Les exemples précédents révèlent que recherche et pratique économiques et financières sont en constante interaction. Cette interaction procède en double réverbération : les théories enseignées deviennent des pratiques de management et de politique économique, tandis que les pratiques deviennent parfois normes, puis finalement théories[24]. Il est de la responsabilité des académiques de s’intéresser de près à l’application concrète qui est faite des théories financières et économiques et de condamner certaines dérives, dans les arènes du débat public comme dans les salles de cours. Le processus de double réverbération évoqué plus haut entre recherche académique et pratique peut en effet devenir très dangereux si l’économiste est inattentif au dérives des praticiens ou, pire, s’il est corruptible au point de les cautionner. Il est aujourd’hui frappant de voir la dureté du débat actuel entre académiques sur la question de la réglementation des banques. De nombreux modèles émergent dans la littérature académique pour cautionner un modèle de banques qui a clairement déraillé et provoqué une crise financière dont les effets sur l’économie réelle et la société se font encore sentir aujourd’hui. On peut y voir le signe d’une capture intellectuelle de certains académiques par le pouvoir économique et financier. Il n’est pas exclu d’ailleurs que cette capture obéisse à une logique de classe. Comme le dit Piketty, l’auteur du best-seller « Le Capital au XXIème Siècle », il y a en effet beaucoup moins d’incitations pour les économistes à combattre les dogmes et les stratégies de capture des 1% les plus riches lorsqu’ils font eux-mêmes partie de cette catégorie…

***

Dans cet essai, nous avons pointé deux dangers auxquels est confronté l’économiste dans son rapport avec la vérité et avec la société. Premièrement, l’économiste est sous l’influence de ses propres valeurs, qui conditionnent le choix de ses modèles de représentation des motivations humaines et des marchés. S’il n’y prête pas garde, il peut par dogmatisme se mettre à sacraliser la beauté formelle de ses modèles de représentation aux dépens de la recherche de la vérité et souvent de l’utilité. Deuxièmement, l’économiste est soumis à la pression des modes, des conventions de son temps, qui peuvent venir à la fois des normes formelles et paradigmes dominants parmi ses pairs et des croyances qui ont cours au sein du monde managérial ou politique.

Les trente dernières années ont été le théâtre d’un dévoiement de la discipline économique, vers un excès de spécialisation, de formalisme et de dogmatisme dans l’utilisation des modèles. Ce formalisme partait probablement d’une bonne intention initialement : il s’agissait de codifier et d’échanger des idées entre économistes, de pouvoir énoncer des propositions avec un fort caractère de rigueur et d’objectivité mathématique, en vue d’ériger l’économie au statut de science dure. Cependant, à travers ce processus, l’économie risque de perdre sa vocation, qui est, rappelons-le, de contribuer à la connaissance du comportement des acteurs économiques réels et à l’amélioration effective de leur bien-être.

            Cependant, nous pensons qu’il y a en économie la possibilité de progresser vers une forme d’objectivité, à condition de respecter quelques règles de bonne conduite, bien rappelées par l’économiste Paul Romer dans son blog[25]:

1)    L’économiste peut utiliser avec profit le formalisme mathématique pour l’aider à codifier et communiquer ses idées avec clarté et précision et à les rendre vérifiables empiriquement.

2)    Seul un travail minutieux de contestation et de vérification empirique des thèses économiques peut faire progresser la communauté des économistes sur le chemin de la l’objectivité. Pour cela, les économistes doivent être ouverts à la critique et promouvoir un dialogue constructif en lieu et place des querelles de chapelle et des arguments d’autorité.

3)    In fine, les faits doivent toujours prendre le pas sur les modèles, quels que soient leur caractère séduisant ou leur popularité au sein de la profession.

En conclusion, l’économiste, pour être pertinent et utile à la société, doit se rapprocher de cet idéal d’honnête homme décrit par Keynes :

«Un économiste de qualité, ou simplement compétent, est un oiseau rare. Il doit atteindre un niveau élevé dans de nombreux domaines et combiner des talents qu’il est rare de trouver réunis. Il doit être mathématicien, historien, homme d’Etat, philosophe, dans une certaine mesure. Il doit comprendre les symboles et s’exprimer avec des mots. Il doit observer le particulier d’un point de vue général et atteindre le concret et l’abstrait du même élan de pensée. Il doit étudier le présent à la lumière du passé et dans la perspective du futur. Rien de la nature et des institutions de l’homme ne doit lui être étranger. Il doit être à la fois impliqué et désintéressé ; être aussi détaché et incorruptible qu’un artiste et cependant avoir autant les pieds sur terre qu’un homme politique ».


[1]« How did economists get it so wrong ? »,  P. Krugman, New York Times, septembre 2009

 

[2] Cette théorie est exposée dans le livre “Éléments d’économie politique pure ou théorie de la richesse sociale”, publié par Walras en 1874.

[3] Anthony Giddens, Social Theory and Modern Sociology (Cambridge, Polity Press, 1987).

 

[4] Milton Friedman, économiste très influent de l’Université de Chicago, récompensé par le prix Nobel en 1976, a toujours défendu un système de marché libre, composé d’acteurs guidés par la seule recherche de leur intérêt privé et une intervention minimale de l’Etat dans l’économie. Il compte de nombreux disciples prestigieux, parmi lesquels Gary Becker (prix Nobel en 2007) et Robert Lucas (prix Nobel en 1995).

[5] Leurs découvertes sont magistralement commentées et illustrées dans le livre « Système 1/Système 2, les deux vitesses de la pensée » publié par Daniel Kahneman en 2012, Ed. Flammarion.

[6] Les modèles keynésiens traditionnels établissent, à partir des observations passées, des relations entre variables macroéconomiques agrégées (consommation et production globales, emploi, etc.). Dans les années 70, plusieurs économistes influents, dont Milton Friedman et Robert Lucas ont critiqué l’usage de ces modèles keynésiens, recommandant l’usage de modèles macroéconomiques fondés sur l’analyse microéconomique du comportement individuel des agents (ménages, entreprises…). Leur principale critique contre les modèles utilisant des variables agrégées était que les relations entre variables agrégées sont instables et dépendantes des décisions de politique économique, tandis que les comportements individuels seraient par nature plus invariants. Les modèles faisant intervenir les variables agrégées souffraient, selon Lucas, d’un problème d’inconsistance interne : si une loi identifiée dans les séries passées est portée à la connaissance des acteurs économiques, les nouvelles anticipations formées par les agents à partir de la connaissance de cette loi invalideront cette loi dans le futur. C’est cette doctrine qui allait aboutir aux modèles macroéconomiques « micro-fondés », décrivant les cycles économiques à partir de l’hypothèse d’anticipations rationnelles des agents économiques individuels.

 

[7] La référence la plus citée est relative aux relations contractuelles entre managers et actionnaires dans l’entreprise : Jensen, M. C., & Meckling, W. H. (1976). Theory of the firm: Managerial behavior, agency costs and ownership structure. Journal of Financial Economics3(4), 305-360. Mais la théorie de l’agence a été utilisée dans bien d’autres cadres comme celui des relations entre managers et salariés, entre concurrents sur un même marché, entre Etat et entreprises, entre assureur et assuré etc.

[8]Moussu, C., & Ohana, S. (2014), Do Leveraged Firms Underinvest in Corporate Social Responsibility? Evidence from Health and Safety Programs in US Firms. Journal of Business Ethics, 1-15.

 

[9] Fama, E. F. (1970). Efficient capital markets: A review of theory and empirical work. The journal of Finance, 25(2), 383-417.

 

[10] Shiller, R. J. (2015). Irrational exuberance. Princeton University Press.

 

[11] Orléan A. (1999), Le pouvoir de la finance, Odile Jacob.

 

[12] Minsky, Hyman P. « The financial instability hypothesis. » The Jerome Levy Economics Institute Working Paper 74 (1992).

 

[13]De manière très révélatrice, ces deux économistes aux conceptions opposées sur le fonctionnement des marchés ont tous les deux été simultanément récompensés par le prix Nobel d’économie en 2013.

 

[14]Une étude menée par l’un des auteurs sur les marchés de matières premières montre un impact déstabilisateur de la  financiarisation sur les mécanismes traditionnels de formation des prix. Voir Guilleminot, B., Ohana, J. J., & Ohana, S. (2014). The interaction of speculators and index investors in agricultural derivatives markets. Agricultural Economics, 45(6), 767-792.

 

[15]Randazzo, A., & Haidt, J. (2015). The Moral Narratives of Economists. Econ Journal Watch, 12(1), 49-57. Voir aussi Fuchs, V. R., Krueger, A. B., & Poterba, J. M. (1997). Why do economists disagree about policy? The roles of beliefs about parameters and values (No. 389). National bureau of economic research.

 

[16]Voir le livre de l’économiste australien Steve Keen L’Imposture Economique, traduit de l’anglais et préfacé par l’économiste Gaël Giraud, qui retourne contre la pensée dominante les armes de l’analyse économique la plus traditionnelle.

 

[17]Voir le blog de Paul Krugman « A Dark Age of Macroeconomics », publié sur le site du New York Times le 27 janvier 2009 [http://krugman.blogs.nytimes.com/2009/01/27/a-dark-age-of-macroeconomics-wonkish/?_r=0]

 

[18]Jensen, M. C., Murphy, K. J., & Wruck, E. G. (2004). Remuneration: Where we’ve been, how we got to here, what are the problems, and how to fix them.

 

[19]Ghoshal, S. (2005). Bad management theories are destroying good management practices. Academy of Management learning & education, 4(1), 75-91.

 

[20]Le dividende est la rémunération versée aux actionnaires d’une société en contrepartie de leur investissement au capital de l’entreprise. C’est la part des bénéfices distribuables qui, sur décision de l’assemblée générale, est versée à chaque titulaire d’une part ou action.

 

[21]Alesina, A., & Ardagna, S. (2010). Large changes in fiscal policy: taxes versus spending. In Tax Policy and the Economy, Volume 24 (pp. 35-68). The University of Chicago Press.

 

[22]Reinhart, C. M., & Rogoff, K. S. (2010). Growth in a Time of Debt (Digest Summary). American Economic Review, 100(2), 573-578.

 

[23]Blanchard, O. J., & Leigh, D. (2013). Growth forecast errors and fiscal multipliers (No. w18779). National Bureau of Economic Research.

 

[24] Cette réflexion rejoint la théorie du constructivisme social, selon laquelle les objets de connaissance ne sont pas ontologiquement donnés, indépendamment des jugements humains, mais procèdent d’une construction sociale.

[25] Voir le blog « Solow’s choice », publié par Paul Romer le 14 août 2015 à l’adresse suivante : http://paulromer.net/solows-choice/

  1. Une theprie ecomique puet -elle -etre objectif?

Commenter

Suivez-nous :
ISSN 2105-0864 - Copyright © 2009-2015 Implications philosophiques CopyrightFrance.com