Voici une excellente publication de Bernard Guerrien, intitulée : L'économie : science ou pseudo science ?
parue dans le N°269 de Science … et pseudo-sciences, revue de l'AFIS (Association française pour l'information scientifique).
La grande loi de la concurrence pure et parfaite est ainsi pulvérisée avec de plus, cerise sur le gâteau, la révélation du fonctionnement du mécanisme centralisé de fixation des prix, un pur bonheur !
(j'y reviendrai bientôt avec des explications...explosives).
Bernard
Guerrien est docteur en mathématique-statistique
et docteur en
Sciences Economiques.
Il est chercheur associé au SAMM (Centre d’économie de la Sorbonne - Université Paris 1).
Il est chercheur associé au SAMM (Centre d’économie de la Sorbonne - Université Paris 1).
Son
site Economie Critique
est une halte nécessaire pour ceux qui veulent penser l'économie.
L’économie, en tant que discipline,
a de quoi laisser perplexe un observateur extérieur. D’une part, les économistes sont souvent
considérés comme des charlatans, qui se servent d’un langage obscur et font des prédictions
douteuses, si ce n’est contradictoires ; d’autre part, ils utilisent abondamment les mathématiques
– au niveau des publications académiques, seule la physique théorique fait mieux qu’eux,
si on peut dire –, ce qui est généralement considéré comme typique d’une démarche
rigoureuse et scientifique. Comment expliquer cette situation étrange ? D’abord, par la complexité
de l’objet de leurs réflexions qui fait qu’on ne peut trancher par l’expérimentation entre
diverses théories. Comme l’a dit John Stuart Mill, il y a bien longtemps :
« Le premier obstacle que l’on
rencontre quand on essaye d’appliquer les méthodes expérimentales à la découverte des
lois des phénomène sociaux est la difficulté de faire des expériences artificielles.
Même s’il était possible d’executer des expériences et de les répéter indéfiniment, on
ne le pourrait que dans des conditions extrêmement désavantageuses ; d’abord parce
qu’il serait impossible de reconnaître et d’enregistrer tous les faits de chaque cas, et
ensuite parce que, ces faits étant dans un état de changement perpétuel, il arriverait
avant que l’écoulement d’une temps suffisant pour constater le résultat de l’expérience,
certaines circonstances importantes auraient cessé d’être les mêmes »( Système de
Logique, 1843, p 459).
Il est vrai qu’en astronomie, par
exemple, on ne peut pas faire d’expériences mais « les causes qui influent sur le résultat [y] sont
peu nombreuses ; elles changent peu et toujours d’après des lois connues », ce qui permet
notamment de faire des prédictions. Les choses sont toutefois différentes dans le cas des sociétés
:
« Au contraire, les circonstances qui
agissent sur la condition et la marche de la société sont innombrables et changent
perpétuellement ; et quoique ces changements aient des causes et, par conséquent, des lois,
la multitude des causes est telle qu’elle défie tous nos efforts de calcul. Ajoutez que
l’impossibilité d’appliquer des nombres précis à des faits de cette nature met une limite
infranchissable à la possibilité de les calculer à
l’avance, lors même que
l’intelligence humaine serait à la hauteur de la tâche » (p467).
Une démarche hypothético-déductive
Mill n’en déduit pas pour autant
qu’il ne faut rien faire. Bien au contraire, il pense qu’il faut adopter ce qu’il appelle la «
démarche de la physique », consistant à déduire à partir d’un
petit nombre d’hypothèses simples, des
propriétés qui joueraient le rôle de tendances : sans faire des prédictions exactes, essayer de
voir la direction du mouvement. C’est ainsi qu’il explique que :
« Même si nous étions en mesure,
comme il le faudrait, de distinguer nettement, d’après les lois de la nature
humaine, les tendances elles-mêmes, en tant qu’elles dépendent des causes accessibles à
l’observation et de déterminer la direction que chacune d’elles, si elle agissait
seule, imprimerait à la société, et de pouvoir s’assurer, d’une manière générale au moins,
que quelques-unes de ces tendances sont plus puissantes que d’autres » (p. 490).
Parmi les « lois de la nature humaine
», il y a le penchant à assouvir ses besoins, l’intérêt personnel, qualifié d’ « égoïsme
» ou d’ « amour de soi », dont personne ne peut nier l’existence, ni l’importance. Il
suffit toutefois d’observer un peu autour de soi ou de s’observer soi-même, pour constater
que ce penchant en est un parmi d’autres – bienveillance envers ses congénères, importance
donnée à la famille ou au clan, sens de l’honneur, de la justice, etc. – qui agissent souvent
comme des « contre tendances » à l’égoïsme. De la même
façon, à un niveau plus global, on
peut déduire, à partir d’un certain nombre de prémisses concernant le travail comme seule
origine de la valeur, que le taux de profit baisse au fur et à mesure que le capital (machines et
équipements de tout ordre) s’accumule. Mais cette tendance à la baisse du taux de profit
peut être atténuée ou même annulée par des « contre tendances », comme l’obsolescence
(techniques dépassées) ou même la mise au rancart, suite à des crises, des biens capitaux.
Les théories économiques partent donc
pratiquement toutes d’un petit nombre de postulats simples – qui relèvent de
l’observation, sur les comportements humains ou de certaines régularités à un niveau plus global
– dont elles cherchent à déduire des conséquences, susceptibles d’être décelées, du
moins en tant que tendances, dans les statistiques ou dans les expériences vécues par nos sociétés,
présentes ou passées. Le problème, et les divergences entre économistes, tient au grand
nombre de relations causales envisageables, et donc à leur importance relative. D’où
l’existence de modèles très différents, qui peuvent apporter des
lumières sur ce qui a pu se passer
dans tel ou tel endroit, à telle ou telle époque, mais pas du tout dans d’autres endroits ou
époques. Il y a évidemment toujours l’espoir d’ « expliquer » pourquoi il en est ainsi, en invoquant
des facteurs dont on n’a pas tenu compte – parce que, par exemple, ils ne sont pas
quantifiables. Les économistes sont connus par le peu de fiabilité de leurs prévisions, mais aussi par
leur capacité à expliquer a posteriori, par des « chocs » ou par toutes sortes d’évènements
imprévus (et imprévisibles), pourquoi ils ont pu fournir de mauvaises indications.
Une profession très sollicitée
Jusque là, on peut toutefois
considérer que la démarche des économistes est scientifique, puisqu’ils cherchent à expliquer
certains aspects de la réalité, à établir des relations causales
– ou du moins à dégager des tendances –
qu’ils essaient de quantifier en utilisant les statistiques disponibles ou qu’ils collectent. Il
leur est cependant difficile d’adopter un profil bas, en reconnaissant que la théorie est
sommaire, que la portée de ses modèles est vraiment très limitée et, qu’en fait, on ne sait
pas grand chose. Cela d’autant plus que leur profession très sollicitée par les pouvoirs publics,
et par la société en général, qui aimeraient savoir où on en
est et, surtout, ce qu’il faut faire
pour résoudre tel ou tel problème (chômage, inflation, déficit extérieur, etc…). La tentation est
alors grande de « faire tourner » des modèles formés de bric et de broc, pour fournir prévisions et
conseils. Pour cela, la puissance des ordinateurs aidant, des équations censées décrire des
comportements de plus en plus raffinés ou tenant compte de caractéristiques sectorielles,
régionales, ou autres, vont être empilées. Ce qui n’est pas sans poser des problèmes au niveau du
traitement statistique (données insuffisantes au vu du nombre de variables prises en compte)
et même de cohérence théorique – incompatibilité des comportements décrits par certaines
équations. Le partage des variables entre « explicatives » et « expliquées » est aussi source
d’âpres débats.
A côté de ceux qui font tourner ces
modèles dans les ministères, les banques, les grandes institutions internationales, il y a
les théoriciens qui les inspirent – qu’on trouve surtout à l’université. Contrairement aux
sciences de la nature, le théoricien est, dans le cas présent, partie prenante de la réalité qu’il
veut décrire ou comprendre. Sa vision de la société est largement influencée par la place
qu’il y occupe, son vécu, ses expériences, ses relations. Il a forcément une opinion sur « ce qui va
» et sur « ce qui ne va pas », et donc sur ce qu’il faut faire pour que ça aille mieux. Son
opinion va donc conditionner, si ce n’est déterminer, sa réflexion et ses recherches sur ce qui
est. Devant la complexité de la réalité sociale, il va choisir les points de départ – les
axiomes – de sa théorie, pour en déduire des « résultats » et conclusions. En fait, très souvent, il
va élaborer une théorie dans la perspective de prouver – si possible, en faisant usage des
mathématiques – que ses croyances, ses opinions a priori sur ce que doit être une bonne société,
sont justifiées. Et c’est évidemment à ce moment là que l’on tombe dans la pseudo science, même si
elle prend l’apparence honorable d’équations et de déductions impeccables. Prenons deux
exemples significatifs.
Des croyances qui rendent autiste
Une des croyances les plus ancrées
chez la plupart des économistes est que le marché est efficace, au sens où il épuise toutes
les occasions d’échanges mutuellement avantageux – du moins s’il n’est pas entravé par
des réglementations ou par des « imperfections » comme les monopoles, ou par d’autres phénomènes
du genre. Si on veut donner forme à cette croyance, on voit immédiatement qu’elle est
loin d’aller de soi : chacun doit chercher des partenaires pour faire des échanges, qui ne
peuvent être que partiels, puis négocier les prix auxquels ils peuvent se faire, ce qui prend du temps
et des ressources sans qu’on puisse dire où cela va s’arrêter – si ça s’arrête. En
fait, il existe un moyen d’éviter ce processus complexe, au résultat incertain : on suppose qu’il
existe une entité centrale qui propose des prix (on évite le problème des marchandages bilatéraux),
que les ménages et les entreprises font des offres et des demandes à ces prix, que l’entité
centrale confronte globalement ces offres et ces demandes (afin de déceler toutes les
possibilités d’échanges mutuellement avantageux), en augmentant le prix des biens dont la
demande globale est supérieure à l’offre globale et en diminuant ceux des autres. Quand
l’entité centrale a trouvé les prix qui égalisent les offres et
les demandes globales – les « prix
d’équilibre » – alors elle organise les échanges, chacun lui apportant ce qu’il offre, et
emportant ce qu’il demande, à ces prix. Il est alors clair que
toutes les possibilités d’échanges
mutuellement avantageux seront épuisées et ce, sans coût (l’entité centrale s’occupant de tout). Le
comble, les préjugés l’emportant alors sur la raison, c’est que ce modèle est présenté comme celui
de la « concurrence parfaite », du marché idéal. Seuls les initiés qui peuvent décrypter ses
équations savent qu’il décrit, en fait, un système ultra centralisé – qui n’a rien à voir
avec l’idée qu’on se fait habituellement du marché. Pour les autres, les manuels et les ouvrages de
large diffusion, ce modèle est présenté de façon
suffisamment floue comme pour laisser
croire qu’on a démontré mathématiquement que la concurrence est parfaite, car elle
permet une affectation optimale des ressources. On est près de l’escroquerie intellectuelle, même
si elle est plus ou moins inconsciente – telle est la force des croyances, des préjugés. Une
bonne partie de la théorie économique formalisée est pourtant construite autour de ce
modèle, présenté comme décrivant le marché par excellence.
Un autre exemple d’aberration est
celui, très à la mode, des modèles dits à « agent représentatif », où la production,
la consommation, l’investissement, l’emploi et d’autres caractéristiques de l’économie d’un
pays sont présentées comme résultant des choix d’un individu, du genre Robinson Crusoe, qui
doit notamment décider combien il produit, consomme et investit, pendant une
certaine période de temps. Ces choix vont alors être comparés à ce qui s’est passé dans
un pays donné (la France, par exemple) concernant le PIB,
la consommation, l’investissement, le
taux de chômage, le niveau des prix, pendant une période similaire. Le « truc »
consiste alors à donner aux paramètres qui caractérisent l’individu fictif – paramètres
censés représenter ses goûts et les techniques dont il dispose – des valeurs telles que ses choix
ressemblent le plus possible aux évolutions observées dans ce pays. Puis on dira qu’on a ainsi
réussi à « simuler », si ce n’est expliquer, ce qui c’est
passé dans ce pays, comme si celui-ci se
comportait comme un unique individu, confronté de fait à des décisions d’ordre purement
technique – ce sont d’ailleurs les techniques mathématiques du contrôle optimal qui sont utilisées
pour caractériser ces décisions. Le « Prix Nobel » que se sont fabriqués les économistes a été
attribué à plusieurs d’entre eux pour leurs « contributions » à ce non-sens. On
est en plein délire, mais comme il se pare de mathématiques compliquées, rares sont
ceux qui s’en rendent compte. Parmi eux, il y a ceux qui ont bâti leur carrière sur lui,
et qui préfèrent rester discrets : personne n’aime scier la branche sur laquelle il est assis !
C’est pourquoi, malheureusement, cette farce dure depuis longtemps, et risque de durer encore
longtemps. Lorsque des étudiants un peu lucides, et ayant une bonne formation mathématique,
ont fait remarquer à ceux qui leur enseignent l’absurdité de leurs modèles, ils
n’ont eu pour réponse que le silence, le mépris ou la remarque péremptoire : « si on ne
fait pas ça, on ne fait rien ! ». Pour qualifier une telle attitude, incompatible avec une
démarche scientifique, il n’est pas faux de parler d’autisme, comme l’ont fait ces
étudiants (voir le site www.autisme-économie.org).
Aucun commentaire:
Enregistrer un commentaire