Description:

Eléments de cours

 

1 - Justifications de l’action économique de l’Etat

A) Quelles justifications à l’action de l’Etat ?

En 1959, l’économiste Richard Musgrave distingue trois grands domaines et justifications de l’intervention de l’Etat : l’’allocation des ressources, la redistribution des revenus et la régulation de l’économie. Même si elle n’est pas exempte de questionnements sur l’efficacité économique, la redistribution des revenus par l’Etat renvoie d’abord à des politiques sociales qui seront abordées au chapitre suivant. La régulation correspond aux actions par lesquelles l’Etat cherche à corriger les déséquilibres macroéconomiques de court terme qui peuvent affecter une économie (cf chapitre précédent). Il s’agit pour l’essentiel des actions visant à soutenir la croissance économique et l’emploi d’une part, et de celles visant à contrôler le niveau d’inflation et les déséquilibres internationaux d’autre part. Enfin, la modification par l’Etat de l’allocation des ressources revient à intervenir sur la façon dont les marchés orientent la production dans tel ou tel secteur ou branche.

Dans une économie de marchés comme le sont la plupart des économies contemporaines, c’est le marché qui réalise grâce au prix une synthèse entre les contraintes de production (coté offre) et la demande. Le prix indique la rareté relative de chaque produit (ou facteur de production), orientant les ressources disponibles (naturelles, en hommes, en capital…) vers les marchés qui en ont le plus besoin. Cette allocation des ressources est de plus efficiente (elle est obtenue au moindre coût) et optimale au sens de Pareto (il n’est plus possible d’améliorer la situation d’un agent sans détériorer celle d’un autre), du moins en théorie et sous des hypothèses fortes (concurrence et information parfaite des agents…) comme l’ont démontré les théoriciens de l’équilibre général (Léon Walras, Kenneth Arrow et Gérard Debreu entre autres).

A priori, on pourrait croire que dans un tel système, toute intervention de l’Etat ne peut être que pertubatrice et sous-optimale puisqu’elle modifie cet équilibre. Et pourtant, les économistes – souvent les mêmes d’ailleurs – vont démontrer que dans certains cas, le marché est défaillant et ne réalise pas une allocation optimale. D’autre part, les marchés ne sont pas parfaits en réalité, ils ne peuvent donc fonctionner parfaitement. Une intervention de l’Etat est alors nécessaire.

Le marché est défaillant en situation d’externalités (positives ou négatives), de rendements croissants et face à des biens collectifs, ainsi qu’en cas d’imperfections de l’information. Cela ne signifie pas forcément que l’Etat doit se substituer au marché, mais qu’une intervention est nécessaire pour corriger ces défaillances.

 

B)  Externalités et rendements croissants

Selon la définition d’Arthur Pigou (1932), une externalité est « l’effet de l’action d’un agent économique sur un autre qui s’exerce en dehors du marché », c’est à dire sans prix. Celui-ci ne peut donc jouer son rôle allocateur traditionnel. Ces externalités peuvent être négatives (la pollution causée par les activités industrielles en est un bon exemple) ou positives (la découverte du Laser a ainsi ouvert tout un champ de recherches à la communauté scientifique). Les externalités n’ont pas de prix , mais elle entraînent bien un gain si l’externalité est positive et un coût si elle est négative. Ils peuvent d’ailleurs être monétaires (on parle alors d’externalités pécuniaires). Mais le coût de l’externalité positive n’est pas subi par celui qui en est à l’origine ; il n’est donc pas incité par le marché à la limiter ; les externalités négatives ont donc tendance à être sur-produites. A l’inverse, le marché ne récompense pas l’agent à l’origine d’une exteralité positive, ce qui risque de les limiter alors qu’elles sont source de gains pour d’autres agents. Une action publique est alors nécessaire.

En cas de rendements croissants, une augmentation de l’activité économique se traduit par une meilleure efficacité et une baisse des coûts : dans ce cas, 2 + 2 ne font plus 4, mais 5 voire plus. C’est le cas notamment dans les secteurs qui supposent d’énormes coûts fixes, par exemple les industries qui doivent bâtir un réseau entier avant de commencer à produire (téléphonie, chemins de fer, électricité…) : plus on produit et mieux le réseau sera amorti, plus les coûts de production seront faibles. Si les rendements sont suffisamment importants, on tend vers un monopole naturel : une seule entreprise sera plus efficace que plusieurs plus petite. Mais qui dit monopole dit rente ; les prix pratiqués sont alors supérieurs aux coût marginal, ce qui signifie que des consommateurs sont écartés du marché par les prix du monopole alors même qu’ils seraient prêts à payer un prix supérieur (ou égal) au coûts de production nécessaires pour les satisfaire. Le marché n’est plus optimal. Les choses se compliquent car du fait des coûts fixes élevés, l’Etat ne peut se contenter d’imposer une tarification au coût marginal, car la production ne serait alors pas rentable. C’est ce qui a – entre autres – pu justifier la nationalisation de grandes entreprises de réseau comme EDF ou la SNCF.

A l’échelle macroéconomique, comme l’a montré Robert Solow les rendements croissants sont la principale source de croissance économique à long terme. Les externalités positives liées aux innovations et à l’amélioration du niveau d’éducation de la popuulation en sont les explications principales (voir chapitre XXX1). Dans un autre domaine, tout aussi majeur, Paul Krugman a montré que l’existence de rendements croissants favorisait la concentration géographique des activités sur certains territoires… et leur raréfaction sur d’autres (voir chap YYY2). Une action stratégique de l’Etat peut alors s’avérer payante : par une politique offensive de recherche-développement, d’éducation et de soutien à certaines activités, l’Etat peut créer les conditions de long terme de la croissance et de la compétitivité d’un pays.

 

C) Les biens collectifs

Les biens collectifs sont aussi appelés biens publics, ce qui peut être ambigü car ils ne sont pas forcément produits par l’Etat ou les pouvoirs publics. Robert Musgrave parle de « biens tutélaires » pour qualifier ceux dont la production concerne l’Etat. La justification de cette intervention peut être économique, mais aussi politique ou sociale. Ainsi, la production par l’Etat du service d’éducation se justifie économiquement par les externalités positives qu’elle génère, mais aussi politiquement (on sait par exemple le rôle qu’a jouté l’école primaire en France sous la 3ème République pour éduquer à la citoyenneté républicaine) et socialement (dans l’après-guerre, l’école a été un vecteur de promotion du mérite et de la mobilité sociale).

Plus prosaïquement, pour Paul Samuelson, un bien collectif est un bien non rival et/ou non exclusif. Un bien est rival si sa consommation par un individu empèche un autre individu de l’obtenir ; il est exclusif (on dit aussi excludable) quand on peut contrôler l’accès à ce bien. Une bicyclette par exemple est un bien rival et exclusif. Mais une automobile (et plus encore un autrobus) est un bien qui reste exclusif (elle appartient en propre à quelqu’un qui en contrôle l’usage) mais qui est partiellement non rival (plusieurs personnes peuvent l’utiliser… si elles vont au même endroit). Un stade ou une salle de cinéma sont des biens non rivaux (dans la limite des places disponibles). Facebook ou l’euro sont des biens de réseaux « super non rivaux » : plus ils sont utilisés par un grand nombre d’individus et plus ils ont de valeur pour chacun. La route qu’empruntent le vélo et l’autobus est à la fois non rivale… tant que le trafic routier n’entraîne pas de bouchon et non exclusive puisque chacun peut l’emprunter… sauf si nous sommes sur une route privée ou une autoroute. Une route privée est un bien privé classique tandis qu’une autoroute est un « bien de club » puisque seules les personnes qui ont payé peuvent l’utiliser.

Il est impossible d’empêcher l’accès à un bien non exclusif et donc de le faire payer ; le marché est donc inefficace puisqu’il ne permet pas de rembourser au producteur le coût de la production du bien collectif qui risque de ne pas être produit. Une solution est de le transformer en bien de club en en contrôlant l’accès, ce qui permet de le faire payer. Cette solution permet de rendre rentable la production du bien collectif, mais elle n’est pas optimale si c’est un bien non rival. En effet, dans ce cas, satisfaire un consommateur supplémentaire ne coûterait rien et pourtant on en réduit l’accès, ce qui exclut des consommateurs potentiels. Le péage à l’entrée d’’une autoroute rend sa construction et son exploitation rentables, mais il empêche aussi certains automobilistes d’y accèder alors que leur utilisation de ce bien collectif ne nuirait en rien à la possibilité pour les autres d’en profiter (tant que le trafic ne devient source d’encombrements).

A l’inverse, un bien rival et non exclusif pose également problème. C’est le cas de certaines ressources naturelles non ou peu renouvelables comme les ressources halieutiques. Le marché risque alors d’aboutir à leur sur-exploitation, puisque chacun peut accèder à cette ressource libre et ce faisant contribuer à la faire disparaître : c’est la « tragédie des biens communs » (G. Hardin). Les deux caractéristiques d’un bien collectif – non rivalité et non exclusivité – sont donc à l’origine de défaillances du marché appelant une intervention publique.

 

D) Les imperfections d’information

Une quatrième source potentielle d’inefficacité ou de sous-optimalité du marché se trouve dans les imperfections d’information. La littérature à ce sujet est énorme, mais on peut la résumer en distinguant les situations où l’information est coûteuse, asymétrique ou incertaine. Le fait que l’information ait un coût signifie que les agents économiques n’ont pas intérêt à rechercher la solution théoriquement optimale pour eux, car il leur coûterait trop cher de la trouver. Ils ont alors intérêt à s’appuyer sur des procédures, des règles et des conventions pour guider leurs actions ; à la suite d’Herbert Simon, on parle de rationalité procédurale pour qualifier ce comportement visant à chercher non la solution la meilleure dans l’absolu, mais la moins mauvaise. Ces règles et procédures peuvent être construites par les acteurs privés (réputation ou image de marque par exemple), mais les pouvoirs publics sont à même de construire des « règles du jeu » économique et social guidant les actions des agents. Les appellations d’origine contrôlée (AOC) ou les diplômes nationaux sont un exemple de telles règles.

L’asymétrie d’information correspond aux situations ou un des côtés est le seul à disposer d’une information nécessaire à l’échange. En prenant en 1970 l’exemple des voitures d’occasion, George Akerlof montre que l’absence d’information fiable de la part des acheteurs sur la qualité réelle des produits entraîne un effet pervers : la crainte d’acheter sans le savoir une mauvaise automobile réduit le prix moyen du marché, ce qui tend à chasser du marché les vendeurs de voitures de bonne qualité et à y maintenir ceux qui en vendent de mauvaises. On parle d’antisélection ou de sélection adverse. Au minimum, le marché disfonctionne, au pire il disparaît. Là aussi, l’intervention de l’Etat n’est pas toujours obligatoire : les agents possédant des produits de bonne qualité seront incités à trouver des moyens de la montrer de manière fiable aux acheteurs potentiels (système de garantie après achat par exemple). Néanmoins, l’Etat peut utilement organiser les marchés de manière à ce que l’information y soit plus fiable : l’obligation de réaliser un contrôle technique avant de vendre une voiture d’occasion en est un exemple.

La troisième situation observée est celle où l’information n’existe pas ou est incertaine. C’est le cas notamment pour l’information sur le futur lorsque celui-ci n’est pas prévisible de manière certaine, situation assez courante. Les travaux pionniers de J.M. Keynes dans sa fameuse Théorie générale (1936) ont montré que les agents forment souvent leurs anticipations du futur sur des bases non fiables, ce qui peut conduire à des situations sous-optimales. Ainsi à la bourse : l’anticipation d’une hausse des cours pousse à l’achat, ce qui fait augmenter les prix… et justifie ex-post l’anticipation initiale (principe des prophéties autoréalisatrices). Rien alors n’empêche les cours d’augmenter de manière exagérée, formant une bulle spéculative qui, lorsqu’elle éclate, entraîne une crise financière et parfois économique. Là aussi, le marché disfonctionne et aboutit « naturellement » à un mauvais prix et à une situation sous-optimale, ce qui nécessite une action publique pour l’éviter et corriger le marché.

 

E) Les déséquilibres macroéconomiques conjoncturels

Une action conjoncturelle de l’Etat est également rendue nécessaire par l’existence de déséquilibres macro-économiques. Le carré magique de Nicholas Kaldor en présente quatre : niveau d’activité économique (croissance du PIB) , du chômage, de l’inflation et solde commercial avec l’extérieur. Croissance et chômage sont liés comme le montre la loi d’Okun : une croissance faible détruit de l’emploi et fait augmenter le chômage. Le lien n’est néanmoins pas mécanique : il faut 1,5% point de croissance du PIB pour que l’emploi net augmente (on parle du contenu de la croissance en emploi ; il dépend du rythme d’augmentation de la productivité, du temps de travail…) ; de même, un emploi créé ne fait pas baisser mécaniquement le chômage car il existe des interactions entre la situation de l’emploi et les comportements d’activité de la population : une reprise de l’emploi peut ramener sur le marché du travail des personnes jusque-là inactives.

Les liens avec l’inflation sont également complexes. Inflation et comptes extérieurs sont liés : une inflation élevée détériore la compétitivité et le solde de la balance commerciale3 ; les entreprises exportant moins, l’activité est déprimée et l’emploi également. Mais d’un autre côté, la courbe de Phillips a montré une liaison inverse entre inflation et chômage : un certain niveau d’inflation est nécessaire à un faible chômage. Dans ce cas, l’inflation est un indicateur de « surchauffe » de l’économie lorsqu’elle se rapproche du plein-emploi.

L’objectif d’une croissance non inflationniste est donc difficile à atteindre. Une action publique est nécessaire. En effet, l’Etat est a priori le seul agent économique suffisamment important pour avoir un impact sur les grandeurs macroéconomiques qui constituent les objectifs de la politique conjoncturelle.

 

2 - Les politiques publiques : déclin ou regain ?

 

A) Trente Glorieuses : l’âge d’or de la politique économique ?

L’après-guerre constitue pour certains l’âge d’or des politiques économiques. La révolution keynésienne donne une justification très forte à l’intervention de l’Etat dans l’économie, tant par des politiques conjoncturelles que structurelles.

Pour les politiques conjoncturelles l’outil budgétaire est privilégié ; en utilisant le mécanisme du multiplicateur que reprend Keynes à Richard Khan, on montre qu’une relance budgétaire (par hausse des dépenses ou baisse des impôts) est susceptible de relancer l’économie, l’emploi et de combattre le chômage ; une politique monétaire expansive peut l’accompagner comme le montre le modèle IS-LM. Conformément à la lecture de l’époque de la courbe de Phillips, lorsque le chômage est faible et l’économie proche du plein-emploi, l’Etat peut être amené à limiter l’inflation, signe de « surchauffe » de l’économie. On parle alors de stop and go pour qualifier ces politiques naviguant entre deux objectifs.

Les politiques structurelles quant à elles utilisent tous les leviers d’action de l’Etat. Dans toute l’Europe, mais plus encore en France (tradition colbertiste oblige), des administrations (pour les services non marchands) et des entreprises publiques (pour les biens et services marchands) produisent directement une grande part des biens collectifs, et même certains biens non collectifs (pensons à l’entreprise Renault, nationalisée après la Seconde Guerre Mondiale). Des vagues importantes de nationalisations ont eu lieu dans la première moitié du 20ème siècle. L’économie reste majoritairement marchande, mais une administration, le Plan donne les grandes orientations de la politique industrielle : reconstruction dans l’immédiat après-guerre, développement industriel ensuite… Une grande partie de l’économie est réglementée : les banques et es institutions financières, très étroitement contrôlées par les autorités ; les prix et les salaires sont également encadrés… L’Etat intervient également dans la répartition des revenus. D’une part une redistribution verticale très importante est opérée par la fiscalité, notamment grâce à l’impôt sur le revenu, créé à la fin de la Première Guerre Mondiale ; d’autre part, un système public de protection sociale est mis en place, unifiant et généralisant les systèmes assurantiels qui existait dans certaines branches.

L’Etat est le régulateur principal d’une économie de marché dont l’entre-deux-guerres – et notamment la crise de 1929 – ont montré qu’elle avait besoin d’être encadrée, contrôlée, régulée. Le paradigme dominant dans l’après-guerre est que l’Etat est l’institution à même de le faire et d’éviter que se reproduisent les catastrophes économiques – mais aussi sociales et politiques – auxquelles ont conduit les années trente. Un nouveau paradigme émerge alors : celui d’un Etat bienveillant, garant de l’intérêt général ; la macroéconomie keynésienne lui donne les justificationis théoriques et les outils politiques pour remplir cette fonction. La croissance économique des trente glorieuses va confirmer la pertinence de ce mode de régulation des grandes économies de marché.

 

B) L’après 30 glorieuses : la crise de la politique économique ?

Les années 1970 vont marquer une rupture importante. La situation économique se dégrade ; la stagflation – ce mélange d’inflation et de chômage – apparaît, contredisant la lecture traditionnelle de la courbe de Phillips. Les politiques conjoncturelles se révèlent inefficaces face à celle-ci. Le chômage continue d’augmenter, et le second choc pétrolier de la fin des années soixante-dix confirme que l’inflation n’est plus un signe de croissance.

Au niveau structurel, la planification et l’action volontariste de l’Etat échouent à faire repartir les économies développées. Une croissance faible et un chômage de masse s’installent durablement en France et dans d’autres pays. Les « trente glorieuses » sont terminées.

L’arrivée au pouvoir de Margaret Thatcher en Grande-Bretagne et de Ronald Reagen aux Etats-Unis symbolisent dans les années quatre-vingt le retour d’une conception beaucoup plus libérale de l’action publique. L’Etat n’est plus perçu comme la solution universelle à tous les problèmes économiques, mais comme étant lui-même le problème ou du moins en faisant partie.

On assiste alors à une période de recul de l’emprise de l’Etat sur l’économie : les privatisations se généralisent – y compris en France, même si c’est avec du retard sur d’autres pays. La planification est abandonnée. La déréglementation est générale : abandon du contrôle des prix et des mouvements de capitaux (1986 en France) ; dérégulation du secteur bancaire (loi bancaire de 1984 en France) ; flexibilisation des marchés du travail (assouplissement des procédures de licenciements, développement des emplois atypiques, individualisation des salaires…).

La politique conjoncturelle est elle aussi profondément modifiée : la priorité est donnée partout à la lutte contre l’inflation. Le chômage étant devenu structurel ne relève plus uniquement, ni même principalement de la politique conjoncturelle. Les budgets qui se sont dégradés dans les années soixante-dix – sous l’influence des stabilisateurs automatiques et des politiques de relance keynésienne – font l’objet de politiques d’assainissement… pas toujours efficaces : la France n’a pas annoncé (et encore moins réalisé) un budget à l’équilibre depuis 1973…

Cette remise en cause s’appuie en partie sur une profonde critique théorique des fondements et de l’efficacité de l’intervention de l’Etat sur l’économie. Dans les années soixante, un nouveau modèle théorique se développe progressivement, porté par des économistes comme Milton Friedman, Finn Kydland, Edward Prescott, Robert Barro, David Gordon… On parle de modèles intertemporels à anticipations rationnelles (ou adaptatives dans sa version initiale) car ils posent l’hypothèse – plausible – que les agents économiques basent leurs actions sur des anticipations de l’évolution future de différentes variables : leurs revenus, l’inflation… Or cette petite modification apparente va modifier profondément l’analyse macroéconomique. Les agents sont par exemple capables d’anticiper les conséquences inflationnistes des politiques de relance keynésienne, ou peuvent considérer qu’elles sont le prélude à une hausse future de la fiscalité (c’est l équivalence ricardienne : la hausse des dépenses publiques entraîne une hausse de la fiscalité future), ce qui les pousse à épargner plutôt qu’à consommer. Les politiques keynésiennes traditionnelles ne seraient dès lors plus efficace.

 

C)  De nouvelles conditions d’exercice de la politique économique

Dans un discours à l’association française de science économique en 2007, l’économiste Jean Pisani-Ferry propose une brillant résumé des avancées de la théorie économique récente et montre qu’elles ne réduisent pas les champs d’intervention de l’Etat, mais qu’elles en modifient les conditions d’exercice et d’efficacité.

La vision traditionnelle de l’action publique (en gros, keynésienne et colbertiste) considérait que l’Etat était un agent omniscient, omnipotent et bienveillant. Omniscient car il était censé avoir une connaissance parfaite de l’économie ; omnipotent car il avait tous les moyens d’action pour la guider et en combattre les défauts ; bienveillant car il était supposé n’agir que pour le bien commun et l’intérêt général.

Les modèles intertemporels avec agents anticipateurs montrent que l’Etat n’est pas omnipotent. Il ne peut se contenter d’appuyer sur des leviers (relance, nationalisations…) pour corriger les grandeurs macroéconomiques (consommation, investissement, emploi…). Ses actions ne seront efficaces que si elles sont capables de modifier les anticipations des agents dans le sens désiré. L’Etat n’est pas non plus omniscient ; l’information est imparfaite, pour lui comme pour les autres agents économiques (voir ci-dessus). L’école dite du Public Choice, ou nouvelle économie politique qu’ont développée Tullock et Buchanan remet également en cause le postulat d’un Etat bienveillant. L’Etat est lui-même composé d’agents (élus, fonctionnaires) qui peuvent rechercher leur intérêt propre, les amenant par exemple à éviter de prendre des mesures impopulaires à l’approche d’une échéance électorale, ou privilégier le statu quo à la réforme, fut-elle souhaitable.

Ces nouveaux modèles peuvent à première vue paraître néo-libéraux au sens où ils critiquent l’efficacité de l’Etat. La question est surtout de savoir s’ils sont pertinents pour analyser les conditions d’efficacité de la politique économique. Au final, ces nouvelles analyses économiques ont ouvert de nouveaux champs à la politique économique et débouché sur de nouveaux modes d’action de l’Etat. L’approche inter-temporelle amène à redéfinir les modes d’action efficaces pour l’Etat ; les modèles à information imparfaite montrent d’abord que ce sont les marchés qui sont imparfaits et qu’ils ont besoin d’une action de l’Etat pour être plus efficaces ; l’école du Public Choice amène à mettre en place des « règles du jeu » permettant de mener des politiques tournées vers l’intérêt général et non particulier (par exemple, comment éviter le « cycle électoral » qu’a montré Nordhaus).

Jean Pisani-Ferry montre que l’ensemble de ces modèles a abouti à trois grandes conseils pour qu’une politique économique soit efficace. Premièrement la délégation de responsabilité – lorsque c’est possible – à une autorité indépendante comme l’Autorité de régulation des télécoms, ou la Banque Centrale Européenne (BCE) dans leur domaine respectif ; deuxièmement la règle flexible, c’est à dire l’affichage clair d’une règle de conduite des autorités politiques , comme par exemple la règle que s’est donnée la BCE de ne pas laisser l’inflation dépasser 2% par an dans la zone euro ou les règles limitant les déficits publics. La règle doit néanmoins rester flexible pour parer aux situations inattendues (exemple des déficits budgétaires suite à la récession de 2009). Troisièmement la mise en place de contrats incitatifs dans le cadre des relations entre les Etats et les entreprises privées chargées d’une délégation de service public.

 

3 -  Les politiques publiques aujourd’hui

 

A)  Des politiques conjoncturelles sous contrainte… de cohérence ?

Deux outils principaux sont à la disposition des autorités : le budget et la monnaie. Pour le budget, ils peuvent agir sur les dépenses publiques ou sur les prélèvements ; pour la monnaie agir sur les quantités (contrôler la quantité de monnaie, la masse monétaire) ou sur le prix de la monnaie, le taux d’intérêt. Dans l’après-guerre « keynésien », le modèle IS-LM permettait théoriquement de conseiller la politique éocnomique en indiquant quand il valait mieux utiliser le budget ou la monnaie, voire les deux ensemble, bref de préciser les conditions du « policy mix ».

La lecture « keynésienne » de l’après-guerre de la courbe de Phillips a généralisé la priorité à la lutte contre l'output gap et à l’utilisation de l’outil budgetaire. La « stagflation » des années 70 a amené à une remise en cause de cette lecture et a favorisé une lecture « friedmanienne » de la courbe de Phillips : la lutte contre le chômage structurel relève de politiques… structurelles. En conséquence, l’absence d’inflation devient l’objectif prioritaire de la politique conjoncturelle (on peut connaître le chômage naturel avec ou sans inflation, ce qui ne laisse guère le choix…) et la politique monétaire l’outil principal de lutte contre l’inflation.

Conformément aux nouvelles conditions d’exercice de la politique économique (voir ci-dessus), la politique monétaire est menée par une autorité indépendante, affichant clairement ses objectifs. C’est le cas par exemple en Europe où la Banque centrale européenne (BCE) mène de manière indépendante une politique anti-inflationniste. Cela ne l’empêche pas néanmoins de soutenir l’économie lorsque le besoin s’en fait sentir, ni de se coordonner avec les gouvernements réunis au sein de « l’eurogroupe », cette instance qui réunit de manière régulière les Ministres de l’économie des pays membres de l’euro.

La politique budgétaire reste un outil pour les gouvernements, mais les deux politiques – budgétaire et monétaire – peuvent être coordonnées ou non selon les périodes. Aux USA, dans les années 1980, le policy mix combine une politique monétaire très restrictive pour combattre l’inflation et une politique budgétaire marquée par des déficits importants (baisses d’impôts et hausse des dépenses militaires) qui soutiennent l’activité économique. Dans les années 1990, sous la présidence de Bill Clinton, c’est un policy mix inverse qui est réalisé aux Etats-Unis : le budget se rapproche de l’équilibre (grâce à une croissance économique très vigoureuse) tandis que la politique monétaire s’assouplit. En cas de crise brutale, les deux outils sont utilisés dans le même sens. C’est le cas par exemple après la crise financière puis économique qui touche l’ensemble des pays développés à la fin des années 2000 ; les déficits budgétaries explosent alors tandis que les taux d’intérêt offerts par la Fed, la banque centrale américaine, se rapprochent de 0.

Le policy mix européen est lui assez original : la construction européenne a délégué à l’Europe la politique monétaire (du moins au sein de la zone euro) et à réserver la politique budgétaire aux Etats (le budget européen est limité à 1% du PIB). Cela aboutit à un policy mix qui peut sembler déséquilibré et comporte le risque d’être non coopératif : la BCE cherchant à freiner l’économie pour éviter l’inflation alors que les gouvernements sont favorables à un soutien budgétaire à la croissance. Mais celui-ci a aussi ses avantages : chaque outil est adapté à un type de choc (la politique monétaire européenne en cas de choc symétrique qui touche toute la zone ; la politique budgétaire nationale en cas de choc asymétrique qui touche un pays de la zone). Chaque outil a également son objectif prioritaire : l’inflation pour la politique monétaire et le soutien à l’activité pour le budget, ce qui répond à la règle dite de Tinbergen qui conseille d’attribuer un unique outil à chaque objectif de politique économique et réciproquement). Le modèle de Mundell-Fleming montre par ailleurs qu’en théorie la politique monétaire est plus efficace en changes flottants et la politique budgétaire en changes fixes. Cela justifie donc le choix européen : la zone euro est en changes flottants par rapport au dollar ou à la livre (la politique monétaire est donc plus efficace) tandis que chaque pays au sein de la zone est en changes fixes vis-à-vis de ses partenaires (la politique budgétaire est plus efficace).

Néanmoins, la mise en place du Pacte de Stabilité et de Croissance (PSC), puis le « Pacte budgétaire » déséquilibre ce policy mix en limitant les marges de manœuvre budgétaires des Etats européens. Dans le cadre du passage à l’euro, les pays européens se sont soumis eux-mêmes à une double règle budgétaire : la limitation du déficit et de la dette publics. L’objectif de ces règles est d’éviter de trop grandes divergences dans les politiques budgétaires menées au sein de la zone euro. Dans sa version initiale, le PSC a pu paradoxalement être pro-cyclique : les Etats étaient contraints de limiter leurs déficits à 3% du PIB, mais sans être incités à aller plus loin en phase de croissance forte. La France a ainsi vu son déficit structurel devenir proche de 3% dans les années 2000. Au final, quand la conjoncture se dégrade et qu’il faudrait pouvoir laisser filer les déficits, les Etats atteignent déjà la limite autorisée et doivent donc mener des politiques de rigueur, aggravant le cycle au lieu de le combattre.

Le Traité sur la Stabilité, la coordination et la gouverance (TSCG) signé en 2012 – on parle aussi de Pacte budgétaire – donne au contraire un objectif d’équilibre du solde structurel et de déficits conjoncturels limités à 3% du PIB. En contrepartie, un mécanisme de solidarité financière est mis en place entre les Etats européens. La nouvelle doxa en matière budgétaire rejoint donc celle relative aux politiques publiques en général : des règles budgétaires sont supposées être le meilleur moyen d’atteindre structurellement des budgets équilibrés. La relance budgétaire se fait mécaniquement par le jeu des stabilisateurs automatiques en cas de récession. En effet, les recettes de l’Etat dépendent largement du niveau d’activité économique, puisque c’est sur cette activité que les pouvoirs publics prélèvent une part pour se financer. Une récession diminue automatiquement ces recettes et creuse donc le déficit budgétaire, ce qui contribue à soutenir l’économie et favorise la relance. Dans la réalité, les Etats conservent la capacité de mener des politiques de relance discrétionnaires, comme en 2009 face à la crise économique la plus grave en France depuis celle de 1929. On parle de régle flexible pour qualifier ce type de politique économique. Dans le domaine monétaire également, l’orthodoxie monétariste n’empêche pas les banques centrales dans les situations de crises exceptionnelles de mettre en place des mesures elles aussi exceptionnelles.

 

B ) Politiques structurelles : plus de politiques, moins d’Etat ?

On observe un double mouvement qui peut sembler paradoxal au niveau des politiques publiques structurelles : jamais la théorie économique n’a fourni autant de justifications à une action de l’Etat, et pourtant les politiques structurelles semblent laisser de plus en plus la part belle aux règles du marché.

Depuis les années 1980, un mouvement assez général de déréglementation et de privatisations est observé en Europe. L’Etat a largement privatisé (totalement ou en partie) des entreprises jusque-là publiques. L’Union Européenne cherche à organiser les règles d’une concurrence effective sur les marchés, y compris ceux sur lesquels étaient présentes des entreprises publiques (chemins de fer, électricité…). Les Etats restent autorisés à posséder des entreprises publiques, mais à condition que celles-ci exercent leur activité dans un contexte concurrentiel, sans aides publiques spécifiques qui leur fourniraient un avantage sur les entreprises privées du même secteur. L’Europe reconnaît néanmoins à certaines activités le statut de services publics. Il s’agit des services d’intérêt général (SIG), « services que les autorités publiques considèrent comme étant d'intérêt général et soumettent à des obligations spécifiques de service public ». Les services d’intérêt économique général « couvrent plus particulièrement certains services fournis par les grandes industries de réseau comme le transport, les services postaux, l'énergie et les communications » (Livre blanc sur les services publics en Europe, 2004). Il existe même une définition du service universel, « service de base offert à tous dans l’ensemble de la communauté européenne à des conditions tarifaires abordables et avec un niveau de qualité standard ». Mais c’est de moins en moins souvent l’Etat qui est directement en charge de fournir ces services. A la différence d’une tradition française, la notion de service public et celle de secteur public sont désormais distinguées.

La délégation de service public se généralise. En Europe, depuis la fin des années 1990, se développent des Partenariat Public-Privé (PPP) qui visent à faire réaliser une mission de service public par une entreprise privée dont l’Etat devient client, payant une prestation ou un loyer à cette entreprise. Lorsque la production du service public reste du domaine de l’Etat, c’est assez souvent à des institutions indépendantes qu’est confiée la régulation de celui-ci. Ainsi en France, l’Autorité de Régulation des Télécommunications ou des activités ferroviaires. Dans le cas des industries de réseau, exemple typique de monopoles naturels du fait des gigantesques infrastructures nécessaires pour produire le service, on a parfois séparé la gestion du réseau lui-même de l’activité commerciale. Ainsi la France dans le domaine ferroviaire a confié en 1997 à Réseau Ferré de France (RFF) la gestion du réseau et à la SNCF l’exploitation commerciale, mettant d’ailleurs progressivement cette dernière en concurrence avec d’autres opérateurs (pour le fret, le transport de voyageurs avec id-TGV par exemple…). Autre exemple avec ERDF, Electricité Réseau Distribution France dans le domaine de l’électricité. Tout se passe comme si on assistait à une inversion de la charge de la preuve : dans l’après-guerre, en France, la norme en matière de service public était la production directe par l’Etat. Aujourd’hui, l’Etat doit faire la preuve que le marché n’est pas à même de fournir efficacement un service pour intervenir.

Et pourtant, jamais les politiques publiques n’ont été aussi nécessaires pour garantir les conditions d’une croissance économique forte et durable. Les nouvelles théories de la croissance et du commerce international (cf ci-dessus) montrent que dans une économie de rendements croissants, un « coup de pouce » initial, une protection temporaire peuvent suffire à ce qu’émergent dans un pays ou une région un secteur dynamique, l’activité et les emplois qui l’accompagnent. L’Etat est le plus à même d’apporter ce coup de pouce et cette protection initiale. Les principaux facteurs de la croissance à long terme pour un pays développé comme la France sont la Recherche-Développement (R&D) d’une part et le capital humain d’autre part. Ce sont les externalités positives qu’ils permettent qui sont à la base de la croissance et de la compétitivité structurelle d’une économie. Du fait de l’importance de ces externalités positives, l’Etat est un acteur central des politiques de R&D ainsi que d’éducation et de formation de la population. Mais là aussi, les modes d’action changent : c’est en donnant plus d’autonomie aux Universites que l’Etat en France cherche à aiguillonner l’innovation, ainsi qu’en incitant les centres de recherche à se spécialiser et à se regrouper pour atteindre une taille critique. Si la recherche fondamentale reste très largement publique puisqu’en amont de la Recherche-Développement et des applications économiques, les partenariats avec les entreprises et les financeurs privés sont encouragés. A la fin des années 2000 en France, un grand emprunt a été lancé par l’Etat pour financer des « centres d’excellence » dans le domaine de la recherche. Des « Pôles de compétitivité » ont été repérés par la DATAR et dotés de financements spécifiques. La logique est de construire des « Clusters » (grappes en anglais) par rapprochement d’activités proches sur un même territoire, sur le modèle de la fameuse Silicon Valley californienne. Les économies d’échelle sont ici également des économies d’agglomération.

L’Europe n’est pas restée en dehors de ces politiques. La « stratégie de Lisbonne » lancée en 2000 visait à faire de l’Europe à l’horizon 2012 « l’économie de la connaissance la plus compétitive et la plus dynamique du monde, capable d’une croissance économique durable accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale ». Le sommet de Göteborg y a ajouté l’objectif de l’environnement » en 2001. Si les résultats ne sont pas tous atteints, Lisbonne a été le symbole d’une volonté politique d’approfondir les politiques structurelles en Europe et de les coordonner à travers des GOPE, les Grandes Orientations de Politique Economique. La Méthode Ouverte de Coordination (MOC) a été généralisée : il s’agit de promouvoir la généralisation dans toute l’Europe des « bonnes pratiques » de certains Etats. La stratégie de Lisbonne est devenue la stratégie Europe 2020, donnant la priorité au développement de l’économie de la connaissance et de l’innovation, à une économie « intelligente, durable et inclusive ».

D’une manière générale, l’action de l’Etat privilégie aujourd’hui une logique d’incitation dont l’objectif est d’orienter les actions des agents privés dans le sens désiré. L’action sur les prix est privilégiée par rapport à celle sur les quantités. Ainsi de la fiscalité écologique, utilisée pour tenter « d’internaliser » les externalités négatives que créent les activités polluantes. C’est le principe de l’écotaxe, du pollueur-payeur, que l’économiste Arthur Pigou fut le premier à théoriser. Dans le même domaine, l’Europe a créé un marché des permis d’émission négociables sur le CO2, principal responsable de l’effet de serre. L’objectif est proche même si l’outil diffère. L’écotaxe cherche à intégrer dans le prix des biens les dégâts environnementaux dont ils sont à l’origine, de façon à réduire la demande sur ces biens et donc la quantité de pollution générée. Le système des permis négociables, inspiré des travaux pionniers de Ronald Coase, vise à créer un marché en accordant à chaque pollueur potentiel des quotas de droits à polluer. Ces quotas étant échangeables sur le marché, les agents sont incités à polluer moins que leur quota pour pouvoir revendre ces « droits à polluer ». Ce système est efficace à condition que les prix soient suffisamment élevés pour inciter à moins polluer. Le problème du marché européen est que des quotas trop généreux ont amené les prix de la tonne de CO2 à des niveaux très faibles : sous la barre symbolique des 5 euros en 2013 alors que les économistes que le « juste prix » devrait être entre 30 et 50 euros la tonne pour atteindre les objectifs affichés de limitation de l’effet de serre, source du réchauffement climatique. Dans ce domaine encore, plutôt que d’un recul de l’Etat, c’est d’une redéfinition de ses modes d’action qu’il faut parler. L’Etat est plus nécessaire que jamais pour les économies occidentales, mais un Etat modeste qui oriente plus qu’il ne dirige l’économie.

 

C)  L’ouverture internationale crée de nouvelles contraintes

L’ouverture internationale est source de contraintes nouvelles pour les politiques économiques. Premièrement parce que l’action publique, longtemps définie à l’échelle nationale, se trouve parfois rendue moins efficace sur une économie ouverte. En effet, l’ouverture internationale réduit mécaniquement l’efficacité des politiques de relance keynésienne. Une partie de la demande intérieure relancée par ces politiques est satisfaite par des produits importés, ce qui constitue une « fuite » dans le mécanisme multiplicateur attendu. La fermeture serait une solution plus coûteuse encore, car elle entraînerait des mesures similaires des autres pays, réduisant la demande mondiale adressée aux entreprises locales. Les conséquences des politiques protectionnistes suite à la crise de 1929 en ont été une illustration. Mais ignorer cette contrainte extérieure serait tout aussi dangereux. La relance opérée par le gouvernement Mauroy en France en 1981 est en ce domaine exemplaire. En ayant relancé à contre emploi et à contre-courant de la plupart de ses partenaires, la France n’a pas connu la relance attendue, mais a subi une dégradation de ses comptes extérieurs et de la valeur de sa monnaie. Une relance économique est possible en économie ouverte, mais elle doit être coordonnée pour être efficace.

Dans le domaine des politiques structurelles également, la coordination est nécessaire. La mondialisation des économies change l’échelle à laquelle les problémes économiques, sociaux et environnementaux doivent être traités. On parle de Biens publics mondiaux (BPM) pour qualifier les biens publics générateurs d’externalités (positives ou négatives) qui sont de taille internationale, voire mondiale. L’environnement, la démocratie, l’éducation, la coopération internationale sont des exemples classiques de tels biens publics mondiaux. Le risque de comportement de « free rider » (passager clandestin) est ici renforcé par la dimension internationale de ces problèmes. Charles Kindleberger définit les BPM comme « l'ensemble des biens accessibles à tous les États qui n'ont pas nécessairement un intérêt individuel à les produire ».

La question du réchauffement climatique en fournit une illustration très claire. Le consensus est quasiment réalisé chez les scientifiques quant à la responsabilité des activités humaines, et spécifiquement industrielles dans l’augmentation de gaz à effet de serre. Le rapport Stern en 2006 avait estimé le coût économique du réchauffement climatique à l’horizon 2050. Selon les hypothèses, il estimait ce coût entre 5% et 20% du PIB mondial alors que les investissements nécessaires aujourd’hui pour éviter ce réchauffement représentaient 1% du PIB mondial. Et pourtant, faute d’une autorité internationale capable d’imposer ces investissements, la lutte contre les émissions de gaz à effet de serre reste très en deça des objectifs. Les différents pays peinent à se mettre d’accord pour s’imposer ces efforts. Le problème est bien ici celui de la gouvernance. Cette expression renvoie aux situations dans lesquels il n’existe pas une seule autorité politique, obligeant à rechercher des formes de coopération entre les différents décideurs. L’Europe a beaucoup avancé est en cette matière, mettant en place des modes de gouvernance communs dans de nombreux domaines (emploi, environnement, éducation…). La gouvernance constitue aujourd’hui un des enjeux majeurs que la mondialisation pose aux politiques publiques.

1 Pb : rien sur les théories de la croissance endogène dans le chapitre sur la croissance éco ( !)

2 Idem, pas de réf aux nouvelles th du CI dans le chapitre ; une référence aux politiques comm stratégiques.

3 Les choses sont en réalité plus complexes, notamment du fait des variations de taux de change.

Étude de l’institut de l’entreprise

En cours de construction

Entretiens enseignants entreprises

2016

Entretiens Enseignants-Entreprises 2016

Partage