samedi 27 juin 2009

Deregulation is good






Guy Sorman, Économiste
26 juin 2009



In the current economic crisis, it is vital to remember that deregulation is a positive force and a democratic one. The deregulation revolution got started in the late 1970s during President Jimmy Carter’s term, when it became clear that private and public monopolies were stifling economic growth and rationing goods and services. Economists like Alfred Kahn at Cornell University, and George Stigler and Milton Friedman at the University of Chicago, made the case for how deregulation could bring the U.S. economy out of recession and better satisfy consumer needs. Under President Ronald Reagan, deregulation accelerated in the U.S., and other free-market nations followed suit – first in Europe, then in once heavily bureaucratized economies like India, China, and Brazil.

Deregulation has provided consumers with access to cheaper and more innovative services like cell phones, the Internet, and budget airfares. It has thus played a decisive role in the unprecedented global economic growth of the last 25 years. Financial deregulation – namely securitization, now much maligned – has also played a positive role. Thanks to the resulting division of risks, more public and private investments have been made in and out the United States. Without securitization, innovative techniques and emerging-market economies would not have obtained necessary capital.

The current consensus among liberal politicians is that deregulation went too far, and they blame it for the economic woes of the last year. Their argument is not persuasive, however. For one thing, full deregulation was never attempted. State bureaucracies remain intrusive and very much in control. Besides, many financial regulations made the crisis worse, forcing banks to sell their assets, which worsened the stock-market downturn. Regulators are usually slower to spot problems in the market than financiers. Bernie Madoff escaped scrutiny not because regulation was inadequate but because regulators saw no signs of trouble.

It’s far from proven that financial deregulation is the cause of the recession, and we would do well to remember that economists still debate the events that led to the Great Depression of the 1930s. It seems presumptuous, then, to declare with such confidence the causes of our current difficulties.

Deregulation is a convenient scapegoat for politicians, who would rather have an easy target for blame than a scientific explanation. But if we were to underline one among many causes of the crisis, the Federal Reserve’s loose monetary policy since 2001 would be a much better candidate – at least from an economic perspective, if not a political one. The return to a regulated economy, mostly in the finance sector, is thus more of a political statement than an economic solution: increased regulation means a transfer of power from private entrepreneurs to the state bureaucracy.

This does not imply that laissez-faire should always prevail, however. Free markets cannot exist without the strict rule of law. The law, however, should distinguish between regulation that gives power only to regulators and stifles market forces, and regulation that brings more power to consumers through increased transparency. The Obama administration’s regulatory proposals, when they foster such transparency – as in the elimination of fine print on mortgages and credit-card agreements – should be applauded by free-market advocates.

Eventually, economic growth is always a trade-off between the state and the market: the market is efficient, but sometimes dangerous. The role of government is to make citizens aware of the benefits and hazards of the market. Armed with such information, people can then make decisions for themselves, without the tutelage of a nanny state.

jeudi 25 juin 2009

En avoir pour son argent (2)



Nathalie Elgrably-Levy
Le journal de Montréal, p.29
25 juin 2009



J’ai consacré ma chronique de la semaine dernière à l’assouplissement quantitatif. Nous avons vu que par ce terme pseudo-scientifique, il faut simplement entendre que la Banque Centrale injecte de la monnaie dans l’économie sous forme de billets ou de virements électroniques.

Or, quand on augmente la quantité de monnaie en circulation, l’argent perd de sa valeur et il faut offrir une quantité de monnaie toujours plus grande pour se procurer les biens convoités. L’injection de liquidités occasionne une dévaluation de la monnaie et est donc responsable de la hausse généralisée du niveau des prix, communément appelée inflation.

Néanmoins, Ben Bernanke, le président de la Fed, a injecté à plusieurs reprises des sommes importantes. Quant à Mark Carney, le gouverneur de notre Banque Centrale, il a récemment déclaré qu’il envisage l’assouplissement quantitatif. Selon eux, et selon la plupart des économistes de l’école keynésienne, un taux d’inflation modéré serait nécessaire au bon fonctionnement de l’économie. La Banque du Canada s’évertue d’ailleurs à maintenir le taux d’inflation dans une fourchette de 1% à 3%.

Quel que soit son taux, l’inflation fait des gagnants et des perdants. Les gagnants sont ceux qui disposent en premier du nouvel argent, car ils peuvent le dépenser avant qu’il ne se déprécie. Ainsi, l’État qui monétise son déficit, ses fournisseurs et les bénéficiaires des plans de relance s’enrichissent. Ils ont les moyens de dépenser davantage, mais il n’y a pas nécessairement une hausse de la production. C’est alors que les prix se mettent à augmenter. Et plus on injecte des liquidités, plus les prix grimpent.

La classe moyenne, les épargnants, les démunis, et ceux qui vivent de revenus fixes sont les grands perdants. Comme ils n’entretiennent pas une relation privilégiée avec l’État ou la Banque Centrale, ils ne profitent pas de l’injection de monnaie. Pis encore : ils s’appauvrissent, car ils se trouvent à posséder des billets dont le pouvoir d’achat ne cesse de diminuer. Par exemple, même si un taux d’inflation annuel de 2,5% paraît insignifiant, il occasionne une réduction de 50% du pouvoir d’achat en moins de trente ans. L’inflation est donc une taxe cachée qui redistribue la richesse des plus pauvres vers l’État et ses partenaires. C’est un vol!

On prétend que l’inflation est nécessaire et bénéfique à la croissance économique. Pourtant, entre 1800 et 1913, il n’y eut pratiquement aucune inflation aux États-Unis. Non seulement les prix étaient-ils stables pour l’essentiel de la période, mais ils avaient même diminué vers la fin du 19e siècle. Malgré tout, l’Oncle Sam s’est industrialisé et a été prospère.

Alors pourquoi provoquer de l’inflation? Tout simplement parce qu’elle bénéfice fortement à celui qui est endetté, car elle réduit la valeur réelle de sa créance.

Et quel pays a vu sa dette doubler au cours de la dernière année, et la doublera encore au cours de la prochaine décennie? Qui est contraint d’emprunter 1300 milliards $ cette année uniquement? Les États-Unis!

Dans les faits, l’inflation nuit à ceux qui travaillent dur pour leur argent, et permet à des gouvernements qui se sont endettés de manière suicidaire d’alléger subtilement le fardeau de leurs engagements. Manifestement, l’administration Obama privilégie une vision à court terme en tentant de régler ses problèmes financiers en profitant des politiques inflationnistes de la Fed, même si cela doit appauvrir des millions d’Américains. Est-il donc vraiment nécessaire que notre Banque Centrale imite les initiatives lamentables de nos voisins du Sud?

Nathalie Elgrably-Lévy est économiste senior à l'Institut économique de Montréal.

* Cette chronique a aussi été publiée dans Le Journal de Québec.

samedi 20 juin 2009

Régulation Bancaire : histoire d'un échec programmé



par Sylvère Tajan, Institut Hayek
9 juin 2009

L'on parle de plus en plus de l'échec de la régulation. C'est même devenu l'un des leitmotivs les plus courants pour expliquer la crise quand on veut y voir à tout prix l'aboutissement d'une dérive libérale. Les partisans de cette "thèse" ont effectivement raison sur leur conclusion : la crise démontre bien un échec patent de la régulation. Mais pas dans le sens qu'ils voudraient bien y voir. Si échec de la régulation il y a, ce n'est pas l'échec de telle ou telle régulation. Ce n'est pas non plus l'échec du trop peu ou du trop de régulation. Ce n'est pas un problème de réglage. Non. Si échec de la régulation il y a, c'est l'échec du principe même de la régulation. Et pour bien le comprendre, encore faut il se poser la question des origines, des causes profondes de la régulation bancaire et monétaire : une régulation née non pas pour encadrer des excès supposés du marché, ou des défaillances intrinsèques du libéralisme économique, mais créée par nécessité, suite à l'intrusion de l'Etat dans le marché monétaire et bancaire. Le but fondamental de la régulation bancaire n'est pas d'empêcher l'on ne sait quel dérive réelle ou fantasmée d'un marché livré à lui même. Le but fondamental de la régulation étatique est de casser l'auto-régulation du marché, car cette dernière, de par la responsabilité qu'elle impose aux acteurs, contraint la prise de risque, l'effet de levier, et la création immodérée de crédit et de monnaie.


Un système bancaire à réserve fractionnaire

Le système bancaire mondial actuel est un système bancaire à réserve fractionnaire. Le sujet de cet article n'est pas de justifier ou dénoncer ce système particulier de fonctionnement des institutions bancaires. Après tout, dans un système bancaire vraiment libre (c'est-à-dire bien loin de celui dans lequel nous vivons), rien n'interdirait une banque de choisir ce mode de fonctionnement, si tant est qu'elle en assume les risques, et ses clients avec elle. Mais encore une fois, là n'est pas le sujet.

Le principe du système bancaire à réserve fractionnaire est qu'une banque reçoit de ses clients de l'argent en dépôt, mais qu'elle ne conserve en réserve qu'une partie de cette somme, le reste pouvant être prêté contre intérêt. Comme chaque client est toujours en droit de réclamer à tout moment la restitution de ses dépôts bancaires, mais que seule une fraction de ces dépôts est effectivement disponible dans les coffres de la banque, cette dernière est exposée, dans le cas où un nombre trop élevés de clients voudrait récupérer ses fonds simultanément, à se retrouver à court de liquidité. Si le phénomène ne concerne qu'une seule banque, et dans la mesure où les prêts qu'elle a consentis avec une partie des dépôts sont solides (prêts non frauduleux, à des emprunteurs solvables), une banque à court de liquidité de manière passagère peut néanmoins escompter emprunter à son tour (à d'autres banques par exemple), l'argent nécessaire aux retraits imprévus de ses propres clients, en apportant en garantie les créances qu'elle possède.

Le processus reste néanmoins un équilibre plus ou moins fragile, et le moindre accroc tel qu'une insuffisance de fonds propres, ou l'apparition de créances douteuses dans le bilan de la banque, peut engendrer une perte de confiance à la fois des clients et des prêteurs de liquidité potentiels : la banque est alors victime d'un Bank Run, une panique bancaire dans laquelle tous les clients se précipitent simultanément pour récupérer leurs dépôts, dans le même temps qu'il devient difficile voire impossible d'emprunter plus de liquidités sur les marchés inter-bancaires pour rembourser les dépôts. C'est un risque intrinsèque inhérent au système de réserve fractionnaire. A l'inverse, "l'avantage" du système est de stimuler le crédit puisque l'épargne n'est plus la seule source de crédit. C'est un avantage qui séduit notamment les banquiers (d'avantage de crédit, c'est d'avantage d'intérêts et donc d'avantage de revenus), et les gouvernements (d'avantage de crédit, c'est plus de guerres, d'argent à distribuer aux électeurs qui les soutiennent, etc.).


L'effet de levier bancaire : le multiplicateur monétaire

Le principe même du système de réserve fractionnaire démultiplie le crédit disponible bien au-delà de la somme des dépôts encaissés : en effet, quand une banque reçoit un dépôt de 100 Euros, si on décide par exemple que la fraction du dépôt qu'elle doit conserver dans ses coffres par sécurité est de 20%, elle est susceptible de prêter 80% de la somme nouvellement déposée, soit 80 Euros. Elle prête donc ces 80 Euros à un autre client, qui achète immédiatement pour 80 Euros de biens divers et variés. Imaginons maintenant pour simplifier (mais le résultat serait le même autrement) que le vendeur de ces biens soit également client de la même banque : il va venir déposer ces 80 Euros nouvellement gagnés, dans sa banque. La banque reçoit alors un nouveau dépôt de 80 Euros, dont elle va conserver en réserve 20 % (soit 16 Euros). Elle va également pouvoir prêter 80% de ce nouveau dépôt selon sa politique, soit 64 Euros. Qui finiront également par être déposés et ainsi de suite. Au bout d'un certain nombre d'itérations, la banque se retrouvera avec un total de dépôts conservés en réserve qui va tendre mathématiquement vers 100 Euros. Elle aura par contre dans ses comptes pour 500 Euros de dépôts (pour un nombre infini d'itérations - dans les faits, un peu moins). Elle détiendra également pour 400 Euros de créances envers des tiers ce qui équilibre son bilan (100 Euros de réserves + 400 Euros de créances contre 500 Euros de dépôts). Les 400 Euros de différence entre les 100 Euros initialement déposés et les 500 Euros finalement en dépôt à l'issu du cycle de prêts, sont de l'argent créé par la banque, de la monnaie de crédit ou monnaie scripturale.


Dans le système de réserve fractionnaire dans lequel nous vivons, la monnaie est une dette. Elle est créée par les banques commerciales. On voit bien dans le mécanisme décrit ci-dessus, que le choix du pourcentage des dépôts qui seront conservés en réserve influe directement sur la quantité de crédit, donc de monnaie qui sera insufflée dans le système. Si à la place des 20% de réserve de notre exemple, on avait choisi de n'en conserver que 10%, on aurait terminé avec non pas 500 Euros mais 1000 Euros de dépôts. On appelle ainsi multiplicateur monétaire la variable par laquelle est potentiellement multiplié tout dépôt initial. Il est égal à 1 divisé par le ratio de réserve choisi : dans notre exemple, avec un ratio de réserve de 20% (soit 0.20), on obtient 1 / 0.2 = 5 (le multiplicateur monétaire est de 5, et en effet, la masse monétaire initiale de 100 Euros va être multipliée par 5 pour atteindre un total de 500 Euros). Avec un ratio de réserve à 10%, le multiplicateur est à 10.


Naissance de la régulation : socialisation du risque et aléa moral

Dans un système de réserve fractionnaire peu régulé, le risque majeur constitué par la menace d'un Bank Run est un élément d'équilibre qui limite de trop grandes dérives : chaque banque, pour conserver la confiance à la fois de ses déposants et des marchés financiers, se doit de conserver un certain niveau de réserves (donc un ratio de réserve suffisant), des fonds propres en quantité adéquate, et de pratiquer une politique de prêt à risque mesuré. Le facteur de risque intrinsèque limite l'effet de levier. En effet, la banque étant contrainte de conserver un ratio de réserve suffisant, le multiplicateur monétaire reste lui même limité. Ce qui ne fait pas l'affaire des banquiers qui préféreraient augmenter la part d'argent prêté pour augmenter d'autant leurs revenus. Ni des gouvernements qui ont besoin du crédit pour financer leurs dérives. Il n'en fallait pas plus pour précipiter l'alliance de la banque et des gouvernements, dans le but de limiter le risque intrinsèque de Bank Run, étape indispensable pour baisser l'exigence de réserve et libérer la possibilité de création de crédit. C'est en partie pour cela que sont nées les Banques Centrales. L'idée était d'organiser la solvabilité des banques en cas de retraits simultanés d'un grand nombre de clients d'un établissement, en mettant en place une mutualisation des réserves de dépôt au sein d'une banque centrale : chaque banque pourrait ainsi puiser dans les réserves cumulées de l'ensemble des banques participantes, pour faire face à un éventuel afflux subit de retraits.

Mais ce faisant, le risque était de voir chaque banque tirer la couverture à soi en utilisant le pot commun pour se permettre un effet de levier plus important que les banques voisines : en réduisant le risque de chacun, on créait ainsi un aléa moral (moral hazard en anglais), c'est à dire la tentation voire l'incitation à prendre plus de risque au détriment de la collectivité. Les assurances connaissent bien ce type de problème. Si vous assurez la voiture d'un individu contre tout dégât qu'il pourra occasionner lui-même, vous constatez immédiatement un relâchement de l'attention de cette personne et une augmentation proportionnelle des dégâts subits : pour les assurances, le moyen de lutter contre cet aléa moral est le système des franchises (en assumant une partie du coût, par exemple la première tranche jusqu'à concurrence d'un certain montant, le conducteur conservera une conduite prudente). Dans le cas des banques, la contrepartie de la mutualisation des réserves est nécessairement l'introduction de règles de conduites communes : un ratio de réserve imposé, et pourquoi pas un montant minimal de fond propres par rapport aux dettes contractées, voire des règles concernant la qualité et le contrôle des prêts consentis avec la part des dépôts non conservés en réserve.

La régulation bancaire est ainsi née de l'intervention première de l'Etat, de sa volonté de limiter le risque fondamental couru par une banque dans un système de réserve fractionnaire : celui du Bank Run. Paradoxalement, la régulation bancaire est née non de la volonté de poser des limites ou des contraintes à une système financier et monétaire de libre marché jugé trop anarchique, mais bien de la volonté de l'Etat de permettre de plus grands effets de levier, une plus grande production de crédits, une plus grande prise de risque que le seul marché aurait naturellement toléré, et ce dans un environnement donnant l'illusion d'une plus grande sécurité par une mutualisation des risques, une socialisation programmée des pertes.


La fuite en avant vers une crise programmée

Toute l'histoire du système bancaire et monétaire est ensuite une fuite en avant pour affranchir les banques du risque fondamental qui les empêche d'augmenter leur effet de levier : abandon progressif de l'étalon or, incitation à l'assouplissement des critères de solvabilité des emprunteurs en faisant garantir les prêts par des institutions para étatiques ou par l'Etat lui même, mise en place de fonds de garantie des dépôts (toujours sous-dotés par rapport aux risques mais avec la caution implicite ou explicite de l'Etat) et quand cela ne suffit pas, la garantie implicite d'une nationalisation, c'est-à-dire de socialiser les pertes. A chaque étape, l'aléa moral augmente. L'incitation à courir plus de risque en augmentant l'effet de levier, en réduisant ses fonds propres ou en négligeant la qualité des prêts consentis s'accroit. On aurait alors pu penser que la pression régulatrice allait s'intensifier pour prévenir cette incitation à la prise de risque.

Bien au contraire, les critères se sont assouplis au fil du temps, et pour cause : la motivation première derrière cette bataille acharnée pour faire disparaître le risque inhérent au système de crédit bancaire est justement d'abattre le principal frein à la multiplication du crédit. Et quand je dis "faire disparaitre le risque", je devrais plutôt dire "le déplacer", car le risque, loin d'être supprimé, est juste déplacé des institutions bancaires à la collectivité nationale. Le rôle de la régulation dans ce contexte de socialisation du risque bancaire, est de limiter le risque de cataclysme systémique, tout en laissant suffisamment de place, le maximum de place, pour une production maximale de crédit et de monnaie par des banques débridées, se sentant faussement dédouanées du risque naturel que fait peser le marché libre sur elles dans un système libéral où la responsabilité est le premier des corollaires de la liberté et de la propriété.

Car si la régulation avait pour fonction et résultat de contraindre l'exercice du crédit bancaire à des limites raisonnables pour éviter tout débordement, la croissance continue de l'arsenal réglementaire devrait logiquement avoir accouché au cours des ans de contraintes également croissantes. Il n'en est rien, bien au contraire : avant la création de la FED aux Etats-Unis, le ratio de réserve était de 25%. A la promulgation du Federal Reserve Act de 1913, les nouveaux ratios allaient de 12 à 18% en fonction du type d'institution bancaire concerné. Aujourd'hui il est de 10%. Aux Etats-Unis. A titre de comparaison, le ratio de réserve dans la zone Euro est de ... 2%. On pourrait faire les mêmes constatations concernant les ratios d'endettement sur fonds propres, fonds propres dont les gouvernements ont régulièrement dénaturé la définition sous la pression des banques, tant la nécessité de poursuivre la fuite en avant du crédit prime sur l'impératif de conserver un semblant de solidité financière au système bancaire.

Il n'est alors pas difficile de comprendre l'enchaînement de long terme qui va conduire à des crises majeures comme celle que nous connaissons aujourd'hui. L'augmentation artificielle de la masse monétaire liée au gonflement des bulles de crédit conduit mécaniquement à des périodes de sur-croissance : de la croissance achetée à crédit qui débouchera immanquablement sur des récessions aussi sûrement qu'il faudra payer la note des crédits, et du déplacement temporel de la consommation qu'ils occasionnent. Ces récessions pourraient jouer leur rôle en dégonflant les bulles, en réinitialisant les économies : c'est sans compter sur nos gouvernements qui non content d'avoir provoqué ces récessions, se refusent à en assumer les nécessaires conséquences en terme de décroissance, de chômage, et d'ajustement des facteurs de production (fermetures d'usines). Une nouvelle couche de régulation est alors progressivement mise en oeuvre pour limiter au maximum ces ajustements (politiques de relance, limitation des licenciements, sauvetage des industries, protectionnisme ...). Cette régulation empêche la réinitialisation complète du système lors des récessions.

Au contraire, la machine est relancée avant que les bulles de crédits ne soient entièrement résorbées, et les nouvelles bulles se construisent sur les plaies parfois encore vivaces des précédentes. Au fils des ans, l'accumulation continuelle de cette inflation jamais résorbée, de cette dette jamais remboursée, conduit irrémédiablement jusqu'au point de rupture. Cette accumulation progressive suivant une courbe exponentielle, elle est rarement détectée dans ses manifestations dès l'origine, et laisse à penser que seuls les excès des toutes dernières bulles sont en cause. La réalité est que les fondements sont beaucoup plus anciens, et que les dérives les plus récentes et les plus voyantes ne sont que l'aboutissement de choix fondamentaux faits il y a plus d'un siècle et progressivement ancrés dans nos structures économiques.

L'accumulation de la dette, et notamment des dettes publiques, l'inflation monétaire, la croissance sans fin du crédit sont des facettes différentes d'un seul et même phénomène. Ce n'est pas l'absence ou la faiblesse de la régulation qui a permis ces dérives : la régulation bancaire et monétaire a été créée dans le but explicite de favoriser ces dérives. Si échec de la régulation étatique il y a, c'est bien celui-ci : c’est l'échec de la promesse absurde que cette régulation là saurait permettre la croissance indéfinie du crédit, de la dette et de la masse monétaire de manière contrôlée.

-----------------------------
© Silvère Tajan & Institut Hayek, Juin 2009

En avoir pour son argent (1)








Nathalie Elgrably-Levy, Économiste
Le Journal de Montréal, p. 25
18 juin 2009

Crise financière oblige, cela fait plusieurs mois que les médias nous bombardent de termes jusqu'ici méconnus: papier commercial adossé à des actifs; titrisation; subprime; dérivé de crédit; actif toxique; etc.

Récemment, une autre expression spécifique aux banques centrales a fait son entrée dans notre vocabulaire usuel. Il s'agit de l'«assouplissement quantitatif» en vertu duquel une Banque centrale achète des obligations gouvernementales et/ou corporatives afin d'injecter de l'argent neuf sur les marchés financiers. En termes simples, ceci signifie qu'elle fait fonctionner la planche à billets. La Réserve fédérale, la Banque d'Angleterre et la Banque centrale européenne sont d'ailleurs bien familières avec ce genre de mesure. Au Canada, M. Mark Carney, gouverneur de la Banque centrale, a récemment laissé entendre qu'il envisage également le recours à l'impression de monnaie.

Évidemment, on nous dit que l'assouplissement quantitatif permet de lutter contre la crise économique et de stimuler la croissance. Si c'était réellement le cas, le Zimbabwe, qui fait intensivement fonctionner sa planche à billets, devrait être aujourd'hui le pays le plus riche de la planète. Or, il vit un cataclysme économique sans précédent. Selon les dernières statistiques, ce pays enregistre un taux d'inflation de 231 000 000%, tandis que la base de production est anéantie!

Ce résultat découle d'une confusion entre l'argent et la richesse. On s'imagine qu'il suffit de mettre davantage de monnaie entre les mains des consommateurs pour que le pays prospère. C'est une erreur! La richesse, c'est notre capacité à produire des biens et services. La monnaie n'est qu'un outil pour faciliter les échanges. On est riche, non pas parce qu'on possède beaucoup d'argent, mais bien parce qu'on produit quelque chose que la société valorise.

L'assouplissement quantitatif n'étant pas synonyme de production, il ne contribue en rien à la prospérité. Par contre, comme il augmente la quantité de monnaie en circulation, il réduit la valeur de l'argent. Certes, les partisans de cette mesure prétendent que si les gens dépensent davantage, la production augmente. Ce n'est pas si simple, car nous sommes limités par notre capacité de production.

Ainsi, même si la Banque centrale versait un million de dollars dans le compte bancaire de chacun d'entre nous, nous ne serions pas plus riches. Nous aurions temporairement une illusion de richesse, mais lorsque les magasins seront incapables de répondre à la demande des millions de consommateurs frénétiques, les prix augmenteront. Au bout du compte, notre portefeuille sera plus épais, mais nous ne consommerons pas plus qu'avant. Les Zimbabwéens ont tous des valises pleines de billets de 100 milliards, mais c'est à peine suffisant pour acheter quelques produits d'épicerie! Ce qui importe, ce n'est ni la quantité de billets dont nous disposons ni leur valeur nominale, mais bien le pouvoir d'achat de chacun d'eux.

En conséquence, si l'assouplissement quantitatif ne nous rend pas plus productifs, il est en revanche annonciateur d'inflation. En effet, plus on injecte de liquidités, plus les prix augmentent. L'inflation n'est donc pas un phénomène naturel face auquel nous sommes impuissants. Milton Friedman, Prix Nobel d'économie, affirmait que «l'inflation est toujours et partout un phénomène monétaire», ce qui signifie que c'est la Banque centrale, et elle seule, qui est responsable des augmentations soutenues du niveau moyen des prix.

Mais quelles sont les conséquences de l'inflation sur nos vies? Une inflation faible, comme celle que préconise Mark Carney, n'est-elle pas souhaitable pour le bon fonctionnement de l'économie? C'est ce qu'on tente de nous faire croire, mais est-ce réellement le cas? C'est ce que nous examinerons la semaine prochaine.

Nathalie Elgrably-Lévy est économiste senior à l'Institut économique de Montréal.

* Cette chronique a aussi été publiée dans Le Journal de Québec.

jeudi 4 juin 2009

Le roi déchu



Nathalie Elgrably-Lévy
Le Journal de Montréal, p. 29
04 juin 2009



Albert Camus nous enseignait que «Mal nommer les choses, c’est ajouter aux malheurs du monde». On pourrait également dire que c’est une pratique sournoise visant à détourner l’attention, voire même à occulter la réalité. Le cas de GM en est la preuve.

Le constructeur a demandé au tribunal sa mise sous chapitre 11. Théoriquement, cette mesure devrait lui permettre de rester en possession de tous ses actifs, et de négocier les demandes des créanciers, les échéances de ses paiements et le montant de sa dette, tout cela afin d’assurer le retour à la rentabilité. Or, dans le cas de GM, son plan de restructuration donnera naissance à une nouvelle entité détenue à 72% par les gouvernements américain et canadien. Ne serait-il donc pas plus approprié de parler de nationalisation? À moins, bien entendu, qu’on évite d’employer le mot juste pour camoufler l’agenda socialiste de la nouvelle administration!

Évidemment, Washington a promis de rester à l’écart des décisions de gestion. Mais on peut raisonnablement douter qu’il respectera son engagement. L’administration Obama a déjà renvoyé le PDG de GM et a fixé un objectif de vente de 10 millions de voitures annuellement. Récemment, elle s’est réservé le droit de voter sur les questions de gouvernance qu’elle juge fondamentales, mais sans jamais les définir précisément. On peut donc s’attendre à ce qu’elle impose certains choix, comme la construction de voitures propres qui répondront à son souci écologique, ou l’interdiction de construire des véhicules ailleurs qu’aux États-Unis.

Mais indépendamment de l’ingérence de Washington, il faut s’interroger sur l’utilité de la nationalisation.

Tout d’abord, vu les montants investis, il faudrait que la nouvelle entité vende 14 millions de véhicules annuellement pour que l’État commence à récupérer son argent. Or, on voit mal pourquoi la nationalisation inciterait les Américains à accorder leur préférence aux véhicules GM alors qu’ils les boudent depuis longtemps. Le fait que l’entreprise appartienne à l’État serait-il devenu un argument de vente?

Ensuite, il faut se demander comment cette nationalisation affectera la capacité de financement de Ford. Comme Washington possède 60% de GM, il pourrait être tenté d’adopter des mesures ou de voter des lois qui avantageraient la nouvelle société d’État au détriment de ses rivales, créant ainsi une concurrence déloyale contre laquelle personne n’aura de recours. Le nouvel actionnariat public place tous les constructeurs en position de faiblesse par rapport à GM. Dans ce contexte, quel investisseur serait désormais disposé à prêter à Ford? Or, si ce dernier est incapable de trouver les fonds nécessaires à l’achat de capital physique ou de nouvelles technologies, il deviendra moins compétitif et pourrait à son tour recourir au chapitre 11. En voulant «sauver» GM, l’administration Obama est donc peut-être en train de fragiliser davantage les piliers d’une industrie déjà en crise.

Finalement, puisque GM et Chrysler bénéficient des largesses de l’État, ne serait-il pas logique que Ford tente également d’obtenir des fonds publics? Pouvons-nous vraiment espérer qu’elle s’évertue à assainir son bilan si le contribuable peut payer la note à sa place?

Certains diront que cette nationalisation vaut la peine au regard des emplois qu’elle permet de préserver. Or, un calcul rapide montre que, jusqu’à maintenant, chaque emploi maintenu chez GM a coûté 427 000$ aux contribuables américains, et 1,4 million $ aux contribuables canadiens. Pour les raisons invoquées ci-dessus, le coût total sera nettement plus important. On veut sauver l’industrie automobile. Soit! Mais qui sauvera le contribuable?

Nathalie Elgrably-Lévy est économiste senior à l'Institut économique de Montréal.
* Cette chronique a aussi été publiée dans Le Journal de Québec.

mardi 2 juin 2009

Le protectionnisme américain fait mal



Presse Canadienne, 1 juin 2009

On le craignait, mais voilà qu'il frappe pour vrai: le protectionnisme américain fait perdre des contrats à des entreprises québécoises aux États-Unis, a soutenu lundi le ministre des Finances et du Développement économique, Raymond Bachand.

Avec la flambée du dollar canadien au cours du dernier mois, c'est le problème qui préoccupe le plus les exportateurs québécois actuellement, a indiqué M. Bachand en marge d'un discours prononcé à la tribune de l'Association des MBA du Québec.

La résurgence du protectionnisme s'explique surtout par la présence, dans les lois américaines liées au plan de relance économique de l'administration de Barack Obama, de clauses privilégiant les fournisseurs des Etats-Unis.

"Ce n'est plus juste dans le secteur de l'acier, c'est en train de se répandre dans beaucoup d'appels d'offres qui se font au niveau des villes et des gouvernements des Etats", a expliqué le ministre, en soulignant que dans certains cas, des décideurs excluent des fournisseurs canadiens non pas sur la foi de dispositions législatives, mais simplement par patriotisme économique.

Le ministre fédéral du Commerce international, Stockwell Day, a discuté de la question avec ses homologues lors d'une rencontre tenue en avril.

Dans l'espoir de régler le problème, le milieu des affaires demande aux gouvernements des provinces et des territoires de souscrire à l'Accord sur les marchés publics de l'Organisation mondiale du commerce (OMC), que 37 Etats américains ont déjà signé.

Lundi, la Chambre de commerce du Canada, les Manufacturiers et Exportateurs du Canada (MEC), le Conseil canadien des chefs d'entreprise et d'autres associations ont envoyé une lettre aux premiers ministres provinciaux pour les inciter non seulement à adhérer au traité de l'OMC, mais aussi à appuyer la conclusion d'un nouvel accord commercial qui ouvrirait clairement les marchés publics des provinces, des Etats et des municipalités aux entreprises des deux pays.

Selon les MEC, plusieurs provinces appliquent déjà les dispositions de l'Accord sur les marchés publics, mais un appui en bonne et due forme pourrait empêcher les Etats américains de mettre en place des mesures de représailles à l'encontre des entreprises canadiennes. La conclusion d'une entente canado-américaine qui impliquerait Washington, Ottawa, les Etats et les provinces pourrait sceller un véritable libre-échange à l'égard des appels d'offres publics, y compris au niveau des municipalités.

Des centaines d'entreprises touchées

Au cours d'un entretien téléphonique, Jean-Michel Laurin, vice-président aux affaires mondiales des MEC, a affirmé que plus de 200 entreprises canadiennes ressentent sérieusement les effets des mesures protectionnistes américaines, dont une centaine au Québec. Certaines ont carrément dû procéder à des mises à pied après avoir constaté qu'elles ne pouvaient pas soumissionner à des appels d'offres publics aux Etats-Unis, a précisé M. Laurin. Les secteurs les plus touchés sont ceux de l'acier, du fer et du traitement de l'eau.

Québec "est en train d'examiner" la possibilité d'adhérer à l'Accord sur les marchés publics, a indiqué Anne-Sophie Desmeules, porte-parole du ministre Bachand. Elle n'a pas pu dire si les appels d'offres des ministères et des organismes gouvernementaux québécois étaient déjà ouverts aux entreprises américaines.

De son côté, le ministre Day consulte ses homologues des provinces à ce sujet. Il lui faudrait l'appui d'une forte majorité des provinces pour entamer des négociations avec les Américains sur la libéralisation des marchés publics des Etats et des provinces. En vertu de l'Accord de libre-échange nord-américain (ALENA), les appels d'offres des gouvernements fédéraux sont déjà ouverts aux entreprises de l'ensemble de l'Amérique du Nord.

Certains préconisent une approche plus belliqueuse: la Fédération canadienne des municipalités se prononcera plus tard cette semaine sur une résolution qui propose de faire de la discrimination à l'encontre des fournisseurs américains tant que les dispositions "Buy American" demeureront en place.

"Des fois, ça prend une menace crédible", a commenté Jean-Michel Laurin, en ajoutant néanmoins que les exportateurs n'appuyaient pas à l'unanimité une telle mesure.

Raymond Bachand a par ailleurs avancé que le Québec perdrait près de 70 000 emplois en 2009, réitérant les prévisions contenues dans le budget de mars. Depuis le sommet d'octobre, la province a perdu environ 30 000 emplois, soit une baisse d'environ 0,8 pour cent, moitié moins prononcée que dans l'ensemble du pays.

Le ministre a en outre annoncé, lundi, la création d'un groupe-conseil sur la Stratégie québécoise de la recherche et de l'innovation, qu'il coprésidera avec André Bazergui, pdg du Consortium de recherche et d'innovation en aérospatiale au Québec. Le groupe aura pour but de proposer des pistes pour mettre à jour la stratégie actuelle, qui expirera l'an prochain.

lundi 1 juin 2009

Une alternative à Tout le monde en parle?



Richard Martineau, Chroniqueur au Journal de Montréal
1 juin 2009

Avez-vous vu La vie avec mon père, de Sébastien Rose ?

Paul Ahmarani et David La Haye incarnent deux frères que tout sépare. Le premier est un artiste de gauche alors que le second est un entrepreneur de droite.

Ces deux frères sont les symboles parfait de Montréal et de Québec. Alors que la première ville applaudissait l’élection d’Amir « Godasse » Khadir à l’Assemblée nationale, la deuxième rêvait en salivant au retour en forme de l’ADQ.

On ne peut rêver de deux mentalités plus différentes.

VIRAGE À DROITE ACCEPTÉ

Jusqu’ici, montréalisation des médias oblige, le Québec a surtout entendu la voix gauchisante de la métropole. Mis à part certaines exceptions (André Arthur à TQS, par exemple, ou Myriam Ségal à La Joute), les tenants de la droite qui font la pluie et le beau temps en région ne réussissent pas à faire entendre leurs points de vue sur les ondes des gros réseaux.

Tout cela risque de changer bientôt. En effet, jeudi après-midi, au théâtre Impérial à Québec, on enregistre devant public le pilote d’une future émission de télé qui se veut une sorte « d’alternative de centre-droite à Tout le monde en parle et à Bazzo.tv ».

Cette émission de débats, qui sera diffusée sur un réseau généraliste (devinez lequel), est le bébé de Joanne Marcotte, la réalisatrice de L’Illusion tranquille, un documentaire qui avait causé beaucoup de remous il y a trois ans en osant critiquer le sacro-saint modèle québécois.

UNE TÉLÉ FRILEUSE

« J’ai réalisé L'Illusion tranquille pour entendre ce que je n'entendais pas et ce qui ne se disait pas dans la sphère publique, explique Joanne Marcotte. Mon projet d'émission résulte de la même frustration.

« La télé québécoise, particulièrement la télé publique, est très frileuse. On entend toujours les mêmes idées, on voit toujours les mêmes têtes. Pourtant, je crois sincèrement qu'une saine démocratie n'est possible que si l'on permet à tous les courants de s'exprimer…

« Une société mature doit être capable de se regarder dans le miroir, de voir ses défauts comme ses qualités, et d'en rire. Or, il semble qu'on doive marcher sur des oeufs lorsqu'il s'agit de ridiculiser les propos de notre bonne gauche bien intentionnée. Pourquoi ? »

L’ANTI-PLATEAU

Les invités du pilote sont l’économiste Mathieu Laberge, le sociologue Mathieu Bock-Côté, l’historien Marc Simard (auteur du pamphlet Les Éteignoirs) et le philosophe Frédérick Têtu.

Le sujet : pourquoi les intellectuels sont à gauche ?

« On s’inspire du livre de Raymond Boudon : Pourquoi les intellectuels n’aiment pas le libéralisme, explique Joanne Marcotte. On va se demander pourquoi les idées de droite sont autant méprisées au Québec, et pourquoi ceux et celles qui osent critiquer le modèle québécois (comme les auteurs du Manifeste des lucides, par exemple, ou les gens qui ont participé à l’Illusion tranquille) se font rabrouer par une certaine élite dès qu’ils ouvrent la bouche… »

Bref, ça risque de brasser.

LE QUÉBEC EST-IL PRÊT ?

Dans le film Annie Hall, le personnage joué par Woody Allen se rend chez son ex (Diane Keaton) qu’il n’a pas vue depuis longtemps.Dans le salon, il aperçoit une copie du magazine de droite The National Review.

« Depuis quand lis-tu ce magazine ? », lui lance-t-il avec un air de dégoût.

« J’aime connaître tous les points de vue sur une question avant de me faire une idée », lui répond-elle.

C’est exactement ce que veut faire Joanne Marcotte et son équipe.Le Québec est-il prêt pour Québec ? C’est ce qu’on va bientôt voir…