Ralliez-vous à mon panache bleu

dimanche 12 juin 2022

Demain l'apocalypse climatique ?

 


« L'homme a déjà modifié le climat de la planète. Les températures augmentent, le niveau de la mer monte, les glaciers disparaissent, et les vagues de chaleur, les tempêtes, les sécheresses, les inondations et les incendies de forêt sont un fléau de plus en plus grave de par le monde. Les émissions de gaz à effet de serre sont à l'origine de tous ces phénomènes. Et si elles ne sont pas éliminées rapidement par des changements radicaux de nos modes de vie et de consommation, la science nous dit que la Terre est condamnée. »

Ce paragraphe pourrait avoir été écrit ou prononcé par à peu près n’importe quel homme politique occidental, à peu près n’importe quel journaliste, à peu près n’importe quel « expert » fréquemment sollicité par les médias, et même sans doute par à peu près n’importe quel citoyen ayant fait des études supérieures et âgé de moins d’une quarantaine d’années. Ce paragraphe exprime en substance l’opinion occidentale moyenne concernant le « changement climatique » : celle qui fait autorité aussi bien dans les cercles de pouvoir que parmi les gens aspirant à la respectabilité, celle que l’on enseigne aux enfants à l’école et dont il est périlleux de s’écarter.

Le « consensus » porte sur cinq propositions :

1)    La terre se réchauffe, et se réchauffe rapidement.

2)   L’homme est le principal responsable de ce réchauffement, notamment à cause de la combustion des hydrocarbures.

3)      Ce réchauffement va avoir et a déjà commencé à avoir des conséquences dramatiques.

4)      Nous devons agir immédiatement pour limiter le plus possible ce réchauffement.

5)    La meilleure, et même la seule manière responsable d’agir est de diminuer drastiquement nos émissions de CO2, c’est-à-dire notamment de ne plus consommer d’hydrocarbures dans un futur proche.

Ce quasi-consensus politique et social est censé traduire un consensus scientifique : concernant la réalité du changement climatique, ses causes, ses effets et comment nous devons y faire face, La Science serait catégorique, définitive. Par conséquent, toute personne s’écartant de ces propositions serait soit un idiot, soit un ignorant, soit un malfaisant. Fermez le ban.

Pourtant, ceux qui s’intéressent sérieusement à la question savent que, de temps à autre et depuis longtemps, des voix discordantes font brièvement surface dans la conversation civique, avant d’être emportées par les vagues déferlantes du « consensus ». Contrairement à ce que les tenants dudit « consensus » tentent de faire croire, ces voix ne sont pas nécessairement celles d’incompétents, d’ignorants ou de scientifiques ayant vendu leur âme à l’industrie pétrolière. Et ceux qui ont eu la curiosité et la patience d’écouter les indications données par ces voix – par exemple en faisant l’effort de lire réellement les fameux rapports d’évaluation du GIEC, au lieu de se contenter du rapport de synthèse ou du « résumé à l’usage des décideurs politiques » comme le font l’écrasante majorité de ceux qui s’expriment publiquement sur le sujet - ont pu découvrir que le tableau dressé par la science (celle qui se contente modestement d’un petit « s », conformément à sa nature sceptique et zététique) était, en effet, passablement différent du tableau apocalyptique dressé par La Science que vénèrent les tenants du « consensus ».

L’une de ces voix est celle de Steven Koonin. Koonin est un scientifique de formation, aux états de service impeccables, ancien vice-président de l’université de Caltech (California Institute of Technology) et qui fut durant deux ans sous-secrétaire d’état chargé de la science dans l’administration Obama. Koonin ne peut sérieusement être accusé ni d’être incompétent, ni d’être ignorant, ni d’être un abominable suppôt de Donald Trump. Pourtant, selon lui, ce que nous savons réellement concernant le changement climatique – à la différence de ce que nous croyons savoir - peut se résumer ainsi :

« La terre s'est réchauffée au cours du siècle dernier, en partie à cause de phénomènes naturels et en partie en réponse à l'influence croissante exercée par l'homme. Ces influences humaines (surtout l'accumulation de CO2 provenant de la combustion de combustibles fossiles) exercent un effet physiquement faible sur le système complexe du climat. Malheureusement, nos observations et notre compréhension limitées sont insuffisantes pour quantifier utilement la façon dont le climat réagira aux influences humaines ou comment il varie naturellement. Cependant, même si les influences humaines ont presque quintuplé depuis 1950 et que le globe s'est modestement réchauffé, la plupart des phénomènes météorologiques graves restent dans les limites de la variabilité passible. Les anticipations des événements climatiques et météorologiques futurs reposent sur des modèles manifestement inadaptés à cet objectif. »

Koonin explique et justifie longuement les affirmations contenues dans ce paragraphe dans son dernier livre, intitulé Unsettled (« Pas définitif ») et sous-titré, de manière plus explicite : « Ce que nous dit la science du climat, ce qu’elle ne dit pas, et pourquoi c’est important. » Unsettled est un livre que devrait avoir lu toute personne prétendant avoir un avis sur le changement climatique, c’est-à-dire, en fait, aujourd’hui, à peu près tout citoyen occidental. Clair, mesuré, didactique, avec beaucoup de données et de graphiques, souvent tirés des rapports d’évaluation du GIEC (AR – Assessment Report – le dernier publié étant AR6, sixième du genre, donc), Unsettled permettra au profane de ne plus se laisser impressionner – et, en vérité, souvent terroriser – par les arguments d’autorité tirés de La Science et d’aborder les questions politiques liées au changement climatique avec toute le prudence et la nuance qu’elles méritent, mais qu’elles reçoivent si rarement. Il devrait donc être férocement contesté et attaqué.

Comme ce livre n’a malheureusement à peu près aucune chance d’être traduit un jour en français, je vous en propose un compte-rendu un peu étoffé (mais nullement exhaustif), accompagné de quelques graphiques tirés du livre.

LE RÉCHAUFFEMENT

Commençons par la question du réchauffement.

Il est incontestable que l’atmosphère terrestre se réchauffe depuis bientôt un siècle et demi. Pour parle de manière plus précise, entre 1880 et 2019, l'anomalie de la température moyenne à la surface du globe a augmenté d’un degré Celsius (les « anomalies » mesurent de combien la variable observée - dans ce cas, la température - à un endroit donné s'écarte de la valeur de base (moyenne) à cet endroit. Parler en termes d’anomalies rend les comparaisons spatiales et temporelles plus aisées). C’est ce que montre le graphique 1.1.

Il faut immédiatement ajouter plusieurs choses à cette observation fondamentale pour qu’elle ne soit pas trompeuse.

D’une part, la température à la surface de la terre a considérablement varié au cours de son histoire. La température moyenne, pas plus que le climat en général, n’est quelque chose d’immuable. Par exemple, depuis 20 000 ans, la terre s’est réchauffée d’environ 5°C. C’est le graphique 1.8.


D’autre part, l’augmentation de la température moyenne depuis 1880 n’a pas été uniforme. En examinant plus attentivement le graphique 1.1 on voit bien notamment qu’il y a eu, en gros, trois périodes. Une période de réchauffement assez rapide entre 1910 et 1940, puis un léger refroidissement entre 1940 et 1980, et enfin une nouvelle augmentation assez rapide depuis 1980. Or, l’influence exercée par l’homme sur le climat via les émissions de gaz à effet de serre est restée faible jusque vers 1950 (ces émissions étaient alors le quart de ce qu’elles sont aujourd’hui). La première période de réchauffement (1910-1940) a donc eu lieu sans qu’il soit possible de l’attribuer à l’activité humaine. Et la période de léger refroidissement (1940-1980) a eu lieu en dépit d’une augmentation rapide des émissions de gaz à effet de serre. Il existe donc des facteurs naturels de variation du climat, indépendants de l’action de l’homme, et dès lors la question essentielle n’est pas de savoir si la terre s’est réchauffée depuis 150 ans (la réponse est oui, sans équivoque) mais de savoir dans quelle mesure ce réchauffement peut être attribué à l’activité humaine.

Répondre à cette question est déjà beaucoup plus compliqué que de simplement mesurer les variations de la température à la surface de la terre (une opération loin d’être simple, pourtant).

Il est certain que la concentration de CO2 dans l’atmosphère a augmenté depuis 150 ans et que cette augmentation est due presque exclusivement à l’activité humaine. C’est le graphique 3.2. Par ailleurs, le CO2 est un gaz à effet de serre (c’est-à-dire qu’il retient une partie du rayonnement infrarouge émis par la terre) et il persiste très longtemps dans l’atmosphère, pendant des siècles. Cependant, cela n’autorise pas à affirmer, comme on peut le trouver par exemple sur un site du gouvernement français censé expliquer ce que sont les gaz à effet de serre : « L’augmentation de la concentration des gaz à effet de serre dans l’atmosphère se traduit par une hausse de sa température. » Cette équation simple serait vraie si et seulement si toutes choses étaient égales par ailleurs. Mais le climat est une chose si complexe qu’il est extrêmement difficile d’être sûr que « toutes choses sont égales par ailleurs », et donc d’affirmer que l’activité humaine est la cause principale du réchauffement observé.

Il serait d’autant plus téméraire d’affirmer que le réchauffement qui s’est produit depuis 150 ans est attribuable essentiellement à l’homme que certaines activités humaines augmentent l’albedo de la terre (c’est-à-dire sa capacité à réfléchir le rayonnement solaire), et donc contribuent à la refroidir. Par exemple les aérosols, produits notamment par la combustion du charbon, ou bien la déforestation ont un tel effet réfrigérant.

La graphique 2.4 illustre l'ensemble des influences humaines et naturelles sur le climat (que l’on appelle des « forçages »). Le graphique montre également à quel point nous sommes dans l’incertitude quant à l’ampleur de ces forçages. Alors que les effets du CO2 et des autres gaz à effet de serre sont connus à 20 % près, l'incertitude quant à l'influence refroidissante des aérosols d'origine humaine est beaucoup plus grande, ce qui rend le forçage total d'origine humaine incertain à 50 %. En d'autres termes, le mieux que l'on puisse dire est que l'influence humaine nette actuelle se situe très probablement entre 1,1 et 3,3 W/m2 (Watts par mètre carré). Sachant que l’énergie solaire absorbée par la terre est en moyenne de 239 W/m2.

Les influences humaines correspondent donc à environ 1% de l’énergie qui circule dans le système climatique. Comme l’explique Koonin : « Pour les mesurer utilement, ainsi que leurs effets, nous devons observer et comprendre les grands blocs du système climatique (les 99 % restants) avec une précision supérieure à 1 %. Les petites influences naturelles doivent également être comprises avec la même précision, et nous devons être sûrs qu'elles sont toutes prises en compte. Il s'agit d'un défi énorme dans un système pour lequel nous disposons d'un nombre limité d'observations pendant un temps limité, et au sujet duquel nos incertitudes sont encore grandes. »

Ce dont nous sommes sûrs, c’est que les influences humaines sur le climat se sont accrues ces dernières décennies et vont continuer à s’accroitre, à moins que l’humanité retourne collectivement à l’ère préindustrielle. Au-delà commence le domaine de la spéculation.  

LES MODÈLES CLIMATIQUES

Essayer de réduire cette incertitude est le rôle des fameux « modèles climatiques ». Ces modèles sont des programmes informatiques qui tentent de simuler l’évolution du climat. C’est sur les prédictions recrachées par ces modèles que se fondent l’essentiel des discours, et des actions, publiques concernant « l’urgence climatique ». « Les modèles du GIEC nous disent que, si la concentration de CO2 dans l’atmosphère augmente dans telle proportion, la température moyenne s’élèvera de tant, avec telles et telles conséquences catastrophiques. » : voilà à peu près ce que l’on peut entendre régulièrement dans les médias et dans la bouche des décideurs politiques.

Malheureusement, modéliser le climat de la terre et prédire son évolution de manière suffisamment précise et assurée pour justifier des actions publiques de grande ampleur est une tâche horriblement complexe, que nous sommes encore très loin de savoir réaliser. Il ne saurait être question d’exposer ici l’ensemble des difficultés auxquelles se heurtent les modélisateurs, mais quelques notions basiques peuvent aider à comprendre l’ampleur herculéenne du défi.

Les modèles informatiques commencent par recouvrir l'atmosphère terrestre d'une grille tridimensionnelle, généralement composée de dix à vingt couches empilées au-dessus d'une grille de surface composée de carrés de 100 km de côté. Il y a une grille différente pour la surface de la terre et pour les océans, au total environ un million de carrés tridimensionnels pour la terre et cent millions pour les océans. Une fois la grille en place, les modèles informatiques utilisent les lois fondamentales de la physique pour calculer comment l'air, l'eau et l'énergie présents dans chaque carré à un moment donné se déplacent vers les cases voisines de la grille à un moment légèrement ultérieur. Et l’opération est répétée des millions de fois.

Le principe est très simple mais, pour que la simulation ait un sens, il faut déjà connaitre les conditions initiales du système avec suffisamment de précision, c’est-à-dire les données atmosphériques pertinentes pour chaque carré – humidité, température, vent, etc. Or, même à l’heure actuelle, avec tous nos systèmes sophistiqués d’observation, nous ne disposons pas de ces informations. Par ailleurs, les modèles traitent chaque carré tridimensionnel comme une unité : la température, l’humidité, etc. sont censées être uniformes dans chacun d’eux. Or, dans la réalité, cela n'est pas le cas et beaucoup de phénomènes climatiques importants se déroulent à une échelle inférieure à celle des carrées. Nous pourrions bien sûr réduire la taille des carrées, mais cela se traduirait par une augmentation inacceptable du temps de calcul. A titre d’exemple, une simulation avec des carrés de 100km de côté met à peu près deux mois à être complétée ; avec des carrés de 10km de côté elle demanderait plus d’un siècle. Ou alors nous aurions besoin d’avoir des supercalculateurs mille fois plus puissants que ceux actuellement disponibles pour qu’elle prenne toujours deux mois.

Bref, les modèles climatiques, malgré leur sophistication et l’énorme puissance de calcul qu’ils exigent, restent très grossiers comparés à la réalité qu’ils sont censés décrire. Les rapports du GIEC présentent les moyennes des résultats de nombreux modèles élaborés par des équipes de recherche un peu partout dans le monde. Mais ces résultats « moyens » cachent le fait que, au niveau de précision requis pour mesurer l’effet des activités humaines sur le climat, ces modèles parviennent à des résultats qui non seulement diffèrent considérablement les uns des autres mais qui diffèrent aussi des observations empiriques. Et, qui pis est, plus les modèles gagnent en sophistication, plus ces divergences s’accroissent. Comme l’écrit Steven Koonin : « Le fait que l'écart entre leurs résultats s'accroît est une preuve qui vaut n’importe quelle autre que la science est loin d'être catégorique. »

Un signe frappant de l’inadéquation des modèles climatiques est leur incapacité à reproduire correctement le passé. Lorsque les modélisateurs font tourner leurs modèles en prenant, par exemple, pour point de départ l’année 1900, les résultats qu’ils obtiennent ne correspondent pas à ce que nous savons de l’évolution du climat depuis cette date. Le graphique 4.5 permet de visualiser cette divergence entre la dernière génération de modèles (CMIP6) et la réalité. Mais comment pouvons-nous nous fier pour prédire l’avenir à des modèles qui sont incapables de reconstruire correctement le passé ? La réponse est évidemment que, à l’heure actuelle et sans doute pour encore longtemps, nous ne devrions pas nous y fier. Il est vraisemblable que la température moyenne de la terre va continuer à s’élever dans les décennies à venir. De combien, à quelle vitesse et avec quelles conséquences, personne ne le sait.


DEMAIN L’APOCALYPSE ?

Examinons maintenant l’affirmation si souvent répétée selon laquelle on observerait un accroissement des phénomènes climatiques « extrêmes » – tempêtes, canicules, sécheresses, inondations, etc., ce qui est censé être à la fois une conséquence du changement climatique induit par l’homme et un avant-goût de l’apocalypse climatique qui nous attend si nous ne nous amendons pas très vite.

Cette affirmation pourrait fournir une parfaite illustration à l’adage de Locke, selon lequel pour la plupart des gens la répétition tient lieu d’argument, car les données météorologiques dont nous disposons, et qui remontent pour certaines à plus d’un siècle, ne montrent aucun changement significatif concernant la plupart des phénomènes « extrêmes ».

Les tempêtes par exemple (que l’on appelle cyclones, typhons, ou ouragans en fonction de l’endroit où elles se produisent). Les zones de basse pression qui deviennent des ouragans résultent de l'évaporation de l'eau à partir d'une surface de mer chaude ; cette eau libère ensuite de la chaleur en se condensant dans l'atmosphère. On pourrait donc s'attendre à une augmentation constante de l'activité des ouragans à mesure que la surface de la mer se réchauffe. Cependant, jusqu’à maintenant, les observations disponibles ne viennent pas corroborer cette hypothèse. Il est vrai que les dégâts causés par les ouragans, eux, augmentent, mais cela s’explique par l’augmentation de la population et l’augmentation des constructions sur les littoraux, pas par l’augmentation du nombre ou de la violence des ouragans.

Le cas des Etats-Unis illustre bien cela. Ce pays est celui qui compte le plus grand nombre annuel de tornades. Ces tourbillons de vents extrêmement violents et qui peuvent être particulièrement destructeurs se produisent le plus fréquemment au printemps, le long d'une bande appelée "tornado alley" qui s'étend du nord du Texas jusqu'au Dakota du sud. Elles sont très bien répertoriées, et classées sur une échelle dite Échelle de Fujita Améliorée, qui va de EF0 pour les plus faibles à EF5 pour les tornades les plus fortes. Or, ce que montrent les observations aux Etats-Unis c’est que, depuis les années 1950, le nombre de tornades supérieures ou égales à EF1 n’a guère changé mais que le nombre de tornades supérieures ou égales à EF3 a diminué. C’est le graphique 6.6.

De même en ce qui concerne les inondations ou les canicules, rien ne permet d’affirmer que ces évènements extrêmes soient globalement plus fréquents ou plus sévères aujourd’hui, en dépit de ce que l’on peut entendre régulièrement dans les médias. Il existe parfois des tendances régionales, mais sans qu’il soit possible de distinguer ce qui pourrait être attribué à l’activité humaine et ce qui relève de la variabilité naturelle de ces phénomènes. A titre d’exemple, le graphique 7.11 montre ce qu’il en est pour la Californie.

Et qu’en est-il des épisodes de canicule, que l’on nous annonce plus sévères et plus fréquents à mesure que la température moyenne de l’atmosphère s’élève ? Bien que le rapport entre les canicules et le réchauffement climatique semble évident, le climat est une chose trop complexe pour que la causalité puisse être aussi directe. Aux États-Unis, par exemple, qui disposent de données météorologiques très complètes et très précises sur une longue durée, les records de basses températures sont effectivement devenus moins fréquents, mais au moins jusqu'en 2018 les records de températures élevées quotidiennes n'étaient pas plus fréquents qu'il y a un siècle. C’est le graphique 5.5. C’est la diminution du nombre de jours très froids dans l’année, et non l’augmentation du nombre de jours très chauds, qui fait que nous entendons régulièrement : l’année 20… a été la plus chaude depuis trente ans, ou quarante ans, etc. Un climat qui se réchauffe ne signifie pas nécessairement un climat qui devient plus torride, cela peut aussi être un climat qui devient plus doux, et c’est plutôt ce qui s’est produit jusqu'à maintenant.

Et l’élévation du niveau des mers ? N’est-ce pas un fait avéré et le changement climatique ne va-t-il pas avoir pour conséquence l’engloutissement progressif de vastes terres habitées, ainsi que la multiplication dramatique des « réfugiés climatiques » chassés de chez eux par la montée des eaux ?

Le raisonnement est simple : qui dit réchauffement climatique dit fonte des grands glaciers et qui dit fonte des grands glaciers dit élévation du niveau des océans. Mais, une fois encore, le raisonnement est trop simple. Ce dont nous sommes raisonnablement sûrs, c’est qu’en effet le niveau des océans s’élève… depuis près de 20 000 ans. C’est le graphique 8.2. 

En ce qui concerne le dernier siècle, la montée des eaux semble plus rapide depuis quelques décennies. Pour les trois dernières décennies, la moyenne a été de plus 3mm par an, ce qui est supérieur à la moyenne depuis 1880, qui est de 1,8mm par an. C’est le graphique 8.3. Cependant, ces moyennes cachent des variations décennales importantes, par ailleurs les valeurs absolues restent faibles et ne présagent nullement d’une catastrophe, et enfin nous ne savons pas ce qui est attribuable à l’activité humaine dans cette élévation du niveau des mers. Comme le résume Koonin :  « Il y a peu de doute qu'en contribuant au réchauffement, nous avons contribué à l'élévation du niveau de la mer, mais il existe peu de preuves que cette contribution a été ou sera significative, et encore moins désastreuse. »


On le voit, les prophéties d’apocalypse climatique relèvent plus de la science-fiction que la science. Jusqu’à maintenant, rien ne nous permet d’affirmer que les conséquences du changement climatique seront catastrophiques. Bien plus, les travaux du GIEC eux-mêmes parviennent à la conclusion que l’impact économique global du changement climatique devrait être négligeable, à toutes fins utiles. Les estimations sont de l’ordre de -3% d’ici 2100 pour une élévation de température de 3°C. C’est à dire que le taux de croissance de l’économie mondiale sera inférieur de 3% à ce qu’il aurait dû être en l’absence de réchauffement, soit -0,04% chaque année. Avec un taux de croissance attendu de 2% par an, cela signifie donc que le taux de croissance annuel de l’économie mondiale serait de seulement… 1,96% si la température moyenne augmente de 3°C.

Bien sûr, ces prévisions économiques sont encore plus incertaines que les prévisions climatiques et devraient être accueillies avec encore plus de scepticisme. Mais le point important est que ce sont les prévisions du GIEC lui-même, le GIEC qui est censé être la voix de la Science selon les prophètes de l’apocalypse climatique. Si même le GIEC nous dit que le réchauffement climatique ne devrait pas avoir, pour l’humanité prise dans son ensemble, de conséquences économiques discernables, nous sommes sans doute fondés à estimer que « l’urgence climatique » est très surestimée.

QUE FAIRE ?

Est-ce à dire pour autant que nous devrions faire comme si de rien n’était ? Après tout, le réchauffement depuis plus d’un siècle est incontestable, de même que l’accumulation rapide des gaz à effet de serre dus à l’activité humaine, et s’il est faux d’affirmer que la seconde est la cause essentielle du premier, il serait imprudent de considérer que l’homme n’est pour rien dans ce réchauffement, de même qu’il serait imprudent de ne pas envisager que les conséquences pourraient devenir réellement déplaisantes si la température continue à s’élever.

Il ne semble donc pas déraisonnable d’essayer de faire quelque chose. Mais quoi ? Jusqu’à maintenant, la réponse pratiquement unique a été : diminuer les émissions de gaz à effet de serre. C’est l’objectif essentiel fixé par tous les « accords climatiques internationaux », à commencer par le dernier d’entre eux, l’accord de Paris, conclu en 2015. Le but final de l’accord est de maintenir l'augmentation de la température moyenne de la planète bien en dessous de 2 °C par rapport aux niveaux préindustriels (critère en lui-même passablement ambigu, mais passons). Le moyen choisit pour cela est d’atteindre la « neutralité carbone » pour le milieu du siècle. Cela signifie en pratique que les émissions de CO2 devraient totalement cesser d’ici 2050 (en laissant de côté la possibilité de retirer du CO2 de l’atmosphère, qui pour le moment n’apparait guère réaliste). Et pour que les émissions de CO2 tombent à zéro, l’humanité devrait totalement cesser d’utiliser des hydrocarbures d’ici trente ou quarante ans.

Mais quelle est la probabilité que l’humanité cesse, dans un délai si court, d’utiliser des hydrocarbures ? Les hydrocarbures ne sont pas utilisés sans raison : ils sont, encore à l’heure actuelle, la source d’énergie la plus concentrée et la plus souple d’utilisation dont nous disposions, or la demande d’énergie est destinée à s’accroitre considérablement dans les décennies à venir, pour des raisons démographiques et économiques. La population devrait dépasser les neuf milliards d’êtres humains d’ici 2050, et cette augmentation se produira presque exclusivement dans les pays dits en voie de développement, c’est-à-dire des pays qui aspirent ardemment, et légitimement, à élever substantiellement leur niveau de vie. La demande mondiale d’énergie devrait croitre de plus de 50% d’ici le milieu du siècle, alors même que les hydrocarbures fournissent aujourd’hui environ 80% de l’énergie que nous consommons. C’est ce que montre le graphique 12.2.

Il devrait donc être immédiatement apparent que la neutralité carbone est un objectif totalement chimérique. Le but fixé par l’accord de Paris est une impossibilité pratique et ne sera JAMAIS atteint, pour des raisons tellement évidentes qu’il ne devrait pas être nécessaire de les énumérer.

Nous pourrons sans doute diminuer nos émissions de gaz à effet de serre, au prix de grands efforts, et nous avons déjà commencé à le faire, mais, étant donné que le CO2 une fois émis ne disparait que très lentement, il est pratiquement certain que sa concentration atmosphérique va continuer à augmenter, et sans doute pour très longtemps encore. La contribution humaine au réchauffement climatique ne va pas disparaitre, elle va même augmenter à échéance prévisible.

Quelles autres possibilités avons-nous ?

Nous pourrions envisager la géo-ingénierie, c’est-à-dire de corriger les effets de nos émissions de gaz à effet de serre, par exemple en augmentant l’albedo de la terre (refroidissement) ou bien en retirant du CO2 de l’atmosphère. Contentons-nous de dire que, bien que théoriquement possibles, ces solutions paraissent à l’heure actuelle aussi peu envisageables en pratique que la neutralité carbone.

Dès lors, une seule possibilité parait s’offrir à nous : l’adaptation. Nous devrons nous adapter à un changement climatique qui va se poursuivre. Cette perspective ne devrait pas nous effrayer outre mesure. D’une part nous avons vu que rien n’indique que ce changement sera le bouleversement que l’on nous prédit. D’autre part, l’être humain s’est déjà adapté à quantité de conditions plus exigeantes que celles que nous laisse entrevoir l’actuel modification du climat. L’homme vit dans les montagnes aussi bien que dans les déserts, sous les tropiques aussi bien que près des pôles, il vit depuis des temps immémoriaux dans des régions soumises à de terribles tremblements de terre, à des pluies diluviennes, à des inondations gigantesques, à des sécheresses épouvantables, et presque partout il a réussi non seulement à survivre mais à prospérer. L’homme s’adaptera à l’actuel changement climatique, comme il s’est adapté à ceux qui ont précédé, il possède pour cela des ressources immenses, matérielles et intellectuelles. L’humanité a vu bien pire.

En vérité, nous devrions savoir que le pire ennemi de l’homme n’a jamais été la nature, mais l’homme lui-même. Depuis qu’il est présent sur la terre, l’homme a exterminé et tourmenté ses semblables avec une férocité et une efficacité qui surpasse de très loin tous les maux que la nature peut nous infliger. Ce que Steven Koonin ne dit pas, mais que son livre laisse entrevoir, c’est que nous avons bien plus à craindre de nos réactions au changement climatique que de ce changement lui-même. Dans les pays occidentaux, la cause de « l’urgence climatique » a pris des proportions fantastiques et tient désormais du fanatisme religieux ; un fanatisme qui semble avoir gagné tous les peuples et tous les gouvernements et qui les pousse à prendre des décisions de plus en plus irrationnelles et de plus en plus autoritaires. La liberté, la science et la prospérité sont des biens précieux, mais fragiles, et que nous allons peut-être détruire sous l’emprise de peurs largement imaginaires. « S’il y a des peuples qui se laissent arracher des mains la lumière, il y en a d’autres qui l’étouffent eux-mêmes sous leurs pieds », écrivait Tocqueville dans De la démocratie en Amérique. Voilà ce qui devrait nous inquiéter très sérieusement aujourd’hui.

 

mercredi 11 mai 2022

Impasse du populisme

 


Maintenant que la Grande Election s’est achevée de la manière que l’on sait, il est à la fois possible et nécessaire d’énoncer clairement ce que beaucoup, sans doute, dans le camp dit patriote, pensent depuis longtemps tout bas mais s’abstenaient de dire tout haut pour ne pas donner d’armes au camp d’en face en pleine bataille : le Rassemblement National ne gouvernera jamais la France.

De manière bien compréhensible, les cadres de ce parti mettent en avant les quelques 42% des suffrages qui se sont portés sur Marine le Pen au second tour, et ils soulignent la progression que cela représente par rapport à il y cinq ans, mais en vérité tout cela n’est qu’un trompe-l’œil qui cache les graves faiblesses structurelles du RN. Avec un bilan loin d’être glorieux, pour dire le moins, après avoir suscité le mouvement social le plus long et le plus violent depuis des décennies, après avoir plongé le pays dans la récession, après avoir sacrifié les libertés les plus essentielles et la concorde civique sur l’autel d’une absurde guerre contre un virus, après avoir suscité – avec raison – une détestation profonde pour sa personne dans une très large partie de la population ; avec son opportunisme hideux, avec toute sa morgue, avec toutes ses provocations et tous ses échecs, Emmanuel Macron a cependant été réélu, et même très largement.

Si, dans de telles circonstances, avec une main aussi favorable, le Rassemblement National ne peut pas faire mieux que d’être battu à plat de coutures, la conclusion s’impose qu’il ne gagnera jamais. Ce n’est pas seulement que le RN ne gouvernera jamais, c’est, plus profondément, qu’il ne s’est jamais rendu apte à gouverner.

Comme le dit très justement Pierre Manent : « Depuis trente ans, le mouvement de la « droite nationale » a été incapable de créer le moindre syndicat, le moindre réseau associatif, la moindre maison d’édition, d’acquérir la moindre base d’influence sociale ou de prestige, que ce soit dans les médias ou les universités… Ce parti qui prétend parvenir au pinacle du pouvoir est incapable d’obtenir que ceux qui votent pour lui se déclarent pour lui. »

On ne gouverne pas un grand pays à partir d’une telle situation d’isolement, à moins de prétendre le gouverner de manière tyrannique, en employant la force brute plutôt que la persuasion. Et encore faudrait-il se souvenir de l’avertissement prophétique de Talleyrand : « On peut tout faire avec une baïonnette, sauf s'asseoir dessus. » La « droite nationale » n’a jamais été capable d’inspirer confiance à une majorité de ses compatriotes et il faut bien reconnaitre qu’il y a de bonnes raisons à cela.

Bien sûr, la hargne vicieuse dont ce mouvement politique est l’objet depuis son apparition peut contribuer à expliquer l’incapacité du FN/RN à pousser des racines autres qu’électorales, mais la politique n’est jamais un champ de roses pour personne et il fallait beaucoup de complaisance ou beaucoup d’aveuglement partisan pour croire que l’adversité était seule responsable de cette situation.

Cela a pourtant été le diagnostic de Marine le Pen lorsqu’elle a succédé à son père à la tête du parti qu’il avait fondé. La tactique qui devait permettre d’accéder enfin aux plus hautes responsabilités avait pour nom « dédiabolisation » et présupposait que, entre le FN et le pouvoir suprême, le seul obstacle était un mauvais renom, pour tout dire un malentendu. Plus de dix ans après sa mise en œuvre, il est temps d’en tirer le bilan.

La dédiabolisation a d’abord consisté à parler de moins en moins souvent des sujets qui fâchent, à savoir l’immigration et l’islam, et à parler de plus en plus souvent de sujets supposés plus consensuels, plus électoralement payants, à savoir le portefeuille des Français. L’idée, très simple, était qu’il n’était plus nécessaire d’aborder ces sujets qui fâchent, car tout le monde était censé savoir ce que le FN/RN pensait à ce propos. Il était donc possible de se concentrer sur d’autres thèmes et de draguer de nouveaux électeurs sans perdre ceux qui étaient déjà venus à vous à cause de vos positions sur l’immigration.

Au terme de ce processus de réorientation, le parti qui était censée dire tout haut ce que les Français pensaient tout bas est devenu le parti qui s’abstient le plus possible de dire ce qu’il pense, peut-être, tout bas, tandis que Marine le Pen, la candidate censée porter une « rupture » radicale avec le « système » est devenue la candidate de la protection tous azimuts, « la candidate du care », selon le mot cruel de Patrick Buisson.

Mais, lorsqu’on n’explicite plus son point de vue, on n’argumente pas non plus et on perd toute possibilité de convaincre, ou de simplement faire douter, ceux qui ne sont pas déjà convaincus. En somme, la tactique de la dédiabolisation présupposait que le débat était clos sur les sujets qu’on s’abstenait d’évoquer. Que ce que défendait le RN était simplement « du bon sens », quelque chose d’évident par soi-même, que seule une sorte d’hypnose collective empêchait de considérer comme telle. Si seulement on se taisait avec suffisamment de constance, le charme tomberait et l’évidence s’imposerait.

Malheureusement – ou heureusement peut-être – aucun sujet politique d’importance n’est jamais définitivement clos et jamais on n’en a fini avec le travail épuisant et ingrat de la persuasion. A supposer même qu’un problème sérieux soit suffisamment évident pour que la très grande majorité d’un peuple s’accorde sur son existence, il est totalement illusoire de croire qu’une sorte de consensus spontané pourrait se dégager sur les solutions à y apporter. En vérité, jamais ni les problèmes ni les solutions ne sont évidents au moment où l’on y est confrontés (à la différence de la vision rétrospective, qui rend toutes choses beaucoup plus simples) et si, parfois, un peuple peut paraitre uni face à l’adversité, cela est toujours l’effet de l’art politique, l’effet de l’art politique d’un grand homme d’Etat qui a su unir la population autour de lui ; union d’ailleurs toujours très relative et transitoire.

Déserter le terrain de la persuasion revient simplement à l’abandonner à l’adversaire, et, si l’on a déjà enregistré quelques gains, c’est s’exposer à les voir s’éroder progressivement ; c’est une position soit naïve soit paresseuse et lâche. On ne sait pas quelle part de naïveté et quelle part de paresse a présidé au choix de la « dédiabolisation », mais on ne peut s’empêcher de penser que la « droite nationale » version Marine le Pen a été soulagée de se dérober à un débat intellectuel pour lequel elle avait peu d’appétit et pour lequel elle se sentait peu de compétences.

Le pendant de la dédiabolisation a été le tournant vers le « populisme », c’est-à-dire à dire le fait de se présenter comme la candidate du peuple contre les élites et non plus comme la candidate d’un camp politique bien identifié. Le changement de nom du parti, du front au rassemblement, témoignait parfaitement de cette orientation nouvelle, mais il était cependant incomplet, car désormais le Rassemblement National aurait dû se nommer Rassemblement Populaire. La caractéristique essentielle de ce populisme est en effet de remplacer la nation par le peuple en tant que source fondamentale de l’autorité politique. Alors que le but premier du Front National était la préservation de la nation française, le but premier du Rassemblement National est devenu le respect de la souveraineté populaire.

Le calcul électoral était évident : se faire le champion de la volonté populaire parait vous placer dans une position de supériorité inexpugnable car, dans un régime démocratique comme le nôtre, nul ne peut s’opposer frontalement à l’idée que le peuple est l’autorité suprême, tandis que parler de l’identité de la France et de sa perpétuation vous expose à tout un tas de calomnies et de difficultés théoriques. Dans l’expression « le peuple français », il est réellement plus simple de mettre l’accent sur le mot « peuple » et de mettre en sourdine le terme « français ».

Mais, à terme, cela revient à se montrer indifférent non seulement à la nature de ce peuple qui est censé décider mais aussi aux décisions que prend ledit peuple. Les questions substantielles épineuses sont remplacées par de simples questions de procédures.

Mutatis mutandis, la position de Marine le Pen n’est pas sans rappeler la position du grand adversaire de Lincoln, le sénateur Stephen Douglas qui, dans les années 1850, s’était fait le champion de la « souveraineté populaire » et prétendait mettre fin à la querelle au sujet de l’esclavage, qui déchirait la nation américaine, en proposant une solution très simple : il revenait à la majorité dans chaque Etat de décider si elle voulait que l’esclavage soit permis sur son territoire. Les querelles passionnées, et explosives, au sujet de l’injustice de l’esclavage étaient évacuées par un simple vote et Douglas lui-même, conformément à sa doctrine, affirmait être totalement indifférent quant à l’issue de ce vote. Le point important, le seul point important, était que le « peuple », c’est-à-dire la majorité, décide. Vox populi, vox dei.

Marine le Pen s’est fameusement pris les pieds dans le tapis, dans les derniers temps de la campagne électorale, au sujet de l’interdiction du voile islamique dans l’espace public. Mais, plus qu’une maladresse tactique, cette vacillation laissait affleurer une question très délicate pour la candidate RN : aurait-elle pu objecter quelque chose de solide si la population « française », consultée par référendum, s’était, par exemple, prononcée sans ambiguïté pour autoriser la burqa en toutes circonstances ? Après tout, « Si le peuple vote, le peuple gagne », comme l’a martelé Marine le Pen, et si le peuple vote pour la burqa, il gagne la burqa. Ou tout ce qu’il voudra en fait.

Bien sûr nul ne doute qu’un tel choix « populaire » l’aurait révulsée à titre personnel, mais il y a bien de la différence entre être révulsé et être capable d’articuler publiquement un argument cohérent expliquant pourquoi on a raison d’être révulsé et pourquoi, par conséquent il serait légitime de s’opposer à une majorité qui aurait fait un tel choix. On ne peut pas énoncer clairement ce qu’on ne conçoit pas clairement, or rien n’indique qu’aujourd’hui le RN conçoive clairement pourquoi la volonté populaire, exprimée par un vote majoritaire, ne peut pas être l’ultima ratio de la vie politique.

Le plus vraisemblable est que les dirigeants du RN ne perçoivent même pas le problème, car le présupposé fondamental du populisme est que le peuple est toujours essentiellement bon, que ses aspirations et ses opinions sont toujours essentiellement saines, à la différence des aspirations vicieuses ou bassement égoïstes qui sont censées être celle des « élites » usurpatrice ou de la « bourgeoisie » prédatrice.

Pour citer une fois encore Pierre Manent : « on suppose que, sous l’usurpation européenne et la gouvernance élitaire, un peuple français vigoureux et intact attend seulement qu’une bonne fée le réveille. Or le fond de notre expérience collective aujourd’hui, la constatation que nous partageons tous, c’est que les os de ce peuple sont fragilisés et ses muscles atrophiés : la classe ouvrière, la paysannerie ont pour ainsi dire disparu, ses syndicats diminués ne jouent plus le grand rôle associatif qui était le leur, ses familles spirituelles sont exsangues, sa religion historique en déshérence, la langue française traitée avec indifférence ou dédain, les divertissements venus d’Amérique embrassés avec ferveur… chacun peut ajouter à la liste. Si l’immigration musulmane représente un tel défi, c’est d’abord en raison du contraste entre l’assurance avec laquelle la population nouvelle garde sa religion et ses mœurs et la facilité avec laquelle la population ancienne laisse dépérir ce qui lui donnait sa physionomie morale et spirituelle. »

Oui, chacun ayant des yeux pour voir peut ajouter à cette triste liste. Le peuple français dans son ensemble est dans un état moral et intellectuel particulièrement déplorable, et cette déréliction, si elle touche toutes les catégories sociales, touche plus particulièrement les catégories dites populaires. Si quelque chose de l’antique être politique et spirituel français survit quelque part, c’est bien plus sûrement dans une partie de cette « bourgeoisie » honnie, qui continue à donner à ses enfants des prénoms distinctement français, qui continue à leur parler de l’histoire de leur pays, à les initier à ses beautés culturelles, architecturales, naturelles, qui continue, tant bien que mal, à leur transmettre le goût des livres, qui les emmène parfois à la messe, et qui les envoie dans des écoles où l’on n’a pas totalement abdiqué l’ambition d’élever et de transmettre, que dans des catégories populaires où toutes ces choses ont le plus souvent disparu depuis longtemps. A quoi l’on doit ajouter que, si la libération sexuelle et le féminisme ont gravement endommagé la structure familiale du haut en bas de l’échelle sociale, c’est bien en bas de celle-ci que la situation est la plus chaotique, la plus sordide, et la plus tragique.

Si la « parti patriote » perçoit ces problèmes, le moins que l’on puisse dire est qu’il se garde soigneusement d’en faire part et de proposer quelque solution que ce soit à ceux-ci. L’indifférence dédaigneuse manifestée par les dirigeants du RN pour les questions relatives à la famille, aux mœurs sexuelles, aux questions dites bioéthiques, traduit peut-être quelque chose de leurs préférences personnelles pour le « chacun fait ce qu’il lui plait », mais il traduit tout aussi sûrement leur répugnance à paraitre « faire la morale » au peuple, c’est-à-dire à lui parler de tout ce qui ne va pas dans la manière dont il vit. Pourtant, une nation saine ne peut pas être fondée sur la manière dont « notre peuple » vit actuellement. Le populisme ne suffira pas pour que la France existe encore dans un siècle.

Il ne suffira pas car les peuples ne poussent pas comme les fruits sur les arbres : ils sont le produit de beaucoup d’art et de beaucoup d’efforts, sans cesse renouvelés, et c’est un de devoirs les plus élevés et les plus difficiles d’un homme d’Etat que de perpétuer la forme nationale particulière du corps politique dont il a la charge et qui le rend uniquement précieux.

Il ne suffira pas non plus car jamais le peuple ne gouverne lui-même directement, si ce n’est pour de brèves périodes, invariablement désastreuses. Comme le dit Montesquieu : « Il faut que les affaires aillent, et qu'elles aillent un certain mouvement qui ne soit ni trop lent ni trop vite. Mais le peuple a toujours trop d'action, ou trop peu. Quelquefois avec cent mille bras il renverse tout; quelquefois avec cent mille pieds il ne va que comme les insectes. »

La direction effective d’un vaste corps politique est toujours le fait d’une petite minorité parmi les individus qui le composent et il est évidemment bien préférable que ce petit nombre ait, toutes choses égales par ailleurs, des qualités supérieures tant sur le plan moral que sur le plan intellectuel et qu’il ait bénéficié d’une éducation soignée. Bref, il est hautement souhaitable que ce petit nombre soit une élite véritable. Les défauts très visibles du petit nombre qui, ces cinquante dernières années, a présidé aux destinées du pays, son arrogance et son dédain de plus en plus manifestes pour les besoins et les aspirations du peuple français, ont conduit, par réaction, à la condamnation indistincte de tout ce qui pourrait ressembler à une classe dirigeante et à l’exaltation irréfléchie des qualités supposées des « classes populaires ». Cette opposition catégorique entre « le peuple » et les « élites » est pourtant une impasse, qui conduira au démantèlement de ce qui peut rester de la nation française si elle se prolonge.

Le mouvement des gilets jaunes devrait avoir rappelé à tous ces faits politiques élémentaires. Si cette protestation au départ très légitime s’est peu à peu enlisée, c’est d’abord du fait de son refus de laisser apparaitre la moindre hiérarchie en son sein. Faute d’avoir accepté d’être représentée et conduite par un petit nombre bien disposé à son égard, la grande masse indistincte et courroucée s’est d’abord faite destructrice, puis s’est immobilisée et enfin désintégrée, ne laissant derrière elle que de l’amertume, des regrets, et un fossé encore plus profond entre « la France périphérique » et la France des métropoles : « Quelquefois avec cent mille bras il renverse tout; quelquefois avec cent mille pieds il ne va que comme les insectes. »

Le peuple n’a pas seulement besoin de trouver des porte-parole, il a besoin de véritables représentants, c’est-à-dire de gens qui prennent au sérieux ses besoins et ses aspirations sans pour autant y déférer aveuglément ni renoncer à leur propre jugement. Il a aussi besoin de relais et de soutiens parmi ceux qui, de fait, tiennent les positions de décision et d’influence au sein de la société. Bref, il a besoin de faire alliance avec une partie de ceux que l’on peut objectivement caractériser comme les membres de l’élite, ou, si l’on veut un terme plus neutre, du petit nombre. Nouer une telle alliance suppose une autre rhétorique que celle qui oppose grossièrement un peuple sain et des élites corrompues. Elle suppose aussi de modérer certaines passions populaires car, comme le faisait déjà remarquer Aristote il y a plus de 2400 ans, si les « riches » ont tendance à être durs et arrogants, les « pauvres » ont tendance à être envieux et emportés.

Cette alliance ne serait pas forcément si difficile à nouer que cela, mais c’est un des méfaits de la posture populiste que d’outrer les oppositions et d’empêcher les rapprochements qu’exigerait pourtant l’intérêt supérieur du pays. N’importe qui ayant des oreilles pour entendre et un peu d’expérience de la conversation civique peut constater que la situation n’est pas aussi défavorable qu’elle pouvait l’être il y a seulement vingt ans. Sur un grand nombre de sujets cruciaux, comme l’immigration, l’islam, la construction européenne, ou l’insécurité, il existe désormais une frange non négligeable des catégories supérieures de la population qui s’est considérablement rapprochée des positions défendues traditionnellement par la « droite nationale », oui, même au sein de la haute administration et de la classe dirigeante. Mais pour s’en rendre compte et en tirer profit, il faudrait accepter de l’écouter sérieusement, et de lui parler d’une manière qui ne soit pas rebutante pour elle.

« C'est une maxime ancienne et vraie, qu' « une goutte de miel attrape plus de mouches qu'un tonneau de fiel ». Ainsi en est-il des hommes. Si vous voulez gagner un homme à votre cause, commencez par le convaincre que vous êtes son ami sincère. Telle est la goutte de miel qui captive son cœur et qui, quoi qu’il en dise, vous ouvre grande la route qui mène à sa raison. »

Celui qui a parlé ainsi, alors qu’il était encore un jeune homme, était destiné à devenir un grand homme d’État, de ceux, rares, qui sont capables de défendre le gouvernement du peuple, par le peuple, pour le peuple, à ses heures de plus grand péril sans jamais oublier qu’ils appartiennent eux même à « la famille du lion ou à la tribu de l’aigle ». Il n’était pas français, mais certains hommes d’État français n’ont rien eu à lui envier. Puisse notre cher et vieux pays être capable, encore, de produire de tels hommes.

 

mardi 19 avril 2022

Le référendum et les pouvoirs du président de la République

 



La possibilité que Marine Le Pen puisse devenir présidente de la République a fait surgir un intéressant débat juridique, qui est en réalité proprement une question politique fondamentale et va à la racine de l’actuel pourrissement de nos institutions démocratiques.

La question immédiate est : est-il possible de réviser notre Constitution en utilisant son article 11, qui dispose dans son premier alinéa que « Le Président de la République (…) peut soumettre au référendum tout projet de loi portant sur l'organisation des pouvoirs publics, sur des réformes relatives à la politique économique, sociale ou environnementale de la nation et aux services publics qui y concourent, ou tendant à autoriser la ratification d'un traité qui, sans être contraire à la Constitution, aurait des incidences sur le fonctionnement des institutions. » ?

On le sait, le général de Gaulle l’a utilisé deux fois à cette fin, en 1962 et en 1969. Or il est le grand inspirateur de cette Constitution qui est encore la nôtre. Par ailleurs l’article 11 mentionne bien « l’organisation des pouvoirs publics », et qu’est qu’une Constitution si ce n’est un texte qui « organise les pouvoirs publics » ?

La question semblerait donc devoir être vite répondue, comme dirait l’autre, et d’ailleurs la possibilité d’utiliser le référendum de l’article 11 pour modifier la Constitution figurait, par exemple, dans le projet adopté par le PS en juin 2006 en vue de l’élection présidentielle de mai 2007 et à l’époque on n’en avait pas fait toute une histoire.

Mais, car il y a un mais, depuis le début cet usage de l’article 11 est contesté par une partie des juristes patentés, au motif que la Constitution prévoit expressément un article pour sa propre révision, l’article 89, qui oblige à avoir l’accord des deux assemblées parlementaires pour pouvoir réviser.

Aujourd’hui cette opposition s’est durcie et la quasi-totalité des légistes est vent debout contre toute utilisation de l’article 11 à des fins de révision constitutionnelle. Cependant, si les arguments avancés sont juridiques, il est transparent que les véritables raisons sont politiques. Si Marine Le Pen, et plus généralement « les populistes », veulent faire largement usage du référendum, c’est pour contourner les obstacles patiemment disposés par la caste des légistes pour empêcher  l’application des politiques qui ont la faveur des « populistes ». Et inversement, si les légistes crient à l’inconstitutionnalité, c’est parce que le référendum ainsi utilisé menacerait de briser les chaines dont ils ont chargé la souveraineté nationale et qui l’oblige à se mouvoir dans un cercle sans cesse plus étroit.

En vérité, ce débat constitutionnel dissimule à peine un combat politique entre des populares, qui soutiennent que, dans une république, le peuple doit avoir le dernier mot, et des optimates, qui affirment que la vox populi doit respecter les règles fondamentales de la République, règles qui leur donnent à eux, les optimates, un droit de veto sur les désirs exprimés par le peuple.

Ce qui empêche de trancher facilement le débat et de donner raison à l’un ou l’autre camp est que, d’une certaine manière, les deux ont raison. La démocratie, telle que nous l’entendons, est à la fois la souveraineté populaire et la protection des droits fondamentaux des individus. Les deux sont logiquement liés : c’est parce que les êtres humains « naissent et demeurent libres et égaux en droits » (naturels) qu’il est injuste de les gouverner sans leur consentement et que, par conséquent la loi sera faite par la majorité. Cependant, la majorité ne sera pas toute puissante. Les lois qu’elle édictera devront respecter les droits fondamentaux de tous les individus, y compris bien sûr ceux qui appartiennent à la minorité politique du moment.

Il y a donc une parfaite cohérence théorique entre les droits individuels et la souveraineté populaire mais une grande tension dans la pratique entre ces deux éléments : insister sur la souveraineté populaire a vite fait de piétiner les droits individuels, et insister sur les droits individuels a vite fait de priver la nation de la possibilité de se gouverner elle-même.

La difficulté est de trouver un arrangement qui préserve et tienne en équilibre ces deux principes qui tirent dans des directions opposées. Cet arrangement est ce que nous appelons une Constitution. Une Constitution bien conçue distribue le pouvoir politique entre plusieurs institutions de manière à ce que, « par la disposition des choses, le pouvoir arrête le pouvoir », sans pour autant empêcher le gouvernement d’accomplir les tâches indispensables qui sont les siennes. On conçoit que cet équilibre, qui ne repose pas que sur des mécanismes juridiques, soit toujours imparfait et sujet à se dérégler fréquemment. La démocratie est peut-être le régime le plus difficile à établir et à maintenir qui soit (ce qui, entre nous soit dit, devrait totalement nous dissuader de chercher à l’exporter, mais c’est un autre sujet).

L’un des dispositifs destinés à assurer cet équilibre démocratique entre respect de la volonté populaire et respect de la règle est l’existence de cours constitutionnelles, chargées de contrôler que les lois adoptées par la majorité au Parlement respectent bien les dispositions de la Constitution.

Comme l’écrit justement Publius dans Le Fédéraliste : « Il n’existe aucune position qui repose sur des principes plus clairs que celle selon laquelle tout acte de la part d’une autorité déléguée, qui serait contraire à la teneur de la délégation en vertu de laquelle il est pris, est nul. Par conséquent, aucun acte législatif contraire à la Constitution ne peut être valide. »

C’est en effet simple, clair et net. Et l’article 61 de notre Constitution donne ainsi au Conseil Constitutionnel le pouvoir de se prononcer sur la constitutionnalité des lois. Une disposition qu’il déclare inconstitutionnelle ne peut être ni promulguée ni mise en application.

Mais, depuis sa décision fatale du 16 juillet 1971, le Conseil Constitutionnel a peu à peu augmenté ses pouvoirs et ses prétentions. Sa position actuelle, soutenue par la quasi-totalité de la caste de légistes, est qu’il est le seul et unique interprète autorisé de la Constitution et que, par conséquent, les autres pouvoirs publics doivent se soumettre sans discuter à ses interprétations. Toute tentative de contester ou de contourner les décisions du Conseil Constitutionnel serait une remise en cause de la démocratie elle-même ou, comme l’a déclaré un éminent légiste spécialiste de la Constitution : « un coup d’État ».

D’ailleurs l’actuel président du Conseil Constitutionnel, Laurent Fabius, a déjà commencé à disposer ses batteries pour canonner les troupes populistes si celle-ci devait apparaitre du côté du Palais Royal. « Ceux qui comme le général de Gaulle en 1962 avec l’élection du président de la République au suffrage universel, estiment pouvoir s’appuyer sur l’Article 11 et le seul référendum pour réviser la constitution ont tout faux », a-t-il affirmé. « D’abord, parce que n’est pas le général de Gaulle qui veut. Ensuite, parce que toute révision de la Constitution doit se fonder non sur l’article 11 mais sur l’article 89. »

Disons le simplement : l’usurpation de pouvoir et le véritable coup d’État juridique sont le fait du Conseil Constitutionnel et de la caste des légistes qui le soutiennent et, du temps de Cambyse, la peau des conseillers constitutionnels aurait déjà servi à recouvrir leurs sièges.

Le Conseil Constitutionnel tient de la Constitution le pouvoir de statuer de manière définitive sur la constitutionnalité d’une loi, il ne tient d’aucune disposition de la Constitution un monopole dans l’interprétation de la Constitution. En fait, le Parlement et l’exécutif doivent chacun dans leurs actions respectives être guidés par leur propre opinion concernant la Constitution. Chaque autorité qui s’engage à défendre la Constitution s’engage de toute nécessité à la défendre telle qu'il la comprend et non telle qu'elle est comprise par d'autres.

L’article 5, par exemple, dispose que « Le Président de la République veille au respect de la Constitution. Il assure, par son arbitrage, le fonctionnement régulier des pouvoirs publics ainsi que la continuité de l'État. Il est le garant de l'indépendance nationale, de l'intégrité du territoire et du respect des traités. » Ce qui signifie que celui-ci peut non seulement faire usage de ses pouvoirs tel qu’il comprend ceux-ci, et non tel que le Conseil Constitutionnel les comprend, mais plus encore qu’il a le DEVOIR de s’opposer à l’interprétation que le Conseil donne de la Constitution si celle-ci lui semble erronée. Il n’a pas davantage à déférer à l’opinion des légistes, quand bien-même ceux-ci seraient unanimes (ce qui n’arrive jamais au demeurant).

Le président de la République ne peut donc pas promulguer une loi déclarée anticonstitutionnelle par le Conseil Constitutionnel, car la Constitution l’interdit expressément d’une manière qui ne souffre aucune interprétation. En revanche, il peut parfaitement faire usage de l’article 11 pour réviser la Constitution, car cet article souffre plusieurs interprétations raisonnables et qu’il existe en outre les précédents posés par le fondateur de la 5ème République.

En fait, toute Constitution bien conçue instaure une concurrence dans l’interprétation de la Constitution entre les différentes autorités constitutionnelles : cela fait partie de la « disposition des choses » qui permet, autant que possible, de se protéger contre les abus de pouvoir et d’équilibrer souveraineté populaire et droits individuels. En matière constitutionnelle, la seule autorité incontestable, c’est le peuple lui-même, étant donné que le peuple est censé être le seul auteur de la Constitution.

En France le contrôle de constitutionnalité des lois date, à toutes fins utiles, de la 5ème République. Il est donc récent. Les Etats-Unis, en revanche, ont une longue expérience du contrôle de constitutionnalité, et leur histoire offre par conséquent bien des exemples instructifs d’affrontements entre la Cour suprême et les autres pouvoirs politiques. Tenons-nous en à deux cas particulièrement éminents, impliquant tous deux celui qui, de l’aveu à peu près général fut sans doute le plus grand président américain.

Le 6 mars 1857, la Cour suprême rendit le tristement célèbre arrêt Dred Scott, dans lequel le Chief Justice Taney affirmait, d’une part, qu’aucun Noir ne pouvait être considéré comme citoyen américain, et donc qu’aucun Noir ne pouvait exercer une action en justice devant les tribunaux fédéraux, et, d’autre part, que le gouvernement fédéral n’avait pas le pouvoir d’interdire l’esclavage dans les territoires acquis après la fondation des Etats-Unis. Cette décision signifiait que la Constitution américaine garantissait un droit à posséder des esclaves et elle avait pour première conséquence pratique que le programme du parti Républicain nouvellement crée devait être considéré comme anticonstitutionnel, puisque la raison d’être de ce parti était précisément d’empêcher l’extension de l’esclavage au-delà des territoires où il existait déjà.

Toute ressemblance avec la situation actuelle en France…

Les Démocrates s’empressèrent de proclamer que cette décision mettait un point final au débat sur l’esclavage, qui agitait le pays depuis des décennies, et que toute tentative de contester la décision Dred Scott n’était rien d’autre qu’une entreprise séditieuse visant à renverser la Constitution des Etats-Unis. Aujourd’hui on dirait « une attaque contre l’État de droit ».

Abraham Lincoln, dont l’étoile était alors ascendante au sein du parti Républicain, refusa catégoriquement une telle conclusion.

Il affirma que cette décision était mal fondée en droit et en fait, qu’il considérait par conséquent qu’elle n’avait aucune autorité en tant que précédent, et que le parti Républicain n’en continuerait pas moins son action politique tout en faisant tout ce qui était en son pouvoir pour parvenir à ce que, un jour, la Cour suprême, revienne sur cette décision calamiteuse. Trois ans plus tard, Lincoln était élu président des Etats-Unis.

Peu de temps avant son entrée en fonction, les Etats du sud firent sécession, et la guerre civile commença.

Pour répondre à cette menace existentielle, Lincoln prit une série de décisions en s’appuyant sur les dispositions de la Constitution américaine qui font du président le commandant en chef des forces armées de l’Union. L’une de ces décisions fut de suspendre l’Habeas Corpus sur certaines parties du territoire, transférant ainsi aux autorités militaires le pouvoir de maintenir l’ordre.

Saisi par un certain John Merryman, arrêté par les autorités militaires pour trahison, le Chief Justice Taney (encore lui…) déclara que les ordres donnés par Lincoln étaient contraire à la Constitution et que le président n’avait en aucun cas le pouvoir de suspendre l’Habeas Corpus.

Lincoln ne tint aucun compte de cette décision judiciaire. Au contraire, il étendit la suspension de l’Habeas Corpus à d’autres parties du territoire en affirmant que son serment de préserver, protéger et défendre la Constitution l'obligeait à prendre ces mesures. S'exprimant devant le Congrès le 4 juillet 1861, Lincoln expliqua ainsi son action :

« L'ensemble des lois qui devaient être fidèlement exécutées se heurtait à une résistance et était lettre morte dans près d'un tiers des États. Doit-on permettre qu'elles demeurent finalement inexécutées, même s'il était parfaitement clair que, par l'emploi des moyens nécessaires à leur exécution, une seule loi, qui montre tant de sollicitude pour la liberté du citoyen que, en pratique, elle protège plus les coupables que les innocents, devrait être violée dans une mesure très limitée ? Pour formuler la question plus directement : toutes les lois, sauf une, doivent-elles rester inexécutées, et le gouvernement lui-même doit-il s'effondrer de peur que cette loi ne soit violée ? »

Le 24 septembre 1862, Lincoln suspendit l'Habeas Corpus dans tout le pays. Toute personne se rebellant contre les États-Unis serait emprisonnée et jugée par un tribunal militaire. En mars 1863, deux ans après le premier ordre de suspension de Lincoln, cette suspension temporaire fut inscrite dans la loi par le Congrès.

La leçon à tirer de cet exemple pour la France d’aujourd’hui me parait parfaitement claire.

La décision Dred Scott visait à ôter des mains du peuple américain une décision qui lui revenait de droit, en vertu des principes républicains les plus impeccables. Elle était un abus de pouvoir flagrant de la part de la Cour suprême et les Républicains ont eu entièrement raison de ne pas se laisser impressionner par ce fiat judiciaire.

De la même manière, Lincoln n’avait pas à se soumettre à la Cour concernant l’interprétation de ses pouvoirs de président, et il ne l’a pas fait.

Depuis une bonne cinquantaine d’années, les décisions de type Dred Scott se sont multipliées, tant au niveau des juridictions françaises que des juridictions européennes. La question qui est maintenant devant nous est de savoir si le peuple français va définitivement abdiquer son droit naturel à se gouverner lui-même, ou bien s’il va, un jour, se donner un dirigeant décidé à reprendre ce droit des mains des juges et d’une classe politique largement complice, par adhésion, par peur ou par paresse.

Si une telle personne venait à être portée à la tête de l’Etat, elle ne devrait surtout tenir aucun compte de l’interprétation du Conseil Constitutionnel (ou du Conseil d’Etat) concernant ses pouvoirs, et notamment concernant l’usage du référendum. Le président de la République n’a pas à accepter l’interprétation que le pouvoir judiciaire peut donner des termes « organisation des pouvoirs publics », ou bien « réformes relatives à la politique économique, sociale ou environnementale de la nation ».

Si jamais l’usage de ses pouvoirs constitutionnels venait à être indûment entravé par la caste des légistes, je lui conseillerais d’ailleurs de faire usage de toutes les prérogatives que lui confère la Constitution pour briser cette rébellion, y compris au besoin en faisant usage de l’article 16 si aucun autre moyen ne s’avérait suffisant. Car la querelle dans laquelle nous sommes engagés est, à sa manière, aussi existentielle que la sécession des États du sud l’a été pour les États-Unis.

Comme l’a rappelé Lincoln dans ce même discours du 4 juillet 1861 : « Aucun gouvernement populaire ne peut survivre longtemps à un précédent marqué selon lequel ceux qui remportent une élection ne peuvent sauver le gouvernement d'une destruction immédiate qu'en abandonnant le point principal sur lequel le peuple a fait porter ses suffrages. »

samedi 26 mars 2022

Scandale Mc Kinsey ou scandale d'Etat?

 


Un rapport du Sénat intitulé « Un phénomène tentaculaire : l'influence croissante des cabinets de conseil sur les politiques publiques » fait quelque bruit en ce moment, en tout cas sur les réseaux sociaux.

N’écoutant que mon courage, j’ai lu une bonne part des 380 pages du rapport (ce n’était pas si difficile : c’est écrit gros et espacé), pour me faire ma propre idée, et j’en suis venu à la conclusion que le scandale n’était peut-être pas, ou pas seulement, là où on affecte de le voir. 

Mais procédons par ordre. 

Ce que nous dit en premier lieu le rapport, c’est que les prestations des cabinets de conseil nous ont coûté, à nous autres pauvres contribuables, un pognon de dingue : plus d’un milliard d’euros en 2021. Encore n’est-ce là qu’une estimation basse, comme l’admet le rapport, puisque seuls 10% des opérateurs publics ont été interrogés.

Certes, nous n’avons pas attendu l’avènement du président de la chtarteup nachion pour engraisser les cabinets de conseil, mais entre 2018 et 2021 les dépenses de conseil des ministères ont été multipliées par 2,36. 

Sans surprise, les prestations de ces cabinets de conseil sont très inégales. En gros, tout ce qui requiert une vraie expertise technique ou technologique est en général de qualité, notamment en matière informatique, les pouvoirs publics étant gros consommateurs de « consulting » en ce domaine. En revanche, lorsqu’il s’agit de « piloter le changement », « d’accompagner la transformation » ou d’initier au « lean management », la valeur ajoutée est, disons, moins évidente. 

Comme le dit pudiquement le rapport : « Certains griefs mentionnés par les évaluateurs apparaissent en décalage avec l'idée que les cabinets de conseil mettraient à disposition des acheteurs un haut niveau d'expertise et de rigueur couplé à une connaissance fine des enjeux du secteur public. » 

Toujours selon le rapport, « les livrables des cabinets de conseil se matérialisent le plus souvent par la production de présentations Powerpoint » - waouh ! - et par l’organisation d’ateliers, comme par exemple ceux proposés par le cabinet EY au ministère de la culture pour « créer du lien dans un service administratif » : 

– les « ice breakers » : des activités ludiques et courtes pour détendre l’atmosphère dans une réunion, comme par exemple trouver le nouveau nom d’une direction ;

– le « bateau pirate » : chacun s’identifie à un des personnages (capitaine, personnages en haut du mât ou en proue, etc.) et « assume ce rôle, son positionnement, ses humeurs, etc. » ;

– le « lego serious play » : « chaque participant construit un modèle avec des pièces lego », « construit l’histoire qui donne du sens à son modèle » et la présente aux autres ;

– le « facilitateur graphique » : un prestataire réalise « des illustrations façon bande dessinée » permettant d’animer la réunion. 

La liste n’est évidemment pas exhaustive.

J’ai une expérience de première main de ce à quoi peut ressembler une prestation de consultant en milieu administratif. Lorsque j’étais membre du jury des IRA (Instituts Régionaux d’Administration), la présidente du jury avait décidé que nous devions suivre une formation d’une journée avec un consultant afin d’élaborer une grille de notation uniforme, pour juger équitablement et impartialement tous les candidats. L’idée n’était pas absurde et nous étions arrivés à la formation plein de bonne volonté, jusqu’au moment où nous avons réalisé que le consultant n’était pas là pour nous apporter une expertise, mais simplement pour recueillir nos idées, éventuellement les « reformuler », en faire des « nuages de mots » et observer nos réactions au dit « nuage ». Bref, nous étions là pour faire le travail substantiel, lui pour nous écouter et toucher un gros chèque à la fin. Inutile de dire qu’il n’avait jamais passé lui-même un concours de la fonction publique ni enseigné si peu que ce soit. La journée ne s’était pas très bien terminée.

A Dieu ne plaise que je veuille suggérer que toutes les prestations de consultants sont aussi fumeuses que celle-ci. Padamalgam et Yenadébien, mais il est évident que, sur le milliard (au bas mot) dépensé par les pouvoirs publics pour se payer les prestations de cabinets de conseil, un certain nombre de millions  ont dû servir à acheter du vent. 

Le rapport sénatorial donne ainsi plusieurs exemples, parmi lesquels la mission de Mc Kinsey sur « l’avenir du métier d’enseignant. » Selon les termes du rapport « le livrable principal se résume à une compilation – certes conséquente – de travaux scientifiques et à la production de graphiques fondés sur des données publiques, notamment de l’OCDE. » Pour ce travail qu’aurait pu faire n’importe quel cadre administratif de la fonction publique, ou même n’importe quel stagiaire de bon niveau, Mc Kinsey a facturé 496 800 euros, à raison de 3312 euros par journée de consultant. 

On pourra citer aussi Capgemini, missionné par la Direction Interministérielle de la Transformation Publique (DITP) sur le projet « Communauté 360 », avec « l’objectif de structurer un réseau de professionnels soutenant les parcours de vie des personnes en situation de handicap ». Verdict final pour cette prestation facturée 280 200 euros : « compréhension limitée du sujet », « absence de rigueur sur le fond comme sur la forme » et « valeur ajoutée quasi-nulle, contre-productive parfois ». Mais, heureusement, les consultants se sont avérés être « des personnes de bonne compagnie. » Et peut-on jamais payer trop cher le plaisir d’une bonne compagnie ?

Toutes ces petites gabegies, qui alimentent le fleuve immense et tumultueux de la dépense publique, auront d’autant plus de mal à être digérées par le citoyen-contribuable que le rapport sénatorial révèle aussi que certains cabinets de conseil se livrent à une « optimisation fiscale » parfois bien difficile à distinguer de la fraude pure et simple. 

Je cite le rapport :

« Le constat est clair : le cabinet McKinsey est bien assujetti à l'impôt sur les sociétés (IS) en France mais ses versements s'établissent à zéro euro depuis au moins 10 ans, alors que son chiffre d'affaires sur le territoire national atteint 329 millions d'euros en 2020. (…)

Cette situation interroge d'autant plus que McKinsey est un acteur majeur du consulting, qui est intervenu sur des réflexions stratégiques pour notre pays, par exemple lors de la crise sanitaire (pour un montant estimé à 12,33 millions d'euros) ou lors de l'organisation pro bono du sommet Tech for Good pour la Présidence de la République en 2018 et 2019. »

Je vous vois venir, vous les complotistes et les populistes de tout poil : vous allez crier au scandale, à la collusion, aux copains et aux coquins qui se gobergent aux dépends du bas peuple. Peut-être est-ce le cas – et le rapport sénatorial n’affirme pas catégoriquement qu’il y a eu fraude ou détournement de fonds publics – mais, à mon avis, se focaliser sur ce point reviendrait à laisser l’arbre vous cacher la forêt.

Car la question la plus fondamentale que pose, à mon avis, ce recours effréné aux cabinets de conseil est : mais à quoi servent donc les agents publics ? 

Rappelons qu’il y avait, début 2020, 5,6 millions de personnes travaillant dans la fonction publique, pour environ 5,2 millions d’équivalent temps plein. Le salaire net mensuel moyen de ces agents publics était de 2320 euros, toutes fonctions publiques confondues, et les dépenses de personnel de l’Etat ont représenté 5,8% du PIB en 2020, soit à peu près 133 milliards d’euros. Sur ce dernier point, gardez bien à l’esprit que la Fonction Publique d’Etat n’est que l’une des trois fonctions publiques et qu’elle représente environ 44% de l’emploi public. Un très grossier calcul nous donne donc des dépenses de personnel d’environ 300 milliards par an pour l’ensemble des agents publics, soit 13% du PIB.

Avec 5,6 millions de personnes et 300 milliards d’euros de rémunération, on pourrait penser que les acteurs publics trouveraient en leur sein à peu près toutes les ressources en personnel qu’il leur faut pour assurer leurs missions, pas vrai ?

Certes, il est compréhensible que certaines compétences techniques très pointues ne soient pas internalisées et qu’il soit plus économe des deniers publics de faire appel ponctuellement à des prestataires privés pour certaines missions ou certains ouvrages, comme, mettons, par exemple, construire un pont suspendu.

Mais, ce que montre le rapport, c’est que le recours à des cabinets de conseil se fait pour tout et n’importe quoi, y compris pour des missions de gestion qui sont, semble-t-il, le cœur de métier de la fonction publique. Par exemple, le ministère de la culture a délégué au cabinet Deloitte la gestion de dispositifs d’aides publiques. Comme le disent pudiquement les rapporteurs « On peut clairement s’interroger sur la plus-value d’un cabinet de conseil pour gérer le versement d’aides publiques. »

L’un de ces dispositifs consistait à verser une aide exceptionnelle au profit des journalistes pigistes. A la clôture de la première campagne, 1106 demandes d’aides avaient été transmises et gérées par le cabinet Deloitte. Coût de la prestation : 142 000 euros. Le ministère a justifié le choix de recourir à un prestataire externe par « l’impossibilité de ses services à assumer la charge de travail induite pour la gestion du dispositif ».

L’impossibilité de traiter 1106 dossiers de demande d’aide ? Réellement ? Mais à quoi, exactement, servent les quelques 12 000 agents qui travaillent au ministère de la culture ?

Lorsque la Caisse Nationale d’Assurance Vieillesse paye Mc Kinsey presque un million d’euros pour une prestation de conseil en vue de « se préparer à la réforme des retraites », que fait-elle d’autre que déléguer ce qui devrait être son cœur de métier ? Pour cette mission, Mc Kinsey a facturé la journée de consultant à 2736 euros. Par comparaison, le coût moyen chargé d’un fonctionnaire de catégorie A+ s’élèverait à 362 euros par jour ouvrable. A quoi servent donc les hauts fonctionnaires, si ce n’est à « piloter » leur administration et à préparer et mettre en œuvre les réformes voulues par le gouvernement ?

Mais sans doute est-ce là une vision naïve du travail de l’administration et que la plupart de ces brillants esprits, recrutés à Bac+5 au sortir d’écoles prestigieuses, sont payés pour jouer au sudoku.

De même, il est piquant de lire l’aveu suivant au sujet du recours très fréquent à des prestations extérieures dans le champ informatique et numérique : « Comme l’a souligné M. Cédric O, secrétaire d’État chargé de la transition numérique et des communications électroniques, l’État compte ainsi 18 000 informaticiens et en recrute 2 000 par an mais « il est soumis à extrêmement forte concurrence » : « dans le secteur privé, vous pouvez bénéficier de salaires trois, quatre ou cinq fois supérieurs pour faire à peu près la même chose que ce qui est demandé dans le secteur public. » 

Autrement dit, le contribuable paye déjà près de 20 000 agents pour s’occuper de l’informatique de l’Etat mais, comme l’Etat recrute des informaticiens plutôt médiocres, faute de pouvoir leur offrir des salaires et des carrières intéressantes, il doit régulièrement recourir à des prestataires extérieurs qui facturent leurs journées à prix d’or. Quelqu’un pourra-t-il m’expliquer en vertu de quelle logique tordue le contribuable devrait être obligé de payer deux fois pour le même service, au surplus souvent mauvais ?

En fait, deux choses ressortent clairement de ce rapport : d’une part, le recours aux cabinets de consultants est la conséquence de l’inefficacité extrême de la gestion des ressources humaines au sein de la fonction publique ; d’autre part ce recours est d’autant plus fréquent que le gouvernement agit dans l’urgence et cherche à faire des « coups médiatiques ».

Incapable de mobiliser ses troupes pour des situations d’urgence, désespérant de réformer le fonctionnement des administrations, incapable même, souvent, de s’en faire obéir, incapable lui-même d’inscrire son action dans la réflexions et le temps long, le gouvernement préfère recourir à des prestataires extérieurs qui, du moins, sont réactifs et livrent rapidement « quelque chose », quand bien même ce « quelque chose » serait de médiocre valeur. Mais l’important, n’est-ce pas, c’est de pouvoir annoncer sur les plateaux télé que le gouvernement agit. 

En vérité, le scandale, ce ne sont pas les centaines de millions gobés goulûment par les cabinets de conseil, c’est le fonctionnement de l’Etat. Il ne faut pas jouer les étonnés si les mouches abondent dans les écuries d’Augias.