Wednesday, July 21, 2010

Le Big Bang et ce qui s’en suivit

Je lis le dernier bouquin des frères Bogdanov, Le visage de Dieu, sympathique rappel d’histoire des sciences, de la découverte du Big Bang. Ils notent en particulier les réticences des cosmologistes à accepter que l’univers, comme tout ce qui est en son sein, ait une histoire : un début, une croissance et probablement une fin. Une série d’articles parus sur la Toile, pour la plupart en anglais, font état du dernier avatar de ces réticences. PhysOrg.com publie le 12 juillet 2010 un article intitulé Revised theory of gravity doesn't predict a Big Bang faisant écho à Physical Review Letters où l’on apprend que deux astrophysiciens, Maximo Banados et Pedro Ferreira, ont réussi à remettre le diable dans sa boîte en s’appuyant sur les travaux d’Eddington qui trouvait « répugnante » l’idée d’un univers né d’un point initial ou d’une singularité. Eddington avait proposé une théorie de la gravitation différente de celle d’Einstein et Hilbert mais incomplète puisqu’elle ne rendait pas compte de l’action gravitationnelle due à la masse (matière). Banados et Ferreira, à la suite de beaucoup d’autres, ont tenté d’inclure la matière dans cette théorie, sauvant ainsi la notion d’un univers parménidien. « Dans leur analyse, écrit PhysOrg.com (l’auteur réel restant anonyme), ces chercheurs ont trouvé qu’une clé caractéristique de la théorie d’Eddington révisée de la gravitation est qu’elle reproduit exactement celle d’Einstein dans le vide (sans nulle matière) mais donne d’autres résultats si l’on ajoute la matière. A cause de cette caractéristique, la théorie révisée a des implications surtout pour les régions à haute densité comme l’univers à son tout début ou l’intérieur d’un trou noir. La théorie prédit ainsi une densité maximum d’espace-temps homogène et isotrope qui pourrait avoir des conséquences pour la formation d’un trou noir. » Homogène et isotrope ! C’est exactement ainsi que l’on peut traduire en langage moderne le Sphairos de Parménide.

A l’origine, il n’y aurait donc plus de singularité quasi ponctuelle[1] car la théorie d’Eddington implique une certaine étendue de départ pour éliminer la singularité, à partir de quoi la croissance et l’histoire de l’univers peuvent se dérouler dans les mêmes termes qu’avec le Big Bang. Tout dépendrait de la densité de ce monde encore au berceau. On peut aussi penser notre actuel univers comme le résultat de l’effondrement d’un autre plus ancien. Pourquoi éliminer la singularité ? Tout simplement parce qu’un tel objet n’est pas mathématiquement défini, n’est donc pas descriptible par le langage de la physique. Or la Relativité Générale en présente au moins deux : l’état de l’univers à l’origine et la vitesse de la lumière dans le vide. On sait d’ailleurs qu’Einstein avait inclus dans ses équations une constante ad hoc afin d’éliminer la singularité originelle et l’obscénité que représentait pour lui un univers en expansion, ayant un début et une histoire. Pour la vitesse de la lumière, il faut atteindre les études supérieures pour apprendre qu’il ne s’agit pas d’une limite absolue, que les équations fonctionnent au delà mais qu’elle agit comme un séparateur entre l’ici et l’ailleurs. Ferreira, professeur d’astrophysique à la prestigieuse université d’Oxford, envisage d’ailleurs de reprendre la question de la constante cosmologique.

Nihil novum sub sole, pourrait-on simplement penser ; il y a toujours eu des réfractaires comme il y en avait à l’héliocentrisme de Copernic. Et cela vient encore d’Oxford où travailla sir Eddington, où l’on rencontre un outsider comme Hoyle qui s’oppose depuis toujours à l’idée même d’une origine de l’univers. Mais cette nouvelle tentative pour éliminer le Big Bang vient alors que les données d’observation des satellites COBE et WMAP suivis aujourd’hui de PLANCK semblaient le confirmer sans défaillir depuis vingt ans. Certes, je peux comprendre qu’une singularité agace : tous les calculs s’affolent, on obtient des résultats infinis donc aberrants, on ne peut en tirer ni élégante architecture du monde ni technologie mais derrière cet agacement, on peut lire en filigrane un soubassement de la pensée occidentale depuis au moins Parménide. Le chantre du changement qu’était Héraclite, assez proche des notions taoïstes, n’a guère inspiré ni les philosophes ni les hommes de science alors qu’un Zénon d’Elée ratant à un poil philosophique près le calcul différentiel et intégral parce qu’il ne cherchait à démontrer que l’impossibilité du mouvement est encore enseigné dans nos écoles sans que son paradoxe émeuve plus que ça. Notons au passage que la Relativité Générale avec ses lignes d’univers déterministes comble ses vœux !

D’autres articles aux titres provocateurs (« A scientist takes on gravity » pour le New York Times ; « Newton s’est trompé, la gravitation n’existe pas et c’est une immense révolution ! » sur Agora Vox) font état des travaux d’Eric Verlinde de l’université d’Amsterdam. Ils reprennent l’essentiel de son article paru sur arXiv, le site le plus professionnel de la physique sur la Toile sous le titre On the origin of gravity and the laws of Newton[2] . Verlinde revisite toute l’histoire de la gravitation de Newton à Einstein et les conséquences de ces lois du point de vue d’une collection de particules quelconques. Cette relecture l’amène à remettre en cause la gravitation en tant que force fondamentale, ce qui n’est pas rien. Sa conclusion laisse rêveur : « Les résultats de cet article suggèrent que la gravitation surgit comme une force entropique, une fois que l’espace et le temps eux-mêmes aient émergé. Si la gravitation et l’espace temps peuvent être expliqués comme un phénomène émergent, cela entraîne d’importantes implications dans plusieurs domaines où la gravitation joue un rôle central. Il serait spécialement intéressant d’examiner les conséquences en cosmologie. » Il souligne que d’autres auteurs ont proposé une origine entropique et thermodynamique de la gravitation mais que son apport propre consiste à poser ce problème dans les conditions d’émergence de l’espace. Nous voici encore aux origines de l’univers. « Nous avons identifié, écrit Verlinde, une cause, un mécanisme pour la gravitation. Elle découle de différences dans l’entropie, quelle que soit la façon de la définir, et est une conséquence de la dynamique moyenne statistique aléatoire au niveau microscopique. La raison pour laquelle la gravitation doit suivre la trace des énergies ainsi que les différences d’entropie est désormais clair. Elle le doit car c’est ce qui cause le mouvement ! »

Si l’origine de l’univers est encore au delà de nos possibilités de vérification expérimentale – encore que l’on puisse se demander jusqu’à quand, entre les données des satellites dédiés à l’observation des premières traces du Big Bang et le nouvel accélérateur de particules du CERN – il n’en va pas de même des trous noirs. Verlinde reprend ainsi les travaux de Hawking et Bekenstein et sans doute mes lecteurs ne hurleront pas d’enthousiasme en lisant que l’entropie d’un trou noir peut dépasser la limite de Bekenstein. Peut-être, avec de vagues réminiscences des travaux de Karl Pribram et de David Bohm, seront-ils plus sensibles à cette dernière assertion : « Ce que Newton ne savait pas, et sans doute Hooke non plus, c’est que l’univers est holographique. L’holographie est aussi une hypothèse, certes, et peut sembler aussi absurde que l’action à distance. Un des points essentiels de cet article, c’est que l’hypothèse holographique offre un mécanisme naturel pour l’émergence de la gravitation. »

L’article de Bernard Dugué sur Agora Vox, « Newton s’est trompé, la gravitation n’existe pas et c’est une immense révolution ! » donne des travaux de Verlinde un résumé qui se veut compréhensible par un élève de terminale, simplicité trompeuse. Après avoir rappelé que « la fameuse formule de l’entropie du trou noir, désignée comme formule de Bekenstein-Hawking, présente l’incroyable particularité d’inclure G, c et h, c’est-à-dire trois des constances les plus fondamentales de la physique, la première étant celle de Newton, auquel on ajoute la vitesse de la lumière et le quantum d’énergie », il reprend pas à pas les publications qui ont mené Verlinde à l’hypothèse holographique. L’étape décisive est celle de Ted Jacobson en 1995, le premier[3] à proposer le principe holographique comme explication des trous noirs, principe tel que « l’information « engloutie » par le trou noir serait restituée sur ses bords ». Verlinde pousse à l’extrême les conséquences de ces travaux mais, selon Dugué, « il reconnaît néanmoins que son analyse est vague, péchant par déficiences théoriques et qu’il faut persévérer dans l’aventure dont le terme final sera d’établir que la gravitation n’est pas une force particulière mais une force entropique découlant des variations d’informations liées aux déplacements des objets et à leur localisation ». Dans cette dernière phrase, il faut remplacer particulière par fondamentale et je crains que le vulgarisateur ne se soit laissé abuser par l’humour d’Eric Verlinde qui pratique une forme d’autodérision pour désarmer les contradicteurs. Il n’y a rien de vague dans les équations que l’on peut lire dans on article !

Apparemment, le pont-aux-ânes de la physique qu’est l’existence de quatre forces ou interactions fondamentales que l’on cherche à unifier depuis des décennies n’a pas frappé Bernard Dugué. Rappelons qu’il s’agit de la force forte qui soude les noyaux des atomes, de la force faible, de la force électromagnétique et de la gravitation. Déjà, les trois premières ont été unifiées et l’histoire de leur émergence bien décrite. Reste la gravitation qui nargue son monde depuis plus de trente ans. En faire une conséquence de variations locales de l’entropie rejoint la conclusion à laquelle parviennent les frères Bogdanov par un autre biais : notre univers n’est pas né de rien comme le voulait la première approche du Big Bang, il jaillit d’un ailleurs que l’on peut concevoir comme un océan d’information. Or rappelons que l’entropie ne mesure pas, comme on le lit encore un peu partout, le désordre d’un système, c’est plus mystérieux que cela car le désordre dépend du point de vue et de l’échelle de l’observation, mais aussi que l’information est l’autre nom de la néguentropie.

(à suivre)



[1] Quasi ponctuelle car rien n’est descriptible en deçà du temps de Planck, pas plus l’étendue de l’univers que toute autre caractéristique.

[3] Si l’on oublie Pribram et Bohm dans les années 70, mais ces derniers n’ont pas travaillé sur les trous noirs.

Monday, July 19, 2010

Lettre ouverte à un ami guénonien sur le sens des temps.

J'ai retrouvé ce texte oublié dans un coin d'ordinateur. Ecrit vers 2005, je ne crois pas l'avoir publié encore.


On fait souvent allusion aux cycles comme à une spirale. Cette image est intéressante parce qu’elle suppose que jouent ensemble deux perceptions du temps et cela rejoint le vocabulaire des peuples de l’antiquité profonde qui parlaient toujours des temps, au pluriel. L’idée d’un temps, au singulier, est relativement récente. On la trouve chez les Grecs et sa première occurrence date du VIe siècle avant notre ère. Et encore, il s’agit d’une expression pour rendre le passé lointain. Donc ce qui nous vient de mémoires traditionnelles, c’est l’idée de temps complexe.

Imaginons un gamin sumérien. Son expérience vécue du temps va faire la synthèse de plusieurs réalités. D’abord il y a le temps des événements irréversibles : on naît, on grandit, on vieillit, on meurt et jamais la fleur ne redevient bouton, jamais l’enfant ne rentre dans le sein de la mère, jamais la cruche cassée ne se recolle seule. C’est le temps des généalogies dans les chants-mémoire des peuples : Untel fils d’Untel fils d’Untel... Il n’y a d’ailleurs pas que des malheurs dans ce temps « linéaire » car c’est bien de cela qu’il s’agit. Et puis, il y a le temps cyclique lié aux astres, temps diurne et nocturne, temps saisonnier, temps de l’année, temps des événements qui reviennent régulièrement. C’est le temps des étoiles, du soleil et de la lune. Si notre gamin est un adolescent du temple, il sait que ces retours s’entremêlent de manière assez complexe. C’est le temps que l’on mesure, que l’on repère, le seul d’ailleurs qui puisse alors se mesurer avec exactitude. Enfin, il y a le temps de la conscience, celui qui semble long dans la douleur et s’évapore dans la joie. Voire le temps immobile de l’extase.

J’ai pris l’exemple d’un jeune sumérien, mais cet exemple est relativement trompeur. Il faut remonter encore plus loin dans le passé, au magdalénien, du côté des grottes peintes. Tous les préhistoriens admettent maintenant que notre ancêtre de l’époque se préoccupait du calendrier : on a retrouvé des os gravés que l’on a pu identifier comme des calendriers lunaires. Mais ce que personne a ma connaissance n’a souligné, c’est que ce comput lunaire n’avait aucune utilité pratique. Pour la cueillette, il vaut mieux regarder où en est la végétation et, pour la chasse, se fier à l’odeur du vent, aux traces, aux brisées et aux laissées. Une surprise encore plus grande nous attendait dans la grotte des Combarelles. On y trouve 116 chevaux : en jours, c’est la révolution synodique de Mercure et la demi révolution sidérale de Vénus ; 19 ours : c’est le cycle luni-solaire de Meton, le nombre d’années nécessaires pour que les phases de la lune reviennent au même jour de l’année solaire ; 14 rennes : c’est un nombre de calcul qui permet d’harmoniser le cycle de Meton avec le cycle de Vénus. Bizarre, pour des chasseurs-cueilleurs que la doctrine officielle nous présente comme ignorants de l’univers. Au magdalénien donc, on se préoccupait déjà de repérer l’année avec exactitude. Et il n’y avait pas mille façons de faire. La seule observation suffisamment précise avec les instruments d’époque, c’est le lever héliaque d’une étoile brillante et la seule candidate possible, c’est Sirius. Mais voilà, du fait de la précession qui entraîne à la fois la dérive des constellations zodiacales et celle de l’étoile polaire, Sirius n’est pas toujours visible au dessus du 27e parallèle. Et Sirius a disparu du ciel visible, sous nos latitudes, peu avant que l’on se mette à peindre la grotte des Combarelles.

Arrêtons nous là dessus, c’est très important. Pour ceux qui repèrent les cycles dans les astres, le vrai pôle, ce n’est pas le nord géographique mais le pôle de l’écliptique, le seul invariable. Au cours des millénaires, le pôle nord décrit un cercle autour de lui. Si, dans la grotte des Combarelles, on a mémorisé par des danses animales sur les parois le cycle de Meton et celui de Vénus, c’est qu’au prix d’un calcul un peu plus ardu, cela permettait de repérer l’année sans le secours de l’observation de Sirius. Mais la disparition de la Belle Etoile signifie aussi que, même si l’on ne savait pas calculer la précession — et rien ne dit d’ailleurs qu’on ne l’ait pas calculée approximativement par observations successives — on avait au moins la connaissance intuitive de cycles plus longs non seulement qu’une vie humaine mais même que les trois à quatre générations qui restent vives dans la mémoire des peuples sans écriture.

Pôle invisible et cycles à très long terme : c’est exactement ce que l’on va retrouver dans la tradition indienne et qui sera formalisé dans le Vedanta. Et, dit en langage plus moderne, le pôle de l’écliptique, c’est tout simplement l’axe de rotation du système solaire. Pour les anciens, c’est le pôle du zodiaque. Dans tous les cas, on a la notion d’un centre ou d’un axe du monde qui est celui des étoiles et des planètes, donc des Puissances, et dont l’axe polaire terrestre n’est qu’un reflet ou un analogon. Je sais, Guénon n’en parle pas clairement, encore qu’il y ait nombre de passages où cette connaissance se lit en filigrane dans son œuvre. Mais l’idée même de dériver des centres secondaires à partir d’un centre primordial prend tout son sens dans cette connaissance du pôle de l’écliptique. Il y a des moments où Guénon semble aussi cachottier que les Alchimistes bon teint.

Quant aux cycles à très long terme, la Grande Année de Platon, ils vont induire une représentation fractale complexe du temps/des temps. On retrouve cette fractalité dans la doctrine des 4 âges puisque chacun d’eux peut à son tour se décomposer en 4, ad libitum. Mais il y a autre chose dans cette doctrine, il y a l’idée d’accélération du phénomène et l’idée de déploiement des potentialités. Ne nous fions pas avec une croyance naïve (ou parce que c’est écrit) au comput brahmanique qui me paraît plus symbolique que scientifique. Ce qui est intéressant, c’est la progression mathématique choisie : c’était avec les outils dont ils disposaient la meilleure approximation possible d’une exponentielle. Comme 22/7 était la meilleure approximation possible de pi. Un déploiement sur le très long terme de potentialités selon une exponentielle mâtinée de phénomènes cycliques, nous dirions aujourd’hui périodiques, donc en langage mathématique moderne c’est une fonction d’onde exponentielle fractale.

Refaire le comput ou exprimer cette loi fondamentale dans le langage scientifique contemporain, ce n’est pas si simple à mettre en œuvre. Il ne suffisait pas de peaufiner l’expression mathématique mais il fallait aussi des recherches historiques, trier entre ce qui fait réellement sens et ce qui n’est qu’accessoire, vérifier à chaque pas que nous ne prenions pas nos désirs pour des réalités. Mais pour résumer en quelques phrases ce qui fera l’objet d’un bouquin entier si je parviens à l’écrire jusqu’au bout. Le déploiement des potentialités de l’univers, c’est l’histoire du Big Bang, de l’apparition des interactions fondamentales, de la formation des galaxies, des étoiles, du système solaire. Le déploiement des potentialités de la planète Terre, c’est l’histoire du vivant. Et le déploiement des potentialités de l’homme ? Ah, cela c’est moins simple à mesurer et à dater. Les systèmes politiques ? Ils se résument à 5 grands types structurels (c’est même ce constat qui m’avait permis de prédire dès 1976 la chute de l’URSS, avec 6 mois d’avance sur Carrère d’Encausse) déjà plus ou moins décrits par Aristote. Leur alternance ne fait pas un déploiement exponentiel... On tournerait plutôt en rond de ce point de vue, même s’il y a des variantes. Il y a en tout cas un domaine où les émergences sont cumulatives et où l’on peut mesurer un déploiement exponentiel, c’est celui des connaissances intellectuelles, du savoir mathématique et scientifique. Or, à part aux environs immédiats du Big Bang mais cette anomalie est normale, si j’ose ce raccourci, on peut mathématiquement inscrire sur la même courbe les trois déploiements.

Du point de vue mathématique, cela revient à calculer non pas l’exponentielle elle-même, trop compliqué, mais la droite logarithmique qui lui correspond, à faire dessus une analyse de Fourier et, si l’on veut vraiment peaufiner et généraliser, à donner une expression fractale à tout cela. Pour ce qui nous importe, ce n’est même pas la peine d’aller jusqu'à l’expression fractale. Là, nous nous trouvé confrontés à un premier problème : pour calculer la droite logarithmique, il faut avoir une idée de la date du point d’inflexion s’il s’agit d’une courbe en S ou du point « Oméga » qui pourrait ressembler à un nouveau Big Bang, cognitif cette fois-ci. Disons du point de métamorphose. Donc il a fallu procéder par approximations successives. Deuxième problème, le constat d’un flou dans les datations, ce que Pascal Pastor a appelé des « fourchettes objectives ». Ce flou n’est pas une erreur de mesure. Il obéit lui aussi à la même exponentielle : plus les dates d’émergence se rapprochent, plus la fourchette est étroite. Il a un sens. Il indique que la loi fondamentale qui préside au déploiement est de type quantique. La date la plus fine à laquelle nous sommes arrivés pour le « point Oméga » est 2018,3 soit avril 2018. Mais il faut rester prudents. On pourrait sans doute affiner encore le calcul. Il faut prendre cette date comme un ordre de grandeur parce que, d’un tour de roue à l’autre, elle a tendance à bouger, de deux à trois ans parfois.

Voilà pour les prévisions. Mais tout cela ne pénètre pas le mystère du temps. Jusqu’ici nous l’avons traité en physiciens comme une dimension de l’univers corrélée aux déploiements irréversibles. Mais le problème des équations quantiques, c’est justement qu’elles sont réversibles sur le temps, que la causalité peut aller aussi bien du passé vers le futur (flèche des phénomènes irréversibles et des rationalistes bien bornés ou RBB) que du futur vers le passé comme l’ont montré Feynman et Costa de Beauregard. Il y a même des cas, pour des particules ou des êtres se déplaçant plus vite que la lumière, où le temps est du genre espace, c’est à dire qu’on peut l’embrasser d’un regard comme un paysage. Voir L’homme superlumineux de Régis Dutheil (Sand, Paris, 1990). Il base son argumentation sur le fait bien connu des physiciens que la vitesse de la lumière n’est pas une limite au sens d’un mur infranchissable mais une singularité. Si on la dépasse, les équations recommencent à fonctionner. Il n’y a qu’au voisinage de C qu’on a des effets aberrants comme une masse infinie par exemple. Et il démontre gentiment que le cerveau fonctionne comme un échangeur entre particules subluminiques et particules supraluminiques ou tachyons. Quand j’ai lu son bouquin, à sa sortie, j’étais en train de rédiger ma thèse de théologie et ce qui m’a frappé, c’est que le comportement prévisible d’éventuels êtres tachyoniques est exactement celui que les traditions zoroastrienne, hébraïque puis chrétienne prêtent aux anges. Fascinant. Tout cela a pour conséquence que, d’un certain point de vue supraluminique, notre passé n’est pas plus immuable que le futur. Et pourtant la loi générale de déploiement, de complexification croissante diraient les cosmologistes, fonctionne.

D’où : l’action sur le passé est théoriquement possible dans certaines limites. Un voyageur du temps pourrait tuer Héraclite et Parménide au berceau mais ne pourrait empêcher l’apparition d’un mode de pensée philosophique vers -800, sauf à éradiquer entièrement l’espèce humaine. Si l’on veut modifier l’histoire, il faut savoir sur quoi l’on peut agir et sur quoi toute action sera vaine.

On m’a rétorqué, dans les milieux des sciences humaines, que nous n’avons aucune trace d’une action de voyageurs du temps, que personne n’en a rencontré — pas sûr : voir Jérôme Cardan et John Dee — et que les indices historiques manquent. Cette remarque m’a aiguillonnée. Après tout, j’ai une formation d’historienne. Je me suis donc demandé de quelle nature pourraient être des indices de manipulation de l’histoire.

Tout d’abord, nous n’en aurions pas de traces documentaires puisque les documents sur lesquels nous travaillons seraient issus de ce passé recomposé. Si traces il y avait, ce ne pourraient être que celles de projets avortés, d’événements dont le déroulement prévisible par les contemporains auraient tourné autrement. De plus, s’il s’agit de privilégier un futur plutôt qu’un autre, une seule correction ne suffirait pas. Il faudrait une succession de « coïncidences » convergeant vers le même but. Trouve-t-on de telles itérations convergentes dans l’histoire ? La réponse est OUI. Voyons plutôt.

Le 7 décembre 1087, Guillaume le Conquérant, fondateur du royaume d’Angleterre meurt à Rouen, alors qu’il tentait de conquérir aussi les territoires de Philippe 1er de France. Sa mort est due à une chute de cheval devant la ville royale de Mantes, en plein combat. Son successeur ne poursuivra pas dans cette voie.

En avril 1216, le dénommé Jean sans Terre a tellement exaspéré les barons anglais qu’ils offrent le trône d’Angleterre à Philippe Auguste pour son fils Louis. Ce dernier rameute son ost et traverse le channel, il ne tarde pas à prendre Londres, dès juillet. Patatras. Le 19 octobre, Jean sans Terre meurt ; le pape et les barons vont préférer la continuité dynastique, Henri III est élu roi bien qu’il soit encore enfant et Louis n’a plus qu’à se rembarquer.

En 1340, Edouard III d’Angleterre, fils d’Isabelle de France et donc petit-fils de Philippe le Bel, prétend à la couronne de France en tant que descendant direct, contre Philippe de Valois (choisi par les pairs du royaume). C’est la première phase de la guerre de cent ans. Les Anglais remportent des succès militaires jusqu'à faire prisonnier en 1356 Jean le Bon, fils et successeur de Philippe. Tout va basculer sur... la météo. Le 12 avril 1360, alors que la conquête est presque achevée, qu’il ne reste plus qu’à rentrer dans Paris, un terrible orage de grêle tue les chevaux de l’armée anglaise. Faute de monture ou par le choc psychique de l’événement, Edouard renonce au titre de roi de France le 8 mai suivant. Jean le Bon est libéré. Même s’il s’agit d’une France amputée de l’Aquitaine... En 1362 puis 1369, la peste noire est en Angleterre, ce qui entraîne une catastrophe économique et empêche Edouard de réagir avec force lorsque Charles V rompt le traité de Brétigny et tente de se réapproprier la suzeraineté sur l’Aquitaine.

En 1420, Charles VI de France et Isabeau de Bavière déshéritent leur fils Charles et le déclarent banni du royaume, au profit de Henri V d’Angleterre, leur gendre. Les deux couronnes de France et d’Angleterre sont déclarées « unies à perpétuité ». En 1422, mort presque coup sur coup de Charles VI et d’Henri V. L’héritier naturel, bien que déclaré illégitime, de Charles VI est Charles VII. Celui de Henri V est Edouard IV, mineur, sous la régence du duc de Bedford. On connaît la suite, l’aventure de Jeanne d’Arc et le sacre de Charles VII à Reims en 1429. C’est le tournant, bien qu’il faille attendre 1453 pour la fin des hostilités et 1475 pour le traité de Picquigny qui consacre la séparation des deux royaumes.

En 1788, l’état économique et politique de l’Angleterre est tel, avec les accès de folie du roi George III, que les responsables anglais songent sérieusement à offrir le trône au roi de France (l’Angleterre a toujours maintenu la fiction de l’union des royaumes). L’inertie de Loménie de Brienne fait capoter le projet. Cet épisode est généralement passé sous silence dans les manuels (ne parlons pas des choses qui fâchent).

En 1804, au camp de Boulogne, Napoléon éconduit tour à tour les deux inventeurs de la marine à vapeur, Jouffroy d’Abbans et Fulton. Résultat, lorsque l’année suivante la flotte française tente de traverser la manche, elle est à voiles, victime de la tempête et ne peut rien faire.

Réfléchissons. Que serait-il arrivé ensuite si l’une ou l’autre de ces tentatives d’unification franco-anglaise avait réussi ? Au XVIIIe siècle encore, la langue française était celle des élites, de la diplomatie, des arts, tandis que les traités scientifiques s’écrivaient en latin. Que le roi d’Angleterre soit devenu roi de France ou l’inverse, la langue anglaise aurait été provincialisée. La langue et la culture françaises seraient devenues dominantes en Europe et au-delà. Ce n’est pas tout.

En 1562, le huguenot français Ribault fonde une colonie en Caroline du sud. Il sera vaincu en 1565 par l’amiral espagnol Menendez et, malgré une action de représailles française en 1568, les Espagnols restent maîtres du terrain. Mais c’est cette tentative qui donne aux Anglais l’idée d’envoyer leur propre expédition de conquête en 1584 (fondation de la Virginie).

Les droits des rois de France ont cependant été établis par Ribault. Charles IX, Henri III puis Henri IV reconnaissent formellement ces droits mais ne les revendiquent pas de manière active. En particulier, ils ne permettent pas l’établissement des huguenots outre-Atlantique et préfèrent coloniser Terre-Neuve. Ce choix semble un pur caprice. Notons qu’avec un tel exode, on aurait pu faire l’économie des guerres de religions.

Vers 1670. Cavelier de la Salle fonde la Louisiane. Mais en 1686-87, les Espagnols, alliés aux Anglais, revendiquent toute la côte. Il existe une colonie française à Saint-Domingue, d’où aurait pu partir un appui, mais le roi de France a d’autres chats à fouetter. L’avènement du roi d’Espagne Philippe V, un Bourbon, intervient trop tard pour gêner la colonisation anglaise.

En 1688, après les troubles dynastiques d’Angleterre, les partisans canadiens et américains de Jacques II Stuart se rallient à Louis XIV. Mais Frontenac ne parvient pas à s’emparer de New York, faute à la malchance persistante, et les jacobites se rapprochent du pouvoir anglais.

En 1714, lors du traité d’Utrecht, la France abandonne la baie d’Hudson, Terre Neuve et l’Acadie contre la reconnaissance du Bourbon espagnol.

Entre 1714 et 1763, stagnation démographique des colons français malgré une forte natalité, faute de politique d’émigration active. Pendant ce temps, la population d’origine anglaise s’accroît.

En 1746, lors de la guerre de succession d’Autriche, Beauharnais, gouverneur français du Canada, veut reconquérir l’Acadie. Il demande 2000 hommes, Louis XV lui en accorde plus de 8000 dont 5000 marins. L’escadre de 12 navires est commandée par le duc d’Anville. Tempête, scorbut, elle est décimée et d’Anville se suicide. Son successeur, La Jonquière, qui doit ramener en France les débris de l’expédition, est écrasé le 3 mars 1747 au cap Finisterre.

Après la guerre de Sept Ans (1754-63), le Canada français est cédé à l’Angleterre, ainsi que la rive gauche du Mississippi, la Louisiane occidentale à l’Espagne.

En 1778, le Congrès américain, encore « insurgent », appuie le projet de La Fayette de reconquête du Canada français. Il doit renoncer à son projet faute d’hommes en état de combattre. On saura plus tard que l’expédition fut sabotée par Washington, anti-français et anti-catholique. La France, entrée en guerre aux côtés des Insurgents, l’amiral d’Estaing laisse par deux fois échapper l’escadre anglaise. En fait, il s’agit encore d’un sabotage par des protestants français qui craignent qu’en cas de reconquête du Canada, la liberté de culte leur soit retirée en France.

Louis XVI tente de reprendre pied en Amérique du Nord par l’ouest (Alaska). C’est le motif de l’expédition de La Pérouse. On sait qu’elle se termine tragiquement aux environs d’Hawaii en 1788. Cette traversée sera réussie en 1792, mais par l’anglais Vancouver.

Enfin, Bonaparte, après avoir voulu remettre en valeur la Louisiane, décide brutalement de la vendre aux USA. Aucune explication claire de ce revirement.

Cette fois, ce sont 11 échecs successifs d’une implantation française significative en Amérique du nord. Le résultat en sera, lors de l’assemblée constitutionnelle américaine, l’adoption de l’anglais comme langue des documents fédéraux, adoption réalisée à 1 voix de majorité. Cette faible (euphémisme) marge a empêché l’anglais d’être proclamé langue officielle (donc seule reconnue pour la presse, l’enseignement, etc.). Il n’empêche qu’il est alors devenu langue véhiculaire de fait. Intéressant : en 1996, le Sénat a bloqué un projet de loi de la Chambre des Représentants visant à faire de l’anglais la langue officielle des USA, au nom du 1er amendement.

Quelle leçon tirer de tout cela ? Tout se passe comme si, tout au long de l’histoire, la langue et la culture anglaises avaient été protégées, ainsi que les efforts d’expansion colonisatrice anglais. Comme si une convergence d’événements répétitifs, dont certains n’ont tenu qu’à un fil (la mort subite de Jean sans Terre, les caprices de Napoléon, des tempêtes), avaient préparé au moins depuis 1087 l’imperium americanum que nous voyons se mettre en place sous nos yeux. Une puissance invisible agit manifestement sur l’histoire. Les Américains sont persuadés que c’est la Providence et qu’ils sont le nouveau peuple élu, voir les discours présidentiels depuis les Pères Fondateurs jusqu'à George W. Parlons plutôt d’un facteur X.

Ce même « facteur de perturbation », comme dirait Chauvin, a joué lors de la seconde guerre mondiale. Si l’on regarde à la loupe certains points d’inflexion de cette guerre, on s’aperçoit qu’il y a trois événements illogiques. D’abord la défaite française, car l’armée était loin d’être en carton-pâte comme le veut la version officielle de l’histoire. Elle tient à une suite de « hasards » malheureux et convergents. Ensuite la résistance britannique devant le blitz. C’est l’inverse, une suite de « hasards » heureux et convergents dont le plus significatif est rapporté par Anthony Cave Brown dans le premier tome de La guerre secrète. Il s’agit de la connaissance des codes allemands et de la machine Enigma. Or, raconte Cave Brown, en 1937 c’est à la France qu’un transfuge avait offert la machine et les codes. Les Polonais la possédaient également. Les Anglais ne l’eurent que quelques mois plus tard et durent en grande partie la reconstituer. Pourtant, ni les Français ni les Polonais ne purent l’utiliser pleinement. Les Anglais durent à l’un des pères de l’informatique, Alan Turing, de pouvoir construire leur propre machine, le projet Ultra, et de l’utiliser avec efficience. Cela renforce l’intuition d’un facteur de perturbation.

Enfin, lorsque les USA sont entrés en guerre, eux étaient particulièrement mal préparés militairement. Mais le « facteur X » a favorisé la mise au point de la bombe A tandis que les génies concurrents de Peenemünde se heurtaient à des « hasards » malheureux incompréhensibles. Voir le petit roman de Chauvin, Les Veilleurs du temps.

La guerre d’Irak rentre parfaitement dans cette logique. Ce qui est significatif, c’est qu’une fois de plus une vision du monde française soit en balance avec une vision du monde anglo-saxonne. Or le facteur de perturbation est bel et bien intervenu en amont, lors de l’élection de Bush, et toujours de la même façon. Ce n’était pas une tempête ni la migraine de Napoléon mais une machine à voter qui pédalait dans la semoule en Floride. Etrange, non ?

A méditer sérieusement, en tout cas. Pourquoi cet acharnement à éviter une alternative française à la culture anglo-saxonne ? Quel en est le sens ? Cela ne peut pas se réduire à des chauvinismes. C’est trop systématique, cela commence trop loin en amont. En 1087, les deux cultures balbutiaient. Guillaume le Conquérant parlait encore une langue nordique. Et Philippe un latin mâtiné de francique. La première œuvre littéraire en « français » date du XIe siècle. En anglais ? Le Beowulf ? La chronique d’Alfred ?

Wednesday, July 14, 2010

Annulation

Le colloque du 17 juillet à Perpignan a été annulé. Sans véritable raison. C'est son seul point commun avec la Garden Party de l'Elysée.