Tisserand de la compréhension du devenir
Conférencier, expert et auteur

La cosmologie quantique.

Avant tout, il ne faut sans doute pas croire tout à fait la célèbre parole de ce farceur de Richard Feynman : "Je crois pouvoir affirmer que personne ne comprend vraiment la physique quantique". La raison majeure en est que la "physique quantique", cela n'existe pas ; mais il y a bien un formalisme quantique, parfois abscons et abstrus, rendu nécessaire par l'étrangeté des mondes nanoscopiques …

Le monde des théories quantiques semble si opposé à tout bon sens, qu'il en devient mystérieux, opaque, ésotérique, voire glauque. Au point que les mages charlatans de notre époque déjantée en profite pour fabriquer des brouets pourris, à la sauce new-age, où flottent, dans le même bouillon trop maigre, du quantique, de la communication extra-sensorielle, de la pleine conscience, de la délocalisation, de la transmutation, de la transsubstantiation, … et que sais-je encore comme pitreries imaginales.

 

Remettons les pendules à l'heure. La théorie quantique n'est pas une cosmologie et encore moins une ontologie, mais seulement une phénoménologie ; elle n'est qu'un formalisme mathématique susceptible de traiter les problématiques des systèmes nanoscopiques subatomiques. Au-delà du rayon de l'atome, la quanticité ne joue sans doute plus et elle n'affecte quasi en rien ni les mondes microscopique et mésoscopique (et moins encore les mondes macroscopique et gigascopique). . Je pense qu'il faut distinguer les "effets quantiques perceptibles" (le bleu du ciel, par exemple) et les "effets quantiques influents" (je pense qu'il n'y en a tout simplement pas).

 

Le formalisme quantique n'est qu'une autre manière de formuler la loi suprême de l'évolution dynamique de l'univers, loi connue sous le nom de "principe de Lagrange" auquel sont soumises toutes les théories physiques actuelles (voir le premier paragraphe ci-dessous).

Ce principe de Lagrange dit ceci :

 

La trajectoire suivie par un système, parmi toutes les trajectoires possibles, est celle qui minimise la différence entre l'énergie cinétique du système durant tous les instants et l'énergie potentielle de tous les lieux où il passe.

 

Pourquoi faut-il changer de formalisme aux échelles nanoscopiques pour exprimer ce principe d'économie cosmique ? Il en existe deux raisons majeures.

 

La première repose sur la notion de système. A toutes les autres échelles, la notion de système matériel est triviale : un caillou, une étoile, une cellule eucaryote, une goutte d'eau, une galaxie … Chacun de ces systèmes possède une frontière définissable, un volume calculable, un lieu identifiable, etc … A l'échelle nanoscopique, le flou s'installe la distinction entre aspects corpusculaires et aspects ondulatoires n'est pas encore nette ; là, la matière naissante n'est encore ni moule, ni poisson (comme on dit en Flandres). Un "objet quantique" n'est pas vraiment identifiable parce qu'il n'est pas vraiment ni localisable, ni stabilisable ; seuls protons et électrons sont à peu près stables (la demi vie d'un atome d'hydrogène est de 12,32 ans, celle du neutron libre est de 610 secondes) ; la vie de toutes les autres "particules" se mesure, au mieux, en millionième ou en milliardième de seconde. Seul le neutrino (nous verrons pourquoi dans la dernière partie de ce travail) échappe à cette règle d'airain de l'instabilité quantique.

On comprend dès lors qu'au niveau nanoscopique le principe de Lagrange qui, aux autres niveaux, peut s'appliquer à des objets identifiables, stables et localisables, doive ici s'appliquer à autre chose … Les théoriciens inventèrent alors la notion de "fonction d'état" ou de "vecteur d'état" (appellation de loin préférable à l'ancienne terminologie qui parlait de "fonction d'onde").

 

La seconde provient de la notion même d'énergie qui, aux échelles nanoscopiques, change non pas de nature, mais de texture. Si l'on regarde couler un joli ruisseau, au mitan d'une prairie, bordé de roseaux et de narcisses, l'eau s'offre comme un ruban frais et chantant, continu, qui sinue gentiment. Mais qu'on regarde ce même ruisseau avec un hyper-microscope électronique et l'on verra des myriade de molécules d'eau distinctes, se heurtant sans cesse, dans un capharnaüm brownien, engendrant température volumique et pression périphérique (sur les bords). Le monde du ruisseau apparaissait paisible et continu au niveau mésoscopique et apparaît infernal et discontinu au niveau microscopique. Il en va de même pour les flux d'énergie qui paraissent continus et paisibles au niveau mésoscopique, mais qui, dans la réalité nanoscopique sont en fait chaotiques et discontinus. C'est le problème du "corps noir" qui permit à Max Planck de mettre cette discontinuité chaotique de l'énergie en évidence (nous le verrons dans un paragraphe ultérieur).

 

Prélude : le principe universel de Lagrange …

 

Les équations classiques de Newton ou de Navier-Stokes, les équations d'Einstein des relativités restreinte et générale, les équations quantiques de Schrödinger ou de Gordon-Klein, … peuvent toutes être dérivées de l'équation générale de Lagrange qui couvre tout le domaine de la dynamique des systèmes, quelle que soit leur échelle.

Répétons que cette équation dit une seule et simple chose : la trajectoire suivie par un système, parmi toutes les trajectoires possibles, est celle qui minimise la différence entre l'énergie cinétique du système durant tous les instants et l'énergie potentielle de tous les lieux où il passe.

En mathématique, on appelle cela une équation aux variations.

Au-delà des éventuelles difficultés de calcul, un problème de principe se pose : pour chaque vision cosmologique, aux différentes échelles, il faut dire précisément comment on définit et comment on calcule cette énergie cinétique à chaque instant et cette énergie potentielle en chaque lieu traversé.

Et amont de ces définitions, il faut impérativement définir avec soin le système que l'on considère : de quoi est-il fait ? S'agit-il d'un ensemble de "points matériels" (Newton, Einstein) ? S'agit-il d'un milieu continu (Navier-Stokes) ? S'agit-il de champs quantiques (Gordon-Klein) ? Ou s'agit-il de fonctions d'états quantiques (Schrödinger) ?

Dans chaque cas, la définition et le calcul de l'énergie cinétique et de l'énergie potentielle prendront des formes très différentes.

 

Pour comprendre tout cela, il faut commencer par bien comprendre ce que signifie "énergie cinétique" et "énergie potentielle".

L'énergie cinétique est liée à l'activité cinématique intrinsèque (au mouvement) du système dans son milieu : il s'agit d'une énergie réelle (si on bloque le système, cette énergie se dissipera de diverses manières, le plus souvent par chauffe thermique et/ou déformation mécanique de l'obstacle qui l'arrête en pleine course).

L'énergie potentielle, elle, est liée à l'influence active que peut avoir ce milieu sur ce système en quelque lieu qu'il se trouve : il s'agit d'une énergie virtuelle.

 

Prenons une métaphore.

Le système est une boule de billard et le milieu est un long plan incliné.

On pose la boule de billard à mi-hauteur de la rampe. Son énergie cinétique, arrivée au bas de la rampe, sera proportionnelle au carré de sa vitesse finale, c'est-à-dire, aussi, proportionnelle au carré de la durée de sa descente.

Si on lâche la boule de billard tout en haut de la rampe, elle mettra plus de temps pour arriver à bas et elle aura, en arrivant, une énergie cinétique nettement plus grande que dans le cas précédent.

Quant à la rampe (qui représente d'énergie potentielle), elle est restée parfaitement égale à elle-même.

 

L'énergie potentielle est une propriété de l'espace liée à la répartition globale de toutes les sources de champs de force (Einstein dirait, selon la relativité générale, que l'énergie potentielle en un point exprime la métrique de la géométrie en ce point).

Si cette répartition des sources ne varie pas dans le temps, le champ ne varie pas non plus et l'énergie potentielle en chaque point reste constante, quoi qu'il s'y passe.

Mais si un corps ou un système viennent à passer par là, leur trajectoire, leur vitesse et leur accélération - et donc aussi leur énergie cinétique -  subiront les effets de l'influence du champ global à cet endroit.

 

Lorsqu'un corps traverse un champ de force auquel il est sensible, son énergie cinétique varie.

Admettons que ce corps soit accéléré par le champ. Son énergie cinétique augmente. Donc l'énergie potentielle du champ devrait diminuer en vertu du principe de la conservation de l'énergie. Il n'en est rien : l'énergie ne se transmet pas de proche en proche comme le supposait la théorie des tourbillons de Descartes qui a été balayée par la théorie des forces à distance de Newton. En fait, il existe un couplage dynamique, via le champ et l'énergie potentielle qu'il porte, entre le corps considéré, d'une part, et l'ensemble de toutes les sources de champs, d'autre part. Ce que gagne le corps est perdu par l'ensemble des sources et vice versa. Il y a compensation et, statistiquement, l'ensemble de ces gains et de ces pertes s'annule.

 

Ce que dit l'équation de Lagrange, c'est que le bonne trajectoire est celle qui optimise cet ensemble de gains et de pertes.

Nous sommes là devant la Loi cosmique suprême qui régit l'économie dynamique de l'évolution cosmique tant au plan mésoscopique qu'au plan gigascopique et au plan nanoscopique dont nous allons nous occuper au fil de ce chapitre.

 

La dualité onde-corpuscule.

 

De son côté, Newton croit que la lumière est faite de petit grains lumineux qui sont émis par la source (la lampe, la bougie, le soleil) et qui vont droit devant eux jusqu'à rencontrer quelque chose qui les réfléchisse, les réfracte, les diffracte ou les absorbe. Les règles de ces réflexions et réfractions sont trigonométriques (on parle d'optique géométrique) et ont été établies par Fermat (qui avait relevé les bévues de Descartes en matière de dioptrique et dont le principe préfigurait déjà une application immédiate de l'équation de Lagrange discutée plus haut).

Einstein renchérit en donnant, enfin, une explication de l'effet photoélectrique (le fait que la lumière, dans certaines circonstances, puisse arracher un électron à la couronne périphérique d'un atome) : la lumière est faite de grains d'énergie appelés photons dont l'énergie est proportionnelle à la fréquence.

 

Mais face à ce clan "corpusculaire", un autre clan montre, preuves expérimentales à l'appui, que la lumière est une onde qui connaît les mêmes aventures phénoménologiques que les ondes d'eau à la surface d'un lac calme : propagation transversale sans propagation longitudinale (un bouchon posé sur l'eau monte et descend, mais ne change pas de place) et interférences (deux ondes de même fréquence ou harmoniques qui se rencontrent, se conjuguent et forment des figures hyperboliques bien connues). Ce clan est celui des Fresnel, des Huygens, des Young, etc ….

 

Or, ces deux visions (c'est le cas de le dire) de la lumière semblent incompatibles. Soit particule. Soit onde. Mais rien n'y fait. L'expérience le montre : dans certaines circonstances, la lumière se montre sous son aspect corpusculaire, dans d'autres elle se révèle corpusculaire.

Depuis qu'au 19ème siècle, James Clerk Maxwell (1831-1879) a démontré que la lumière est une onde électromagnétique et que l'optique géométrique était compatible avec le modèle ondulatoire, tout semblait classé : la lumière est une onde ! Mais c'était sans compter sur ce fichu effet photoélectrique qui obligea Einstein à réinjecter du particulaire. La lumière devait être, à la fois, onde et particule (photon).

Tout s'envenima lorsque Louis de Broglie fit une hypothèse abracadabrante que l'expérience confirma sans sourciller : toutes les particules nanoscopiques sont à la fois onde et particule, comme la lumière. Cela fut démontré d'abord avec des électrons.

Plus aucun doute n'était permis : aussi paradoxal et absurde que cela puisse paraître, au niveau nanoscopique, tout est, à la fois, ondulatoire et corpusculaire.

 

Il existe de gros problèmes de compréhension en ce qui concerne la complémentarité onde-corpuscule de la théorie quantique.

Pour un esprit conservatif, il est difficile d'accepter qu'un électron, par exemple, puisse changer de forme (l'aspect ondulatoire et l'aspect corpusculaire sont bien deux formes) selon les circonstances. La raison de ce refus est simple : quelqu'un qui croit, dur comme fer, à l'existence de "briques élémentaires" insécables et immuables (ce qu'est censé être l'électron), ne peut imaginer, en même temps, la labilité de forme de cette "brique". La réalité est pourtant si simple (à exprimer sinon à imaginer) : l'électron (ou le proton, ou le photon, ou n'importe quelle particule de matière) possède, à la fois, les deux formes, l'une volumique (le corpuscule), l'autre holistique (l'onde) ; l'aspect volumique corpusculaire devient d'autant plus prépondérant que la masse augmente, ce qui relève du pur bon sens.

 

Rappelons ici ce qui a déjà été dit plus haut : A l'échelle nanoscopique, le flou s'installe, la distinction entre aspects corpusculaires et aspects ondulatoires n'est pas encore nette ; là, la matière naissante n'est encore ni moule, ni poisson (comme on dit en Flandres). Un "objet quantique" n'est pas vraiment identifiable parce qu'il n'est pas vraiment ni localisable, ni stabilisable.

C'est un flaque, un grumeau informe ; c'est de l'activité pure encore en voie d'encapsulation, une activité à la fois dilutive (l'aspect ondulatoire) et concentrative (l'aspect corpusculaire). La vraie différenciation se fera avec l'apparition, d'une part, du couple proton-électron (que j'ai appelé ailleurs le "protéus") qui symbolise la prédominance naissante de l'aspect corpusculaire … et, d'autre part, du photon qui symbolise la prédominance établie de l'aspect ondulatoire.

A partir de là, l'atome d'hydrogène et les autres atomes qui s'ensuivent, pourront être vus, au niveau microscopique, comme de vrais petits grains de matière, comme des points matériels susceptibles d'échapper au formalisme quantique (comme ce fut le cas pour l'étude du mouvement brownien, par Einstein, dès 1905 … et pour toutes les théories issues de la physique statistique des fluides).

 

Le rayonnement du corps noir.

 

Max Planck, grâce l'étude du rayonnement d'un corps noir (qui est une astuce expérimentale ne nous intéressant pas ici), a pu montrer, sans ambiguïté, que les échanges d'énergie au sein d'un milieu quelconque se faisait par sauts discrets et non de façon continue.

Dans son mémoire du 14 décembre 1900, Planck conclut que "l'énergie [lumineuse] n'est pas émise de manière continue, mais par paquets" dont la quantité E est proportionnelle à la fréquence lumineuse concernée : E = h.n .

 

Une telle conclusion fut un coup de tonnerre dans le ciel serein de la cosmologie vers la fin de règne du positivisme. N'avait-on pas eu le culot, quatre ans plus tôt, d'affirmer que : "La science est achevée à quelque détails de calcul près" (Berthelot à Paris et lord Kelvin à Londres).

La conclusion de Planck est choquante à cette heure où la cosmologie avait choisi l'esthétique du lisse, du continu, de l'harmonieux, de l'optimal, etc …

 

L'explication de cette profonde rupture de la continuité idéale ne germera que dix-huit ans plus tard grâce aux travaux de Niels Bohr, le fondateur de l'approche quantique.

Toute cette révolution du discontinu ("quantique" vient du latin quantum qui indique des quantités discrètes et finies, donc discontinues) n'en est en réalité pas une … ou, à tout le moins, pas celle que l'on pense.

 

Considérons un atome complet : il est un tout unitaire, unifié et unique.

Contrairement à ce qu'avait laissé croire le modèle "planétaire" de Rutherford, un atome n'est pas une grosse "boule" centrale (faite d'un assemblage de "boules" protoniques et de "boules" neutroniques) avec, autour de cette grosse "boule" centrale et loin d'elle, de toutes petites "boules" électroniques qui tourneraient comme des folles chacune sur son orbite planétaire.

Cette vision mécanique (astronomique pourrait-on dire) de l'atome est totalement fausse.

D'abord, l'atome n'est pas un "assemblage de boules individuellement identifiables" ; un atome fusionne tous ses composants en une architecture unique indifférenciée (comme la mayonnaise fusionne le jaune d'œuf, l'huile et la moutarde où ils s'émulsionnent jusqu'à perdre toute identifiabilité ; la mayonnaise n'est pas un assemblage, elle est une émulsion qui intègre complètement des composants qui ne subsistent pas en elle). Dans un atome, il n'y a plus de protons, de neutrons ou d'électrons. Il y a une architecture globale et systémique où s'échelonnent des couches successives, de moins en moins énergétiquement denses si l'on va son centre à de sa périphérie[1].

 

Si l'on fait exploser complètement un atome, les déchets des minces couches externes se transformeront pour retrouver la forme stable d'électrons et les fragments du gros noyau central explosé retourneront bien vite à des formes stables et connues comme protons et neutrons (de même si l'on dégrade de la mayonnaise en explosant les liaisons émulsives entre ses molécules, on retrouvera des magmas de type "jaune d'œuf" et "huile" et "moutarde").

Il faut le répéter haut et fort de façon à se vacciner définitivement contre le mécanicisme analytique et réductionniste : la Nature ne fonctionne pas par assemblage mais par émergence. L'atome est une émergence d'un magma stellaire dantesque plein de protons, de neutrons et d'électrons … qu'il n'assemble pas, mais qu'il fusionne dans une structure en couches successives. Sur la couche périphérique qu'il engendre (par métamorphose), l'électron a perdu toutes ses caractéristiques corpusculaires ; de même pour les protons et les neutrons digérés dans le noyau.

 

N'oublions pas ce que nous a appris le paragraphe précédent : les "particules" subatomiques sont des grumeaux qui ne sont "ni moule, ni poisson", qui sont éminemment malléables, plastiques et ductiles, qui sont autant  corpusculaires qu'ondulatoires.

 

Nous pouvons maintenant attaquer le grand secret du monde nanoscopique : la quanticité.

Un atome est une structure architectonique complexe, façonnée en couches successives autour d'un noyau très dense central. Cette structure est stable, en équilibre. Les couches successives ne sont pas placées au hasard, mais respectent un plan très précis qui, justement, préserve l'équilibre et la stabilité du tout. Pour les atomes les plus légers, on peut calculer ce plan d'équilibre au moyen de l'équation stationnaire de Schrödinger, ce qui fut un des grands succès du formalisme quantique.

Il est facile de comprendre que pour qu'un bâtiment soit utile et utilisable, et qu'il tienne debout dans la durée, ses éléments architecturaux ne peuvent pas être placés au hasard et doivent, au contraire, suivre une logique respectueuse à la fois des lois de la gravitation, de la résistance des matériaux, du calcul des structures, de la stabilité des sols et des attentes et utilisations de ses futurs habitants.

L'architecture d'un atome subit les mêmes contraintes et ses couches successives sont bien déterminées : elles doivent être comme ça et pas autrement.

 

Imaginons à présent qu'un photon lumineux viennent percuter une couche périphérique d'un atome. Que va-t-il se passer ? Trois cas de figure peuvent se présenter :

 

  • L'énergie photonique n'est pas adéquate et le photon sera rejeté par diffraction.
  • Son énergie est trop forte et il fera exploser la couche périphérique heurtée, dont les déchets seront violemment expulsés pour reformer illico un électron "particulaire" hors de l'atome : c'est l'effet photoélectrique.
  • Son énergie correspond exactement à la différence d'énergie nécessaire pour que la couche périphérique concernée puisse changer de forme et adopter un autre configuration permise par les règles architectoniques. Dans ce cas, la couche absorbe le photon et réalise, grâce à son énergie, un saut structurel au sein de l'atome. L'atome a absorbé seulement et exactement les quantités (les quanta) d'énergie compatibles aves ses structures architectoniques, au détriment de toutes les autres (c'est là l'explication des raies de la spectrométrie). Il y a quantification. Il y a quanticité !

 

On peut aussi imaginé le cas inverse : imaginons une couche périphérique excitée (elle avait fait, précédemment, un saut structurel par absorption d'un photon adéquat), mais une configuration plus fondamentale (c'est-à-dire moins excitée, plus énergétiquement optimale et "calme") se libère pour une raison quelconque ; dans ce cas, cette couche excitée libèrera un photon de lumière dont la fréquence corresponde exactement à la dissipation d'énergie nécessaire pour réussir ce saut vers la nouvelle configuration architectonique plus stable. C'est le phénomène de luminescence.

 

En synthèse, les échanges d'énergie entre atomes et lumière sont quantifiés (discontinus, donc, construits sur des valeurs énergétiques précises et discrètes) parce qu'ils doivent être en parfaite conformité avec les règles et logiques architectoniques qui garantissent la solidité, la pérennité, la stabilité et l'optimalité des édifices atomiques.

 

Toute la chimie nucléaire, toute la chimie moléculaire, tout le secret du tableau de Mendeleïev découle de cette logique architecturale.

Dans la nanosphère, on ne peut pas faire n'importe quoi. Les règles de stabilité et d'optimalité sont strictes. Dès qu'on leur désobéit, tout s'effondre. Mais si on les respecte, des mondes infinis de combinaisons s'ouvrent et permettent la construction, par émergences successives, d'ensembles fastueux avec une montée en complexité proprement époustouflante.

Cette montée en complexité sera un des chapitres de notre dernière partie.

 

Formalisme quantique.

 

On l'a vu, le monde nanosphérique est peuplé de "grumeaux" ductiles mi-corpusculaires, mi-ondulatoires, possédant quelques caractéristiques propres qu'ils ont héritées de leur façonnage galactique (voir dernière partie) et qui déterminent leur sensibilité et/ou  leur résistance aux influences externes (gravitationnelles, électromagnétiques, hadroniques ou leptoniques).

On comprend, dans ces conditions, que l'outillage mathématique classique se révèle impuissant à traiter ce genre de "grumeaux" incertains qui ne sont pas vraiment des objets, qui ne sont pas vraiment localisables, qui ne sont pas vraiment identifiables, etc …

Comment traiter ces "choses" ?

Comment transcrire le principe de Lagrange, loi ultime et matricielle de toute la physique, pour modéliser un tel monde gluant et glauque.

La recherche de ce langage adéquat fut le grand défi et la grande aventure physicienne depuis 1918 jusqu'à aujourd'hui …

La première grande étape fondatrice de cette aventure fut franchie, après Planck et Einstein et autour de Niels Bohr par de jeunes savants éminents où l'on rencontrera Heisenberg, Schrödinger, Pauli, Dirac, de Broglie, etc …

 

Sans entrer du tout dans ce formalisme mathématique, disons seulement que le formalisme classique est algébrique (le vocabulaire de base est constitué de grandeurs et d'opérateurs arithmétiques) et que le formalisme relativiste est tensoriel (le vocabulaire de base est constitué de tenseurs et d'opérateurs matriciels).

Le formalisme quantique, lui, est fonctionnel : son vocabulaire de base est constitué de vecteurs d'état (dans un espace de Hilbert possédant une infinité de dimensions) et d'opérateurs différentiels.

 

Sans du tout entrer dans les méandres mathématiques du touffu formalisme quantique, trois "étrangetés" sont particulièrement notoires et ont des conséquences cosmologiques fécondes :

 

  • Dans le monde arithmétique, que l'on fasse A+B ou B+A, ou encore AxB ou BxA, on obtient le même résultat : les opérateurs algébriques habituels sont dits commutatifs car le sens de l'opération n'a aucune importance. Il en va tout autrement avec les opérateurs différentiels du formalisme quantique qui sont non-commutatifs : leur ordre d'application n'est pas neutre. Une conséquence notoire de cette non-commutativité est connue sous le nom des relations d'incertitude (ou d'indétermination) d'Heisenberg qui impliquent deux conséquences majeures :
    • si l'on mesure avec grande précision la position d'une "chose" quantique, il devient impossible d'en connaître la vitesse ;
    • si l'on mesure avec grande précision l'énergie impliquée dans un "processus" quantique, il devient impossible d'en connaître la durée ;
  • L'espace des états où gambadent les vecteurs d'état d'un système quantique possède de nombreuses dimensions autres que celle du temps et de l'espace géométrique. La relativité restreinte interdit définitivement que quelque signal que ce soit puisse aller plus vite que la célérité de la lumière dans l'espace-temps matériel. Certes. Mais que se passe-t-il dans les dimensions non matérielles autres que l'espace géométrique : l'absoluité de la célérité de la vitesse qu'y implique la matérialité, ne joue plus. Donc l'absolue simultanéité y devient possible. C'est là le fond du paradoxe EPR soulevé par Einstein que les expériences d'Alain Aspect ont infirmé : dès lors que l'espace géométrique n'est pas impliqué, des changements de propriétés (le spin, par exemple) entre deux êtres quantiques de même généalogie, peuvent se transformer instantanément malgré la distance géométrique qui les sépare. Cette "étrangeté" est connue sous le nom de non-localisation ou d'intrication. Les lois de la relativité sont restreintes au seul domaine de l'espace géométrique (dit aussi "espace volumique" ou "espace matériel"), mais ne jouent pas dans les autres dimensions non matérielles de l'espace des états (qui est cet espace d'Hilbert où évoluent des vecteurs d'état).
  • Plus on s'éloigne du monde mésoscopique pour pénétrer dans le monde nanoscopique, plus le phénomène à mesurer et le dispositif mesureur interfèrent profondément. Mesurer quelque phénomène que ce soit, c'est interférer avec lui et donc perturber son devenir : ce que l'expérimentateur veut connaître le plus précisément possible, c'est l'évolution naturelle du phénomène qu'il étudie (sa trajectoire dans l'espace des états). Et on comprend vite que suivre la trajectoire exacte de la Lune avec un rayon laser ne gêne en rien notre satellite naturel. En revanche, avec le même rayon laser, tenter de suivre la trajectoire exacte d'un proton est une absurdité : à son premier contact avec le premier photon, notre proton sera envoyé au Diable Vauvert : il sera perdu pour la science. Le problème est simple et se résume au rapport qu'il y a entre l'échelle des grandeurs de l'état du phénomène mesuré P et celui du dispositif mesureur M. Plus ce rapport P/M est grand, plus la mesure sera pertinente, fiable et crédible ; plus ce rapport P/M est proche ou inférieur à l'unité, plus la mesure sera insignifiante, voire absurde. Dans le monde nanoscopique, sans trop exagérer, on pourrait dire que presque plus aucune mesure n'a ni sens, ni pertinence, ni signification. Tous les P/M sont plus petit que l'unité.                                                                                                                                                                                                                                                                                        L'expérimentation n'y fait plus preuve de vérité.

 

Le modèle standard particulaire.

 

Toujours obsédée par la recherche éperdue et vaine des "briques élémentaires ultimes", la démarche quantique s'est enfoncée toujours plus profondément dans les abysses de la quasi-matière, dans l'univers de ces grumeaux de plus en plus instables, de plus en plus éphémères, de plus en plus insaisissables qui ne sont plus de la pure activité prématérielle, mais qui ne sont pas encore de la matière ; celle-ci commence avec le protéus (le couple proton-électron) et le neutrino (nous verrons tout cela dans la dernière partie).

 

La grande erreur de cette démarche, toujours en cours et à la mode, malgré les immenses échecs qu'elle cumule, est de croire qu'en descendant "sous" le trio proton-électron-neutrino, on a toujours affaire à de la "matière" où les méthodes microscopiques seraient encore efficientes.

Le mythe fondateur de cette physique dite des "hautes énergies" est de reconduire, au niveau nanoscopique, le fabuleux succès, au niveau microscopique, du tableau de Mendeleïev.

 

Cette démarche est oiseuse, mais fait illusion. Nous sommes si loin de la crédibilité des démarches expérimentales micro-, méso- ou macroscopiques qu'il est là toujours possible de concevoir une "expérience" qui confirme ce que l'on veut prouver. La "fabuleuse" confirmation, au CERN, de l'existence du "boson de Higgs" en est un exemple picaresque.

 

Le 7 juillet 2012, j'écrivais un article concernant cette "découverte" genevoise. En voici la conclusion :

 

Il faut être très critique par rapport à cette "découverte" - qui est loin d'être confirmée et qui, même si elle l'était, n'invaliderait pas les remarques que je vais faire.

Première remarque : un accélérateur de particules vise à faire se percuter, à très haute énergie, deux flux denses de particules en espérant que, de ce heurt cataclysmique, sortiront des particules nouvelles (des débris des particules impliquées et brisées lors de la collision) que l'on pourra peut-être détecter malgré leur incroyablement faible durée de vie. Cette détection n'est jamais directe. Il faut avoir la chance que ces particules improbables heurtent à leur tour des "révélateurs" observables qu'elles détruiront et dont les traces pourront être analysées afin de reconstituer le "bon" scénario parmi le grand nombre des scénarii de désintégrations possibles. Retenons que la "preuve" de l'existence d'une telle particule est terriblement improbable, incroyablement indirecte et purement statistique. Notons aussi - c'est l'essentiel -, que cette "preuve" cherchée pour sauver le modèle standard quantique utilise, pour se construire, … ce même modèle standard quantique, ce qui, en logique, s'appelle une tautologie.

Deuxième remarque : imaginons une flaque d'eau et imaginons une théorie de la flaque d'eau qui prétende que cette flaque est constituée d'un nombre hallucinant de gouttelettes infimes mais dont les formes doivent correspondre à un modèle mathématique idéaliste qui induit une immense et compliquée taxologie des gouttelettes. Et imaginons que pour prouver cette théorie, on décide de jeter de plus en plus violemment, dans cette flaque, des cailloux de plus en plus gros, et que l'on étudie avec soin toutes les éclaboussures pour en décrire la forme et la vitesse, pendant leur très courte durée de vie. On comprend qu'il suffit de trouver les cailloux qu'il faut et la violence adéquate de jet, pour pouvoir trouver des gouttelettes d'éclaboussure qui auront les formes et vitesses requises par la théorie. Cela ne validera en rien la théorie. Peut-être faut-il revenir à la simplicité et appliquer le rasoir d'Occam afin d'aboutir à la conclusion que la théorie des gouttelettes est fausse, qu'il n'y a pas de gouttelettes dans la flaque et que toute les "preuves" de l'existence des gouttelettes sont purement fantasmatiques et tautologiques.

 

Les impacts spirituels de l'approche quantique du fondement cosmique nanoscopique.

 

A nouveau, dès que l'on s'éloigne du monde mésoscopique où vit l'humain, les règles du jeu du rapport de l'humain au Réel changent fondamentalement (comme ce fut le cas dans l'approche relativiste du gigascopique aux confins de l'Absolu transcendant, de ce "Divin" panenthéiste qui englobe, contient et enveloppe tout ce qui existe).

Le nanoscopique n'est plus un monde d'objets bien définis. Il est bien plus un monde d'activités incessantes, bien plus "ondulatoires" (c'est-à-dire dissipatives et effervescentes) que "corpusculaires" (c'est-à-dire concentratives ou, plutôt, "encapsulatoires"). La Matière stable est un accident - bienheureux et plein de promesse - qui, en fait, est une émergence miraculeuse et féconde de l'activité originelle de la Prématière (cette émergence, on le verra dans la troisième partie, correspond à ce que l'on appelle le big-bang qui n'exprime pas la naissance de l'univers, mais bien la naissance de la Matière dans l'univers, c'est-à-dire l'émergence de l'espace géométrique (volumique et matériel) au départ d'un espace des états éternel et immatériel).

Dans le monde nanoscopique, nous sommes à la frontière entre cette activité prématérielle et l'émergence de ces structures, pas encore tout à fait stabilisées, qui deviendront la Matière au sens commun de ce terme.

 

Que pouvons-nous méditer, en termes spirituels, sur cette "descente aux envers" du bon sens mésoscopique ? Quatre pistes …

 

Plus on s'enfonce dans les couches profondes de la Matière, plus celle-ci se dématérialise et s'évanouit. Le mythe atomiste s'évanouit. Il n'existe pas de "briques élémentaires". L'univers n'est pas un étrange mélange d'atomes et de vide. Il n'y a pas de "atomes" (au sens grec). Il n'y a pas de vide. Tout est plein d'une substance primordiale immatérielle et continue (en suite d'Aristote, j'appelle cette substance primordiale prématérielle la "Hylé"). Cette substance primordiale, immatérielle et continue est de l'activité pure, de la Vie donc ; une Vie cosmique primordiale qui engendre la Matière (et non l'inverse comme le prétendent les matérialismes).

Qu'est-elle cette Hylé, cette substance primordiale immatérielle ? Certains quanticiens l'ont appelée la "vibration du vide quantique" ; d'autres l'ont assimilée à une intense activité bosonique antérieure à l'émergence des premiers fermions (un boson correspond à une activité immatérielle, il a une masse au repos nulle, comme le photon) ; d'autres parlent d'énergie noire. Peu importe le nom qu'on lui donne : elle est le Fondement cosmique dont tout émerge et où tout retourne.

Spirituellement, cela signifie que l'univers est un Tout unitaire, unitif et unifié, continu dans toutes ses dimensions où tout est relié à tout, où tout dépend de tout et où tout influe sur tout. L'interdépendance y est la règle de base première ; la règle seconde étant que cette interdépendance généralisée doit obéir à un principe de cohérence afin de maintenir, d'amplifier et d'approfondir l'Unité du Tout.

 

Existe-t-il un Ordre quantique ? Cette question a opposé Einstein à Bohr durant près de quarante ans.

Bohr partait d'un position phénoménologique très kantienne : surtout dans la nanosphère, l'homme n'a accès (vaguement) qu'aux phénomènes …. et doit s'en contenter en renonçant au noumène, c'est-à-dire à ce que le Réel est en soi et pour soi, à ce qu'est la "pensée de Dieu" selon l'expression de papa Albert.

Einstein, le métaphysicien parfois mystique, ne pouvait se contenter de cette attitude strictement positiviste. Pour lui, les paradoxes et étrangetés des théories quantiques ne font que révéler les faiblesses, carences et aveuglements humains ; mais derrière tout cela, le Réel est ce qu'il est, même s'il se met, dans le nanoscopique comme dans le gigascopique, hors d'atteinte de l'expérience humaine.

Cette distance entre la réalité du Réel et l'expérience humaine est, en soi, un sujet spirituel de première importance. Il suffit, dans cette phrase, de remplacer "Réel" par "Dieu" pour rejoindre très vite les préoccupations théologiques de base de toutes les traditions spirituelles : pourquoi et pour quoi Dieu se cache-t-il ? Pour-quoi se tait-il ? Pour-quoi Dieu ne se montre-t-il pas tel qu'il est ? Pour-quoi joue-t-il à cache-cache avec les esprits et les âmes humains ? Pour-quoi l'homme ne possède-t-il pas la "science infuse" ? Si la science s'arrête, comme le souhaite Bohr, sur le seuil du noumène et refuse d'y pénétrer, alors la science perd toute aspiration spirituelle et elle ne sert plus à rien d'autre qu'à nourrir les appétits insatiables de la technologie qui, pourtant, ne la concerne pas !

 

Comment les théories quantiques voient-elles la logique de l'Evolution cosmique ?

En gros, disons-le, elles ne la voient pas, elles ne s'en préoccupent pas et elles renvoient, en général, la question aux cosmologistes du modèle standard relativiste.

Pour le dire autrement, les théories quantiques se cantonnent dans l'atemporalité du Fondement cosmique.

Leur grande inquiétude, c'est le big-bang : cet instant déclencheur où, sur la tête d'épingle de la singularité, le gigascopique se confondait avec le nanoscopique avant que l'expansion de l'univers prenne son envol.

Cette confusion momentanée entre nanoscopique (le royaume des bosons) et gigascopique (le royaume des métriques riemanniennes) fait s'effondrer toutes les théories cosmologiques … et métaphysiques.

 

Qu'est-ce que le big-bang ? Une explosion d'activité, d'énergie, de bosons, donc. Cette explosion est-elle un "début" absolu ? Alors pour-quoi est-elle survenue ? Ou bien cette explosion n'est-elle qu'un saut qualitatif (comme l'apparition de la Matière dans les noyaux galactiques, ou comme celle de la Vie dans les fonds volcaniques de l'océan, ou comme celle de l'Esprit dans des communautés sociales en survie précaire) ?

Le big-bang est-il l'apparition brusque, fortuite et absurde du Tout au départ du Rien ? Ou bien n'est-il que la manifestation de l'émergence de l'espace matériel (dont nous, les humains, participons exclusivement) au départ d'un espace des états antérieur, moins riche, immatériel et a-spatial ?

Cette seconde thèse ne paraît moins absurde que la première.

 

Ces dernières réflexions me mènent à la quatrième et dernière piste spirituelle que m'inspirent les théories quantiques : celle, précisément, de l'Evolution par sauts quantiques. Pour la comprendre, il me faut introduire la notion d'une échelle des complexités (que nous étudierons très intensivement dans la dernière partie de cet ouvrage).

Tout le monde connait l'échelle des temps (ou durées) et l'échelle des grandeurs (ou volumes géométriques). Il existe d'autres échelles dans l'espace des états dont celle des complexités.

Les thermodynamiciens ont inventé un mot important pour parler de la mesure de la complexité d'un système : la néguentropie qui est l'opposé de l'entropie qui, elle, mesure le taux d'uniformité et d'homogénéité d'un système. Par exemple, le vide intergalactique est ce qu'il existe de plus entropique dans l'univers. Symétriquement, le corps et le cerveau humains sont probablement les systèmes les plus complexes - donc les plus néguentropiques - que nous connaissions.

 

En gros, nous le verrons plus tard, l'échelle des complexités possède, aujourd'hui, quatre échelons : celui de la Prématière (la Hylé, ses photons et sa gravitation), celui de la Matière (toutes les combinaisons possibles de protons, électrons et neutrinos), celui de la Vie (toutes les combinaisons possibles de cellules procaryotes) et celui de l'Esprit (toutes les combinaisons possibles de myriades de noèmes culturels).

Comme pour les couches périphériques de l'atome qui ne peuvent occuper que certaines configurations parmi l'infinité des "possibles" (cfr. supra), l'émergence de niveaux organisationnels complexes n'est possible que sur des échelons bien distincts de l'échelle des complexités.

 

L'évolution complexe, comme l'évolution quantique, se fait par sauts discontinus : tous les envisageables ne sont ni possibles, ni souhaitables.

La spiritualité contemporaine parle beaucoup "de niveaux de conscience" ou "d'élargissement de la conscience" ; derrière ces étiquettes sibyllines, se trouve simplement la capacité progressive d'entrer en résonance avec des niveaux de complexité toujours supérieurs. Ces niveaux étant séparés sur l'échelle des complexités, il faut en conclure que l'élévation des niveaux de conscience n'est pas continue, mais procède par sauts successifs.

*

[1] Notre bonne vieille Terre a fait de même : le centre lourd du Nifé est entouré d'une couche mi-lourde de Sima, ceinte d'une couche moins lourde encore de Sial, couverte d'une couche aquasphérique, enveloppée d'une couche atmosphérique (elle-même composée de sept couches gazeuses : troposphère, ozonosphère, stratosphère, mésosphère, thermosphère, ionosphère et exosphère), le tout emmailloté dans une jolie magnétosphère qui offre ses magnifiques aurore boréales.