Multiverse & Parallel Universes - Hermann Weyl (1885-1955) -  Albert Einstein (1879-1955) - Nathan Rosen (1909-1995)  - John Wheeler (1911-2008) - Hugh Everett III (1930-1982) - Gabriele Veneziano (1942) - Yoichiro Nambu (1921-2015) - Leonard Susskind (1940) - Brandon Carter (1942) - Holger Bech Nielsen (1941) - Kip Thorne (1940) - Stephen Hawking (1942) - Alexander Vilenkin (1949) - Max Tegmark (1967) - ...

Last update: 09/10/2017

 

En 1895, le philosophe et psychologue américain William James (1842-1910) s'interroge sur la multiplicité des choix moraux auxquels nous sommes confrontés dans notre humanité, et dans son essai "Is Life Worth Living?" (La vie vaut-elle d'être vécue?), écrit "Truly, all we know of good and duty proceeds from nature… (which) is all plasticity and indifference – a moral multiverse, as one might call it", forgeant ainsi un néologisme dont vont s'emparer physiciens et cosmologistes pour aborder une hypothèse surprenante : cet Univers dans lequel nous existons et que nous sommes en mesure d’observer, est-il  réellement unique?

En fait, depuis la nuit des temps, l'hypothèse n'a cessé de hanter la philosophie et la métaphysique, sommes nous seuls dans l'Univers, Dieu n'a -t-il pas créé le meilleur des mondes possibles? ou Dieu avait-il réellement le choix lorsqu'il créa l'Univers?, pour paraphraser Albert Einstein...

Ici, le terme "multivers" entend exprimer que notre Univers n'est qu'un univers parmi d'autres univers s'étendant à l'infini, en lien avec la théorie de l'expansion éternelle qui conduit inéluctablement à une multitude d'univers. Et cette hypothèse s'imposerait d'autant plus qu'elle n'est que la conséquence logique des modèles mathématiques de la physique théorique, une modélisation mathématique qui seule nous permet de structurer notre connaissance de la nature profonde du réel, des particules élémentaires au cosmos observable en passant par l'esprit lui-même: "tout objet mathématique a une existence physique", postule le cosmologiste Max Tegmark ("Our Mathematical Universe: My Quest for the Ultimate Nature of Reality").

Le cosmologiste Alexander Vilenkin, suivant un cheminement différent, aborde de même cette hypothèse en en dressant un tableau saisissant dans ses conséquences ultimes (Many Worlds in One: The Search for Other Universes).

La cosmologie s'empare ainsi d'une interrogation fondamentale pour tenter d'en construire une théorie scientifique qui ne serait en fin de compte que l'aboutissement inévitable de notre tentative de compréhension de notre Univers....

 

Reste pourtant une interrogation persistante qui ne peut être ignorée, globalement notre monde coexisterait avec d'autres univers, différents et inaccessibles entre eux, mais nos possibilité de perception et de réflexion sont tant dépendantes de notre monde que nous ne pourrons jamais en observer d'autres : l'interrogation ne peut être évacuée, ne serait-ce que parce que nous sentons confusément de l'inexprimé en ce monde, de l'indicible, et des situations aux limites de l'existence, telle que la mort, pour éviter d'évoquer le "paranormal" que nous n'aborderons guère ici. Certes, notre vie et notre conscience sont trop finement assujetties aux paramètres physiques de notre Univers, et inversement, un univers dit observable de 47 milliards d'années-lumière borné par le seul fait que la lumière des galaxies qui se situeraient au-delà, n'ont guère de chance de nous parvenir depuis les 13,7 milliards d'années d'existence de notre Univers. Mais cette représentation ou ces intuitions cosmologiques ne sont pas seules à entrer en ligne de compte, la mort et au-delà, le bruit de fond cosmique ou l'intuition structurante des mathématiques semblent aussi nous conduire à l'étrange intuition d'univers parallèles ...

 

Question philosophique, métaphysique sans doute, la problématique des univers parallèles ne cessent, sous une forme ou sous une autre, d'interroger la Science, de l'infiniment petit à l'infiniment grand, l'hypothèse est constamment présente, aux limites de ce qui peut être théorisé ou calculé.

En 1905, Einstein poursuivait le grand projet d'unifier la force de gravité, que sa théorie restructure, avec la force électromagnétique. La théorie d’Einstein décrit l’espace-temps comme un milieu continu à géométrie variable qui, tel une membrane élastique, est déformé par la présence de corps massifs ou de toute autre forme d’énergie. Plus un corps est dense, plus la déformation de l’espace-temps est importante. Les bases de la mécanique quantiques, qui rend compte du monde de l'infiniment petit, sont ensuite jetées, vingt ans plus tard, par trois grandes énormes personnalités. Erwin Schrödinger (1887-1961), en 1925 pose, avec son équation différentielle, les bases de la mécanique quantique; Werner Heisenberg parvient à la conclusion qu'il est impossible de déterminer avec précision la position et la vitesse d'une particule et formalise ses idées via une mécanique matricielle alors peu usitée dans le monde de la physique, et enfin Paul Dirac (1902-1984) réconcilie formalisme de la mécanique quantique d'Heisenberg et celui de Schrödinger et  introduit la relativité restreinte dans la mécanique quantique.

Dès lors, se révèle aux physiciens une bien étrange théorie qui semble suggérer que tout événement affectant une particule quantique la conduit à se comporter de deux manières entièrement différentes, fonction d'onde ou fonction de particule : Niels Bohr soutient alors cette fameuse interprétation de l'Ecole de Copenhague qui, pour expliquer le comportement singulier et aléatoire des particules subatomiques, formule que les particules quantiques n'existent pas uniquement selon tel ou tel état, mais dans un état de superposition cohérente de tous les états possibles, le processus de réduction d'onde ne sélectionne qu'un seul univers, l'univers dans lequel on effectue la mesure... 


Une Histoire en Trois Temps ...

- Fiction (19e-20e s.) : Le concept naît dans la littérature (ex: Alice au pays des merveilles) et se développe en SF pour explorer des idées philosophiques.

- Révolution Quantique & Cosmologique (1950-1960s) : Les travaux d'Hugh Everett (1957) sur les "mondes multiples" en mécanique quantique et, de manière indirecte, ceux de Gabriele Veneziano (1968) sur les cordes, fournissent les premiers fondements mathématiques sérieux.

- Formalisation Moderne (1980s - Aujourd'hui) : L'inflation cosmique (Alan Guth, 1980), le "paysage" de la théorie des cordes et les modèles comme l'inflation éternelle (Andreï Linde) transforment l'idée spéculative en une hypothèse scientifique testable (bien que très controversée).


On peut considérer que les années 1960 marquent un tournant crucial dans la formalisation scientifique des concepts menant au multivers, mais de manière indirecte...

Le physicien Gabriele Veneziano est une figure clé de cette période. En 1968, alors qu'il travaillait au CERN, il cherchait une formule pour décrire l'interaction forte (la force qui lie les protons et les neutrons). Il découvrit par hasard que la fonction bêta d'Euler, une vieille formule mathématique du 18ème siècle, reproduisait remarquablement bien les propriétés qu'il cherchait.

Cependant, le vrai bouleversement vint après : Leonard Susskind, Holger Bech Nielsen et Yoichiro Nambu interprétèrent indépendamment en 1969-1970 les équations de Veneziano non pas comme une simple formule, mais comme la description d'objets physiques étendus et vibrants : les "cordes".

La Théorie des cordes, née du travail de Veneziano, est devenue le cadre théorique le plus fertile pour les modèles de multivers modernes. En particulier, deux de ses implications sont fondamentales :

- Le "Paysage" (String Landscape) : La théorie permet l'existence d'un nombre astronomique (peut-être 10^500) de configurations stables pour les dimensions supplémentaires qu'elle postule. Chaque configuration correspondrait à un univers avec ses propres lois physiques (ses constantes, comme la gravité).

- L'Inflation Éternelle : Le cadre de la théorie des cordes s'intègre parfaitement dans les modèles cosmologiques d'inflation. L'inflation éternelle propose que notre Big Bang n'est qu'une "bulle" parmi une infinité d'autres dans un méta-univers en expansion perpétuelle.

Ainsi, si Veneziano n'a pas directement théorisé le multivers, son travail de 1968 est la pierre angulaire de la théorie qui, plus que toute autre, a donné une crédibilité mathématique au concept...


Le thème du multivers et des univers parallèles est traité de deux manières principales : par la science (physique théorique, cosmologie) et par la fiction.

Les livres suivants expliquent les théories scientifiques sérieuses qui sous-tendent le concept de multivers...

- Brian Greene, The Elegant Universe: Superstrings, Hidden Dimensions, and the Quest for the Ultimate Theory (1999, « L'Univers élégant » / « La Magie du cosmos »)

Bien que centrés sur la théorie des cordes et la nature de l'espace-temps, ces livres abordent en profondeur les concepts qui mènent directement aux idées de multivers, comme les dimensions supplémentaires et le paysage cosmique de la théorie des cordes.

- Michio Kaku, "Hyperspace: A Scientific Odyssey Through Parallel Universes, Time Warps, and the Tenth Dimension" (1994, Hyperspace : Un voyage scientifique à travers les univers parallèles, les distorsions du temps et la dixième dimension)

Kaku est un autre grand vulgarisateur. Dans Hyperspace, il explore les dimensions supérieures. Dans Physique de l'impossible, il consacre des sections à examiner comment les voyages entre univers parallèles pourraient, ou non, entrer dans le domaine du possible selon les lois de la physique.

- Max Tegmark, "Our Mathematical Universe: My Quest for the Ultimate Nature of Reality" (2014, Notre univers mathématique)

Propose une classification audacieuse des multivers (Niveaux I à IV) et défend l'idée que la réalité est une structure mathématique.

Sean Carroll, "Something Deeply Hidden: Quantum Worlds and the Emergence of Spacetime (2019, Quelque chose de profondément caché)

Se concentre sur l'interprétation des "mondes multiples" (Hugh Everett III, 1957) de la mécanique quantique, le type de multivers peut-être le plus déroutant.

 

On s'en doute, La fiction s'est emparée de ce concept bien avant les scientifiques et l'a exploré de manière magistrale ...

En Science-Fiction, 

- Michael Moorcock, "The Sundered Worlds" (série, 1965-1966) - Série The Chronicles of Castle Brass (Les Univers multiples) - Un des premiers auteurs à utiliser le terme "multiverse" de façon centrale et structurante dans une œuvre de fiction.

- Philip K. Dick, The Man in the High Castle (1962, Le Maître du haut château)

Explore le thème des réalités alternatives via une uchronie (monde où les Axis ont gagné la WWII), en s'interrogeant sur la perception de la "vraie" réalité.

- Stephen Baxter, The Time Ships (1995, Les Vaisseaux du temps)

Suite autorisée à The Time Machine de H.G. Wells, elle explore de manière vertigineuse les paradoxes temporels et les lignes d'univers alternatives.

- Liu Cixin, "The Three-Body Problem" (2006) - Trilogie Remembrance of Earth's Past (Le Problème à trois corps) - La trilogie évolue d'un premier contact vers une cosmologie épique impliquant des dimensions supplémentaires et une manipulation de les lois physiques à l'échelle du multivers.

En Fantasy,

- Roger Zelazny, "The Chronicles of Amber" (série, 1970-1991)

Décrit un multiverse où un seul monde réel (Ambre) existe, et toutes les autres réalités, y compris la nôtre, ne sont que des "Ombres" qu'on peut traverser.

- Philip Pullman, "Northern Lights" (1995) [1er tome de His Dark Materials] - (Titres US : The Golden Compass ; Trad. FR : Les Royaumes du Nord [À la croisée des mondes])

Reprend le concept des "mondes parallèles" de la fantasy et le rend accessible et central dans une narration épique.

- Neil Gaiman, "InterWorld" (2007) - co-écrit avec Michael Reaves (Trad. FR : L'Ère des héros) - Met en scène un multiverse structuré entre pôles Magie et Science, où toutes les versions alternatives d'un même individu peuvent coopérer.


Brian Greene, "The Hidden Reality: Parallel Universes and the Deep Laws of the Cosmos" (2011, La Réalité cachée : Les univers parallèles et les lois du cosmos)

Le livre de référence sur le sujet. Greene, physicien et excellent vulgarisateur, c'est exhaustif, accessible et fascinant...

Brian Greene ne se contente pas de décrire un type de multivers. Il en présente neuf variétés, issues des théories les plus avancées de la physique moderne, en argumentant méthodiquement sur leur plausibilité.

 

La Thèse Centrale de Brian Greene ...

Greene ne soutient pas que le multivers existe de façon certaine. Sa thèse est que l'idée de multivers n'est pas une spéculation philosophique gratuite, mais une conséquence naturelle et logique de nos théories physiques les plus robustes (la relativité générale, la mécanique quantique, la théorie des cordes, la cosmologie inflationnaire). Pour lui, si ces théories sont correctes, alors l'existence d'autres univers est une implication presque inévitable.

Il présente le multivers comme "la réalité cachée" que les mathématiques et la physique nous révèlent. L'idée de multivers émerge donc de manière naturelle et répétée à partir de nos théories les plus fondamentales. Le fait qu'il existe au moins neuf voies distinctes menant à cette conclusion est, pour lui, un indice puissant que notre intuition d'un univers unique est peut-être une illusion ...

 

Les 9 Types de Multivers et les Arguments de Greene ...

1. Le Multivers de l'Inflation Éternelle

La théorie inflationnaire (qui explique l'homogénéité de l'univers) prédit que once l'inflation commence, elle ne s'arrête jamais. Notre Big Bang n'est qu'une "bulle" où l'inflation a pris fin, formant un univers. Mais le tissu spatial continue de gonfler à un rythme effréné ailleurs, donnant naissance à une infinité d'autres bulles-univers. C'est le multivers le plus direct en cosmologie.

2. Le Multivers des Mondes Multiples (Quantique)

Greene défend l'interprétation d'Everett de la mécanique quantique. Chaque fois qu'un événement quantique a plusieurs issues possibles, toutes se réalisent, mais dans des branches différentes de la réalité. L'univers se scinde en une multitude de copies où chaque possibilité existe. L'argument est que cette interprétation résout élégamment le "problème de la mesure" en physique quantique sans avoir besoin d'un observateur pour "réduire" la fonction d'onde.

3. Le Multivers du Paysage de la Théorie des Cordes

C'est l'un de ses arguments les plus forts. La théorie des cordes prédit l'existence de 10^500 (un 1 suivi de 500 zéros) façons différentes de "replier" ses dimensions supplémentaires. Chaque configuration donne naissance à un univers avec des lois physiques différentes (valeurs des constantes, nombre de dimensions perceptibles, etc.). Notre univers n'est qu'une possibilité parmi cette gigantesque "paysage" de solutions.

4. Le Multivers Branaire (Brane Cosmology)

Dans certaines versions de la théorie des cordes, notre univers est une "3-brane" (une membrane à trois dimensions d'espace) flottant dans un espace de dimension supérieur. D'autres branes parallèles pourraient exister dans ce "bulk" (l'espace de dimension supérieure), chacune étant un univers à part entière. Les collisions entre ces branes pourraient même être à l'origine de Big Bangs.

5. Le Multivers Cyclique

Greene présente des modèles (comme celui de Paul Steinhardt et Neil Turok) où les univers sont engendrés par des collisions répétées entre des branes dans une dimension supérieure. Notre univers connaîtrait ainsi des cycles infinis de Big Bangs et d'expansions, formant une séquence d'univers dans le temps.

6. Le Multivers Holographique

Le principe holographique stipue que toute l'information contenue dans un volume d'espace peut être décrite par une théorie résidant sur sa frontière (comme un hologramme en 2D contenant l'info 3D). Greene avance que si ce principe est vrai, il pourrait exister des "univers holographiques" où la réalité que nous percevons n'est qu'une projection d'une information stockée sur les confins de l'espace.

7. Le Multivers des Simulations

S'appuyant sur les travaux de Nick Bostrom, Greene explore l'idée qu'une civilisation suffisamment avancée pourrait simuler des univers entiers et conscients. Si la probabilité que nous soyons dans une telle simulation est ne serait-ce qu'un tout petit peu supérieure à zéro, alors le nombre d'univers simulés dépasserait astronomiquement le nombre d'univers "réels", faisant statistiquement de nous des simulations.

8. Le Multivers Ultime (Univers Mathématique)

C'est l'idée la plus spéculative mais aussi la plus radicale. Greene s'appuie sur l'hypothèse de Max Tegmark : toute structure mathématiquement cohérente existe physiquement. Notre univers n'est pas décrit par les mathématiques ; il est une structure mathématique. Par conséquent, tous les univers possibles décrits par des mathématiques cohérentes existent quelque part dans le multivers.

9. Le Multivers Ultime (ou Univers Mathématique)

C'est l'idée la plus spéculative et radicale de tout le livre, et Greene s'appuie largement sur les travaux du cosmologiste Max Tegmark. La thèse est la suivante : Toute structure qui est mathématiquement cohérente existe physiquement.

Notre univers n'est pas simplement décrit par les mathématiques ; il est une structure mathématique. Par conséquent, tous les univers possibles qui peuvent être décrits par des lois mathématiques cohérentes (même si elles sont très différentes des nôtres) existent quelque part dans le multivers.

 

Ceci représente la forme de multivers la plus large et la plus inclusive possible. Elle englobe et dépasse tous les autres types : tous les univers issus de l'inflation, tous les univers du paysage de la théorie des cordes. C'est le "Multivers Ultime" : Il ne repose sur aucun mécanisme physique particulier (inflation, cordes, etc.). Il postule que l'existence et les mathématiques sont une seule et même chose. La réalité est un multivers mathématique.

 

Et Greene anticipe et répond aux critiques majeures ...

- "Ce n'est pas de la science, car c'est infalsifiable !"

Greene concède que c'est le défi le plus important. Cependant, il argue que certaines prédictions indirectes sont possibles. Par exemple, si notre univers est une bulle parmi d'autres, une collision avec une autre bulle aurait laissé une empreinte spécifique dans le fond diffus cosmologique (une sorte de "cicatrice" circulaire). La chercher, c'est tenter de falsifier la théorie.

- "Le principe de parcimonie (Rasoir d'Occam) s'y oppose !"

Le rasoir d'Occam exige de ne pas multiplier les entités inutiles. Si le multivers est une conséquence nécessaire de théories par ailleurs bien étayées (comme l'inflation ou la théorie des cordes), alors il n'est pas une entité "ajoutée" gratuitement. Il fait partie du package. Refuser le multivers pourrait nous obliger à rejeter des théories très efficaces, ce qui serait anti-parcimonieux.

- "Pourquoi ne pouvons-nous pas les voir ?"

La plupart de ces multivers existent dans des domaines d'espace-temps causalement disjoints du nôtre. Ils sont au-delà de notre horizon cosmologique. Nous sommes comme des poissons dans un étang qui ne peuvent voir les autres étangs au-delà de la terre qui les sépare.

 

Lee Smolin, "The Life of the Cosmos" (1997, L'Échelle de Dieu (éditions Champs Flammarion, 2002)

Lee Smolin est un physicien théorique de renom, spécialiste de la gravité quantique à boucles (une alternative sérieuse à la théorie des cordes), et dans "L'Échelle de Dieu", il propose une vision radicalement différente de celle des promoteurs du multivers issu de la théorie des cordes (comme Brian Greene) ou de l'inflation éternelle.

Sa thèse centrale : la Sélection Naturelle Cosmologique ...

Smolin émet l'hypothèse que les univers eux-mêmes pourraient être soumis à un processus analogue à la sélection naturelle darwinienne.

Voici le raisonnement :

- Les trous noirs comme "reproducteurs" : Smolin postule que lorsqu'un trou noir s'effondre, il pourrait "rebondir" pour donner naissance à un nouvel univers à l'intérieur d'un singularité, avec ses propres constantes physiques légèrement modifiées.

- Mutation des constantes physiques : Les constantes fondamentales du nouvel univers (constante de gravitation, masse des électrons, etc.) seraient très similaires, mais pas identiques, à celles de son "parent".

- Sélection pour la "fécondité" : Les univers qui possèdent les constantes physiques les plus propices à la formation de trous noirs seraient les plus "féconds", car ils créeraient le plus de descendants.

Notre univers est "ajusté" pour les trous noirs : Le fait que notre univers semble si finement réglé pour permettre la vie (argument de l'ajustement fin) ne serait pas une coïncidence. Au contraire, il serait réglé pour la fécondité en trous noirs, et la vie ne serait qu'une conséquence accessoire de ces conditions. Nous appartenons donc à une lignée d'univers très performants dans la production de trous noirs.

 

La critique du Multivers ...

Smolin s'attaque directement au problème de la "falsifiabilité" des théories du multivers traditionnelles. Si une infinité d'univers avec toutes les lois physiques possibles existent, alors toute observation que nous ferions devient inévitable et la théorie ne fait plus de prédiction testable. C'est, pour lui, une impasse scientifique.

Sa théorie à lui, en revanche, fait une prédiction testable : l'univers dans lequel nous nous trourons doit être optimal pour la production de trous noirs. On pourrait donc, en principe, tester son idée en étudiant si des modifications des constantes physiques (dans des simulations) augmenteraient ou diminueraient le nombre de trous noirs formés.

Cet ouvrage est donc le parfait contrepoint à "La Réalité cachée" de Brian Greene. Lire les deux offre une perspective complète et critique sur le sujet...

 


Serions ainsi au seuil de la théorie des mondes multiples, et la quête de la grande unification des particules élémentaires et de leurs interactions fondamentales,  des quatre grandes forces fondamentales de la Nature, de l'infiniment petit à l'infiniment grand, ne cessera d'être hantée par cette idée si singulière des univers parallèles .. ?


Les premiers ordinateurs apparaissent et les années 1940 ont vu se développer l'électrodynamique quantique, notamment avec Richard Feynman et la problématique de l'interaction électromagnétique à l'échelle quantique. Dans les années 1960, le modèle standard de la physique des particules (Standard Model) révèle la pluralité des particules subatomiques connues, et les interactions qui les affectent. C'est à partir de cette époque que la recherche d'une "théorie du tout" ( theory of everything (ToE), final theory, ultimate theory) suscite à nouveau nombre de travaux pour tenter d'unifier théoriquement les quatre forces fondamentales : la "gravité" ("Gravity", force responsable de la chute des corps, du mouvement des corps célestes, et de l'attraction entre des corps ayant une masse), l' "interaction faible" ("the Weak Force", force nucléaire faible qui affecte toutes les catégories de fermions connues, à commencer par les électrons, les quarks et les neutrinos) et l' "électromagnétisme" ("the Electromagnetic Force"), décrites toutes deux via une théorie unique (la théorie électrofaible), l' "interaction forte" ("the Strong Force", force nucléaire qui agit sur les quarks, antiquarks et gluons).

Mais la nature même de l'Univers semble imposer une incompatibilité infranchissable entre la mécanique quantique et la relativité générale, nous ne parvenons pas à décrire l'univers à son origine, au seuil de la création de l'espace et du temps; et quant au temps lui-même, il n'est plus universel mais en dépendance du contexte ou de l'entité dans lequel il s'exprime, et plus encore il ne nous est d'aucun secours dans notre quête de la nature fondamentale des choses, simple repère dans un monde que nous voyons évoluer sans cesse.

La théorie des cordes  (the String Theory) a ambitionné de réconcilier toutes les théories de la physique en proposant l'existence de six dimensions cachées en plus des trois dimensions de l'espace et de celle du temps. Les années 1970 verront la théorie des cordes un temps détrônée par la "chromodynamique quantique" (Quantum ChromoDynamics, de H. David Politzer, Frank Wilczek, David Gross) qui semble alors offrir une meilleure explication à l'interaction forte, et , dans les années 1980, la "gravitation quantique à boucles" (Loop Quantum Gravity, de Carlo Rovell et Lee Smolin) : mais ces théories qui tentent de concilier à la fois la notion d'espace-temps de la relativité générale avec les notions d'énergie et de matière de la mécanique quantique, ont pour conséquence, directement ou non, de réanimer l'idée du "multivers", voire du mouvement cyclique de l'univers qui rappelle les cosmologies indiennes ou chinoises des premiers siècles de notre ère, monde infini dans le temps mais dont l'extraordinaire variabilité dans l'espace condamne toute possibilité de théorisation, voire de compréhension...

 

1918, Hermann Weyl (1885-1955), physicien théoricien spécialiste des champs électromagnétiques, conçoit dans "Temps, Espace, Matière" (1922) d'hypothétiques fusions de l'espace et du temps en un seul continuum, sorte de tunnels théoriques dans l'espace (one-dimensional tubes).

En 1957, John Wheeler (1911-2008), directeur de la fameuse thèse d'Everett qui formula l'interprétation de la mécanique quantique connue sous le nom d' "univers multiples",  reprend cette notion qu'il dénomme "wormhole" (trou de ver), une notion théoriquement possible d'après les lois de la relativité générale (1916) régissant l'univers : Albert Einstein (1879-1955) et Nathan Rosen (1909-1995) les conçoivent en effet comme des connexions semblables à des tunnels reliant des régions de l'espace-temps, les fameux "ponts d'Einstein-Rosen" (Einstein–Rosen bridges). La mise en doute de cette théorie vient notamment de la nécessité de penser que de tels trajets devraient impliquer des vitesses plus grandes que celle de la lumière, contrevenant ainsi à l'un des aspects de la relativité restreinte.

John Wheeler poursuit ses réflexions en insistant sur l'instabilité foncière de tels "tunnels" et distinguant "tunnels de Lorentz" (Lorentzian wormholes), fidèles aux modèle standard d'Einstein, et "tunnels euclidiens" (Euclidean wormholes) qui n'existeraient que dans le monde théorique de la mécanique quantique.

En 2010, Stephen Hawking (1942) conçoit des trous de vers non seulement dans l'espace interstellaire, mais aussi sur notre planète Terre, tout autour de nous, mais avec cette limitation que la radiation naturelle y est telle qu'elle exclut toute possibilité d'emprunter ces voies pour traverser le temps. Hors ces exposés, qui peuvent nous apparaître comme de la pure science-fiction, et utilisés comme tels, reste que la question théorique subsiste et que peut-être les problématiques sont-elles par trop mal formulées...

 

"Gravitation", Charles W. Misner, Kip S. Thorne et John Wheeler (1973)

Imposant ouvrage de référence en physique et "bible" de  la théorie de la gravité d'Einstein (relativité générale), divisé en deux parties, "spacetime physics" et "physics in flat spacetime"  - "Einstein's description of gravitation as curvature of spacetime led directly to that greatest of all predictions of his theory, that the universe itself is dynamic. Physics still has far to go to come to terms with this amazing fact and what it means for man and his relation with the universe." (John Wheeler) -, constitue le premier manuel sur le sujet, conçu dans un formalisme inédit, et nous livrant les techniques révolutionnaires développées au cours de la dernière décennie pour tester la théorie de la relativité générale. 

 

"A Brief History of Time: From the Big Bang to Black Holes", Stephen Hawking (Une brève histoire du temps, Du Big Bang aux trous noirs, 1988)

Ouvrage de vulgarisation scientifique à succès portant sur la cosmologie, préfacé par Carl Sagan, dans lequel Stephen Hawking tente d'expliquer à des non-initiés des phénomènes et théories cosmologiques fondamentaux, souvent étranges et paradoxaux, comme le Big Bang, le trou noir, le cône de lumière ou la théorie des cordes. Stephen Hawking (1942) consacre sa thèse de doctorat aux aspects les plus singuliers de la cosmologie, dont ces fameux points de l'espace-temps qui concentrent toute la masse d'un trou noir. Il établit un parallèle entre ces trous noirs et les conditions primaires de l'Univers lors du Big Bang. Dans les années 1970, étudiant la mécanique quantique et le comportement de la gravitation à l'échelle subatomique, il met en évidence à la limite extérieure des trous noirs, au-delà de laquelle rien ne peut échapper à l'attraction gravitationnelle qui s'y exerce, le "rayonnement de Hawking" : les trous noirs absorbent non seulement de la matière et de l'énergie, mais produisent des paires subatomiques, particules/antiparticules, exprimés via un rayonnement thermique à faible température. Il aboutit à la conclusion que les noirs trous peuvent s'évaporer, l'énergie, avec le temps, est emportée par ce rayonnement, provoquant progressivement une perte de masse, fatale pour le trou noir. Si en 2002 l'observation des étoiles en orbite à proximité du centre de notre galaxie suggère la présence d'un gigantesque trou noir, Stephen Hawking semble en 2014 abandonner l'idée même du "trou noir"...

 

"Black holes and Time Warps, Einstein's Outrageous Legacy",  Kip Thorne (1994)

"Trous noirs et distorsions du temps : l'héritage sulfureux d'Einstein" est un ouvrage de Kip Thorne, astrophysicien notoirement reconnu pour ses travaux sur les trous noirs et les différents effets de la gravité sur le continuum espace-temps, les trous de ver, les gravitons, les ondes gravitationnelles, et ses théories controversées sur les machines à voyager dans le temps et les multiples connections éventuelles de l'espace-temps ...

 

1954, la théorie de Yang-Mills jette les bases mathématiques d'une unification des quatre forces fondamentales, montrant que désormais la recherche mathématique entend expliciter, structurer, voire anticiper les phénomènes physiques observés. Comme Maxwell établissait en 1873 des équations pour décrire et corréler champ électrique et champ magnétique, Chen Ning Yang et Robert Mills allient théorie des champs et théorie quantique pour décrire l'interaction forte des particules élémentaires. Mais calculabilité et théorisation ne débouchent pas explicitement sur la compréhension des phénomènes...

 

1957, la théorie des "univers qui bifurquent" - Hugh Everett III (1930-1982) propose, malgré bien des oppositions, l'interprétation des mondes multiples de la physique quantique (The Theory of the Universal Wave Function, popularisé en "Many-worlds interpretation" par Bryce DeWitt).

L'idée vient d'un paradoxe : le monde quantique est un monde où les particules subatomiques peuvent présenter un nombre indéfini d'états, de position, de vitesse, et surtout de superpositions, problème fondamental soulevé par  Schrödinger et sa fonction d'onde; or, le fait même d'observer un système quantique réduit toutes les options possibles, une seule option semble "choisie" dès que nous tentons une observation.  Chaque état de la particule peut créer un monde possible, et chaque observation ou expérience créera autant de mondes possibles, mais ce n'est pas la "nature" qui sélectionne tel ou tel monde, toutes les possibilités ont bien été produites, mais l'observateur, lui, ne vit que dans un monde avec une seule option. Rien ne s'est donc perdu, tout ce qui devait arriver est arrivé, reste que l'observateur que nous sommes est tributaire de sa réalité... 

 

1961, Julian Schwinger (1918-1994) puis Sheldon Glashow (1932), - ce dernier, vulgarisateur populaire avec "Interactions: A journey through the mind of a particle physicist", 1988 -, développent les prémisses de "la théorie électrofaible" (the theory of the electroweak interactions, développée par Abdus Salam et Steven Weinberg) qui unifient la force électromagnétique, la force portée par des photons de lumière sans masse et qui s'étend aux confins de l'univers, et  l'interaction faible, environ 10 millions de fois plus faible que la force magnétique et qui couvre à peine la taille d'un noyau atomique. 

 

 

En 1968, Veneziano fait une découverte totalement inattendue et révolutionnaire. Il cherchait à comprendre le comportement des particules soumises à l'interaction forte (la force qui lie les protons et les neutrons dans le noyau atomique).

Il a découvert une formule mathématique très ancienne et élégante (la fonction bêta d'Euler) qui décrivait étonnamment bien les propriétés des données expérimentales sur les hadrons (comme les protons et les neutrons) et leurs interactions.

Les caractéristiques clés de cette formule étaient :

- Régularité des Résonances : Elle reproduisait parfaitement le fait que les particules se comportaient comme si elles étaient des "résonances" (états excités) d'un même objet.

- Dualité : La formule était duale. Cela signifiait qu'elle décrivait une interaction de particules de deux manières équivalentes : comme un échange de particules dans un canal (par exemple, l'échange de momentum) ou dans un autre canal (par exemple, l'échange de spin). Cette propriété était très recherchée mais personne n'avait réussi à la trouver auparavant.

- L'Interprétation et la Naissance de la Théorie des Cordes

La formule de Veneziano était si précise et possédait des propriétés si belles que les physiciens se sont immédiatement demandé : "Mais quelle réalité physique cette formule décrit-elle ?"

Quelques années plus tard, en 1970, les physiciens Yoichiro Nambu, Holger Bech Nielsen et Leonard Susskind ont fourni l'interprétation révolutionnaire : la formule de Veneziano décrivait exactement le comportement de cordes vibrantes infinitésimales !

Au lieu de points sans dimension (comme dans la physique des particules standard), les objets fondamentaux étaient désormais de minuscules cordes vibrantes.

La différence de vibration d'une corde déterminait la masse et le type de particule qu'elle représentait (un électron, un quark, un photon, etc.). Les interactions (comme la collision de deux particules) étaient décrites simplement par la division et la jonction de ces cordes.

La découverte de Gabriele Veneziano en 1968 n'était pas une observation expérimentale, mais une avancée théorique majeure : sa formule a conduit directement à l'idée que les constituants fondamentaux de l'univers pourraient être des cordes vibrantes, et non des points. C'est ainsi que la théorie des cordes est née, même si son objectif a ensuite évolué de la description de l'interaction forte vers une théorie du tout unifiant toutes les forces et la gravité...


1968, Gabriele Veneziano (1942) découvre que la fonction bêta (l'une des fonctions numériques, avec la fonction gamma, mises en oeuvre dans le cadre de certaines lois de probabilité d'un certain Leonhard Euler, génie du XVIIIe siècle), utilisée comme amplitude de dispersion, possède de nombreuses propriétés pour expliquer les propriétés physiques de l'interaction forte entre les particules ("Veneziano amplitude") - Dans les années 1960 et 1970, la liste sans cesse croissante de particules en forte interaction (les mésons et les baryons) montre qu'aucune de ces particules n'est au fond élémentaire, et Geoffrey Chew propose alors, à partir du comportement des hadrons (composé de quarks, anti-quarks et gluons régi par l'interaction forte), une modélisation de la particule via un objet mathématique, la "matrice S" (S-matrix), reflétant l'ensemble des interactions et états des particules asymptotiquement libres. Gabriele Veneziano découvre dans cette modélisation des figures qui suggèrent que les particules apparaissent par endroit s le long de lignes droites unidimensionnelles : c'est là le premier indice de ce qui va progressivement se traduire en cartes de "cordes" et de leurs comportements. La matière va s'avérer d'une très grande complexité mais permet, par exemple, de décrire le processus de collision entre deux hadrons comme la collision de deux cordes qui, en se brisant, forment d'autres hadrons.  


1969, la "théorie des cordes" (the String Theory)  - les travaux de Leonard Susskind (1940, "The cosmic landscape: string theory and the illusion of intelligent design", 2005), de Yoichiro Nambu (1921-2015), et de Holger Bech Nielsen (1941) tentent d'unifier les deux principales théories de la physique en charge d'expliquer les quatre forces fondamentales de la nature: la "théorie de la relativité générale" (qui lie gravitation/espace/temps au sein d'uneentité à quatre dimensions, l'espace-temps) et la "théorie de la mécanique quantique" (qui unit les trois autres forces, électromagnétisme, interaction nucléaire forte, interaction nucléaire faible). Pour atteindre ce but, les quatre forces doivent pouvoir être écrites de la même manière, notamment la gravité, ou espace-temps, doit être présentée sous forme d'entités discrètes et mesurables (la matière est constituée d’un nombre fini d’atomes dont les interactions se font d'une manière quantifiée et cette échelle, la matière n'est pas continue, elle se fait discrète, toute interaction et donc toute énergie échangée ne se fait pas d’une manière continue, il existe des valeurs interdites). Par rapport aux trois autres forces, la gravitation se situe à un niveau très faible et donc les vecteurs utilisés pour construire cette théorie unifiée doivent être minuscules: c'est Gabriele Veneziano qui a tenté de modéliser mathématiquement ces vecteurs et imaginer un modèle à base de cordes. Susskind, Nambu et Nielsen ont ainsi proposé que la matière présente dans l'Univers est composée non pas de particules ponctuelles, mais de "cordes d'énergie" de dimensions extrêmement petites, sorte de lacet fermé ou ouvert qui se déplace et vibre, attaché à des surfaces planes appelées "branes". Les attributs intrinsèques de la particule, masse, spin, charge électrique etc., proviennent du mouvement de la corde dans le référentiel où son centre est au repos.Cette structure, invisible à nos yeux, devrait expliquer tous les phénomènes observables. À l'intérieur de ces cordes, des ondes vibratoires donnent ainsi lieu aux comportements quantifiés observés dans la nature, si la corde vibre par exemple dans un certain mode, elle décrit un électron, si elle vibre dans un autre mode, elle décrit un quark, et ainsi de suite. La particule hypothétique qu'est le "graviton", comme le photon sans masse et sans charge, résulterait de la vibration de deux cordes formant une boucle. L'élaboration de la théorie des cordes n'a pas été simple, et de nombreux physiciens ne la partagent pas encore, et pour fonctionner les modèles ont évolué, les cordes approchées comme droite sont devenues de minuscules boucles, de nouvelles dimensions ont été ajoutées, enroulées et contractées pour certaines à l'intérieur des autres et jusqu'à six théories des cordes ont été construites (théorie des supercordes, 1980, lorsque l'on tente une approche de la gravitation quantique; théorie M d'Edward Witten, 1996; théorie des branes..).

 

1973, Brandon Carter (1942) propose le "principe anthropique" (Anthropic Principle) qui lie dans une même compatibilité l'observateur et l'univers observé. Un premier principe anthropique dit faible (weak) énonce que tout observateur humain et terrien doit s'attendre à découvrir que l'univers qu'il observe est compatible avec sa propre existence. Le principe anthropique dit fort (strong), auquel Carter ne semble pas adhérer, postule que l'univers doit être structuré de façon à admettre l'existence d'observateurs intelligents...

 

Le principe anthropique faible (Weak Anthropic Principle - WAP) tel que formulé par le physicien Brandon Carter en 1973 ...

"What we can expect to observe must be restricted by the conditions necessary for our presence as observers." ("Ce que nous pouvons nous attendre à observer doit être restreint par les conditions nécessaires à notre présence en tant qu'observateurs.")

C'est une contrainte de sélection logique, pas une explication. Il ne dit pas pourquoi l'univers est compatible avec notre existence. Il dit simplement que nous ne pouvons pas observer un univers qui ne le serait pas. Si l'univers ne permettait pas la vie, nous ne serions pas là pour en parler.

C'est presque une tautologie. C'est un principe de bon sens qui semble évident une fois énoncé, mais il a une grande valeur méthodologique en cosmologie et en physique.

Exemple d'application : Pourquoi trouvons-nous l'univers si vieux (13,8 milliards d'années) ? Parce qu'il a fallu ce temps pour que les étoiles fabriquent les éléments lourds (carbone, oxygène, fer) nécessaires à la formation de notre planète et de notre corps. Nous ne pouvions pas apparaître plus tôt.

Le WAP est un outil de raisonnement pour les scientifiques : "Compte tenu de notre existence, à quoi devons-nous nous attendre ?"

 

Le Principe Anthropique Fort (Strong Anthropic Principle - SAP)

Carter a également proposé une version plus spéculative et bien plus controversée :

"The Universe must have those properties which allow life to develop within it at some stage in its history." ("L'Univers doit avoir les propriétés qui permettent à la vie de se développer en son sein à un certain stade de son histoire.")

Ici, "must" ("doit") est crucial. Il sous-entend une nécessité, comme si les lois de la physique étaient contraintes à permettre l'émergence de la vie. Cela ouvre la porte à des interprétations téléologiques (un but) ou à des mécanismes comme le multivers.

C'est le SAP, et non le WAP, qui est directement lié à l'hypothèse du multivers. Le multivers est l'un des rares mécanismes physiques pouvant "expliquer" ce "doit". Si une infinité d'univers existent avec des lois variables, alors il est nécessaire que l'un d'eux ait les propriétés permettant notre existence.

Le SAP est une proposition sur la nature profonde de la réalité : "L'univers est fait pour que nous existions." C'est cette version qui, reliée à l'hypothèse du multivers, alimente les débats les plus profonds de la cosmologie moderne, comme ceux résumés dans l'ouvrage "Universe or Multiverse?" de Bernard Carr ...

 

"The Anthropic Cosmological Principle" (1986, John D. Barrow et Frank J. Tipler (Oxford University Press)

Cet ouvrage est bien plus qu'un simple livre ; c'est une summa, une encyclopédie de près de 700 pages qui explore le principe anthropique sous tous ses angles : physique, philosophique, biologique et même théologique.

Nos deux auteurs apportent Systématisation et Élargissement : Barrow et Tipler ont formalisé et élargi les concepts ébauchés par Carter. Ils sont notamment connus pour avoir clairement défini et popularisé les distinctions entre les versions "faible", "forte" et "finale" du principe. Leur livre est la pierre angulaire académique qui permet de comprendre comment le principe anthropique, depuis son énoncé initial par Carter, est devenu un outil central pour discuter du multivers, de l'ajustement fin de l'univers et de la place de l'observateur en son sein...

- Weak Anthropic Principle (WAP) : Reprend et développe l'idée de Carter comme une contrainte d'observation.

- Strong Anthropic Principle (SAP) : "L'univers doit avoir les propriétés qui permettent à la vie d'y apparaître à un certain stade de son histoire." Ils explorent les mécanismes physiques qui pourraient rendre ce "devoir" possible (comme le multivers).

- Final Anthropic Principle (FAP) - la plus spéculative : " Une intelligence consciente doit apparaître dans l'univers et, une fois apparue, elle ne peut jamais mourir." Cette version, souvent critiquée pour son caractère téléologique (voire mystique), est intimement liée à leurs travaux sur le concept d'Intelligence Postbiologique et l'Hypothèse de l'Eternité de l'Intelligence.

 

Une Encyclopédie de l'Ajustement Fin (Fine-Tuning) ...

Le livre est remarquable pour son recensement méticuleux de toutes les constantes physiques et conditions initiales qui semblent "ajustées" pour permettre la vie. Ils détaillent ce qui se passerait si la constante gravitationnelle, la constante cosmologique, la masse du neutron, etc., étaient ne serait-ce qu'infiniment différentes. 

Leur contribution majeure a été de ..

- Rassembler des dizaines de ces exemples provenant de la physique des particules, de la cosmologie et de l'astrophysique, montrant que le phénomène n'est pas une simple coïncidence isolée mais un schéma répété.

- Les quantifier pour montrer à quel point les fenêtres de valeurs "habitables" sont souvent incroyablement étroites par rapport à l'éventail des valeurs physiquement possibles.

- Argumenter que cet ajustement fin est un fait observationnel qui nécessite une explication, que celle-ci soit le Hasard (invraisemblable), le Design (une cause intelligente) ou le Multivers (la solution qu'ils explorent le plus longuement en tant que physiciens).

Voici quelques-uns des réglages les plus frappants qu'ils détaillent :

1. La Constante Cosmologique (Λ) ...

Le réglage : La valeur observée de l'énergie du vide (ou constante cosmologique) est extraordinairement proche de zéro, mais pas tout à fait nulle. Elle est de l'ordre de 10⁻¹²³ (1 suivi de 123 zéros) dans les unités naturelles de Planck.

La conséquence d'un changement infime :

- Si elle était légèrement positive, l'expansion de l'univers aurait été si rapide que les galaxies, les étoiles et les planètes n'auraient jamais pu se former.

- Si elle était légèrement négative, l'univers se serait effondré sur lui-même en un Big Crunch seulement quelques millions d'années après le Big Bang, bien trop tôt pour que la vie n'émerge.

La précision requise est souvent comparée à celle nécessaire pour lancer une balle à travers l'univers observable et viser une cible de 1 cm².

2. Le Rapport des Forces Fondamentales ...

Le réglage : La force nucléaire forte qui lie les protons et les neutrons dans les noyaux atomiques est précisément calibrée par rapport à la force électromagnétique qui tend à les repousser.

La conséquence d'un changement infime :

- Si la force forte était ne serait-ce que 1% plus faible, le deutéron (noyau de deutérium) ne serait pas stable. Sans deutéron, la chaîne de fusion nucléaire dans les étoiles s'arrêterait net. L'univers ne contiendrait que de l'hydrogène, aucun élément lourd (carbone, oxygène, etc.) nécessaire à la vie.

- Si elle était légèrement plus forte, deux protons pourraient se lier directement, court-circuitant les réactions stellaires normales. Les étoiles brûleraient leur carburant à un rythme catastrophiquement rapide, rendant la vie impossible.

3. La Masse du Neutron...

Le réglage : La masse du neutron est très légèrement supérieure (d'environ 0.1%) à celle du proton (plus un électron).

La conséquence d'un changement infime :

- Si le neutron était légèrement plus lourd, les neutrons libres ne pourraient pas se désintégrer en protons. Tout l'hydrogène de l'univers primitif se serait fusionné en hélium. Pas d'hydrogène = pas d'eau = pas de vie.

- S'il était légèrement plus léger, les protons se désintégreraient spontanément en neutrons. Il n'y aurait aucun atome stable.

4. Le Rapport de Masse Proton/Électron

Le réglage : Le proton est environ 1836 fois plus massif que l'électron.

La conséquence d'un changement : Ce rapport fixe la taille des atomes et la nature des liaisons chimiques. S'il était significativement différent, la chimie – et donc la biochimie de la vie – serait radicalement altérée, et probablement impossible.

 

Leur approche est vertigineusement large. Ils lient la cosmologie à la biologie (la théorie de l'évolution, l'émergence de la vie), la philosophie (le problème de la mesure en mécanique quantique, les arguments téléologiques), la futurologie (le concept d'intelligence postbiologique et le destin à long terme de la vie dans l'univers) et la théologie naturelle (le lien entre le principe anthropique et les arguments sur l'existence de Dieu).

 

 

"The Anthropic Cosmological Principle" est l'ouvrage de référence qui a placé le débat anthropique au cœur de la cosmologie moderne. Il a fourni le vocabulaire et le cadre conceptuel que tous les physiciens et philosophes utilisent encore aujourd'hui pour en discuter.

Mais le livre, et en particulier la version "Finale" (FAP), a été vertement critiqué. Les détracteurs y ont vu une dérive métaphysique loin de la science empirique. Le célèbre physicien Martin Gardner l'a même surnommé de manière moqueuse "The Completely Ridiculous Anthropic Principle" (CRAP) pour souligner ce qu'il percevait comme son absurdité. Malgré cela, les parties sur les versions faible et forte sont restées extrêmement influentes...


Pour avoir le débat complet dans un seul livre, l'ouvrage collectif dirigé par Bernard Carr, "Universe or Multiverse?", est la référence absolue. Il montre que la communauté scientifique est profondément divisée sur la question et que le passage du multivers aux observateurs intelligents (le principe anthropique) est au cœur des désaccords, tant scientifiques que philosophiques ...

 

"Universe or Multiverse?" (2007, sous la direction de Bernard Carr (Cambridge University Press)

Bernard Carr, un cosmologiste et ancien étudiant de Stephen Hawking, a réuni les contributions des plus grands esprits sur le sujet. Ce n'est pas un livre avec une seule thèse (comme ceux de Greene ou Smolin), mais un recueil d'articles où chaque expert présente son point de vue, souvent contradictoire avec les autres.

L'ouvrage est divisé en plusieurs parties qui couvrent précisément l'arc de votre question :

- Les fondements physiques des multivers (inflation, théorie des cordes, mécanique quantique).

- Le lien avec le principe anthropique et l'ajustement fin des constantes physiques.

- Les implications philosophiques et métaphysiques (Pourquoi y a-t-il "quelque chose" plutôt que "rien" ? Le statut des lois physiques).

- Les perspectives théologiques (comment le concept de multivers interagit avec les questions sur Dieu ou la création).

Quant aux contributeurs ...

- Andrei Linde : Un des pères de l'inflation cosmique et de l'inflation éternelle (pro-multivers).

- Leonard Susskind : Physicien, grand défenseur du paysage de la théorie des cordes et du multivers (pro-multivers).

- Steven Weinberg (Prix Nobel) : Discute du principe anthropique et de la constante cosmologique.

- Martin Rees (Astronome Royal) : Sur l'ajustement fin et le multivers.

- Lee Smolin : Présente son alternative darwinienne avec la sélection naturelle cosmologique (critique du multivers).

- George Ellis : Cosmologiste et philosophe, l'un des critiques les plus sévères du multivers, pointant du doigt le manque de falsifiabilité.

Et bien d'autres... (Don Page, Frank Wilczek, etc.)

Le Débat contradictoire est son principal atout. La connexion entre l'hypothèse du multivers et l'existence d'observateurs (le principe anthropique) est un thème central et récurrent dans presque toutes les contributions. Mais un ouvrage académique, accessible à un public passionné et ayant quelques bases, plus technique et dense que les livres de vulgarisation de Greene ou Kaku ...