Dès que l’on parle du macro-univers, le lecteur risque d’être frappé de plein fouet par une suite de noms impressionnants : pourquoi le rayonnement de fond cosmologique est-il si régulier ? Pourquoi existe-t-il une tache froide ? Que signifient l’asymétrie hémisphérique et les alignements de bas ordre ? Pourquoi les premiers trous noirs et quasars semblent-ils apparaître trop tôt ? Pourquoi le lithium 7 ne tombe-t-il jamais juste ? Pourquoi l’antimatière est-elle presque absente ? Pourquoi certaines directions de polarisation se regroupent-elles ? L’ancienne écriture aligne souvent ces questions une à une, puis attribue à chacune son explication propre. Cette méthode est commode pour déployer une carte des savoirs, mais elle risque aussi de transformer le volume 6 en simple « encyclopédie des énigmes cosmologiques ».
Ici, nous ne dresserons pas la liste des cent grandes énigmes de la cosmologie pour les régler une par une. Nous allons d’abord réordonner les anomalies qui reviendront sans cesse dans la suite en plusieurs Groupes de relevés de sortie. Dans ce volume, il faut au moins distinguer quatre groupes : le groupe du négatif, le groupe directionnel, le groupe des extrêmes précoces et le groupe du bilan chimique précoce. Si de nombreux problèmes cosmologiques célèbres apparaissent par groupes, ce n’est pas parce que l’univers se plaît à fabriquer simultanément une foule de petits ennuis sans rapport les uns avec les autres ; c’est parce qu’une même Chaîne de relevés de sortie macroscopique, lorsqu’elle est mal modélisée, se fissure en même temps dans plusieurs fenêtres d’observation. Ce que l’on appelle une « anomalie cosmologique » ne signale donc pas toujours d’abord un problème de l’objet lui-même ; très souvent, le problème commence dans la façon de le lire.
La force de la cosmologie dominante tient à sa remarquable capacité à condenser des phénomènes complexes en grandeurs géométriques, grandeurs de fond et paramètres. Dans beaucoup de problèmes locaux, cette écriture tient des comptes propres, calcule efficacement et fournit réellement une langue unifiée puissante. Elle commence à peiner non pas lorsqu’un phénomène isolé résiste provisoirement à l’explication, mais lorsque plusieurs fenêtres deviennent instables à la fois : elle a alors tendance à découper un même décalage de la Chaîne de relevés de sortie en une série de petites pannes indépendantes. Le véritable blocage se trouve là. Tant que l’ancienne lecture reste en place, le négatif, les directions, les objets extrêmes et le reste du bilan chimique doivent être confiés à des familles de correctifs différentes, au lieu d’être repris par un mécanisme plus en amont. Plus les anomalies se multiplient, plus les correctifs se multiplient ; et plus ils se multiplient, plus il devient difficile de voir que ces problèmes peuvent avoir une origine commune en amont.
I. Pourquoi les « problèmes » apparaissent-ils toujours par groupes ?
Si l’univers était vraiment une scène géométrique immobile, les observations macroscopiques pourraient effectivement être comprimées en quelques paramètres globaux : comment l’espace s’étire ou se contracte, comment le temps s’écoule, comment la matière se répartit, comment les signaux se propagent le long de lignes géométriques. Dans cette écriture, toute observation qui déborde du modèle attendu ne laisse que deux issues : soit les paramètres ne sont pas encore bien ajustés, soit l’environnement local présente une particularité. Les problèmes deviennent alors des « exceptions locales sur fond statique ». Cette intuition est forte ; c’est précisément pour cela que l’ancienne cosmologie a longtemps occupé la position haute dans l’explication.
Mais les sections précédentes de ce volume ont déjà changé le cadre. Une observation du macro-univers n’est jamais une « lecture extérieure directe de l’objet lui-même » ; elle est le résultat composé de toute une chaîne : conditions de fonctionnement à la source — chemin réel — seuil de réception — Règles de mesure, horloges et étalonnage instrumental d’aujourd’hui. Dès que des variables clés de cette Chaîne de relevés de sortie sont trop vite figées en paramètres d’arrière-plan statiques, plusieurs fenêtres se mettent à poser problème ensemble : le négatif pose problème, les statistiques directionnelles posent problème, les objets extrêmes précoces posent problème, le bilan chimique précoce pose problème. Autrement dit, les quatre groupes ne sont pas quatre tas de sujets indépendants ; ce sont quatre manières, dans quatre fenêtres, dont une même chaîne de lecture se fissure.
Une analogie très simple est celle d’un lot entier de vieilles photographies développé avec une mauvaise température de couleur et de mauvais paramètres de tirage. Le résultat ne sera pas seulement qu’une seule photo aura une dominante : le ciel, les visages, les ombres et les tissus poseront problème en même temps. Si vous ne regardez qu’une image, vous penserez peut-être que tel visage a un défaut ; mais si beaucoup d’images dérivent ensemble, il devient plus raisonnable de soupçonner non pas les personnes photographiées, mais toute la chaîne de lecture. Les problèmes cosmologiques apparaissent par groupes pour une raison analogue : la fissure ne surgit pas en un point unique ; elle se manifeste par nappes sous une même lecture erronée.
C’est pourquoi la section 6.2 ne peut pas se contenter d’aligner des titres comme une page de sommaire. Elle doit d’abord réorganiser les sections 6.3 à 6.6 en un véritable index : la section 6.3 traite, dans le groupe du négatif, de la question « pourquoi l’ensemble tient-il debout ? » ; la section 6.4 traite, dans le groupe directionnel, de la question « pourquoi une page supposée blanche conserve-t-elle encore des stries directionnelles ? » ; la section 6.5 traite, dans le groupe des extrêmes précoces, du triptyque « trop tôt, trop lumineux, trop régulier » ; la section 6.6 traite, dans le groupe du bilan chimique, de la question « pourquoi le reste de fenêtre se ferme-t-il toujours si mal ? ». Ces quatre sections ne sont pas quatre cours parallèles ; ce sont quatre démontages successifs d’un même axe.
II. Premier groupe : le groupe du négatif — nous voyons une voûte presque uniforme, mais pas vraiment silencieuse
Commençons par dire le phénomène sans détour. Les observations du rayonnement de fond nous montrent une sorte de négatif micro-onde couvrant tout le ciel. À grande échelle, il est extraordinairement lisse, avec des écarts de température infimes ; mais dès qu’on regarde de plus près, on voit apparaître de fines stries, une tache froide, des anomalies de bas ordre, une asymétrie hémisphérique et plusieurs résidus directionnels. Pour le lecteur non spécialiste, l’impression est déjà étrange : si c’est vraiment la « photographie des braises » d’un univers ancien, pourquoi est-elle si régulière ? Et si elle est si régulière, pourquoi conserve-t-elle tout de même tant de petites textures indisciplinées ?
La force de l’écriture dominante, ici, est d’avoir transformé ce négatif en une langue paramétrique extrêmement puissante. Elle parvient à résumer une grande masse d’information statistique au moyen de très peu de grandeurs globales ; cette capacité à tenir les comptes dans le détail explique largement sa force de conviction. Mais la difficulté qu’elle rencontre est tout aussi nette : elle doit tenir deux choses à la fois. Elle doit expliquer pourquoi des régions lointaines se ressemblent autant, tout en expliquant pourquoi cette ressemblance laisse malgré tout surgir des anomalies locales. Tant que ce négatif est traité comme un arrière-plan géométrique sans histoire, sans direction et sans stratification, les zones trop régulières appellent un scénario supplémentaire pour être lissées, tandis que les zones pas assez régulières demandent une raison supplémentaire pour être logées quelque part.
Ainsi, ce qui pourrait appartenir à une même carte de fond se trouve découpé en problèmes séparés : la cohérence d’horizon devient une question, la tache froide une autre, les alignements de bas ordre une autre encore, puis l’asymétrie hémisphérique une quatrième. Chacune peut être discutée isolément ; mais lorsque cette façon de découper se répète sans cesse, il faut poser la question : ces phénomènes sont-ils réellement indépendants, ou avons-nous écrit dès le départ le « négatif » de manière trop plate ?
EFT préfère ici effectuer une correction plus en amont : ce que nous voyons aujourd’hui n’est pas « le fond absolu en soi », mais un négatif formé par l’imagerie des premiers États de la mer, puis légèrement réécrit par les structures et les reliefs apparus ensuite. Dès lors, le fait que la couleur de fond soit relativement régulière, que des textures locales persistent et que certaines statistiques directionnelles se montrent récalcitrantes revient à une même famille de questions : ce négatif peut-il vraiment être traité comme une page blanche sans mémoire ? Il ressemble davantage à une vieille photographie : d’abord développée globalement, puis longuement marquée par des empreintes d’environnement. La stabilité de la couleur d’ensemble n’implique pas l’absence de directions ni de textures locales à la surface.
III. Deuxième groupe : le groupe directionnel — pourquoi l’univers n’est-il pas un bruit blanc absolument sans direction ?
La deuxième famille de phénomènes est plus étrangère à beaucoup de lecteurs, mais l’intuition n’en est pas difficile. On observe des directions de polarisation qui se regroupent, certaines grandes structures qui paraissent anormalement alignées, des orientations de jets apparemment plus ordonnées qu’une distribution aléatoire, et même quelques modes multipolaires de bas ordre qui semblent présenter une dissymétrie hémisphérique et des directions préférentielles. En langage ordinaire : l’univers ne ressemble pas tout à fait à une soupe complètement brassée, indifférente à toute direction.
La force de l’écriture dominante est ici de fournir, avec l’homogénéité et l’isotropie, une ligne de base d’une grande simplicité. Tant que cette ligne de base reste solide, beaucoup de déductions deviennent propres et beaucoup de statistiques sont plus faciles à organiser. La difficulté est que, dès qu’elle devient un arrière-plan de bon sens intouchable, la directionnalité perd l’espace nécessaire pour être comprise positivement. Elle est d’abord renvoyée à une erreur systématique, à un biais d’échantillon ou à un tiroir provisoire intitulé « pas encore assez significatif ».
Cela ne veut pas dire qu’il ne faut pas examiner les erreurs ; cela veut dire que l’ancienne cosmologie laisse très peu de place à une mémoire directionnelle à grande échelle. Dans la langue d’EFT, au contraire, l’État de la mer ne possède pas seulement une valeur moyenne ; il peut aussi avoir une orientation. Il ne possède pas seulement des niveaux de Tension ; il peut aussi présenter une organisation à grande échelle et des textures résiduelles. Si nous admettons que nous relisons le passé depuis l’intérieur de l’univers, le « groupe directionnel » ne doit pas être traité d’emblée comme un interdit. Il doit plutôt servir d’avertissement : l’univers n’a peut-être pas été moyenné jusqu’à perdre toute mémoire de direction, contrairement à ce que nous imaginions.
Un exemple très simple peut rendre ce point plus clair. Si vous vous tenez à la surface d’une rivière et que vous y lâchez une rangée de flotteurs, le fait qu’ils finissent par s’aligner par groupes ne signifie pas forcément qu’ils se concertent entre eux ; il peut simplement indiquer que le courant lui-même possède une trame principale et une organisation latérale. Si l’observateur oublie qu’il est lui aussi dans l’eau, il prendra ces alignements pour un « non-respect des règles » de la part des flotteurs. S’il commence par reconnaître qu’il se trouve dans l’eau, l’alignement devient beaucoup plus naturel. Les anomalies directionnelles apparaissent peut-être par groupes non pas parce que l’univers provoque les statistiques, mais parce que nous avons pris notre référentiel local pour un arrière-plan absolument neutre.
IV. Troisième groupe : les extrêmes précoces — le problème n’est pas forcément un manque de temps, mais des conditions de fonctionnement écrites trop platement
La troisième famille de phénomènes frappe souvent le plus directement l’intuition : pourquoi l’univers précoce contenait-il déjà des trous noirs si massifs, des quasars si lumineux, un rayonnement de haute énergie si intense ? Dit le plus simplement possible, ces objets semblent toujours « arriver trop tôt, croître trop vite et briller de manière trop ordonnée ». Dans l’ancien récit, le diagnostic le plus courant est le suivant : selon la chronologie standard, ils ne devraient pas être aussi mûrs ; il faut donc chercher un scénario de croissance plus violent, des graines plus extrêmes ou un mécanisme précoce plus particulier.
La force du cadre dominant, ici, est de savoir tenir les comptes du temps. Lorsque les conditions de fonctionnement sont à peu près stables, beaucoup de processus de croissance peuvent être rangés sur une chronologie propre, à partir de laquelle on estime si la durée disponible suffit ou non. Mais c’est aussi là que commence sa difficulté : il lui arrive de traiter la chronologie comme la variable principale unique et de reléguer les différences de conditions de fonctionnement au rang de simples ornements. Dès qu’un objet précoce paraît trop vite mature, l’explication glisse alors vers des graines encore plus anciennes, une accrétion encore plus rapide ou des conditions initiales encore plus spéciales.
EFT préfère changer la question : l’univers précoce était-il plus tendu, plus dense, plus favorable à la formation de canaux d’alimentation puissants et d’environnements de chute rapide ? Si la réponse est oui, alors le « trop tôt » n’est plus seulement une affaire de durée écoulée ; c’est d’abord une affaire de conditions de fonctionnement suffisamment favorables. L’ancienne lecture voit un manque de temps ; EFT voit une alimentation trop forte, des canaux trop directs et une croissance trop rapide. Il ne s’agit pas d’effacer le temps, mais de réinscrire dans le livre de comptes les conditions de fonctionnement qui avaient été aplaties.
On peut emprunter une analogie quotidienne. Pendant la saison des pluies, un ravin peut devenir une rivière en une nuit, non pas parce que plusieurs années de temps se sont soudain ajoutées en quelques heures, mais parce que la pluie, la pente, la saturation des sols et les chemins de ruissellement ont changé en même temps. Les objets extrêmes de l’univers très précoce ressemblent davantage à cela : l’univers n’a pas « fini son devoir en avance » ; les États de la mer de l’époque permettaient simplement une formation en paquets, une alimentation et une canalisation beaucoup plus efficaces.
On peut aussi comprendre ce point à travers une fenêtre déjà introduite plus haut : les GUP (Particules instables généralisées). Les GUP désignent l’ensemble des structures de courte durée qui « ont presque réussi à se stabiliser ». Si, dans les États de la mer très précoces, leur densité est assez élevée, et si leur durée de vie est courte mais leur nombre immense, elles peuvent fournir statistiquement un fond gravitationnel moyen important et aider certaines régions locales à entrer plus vite dans la chute et la convergence. Le lecteur voit alors que l’on n’a pas nécessairement besoin d’une grande quantité de particules stables déjà formées pour faire naître de très anciens puits profonds. L’État de la mer est l’expression la plus générale ; les GUP offrent un échantillon de conditions de fonctionnement particulièrement parlant.
V. Quatrième groupe : le bilan chimique précoce — pourquoi de petits nombres peuvent-ils fissurer un grand tableau ?
Les groupes précédents accrochent plus facilement l’intuition du lecteur. Le bilan chimique précoce, lui, peut sembler le moins spectaculaire : pourquoi le lithium 7 refuse-t-il de tomber juste ? Pourquoi l’antimatière est-elle presque invisible ? Pourquoi certaines proportions d’éléments légers frottent-elles toujours contre le bord de la fenêtre ? Pourtant, plus ces écarts ont l’air de petits nombres récalcitrants, plus ils risquent de révéler un problème profond de lecture. Les grandes structures peuvent tolérer des récits flous ; les petits résidus, eux, acceptent rarement de porter le poids d’une prémisse erronée.
La force du cadre dominant, là encore, ne doit pas être ignorée. Il parvient réellement à insérer de nombreux processus chimiques précoces dans une histoire thermique et réactionnelle unifiée, et de nombreuses tendances globales sont effectivement expliquées. Mais sa difficulté tient à l’extrême sensibilité des quantités situées au bord des fenêtres : moment de gel, décongélation hors équilibre, biais locaux et différences de seuil peuvent les modifier fortement. Si tout cela est trop vite comprimé dans une table thermique globale trop lisse, les restes deviennent particulièrement gênants. L’explication se retrouve alors souvent ballottée entre réparation locale et hypothèses ajoutées.
EFT préfère regarder la chimie précoce comme une « comptabilité de fenêtres » plutôt que comme une table d’équilibre thermique écrite une fois pour toutes. Ce qui se verrouille, ce qui fuit au bord de la fenêtre, ce qu’un léger biais amplifie, dépend souvent de l’État de la mer, des seuils et de l’ordre des relais. Une fois ce cadre adopté, un problème de résidu comme le lithium 7 n’est plus un petit nombre isolé ; il devient une question adressée à toute la procédure de gel : avons-nous vraiment écrit correctement la fenêtre ?
Si cela reste abstrait, imaginons l’arrière-cuisine d’un restaurant juste avant la fermeture. Les quelques ingrédients laissés sur le plan de travail ne représentent pas l’approvisionnement total du marché pendant la journée ; ils sont le reste produit ensemble par l’après-coup du service, la température de cuisson, l’ordre des plats, les préférences des clients et le rythme de fermeture. Les problèmes de résidus dans l’univers précoce sont analogues. Ces petits restes « inattendus » ne disent pas nécessairement que la quantité totale de l’univers est fausse ; bien souvent, ils rappellent seulement que la fenêtre de fermeture, le rythme de service et le seuil de verrouillage ont été écrits de manière trop grossière.
VI. Pourquoi l’ancien cadre produit-il sans cesse des correctifs ?
À ce stade, nous pouvons regarder plus équitablement les correctifs apparemment toujours plus nombreux de la cosmologie dominante. Un correctif n’a rien de honteux en soi. Toute théorie mûre, lorsqu’elle rencontre une nouvelle fenêtre, commence par proposer un scénario phénoménologique ; un correctif localement utile peut souvent stabiliser une portion d’observation. Le problème n’est pas l’existence de correctifs. Il apparaît lorsque le groupe du négatif, le groupe directionnel, le groupe des extrêmes précoces et le groupe du bilan chimique se présentent ensemble : si chaque groupe doit convoquer son propre nouveau scénario, sans jamais être repris par une redistribution des comptes plus en amont, alors ce qui bloque vraiment la théorie n’est pas qu’une question particulière soit provisoirement difficile à calculer, mais qu’un même décalage amont ait été découpé en quatre chantiers de réparation sans autorité commune.
La théorie peut alors sembler de plus en plus riche en surface, alors qu’elle maintient peut-être une carte cosmique trop externalisée et trop lisse grâce à une multiplication de raccommodages locaux. Les régions lointaines sont-elles trop cohérentes ? On ajoute un scénario de lissage plus précoce. La directionnalité se montre-t-elle indocile ? On la renvoie d’abord à l’erreur systématique ou à la marge statistique. Les objets extrêmes arrivent-ils trop tôt ? On cherche des graines encore plus extrêmes et des canaux de croissance encore plus rapides. Le bilan chimique résiduel reste-t-il récalcitrant ? On affine encore les fenêtres locales. Le véritable nœud est que ces correctifs ne partagent pas la même carte de fond : chacun peut sauver son théâtre, mais il devient de plus en plus difficile d’expliquer pourquoi les mêmes fenêtres se fissurent ensemble. Chaque coupe a sa motivation empirique ; mais si l’amont commun n’est jamais examiné, ces gestes finissent par ressembler à des réactions de stress.
Une analogie encore plus quotidienne consiste à mesurer la température de tous les habitants d’un immeuble avec un thermomètre mal gradué. On peut bien sûr écrire un dossier particulier pour chaque pièce : celle-ci est près de la fenêtre, donc un peu plus chaude ; celle-là est ventilée, donc plus froide ; cette personne vient de faire de l’exercice ; cette autre vient de boire de l’eau. Mais si les lectures de tout l’immeuble paraissent étranges dans différentes directions, ce qu’il faut vérifier d’abord n’est pas forcément que chaque habitant souffre par hasard d’un trouble différent ; c’est souvent la graduation du thermomètre. Ce que fait EFT dans ce volume, c’est justement ramener au centre de la théorie ce geste préalable : réétalonner les règles de mesure, les horloges et la façon de lire.
L’avantage d’EFT ne tient donc pas, en général, à ce qu’elle fournirait à chaque fenêtre une histoire nouvelle et plus spectaculaire. Il tient au fait qu’elle répartit plus tôt les écarts : qu’est-ce qui appartient à l’objet lui-même ? Qu’est-ce qui relève de la Différence de ligne de base entre époques ? Qu’est-ce qui relève du filtrage par le trajet ? Qu’est-ce qui relève du seuil de réception ? Qu’est-ce qui relève de la participation des Règles de mesure, des horloges et des conventions d’aujourd’hui à la production du relevé ? Si cette étape est bien menée, beaucoup de problèmes cosmologiques apparemment sans lien reviennent d’eux-mêmes sur une carte de fond plus unifiée et moins dépendante des correctifs.
VII. Non pas une « carte des problèmes », mais l’axe directeur de tout le volume
En définitive, le jugement le plus important n’est pas : « les problèmes cosmologiques sont nombreux », mais : « les problèmes cosmologiques apparaissent par groupes parce que l’ancienne lecture a trop aplati une même Chaîne de relevés de sortie ». Une fois cette phrase tenue, chaque section suivante cesse d’être un simple dossier spécialisé ; elle devient une fenêtre continue dans le même audit du pouvoir d’explication. Les sections 6.3 à 6.6 ne sont pas quatre sujets juxtaposés, mais le déploiement d’un même index dans quatre fenêtres : d’abord le négatif, puis la direction, puis les vainqueurs extrêmes précoces, puis le reste chimique. Les sections 6.7 à 6.12, puis tout ce qui commence en 6.13, prolongeront le même décalage vers l’illusion de matière noire, la formation des structures et l’axe du Décalage vers le rouge.
Ainsi, le véritable défi du volume 6 ne vise jamais un correctif isolé. Il vise l’ancienne cosmologie qui prend trop facilement la mesure participative pour une mesure divine, et l’univers dynamique pour un arrière-plan statique. Le rôle de la section 6.2 est donc de déplacer le centre de gravité du volume : quitter l’« anomalologie » pour revenir au conflit de lecture. Les fenêtres qui suivront auront chacune leurs phénomènes, leurs détails et leurs mécanismes spécialisés, mais elles servent toutes un seul axe : lorsque la position de l’observateur est fausse, les problèmes de l’univers apparaissent par groupes ; lorsqu’elle est corrigée, beaucoup de fissures cessent d’être des énigmes sans rapport et redeviennent les textures continues d’une même carte de fond.