I. Séparer d’abord l’Autorité instrumentale du paradigme particulaire de la matière noire de son autorité ontologique
Ce qui doit réellement descendre du trône, ce n’est pas la puissance d’ingénierie dont le paradigme particulaire de la matière noire a fait preuve pour organiser la dynamique, les lentilles gravitationnelles, la formation des structures, les simulations de relevés et les tableaux multi-fenêtres. Ce qui doit revenir sur le banc d’audit, c’est l’Autorité explicative dictatoriale que cette grammaire d’objectivation a acquise lorsqu’elle a été automatiquement élevée au rang d’énoncé ontologique : « il doit exister, avant toute chose, un réservoir de particules invisibles, longtemps stables et presque transparentes ». L’EFT reconnaît que ce paradigme a été extrêmement utile sur la durée ; elle reconnaît aussi qu’il a permis, pour la première fois, d’inscrire de nombreux relevés dispersés dans une même carte. Ce qu’elle refuse, c’est que cette force d’organisation lui permette de monopoliser encore la première parole sur la question : d’où vient réellement le surplus de traction ?
Mais dire simplement que « la matière noire n’est pas nécessairement faite de particules » ne suffit pas. L’étape plus exigeante est la suivante : dans l’EFT, le surplus de traction, le surplus de lentille gravitationnelle et l’échafaudage supplémentaire de la formation des structures peuvent être comprimés ensemble en une carte d’apparence du Socle sombre à gros grains, produite par la naissance et la disparition rapides des GUP, le resserrement statistique de STG, le rehaussement du socle par le comblement de TBN et la mémoire historique de l’environnement. Dans beaucoup de fenêtres à variables lentes, cette carte peut ressembler à un « halo de matière noire froide » ; mais elle est d’abord un champ de tension effectif engendré par l’évolution, non un stock de particules stables disposé d’avance dans l’univers.
II. Après le retrait de la géométrie, la royauté du stock d’objets doit elle aussi rester sous audit
Si, dès que nous rencontrons un surplus de traction, un surplus d’image ou un surplus de croissance structurelle, nous ajoutons encore instinctivement un réservoir de particules stables invisibles, l’ancienne ontologie rentre simplement par une autre porte. Car si la « géométrie qui parle en premier » est démontée alors que le « stock caché qui parle en premier » demeure sur son trône, l’Autorité explicative n’a pas vraiment été transférée : elle a seulement changé d’enveloppe, désormais plus proche d’une liste d’objets.
Ce qu’il faut démonter ici, c’est la syntaxe par défaut selon laquelle tout relevé supplémentaire doit d’abord être objectivé en particules supplémentaires. Une fois cette étape accomplie, le règlement de comptes que le volume 9 mène depuis la cosmologie et la gravité vers le microscopique et la statistique peut enfin se fermer ; sinon, les trônes défaits dans les sections précédentes se réinstalleraient très vite sous une carte d’identité plus facile à imaginer : la « particule de matière noire ».
III. Pourquoi le courant dominant a longtemps écrit la « particule de matière noire » comme réponse par défaut
Pour être équitable, si le courant dominant a longtemps favorisé le paradigme particulaire de la matière noire, ce n’est pas par fascination pour des objets mystérieux. C’est parce que ce langage sait très bien solder les comptes. Il suffit d’admettre qu’au-delà de la matière visible existe durablement une composante presque non lumineuse, mais contribuant continûment à la gravité, pour que le surplus de traction dans la dynamique, le surplus de projection dans les lentilles et l’échafaudage supplémentaire de la formation des structures puissent être rangés dans une même carte de stock. Pour les spécialistes des simulations, cela fournit une entrée unifiée ; pour les observateurs, une intuition unifiée ; pour les lecteurs, une image unifiée.
Plus important encore, cette syntaxe d’objectivation entre naturellement en résonance avec une habitude ancienne : dresser l’inventaire du cosmos depuis un point de vue de Dieu. Nous sommes trop habitués à comprendre l’univers comme un entrepôt dont les rayonnages seraient déjà en place : là où le relevé paraît trop grand, nous supposons d’abord qu’il y a davantage de choses. Si le paradigme particulaire de la matière noire est si commode, ce n’est pas parce qu’il aurait clarifié chaque couche ontologique ; c’est parce qu’il écrit avec une efficacité redoutable, avec ordre et avec une grande facilité d’intégration aux chaînes de calcul, l’étape « effet supplémentaire = stock supplémentaire ».
IV. Où ce paradigme est réellement fort : il comprime trois portes dures dans un même réservoir
Le volume 6, section 6.7, a déjà placé sur la table la version la plus forte du paradigme de la matière noire : il doit tenir simultanément trois portes dures, différentes les unes des autres, mais obligées de se fermer ensemble.
- La première porte est celle de la dynamique : courbes de rotation, dispersions de vitesses, mouvements des membres d’amas et relevés de traction à différents rayons.
- La deuxième porte est celle des lentilles gravitationnelles : positions des pics, cisaillements, rapports de flux, retards temporels et statistiques de lentille faible.
- La troisième porte est celle de la formation des structures : pourquoi la Toile cosmique, les murs, les filaments, les disques et les amas peuvent croître, dans une histoire finie, selon une forme de relais couche après couche.
C’est précisément pour cela qu’il ne faut pas le tourner grossièrement en dérision. La vraie force du paradigme particulaire de la matière noire n’a jamais été la longueur d’un catalogue de candidats, mais sa capacité à lier ces trois portes en une même grammaire d’ingénierie : un réservoir supplémentaire qui complète le compte de la dynamique, alourdit l’imagerie et soutient la croissance. Ce que le volume 9 réexamine aujourd’hui n’est pas l’existence de cette force d’unification, mais le droit de la prolonger automatiquement en privilège ontologique : « l’univers réel a déjà été identifié par ce réservoir ».
Au niveau de l’ingénierie, ce que le courant dominant tient réellement en main n’est pas seulement l’image d’« un réservoir de quelque chose », mais tout un ensemble de variables d’état directement intégrables aux chaînes numériques et aux algorithmes d’inversion des lentilles : densité de stock supplémentaire, fonction de distribution des vitesses, profils de halo, arbres de fusion, scripts de perturbations initiales et menus de sous-structures multi-échelles. Une fois l’interface devenue mature, elle occupe naturellement l’entrée par défaut. Si l’EFT veut reprendre l’Autorité explicative, elle ne peut pas se contenter de slogans ; elle doit également montrer son interface minimale.
V. Distinguer d’abord, dans le « succès de la matière noire », trois couches : interface, hypothèse et royauté
Pour le dire équitablement, il faut d’abord décomposer l’expression « succès de la matière noire ».
- Première couche : elle peut n’être qu’une interface de calcul par défaut, une grammaire commune qui facilite l’ajustement des résidus, les simulations numériques, la publication de tableaux de paramètres et l’organisation du travail entre équipes.
- Deuxième couche : elle peut être une hypothèse d’objet, c’est-à-dire un modèle de travail qui comprime provisoirement les relevés supplémentaires en une forme de composant invisible, afin de faciliter l’inversion, la comparaison et la conception expérimentale.
- Troisième couche seulement : elle devient, après une ontologisation supplémentaire, l’énoncé selon lequel le surplus de traction et le surplus de lentille existent d’abord et uniquement parce que l’univers contient déjà, par nature, un réservoir de particules invisibles longtemps stables.
L’EFT ne cherche pas ici à supprimer d’urgence la première couche ; elle ne se presse même pas de balayer entièrement la deuxième. Ce qu’elle veut réellement annuler, c’est la promotion automatique de la deuxième vers la troisième. Qu’un modèle organise très bien les résidus et produise de très bonnes simulations directes montre d’abord qu’il est un outil puissant. Mais un outil puissant n’est pas une ontologie verrouillée. Ce que le volume 9 démonte aujourd’hui, c’est précisément ce glissement par lequel une réussite d’ingénierie se transforme en constitution cosmique.
Ce point doit être formulé plus durement : ce qui doit céder la place, c’est le saut « succès d’interface = ontologie verrouillée », non l’interface elle-même. Le courant dominant peut continuer à conserver les halos sombres, les postérieurs, les recherches de candidats et même certains gabarits efficaces de distribution de masse. Ce qu’il ne peut plus conserver, c’est le privilège de traiter directement ces gabarits comme la preuve que le réservoir réel de l’univers est déjà établi.
VI. La première réécriture déjà accomplie au volume 6 : lire d’abord le surplus de traction comme Carte de base évolutive
Les sections 6.7 à 6.12 du volume 6 ont déjà accompli la première réécriture de cette ancienne syntaxe : le surplus de traction n’a plus besoin d’être lu d’abord comme un réservoir supplémentaire de matière ; il peut être lu d’abord comme une carte de l’État de la mer qui évolue, se comble et se remodèle au fil des événements. Les baryons visibles restent les premiers scripteurs, parce qu’ils produisent directement, dans beaucoup de systèmes, la pente de base de la région interne. Mais au-delà du visible, l’histoire de formation, l’histoire d’activité, la traction moyenne exercée par des populations de structures de courte durée, le comblement après déconstruction et la tomographie environnementale peuvent, eux aussi, modifier ensemble le relief macroscopique de la tension.
Le poids de cette étape ne tient pas à ce qu’elle proclame d’abord « la matière noire n’existe pas », mais au fait qu’elle remet la question dans le bon ordre : ce que nous lisons pointe-t-il d’abord vers un stock d’objets, ou révèle-t-il d’abord une carte de réponse modelée par une longue histoire ? Dès que cet ordre change, le paradigme particulaire de la matière noire n’occupe plus naturellement la priorité de sortie d’usine. Il peut encore exister comme interface de compression des relevés ; il n’a plus le droit de réquisitionner tous les relevés supplémentaires comme sa propre carte d’identité ontologique.
Autrement dit, le volume 6 ne propose pas une opposition émotionnelle, mais une méthode de réordonnancement des priorités : demander d’abord comment la Carte de base de l’état de mer a été façonnée par l’histoire de formation, l’histoire des événements et la moyenne de populations de structures de courte durée ; demander ensuite s’il reste nécessaire de comprimer le résidu dans un stock d’objets supplémentaires. Une fois cet ordre établi, le langage particulaire de la matière noire descend du rang de « réponse par défaut à la sortie d’usine » à celui de gabarit de compression à comparer.
VII. De GUP à l’apparence de « matière noire froide » : la chaîne minimale d’interface
Si l’EFT se contentait ici de dire que « la mer se comble » et que « le monde de courte durée produit une traction moyenne », elle n’aurait pas encore vraiment traité le problème de l’interface. Car si le paradigme dominant de la matière noire a longtemps occupé une position si forte, ce n’est pas seulement parce qu’il raconte une histoire, mais parce qu’il possède des variables capables d’entrer dans les simulations, les inversions et les tableaux de comparaison. Le volume 9 n’a pas pour tâche de compléter d’un seul coup tout le système d’équations aux dérivées partielles ; mais il doit au moins fixer l’interface de champ de tension à gros grains à un niveau opératoire.
Au niveau minimal de l’interface, l’apparence de Socle sombre de l’EFT peut être comprimée en trois blocs de variables : G(x,t) représente le taux de génération des GUP / structures de courte durée par unité de volume ; Tau(x,t) représente leur durée moyenne de séjour, ou le temps moyen d’une tentative proche du Verrouillage ; R(x,t) représente le taux de retour effectif vers le socle après déconstruction. Si S(x,t) désigne en outre l’intensité moyenne de l’empreinte de tension laissée par un événement, la surface de pente statistique locale peut s’écrire grossièrement STG(x,t) ~ Smooth[ G * Tau * S ], et le relèvement du socle de fond peut s’écrire TBN(x,t) ~ WideSmooth[ G * R ].
Ainsi, dans la couche de variables lentes que l’observateur utilise réellement pour dresser les tableaux de comparaison, l’apparence supplémentaire de « Socle sombre » n’est plus d’abord un stock d’objets. Elle peut s’écrire D_eff(x,t) = a * STG(x,t) + b * TBN(x,t) + c * Henv(x,t). Ici, Henv désigne le terme de mémoire laissé par la tomographie environnementale et par l’histoire de formation ; a, b et c sont les coefficients d’interface qui traduisent le champ de tension, le socle comblé et la phase historique vers les fenêtres de la dynamique, des lentilles et de la croissance structurelle. Le volume 9 ne prétend pas ici avoir déjà calculé tous ces coefficients ; il doit au moins clarifier la relation entre les variables : l’EFT n’est pas « sans interface », mais son interface ne parle plus d’abord le langage du stock d’objets.
Traduit dans les fenêtres du courant dominant, D_eff se manifeste, en dynamique, comme un terme source additionnel à faible pression effective, lentement variable et largement lissé ; en lentille gravitationnelle, comme une convergence supplémentaire et un plancher de cisaillement externe ; dans la formation des structures, comme un socle de croissance relevé plus tôt et comme un échafaudage qui facilite la formation d’un réseau par relais. Dès lors, le « socle non particulaire » n’est plus seulement une explication mécaniste qualitative : il possède un pont à gros grains minimal, comparable aux interfaces dominantes.
VIII. Pourquoi cette apparence ressemble à un « halo de matière noire froide » sans impliquer qu’il existe vraiment un réservoir de particules froides
Cette écriture est importante parce qu’elle explique pourquoi un « socle non particulaire » peut, à l’échelle macroscopique, ressembler fortement à un halo de matière noire froide. Dès que le rythme de naissance et de disparition des GUP microscopiques est beaucoup plus rapide que le temps d’intégration de l’observation, et dès que l’échelle de lissage des empreintes locales de tension dépasse la longueur de corrélation fragmentaire d’une structure de courte durée isolée, l’observateur ne voit plus le film bruité des apparitions et disparitions. Il voit une couche de source supplémentaire, presque non lumineuse, à basse pression, lente, largement distribuée. Elle paraît « froide » non parce que l’univers contiendrait réellement, au départ, des particules froides et de longue vie, mais parce que le grossissement statistique a moyenné les variables rapides et ne laisse parler, dans la dynamique et les lentilles, que les variables lentes.
En même temps, STG élève préférentiellement la surface de pente locale dans les régions où l’activité de formation a été durablement plus dense, où les tentatives proches du seuil critique sont plus fréquentes et où les routes de texture s’empilent plus facilement. TBN, lui, étale le coût de ces essais sans cesse ratés et déconstruits sous la forme d’un socle de fond plus large bande et moins cohérent. Superposés, les deux produisent naturellement une apparence de halo : centre plus serré, périphérie plus douce, capacité à alourdir la lentille et à servir d’échafaudage à la formation des structures. Autrement dit, ce que l’EFT cherche à expliquer n’est pas « pourquoi un réservoir d’objets se trouvait d’abord là », mais « pourquoi cette portion de mer, après une longue évolution, a acquis un relief lent qui ressemble à un stock supplémentaire ».
C’est aussi le point précis où l’EFT et le paradigme particulaire doivent être soumis à une comparaison dure. Dans les systèmes calmes et quasi stationnaires, les deux peuvent donner des apparences très proches ; les gabarits dominants peuvent donc évidemment continuer à ajuster les données. Mais dans les fusions, les fortes rétroactions, les transitions environnementales et les systèmes dont l’histoire de formation est manifestement différente, l’EFT prévoit que D_eff portera mémoire, retard de comblement et stratification environnementale, au lieu de toujours se comporter comme un stock conservé qui ne ferait que changer de nom.
IX. Pourquoi STG / TBN / GUP ne remplacent pas simplement les particules par de nouveaux noms
Beaucoup de lecteurs demanderont spontanément si STG, TBN et GUP ne font que remplacer la « particule de matière noire » par trois nouveaux sigles. Les réponses données par la section 1.16 du volume 1 et par le deuxième thème du volume 6 disent exactement le contraire. STG met l’accent sur la surface de pente statistique : l’effet moyen de resserrement exercé sur l’état de mer environnant par un grand nombre de structures de courte durée pendant leur temps de séjour. TBN met l’accent sur le socle de fond : au moment de leur déconstruction, ces structures restituent à la mer, de manière plus large bande et moins cohérente, le budget qu’elles avaient auparavant organisé. GUP désigne l’entrée unifiée vers le monde de courte durée : une famille de structures qui frôlent le Verrouillage, se forment brièvement, puis se retirent rapidement.
C’est précisément pour cette raison que l’EFT ne réécrit pas seulement l’intuition superficielle selon laquelle « il existe encore quelque chose d’invisible dans l’univers ». Elle réécrit la syntaxe plus profonde selon laquelle « ce qui est invisible doit nécessairement exister d’abord comme un objet stable de longue durée ». STG n’est pas un supplément de petites billes, mais une surface de pente statistique. TBN n’est pas une énergie anonyme de plus, mais un socle comblé. GUP n’est pas un nouveau catalogue de particules stables, mais la source matérielle d’un monde de courte durée qui essaie, échoue et se reverse sans cesse. Une fois ces trois couches remises en place, le surplus de traction et le surplus de lentille n’ont plus besoin d’être traduits d’abord par « il y a là un réservoir de masse sombre ».
Bien entendu, l’EFT ne doit pas non plus écrire STG, TBN et GUP comme un nouveau passe-partout magique. S’ils obtiennent ici une priorité, ce n’est pas parce que leurs noms sont nouveaux, mais parce qu’ils permettent aux volumes 6 et 8 de ramener la dynamique, les lentilles, les fusions, les accompagnements radiatifs et la formation des structures vers une même Carte de base auditable. Si, à l’avenir, cette fermeture sur une Carte de base commune ne tient pas, STG, TBN et GUP ne devront pas non plus bénéficier d’une exemption supplémentaire.
X. Jusqu’à quelle couche le langage particulaire dominant peut être conservé : ajustement, inversion et interfaces de recherche
Cela ne signifie pas que le langage particulaire dominant serait, dès aujourd’hui, entièrement invalide. Au contraire : dans les couches de l’ajustement, de l’inversion, de la simulation et de la coopération de projet, il reste très utile. On peut parfaitement continuer à employer le vocabulaire des halos sombres, des fonctions de masse, des gabarits de profil, des scripts d’histoire thermique et des postérieurs de paramètres pour organiser les données, faire tourner les chaînes de traitement et produire des prédictions, parce que ces outils sont extrêmement mûrs en ingénierie et qu’ils offrent une interface de grande efficacité pour la communication entre équipes.
Ce que l’EFT demande réellement, c’est de changer le statut de ces mots : ils doivent devenir une couche de traduction, non une couche de royauté. Autrement dit, il reste possible d’utiliser les « gabarits de particules de matière noire » comme paramètres de réserve pour les résidus, comme variables pratiques dans les simulations numériques ou comme grammaire d’interface pour les recherches expérimentales. Mais lorsque la question s’élève vers l’ontologie — pourquoi le surplus de traction existe-t-il, pourquoi se couple-t-il ainsi à l’environnement et à l’histoire des événements, pourquoi peut-il se fermer simultanément dans plusieurs fenêtres ? — le langage particulaire ne doit plus déclarer automatiquement qu’il a déjà fourni la réponse.
Les programmes de recherche dominants n’ont donc pas besoin de fermer leurs portes par avance. La recherche de candidats peut continuer ; la paramétrisation peut continuer ; les interfaces de données peuvent continuer. Le privilège annulé est seulement l’ancien raccourci selon lequel, tant que l’interface est mature et que les candidats n’ont pas été entièrement épuisés, l’ontologie peut rester par défaut considérée comme déjà établie.
XI. Ce qu’il faut comparer, ce n’est pas « l’a-t-on trouvé ? », mais qui peut, une fois la carte gelée, prédire à travers les fenêtres
Beaucoup d’opposants au paradigme particulaire de la matière noire aiment s’accrocher à un slogan : on cherche depuis si longtemps et on n’a toujours rien trouvé. Mais cette phrase n’est pas l’argument le plus fort ici. La science ne rend jamais ses jugements sur la base de la déception ; le fait qu’un objet candidat n’ait pas encore été capturé affaiblit certes sa posture dictatoriale, mais ne suffit pas, à lui seul, à décider de sa vie ou de sa mort ontologique.
La pression plus lourde tient à ceci : qui peut, après avoir gelé la Carte de base, gelé les règles de projection et gelé un petit nombre de paramètres d’interface, fermer simultanément la dynamique, les lentilles, la formation des structures, la phase des événements et l’ordre environnemental, sans devoir ajouter, à chaque nouvelle fenêtre, un menu local supplémentaire que les autres ne reconnaissent pas ? Autrement dit, ce que l’on déclasse ici n’est pas tel succès ou tel échec de l’histoire des recherches, mais l’habitude explicative de long terme consistant à objectiver d’abord, puis à compléter la fermeture ensuite.
De même, si une future catégorie de candidats particulaires parvient réellement à tenir cette table de score gelée sans dépendre d’une succession de rustines, elle n’est pas définitivement expulsée de la table par le volume 9. Ce que l’EFT exige aujourd’hui n’est pas une victoire émotionnelle, mais un principe : l’Autorité explicative doit suivre la capacité de fermeture à travers les fenêtres.
XII. Refaire les comptes selon les Six règles de mesure de 9.1
Recalculé selon les Six règles de mesure de 9.1, le paradigme particulaire de la matière noire obtient encore un score très élevé en couverture, en force d’organisation, en maturité d’ingénierie et en capacité à fournir un langage commun. Il sait faire entrer rapidement la dynamique, les lentilles gravitationnelles, la formation des structures, les recherches expérimentales et les simulations numériques sur une même page. Ce mérite ne doit être effacé par personne. Pour les questions « comment calculer d’abord, comment raccorder les équipes à une même interface, comment comprimer d’abord une masse de résidus », il reste l’une des boîtes à outils par défaut les plus fortes de la cosmologie moderne.
Mais dès que l’on poursuit l’examen du côté de la fermeture en boucle, de la clarté des garde-fous, de l’honnêteté des frontières, de la capacité de transfert entre fenêtres et du coût explicatif, son avantage ne va plus de soi. Car ce paradigme a trop facilement tendance à externaliser dans la phrase « il existe encore davantage de stock invisible » des problèmes qui ne sont pas équivalents entre eux : dynamique, lentilles, formation des structures, chronologie des fusions. Si une fenêtre résiste, on ajoute un candidat subdivisé ; puis un spectre de sous-structures ; puis un terme environnemental ; puis un script d’histoire de formation. Le coût explicatif est alors discrètement transféré au catalogue d’objets lui-même.
L’EFT, ici encore, n’obtient aucun bonus gratuit. Si elle peut demander au paradigme particulaire de la matière noire de céder la place, c’est uniquement parce qu’elle accepte de réétaler les relevés supplémentaires sur une même Carte de base — STG, TBN, GUP, tomographie environnementale, phase des événements et genèse structurelle — et de se soumettre au verdict commun déjà formulé au volume 8. Autrement dit, si la Carte de base commune issue de 8.6 et des sections suivantes ne tient pas durablement, l’EFT ne doit pas continuer à attaquer ce trône en force.
XIII. La contrainte de comparaison unifiée fournie par 8.6
C’est pourquoi la section 8.6 pèse si lourd dans le volume 9. Elle ne donne pas la victoire à l’EFT par la simple phrase « la particule n’a pas été capturée ». Elle accomplit quelque chose de plus difficile et de plus équitable : exiger qu’une même Carte de base absorbe d’abord le compte dynamique dans les courbes de rotation et les deux relations serrées ; qu’elle supporte ensuite, une fois les règles de projection gelées, l’extrapolation vers les lentilles faibles et fortes ; puis qu’elle entre dans l’audit conjoint des fusions d’amas, des accompagnements radiatifs et de l’ordre environnemental. Ce n’est qu’à ces conditions — geler d’abord, prédire vers l’avant ensuite, et interdire le retour en arrière pour compléter la carte — que l’EFT peut dire avoir réellement envoyé une même Carte de base dans une comparaison dure.
C’est aussi pourquoi la « cession de place » dont il est question ici est, par nature, une passation de l’Autorité explicative, et non un verdict émotionnel. La section 8.6 ne fournit pas une cérémonie de couronnement, mais un seuil dur inscrit dans une table de score unifiée : si l’EFT tient la Carte de base commune dans cette table, la priorité ontologique du paradigme particulaire de la matière noire doit être réexaminée ; si elle ne la tient pas, ce jugement doit être retiré. La comparaison équitable n’est pas un ornement rhétorique, mais la condition même qui permet de décider si l’Autorité explicative peut être transférée.
XIV. Jugement central et conditions d’échec
Ce qui oblige le plus le paradigme particulaire de la matière noire à céder sa place, ce n’est pas le fait qu’il ait essayé, mais le fait qu’il ait longtemps occupé l’Autorité explicative sans livrer une fermeture ontologique complète.
La clef est là : cette exigence ne laisse aucune porte de sortie aux deux camps. Le courant dominant ne peut plus élever automatiquement une grammaire d’ingénierie d’objectivation extrêmement puissante au rang de catalogue ontologique de l’univers ; l’EFT, de son côté, ne peut pas déclarer à l’avance qu’elle possède la réponse finale au simple motif qu’elle démonte l’ancien trône. Une prise de relais prudente ne consiste pas à se moquer de la force passée de l’ancien système ; elle consiste à reconnaître pourquoi il a été nécessaire, tout en montrant pourquoi il ne doit plus être reconduit indéfiniment.
Les conditions d’échec doivent donc être formulées clairement. Si l’EFT ne parvient pas à comprimer GUP, STG, TBN et la mémoire environnementale en une Carte de base commune capable, une fois gelée, de prédire à travers les fenêtres ; si elle ne parvient pas, avec un nombre limité de paramètres d’interface, à tenir simultanément la dynamique, les lentilles, la formation des structures et l’ordre des événements, alors cette thèse doit être abaissée de ton et revenir au statut d’option discutable, non de repreneur de l’Autorité explicative. À l’inverse, si une future catégorie de candidats particulaires ferme ces fenêtres dans des conditions également gelées, également sobres en rustines et également transférables entre fenêtres, elle peut encore revenir au premier plan.
XV. Bilan
Cette section ramène le paradigme particulaire de la matière noire du statut d’« ontologie par défaut » à celui de langage de calcul et d’interface d’inversion encore fort, encore utile, mais ne monopolise plus l’Autorité explicative. Ce déplacement n’efface pas ses mérites historiques ; il les installe au contraire dans une position plus exacte. Il peut continuer à servir l’ajustement, la simulation, la conception expérimentale et les tableaux comparatifs entre équipes, mais il ne monopolise plus automatiquement la première parole sur l’origine du surplus de traction, du surplus de lentille et de la croissance structurelle supplémentaire.
Lorsque l’on juge la traction supplémentaire et le langage particulaire, il faut d’abord tenir trois portes. Pour tout relevé supplémentaire, demander s’il pointe vers un stock d’objets ou s’il révèle une Carte de base évolutive. Pour tout langage particulaire, demander s’il effectue une traduction d’ingénierie ou s’il fait passer en contrebande une ontologie. Pour tout ajustement multi-fenêtres très élégant, demander s’il tient réellement une Carte de base commune ou s’il se contente de mettre temporairement des résidus différents dans le même réservoir. Une fois ces trois couches distinguées, l’ancienne intuition selon laquelle « plus le nom est stable, plus l’ontologie est absolue » a beaucoup moins de chances de nous égarer à nouveau.
Ainsi, la syntaxe par défaut qui objectivait d’abord toute traction supplémentaire ne possède plus le statut de plafond automatique. Si elle veut rester en position haute, elle devra désormais parler au nom d’une même Carte de base commune. En d’autres termes, ce que cette section retire n’est pas le langage particulaire lui-même, mais son privilège d’être placé, par nature, avant toutes les autres explications.