I. Séparer d’abord l’autorité instrumentale de la souveraineté dans l’état quantique, la mesure et la thermo-statistique
Ce qui doit réellement revenir à sa place, ce ne sont pas les immenses réussites de la fonction d’onde, du postulat de mesure, de la mécanique statistique et de la thermodynamique dans le calcul, les dispositifs, les matériaux, l’information et les chaînes d’ingénierie. Ce qui doit quitter le trône, ce sont quatre présupposés plus profonds : la fonction d’onde serait d’emblée l’ontologie de l’objet ; l’effondrement serait d’emblée un miracle qu’il ne faudrait plus interroger ; l’aléatoire serait d’emblée le tempérament a priori de l’univers ; la croissance de l’entropie et l’équilibre ne pourraient, par nature, être maintenus que par des postulats abstraits.
Dans l’EFT, l’État quantique est d’abord le grand livre des canaux faisables et des états autorisés ; la mesure est d’abord une transaction locale accomplie après Insertion de sonde et réécriture de carte ; la probabilité est d’abord une fermeture statistique sur un plancher de bruit ; l’effondrement est d’abord une fermeture de canal et un verrouillage du relevé ; la thermo-statistique est d’abord la grammaire macroscopique du volume des canaux, des fuites d’information et du coût de réarrangement. Cette étape ne vise pas à supprimer les formules, mais à ramener le mythe ontologique placé derrière elles à des seuils, des frontières et du bruit que l’on peut auditer.
II. Après le recul de la symétrie, de la statistique, des quatre forces et du Higgs, les postulats quantiques et thermo-statistiques doivent eux aussi être audités
Tant que l’ontologie quantique, le postulat de mesure et les hypothèses thermo-statistiques restent installés dans une zone qu’il ne faudrait plus réexaminer, les trônes que les sections précédentes ont démontés reviennent par une autre porte. On peut très bien reconnaître que la symétrie et la statistique sont des conséquences, puis dire au moment décisif : « le véritable objet reste malgré tout un paquet de fonction d’onde ; le véritable changement doit malgré tout passer par un saut du postulat de mesure ; la véritable flèche macroscopique doit malgré tout être escortée par la loi abstraite de l’entropie ».
Ce qui doit être audité ici, c’est donc le dernier groupe de présupposés que l’on soupçonne le moins dans le monde microscopique : l’objet est-il vraiment un état abstrait ? La mesure est-elle vraiment une loi spéciale ? L’aléatoire et la thermo-statistique doivent-ils vraiment être admis d’abord, puis seulement calculés ensuite ? Tant que ces emplacements restent des zones d’exception, les chaînes matérielles, les chaînes de seuils et les chaînes d’information déjà reconnectées sont reprises en main, au moment le plus crucial, par des postulats abstraits. Sans une retraduction de ces questions, les chaînes de seuils, d’insertion de sonde, de décohérence et de flèche du temps déjà livrées au volume 5 resteront à jamais au rang de « très belles explications des phénomènes », sans pouvoir prendre en charge l’Autorité explicative au niveau du paradigme. Sans cette étape, les chaînes mécanistiques accumulées dans les volumes précédents perdent de la vitesse exactement devant la porte la plus importante.
III. Pourquoi le courant dominant a longtemps privilégié « ontologie quantique, postulat de mesure et hypothèses thermo-statistiques »
Pour être équitable, si le courant dominant a longtemps privilégié cette écriture, ce n’est pas par goût du mystère, mais parce qu’elle sait extrêmement bien tenir les comptes. Comprimer les processus microscopiques en vecteurs d’état, opérateurs et amplitudes de probabilité ; comprimer la mesure en un ensemble clair de règles de projection et de relevé ; comprimer la thermo-statistique en fonctions de partition, ensembles, énergie libre, entropie et équations de transport : tout cela permet à une masse énorme d’expériences et de dispositifs de se brancher rapidement sur un même bus de calcul. Raies spectrales, diffusion, semi-conducteurs, supraconductivité, lasers, information quantique, chimie et matière condensée en ont tous bénéficié.
Plus important encore, cette écriture se prête très bien au travail collectif. Il n’est pas nécessaire, dans chaque expérience, de réexpliquer ce qu’est l’objet, ce que le dispositif a modifié ni comment l’information s’est échappée. Il suffit d’admettre un ensemble de postulats communs, et le calcul, l’ajustement, l’ingénierie et l’enseignement peuvent être réutilisés à grande échelle. Si l’on ne reconnaît pas d’abord cette force réelle, la clarification qui suit devient une caricature injuste d’une boîte à outils mature, ce qui contredirait précisément le fond de « respect et passation » du volume 9.
IV. Où cette écriture est réellement forte : elle transforme les difficultés en une grammaire unifiée et calculable
Sa première force réelle est sa capacité de compression. La fonction d’onde comprime les processus autorisés, les relations d’interférence et les distributions statistiques en quelques objets opératoires ; le postulat de mesure comprime la question « quand un résultat est-il laissé ? » en une interface unifiée ; la grammaire thermo-statistique comprime le comportement moyen d’un immense nombre de degrés de liberté en un grand livre macroscopique maintenable. Des problèmes micro-macro qui, sans cela, seraient extrêmement dispersés peuvent ainsi être transportés, raccordés et extrapolés dans un même dialecte mathématique.
Sa deuxième force est sa capacité de répartition. Le courant dominant confie l’évolution, le relevé et l’équilibre à des modules différents : l’évolution gère le continu, la mesure gère le discret, la thermo-statistique gère le macroscopique. Cette division du travail est extraordinairement efficace en ingénierie et en algorithmique ; elle explique aussi pourquoi elle a pu soutenir durablement la conception de dispositifs, le développement de matériaux et la coopération entre domaines. Ce qu’il faut démonter ici n’est donc pas la productivité de cette répartition, mais le pas par lequel une répartition efficace se trouve automatiquement promue en ontologie ultime.
V. Décomposer d’abord le « succès » en trois couches : formules, traduction et souveraineté
Pour traiter cette question équitablement, il faut commencer par décomposer l’énoncé « cette grammaire quantique et thermo-statistique réussit très bien » en trois couches.
- Première couche : des formules fortes, capables de calculs de haute précision, de branchement ingénierique et de langue commune.
- Deuxième couche : une traduction forte, capable de faire entrer le relevé discret, le maintien de la cohérence, les distributions statistiques, l’équilibre et le transport dans une même syntaxe.
- Troisième couche seulement : une prétention souveraine selon laquelle l’univers serait d’abord un monde gouverné par l’ontologie de la fonction d’onde, la loi de mesure et les postulats thermo-statistiques, les processus matériels n’étant que l’exécution de ces postulats.
L’EFT n’est pas pressée de supprimer les deux premières couches. Ce qu’elle veut réellement annuler, c’est la promotion automatique de la deuxième couche vers la troisième. Une formule très puissante montre d’abord qu’elle sait comprimer ; une traduction très stable montre d’abord qu’elle sait organiser. Mais « savoir calculer » et « savoir organiser » ne signifient pas que la cause première a déjà été trouvée. Ce qu’il faut démonter ici, c’est justement ce raccourci longtemps tenu pour acquis, mais rarement audité explicitement.
VI. Le premier pas déjà réécrit dans les volumes 3 et 5 : seuils, insertion de sonde, plancher de bruit et flèche du temps
En réalité, la section 3.16 du volume 3 a déjà réinscrit le rayonnement thermique dans les paquets d’ondes de bruit et les processus de remballage ; la section 5.2 du volume 5 a ramené l’apparence discrète du quantique aux Trois seuils ; la section 5.8 a réécrit l’État quantique comme « carte + seuil » ; la section 5.9 a réécrit la mesure comme Insertion de sonde et réécriture de carte ; les sections 5.12, 5.13 et 5.14 ont à leur tour ramené probabilité, effondrement et aléatoire au taux de transaction, à la fermeture de canal et à la Règle de l’origine commune ; les sections 5.16 et 5.17 ont traité la décohérence et l’effet Zeno / anti-Zeno comme usure environnementale et réécriture fréquente de la carte ; les sections 5.28 à 5.31 ont enfin retraduit la flèche du temps, la limite classique et la boîte à outils QFT dans un grand livre matériel.
En rassemblant ces réécritures dispersées, on voit qu’il ne s’agit pas d’inventer soudain deux slogans — « le quantique n’est pas une ontologie » et « la thermo-statistique n’est pas un commandement » — mais de récupérer le socle mécanistique déjà posé. Le discret vient des seuils ; le relevé vient de l’insertion de sonde ; l’aléatoire vient de l’amplification du bruit lors d’une fermeture locale ; la flèche macroscopique vient de l’effondrement des canaux après inscription de l’information. Les volumes précédents ont accompli une démystification au niveau des objets ; ce qu’il faut faire ici est de rassembler ces mécanismes au niveau d’un même jugement de paradigme.
Regardons donc trois blocs seulement : état quantique, mesure, thermo-statistique ; pour chacun, un exemple d’ancrage facile à retenir.
VII. Ce qu’est l’ontologie quantique dans l’EFT : un grand livre des canaux faisables, non une entité mystique flottante
Dans l’EFT, la façon la plus sûre d’écrire ce qu’on appelle l’ontologie quantique n’est pas : « l’univers commence par contenir une fonction d’onde abstraite qui évolue ». C’est plutôt : « étant donnés l’État de la mer, les frontières, la préparation à la source et le couplage à l’environnement, quels sont les états autorisés, quels sont les canaux faisables, et quels sont les poids relatifs et les rythmes de règlement de ces canaux ? » La fonction d’onde, le vecteur d’état et la matrice de densité peuvent bien sûr continuer à être utilisés, mais ils sont d’abord les notations comprimées de ce grand livre, non une entité supplémentaire flottant hors des processus matériels.
Cette définition n’affaiblit pas la puissance calculatoire du langage quantique dominant ; elle le place au contraire dans une position où il peut mieux rendre des comptes. Le courant dominant dit : « l’état est d’abord là, puis l’équation le fait évoluer ». L’EFT demande ensuite : « qui a écrit cette carte d’état ? » La réponse n’est plus qu’un objet porterait en lui un corps mystique ; elle est que l’État de la mer, la structure, l’histoire des frontières et la grammaire du dispositif ont écrit ensemble le relief des faisabilités. L’État quantique n’appartient donc plus à un « objet isolé » pris seul ; il appartient à tout le système de règlement formé par l’objet, l’État de la mer, la frontière et l’environnement.
【Exemple d’ancrage : état quantique】 L’image la plus facile à retenir n’est pas celle d’un corps mystique qui évoluerait de lui-même dans le vide, mais celle de la double fente, des modes de cavité ou des états liés comme cartes de canaux faisables : la manière dont la carte est dessinée dépend de la façon dont la source, les frontières et l’environnement écrivent ensemble les comptes.
VIII. Ce qu’est la mesure dans l’EFT : Insertion de sonde et réécriture de carte, clôture de transaction et verrouillage du relevé
La réécriture de la mesure suit la même logique. L’EFT ne décrit pas la mesure comme le moment où le monde obéit soudain à une autre loi ; elle la décrit comme un processus matériel très concret : insérer dans la Mer d’énergie un appareil, une sonde, un écran, une cavité, une frontière ou une structure de relevé, de sorte que le système doive accomplir une transaction locale sur un relief nouveau. Mesurer, ce n’est pas regarder de l’extérieur ; c’est insérer un dispositif et obliger le système à solder un compte.
Avec cette écriture, l’idée que « lire une voie, c’est modifier la voie » devient immédiatement naturelle. Dès qu’on tente d’identifier un trajet, une orientation, une phase ou une occupation, on modifie l’accessibilité des canaux et les Seuils de fermeture. Et dès qu’une fermeture laisse, du côté du dispositif, une trace amplifiable, mémorisable et revérifiable, les autres canaux qui n’ont pas conclu ne possèdent plus le même droit de réalité parallèle. Le « postulat de mesure » du courant dominant est ainsi retraduit, dans l’EFT, en deux étapes : d’abord l’Insertion de sonde et réécriture de carte, puis le verrouillage de la transaction. La zone du miracle est comprimée en seuils et en chaîne d’amplification.
【Exemple d’ancrage : mesure】 La double fente ou l’identification de la voie fournit le modèle le plus simple : dès qu’un dispositif est réellement inséré, les franges et les canaux accessibles changent ensemble. Cela ressemble davantage à une carte modifiée qui conclut une transaction qu’à un univers qui changerait provisoirement de loi.
IX. Ce que sont l’aléatoire, la probabilité et l’effondrement dans l’EFT : tirage unique, spectre statistique stable et fermeture de canal
La réécriture de l’aléatoire n’a pas non plus besoin d’appeler une métaphysique du destin. L’EFT ne dit pas que « l’univers aime naturellement lancer des dés » ; elle décrit l’aléatoire comme un problème de règlement local à proximité d’un Seuil de fermeture. Lorsque plusieurs canaux presque faisables approchent simultanément de la transaction, le résultat unique est poussé vers une voie par le plancher de bruit, les détails des microperturbations, la chaîne des seuils et le moment de l’amplification locale. Le tirage unique ressemble donc à une boîte surprise ; mais dès que l’état de préparation, la frontière et la fenêtre environnementale sont fixés, la statistique en grand échantillon converge de manière stable, car ce que l’on mesure n’est pas « l’humeur de l’univers », mais le taux de transaction sur un même relief.
L’effondrement n’a donc plus besoin d’être écrit comme un saut ontologique mystérieux. Il ressemble davantage à une fermeture de canal et à un verrouillage historique de nature ingénierique : une voie conclut d’abord la transaction au Seuil de fermeture ; l’inscription de la mémoire amplifie ensuite cette transaction dans le dispositif et l’environnement ; les autres canaux candidats perdent la qualification d’être recollés de manière réversible ; le seuil du processus inverse s’élève rapidement. L’apparence obtenue est alors celle d’un monde où « il ne reste qu’un seul résultat ». Les formules dominantes peuvent continuer à calculer, mais la question « pourquoi ne reste-t-il qu’un résultat ? » n’a plus besoin d’être couverte par un postulat qu’il serait interdit de réinterroger.
X. Ce qu’est la thermo-statistique dans l’EFT : plancher de bruit, volume des canaux et grand livre macroscopique des fuites d’information
La réécriture de la thermo-statistique reconnecte le monde macroscopique et le monde quantique à une même chaîne. L’EFT n’écrit pas d’abord la mécanique statistique et la thermodynamique comme « une autre loi souveraine de niveau supérieur ». Elle les écrit ainsi : un grand nombre de règlements locaux se répètent sur un plancher de bruit ; le système et l’environnement échangent, reconditionnent et répartissent sans cesse ; le volume des canaux faisables est continuellement réorganisé ; les phases fines et les étiquettes microscopiques fuient de manière persistante ; il ne reste finalement qu’un ensemble de grands livres macroscopiques grossièrement moyennés qui demeurent stables et lisibles.
Dans cette perspective, la température est d’abord un relevé composite de l’intensité du bruit de fond, du rythme auquel les seuils sont frappés et de la densité des canaux activables. L’entropie est d’abord le volume de réarrangement que le système peut occuper sous des contraintes données, ainsi que le degré d’« introuvabilité » atteint lorsque l’information fine s’est diffusée dans de nombreux degrés de liberté de l’environnement. L’équilibre thermique n’est plus une photographie statique que l’univers aimerait a priori ; il ressemble plutôt à un attracteur statistique qui apparaît lorsque les échanges sont assez fréquents, que les seuils concluent sans cesse des transactions et que les canaux étroits sont progressivement lissés.
Cette définition ne demande pas de jeter Boltzmann, Gibbs, les fonctions de partition, l’énergie libre, les équations de transport et les relations de fluctuation. Au contraire, l’EFT leur permet de continuer à exister comme langages macroscopiques de compression d’une très grande puissance. Mais ces langages ne possèdent plus la souveraineté du « pourquoi final qui n’aurait plus à être demandé ». La croissance de l’entropie, l’irréversibilité et la flèche thermique ne sont plus une autre jurisprudence mystérieuse, séparée de la mesure, de la décohérence et de l’inscription de l’information ; elles sont la manifestation macroscopique de la même chaîne mécanistique dans la limite d’un grand nombre de degrés de liberté.
【Exemple d’ancrage : thermo-statistique】 Pour comprendre pourquoi un système « se thermalise », l’image la plus facile à retenir n’est pas la phrase abstraite « l’univers préfère l’équilibre », mais le fait que les étiquettes fines fuient continuellement, que les canaux étroits sont sans cesse lissés et qu’il ne reste finalement qu’un grand livre macroscopique grossièrement moyenné, stable et lisible.
XI. Refaire les comptes selon les Six règles de mesure de 9.1
Recalculée selon les Six règles de mesure de 9.1, la grammaire dominante « ontologie quantique + postulat de mesure + hypothèses thermo-statistiques » obtient encore des scores très élevés en force d’organisation, en calculabilité, en capacité de transfert et en réutilisation ingénierique. Elle permet à de vastes fenêtres — spectres atomiques, semi-conducteurs, supraconductivité, lasers, physique statistique et information quantique — de partager un même bus commun. Aucun texte mûr ne devrait effacer ce mérite.
Mais dès que l’on poursuit l’examen sur le degré de bouclage, l’honnêteté des frontières, la capacité de transfert entre couches et le coût explicatif, ses limites apparaissent aussi. Elle tend trop facilement à renvoyer ensemble, vers « admettons d’abord les postulats, puis organisons le monde à partir d’eux », plusieurs questions de cause première : pourquoi l’état a-t-il cette forme ? Pourquoi le relevé doit-il se produire ainsi ? Pourquoi la probabilité apparaît-elle dans ce format ? Pourquoi l’irréversibilité et l’augmentation de l’entropie se vérifient-elles de façon aussi générale ? Dès que les chaînes les plus décisives sont toujours rattrapées par des postulats, le bouclage s’arrête avant la couche la plus profonde.
L’EFT ne reçoit ici encore aucun bonus gratuit. Elle n’a le droit d’exiger le recul de l’ancien trône qu’à condition de tenir simultanément deux exigences :
- ne pas détruire la capacité de correspondance des outils quantiques et thermo-statistiques dominants dans leurs fenêtres matures ;
- ramener réellement l’état, la mesure, l’aléatoire, la décohérence, la croissance de l’entropie et l’équilibre dans un même grand livre Mer d’énergie – structure – seuil – bruit – information.
Si elle n’y parvient pas, l’EFT ne peut pas réclamer l’Autorité explicative à l’avance au seul motif que son vocabulaire serait plus unifié.
XII. Les contraintes expérimentales fournies par 8.10 et 8.11
C’est aussi pourquoi la fin du volume 8 pèse aussi lourd. La section 8.10 réunit Casimir, Josephson, le vide en champ fort et les dispositifs à cavité et à frontière, non pour exhiber des expériences extrêmes, mais pour auditer une question plus dure : le vide, les frontières, les seuils et les modes sont-ils des objets capables de travailler ? Si ces fenêtres continuent à soutenir la lecture « frontière d’abord, seuil modifiant le spectre, matérialité du vide », alors le quantique et la thermo-statistique peuvent encore moins être écrits comme une science de postulats abstraits détachés des dispositifs et des frontières.
La section 8.11 réunit à son tour le tunneling, la décohérence, les corridors d’intrication et les garde-fous de non-communication, afin de demander si le relevé discret, l’usure de la cohérence, les corrélations à distance et la transaction locale peuvent réellement être contenus par une même grammaire des canaux. C’est précisément parce que le volume 8 a d’abord fait entrer ces questions dans une discipline expérimentale où l’on peut gagner ou perdre que la section 9.15 peut pousser l’enjeu jusqu’à cette couche : la fonction d’onde, le postulat de mesure et les hypothèses thermo-statistiques peuvent bien sûr continuer d’exister comme outils puissants, mais ils ne devraient plus se réfugier dans la zone sûre du « il faut y croire, on ne peut plus demander pourquoi ».
XIII. Pourquoi cette étape relie 3.16, 5.2, 5.8–5.17 et 5.28–5.31 en une seule carte
Dès que cette étape est correctement posée, la section 3.16 du volume 3 et les sections 5.2, 5.8–5.17, 5.28–5.31 du volume 5 s’assemblent soudain en une carte complète : 3.16 explique d’où viennent le rayonnement thermique et le plancher de bruit ; 5.2 explique pourquoi les apparences discrètes surgissent par lots ; 5.8 à 5.17 montrent comment l’état, la mesure, la probabilité, l’effondrement, l’aléatoire, le tunneling, la décohérence et les insertions de sonde fréquentes se raccordent en une même chaîne ; 5.28 à 5.31 expliquent comment la flèche du temps, la limite classique et la boîte à outils QFT reviennent à une même Carte de base matérielle.
Il ne s’agit pas ici d’inventer une chaîne de preuves supplémentaire, mais de rassembler des réécritures locales qui tiennent déjà chacune en place pour en faire un jugement au niveau du paradigme : l’État quantique n’est pas une ontologie a priori ; la mesure n’est pas une loi d’exception ; la statistique et la thermo-statistique ne sont pas non plus un royaume indépendant. Elles restent toutes importantes, mais elles doivent d’abord revenir dans la chaîne de travail des seuils, des frontières, du bruit et des fuites d’information.
XIV. Jugement central
Le quantique et la thermo-statistique sont parmi les domaines les plus faciles à mystifier. L’une des valeurs de l’EFT consiste justement à ramener autant que possible ces « postulats qu’il faudrait seulement croire » à des seuils, des frontières et du bruit auditables.
Le point décisif est là : aucun des deux côtés ne peut franchir les limites par facilité. Le courant dominant ne peut pas continuer à élever automatiquement une grammaire de calcul et de compression extrêmement forte au rang d’ontologie de l’univers ; l’EFT ne peut pas non plus, sous prétexte de démonter l’ancien trône, réduire tous les phénomènes quantiques et thermo-statistiques à des métaphores lâches. Une passation qualifiée ne consiste pas à effacer les anciens mots, mais à les remettre à leur juste place : ce qui sait calculer continue à calculer ; ce qui doit expliquer est réexpliqué.
XV. Résumé
Cette section ramène l’ontologie quantique, le postulat de mesure et les hypothèses thermo-statistiques du rang de « chefs de file que l’on ne réexamine plus par défaut » vers celui de « couches encore fortes, encore utiles, mais relevant d’abord de la traduction et des conséquences ». Ce déplacement n’efface aucun mérite réel de la physique quantique et statistique dominante ; au contraire, il place ces mérites dans une sémantique où ils peuvent davantage rendre des comptes : ce qui relève du grand livre des canaux, ce qui relève d’un relevé par insertion de sonde, ce qui relève de l’amplification du bruit, ce qui relève de l’irréversibilité macroscopique après inscription de l’information. Il ne s’agit pas de retirer les formules, mais de remettre en évidence la responsabilité sémantique située derrière elles : ce qui continue à calculer, et ce qui doit commencer à répondre à la question « pourquoi en est-il ainsi ? ». Ce n’est pas une opposition à la boîte à outils quantique et thermo-statistique ; c’est une opposition à son exemption durable d’audit.
Autorité instrumentale conservée par le courant dominant : la grammaire des États quantiques, les interfaces de mesure, les algorithmes probabilistes et les équations thermo-statistiques continuent de servir de langue commune pour le calcul, les dispositifs et l’ingénierie.
Autorité explicative prise en charge par l’EFT : pourquoi la carte d’état tient, pourquoi le relevé se verrouille, pourquoi l’aléatoire produit un spectre stable, pourquoi la flèche thermique apparaît, tout cela revient d’abord à une même chaîne de travail faite de seuils, d’Insertion de sonde, de plancher de bruit et de fuites d’information.
Point d’audit le plus dur de cette section : l’audit conjoint mené au volume 8, sections 8.10–8.11, sur les frontières, les cavités, le tunneling, la décohérence, les corridors d’intrication et le principe « préserver la fidélité sans dépasser la vitesse limite » constitue l’ancrage dur permettant de décider si les postulats quantiques et thermo-statistiques peuvent revenir à la couche mécanistique.
Couche vers laquelle revenir si cette section échoue : si l’EFT ne parvient pas, sans détruire les interfaces quantiques et thermo-statistiques de précision du courant dominant, à unifier seuils, Insertion de sonde, bruit et grand livre de l’information en une chaîne revérifiable, elle devra revenir au statut de « couche explicative complémentaire » et ne devra pas prétendre avoir globalement pris en charge l’ontologie quantique et l’ontologie thermo-statistique.
Lorsqu’on juge l’État quantique, la mesure et la thermo-statistique, trois questions doivent encore être posées d’abord. Chaque fois que l’on rencontre une fonction d’onde ou un État quantique, demander quelle carte de canaux faisables elle enregistre. Chaque fois que l’on rencontre mesure, probabilité ou effondrement, demander quelle insertion de sonde, quelle fermeture et quel verrouillage elle décrit. Chaque fois que l’on rencontre croissance de l’entropie, équilibre et flèche thermo-statistique, demander quelle extension du volume des canaux et quelle fuite d’information elle consigne. Si l’on garde ces trois questions, beaucoup de mythes axiomatiques écrits comme « il faut seulement les accepter » refluent d’eux-mêmes. Lorsque l’on retrouvera les termes familiers du quantique et de la thermo-statistique, le regard ne sera plus d’abord emporté par le ton du postulat ; il reviendra d’abord aux dispositifs, aux canaux, au bruit, aux relevés et au grand livre de l’information.
Dès que les anciens termes passent d’abord par la stratification et la limitation de domaine, la discipline de décodage est réellement installée. Lire un terme ne signifie plus choisir un camp : cela signifie d’abord retraduire, puis seulement discuter de l’ontologie. Dans un même article, les mots familiers, les tables de paramètres et les images peuvent alors être ramenés d’abord à la couche d’observation, à la couche instrumentale ou à la couche de dépassement de droit, avant de décider lesquels peuvent garder leur ancien nom et lesquels doivent revenir en réexamen.