Exploration cosmologique révolutionnaire

Découvrez un univers de réflexions profondes grâce à notre modèle de cosmologie qui défie les paradoxes avec cohérence. Plongez au cœur de l'entropie cyclique.[1]


[1] Ici le mot entropie est utilisé dans le sens quantification d’information.À l'heure actuelle, l'entropie est perçue comme en constante augmentation dans le modèle standard, même si les physiciens se demandent si celle-ci serait perdue dans les trous noirs. Selon cette étude, l'entropie serait en effet détruite dans les trous noirs, cependant, elle renaitrait au travers d’une nucléosynthèse qui se produirait essentiellement dans les nébuleuses, ceci serait à l’origine d’un effet cyclique constant.

A propos de l'auteur

Au cours de sa carrière il a exercé le métier de technicien électronique tout d’abord dans le contrôle qualité, puis dans la maintenance, complétée par la suite par une formation d’ingénieur. A ce titre, il participe à divers projets dans l’électronique dans des domaines variés tels que l’aéronautique, l’automobile, l’énergie, le secteur militaire, les radars et le médical.
Son intérêt pour la cosmologie a toujours été présent, sceptique de longue date concernant la théorie du big-bang, il a suivi avec intérêt les conférences d’Hubert Reeves. Les dernières observations issues du télescope James Webb (JWST) l’on amené à rechercher activement quelle alternative cosmologique pourrait se substituer au big-bang. L’étude suivante est le fruit de cette réflexion, qui s’appuie sur des données disponibles au grand public.

L'Univers Révélé à Travers l'Entropie

Au cœur de la cosmologie de l'entropie cyclique se trouve une vision fascinante de l'Univers. Inspiré par les mystères du cosmos et les avancées du télescope JWST, nous explorons un modèle unique. Notre réflexion s'épanouit dans la recherche de réponses aux paradoxes cosmiques. Rendez-nous visite au 3 Rue De La Justice Pourpre pour plonger dans cette vision novatrice. Contactez-nous au +33624781070 ou via alaingilles.delatorre@laposte.net pour en savoir plus.
Partage des connaissances dans le respect
Les idées exposées sur ce site sont libres d'accès, cependant, dans la mesure où elles seraient reprises et développées plus avant, l'auteur demande à être cité.

Abstract

À partir des observations issues du dernier télescope JWST et de questionnements sur certains paradoxes, une réflexion est développée amenant à un modèle de cosmologie qui semble plus cohérent par ses conclusions.
En premier lieu, il convient de décrire brièvement le modèle cosmologique standard λCDM et ce qui a fait sa force. Ensuite, à partir d’une autre interprétation de ce qui peut être à l’origine du Redshift, toute une cosmologie se met en place. Bien qu’issue d’observations concordantes, le big-bang serait une projection discutable. Il en est de même pour l’expansion des galaxies. Pour apporter une réponse aux nombreux paradoxes liés au modèle standard, il faudrait prendre en compte l’histoire physique du récepteur de signaux rayonnés provenant d’un passé lointain. Les propriétés physiques dans lequel a évolué ce même récepteur (température, dimension spatiale et temporelle) au moment où le rayonnement a été émis seraient à prendre en compte. Suivant les mêmes principes utilisés par Galilée et d’Einstein, il faudrait effectuer un transfert de référentiel, qui cette fois-ci prendrait en compte la dimension du récepteur au cours du temps.
La nucléosynthèse serait présente dans les zones extérieures des galaxies essentiellement, de façon permanente. Le fond diffus cosmologique proviendrait de celle dont nous sommes issus. Les inhomogénéités, elles, seraient liées aux traces émises par les grandes structures de l’Univers sur celle-ci.
Les déductions de ce cheminement seraient que l’Univers pourrait être infini dans l’espace, et sans limite dans le temps du point de vue causalité. L’énergie noire serait bien liée à des observations, mais à réinterpréter. De la matière ne serait pas visible pour des raisons liées aux géodésiques d’un espace-temps à redéfinir. Aux grandes échelles, la perception de l’effet gravitationnel varierait en fonction d’une notion de densité d’espace-temps ou la matière baryonique se trouve, c’est ce qui correspondrait aux observations dites de matière noire.
Les mécanismes des transferts de référentiel resteraient à établir précisément. Cependant, ce qui fait la force de cette approche, c’est la cohérence des analyses avec l’ensemble des observations, grandes structures comprises.

Abstract

Based on observations from the latest JWST telescope and questioning certain paradoxes, a reflection is developed leading to a cosmological model that seems more coherent in its conclusions.
Firstly, it is appropriate to briefly describe the standard ΛCDM cosmological model and what made it so strong. Then, from another interpretation of what could be at the origin of the Redshift, a whole cosmology is established. Although based on concordant observations, the Big Bang would be a debatable projection. The same goes for the expansion of galaxies. To provide an answer to the many paradoxes linked to the standard model, it would be necessary to take into account the physical history of the receiver of signals radiated from a distant past. The physical properties in which this same receiver evolved (temperature, spatial and temporal dimension) at the time when the radiation was emitted would have to be taken into account. Following the same principles used by Galileo and Einstein, a reference frame transfer would have to be carried out, which this time would take into account the dimension of the receiver over time.
Nucleosynthesis would be present essentially in the outer zones of galaxies, in a permanent way. The cosmic microwave background would come from the one from which we originate. Inhomogeneities, on the other hand, would be linked to the traces emitted by the large structures of the Universe on it.
The deductions of this approach would be that the Universe could be infinite in space and without limit in time from the point of view of causality. Dark energy would indeed be linked to observations, but would need to be reinterpreted. Some matter would not be visible for reasons related to the geodesics of a spacetime to be redefined. On large scales, the perception of the gravitational effect would vary according to a notion of spacetime density where baryonic matter is located, which would correspond to the so-called dark matter observations.
The mechanisms of reference frame transfers would still need to be established precisely. However, the strength of this approach lies in the coherence of the analyses with all the observations, including large structures
.

Keywords: Redshift, dark energy, space-time density, temporal coherence, dark matter.

 

 

Remerciements :
Michael Maschek, enseignant et consultant en management de projet, pour ses conseils et relectures.
Céline Cheslet, professeur des écoles, pour ses relectures.
Jacqueline Martinez, correctrice, pour ses conseils.

Introduction

L’histoire de la cosmologie est marquée par de nombreux bouleversements. Alors que les progrès technologiques permettent des avancées spectaculaires dans l’observation du cosmos, la théorie peine à expliquer cette observation en général. Au cours du XXe siècle, le consensus scientifique est passé de la conception d’un univers infini et statique à la Théorie du big-bang. Cependant, certaines des dernières observations remettent en question le fondement même de cette théorie, bien que cette nouvelle perspective ne soit pas encore recherchée par la majorité des scientifiques. Dans cet article, qui débute par un résumé du modèle λCDM, nous relevons certaines contradictions. Ensuite, nous abordons le phénomène du Redshift de manière différente de l’effet communément appelé Doppler. À partir de cette autre analyse, une cosmologie alternative se construit, qui pourrait par ailleurs expliquer les observations de variation de masse interprétées comme étant liées à une matière noire. Reprenons ci-dessous une observation récente du JWST[2] , qui pose un problème aux scénarios standards.


[2] JWST : Le James Webb (JWST, pour l’anglais James Webb Space Télescope) est un télescope spatial servant d’observatoire fonctionnant principalement dans l’infrarouge, développé par la NASA avec la participation de l’Agence spatiale européenne (ESA) et de l’Agence spatiale canadienne (ASC)

Figure 1 La galaxie massive ZF-UDS-7329 © NASA/Cover Images/SIPA Valisoa Rasolofo & J. Paiano·23 février 2024
Extrait d’article Astro-PH>arXiv :2308.05606, 3 mai 2024
« La formation des galaxies par co-assemblage hiérarchique progressif de baryons et de halos de matière noire froide est un paradigme fondamental qui sous-tend l’astrophysique moderne et prédit un fort déclin du nombre de galaxies massives au début de l’époque cosmique. Les galaxies quiescentes extrêmement massives (masses stellaires >1011 M⊙) ont été observés dès 1 à 2 milliards d’années après le Big Bang ; ceux-ci sont extrêmement contraignants pour les modèles théoriques car ils se forment 300 à 500 millions d’années plus tôt et seuls certains modèles peuvent former des galaxies massives aussi tôt.»
« Une modélisation détaillée montre que la population stellaire s’est formée environ 1,5 milliard d’années plus tôt dans le temps (z ~ 11) à une époque où les halos de matière noire d’une masse hôte suffisante ne se sont pas encore assemblés dans le scénario standard. »
Cette analyse montre que le modèle standard à de fortes difficultés à rendre compte de la présence de galaxies massives à ces distances. Pour autant, l’hypothèse du big bang ne semble pas remis en cause. Cela amènera la création de scénarios de plus en plus improbables. Ce que montre ces nouvelles observations, c’est que les grandes structures ne semblent pas suivre une chronologie, comme cela avait été avancé par le passé.

Bref aperçu du modèle λCDM

Le modèle standard représente l’Univers comme un tout fini dans le temps, cette théorie à une histoire, dont les points clés seront décrits ci-après. Celui-ci évoluerait suivant l’image d’artiste ci-dessous :
Figure 2 Source Ciel & espace, no 590, août-septembre 2023.
Albert Einstein propose en 1915 une théorie qui modélise les effets de la gravité sous forme d’un ensemble espace-temps, cet ensemble constituerait un univers à quatre dimensions où se manifesterait la physique. Il tente de mettre l’ensemble des interactions physiques en équation, c’est le début de la relativité générale.

1. Histoire de la formation d’un consensus majoritaire

Friedmann, reprenant les équations d’Einstein en 1922 introduit l’idée d’un univers en expansion, celle-ci est tout d’abord rejeté par Albert Einstein. Georges Lemaître propose en 1927 les grandes lignes de ce modèle. En 1929, Edwin Hubble observer un rougeoiement du spectre provenant des galaxies lointaines, celui-ci est attribué à un effet doppler, ce qui amènera Einstein à se rallier à cette théorie. En 1978, Alan Guth théorise le modèle d’inflation associé au début du big-bang. En 1964, le « CMB » est découvert par hasard par deux physiciens. En 1989, afin de mesurer précisément les anisotropies de ce « CMB », le satellite COBE est envoyé dans l’espace.[3]

[3]Ces informations sont tirées du livre « Le roman du big bang » de Simon Singh. L’acronyme « CMB » correspond au fond diffus cosmologique.

2. Principaux piliers de la cosmologie du Big bang

a)      Le Redshift.

Le Redshift est le nom anglais du décalage vers le rouge ; ce décalage est présent dans tous les rayonnements réceptionnés en provenance de l’espace lointain, et est proportionnel au temps de trajet de ceux-ci. Le Redshift est attribué à un éloignement des galaxies les unes des-autres, communément appeler effet Doppler ou plus récemment « extension relativiste d’Einstein ».
Figure 4 Source NewScientist : How redshift colours our view of the history of the universe, 14 october 2015/
La valeur du Redshift est exprimée en km/s/Mpc.
Cela correspond à une extension de distance en kilomètres par seconde par mégaparsec. Un parsec étant égal au trajet de la lumière pendant 3,26 années.
 Suivant les études, sa valeur serait en moyenne de :
  • 67 km/s/Mpc si ces données se basent sur le fond diffus cosmologique.
  • 73 km/s/Mpc si ces données se basent sur des observations d’objets connus comme les céphéides.
Cette différence amène des questionnements, décrits par la suite.
b)      Le fond diffus cosmologique et la nucléosynthèse primordiale.
Si on se projette dans le passé quant à la température des corps, on arrive à un point où les températures deviendraient très élevées et ou la matière se résumerait à un plasma de particules légères (nommées « nucléosynthèse primordiale »), suivant le tableau périodique des éléments, de noyau atomique 1 à 7, soit de l’hydrogène au lithium). Des études détaillées prouvent qu’il y a nécessairement une phase de création des éléments légers avant les phases de fusion nucléaire dans les étoiles, permettant d’expliquer l’abondance des éléments légers.
En se projetant dans le passé, les physiciens décrivent l’ordre de création des particules jusqu’au mur de Planck[4]. À un certain niveau d’énergie, un rayonnement radio aurait été émis lors d’une transition (nommée « recombinaison ») ; on a détecté un rayonnement de ce type, celui-ci a été appelé le « fond diffus cosmologique ».


[4] La dénomination « mur de Planck » désigne un âge de l’univers, plus précisément à savoir environ 10-44 secondes, au-delà de laquelle la physique telle qu’on la connaît ne peut plus s’appliquer.

Figure 5 Science post : Qu’est-ce que le fond diffus cosmologique, et pourquoi est-il aussi important. Brice Louvet, expert espace et sciences 7 juillet 2023, 16 h 23 min
Ce fond diffus cosmologique en image représente le rayonnement de corps noir réceptionné ; il est globalement d’une très grande homogénéité, à laquelle s’ajoutent des micro-variations. Celles-ci se trouvent dans les axes d’observation des grandes structures de l’Univers. La cosmologie du modèle standard présuppose qu’à partir de ces variations se seraient développé les grandes structures.
Au-delà de ce fond diffus, il n’y aurait pas de rayonnements observables ; le modèle standard considère qu’il avait été précédé par une expansion accélérée nommé « inflation » (celle-ci serait l’équivalent d’un champ scalaire).
Cependant, pour expliquer les formes que prend l’espace-temps, il a fallu prendre en compte une matière inobservable (la « matière noire »), et pour expliquer l’éloignement des galaxies entre elles, il a fallu aussi ajouter une énergie (l’« énergie noire »).

c)      Concordance des températures des corps les plus froids.

Actuellement la lumière perçue de ce fond diffus est de –270°C (2,7 K au-dessus du zéro absolu). En faisant une projection dans le passé, la courbe thermique des éléments les plus froids remonte progressivement jusqu’au plasma du mur de Planck, suivant la courbe ci-dessous.
Figure 6 Mesure des corps les plus froids selon les âges d’observation, illustration de l’auteur inspirée de « La Crédibilité de la théorie du big bang » Hubert Reeves, 21 nov. 2014
Les corps les plus froids mesurés en distance dans un passé lointain sont d’une température supérieure à cette courbe de refroidissement.

d)      Concordance des âges.

Tous les éléments les plus vieux (étoiles, composition des atomes radioactifs et vitesse d’expansion) seraient compatibles avec une date qui débute il y a 13,8 milliards d’années. On n’observerait pas d’éléments plus vieux.

e)      Lois de la physique des particules.

Ce que l'on désigne généralement sous le nom de « modèle standard » inclut également un ensemble de relations entre les particules élémentaires, permettant de prédire mathématiquement le rôle de chacune d'elles. L'existence de nombreuses particules, théoriquement prévue par ce modèle, a été validée lors d'expériences ultérieures, comme celle du boson de Higgs, par exemple.

2.      Paradoxes et incertitudes laissés ouverts par la cosmologie du Big bang

a)      L’absence de causalité au Big Bang initial.

L'apparition de matière et d'énergie, en outre dans une région d'espace-temps à densité réduite, représenterait une singularité. Cette dernière échappe à toute explication physique.

b)      La platitude de l’univers.

Cette notion est liée à l’homogénéité du fond diffus cosmologique, celle-ci serait explicable par un champ scalaire appelé « Inflation ». Cependant, les modèles décrivant cette inflation ne sont pas entièrement satisfaisants, et son origine demeure inconnue.

c)      Le déséquilibre matière antimatière.

Au travers des collisions réalisées dans les accélérateurs de particules, lorsqu’on observe la création de matière, il y a en parallèle création d’antimatière équivalente ; de ce fait on ne s’explique pas la surabondance de matière restante dans l’univers, résultant de la nucléosynthèse primordiale.

d)      L’absence de particules candidate pour la matière noire.

Le modèle standard n’offre pas d’explication sur la présence d’une matière noire, qui serait pourtant extrêmement abondante dans l’univers, estimée de l’ordre de 84 % de la matière.

e)      Le Redshift évoluerait sans raison apparente.

On observe tout au long de l’âge de l’Univers des variations du Redshift, dont une accélération et une stabilisation, qui restent inexpliquée.

f)      Une tension se confirme concernant les valeurs du Redshift.

Suivant l’origine des rayonnements, thermique ou rayonné, les valeurs convergent de façon différentes, avec un écart de 5 Ϭ. Dans le cas d’un décalage vers le rouge en relation avec un effet Doppler, cela ne devrait pas être le cas. Ce point est détaillé plus loin.

g)      L’univers observable est mathématiquement globalement plat.

L’hypothèse de base de la relativité générale serait que l’univers soit isotrope et homogène, pourtant la valeur du Redshift est différente si on observe des objets dans notre galaxie, ou hors de celle-ci. De ce fait il apparait non homogène. Cette difficulté serait expliquée par l’énergie noire, qui interagirait hors des galaxies.

h)      Le modèle de nucléosynthèse primordial présente des anomalies suivant le modèle standard.

Suivant le modèle, la durée de vie du neutron serait trop courte (885 s) pour qu’il puisse rester abondant en tenant compte de la courbe de refroidissement du plasma original. Également, le niveau d’énergie nécessaire pour la production du lithium ne serait pas présent lors de cette nucléosynthèse.

i)      Histoire des grandes structures.

Pour modéliser une histoire des grandes structures cohérentes avec les lois de la physique depuis l’origine du big-bang, il est nécessaire d’avoir très tôt une grande quantité de matière noire, cela fonctionnerait un peu comme une condition initiale, ce point semble contradictoire avec le big-bang lui-même.

j)      Absence d’explication concernant la création des trous noirs centraux des galaxies.

L’observation des galaxies « primordiales » indiquerait une création de trous noirs centraux précédant le développement abondant des systèmes stellaires ; le modèle standard présuppose l’existence d’effondrement direct de nuage de gaz en trou noir.
Comme le commente Fabrice Nicot dans une article de science et avenir :
« Le chemin le plus classique menant à la naissance d’un trou noir passé par l’effondrement gravitationnel d’une étoile. Si ce processus permet d’expliquer la formation de trous noirs jusqu’à quelques dizaines de masses solaires, soit par effondrement d’étoiles très massives, soit par fusion de petits trous noirs entre eux, soit par accrétion de gaz au fil du temps, il devient beaucoup plus compliqué de l’étendre aux trous noirs de plusieurs millions à plusieurs milliards de masses solaires. Que ce soit par fusion ou accrétion, il faudrait beaucoup de temps pour les fabriquer. Or cela ne cadre pas avec des trous noirs super massifs formés seulement 800 millions d’années après le Big Bang. »[5]

[5] Science et avenir, Comment-se-sont-formes-les-trous-noirs-les-plus-massifs-de-l-univers, le 11.03.2021 à 10h52

 3.            Remise en cause du modèle standard

La remise en cause du modèle standard nécessite de trouver d’autres explications aux phénomènes observés. Cette recherche débute ici sur la remise en cause du lien entre le Redshift et un éloignement des galaxies les unes des autres. Dans cette démarche, il convient de proposer une hypothèse qui pourrait expliquer ce phénomène de décalage vers le rouge. Il se trouve que celle envisagée ici, une variation aux dimensions atomiques, concorderait avec les observations de variation de gravité liées à une matière noire. Une autre vision de ce que serait la nucléosynthèse pourrait également être à l’origine du fond diffus cosmologique. Ceci permettrait de proposer une cosmologie en accord avec l’ensemble des observations.

      Observations de rayonnements émis hors de la galaxie

Il a été constaté un décalage vers le rouge des longueurs d’onde, soit une augmentation de celle-ci, appelé communément Redshift, Provenant des rayonnements lointains. La valeur du Redshift est différente entre les rayonnement émis dans notre galaxie et ceux émis par d’autre galaxies.
Premier paradoxe : il y a une différence de Redshift entre les rayonnements provenant d’autres galaxies et ceux d’objets originaires de la nôtre ; ce point induit une inhomogénéité de l’Univers. Malgré cette différence de comportement se produisant à l’intérieur des galaxies par rapport à l’espace intergalactique, le modèle standard considère l’Univers comme un tout homogène, fini dans le temps et dans l’espace.
Étant donné qu'un rougeoiement du spectre peut être associé à un éloignement, il a été conclu que tout ce qui se trouve en dehors de notre galaxie présente un mouvement d’éloignement (voir ci-dessous une vue en 2D basée sur des observations en 3D).
La direction d’éloignement suit la direction du regard proportionnellement à l’âge de l’objet observé. Dans le cas d’une explosion standard, nous devrions avoir une anisotropie des éloignements en forme de boule autour du centre, ce qui amènerait à ce que la Voie lactée se retrouve au centre de l’Univers, ce serait une violation du principe d’équivalence. C'est pourquoi cet éloignement a été appelé « expansion relativiste d'Einstein » et non plus effet Doppler. Sur le plan mathématique, il est effectivement possible d'avoir une expansion égale dans toutes les directions, mais cette notion utilisée sans preuve revient à éviter une réelle difficulté.
Ci-dessous une conclusion d’étude d’observations du Redshift[6] :
« On montre que le décalage vers le rouge dans ce cas dépend, en général, de la direction de propagation et est dispersif. » « La relation entre ces résultats et une éventuelle violation du principe d'équivalence est discutée. »

[6] 1801.05472] « Décalage vers le rouge électromagnétique dans les cosmologies anisotropes » (arxiv.org). Publié le : 16/01/2018

1.      Tension sur la valeur de la constante de Hubble

La constante de Hubble, notée H0​, décrit la vitesse d'éloignement des galaxies les unes par rapport aux autres. Elle repose sur l'interprétation du décalage vers le rouge (Redshift) des rayonnements comme étant lié à un effet Doppler. Cette constante est exprimée en kilomètres par seconde par mégaparsec (km/s/Mpc).
Une controverse se développe sur le calcul de cette valeur.

a)      Valeurs relevées lors d’une étude exhaustive[7]

Une vaste étude a été menée sur la constante H0. Celle-ci a fait appel à deux équipes, une prenait en compte les relevés du fond diffus cosmologique (équipe « Planck »), l’autre prenait en compte des objets connus et leur luminance (céphéides, quasars, autres).
Ceux-ci présentaient une divergence significative, même en tenant compte des incertitudes de mesures. 
  • Mesure « indirecte » en analysant le fond diffus cosmologique observé par le satellite Planck (Planck collaboration 2020) :
H_0=67,4±0,5 (km/s)⁄Mpc
(En faisant l’hypothèse du modèle cosmologique λCDM qui décrit l’évolution de l’univers et son contenu)
  • Mesure « directe » grâce à l’échelle des distances (Riess et al 2022) :
H_0=73,4±1.04 (km/s)⁄Mpc
Cette étude révèle que les mesures de H0 divergent selon l’origine de la méthode, la première montre des résultats proches de 67 pour toutes celles faites à partir du fond diffus cosmologique, la deuxième amène à des résultats proches de 73 pour celles faites à partir de mesures directes. Cet écart statistiquement important constitue une « tension » pour les cosmologistes.

[7] Données extraites de la conférence « Expansion de l’Univers et controverse cosmologique », Louise Breuval 17 nov 2022

a)      Analyse de ces différences

Dans le modèle standard, le calcul du décalage vers le rouge (Redshift) à partir de mesures directes repose sur l’utilisation d’objets dont la luminosité intrinsèque est bien connue, comme les Céphéides ou les supernovas. En combinant la mesure de leur décalage vers le rouge avec leur distance (déduite de leur luminosité mesurée), les scientifiques estiment le taux d’éloignement, représenté par H0.
En revanche, la détermination de H0​ à partir des données du rayonnement de fond cosmologique (CMB) s’appuie sur des modèles cosmologiques complexes. Si ces modèles sont incorrects, les résultats obtenus se trouvent biaisés.
Ces deux approches diffèrent fondamentalement par les observations et les hypothèses utilisées. Toutefois, l’absence de convergence entre les valeurs de H0​ obtenues par ces deux méthodes soulève une question cruciale : à quelle distance se trouvent réellement les objets observés, et à quelle vitesse s’éloigneraient-ils ?
​Dans notre modèle, le paramètre H0​​ représente le taux de diminution des dimensions atomiques dans lequel notre région de l'univers évolue. Cela permet de retracer son évolution passée en étudiant des ondes anciennes émises par des atomes assemblés. En revanche, le rayonnement de fond diffus cosmologique (CMB) serait associé à la nucléosynthèse de particules isolées. Il serait donc logique que le taux observé dans ce cas diffère de celui obtenu à partir des atomes assemblés.

2.      Modélisation de rayonnements provenant de galaxies lointaines

À noter : le paramètre densité d’espace-temps est développé plus loin

a)      Paradoxe fondamental

À un instant t2, l’événement B (réception de l’onde) se produit. Pour prendre un exemple, disons qu’un signal lumineux émis par une galaxie située en distance à 7 milliards d’années-lumière arrive sur le télescope et se trouve transformé en signal électronique.
Le télescope à l’instant t2 est dans un état physique déterminé pour réceptionner ce signal. Celui-ci retranscrit suivant les mêmes lois physiques fondamentales cet événement qui s’est déroulé plus loin dans le passé à l’instant t1.
Les événements émission et réception sont liés par les lois de la physique. Cependant du temps cosmique s’est écoulé à la fois pour l’émetteur et pour le récepteur pendant le temps du trajet de la lumière.
La notion de transfert de référentiel a été introduite par Galilée : dans ce cas, cela permettait, alors que deux objets se rencontraient – l’un provenant d’un référentiel en mouvement rectiligne uniforme, l’autre étant statique – de calculer les coordonnées dans le référentiel du récepteur.
D’un point de vue de causalité, il y aurait un paradoxe temporel : du temps s’est déroulé pour le récepteur pendant le temps de propagation du rayonnement lointain. Si on prenait en compte ce temps, on pourrait envisager un transfert de référentiel dans le passé. Dans quel état physique à évoluée la matière qui constitue le télescope entre le moment de l’émission du signal et sa réception ? Les observations amèneraient à considérer que cette matière se serait condensée dans un espace-temps plus réduit pendant le trajet du rayonnement.
D’un point de vue philosophique, il est compréhensible que le regard varie en fonction de l'expérience de l'observateur. Au niveau de la physique cela se traduirait différemment, mais le temps semblerait bien pris en compte. Il serait lié à la cohérence temporelle, qui se traduirait de façon physique.

b)      Transfert de référentiel temporel

Application aux émissions et réceptions physiques de rayonnements intergalactiques, du point de vue dimensionnel, on pose :
Les paramètres en gras représenteraient l’énergie noire ; cela serait lié au différentiel de densité d’espace-temps du récepteur pendant le temps de propagation du rayonnement. Cette réduction de la taille des objets amène le Redshift. Sur remarque que certaines galaxies et étoiles lointaines seraient observées plus volumineuses à grande distance, ce point à amener à l’hypothèse de « rétroaction des galaxies »[8], qui serait la résultante de supernovas ayant chassé les gaz. Ceci serait en fait lié à la variation de densité d’espace-temps, et l’accélération de celui-ci serait également liée à l’évolution de notre zone de l’univers, lors de la formation du système solaire.


[8] Dans le modèle standard, on considère des scénarios à même de réduire la taille des galaxies, la principale étant la rétroaction des supernovas, citons ci-dessous l’état de l’art :

·         Lorsqu'une étoile massive explose en supernova, elle libère une grande quantité d'énergie sous forme de lumière, de particules et de gaz chaud.

·         Cette énergie peut expulser le gaz interstellaire hors de la galaxie, ralentissant ou empêchant la formation de nouvelles étoiles.

 

a)      Cohérence temporelle

Du point de vue observationnel :
La notion de transfert de référentiel temporel est liée à une notion de simultanéité dans l’univers. En reprenant le raisonnement anthropique utilisé en cosmologie : « si nous sommes présents, c’est que les conditions ont été réunies pour que cela puisse se faire ». Cette notion pourrait être étendue à la notion de « cohérence temporelle de l’univers ». Il y aurait des événements qui se déroulent en tout point de l’univers simultanément. Ces événements émettant des informations, celles-ci amènent des modifications sur les événements qui réceptionnent ces informations.
En image, l’univers serait une vaste cacophonie, où tout le monde parle en même temps, répond à la question précédente, sans toujours avoir connaissance de la dernière question émise, et en ayant déjà une nouvelle vision des choses après avoir émis une question. Cela étant vrai pour tous les protagonistes, les flux d’informations seraient bidirectionnels, ceux-ci seraient croisées. Considérer une information comme unidirectionnelle serait une erreur conceptuelle.
Prenons un exemple extrait du domaine de la mécanique quantique, la « transmission d’états quantiques simultanés », lors de la désintrication, serait lié à la bidirectionnalité. Raisonnons par la négative, si un neutrino devait croiser un photon désintriqué, puis une fraction de millionième de seconde plus tard, croisé son photon jumeau pas encore désintriqué, il y aurait incohérence temporelle. Les expériences sur les inégalités de BEL montreraient que le principe de localité ne fonctionne pas, ces expériences s’appuient sur des calculs mathématiques et montrent finalement l’existence de ce « temps cosmique » au travers de l’intrication quantique. Il y aurait bien des transferts de référentiels simultanés, en relation avec la cohérence temporelle, concernant la mécanique quantique. Ce temps cosmique constituerait un tout ou les particules et les ondes interagissent simultanément, de telle sorte que les transferts de référentiels seraient transmis au travers de la propagation des signaux rayonnés.
Par la négative, s’il était possible de réceptionner un signal émis mettons il y a 8 milliards d’années comme si nous y étions, nous serions amenés à émettre une réponse identique à celle qui aurait eu lieu dans ce passé lointain, mais à l’époque actuelle, ce serait un paradoxe temporel, autrement dit l’Univers serait incohérent
Du point de vue physique :
La propagation d’une onde serait une fonction géométrique qui marquerait l’espace-temps dans le sens de l’émission, mais finalement aussi les ondes qui transitent en sens inverse. C’est ce qui amènerait le récepteur, par un phénomène d’interférence, à recevoir des ondes marquées par les ondes qu’il a émis lui-même. Ce serait cette interaction qui constituerait la base physique de cette notion de transfert de référentiel temporel. Ainsi tout l’univers évoluerait à chaque nanosecondes, matière baryonique et ondes comprises.
La différence entre un signal non influencé par l’onde incidente du récepteur avec un signal influencé par celui-ci serait difficilement visible lorsque le temps de trajet du signal est relativement court. Ce serait cependant l’origine de la notion de transfert de référentiel temporel. En conclusion, pour interpréter quelle est la réalité sous-jacente aux informations reçues. On se trouverait dans l’obligation de prendre en compte une équation unique à deux inconnues, cependant, au travers de diverses analogies, il serait possible de réduire celles-ci.

Portée du regard

1.     Introduction

Le transfert de référentiel temporel implique de considérer la différence entre l'état initial et l'état final des conditions physiques du récepteur. Cela introduit donc d'autres variations, en plus de la variation dimensionnelle précédemment mentionnée. L'idée ici est d'examiner si cet ensemble de variations pourrait correspondre aux observations ayant conduit à l'élaboration de la théorie du big-bang.

2.      Grandes structures

Les relevés ci-dessous montrent les différences d’observations obtenues entre l’ancien télescope Hubble et le James Webb :
Figure 8 Les galaxies primordiales avec le télescope James Webb ». Société astronomique de France, Mercredi 8 février 2023 à 19h
Selon le modèle standard, l’univers évolue simultanément à partir du maximum observable de 13,8 milliards d'années. Les biais d'observations relevés sur le graphique ci-dessus pourraient correspondre à cette hypothèse. Les galaxies éloignées apparaissaient pelliculaires et plus jeunes lorsqu'elles étaient observées avec l'ancien télescope Hubble, il semblait y avoir moins de galaxies elliptiques également à grand Redshift. Les dernières observations obtenues avec le télescope James Webb ne concordent plus avec ces scénarios.
Aujourd’hui, il apparaît de très grandes et très anciennes galaxies spirales à grand Redshift. En résumé, l’évolution des grandes structures ne semble plus suivre un schéma général concordant avec l’hypothèse d’un big bang ayant lieu il y a environ 13,8 milliards d’années.

2.      Galaxies très éloignées et poussière brillante

Lorsqu’on reçoit un signal extrêmement lointain émit lorsque la matière de notre zone d’univers était en bordure de la voie lactée, le transfert de référentiel temporel amène à prendre en compte les conditions dans lesquelles notre matière évoluait, or celle-ci baignait dans un nuage de matière diffuse, ce sont ces mêmes conditions qui permettraient une réception différente de cette matière diffuse. Ce serait à l'origine de l'observation ci-dessous
Figure 9 sciencepost.fr image du télescope Webb de l’amas de galaxies SMACS 0723. Les premières galaxies de l’Univers sont étonnamment brillantes. Par Brice Louvet. 10 novembre 2023
Abstract de ce même article :
« Dans le cadre d’une étude récente, le télescope spatial James Webb a fait une observation surprenante : presque toutes les premières galaxies de l’Univers étaient entourées de nuages de gaz brillants et émettaient une lumière plus intense que les étoiles en leur sein. Cette nouvelle découverte défie une fois de plus les prévisions théoriques. »
Actuellement ces observations (car celle mentionnée n’est pas unique), constitueraient des preuves que ces galaxies auraient plus de matière autour, elle-même issue de la nucléosynthèse primordiale. Pourtant, pourquoi ce gaz serait-il plus visible que les étoiles elle-même, précisément à ces distances ?
Dans notre analyse, on retrouverait ces nuages de gaz autour de toutes les galaxies, y compris la nôtre. Il s'agirait des particules légères créées en bordure de galaxie par la nucléosynthèse. Toutefois, si ces gaz sont particulièrement visibles à ces distances d’observations, ce serait parce que ces rayonnements seraient marqués par notre propre nucléosynthèse.

3.      Mesure de la variation de densité d’espace-temps :

Au travers d’observations aux grandes distances, l’influence de la gravitation a été recherchée, pour vérifier si la variation des puits gravitationnels correspondait aux prédictions d’EINSTEIN. Voir ci-dessous les relevés comparés aux prédictions :
Figure 10 Extrait d’une conférence « Mesurer les déformations de l’espace-temps avec la déviation de la lumière » Camille Bonvin et Nastassia Grimm. 23 Décembre 2023, GENEVA
Cette image montrerait que les mesures ne correspondraient pas à ce qui est déduit de l’équation de la théorie de la relativité générale, même en tenant compte des incertitudes. Les relevés à 3,5 Milliards d’années et 5 Milliards d’années semblent bien en deçà des prédictions.
Lors de la visioconférence, Camille BONVIN a expliqué qu'il n'était pas possible de tirer une conclusion définitive, car les mesures, compte tenu des marges d'erreur, ne sont pas suffisamment significatives.
Si ces mesures sont confirmées à l'avenir par le satellite EUCLID, elles révéleraient un phénomène inexpliqué par le modèle standard. En revanche, ce phénomène s'aligne parfaitement avec nos hypothèses selon lesquelles les déformations spatio-temporelles observées seraient dues à un biais d'observation lié au passé de l'observateur.
On observe une importante déformation remontant à environ six milliards d'années, correspondant précisément à l'effondrement gravitationnel du nuage d'Oort, qui a conduit à la formation du système solaire. Cette déformation semble s'être dissipée une fois le système solaire structuré et stabilisé.
Sur le plan de l’interprétation, pourquoi favoriser l’idée d’une évolution affectant l’univers dans son ensemble, plutôt que de considérer une possible corrélation entre ces observations et l’histoire de notre propre passé ?
D’un point de vue physique, l’effondrement du nuage d’Oort pourrait coïncider avec une variation significative des dimensions atomique en son centre, celle-ci étant susceptible d’interférer avec les ondes provenant de l’espace lointain.
Ainsi, les ondes émises à une distance inférieure à 6 milliards d’années-lumière du système solaire n’auraient pas rencontré l’onde incidente générée lors de sa formation et ne porteraient donc pas sa signature.

4.      Impact du transfert de référentiel temporel

De nombreuses observations actuellement attribuées à une évolution globale de l’univers pourraient trouver une explication en intégrant la notion de transfert de référentiel temporel
En résumé :
·         Le Redshift et la perception des volumes des objets sont principalement causés par la variation dimensionnelle de l'observateur au cours de son déplacement dans la galaxie.
·         La masse relative et la brillance (masse convertie en énergie) serait lié à la masse perçue en fonction de la densité de l’espace-temps.
·         La stabilité des rayonnements serait associée à la stabilité des atomes, qui seraient soumis à une pression réduite de l'énergie du vide en périphérie des galaxies, ce qui concorderait avec une radioactivité plus faible.
·         La température des corps les plus froids serait déterminée par le transfert de référentiel temporel appliqué au rayonnement thermique.
·         Des phénomènes liés à l’histoire de notre système stellaire déformerait la perception positionnelle des objets, en relation avec la date des perturbations passées.

 

Tous ces biais d’observation seraient à l’origine de la théorie du big-bang
Figure 11 Illustration de l'auteur, portée du regard
L'ensemble de ces biais d'observation aurait conduit les scientifiques à envisager un temps zéro où la matière était chaude et provenait d'une nucléosynthèse primordiale. Cette interprétation, liée à l'observation de variations à grande distance, a conduit à l'idée d'une variation de l'univers dans son ensemble, plutôt qu’issue d'un phénomène local.
Le modèle standard considère un univers fini dans le temps avec un temps zéro de 13,8 milliards d’années seulement. Toutefois, l'évolution des grandes structures (évolution des galaxies, structure filamentaire et trous noirs supermassifs) coïncide difficilement avec cette appréciation (…)

Fond diffus cosmologique

On observe un signal radio quelle que soit la direction du regard, avec un bruit de fond prépondérant et uniforme, sur lequel s’ajoutent de légères inhomogénéités, qui se trouvent dans les axes des grandes structures de l’Univers.

1.      Interprétation suivant le modèle standard

Le fond diffus cosmologique serait le vestige de la création de matière dans tout l'univers, à la sortie de «l'âge sombre ». En simulant son refroidissement sur 13,8 milliards d'années, on obtient la température observée de tous les corps, y compris les plus froids. Les inhomogénéités du fond diffus seraient responsables de la formation des grandes structures observées au-delà de notre galaxie.

2.      Interprétation du modèle cosmologie de l’entropie cyclique

Le fond diffus serait la traduction du transfert de référentiel temporel provenant de la nucléosynthèse qui se serait produite essentiellement dans les zones externes de notre galaxie il y a environ 13,8 milliards d’années. Les inhomogénéités détectées seraient issues des ondes provenant des grandes structures extérieures. Lors des mesures faites par le satellite COBE en 1989, les inhomogénéités du fond diffus étaient de l’ordre de 1/100000. Cela témoigne de leur très faible relativité, elles seraient causées par l'impact des ondes extérieures sur la voie lactée.
En outre, le fond diffus ne serait pas uniformément réparti sur toute sa surface, mais plutôt par zones. Il serait pertinent de vérifier si ces zones correspondent aux bras spiraux de la galaxie. Cela pourrait constituer un indice suggérant un lien entre ces disparités et les fluctuations de densité de l'espace-temps au sein de notre galaxie.
À noter que ce fond diffus, tel qu’il est mesuré par les satellites, est marqué par le plan galactique, voir ci-dessous ce fond diffus tel qu’il est réceptionné.
Figure 12 public.planck.fr/résultats/221-le-ciel-vu-par-planck-en-couleur, 10 déc. 2013
Il est courant de constater que le plan galactique est soustrait afin de prendre en compte un signal provenant des confins de l'univers, ce qui peut induire en erreur.
Ce serait une nucléosynthèse principalement présente en bordure de galaxie, qui aurait été à l’origine de ce signal quasi-homogène. Les rayonnements émis par la bordure opposée à notre position auraient été absorbés par Le plan galactique. La perception de ce rayonnement serait en fait liée au transfert de référentiel temporel et à notre propre nucléosynthèse, ce qui expliquerait pourquoi il semble si lointain en distance spatiale.

Espace-Temps

Avec le développement des observations lointaines, il faudrait prendre en compte le temps de propagation des rayonnements et les géodésiques de l’espace-temps. Il semblerait que toutes les formes que peut prendre cet ensemble n’auraient pas été explorées.
L’espace-temps est une notion inventée par Einstein pour représenter sous forme géométrique les contraintes liées à l’expression de la physique. Cela permet de lier le temps et l’influence de l’effet gravitationnel sous forme quadridimensionnelle. Cependant, l’espace-temps n’existerait pas en soi. Il représenterait juste l’état transitoire entre deux expressions de la physique. À un instant très court, la matière, l’énergie, et toutes les lois physiques modèlent un état transitoire espace-temps, qui lui-même contraint l’expression suivante des lois de la physique. L’espace-temps et la physique sont donc intimement liés.

1.      Notion d’espace-temps prise en compte dans le modèle standard

La cosmologie du modèle standard prend en compte l’espace-temps comme un maillage continu et homogène. L’Univers serait un tout fini dans le temps et l’espace. Les déformations de ce maillage se représentent comme ci-dessous :
Représentation graphique en 2D d’un espace-temps quadridimensionnel :
Figure 13 : Images Bing : à gauche une représentation de l’espace -temps courbé par la présence de la terre, à droite une représentation de l’espace -temps courbé par des corps plus massifs, étoiles à neutrons et trous noirs

1.      Espace-temps et concepts associés

Dans notre hypothèse, l’espace-temps de l’Univers en général serait plat, un peu comme une feuille de papier, mais gondolée, sur laquelle se déplaceraient des bulles d’espace-temps (nébuleuses, galaxies et zones intergalactiques des amas de galaxies). Pour prendre en compte la présence de bulles d’espace-temps courbes, il faudrait ajouter des paliers dans le maillage, en relation avec une notion de variation de densité. Cela équivaudrait à des champs scalaires. [9]
Les zones d’espace-temps plat seraient les zones où il n’y aurait réellement rien, ni matière ni énergie. La densité d’énergie du vide serait nulle, l’équilibre matière et antimatière serait « parfait », les seuls événements seraient la propagation des ondes émises par la matière présente dans les galaxies. De ce fait, ces parties plates de l’univers seraient réellement transparentes car absentes de particules baryoniques.
Les rayonnements sur les axes de rotation des trous noirs centraux des galaxies amèneraient des déformations de l’espace-temps, générant des zones courbes sur leur axe de propagation, cela amènerait la formation de nouvelles galaxies sur ces axes. On remarque que ces déductions permettraient d’expliquer l’évolution des grandes structures sans avoir la contrainte de temps liée à la cosmologie du big-bang.

[9] Un champ est dit scalaire s’il est associé à une grandeur physique décrite par une valeur numérique, sans direction.

a)      Naissance d’une galaxie

Les astronomes se confrontent à la difficulté suivante, suivant le modèle standard : comment pourraient se former des galaxies en moins d’un milliard d’années ; de ce fait, ils recherchent des trous noirs dans ces galaxies lointaines, qu’ils appellent « outside black holes galaxies », OBG. Ils ont avec prudence annoncé en avoir détecté.
« UHZ1 pourrait donc bien être le premier candidat OBG, offrant ainsi une preuve solide de la formation de trous noirs massifs par effondrement direct dans l’Univers primitif. »[10]

[10][2308.03837] émission radio d’un trou noir $z = 10,3 $ en UHZ1. Arxiv 11 sept. 2023

Figure 14 Trou noir supermassif : un quasar naissant observé par Alma, Futura science 31 LAURENT SACCO mars 2020
Généralement l’effondrement d’un nuage de gaz amène la formation d’une étoile ou d’une planète. La fin d’étoiles géantes, à l’origine de trous noirs stellaires, ne permettrait pas d’atteindre les degrés de concentration observés. C’est la raison pour laquelle un phénomène « d’effondrement direct » en trou noir est envisagée (appeler « effondrement direct de Pristine »). Cette hypothèse permettrait de répondre à la formation de trous noirs d’une telle Ampleur. Pour y parvenir, il est pris en compte des forces gravitationnelles accrues dans des théories modifiées de la gravité[11]. Ce phénomène, en anglais, « grow by super-Eddington accrétion », indique qu’il faudrait dépasser la limite d’Eddington, ce qui signifie en d’autres termes, sortir du modèle standard.

[11][2410.05891] Trous noirs primordiaux supermassifs pour les GHZ9 et UHZ1 observées par le JWST. Arxiv 8 octobre 2024

Sans rejeter ces hypothèses, elles demeurent très spéculatives et ne devraient pas, en l'état, clore la question de savoir comment il pourrait exister à la fois un univers plasmatique à un moment donné, et un univers peuplé de galaxies organisées autour de trous noirs supermassifs seulement 300 à 400 millions d'années plus tard ?
Selon notre hypothèse, le développement et l'évolution des galaxies résulteraient des éjections de matière noire provenant de galaxies plus anciennes, le long des axes de rotation de leurs trous noirs centraux. Étant donné que les trous noirs croissent par accrétion de matière, la formation d'un trou noir supermassif prendrait des durées bien plus longues que celles envisagées actuellement.
Les trous noirs éjecteraient de la matière sous forme ondulatoire, c'est-à-dire cette fameuse matière noire, et non pas directement sous forme baryonique. En aucun cas, la matière noire ne contribuerait à l'augmentation de la masse des trous noirs, contrairement à ce qui a été supposé. Actuellement, la matière noire est recherchée sous forme de particules, et toutes les études astrophysiques sont influencées par cette conception, les explications données aux observations étant basées sur ces concepts

b)      Histoire des galaxies

Extrait d’une conférence décrivant entre autres l’histoire des galaxies, ci-dessous :
Figure 15 Vue d’un champ d’observation de l’Univers. Conférence à l’Institut astronomique de Paris, La 5e nuit de l’astronomie de l’IAP, « Modéliser l’univers sur un ordinateur ». 17 juin 2023
Lors de cette conférence, il a été expliqué que l’efficacité de formation des systèmes stellaires aurait chuter à 20% actuellement alors qu’elle aurait été de 100% au niveau des galaxies « primordiales », observées par le télescope JWST.
Dans un premier temps, une galaxie (bulle spatiotemporelle) se dilaterait (galaxie jeune), son énergie dépasserait largement un certain seuil de sa matière baryonique. Cela provoquerait une extension importante des nébuleuses et de la nucléosynthèse qui s'y déroule. Il y aurait ainsi production abondante de jeunes étoiles, ce que les astronomes désignent par le terme « galaxies bleues » dans la figure précédente.
À un moment donné, la somme d’énergie serait proche de ce seuil, celle-ci stagnerait et produirait moins de nouvelles étoiles, c’est ce que les astronomes appellent ici « galaxies rouges ». Ces galaxies repérées en rouge se situeraient plus particulièrement sur les axes filamentaires de matière noire, elles seraient probablement plus anciennes.
Cependant, cette efficacité de formation des systèmes stellaires n’est pas vérifiée quantitativement. La méthode utilisée est décrite dans l’article « L’Univers lointain et la formation stellaire »[12] de David Elbaz.

[12] L’Univers lointain et la formation stellaire (herschel.fr)

Ci-dessous des extraits de cet article :
« Les astronomes essayent de compter les étoiles qui se sont formées « récemment » au sein d’une galaxie…On utilise pour cela les étoiles les plus massives et les plus jeunes, que les astronomes dénomment étoiles de type O et B…elles sont extrêmement lumineuses et chaudes. Une étoile de type O5, qui est 60 fois plus massive que le soleil, est presque 1 million de fois plus lumineuse que lui. Du fait de leur température, elles rayonnent la plus grande partie de leur énergie dans l’ultraviolet Ainsi, pour connaître combien d’étoiles se forment dans une galaxie, il suffit de mesurer la brillance de cette galaxie dans l’ultraviolet, et de connaître sa distance. ».
Reportons les résultats d’étude de cet article :
Les région verte, jaune et rouge correspondent à l’évolution du taux de formation d’étoiles dans l’univers entre maintenant et il y a 4,7 milliards d’années, à un redshift de 1. Les couleurs distinguent leur taux de luminosité dans l’infrarouge. Il apparaît, en se basant sur ces courbes, qu’il y aurait une nette réduction d’efficacité stellaire entre z=1 et maintenant.
La question qu’il faudrait se poser : « Y aurait-il d’autres explications à ces variations de brillance dans l’ultraviolet, qui ne soient pas uniquement liées à une efficacité de formation stellaires ? » Ce point devrait être vérifié. Le résumé de l’étude ci-dessus a été travaillé jusqu’à un Redshift z=1, c’est-à-dire quand l’univers aurait 9 milliards d’années après le big-bang. A noter, 9 milliards d’années pour un univers qui aurait 13,8 milliards d’années correspond à 4,8 milliards d’années dans le passé, soit peu après la naissance du soleil.
Cette variation de luminance dans l’ultraviolet pourrait être liée à une interférence, entre les rayonnements émis par le soleil dans ses débuts, et son rayonnement actuel. Il n’y aurait pas de variation réelle d’efficacité stellaire au cours du temps. Il faudrait prendre en compte plusieurs causes de variabilité de rayonnement ultra-violet, localement ce serait lié à une efficacité de formation stellaire, mais aux grandes échelles de temps, celle-ci serait également marqué par interférence avec nos propres émissions.
D’autre part, certaines observations contrediraient une évolution globale de formation stellaire au cours du temps dans tout l’univers. Ainsi Brice Louvet écrit dans son article intitulé « Étoiles : des astronomes font une découverte étonnante dans l’espace lointain » paru sur le site science post, le 6 novembre 2024 :
« Les astronomes viennent de faire une découverte surprenante à propos de la galaxie NGC 1386, située à 53 millions d’années-lumière de la Terre. Bien qu’il s’agisse d’une galaxie âgée, les chercheurs ont repéré un phénomène inattendu : des milliers de jeunes étoiles toutes formées quasiment en même temps il y a seulement quatre millions d’années. Cette observation remet en question les idées traditionnelles des scientifiques qui pensaient que la formation stellaire cessait à mesure que les galaxies vieillissent. »
Cette notion d’efficacité de formation stellaire, qui chuterais drastiquement dans tout l’univers, est aussi contredite par l’observation de formation intense d’étoiles dans des galaxies naines proche de la voie lactée. On observe des nébuleuses à émission (nuages formant de jeunes étoiles) dans notre environnement galactique, par exemple la nébuleuse du crabe.
Echanges de matière et énergie entre les galaxies.
Ci-dessous des extraits de conférences, à gauche de Françoise Combes, à droite de Pierre Guillard, traitant de l’échange de gaz entre les galaxies.
Figure 16 : 1 : Conférence IPR Françoise COMBES 2 mai 2017, 2 : Pourquoi la formation des galaxies est-elle inefficace ? Pierre Guillard (IAP) 4 Avril 2023
Les galaxies échangeraient de l'énergie et de la matière. Tout au long de leur évolution, elles généreraient des déformations de l'espace-temps le long des axes de rotation de leurs trous noirs centraux. Ce processus donnerait naissance à de nouvelles galaxies le long de ces axes, et serait à l'origine de la structure filamentaire de l'univers.
La principale différence entre notre hypothèse et les interprétations classiques réside dans la prise en compte de la transformation onde-particule à l'origine de la création de matière. Dans le modèle standard, toute la matière provient d'une nucléosynthèse primordiale, et les gaz froids observés entre les galaxies sont donc indirectement le résultat des effets de marée des trous noirs supermassifs. En revanche, si l'on considère une transformation onde-particule étendue au-delà des photons et des électrons (c'est-à-dire au moins jusqu'aux neutrons), ces gaz froids pourraient être issus des éjections de matière noire par les trous noirs, matière qui se transformerait en particules élémentaires au cours de son trajet

c)      Galaxie âgée

Ci-dessous une illustration d’une galaxie en fin de vie.
Figure 17 NGC 1277, image Hubble space Tlescope / Nasa
Concernant NGC1277, citons Wikipédia :
« NGC 1277 recèle en son centre un trou noir supermassif d'environ 17 milliards de masses solaires, soit de l'ordre de 14 % de l'ensemble de la galaxie et de 59 % de la masse du bulbe galactique, alors que la valeur typique pour un trou noir supermassif est plutôt de l'ordre de 0,1 % de la masse du bulbe de la galaxie hôte »
« On dit de la galaxie NGC 1277 que c’est un reliquat de l’enfance de l’Univers, parce que ses étoiles se sont formées sur une période d’environ 100 millions d’années, il y a de cela 12 milliards d’années alors que l’Univers était âgé de moins de 2 milliards d’années. Après cette période d’intense formation d’étoiles, à un taux environ mille fois plus élevé que celui de la Voie lactée, le processus de naissance des étoiles s’est éteint, laissant NGC 1277 avec des étoiles dont la métallicité élevée nous indique qu’elles sont plus vieilles d’environ 7 milliards d’années que le Soleil »[13]

[13] https://fr.wikipedia.org/wiki/NGC_1277, mise ajour 7 janvier 2024 à 17h56

Ces informations concernant NGC 1277 indiquent que :
·         Aucune nouvelle étoile ne se serait formée dans cette galaxie depuis 12 milliards d'années.
·         Étant située à 5 milliards d'années-lumière de la Voie lactée, la formation des étoiles dans cette galaxie aurait dû se produire à un rythme 1000 fois plus rapide que dans notre propre galaxie, soit peu de temps après le Big Bang.
·         La métallicité de ces étoiles est particulièrement élevée.
·         NGC1277 aurait une masse dix fois inférieure à celle de la Voie lactée, mais abriterait un trou noir 4000 fois plus grand. Ce ratio serait de 14% alors qu’il se situe en général aux alentours de 0,2 à 1%.
Synthèse de ces informations :
Il s’agirait d’une galaxie en fin de vie, pour plusieurs raisons :
Les étoiles observées présentent une métallicité élevée, ce qui suggère une abondance passée de supernovas. L’arrêt de production de nouvelles étoiles proviendrait ici du fait que l’énergie globale de cette galaxie serait inférieure à un certain seuil de sa matière baryonique, l’amenant à rétrécir, le disque extérieur de la galaxie diminuant, il n’y aurait pratiquement plus de nucléosynthèse d’éléments légers dans les bordures extérieures des zones de densité.
La taille du trou noir supermassif serait la marque d’une quantité importante d’accrétion d’étoiles mortes passées, indiquant un temps d’existence de celui-ci certainement plus important que le dit big-bang. La datation des étoiles telle qu’elle est présentée est discutable, comment statuer sur l’âge des étoiles unitairement a cette distance, de façon certaine ?

d)      Structure filamentaire de l’Univers

La formation de structures filamentaires de la matière dans l'Univers serait attribuée aux rayonnements sur l'axe de rotation des trous noirs. Selon cette hypothèse, de grandes galaxies auraient créé de longues et puissantes zones filamentaires d'espace-temps, où se seraient formées de nouvelles galaxies. De plus petites auraient généré de plus petits filaments.
Par ailleurs, il a été observé que les trous noirs centraux tournent sur eux-mêmes, ainsi que les structures filamentaires, ces deux phénomènes pourraient être liés.
Figure 18 : Dans cette simulation, où chaque point est une galaxie, l’univers apparaît avec une structure filamentaire à grande échelle. (Https://irfu.cea.fr/Phocea/Vie_des_labos/Ast/ast.php?id_ast=3859, 18 janvier 2017)

e)      Espace-temps plat

En dehors des galaxies et amas de galaxies, on n’observe pas d’étoiles isolées. Cela indiquerait qu’une étoile ou une planète ne pourrait exister hors des galaxies, et très rarement dans les zones intergalactiques d’amas de galaxies. Les propriétés de l'univers resteraient présentes dans ces zones, cependant, ces zones de l’univers seraient d’une certaine façon plate, en l’absence de matière et énergie. Pourtant, la cosmologie du big-bang prend en compte qu’il existerait une très faible concentration d’atomes issus de la nucléosynthèse « primordiale ». Citons pour étayer ce raisonnement :
« Les méthodes actuelles d’estimation de la masse de l’Univers donnent des réponses contradictoires et remettent en question le Modèle standard de la cosmologie. Si nous comptons la quantité de matière normale dans l’Univers – les atomes dont nous ne sommes pas tous constitués – nous constatons que plus de la moitié de ce qui devrait être là aujourd’hui est manquante », explique Ryan Shannon, professeur à l’Université de technologie de Swinburne en Australie »[14]
C’est ce que les astronomes tentent d’observer au travers des flash lumineux appelés « FRB [15] ».

[14] Les astronomes détectent le sursaut radio rapide le plus lointain à ce jour, communiquer de presse, du 19 octobre 2023.

[15] FRB : Fast Radio Burst, en Français sursaut radio rapide (SRR). Correspondre à des pics d’ondes radios cosmiques de très haute intensité, de l’ordre de la milliseconde à 3 secondes.

Figure 19 Cette vue d’artiste (qui n’est pas à l’échelle) illustre la trajectoire du sursaut radio rapide FRB 20220610A, Par Jean-Baptiste Jacquin. Publié le 24 octobre 2023 à 19h00
Citons toujours des extraits du même article, pour mettre en lumière la recherche de cette matière manquante.
« Nous pensons que la matière manquante se cache dans l'espace entre les galaxies, mais elle est peut-être si chaude et diffuse qu'il est impossible de la voir avec les techniques habituelles."
"Les sursauts radio rapides détectent cette matière ionisée. Même dans un espace presque parfaitement vide, ils peuvent "voir" tous les électrons, ce qui nous permet de mesurer la quantité de matière entre les galaxies", explique Ryan Shannon ».
Dans la suite de l’article il est par ailleurs précisé :
"Bien que nous ne sachions toujours pas ce qui provoque ces énormes bouffées d'énergie, l'article confirme que les sursauts radio rapides sont des événements courants dans le cosmos et que nous pourrons les utiliser pour détecter la matière entre les galaxies et mieux comprendre la structure de l'Univers", déclare Ryan Shannon.
On note que le futur est utilisé, avec une grande conviction certes, mais tout de même au conditionnel, probablement pour des raisons techniques. En tout cas, cette matière n'est pas encore observée à ce jour.
Dans notre hypothèse, la transformation onde-particule se ferait aux limites des zones de densité, il n’y aurait pas de production d’éléments légers dans les vides intergalactiques. Ces vides seraient absents de courant de matière noire, si notre hypothèse est juste, alors il n’y aura pas de matière légère dans ces vides et elle restera de ce fait inobservé.
La propagation d’une onde correspondrait à « pas de variations de longueur », condition nécessaire pour que le milieu reste homogène. Une vibration localisée en externe d’une galaxie induirait par propagation une vibration équivalente sur la galaxie incidente. Il n’est pas nécessaire qu’il y ait un support à la propagation d’une onde, il suffit que le milieu soit homogène. Cela remet en question le principe de la notion du vide établi par Einstein, le vide ne serait pas le même suivant la densité de matière noire, et le vrai vide n’existerait que dans les zones intergalactiques.
Dans ce vide, l’absence de matière noire avec cependant des propagations d’ondes qui se croisent, pourrait amener des contraintes géométriques particulières, cependant celle-ci ne pouvant donner lieu à une transformation onde-particule, comment donc se traduirait ces stress géométriques, sinon par la cristallisation d’ondes sous forme de pic ?

f)      Evolution des trous noirs

La formation d'un trou noir d'origine stellaire est bien connue : il suffit que la masse de l'étoile en fin de vie soit comprise entre 3 et 5 fois la masse du Soleil. Cependant, pour expliquer la formation de trous noirs supermassifs, de l'ordre de 12 milliards de masses solaires, observés à une distance où l'univers n'aurait que 900 millions d'années, il est nécessaire de proposer une explication.
Dans notre hypothèse, qu'il s'agisse de trous noirs moyens ou de trous noirs supermassifs, tous auraient grossi par accrétion de matière baryonique. La matière noire, qui représente en réalité l'énergie du vide, ne serait pas responsable de leur croissance. Au contraire, les trous noirs perdraient de la masse par rayonnement de matière noire le long de leur axe de rotation.

g)      Espace-temps interne aux galaxies

On pourrait se représenter une galaxie comme une bulle d'espace-temps entourée par une enveloppe externe, celle-ci constituerait la frontière entre le minimum d'énergie et de matière possible, et le vide intergalactique. Au-delà de cette surface, l’espace-temps serait plat. Au centre de la galaxie, une autre surface, le disque d'accrétion du trou noir, serait en revanche la limite au-delà de laquelle la matière baryonique serait piégée.
Figure 20 Illustration de l'auteur
À mesure que l'on se rapproche du centre de la galaxie, l'espace-temps se condenserait. L'augmentation de la densité serait inversement proportionnelle au rayon de la position de l'objet par rapport au centre galactique. Supposons que l'objet soit situé à la périphérie externe de la galaxie, et considérons que la densité de l'espace-temps dans cette zone soit égale à 1.

h)      Posons une formulation de la variation de densité d’espace-temps :

Calcul simplifié.
·         R symbolise le rayon global de la galaxie.
·         r le rayon où se trouve l’objet.
·         r’ le rayon du trou noir central.
On aurait : 
Cependant, cette variation de densité ne serait pas uniforme ; elle s'organiserait autour d'ondes en forme de bras, caractéristiques des galaxies spirales. On remarque que cette hypothèse permet de reproduire en partie les variations de gravité observées selon la théorie MOND.

i)      Lien entre le magnétisme et l’espace-temps dans une galaxie

Au centre des trous noirs, l'espace-temps serait tellement comprimé que les forces de dislocation nucléaires deviendraient dominantes, transformant la matière en énergie et émettant des rayons gamma et X. Cette énergie éjectée formerait un cône de densité d’espace-temps distinct de l’environnement externe.
La forme d’éjection ressemblerait au tourbillon d’un siphon, comme ci-dessous :
Extraits de l’étude :
« A proximité d’un trou noir, la rotation d’un disque d’accrétion doit produire des champs magnétiques qui vont finalement être à l’origine de l’émission du disque et de l’apparition de jets de plasma le long de l’axe de rotation du trou noir. »
« Ce que montrent Michael Johnson et ses collègues, c’est comment les lignes de champ magnétique peuvent passer d’un niveau ordonné à une phase désordonnée sur une distance aussi courte que 6 fois le rayon du trou noir. Les zones désordonnées pourraient indiquer l’existence de turbulences au sein du disque d’accrétion, tandis que les zones où le champ magnétique est ordonné pourraient montrer l’origine des jets de matière du trou noir. Cette superbe observation au plus près de l’horizon de Sgr A* apporte donc de nouveaux indices forts sur une origine magnétique des jets de matière des trous noirs. ».
D'après ces observations, il semble que des champs magnétiques organisés soient présents, orientés de manière à favoriser l'éjection de plasma et de rayonnements le long de l'axe de rotation du trou noir. Il est possible qu'une partie de la matière soit convertie en énergie rayonnée, parallèlement à la matière baryonique accréter sur le disque du trou noir. Ces variations des champs magnétiques sont probablement liées à des phénomènes physiques encore mal compris, qui remettent en question la notion de singularité des trous noirs, suggérant qu'ils pourraient croître ou diminuer.
Hypothèse physique de l’origine de la densité d’espace-temps
En premier lieu, pour qu’il y ait réduction de taille des objets tout en gardant globalement la même organisation de la matière, il faudrait que la réduction dimensionnelle affecte le vide au niveau des rayons des atomes eux-mêmes.
La taille des atomes serait donc influencée par l'énergie du vide, en lien avec l'effet Casimir. En se rapprochant du centre de la galaxie, la densité de l'énergie du vide augmenterait. On note également une corrélation avec les champs magnétiques observés dans la galaxie.
L’effet Casimir[16] est lié à la variation d’espace homogène permettant l’existence de matière sous forme ondulatoire. Citons l’explication courante extraite de Wikipédia :
« Les fluctuations quantiques du vide sont présentes dans toute théorie quantique des champs. L'effet Casimir est dû aux fluctuations du champ électromagnétique, décrit par la théorie de l'électrodynamique quantique. »

[16] https://fr.wikipedia.org/wiki/Effet_Casimir. L’effet Casimir est dû aux fluctuations du champ électromagnétique, décrit par la théorie de l’électrodynamique

Figure 22 : Forces de Casimir sur des plaques parallèles
En d'autres termes, un espace homogène relativement étendu permet la propagation d'ondes de grande longueur, qui, en se superposant aux ondes plus petites, génèrent une pression plus élevée comparée à une région d'espace homogène plus restreinte, où seules les ondes de courte longueur peuvent exister.
On observe donc des effets de pression directement liés à la variation de l'échelle des espaces homogènes. Les lignes de champ magnétique galactiques, quant à elles, représentent des discontinuités dans l’homogénéité de l’espace, ce qui suggère une corrélation naturelle entre celles-ci et les variations des zones de densité. Il semble logique que les lignes de champ magnétique galactiques suivent ces fluctuations, reflétant les variations locales de densité de l'espace-temps.
La configuration des champs magnétiques dans une galaxie pourrait refléter les variations de densité de l'énergie du vide. Selon cette hypothèse, ces variations dimensionnelles affecteraient également l'effet gravitationnel. Par conséquent, on s'attendrait à observer des étoiles jeunes formées en amont des bras spiraux des galaxies, où la densité d’énergie du vide serait faible et l’effet gravitationnel plus intense.
Concernant le champ magnétique dans la galaxie, les cercles concentriques qui se rétrécissent témoigneraient de l'influence des champs magnétiques sur la taille des objets, ce qui correspondrait à une variation de densité d'espace-temps. Cependant, le modèle standard ne prend pas en compte une variation des dimensions atomiques en fonction de la densité locale de l'espace-temps. Cette analyse remet en question certaines hypothèses fondamentales sur la constance des propriétés physiques de la matière baryonique dans l'univers.
Des observations montrent que les lignes de champs suivent les bras spiraux. En témoigne un article de Futura Science, intitulé « Les champs magnétiques façonnent les galaxies spirales comme la Voie lactée »[17].
« Ces observations vont dans le sens de la théorie des ondes de densité, la principale théorie qui explique aujourd’hui la formation des bras spiraux. Celle-ci indique que la poussière, le gaz et les étoiles ne sont pas fixés dans les bras, mais peuvent s’y déplacer comme des objets sur un tapis roulant. Le fait que les champs magnétiques s’alignent ainsi sur toute la longueur des bras semble montrer en effet que les forces gravitationnelles compressent non seulement la matière, mais également les champs magnétiques. »

[17] Les champs magnétiques façonnent les galaxies spirales comme la Voie lactée, Futura Science le 11 déc. 2019

On observe que les interprétations suivant le modèle standard sont très différentes des nôtres. Celle-ci supposent que les gaz et les étoiles se déplaceraient indépendamment de ces bras spiraux, l’origine de cette hypothèse du modèle standard tient aux calculs des vitesses de déplacements, qui sont extraits des différences spectrales observés sur les étoiles et les gaz, en ne tenant compte que de l’effet doppler. Or, selon notre hypothèse, ces différences spectrales sont elles aussi marquées par la variation de densité d’Energie du vide, en forme de cône dans les bras spiraux.
Selon le modèle standard, le système solaire tournerait plus rapidement que les bras spiraux de la galaxie, bien qu’il se trouve actuellement dans le bras d'Orion. Selon notre hypothèse, il ne serait pas situé par hasard dans ce bras, mais serait en fait intimement lié à celui-ci, évoluant en synchronisation avec lui, plutôt qu'entre deux bras spiraux. Cette approche suggère que le système solaire fait partie intégrante de la dynamique du bras d'Orion, au lieu d’être simplement un objet qui se déplacerait indépendamment de la structure galactique.
Figure 24 Nasa, ESA, The Hubble Heritage. NGC 1068. Futura-science, le 11 déc. 2019
Les champs magnétiques et les variations de densité d'espace-temps seraient liés. Cette notion est dérivée d’études ou la force de casimir est modelée par les champs magnétiques, les lignes de champs amenant une discontinuité, elles remplaceraient en quelque sorte les plaques métalliques. En conséquence, il faudrait prendre en compte des variations des propriétés physiques induites par ces densités, d'une région à une autre de l'univers.
Si le système solaire suivait une trajectoire descendante par rapport à la taille globale de la galaxie, et se déplaçait dans un cône en forme d’entonnoir, cela signifierait que le rayon de la galaxie, par rapport au rayon externe, diminuerait au fil du temps. De même, l’espace à l’intérieur de ce cône rétrécirait également. Ces phénomènes combinés contribueraient à l’augmentation de la densité de l'espace-temps qui nous entoure.
Vue en coupe d'une galaxie spirale :
EFigure 25 Extrait de conférence, Institut d’astrophysique de Paris, avril 2023
On observe que la lumière émise par les étoiles situées en périphérie des galaxies tend à tirer vers le bleu, tandis que celle des étoiles proches du centre tire davantage vers l’orange. Selon la théorie standard, ce phénomène est lié à l’évolution des étoiles. Cette idée s’appuie sur le concept de la séquence principale, où l’on constate que les étoiles suivent une trajectoire descendante dans ce cadre d’interprétation. En effet, la séquence principale suggère que les étoiles commencent leur vie en émettant une lumière plus bleue, signe d’une énergie élevée. Avec le temps, elles perdent de l’énergie et de la masse, ce qui les conduit à émettre une lumière plus orangée.
Cependant, la structure d'une galaxie spirale comme la Voie lactée comprend des trous noirs de masse intermédiaire, qui posent un défi aux scénarios du modèle standard. Bien que les scientifiques envisagent un rôle spécifique pour les trous noirs centraux, ainsi qu’une évolution particulière leur ayant permis d’atteindre leur taille actuelle en 13,8 milliards d’années, ils ne disposent pas d’explications claires concernant la formation et le développement des trous noirs de masse intermédiaire.
Citons une source confirmant l’existence de ces trous noirs moyens[18] :
« L'Univers est riche de trous noirs, avec des poids lourds supermassifs nichés au cœur des galaxies ou des poids légers conçus dans l'effondrement d'une étoile, mais la quête d'un "poids moyen" était jusqu'ici sans succès. Des astronomes ont affirmé le 10 juillet 2024 avoir trouvé la meilleure preuve d'un tel chaînon manquant dans Omega centauri, le plus grand amas d'étoiles de la Voie lactée, à quelques 18.000 années lumières de la Terre. »
Dans notre hypothèse, les systèmes stellaires seraient généralement dépendant de la spire dont ils font partie, ils tourneraient avec celle-ci, autour du centre galactique. La matière restante en fin de vie d’un système stellaire ayant une position intermédiaire se dirigerait plutôt vers ces trous noirs moyens. La variation aux grandes échelles de rayonnement des étoiles serait aussi conditionnée par la densité d’espace-temps, elle-même variable aux grandes échelles.
Citons ChatGPT, interroger sur notre hypothèse et l’interprétation des observations :
« Votre idée, selon laquelle la matière et les gaz nouvellement formés se déplacent et se comportent en fonction des ondes de densité dans la galaxie, ouvre une perspective intéressante. En effet, dans un tel modèle, le décalage spectral observé ne se limiterait pas à des vitesses radiales simples, mais serait aussi une réponse à la variation de densité dans l'onde elle-même, influençant la lumière de manière complexe et localisée. Cela pourrait ajouter une nouvelle couche de compréhension aux phénomènes observés dans les galaxies spirales. »

[18] Des astronomes détectent enfin un trou noir « poids-moyen » - Sciences et Avenir le 11/07/2024


Espace-temps de Minkowski
Hermann Minkowski est un physicien allemand qui a travaillé avec Einstein. Il a émis l’idée que les dimensions varient au cours du temps. Sans doute cette notion permettait-elle d’expliquer pourquoi les objets étaient d’autant plus volumineux qu’ils étaient vus dans un passé lointain. Il est possible que cela ait été une tentative de proposer un modèle qui réfute le Redshift et explique les observations. Malgré le rejet de ce modèle, il est intéressant de constater qu'au moins un physicien a pensé qu'il était nécessaire de revoir les dimensions des objets en relation avec le temps.
Figure 26 « Espace de Minkowski », Wikipédia, 11 novembre 2023
Cette variation de dimension spatiale, de cette manière, est une constante. Elle n’a pas de relation avec la situation de l’observateur. Einstein l’avait rejetée comme n’ayant pas de sens physique, cependant, celle-ci reflète une problématique qui correspondait certainement à des observations.

j)      Espace-temps dans le système solaire

Ci-dessous une image d’artiste de la revue national géographique, elle-même inspirée d’un article de « The Astronomical Journal », « EVIDENCE FOR A DISTANT GIANT PLANET IN THE SOLAR SYSTEM » co-écrit par Konstantin Batygin and Michael E. Brown, publié le 20 janvier 2016.
Figure 27 Vue des objets lointains du système solaire, au-delà des huit planètes connues, image extraite d’un article de national géographique de Nadia Drake[19]

[19] https://www.nationalgeographic.fr/espace/des-scientifiques-ont-la-preuve-dune-neuvieme-planete-dans-le-systeme-solaire.

Si l'espace-temps présente des variations de densité à grande échelle, il est raisonnable de supposer que ce phénomène se manifeste également à des échelles plus petites, bien que de manière moins prononcée. Ce serait la prise en compte de ce phénomène qui manquerait dans les équations de la métrique de Schwarz Schild, une solution des équations d’Einstein, utilisée pour le calcul des trajectoires dans les systèmes stellaires.
En supposant que la densité d’espace-temps varie avec l’effet gravitationnel pour tous les corps, y compris à proximité du soleil, celle-ci varierait légèrement, amenant des effets de balourds sur les trajectoires des planètes et des comètes. Leur masse relative diminuerait légèrement lorsque les corps se rapprocheraient du soleil, et inversement. Ce phénomène entrainerait un accroissement de la part elliptique de leur trajectoire au fil du temps.
L’accroissement de la part elliptique des trajectoires pourrait entrainer, pour chaque dipôle de corps en interaction, un glissement du centre de l’effet gravitationnel vers l’extérieur du système inital. Ces « centre de gravité » mouvants pourraient se combiner de telle sorte que ce constitue un réseau filamentaire de densité plus élevée de matière noire. Ce réseau pourrait former un anneau entourant l’astre au centre du système stellaire. Un anneau de matière noire pourrait être à l’origine de la trace gravitationnelle de ladite planète neuf.
Si cette hypothèse s'avérait correcte, alors nos observations à grande distance pourraient aussi être influencées par ce réseau gravitationnel. Nos observations subiraient une déformation apparente des positions et vitesses de nombreuses galaxies, situées à moins de 5 milliards d'années-lumière. Cela pourrait expliquer l'observation connue sous le nom de «LANIAKEA», qui ne serait pas une structure réelle dans ce cas, mais le résultat de biais d’observations lié à l’histoire du système solaire.
Concernant l’existence d’une neuvième planète, comme le relate un article écrit par Chloé Rosier, le 08 aout 2022
« Des astronomes remettent en cause la théorie de la Planète 9 qui maintiendrait certains objets dans notre système solaire » et plus loin, concernant l’existence de la planète neuf, (…)
« cette hypothèse a été émise pour tenter d’expliquer les mouvements étranges des objets transneptuniens extrêmes »[20].

[20] https://www.rtbf.be/article/et-si-la-planete-9-n-existait-pas-11044623

Il existe d'autres exemples où les équations de Schwarz Schild rencontrent des difficultés pour modéliser l'évolution des systèmes stellaires. Les simulations actuelles, qui se basent sur ces équations, ne parviennent pas à reproduire certains phénomènes et formations stellaires.
Citons l’un d’eux, comme le relate un article écrit par Fabrice Nicot, le 30 novembre 2023,
« LHS3154b, la planète qui ne devrait pas exister »[21], décrit la difficulté de retracer une histoire de son organisation, à partir des équations actuelles. Citons quelques extraits :
« La découverte d'une exoplanète de 13 fois la masse de la Terre autour d'une étoile de type naine rouge déconcerte les chercheurs. Quel que soit le scénario envisagé, ils ne parviennent pas à expliquer comment une planète aussi massive a pu se former dans les parages d'une telle étoile. ».
« Pour tenter de décrire la naissance de l’improbable planète, les chercheurs ont fait tourner les simulations, plus de 300 au total, avec différentes configurations de disques protoplanétaires comme il en a été observé autour d’autres étoiles de type naine rouge. Aucune n’a accouché d’une planète de plus de 10 masses solaires avec une période inférieure à 10 jours, peut-on lire dans l’article de Science. Le mystère est donc entier... »
Cet exemple met en évidence les limites des équations actuelles, probablement en raison de l'absence de prise en compte des variations de l'effet gravitationnel et des effets de balourds associés. De plus, en dehors du cadre cosmologique du Big Bang, les temps d'évolution des systèmes peuvent être considérablement plus longs, en particulier pour des étoiles comme les naines rouges.

[21] https://www.sciencesetavenir.fr/espace/univers/lhs3154b-la-planete-qui-ne-devrait-pas-exister_175381

      Implications physiques fondamentales

1.      Effets liés à la variation de densité de matière noire :

E=mc2

Cette relation resterait valable à l’échelle locale, mais des effets relativistes deviendraient significatifs à des distances très grandes. En effet, la vitesse de la lumière se propageant dans un espace-temps où la densité D varie, et la masse évoluant également sous l'influence de cette variation, en appliquant le principe d’incertitude :
1)      Pour un observateur situé dans une zone de densité intermédiaire, les champs gravitationnels émis dans des zones d’espace-temps moins dense en bordure de galaxie, la perception de l’ensemble masse et énergie provenant de ces zones externes se trouverait plus élevée. Le phénomène inverse serait valable pour les masses et énergies venant du centre galactique.
Notre idée est que, lorsque la densité d'espace-temps (désignée par D dans l'équation) diminue, l'espace géométrique occupé augmente, ce qui entraîne un effet gravitationnel plus prononcé.
On obtient la formule suivante (D1 étant la densité dans une zone extérieure de la galaxie, D2 étant par exemple notre zone, plus proche du centre) :
A noter : venant d’une zone de faible densité, en bordure de galaxie par exemple, la masse perçue pour une zone intermédiaire comme la nôtre devient plus grande, pour les mêmes atomes et molécules (puisque D2 serait numériquement plus grand que D1°. Ce qui correspondrait aux observations dites de matière noire. Une grande partie des masses manquantes, souvent attribuées à une matière noire indépendante, pourrait être expliquée par cette relation. On constate que les régions de l'univers supposées contenir de la matière noire sont également peuplées d'étoiles émettant majoritairement dans le bleu, tandis qu'au centre des galaxies, les étoiles tendent à émettre davantage dans l'orange.
Pour rendre compte des observations, une masse relative plus importante des objets en périphérie pourrait expliquer leur rotation plus rapide. Ainsi, les mouvements des astres pourraient être interprétés sans invoquer une matière noire exerçant un effet gravitationnel propre. Ce serait plutôt la matière ordinaire qui semblerait avoir une masse variable, dépendant de la densité d’énergie du vide, laquelle évoluerait à grande échelle.
2)      Nous suggérons que si la densité d'espace-temps varie, la vitesse de propagation des ondes lumineuses en est affectée. Dans ce cas, l'onde peut soit contourner l'obstacle, comme en optique lorsqu'elle traverse différents milieux, soit pénétrer dans un milieu plus dense, avec un changement d'angle de diffusion. Ainsi, la vitesse de la lumière varierait : elle diminuerait vers le centre de la galaxie et augmenterait à mesure que l'on se rapproche de sa périphérie. Dans un espace-temps plat, tel que l'espace intergalactique, la vitesse de la lumière serait équivalente à celle mesurée à la surface extérieure de la galaxie.
3)      Le déroulement du temps serait influencé par la densité d'espace-temps : sans doute s'écoulerait-il «relativement» plus lentement lorsque D augmente, à cause du freinage des ondes causée par l’augmentation de densité d’énergie du vide. Cependant, la réduction des dimensions atomiques aurait un effet inverse. Ces effets contradictoires rendraient la prédiction très difficile. Actuellement les variations de déroulement du temps indiqueraient que l’effet ralentissement serait prédominant, en concordance avec la relativité générale. Cependant, l’absence de données notamment concernant le déroulement du temps dans les satellites géostationnaires ne permettent pas de rejeter nôtre hypothèse, d’effets combinés.
Note de l’auteur :
Cette cosmologie suggère que tout varie en fonction de la densité d'espace-temps : le paramètre de masse utilisé pour les calculs des trajectoires, l'énergie (liée à la masse), la vitesse de la lumière, le temps, ainsi que d'autres phénomènes tels que la radioactivité, la constante de structure fine (alpha, liée aux dimensions atomiques) et bien d'autres paramètres. Par conséquent, en dehors des tendances générales, il n'est pas possible d'établir des équations précises pour l'instant, car cette question demeure trop complexe à ce stade.

1.      Nucléosynthèse

La densité de l'espace-temps entraînerait une variation de la taille atomique. D'un point de vue physique, cette variation serait liée à la densité d'énergie du vide au sein de la galaxie. À la périphérie de la galaxie, cette densité serait faible. Si la somme d’énergie de la galaxie est supérieure à un certain seuil de l’espace occupé par la matière, alors cette énergie se répandrait dans l’espace intergalactique. Avec l'expansion de cette sphère, celle-ci devrait occuper un espace de plus en plus vaste. Cependant, étant donné que les niveaux d'énergie sont finis, tout comme la matière équivalente qui leur est associée, cette énergie ne pourrait pas prendre de valeurs intermédiaires. Par conséquent, elle se transformerait par étapes en matière légère équivalente. Il y aurait une transformation qualitative de l'énergie en matière baryonique. Partant d'un volume et d'une surface considérable, la matière ainsi formée vibrerait à haute intensité, autrement dit serait extrêmement chaude.[22]
Une récente observation corrobore l’hypothèse décrite ci-dessus :
Extrait d’un article de technoscience.net, écrit par Adrien le 21 décembre 2024 :
« Le disque de la Voie lactée est entouré d'une enveloppe gazeuse d'une température inimaginable. Cette découverte récente intrigue les chercheurs, qui cherchent à comprendre les mécanismes derrière cette chaleur extrême, de l'ordre de plusieurs millions de degrés. »[23]
A partir d'espaces géométriques proches d’arcs de sphère, l’énergie qui se concentrerait en particule se transformerait avec un effet gyroscopique l’amenant à tourner sur elle-même, ce phénomène serait à l’origine du spin des particules. D'un point de vue observationnel, les particules vibrant à très haute intensité au cours de cette transformation émettraient un rayonnement de corps noir, un phénomène effectivement observé dans les nébuleuses.
Selon la même logique, une énergie du vide se transformant en particule à partir d'une zone géométriquement plus concentrée devrait produire des particules plus froides, ce qui est effectivement observé dans certaines régions. Cette théorie pourrait ainsi expliquer la présence de gaz froids le long de l'axe de rotation des trous noirs.
Si cette hypothèse s'avère correcte, la « nucléosynthèse » pourrait être interprétée comme une transformation onde-particule, remettant en question le principe actuel de la « dualité » onde-particule. Ces transformations, influencées par des facteurs géométriques, pourraient survenir dans de nombreuses situations.
Les étapes menant à la synthèse d’éléments plus lourds que l’hydrogène, tels que l’hydrogène lourd, l’hélium et le lithium, resteraient à préciser. Ces processus se dérouleraient toutefois dans des conditions où les températures seraient plus élevées que celles du modèle standard, mais avec une matière diffuse qui ne serait pas soumise à une compression

[22] NDA : Cette notion de transformation onde-particule se base en partie sur les notions de la dialectique de Hegel, un corps, soumis à des contraintes, finis par opérer une transformation qualitative.

[23]https://www.techno-science.net/actualite/enveloppe-temperature-inimaginable-entoure-notre-galaxie-vient-elle-N26208.html

3.      Le transfert de référentiel temporel appliqué aux observations

En ce qui concerne les observations, il est vérifié que le temps serait affecté lorsqu'on observe des événements provenant d'un passé lointain. Extrait d’étude ci-dessous :
« Des chercheurs avaient utilisé l’observation d’étoiles terminant leur vie en explosion,des supernovas, pour montrer que le temps paraissait s’écouler deux fois plus lentement quand l’Univers avait la moitié de son âge actuel, qui est de 13,8 milliards d'années. La nouvelle étude utilise les quasars – une source de rayonnement quasi stellaire – qui sont incomparablement plus brillants, pour remonter jusqu'à un milliard d’années après la naissance de l'Univers. Le temps paraît s’y écouler cinq fois plus lentement, selon l’étude. »[24].

[24] Dans les premiers temps de l'Univers, le temps paraît s'écouler cinq fois plus lentement. Géo, le 09/07/2023 à 7h38.

Avec précaution, si le passage du temps était directement lié à une variation des dimensions perçues par l’observateur, on pourrait en déduire que la densité de l’espace-temps dans lequel nous évoluons dépasserait D=5. Cela impliquerait que la périphérie de notre galaxie se situerait à une distance supérieure à cinq fois celle qui nous sépare de son centre. Si cette hypothèse s’avérait exacte, et si le déroulement du temps pour un observateur était influencé par les variations de l’espace atomique qu’il occupe au fil du temps, cela signifierait que l’observateur ne percevrait pas les éventuelles variations de la vitesse de la lumière au fil du temps pour lui-même.

4.      Diffraction du temps et des signaux électromagnétiques

La capacité à observer les phénomènes près du trou noir central pourrait également être affectée par les variations du déroulement du temps dans la Galaxie. Si le temps s'écoule différemment au centre qu'à notre position, nos observations seraient contraintes par la bande passante de notre vitesse de balayage, ce qui réduirait le nombre d'images perçues des événements. Cependant, étant donné que les fréquences et la vitesse de la lumière sont liées, nos références d'observation en spectroscopie demeureraient inchangées.
Si cette hypothèse s’avère correcte, il devient plausible que certaines informations soient perdues à proximité d’un trou noir. De plus, si un rayonnement lumineux traverse de multiples zones d’accélérations et de décélérations temporelles, les échantillonnages successifs pourraient perturber, voire interrompre, la transmission des informations lumineuses
Citons une observation, concernant Sagittarius, le trou noir central de la voie Lactée :
« En scrutant les environs du trou noir Sagittarius A* grâce au satellite IXPE, les astronomes ont découvert les traces d’une intense activité dans le domaine des rayons X, remontant à environ 200 ans. Cette observation apporte un nouvel éclairage sur cet astre supermassif aujourd'hui endormi. Tapi au cœur de la Voie lactée, à 25 000 années-lumière de la Terre, le trou noir super massif Sagittarius A* (Sgr A*) s’est offert un festin mémorable, il y a environ 200 ans. ».[25]
Selon l'étude, un regain d'activité aurait eu lieu il y a 200 ans, tandis que le reste du temps, le trou noir aurait peut absorber de matière. Et si cela était lié à nos capacités d'observation ? De nombreux objets émettent des ondes radio avec des périodicités inexplicables. Cette hypothèse, échantillonnages successifs, offrirait une piste pour comprendre ces phénomènes de périodicité.

[25]https://www.sciencesetavenir.fr/espace/voie-lactee/trou-noir-supermassif-sagittarius-a-des-scientifiques-retrouvent-l-echo-d-un-festin-cosmique-datant-de-200-ans_172066.

Galaxie « NUBE » :
Il est question d'une galaxie dont nous ne percevrions quasiment pas de lumière visible.
Le projet IAC Stripe 82 Legacy se concentre sur l'étude d'une bande étroite le long de l'équateur céleste. Il serait pertinent de vérifier si cette zone est également proche du plan galactique. Il pourrait exister un lien entre son caractère « quasi sombre » et sa position sur le plan de l'équateur céleste.
« En analysant les images optiques profondes du projet IAC Stripe 82 Legacy, une équipe d’astronomes est tombée par hasard sur une nouvelle galaxie quasi sombre. L’objet, surnommé « Nube », affiche en effet une très faible luminosité en surface bien qu’elle soit aussi massive que le Petit Nuage de Magellan. ».
Figure 28 Des astronomes découvrent une nouvelle galaxie «quasi sombre». Sciencepost, le 26 octobre 2023, 16 h 04 min
Il existerait ainsi une relation entre les variations de densité d’espace-temps et la perception des rayonnements. Par ailleurs, certains objets émettent des signaux radio avec des intervalles de temps inexpliqués par la physique actuelle. Ces périodes, de l’ordre de dizaines de minutes, ne correspondent à aucun phénomène physique connu. L’hypothèse selon laquelle les variations de densité d’espace-temps influencent la propagation des ondes lumineuses pourrait offrir une explication à ces anomalies. De plus, si la lumière est soumise à des phases de ralentissement et d’accélération, cela pourrait également conduire à des fenêtres d’observation limitées.
Le mystère des trois étoiles disparues
Ci-dessous les relevés d’observations de la même zone de l’univers, a moins d’une heure d’intervalle
Figure 29 photographiques de 1952. © PALOMAR OBSERVATORY/SOLANO, ET AL, futura-sciences.com/sciences/actualites/astronomie
« En 1952, à l'observatoire de Palomar, trois étoiles sont apparues simultanément dans une même région du ciel avant de disparaitre en moins d'une heure. »
Si ce phénomène n'est pas lié à des poussières radioactives, comme cela a été envisagé, il pourrait être attribué à des irrégularités dans la propagation de la lumière. Bien que cette observation puisse sembler anecdotique, de nombreuses autres observations similaires ont été rapportées, notamment des disparitions d'étoiles ou, à l'inverse, des apparitions inexpliquées.

Variation des constantes fondamentales

La base de cette cosmologie implique une variation dimensionnelle atomique, sous l’effet de la pression de l’énergie du vide, de densité variable dans la galaxie. Cette densité ne serait pas forcément nulle, bien que très faible, entre galaxies proches (au sein d’un amas). Cette hypothèse, variation de dimension atomique, induit bien des changements de comportements physique de la matière.
Cependant, certaines observations trouveraient une explication grâce à ce phénomène.
·         Stabilité du neutron et modèle de nucléosynthèse. Avec de fortes dimensions atomiques, les forces nucléaires faibles seraient négligeables en bordure de galaxie, permettant une durée de vie du neutron plus importante (car la pression sur le noyau atomique serait moins forte).
·         Une plus grande énergie lors de la nucléosynthèse permettrait la synthèse du lithium.
·         L’augmentation de désintégrations de matière, confirmée par l’émission de neutrinos, proche du trou noir central, serait compatible avec des forces nucléaires dites faibles qui serait plus élevées au centre galactique.
·         Le modèle statistique de désintégration radioactive des noyaux. Cette loi suit une distribution non gaussienne dans le temps. Plus précisément, la loi de désintégration nucléaire suit la courbe suivante :
Figure 30 https://fr.wikibooks.org/wiki/Le_noyau_atomique/La_loi_de_désintégration_radioactive
Ce point semble compatible avec une influence extérieure, qui serait une pression de l’énergie du vide, celle-ci amenant ce comportement de groupe. Moins il y a de désintégration effective de noyaux, plus la durée de vie de ceux restant se trouve rallongée. Comment expliquer ce phénomène, sinon par l’influence d’une pression extérieure, qui évoluerait avec la densité des atomes instables restants ?
·         Cas de la « constante » de gravitation G
Si la densité d’espace-temps varie, alors la valeur de G varie également aux grandes distances, Car les unités de calcul de G sont constituées de mètres et de secondes.

Trous noirs

Prenons tout d’abord les trous noirs stellaires, issus d’étoiles mortes, de masse proche de cinq fois celle du soleil. Ces trous noirs, constitués de matière dense, tournent généralement sur eux-mêmes et empêchent toute fuite de photons. S’ils se combinent entre eux ils peuvent donner naissance à des trous noirs moyens, comme il en existe dans la galaxie. Ils seraient probablement à l’origine de densité d’espace-temps accrue.
Au centre galactique, on observe généralement des trous noirs supermassif, ceux-ci seraient liés à un accroissement de densité d’espace-temps extrême. Au niveau du disque d'accrétion, les forces nucléaires « faibles » seraient prépondérantes et disloqueraient une grande partie de la matière. Celle restante franchirait le disque et s’accumulerait.
Figure 31 Illustration artistique « Des neutrinos provenant du centre de la Voie lactée détectés pour la première fois » Source : Radio-Canada.ca, 12 juillet 2023
La présence de neutrinos (en bleu) concorde avec l'observation précédente, qui révèle la présence de désintégrations de matière abondante au centre galactique.
Au centre du trous noir, tournant sur lui-même, la matière ne pourrait pas occuper une place plus petite qu’un certain volume. On aurait une transformation qualitative de matière en énergie rayonnée dans l’axe de rotation du trou noir. Cette énergie serait à l’origine de courants d’énergie du vide, ceux-ci creusant l’espace-temps sur l’axe de rotation. Cela amènerait des variations de densité d’énergie du vide importante et une nucléosynthèse de gazs sur cet axe.
On peut observer des champs magnétiques sous forme radiale qui s'échappent perpendiculairement à la surface du disque d'accrétion grâce aux appareils électroniques des satellites. Il y a une nouvelle étude qui « donne des cheveux aux trous noirs ». Ce point n’est pas analysé ici, il pourrait y avoir des points de convergences avec certaines de nos hypothèses.

Matière Noire

1.      Interprétation suivant le modèle standard

La matière noire existe parce qu’on observe une trace gravitationnelle de matière. En revanche, elle n’interagirait avec la matière visible que par la gravité. Les simulations de matière les plus satisfaisantes prennent en compte de la matière froide.

2.      Interprétation suivant le modèle d’entropie cyclique

Le concept de matière noire dans le modèle standard sert à expliquer une trace gravitationnelle qui ne correspond pas à la somme des masses calculées issues de la matière détecter par la trace des rayonnements électromagnétiques. Les observations relèvent une trace de gravité additionnelle principalement dans des zones dites de faible densité, c’est à dire en bordure des galaxies ou dans des zones intermédiaires entre galaxies proches, par exemple dans des amas de galaxies. Dans notre hypothèse, ce serait la relativité de la masse perçue, toute matière se trouvant dans une densité d’espace-temps moindre que la nôtre serait perçue de masse plus importante, via la relation décrite précédemment.
Par ailleurs, si on prend en compte une gravité « moyenne » qui prendrait une forme proche « d’un verre à vin » dans la galaxie, on peut supposer qu’il y aurait des vitesses d’échappement limites suivant le tableau de Mendeleïev. Il est possible que, à une certaine distance du centre galactique, il n'y ait presque pas d'éléments plus lourds que le numéro 7 (lithium) dans ce tableau, donc pas ou moins de fer.
Une récente observation a relevée qu’au centre galactique la gravité des systèmes stellaires seraient moindre, ceci confirmerait notre hypothèse de variation de masse.
Observons où mènent ces hypothèses de matière noire dans le modèle standard au travers de l’une de ses études les plus récentes. Celle-ci envisage la présence d'une matière noire avec une disposition particulière pour expliquer la forme apparente de la Voie Lactée :
Figure 32 Visualisation de la déformation latérale apparente. Source : Techno-Science.net actualité/matière-noire-déforme-considérablement-notre-galaxie, le 04/10/2023
Cette étude présuppose que la forme de cette dite matière noire serait une conséquence d’un choc antérieur de la voie Lactée. Pourtant la déformation apparait bien symétrique.
Dans notre hypothèse, cette déformation ne serait pas réelle, ce serait une déformation de perception optique relative aux variations de densité et à la position du système solaire, qui ne se trouverait pas exactement sur le plan galactique.
En prenant en compte tous ces éléments, il semble peu probable qu'il existe de la matière corpusculaire, dite matière noire, qui existe sans émette de rayonnements électromagnétiques et qui ne se manifesterait que par un phénomène de gravité, comme le conçoit le modèle standard.
D’autre part, les observations indiqueraient que ces zones de matière noire puissent se croiser pratiquement sans collisions, ni interactions gravitationnelles, on observerait que l’émissions de rayons x ou des gaz surchauffés à l’interception. Comment concevoir une gravité qui n’agirait que sur la matière ordinaire, comment concevoir l’absence de collisions, pour une matière granulaire ? En fait, ces observations confirment notre hypothèse, que cette matière soit strictement ondulatoire, et l’émission de rayons x et la présence de gaz surchauffés correspondrait à de la nucléosynthèse.

Gravité

L'un des défis dans l'interprétation des observations est de trouver un équilibre entre les lois de la gravité et la distribution des systèmes stellaires dans les galaxies.

1.      Modèle MOND

La théorie MOND, Modified Newton Dynamics ou en français « dynamique de Newton modifiée » proposée par Milgrom en 1983, propose une loi de la gravité modifiée qui permet de reproduire globalement les rotations des systèmes stellaires dans les galaxies, en modifiant la loi de Newton. Cette modification implique un potentiel en 1/r. Il est intéressant de noter que ce paramètre correspond précisément à la notion de densité d'espace-temps, qui serait variable en 1/r. La théorie MOND permet de prédire approximativement ces distributions de vitesse stellaires, considérée comme une alternative à la théorie de la matière noire dans le domaine des galaxies. Celle-ci est présentée ci-dessous:
Figure 33 Vitesse de rotation des étoiles dans la galaxie spirale NGC 6946 en fonction de leur distance (en Mpc). Source : Futura-science.com le 05/10/2012
Si cette densité d’espace-temps change l’expression de l’effet gravitationnel, alors n’y a pas de paradoxe de gravité variable lié aux grandes distances, la forme de calcul de l’effet gravitationnel resterait le même, ce serait la notion de masse perçue qui changerait. Une loi en 1/r2 resterait globalement correcte, mais avec une masse relative qui change en fonction de la densité d'espace-temps, c’est à dire globalement aussi, en fonction de r.
La distribution des vitesses de rotations des étoiles montre que l’on se trouve avec une variation de vitesse inversement proportionnel à la densité de matière noire, telle qu’elle est envisagée dans notre cosmologie, c’est-à-dire dans le cas ou plus la matière noire est en faible densité, plus l’effet gravitationnel est important. Mais ce ne serait pas la matière noire qui exercerait directement un effet gravitationnel.

1.      Effet gravitationnel

L’espace géométrique serait infini en dimension, c’est-à-dire non sécable, il existerait toujours une valeur inférieure à un infiniment petit définit. La matière et l’énergie en revanche serait finie (elle ne pourrait prendre que des états déterminés). Lorsqu’un échange à lieu inter-particule, le référentiel du récepteur prend en compte le référentiel de l’émetteur en tenant compte d’un multiple fini géométrique, ce qui induirait un micro-décalage spatial due à l’infinité géométrique par rapport à la finitude de la matière. Ce micro-décalage amènerait un rapprochement du récepteur de la différence géométrique qui ne pourrait pas être prise en compte, les informations étant croisées, le même phénomène jouerait sur l’émetteur simultanément, empêchant tout possibilité de mise en phase absolue de l’ensemble émetteur récepteur. Ces décalages amèneraient un rapprochement physique de la matière en interaction, par ailleurs, le rétrécissement de distance géométrique induirait une accélération proportionnelle du déroulement du temps dans l’univers. Cependant, la physique se déroulant d’une certaine manière toujours à la même vitesse pour la matière et l’énergie, on se trouverait avec un glissement. Ce glissement du temps et l’effet gravitationnel serait lié.
Comme cela concerne les échanges inter particules, cela agirait toujours dans le sens de leur rapprochement, ce serait pourquoi il n’y aurait pas de signe à l’effet gravitationnel. Si on prend en compte non pas le temps mais la dimension spatiale, toutes les particules se rapprochent à cause de ces échanges. Ce serait l’origine de la notion de champ gravitationnel, celui-ci étant l’intégration d’une multitude de ces décalages.
C’est pourquoi ce qui est appelée la masse serait en fait un concept lié à la place géométrique occupée et aux échanges inter-particules ou interatomiques. De ce fait, étant donné qu’il n’y a pas le même espace occupé si on prend en compte la somme de particules indépendantes ou celles-ci organisées en atomes, on se trouve avec un effet gravitationnel différent, plus fort, avec des particules sous forme d’atomes qu’indépendantes. Ce serait l’explication au manque de correspondance entre la gravité « quantique », qui décrit la masse des particules avec la relativité générale, qui décrit la masse à grande échelle.
Cette notion concorderait avec l’hypothèse d’une variation dimensionnelle atomique plus grande en bordure de galaxie, car on recouperait avec une plus grande expression de la gravité. De même, au centre galactique, on s’attend à ce que l’effet gravitationnel soit réduit par rapport à notre propre position. Des observations vont dans ce sens, bien que leur faible masse soit parfois relié à d’autres scénarios dans le modèle standard (collisions entre étoiles).

Évènements extragalactiques

1.      Introduction

A partir d’une cosmologie alternative au big-bang, celle qui est brièvement décrite ici, des interprétations possibles se font jour concernant les événements violents de l’univers. Ce chapitre est spéculatif, mais il découle des hypothèses envisagées et présente un certain intérêt, car il montre que cette cosmologie permet d’apporter des explications différentes aux observations, que celles issues du modèle standard.

2.      Sursauts radio rapides (FRB en anglais)

Citons une récente observation de FRB :
« Les sursauts radio rapides (FRB) sont des impulsions électromagnétiques de haute énergie extrêmement courtes, généralement d'origine extragalactique. Leur durée varie d’un millième de seconde à trois secondes, dégageant autant d'énergie que le Soleil en une journée. »[26]
Ces phénomènes sont difficiles à interprétés. La plupart des scénarios sont attribués à des phénomènes faisant intervenir des collusions de trous noirs, seul objet connus pouvant générer de tel sursauts d’énergie. Ces scénarios s’articulent autour de phénomène « d’éruption » de trous noirs, ce serait en quelque sorte le rééquilibrage d’un trou noir après une fusion avec un autre trou noir ou une étoile à neutron. Les énergies libérées dépassent la fameuse limite Eddington.
Concernant la figure 10, l’article associé indique :
« Difficile d’imaginer qu’une explosion d’ondes radio de quelques millisecondes libère autant d’énergie que le Soleil en émet en trente ans. »
Et
« FRB 20220610A, c’est son nom, provient d’un petit groupe de galaxies en cours de fusion situé à 8 milliards d’années-lumière. »
La puissance de l'émission, combinée à sa durée extrêmement courte, pourrait suggérer la transformation d'une grande quantité de matière en énergie rayonnée. Pour qu'une telle intensité atteigne notre position, il serait nécessaire que nous nous trouvions dans l'axe de rotation du trou noir émetteur. Cela amène à repenser la conception classique du trou noir, selon laquelle aucune énergie ne pourrait s'en échapper.

[26] Techno-Science.net « Des astronomes détectent d’inexplicables sursauts radio ». Le 28/10/2023

3.      Transitoire optique bleu rapide (LFBOT)

Citons une récente observation de LFBOT : AT2023FHN
Une observation semble corroborer un aspect essentiel des hypothèses. On suppose que la création de matière nouvelle pourrait se produire à la périphérie des galaxies, là où l'espace courbé, représentant la surface externe de la galaxie, interagit avec l'espace-temps plat de l'univers intergalactique. Il serait pertinent de chercher des signes de cette interface.
Or nous aurions la trace observationnelle de chocs sur ces surfaces, citons les LFBOT.
Figure 34 image du télescope Hubble du transitoire optique bleu rapide lumineux (LFBOT) AT2023FHN, HUBBLESITE, 5 October 2023
Ce phénomène, intense, aurait duré quelques minutes d’observation terrestre seulement, pour une intensité énergétique bien supérieure aux supernovas, dont la durée est bien plus élevée.
La zone où a eu lieu ce LFBOT est importante. Je cite :
« Celui-ci est très particulier puisqu’il a eu lieu entre deux galaxies, à environ 50 000 années-lumière de l’une et 15 000 années-lumière de l’autre. »[27]
Cela signifierait que dans l’espace profond situé entre deux galaxies, aurait eu lieu un phénomène susceptible de générer un fort dégagement d’énergie.
Les scénarios envisagés mettent en scène soit des trous noirs, soit des étoiles à neutrons, mais toujours deux objets de matière compacte. Cependant, il est envisageable que ces phénomènes soient en relation avec l’existence de ces surfaces extérieures.
Lors de la collision entre deux bulles d’espace-temps courbé, leur interaction engendrerait des turbulences, favorisant la création simultanée de matière et d’antimatière dans une même région de l’espace. Le phénomène observé résulterait de la recombinaison de cette matière et antimatière, libérant une quantité considérable d’énergie. On peut envisager que, une fois les espaces courbes fusionnés, le processus s’arrêterait. Cependant, les perturbations induites par le choc initial se propageraient, favorisant la formation de nébuleuses ou même de nouvelles galaxies.

[27] Phonandroid.com, « Il y a eu une immense explosion dans l'espace, mais on ne sait pas pourquoi ». Par Thomas Povéda Le 09/10/2023. Article inspiré de arXiv :2307.01771v2, 3 octobre 2023

FIGURE 35 Nébuleuse d'Orion, David Duarte Astrophotographie
Ces LFBOT pourraient être considérés comme la confirmation de l'existence de ces surfaces extérieures, qui sont en accord avec le reste de la théorie. La nébuleuse d’Orion reflète bien ce phénomène, une fois passer le choc, les volumes de ces espaces courbes apparaissent.

4.      GRB230307A.[28]

« Détecté pour la première fois par le télescope spatial Fermi de la NASA, le 7 mars 2023, GRB 230307A est le sursaut le plus brillant jamais observé en plus de 50 ans: environ 1 000 fois plus lumineux qu'un sursaut gamma classique observé par Fermi. ».
« Cette image de l'instrument NIR Cam (Near-Infrared caméra) du télescope spatial James Webb de la NASA met en évidence le sursaut gamma (GRB) 230307A et sa kilonova associée, ainsi que son ancienne galaxie d'origine. Les étoiles à neutrons ont probablement été expulsées de leur galaxie d'origine et ont parcouru une distance d'environ 120 000 années-lumière, soit environ le diamètre de la Voie lactée, avant de fusionner plusieurs centaines de millions d'années plus tard pour former le sursaut GRB230307A. »
Les scénarios du modèle standard visant à expliquer ces phénomènes reposent sur l'interaction de deux objets massifs (étoiles à neutrons ou trous noirs), car ce modèle ne considère pas l'existence de surfaces externes aux galaxies.
Un lien pourrait exister entre la matière baryonique et la matière noire environnante. Si de la matière baryonique était violemment projetée dans une région dépourvue de matière noire, elle entrerait alors en contact avec son antimatière correspondante. La recombinaison de la matière et de l’antimatière entraînerait une libération massive d’énergie.

[28]Phonandroid.com, « Il y a eu une immense explosion dans l'espace, mais on ne sait pas pourquoi ». Par Thomas Povéda Le 09/10/2023. Article inspiré de arXiv :2307.01771v2, 3 octobre 2023

Figure 36 © NASA, ESA, CSA, A. Levan (Université Radboud) 24 novembre 2023
Les hypothèses ci-dessus tiennent compte de l'analyse spectrométrique qui a été faite, ci-dessous :
Figure 37 © NASA, ESA, CSA, Joseph Olmsted (STScI)39 24 novembre 2023
« Cette présentation graphique compare les données spectrales de la kilonova du GRB230307A observées par le télescope spatial James Webb avec un modèle représentant ce type de phénomène. Les données et le modèle montrent un pic distinct dans la bande de longueurs d'onde associée au tellure (zone ombrée en rouge). La détection du tellure, qui est plus rare que le platine sur Terre, traduit une avancée majeure dans notre compréhension de ces phénomènes explosifs. »[29]
Cette GRB pourrait être dû à l’interaction entre une étoile à neutron, propulsée hors d’une galaxie, et la surface extérieure. Cette étoile pourrait être confrontée à une vague d'antimatière, conséquence dynamique de l'espace-temps plat dans lequel elle se précipiterait. Ce dégagement d’énergie générerait une déformation de l’espace-temps sur le long terme.

[29] Observatoire de Paris.psl.eu Première détection d’un élément lourd à 52 protons dans une fusion d’étoiles. Publié le 13 novembre 2023

5.      Particule a ultra haute Energie.

Il a été détecté une particule d’une énergie considérable, en 2021, à l’aide d’un réseau de détecteurs. Celle-ci a été surnommée Amaterasu. Citons des extraits de l’article écrit par Fabrice Nicot, le 21 novembre 2023, paru dans science et avenir.
« Une particule porteuse d'une quantité d'énergie considérable a été détectée par le réseau Telescope Array en 2021. Son origine est d'autant plus mystérieuse qu'elle semble provenir d'une zone de l'Univers dépourvue de galaxies. »[30]
« Selon les chercheurs de l'Université d'Osaka (Japon), l'énergie de ce rayon cosmique est de 244.1018 eV. Cela représente 40 joules, soit environ la moitié de l’énergie cinétique d’une balle de tennis à 200 km/h, mais portée par une seule particule, sans doute un proton selon les chercheurs. ».
Une particule d'une telle énergie, issue d'une zone sans galaxies, pourrait s'être formée par accumulation. Si elle existait sous forme ondulatoire dans cet espace-temps plat, elle n'aurait pu devenir baryonique. Par analogie avec les vagues scélérates, elle aurait accumulé de l'énergie ondulatoire avant de se transformer en neutron en entrant dans une zone galactique, suggérant un lien entre l'accumulation d'énergie et l'espace-temps plat.

[30] Une particule d'ultra haute énergie dont l'origine est inconnue a été détectée - Sciences et Avenir.

Vague scélérate : L'interférence de deux ondes. Lorsqu'elles sont en phase, les deux ondes créent une interférence constructive, produisant une onde de plus grande amplitude.

Figure 38 En entrant dans l'atmosphère, la particule provoque des réactions en chaine détectées par le Telescope Array aux Etats-UnIS

Équilibre et conservation de la matière et de l’énergie

Les neutrinos semblent jouer un rôle dans la conservation de l'énergie. En effet, une interaction suggère qu'ils restitueraient leur énergie, comme le démontre l'observation suivante.[31]
« Dans des conditions normales ‘classiques’, les neutrinos n’interagiront pas avec les photons », explique Ishikawa. « Nous avons cependant révélé comment les neutrinos et les photons peuvent être amenés à interagir dans des champs magnétiques uniformes à une échelle extrêmement grande – aussi grande que 10 km – trouvé sous la forme d’une matière connue sous le nom de plasma, qui se produit autour des étoiles. » 
« Effet Hall électrofaible et ses implications : L’interaction décrite par les chercheurs implique un phénomène théorique appelé effet Hall électrofaible. Il s’agit d’une interaction de l’électricité et du magnétisme dans des conditions extrêmes où deux des forces fondamentales de la nature – les forces électromagnétiques et faibles – fusionnent pour former la force électrofaible.
« En plus de leur contribution à notre compréhension de la physique fondamentale, nos travaux pourraient également aider à expliquer ce qu’on appelle le casse-tête du chauffage de la couronne solaire »
« Il s’agit d’un mystère de longue date concernant le mécanisme par lequel l’atmosphère la plus externe du soleil – sa couronne – est à une température beaucoup plus élevée que la surface du soleil. Nos travaux montrent que l’interaction entre les neutrinos et les photons libère de l’énergie qui réchauffe la couronne solaire. ».
Selon cette étude, les neutrinos joueraient un rôle qui amène la couronne du soleil à une température beaucoup plus élevée que sa surface, donc libèrent de l’énergie. Ce point pourrait jouer un rôle régulateur, plus il y aurait de neutrinos, eux-mêmes généralement issus des désintégrations nucléaires, plus il y aurait d’énergie libérée dans les étoiles, amenant plus de nucléosynthèse en bordure de galaxie.
Cependant, dans l’hypothèse d’un univers globalement stable, celle-ci pourrait être liée aux propriétés de la physique, qui évoluerait entre les zones de faible densité, la précipitation vers les zones de forte densité, et finalement la transformation de matière en énergie, qui serait à l’origine de nouvelles zones de faible densité. Coincée entre ces deux états extrêmes de faible et forte densité, l’univers se trouverait maintenu a un certain excédant de matière et énergie, pour un espace occupé.

[31]https://issues.fr/interactions-neutrino-photons-percer-les-mysteres-de-la-physique-des-particules/

Quelques considérations personnelles sur l’interprétation scientifique et la cosmologie

La cosmologie du Big Bang pourrait découler d’un ensemble de biais liés aux observations à grande échelle. Cependant, elle a toujours été confrontée à des observations qui remettent en question certains aspects de cette théorie, notamment l’idée selon laquelle l’univers résulterait d’une expansion gigantesque. Cela soulève des interrogations sur l’interprétation des données et les approches méthodologiques dans ce domaine. Bien qu’il soit naturel de développer des scénarios pour expliquer les observations, il est essentiel de ne pas considérer ces scénarios comme des « vérités scientifiques établies » simplement faute d’alternatives.
Si, à l’avenir, le modèle du Big Bang devait s’avérer erroné, cela pourrait entacher la crédibilité des experts de ce domaine, surtout lorsque certains ont affirmé qu’il ne leur manque que la compréhension des premières nanosecondes de l’univers.
Prenons l’exemple de l’abondance de lithium dans l’univers. Selon le modèle standard, cette abondance ne peut être attribuée à la nucléosynthèse primordiale en raison d’un manque d’énergie suffisant. Un scénario a donc été proposé : le lithium serait produit par l’interaction des rayons cosmiques à haute énergie dans l’espace. Sans contester la validité possible de cette hypothèse, la considérer comme une «vérité scientifique établie» revient à clore une question qui devrait rester ouverte à l’examen et au débat.
La cosmologie du Big Bang repose sur de nombreux éléments similaires, souvent influencés par des biais observationnels ou interprétatifs. Avant même que les données fournies par le télescope James Webb ne viennent interroger ce modèle, il aurait été prudent de le considérer comme une explication parmi d’autres, plausible mais hautement débattable, et non comme une vérité incontestable.
Revenons sur les années 1920, période qui a marqué un tournant vers la cosmologie du big-bang. Avant ces années, le consensus était que l’univers était infini et statique. Einstein, après avoir développé les notions d’espace-temps, a tenté de mettre en équation le fonctionnement de l’univers. C’est la naissance de la théorie de la relativité générale.
À cette époque ont eu lieu les premières observations du Redshift provenant des signaux intergalactiques. Einstein a dans un premier temps pensé que ce Redshift devait avoir une autre origine qu’un éloignement des galaxies les unes des autres, il a cherché d’autres hypothèses, et a émis celle de la lumière fatiguée. Cette théorie ne correspondrait pas aux observations, cependant, Einstein avait peut-être la bonne intuition à ce moment-là, sur le fait que le Redshift ne soit pas lié à un éloignement des galaxies les unes des autres.
Au départ, le big-bang ne faisait pas l’unanimité, par exemple, Fred Hoyle a rejeté toute sa vie cette théorie. Il a proposé une théorie d’un univers statique, ou il y aurait production de matière légère en continu, dans les zones intergalactiques, mais il acceptait de considérer que le Redshift soit le fruit d’un éloignement des galaxies les unes des autres.
Cette théorie a été mise en défaut car elle ne parvenait pas à expliquer certaines observations, notamment celles liées au transfert de référentiel temporel. Cependant, l'intuition de Fred Hoyle était probablement juste, en ce qui concerne l'idée d'un univers d'une certaine manière infini et statique.
Aujourd’hui, les observations sont nombreuses qui posent des problèmes à la théorie standard, principalement ceux concernant la compatibilité des scénarios d’évolution des structures avec un déroulement de l’univers de type big-bang. Cependant, tant que l’on ne prendra pas en compte des phénomènes d’interférences dans l’analyse des rayonnements lointain, alors la communité scientifique a des chances de rester sur ce modèle.
De ce fait, la dispersion sur les interprétations des observations a des chances de grandir, tant le modèle λCDM peine à expliquer le fonctionnement de l’univers. Certains envisagent de garder la théorie du big-bang tout en éloignant la date de début. D’autres s’orientent vers l’influence de mondes parallèles ou miroir pour expliquer l’évolution des grandes structures. D’autres encore envisagent une gravité modifiée, mais toujours dans le cadre du big-bang, cela ne fournira pas d’explications aux évolutions des grandes structures.
Certaines nouvelles théories tentent de concilier un scénario de type big-bang avec les inhomogénéités profondes de l’univers « jeune » et la formation précoces de trous noirs super massif très « tôt » dans le modèle du big-bang. Il s’agit des théories d’univers cycliques ou l’existence de multivers. Mais celles-ci posent problèmes par rapport à l’homogénéité du fond diffus cosmologique, et elles ne font que repousser les contradictions du big-bang, sans permettre de comprendre les mécanismes sous-jacents aux observations.
Bien que ces hypothèses semblent répondre aux observations, elles amènent d’autres questions, quels seraient les mécanismes d’évolution de ces rebonds ? ou comment se maintient le principe de causalité (dans le cas des multivers ou univers parallèles) ?
La cosmologie d’entropie cyclique décrite ici s’appuie sur des données de vulgarisation, bien qu’imprécise, il semble que celle-ci apporte une explication plus crédible de la réalité. L’univers serait bien infini en dimension, statique et infini dans les temps du point de vue causalité.
Il faudrait que l’on dépasse la théorie de la relativité générale, pour cela, il faut départager ce qui est juste dans les concepts d’Albert Einstein, et ce qui est sans doute faux.
En associant les mouvements des corps célestes à un espace à quatre dimensions, Einstein aurait remis en cause, sur le fond, que la gravité soit liée a à une propriété de masse intrinsèque à la matière, cela à donner la métrique de Schwarz Schild, seule partie qui fonctionnerait réellement de la relativité générale, pour le calcul de trajectoires sur des temps relativement courts.
En revanche, Einstein a présupposé que le vide soit vide, et que ce vide soit homogène dans l’univers, pour réussir à établir une formulation de l’univers tout entier. Et cette hypothèse serait fausse, paradoxalement, ce serait cette hypothèse qui aurait donné lieu au concept de matière noire, ce qui est précisément une absence d’homogénéité de l’univers.
Il est donc nécessaire de dépasser les théories d'Einstein, tout comme Einstein avait dépassé celles de Newton à son époque. Il faudrait introduire dans la métrique de Schwarz Schild une variation relative de la masse (le concept de masse étant utilisé uniquement pour les calculs). En intégrant ce nouveau paramètre, nous pourrions mieux comprendre les évolutions stellaires.
Il serait pertinent de remettre en question certaines notions fondamentales, telles que l'invariabilité de la vitesse de la lumière et la dualité onde-particule. Faut-il considérer une dualité d’états simultanés ou une dualité d’états possibles, sachant que la mesure elle-même induit un stress géométrique déterminant ? L’expérience des fentes de Young démontre que les ondes peuvent interférer entre elles, tandis que la présence matérielle d’un capteur semble provoquer une transition onde-particule, empêchant ainsi de définir la nature intrinsèque de la lumière indépendamment de l'observation. Dans cette approche, la lumière serait la forme de matière la plus élémentaire, capable d’exister sous deux états distincts — onde ou particule — et de passer facilement de l’un à l’autre en fonction du stress géométrique qui lui est appliqué.

Conclusion

Il serait essentiel de prendre en compte les phénomènes d'interférence, ce qui impliquerait d'intégrer la variation des caractéristiques de l'observateur pendant le temps de propagation des ondes qui lui parviennent de l'espace lointain. Ce décalage entre ses caractéristiques passées et présentes au moment de la réception de l'onde affecterait la perception des événements observés. Cela impliquerait la nécessité de réaliser un transfert de référentiel, en tenant compte des caractéristiques de l'observateur au moment cosmique où l'événement passé a eu lieu. Cela devrait se faire pour tous les aspects de la physique : dimension, thermique, déroulement relatif du temps.
Ce n'est que de cette manière que l'on pourrait expliquer le Redshift (en raison de la variabilité des dimensions), les températures des corps les plus froids (en raison de la variabilité de la température de l'observateur au moment de l'émission), et la vitesse du déroulement du temps (en raison de la variabilité du déroulement du temps pour l'observateur).
Si l'on considère un univers globalement plat, il y aurait une transformation d'énergie en matière à la périphérie des galaxies, et inversement, une transformation de matière en énergie au centre des trous noirs. C'est pourquoi cette cosmologie est qualifiée d'entropie cyclique, car elle impliquerait des processus de création et de destruction entropique.
Il ne resterait plus beaucoup de paradoxes, ceux issus du modèle standard n’étant globalement plus présents. Citons juste les plus problématiques :
La « platitude de l’Univers » qui correspond à l’homogénéité du fond diffus cosmologie s’expliquerait par le fait que cette homogénéité globale soit issue de la nucléosynthèse de notre propre zone de l’univers, elle-même dépendante d’une dilution sans entraves de l’énergie dans le vide.
L’absence d’antimatière « naturelle » dans l’univers viendrait du fait que la production d’antimatière serait liée à des effets dynamiques transitoire, soit dans le cadre d’essais au LHC, soit dans le cadre de transitions violentes en bordures de galaxie.
L’absence de particule candidate pour la matière noire confirmerait que cette hypothèse (matière noire étant de la matière qui n’interagirait que par effet de gravité) serait abusivement employée pour expliquer toutes les formes de masses perçues sans relation avec le calcul standard.
Les variations du Redshift pourraient être expliquées par l’histoire du système solaire. La tension sur les valeurs de la constante H0 serait due au fait que le Redshift résulte de variations au dimensions atomiques. On note que ladite accélération de l’univers, 8 milliards d’années après le big-bang, coïncide avec la date de formation du système solaire.
L’univers serait constitué d’un espace-temps plat sur lequel évoluent des bulles d’espace-temps courbe (galaxies), il semblerait infini dans l’espace et le temps.
Le processus de nucléosynthèse devrait être réévalué, en prenant en compte des conditions physiques variables selon les zones de densité. Cela inclut les régions externes des galaxies, les axes de diffusion des trous noirs, et plus généralement, les transitions entre les différentes zones de densité.
Les grandes structures évolueraient selon des mécanismes dictés par les lois de la physique et les déformations de l'espace-temps. Celles qui existent actuellement auraient une histoire bien plus ancienne que les 13,8 milliards d'années terrestres généralement attribuées.
La présentation de cette cosmologie est ici très brève, car les moyens pour vérifier les hypothèses sont limités, tant en termes d'observations que de calculs empiriques. Ces hypothèses offre cependant une vision cohérente du fonctionnement de l’univers dignes d’être vérifiées dans un futur que nous espérons proche.

Table des Illustrations

Figure 1 : La galaxie massive ZF-UDS-7329 © NASA/Cover Images/SIPA Valisoa Rasolofo & J. Paiano·23 février 2024

Figure 2 Source Ciel & espace, no 590, août-septembre 2023

Figure 3 Equation de la relativité générale

Figure 4 Source NewScientist : How redshift colours our view of the history of the universe, 14 october 2015/

Figure 5 Science post : Qu’est-ce que le fond diffus cosmologique, et pourquoi est-il aussi important. Brice Louvet, expert espace et sciences 7 juillet 2023, 16 h 23 min

Figure 6 Mesure des corps les plus froids selon les âges d’observation, illustration de l’auteur inspirée de « La Crédibilité de la théorie du big bang » Hubert Reeves, 21 nov. 2014

Figure 7 Illustration de conférence « L'Avenir de la vie sur Terre », Le 27 avril 2017

Figure 8 Les galaxies primordiales avec le télescope James Webb ». Société astronomique de France, Mercredi 8 février 2023 à 19h

Figure 9 sciencepost.fr image du télescope Webb de l’amas de galaxies SMACS 0723. Les premières galaxies de l’Univers sont étonnamment brillantes. Par Brice Louvet. 10 novembre 2023

Figure 10 Extrait d’une conférence « Mesurer les déformations de l’espace-temps avec la déviation de la lumière » Camille Bonvin et Nastassia Grimm. 23 Décembre 2023, GENEVA

Figure 11 Illustration de l'auteur, portée du regard

Figure 12 public.planck.fr/résultats/221-le-ciel-vu-par-planck-en-couleur, 10 déc. 2013

Figure 13 : Images Bing : à gauche une représentation de l’espace -temps courbé par la présence de la terre, à droite une représentation de l’espace -temps courbé par des corps plus massifs, étoiles à neutrons et trous noirs

Figure 14 Trou noir supermassif : un quasar naissant observé par Alma, Futura science 31 LAURENT SACCO mars 2020

Figure 15 Vue d’un champ d’observation de l’Univers. Conférence à l’Institut astronomique de Paris, La 5e nuit de l’astronomie de l’IAP, « Modéliser l’univers sur un ordinateur ». 17 juin 2023

Figure 16 : 1 : Conférence IPR Françoise COMBES 2 mai 2017, 2 : Pourquoi la formation des galaxies est-elle inefficace ? Pierre Guillard (IAP) 4 Avril 2023

Figure 17 NGC 1277, image Hubble space Tlescope / Nasa

Figure 18 : Dans cette simulation, où chaque point est une galaxie, l’univers apparaît avec une structure filamentaire à grande échelle. (Https://irfu.cea.fr/Phocea/Vie_des_labos/Ast/ast.php?id_ast=3859, 18 janvier 2017)

Figure 19 Cette vue d’artiste (qui n’est pas à l’échelle) illustre la trajectoire du sursaut radio rapide FRB 20220610A, Par Jean-Baptiste Jacquin. Publié le 24 octobre 2023 à 19h00

Figure 20 Illustration de l'auteur

Figure 21 « Observation inédite du magnétisme de Sgr A*, trou noir central de notre galaxie » Ça se passe là-haut, 4 déc. 2015

Figure 22 : Forces de Casimir sur des plaques parallèles

Figure 23 Conférence à l’IAP, « Modéliser l’univers sur un ordinateur ». Samedi 17 Juin 2023. Extrait choisi de cette conférence.

Figure 24 Nasa, ESA, The Hubble Heritage. NGC 1068. Futura-science, le 11 déc. 2019

Figure 25 Extrait de conférence, Institut d’astrophysique de Paris, avril 2023

Figure 26 « Espace de Minkowski », Wikipédia, 11 novembre 2023

Figure 27 Vue des objets lointains du système solaire, au-delà des huit planètes connues, image extraite d’un article de national géographique de Nadia Drake

Figure 28 Des astronomes découvrent une nouvelle galaxie « quasi sombre ». Sciencepost, le 26 octobre 2023, 16 h 04 min

Figure 29 photographiques de 1952. © PALOMAR OBSERVATORY/SOLANO, ET AL, futura-sciences.com/sciences/actualites/astronomie

Figure 30 https://fr.wikibooks.org/wiki/Le_noyau_atomique/La_loi_de_désintégration_radioactive

Figure 31 Illustration artistique « Des neutrinos provenant du centre de la Voie lactée détectés pour la première fois » Source : Radio-Canada.ca, 12 juillet 2023

Figure 32 Visualisation de la déformation latérale apparente. Source : Techno-Science.net actualité/matière-noire-déforme-considérablement-notre-galaxie, le 04/10/2023

Figure 33 Vitesse de rotation des étoiles dans la galaxie spirale NGC 6946 en fonction de leur distance (en Mpc). Source : Futura-science.com le 05/10/2012

Figure 34 image du télescope Hubble du transitoire optique bleu rapide lumineux (LFBOT) AT2023FHN, HUBBLESITE, 5 October 2023

Figure 35 Nébuleuse d'Orion, David Duarte Astrophotographie

Figure 36 © NASA, ESA, CSA, A. Levan (Université Radboud) 24 novembre 2023

Figure 37 © NASA, ESA, CSA, Joseph Olmsted (STScI)39 24 novembre 2023

Figure 38 En entrant dans l'atmosphère, la particule provoque des réactions en chaine détectées par le Telescope Array aux Etats-Unis

Bibliographie

SIMON SINGH, Le roman du big bang, Edition Pluriel, Juillet 2011

Glazebrook, Karl, Nanayakkara, Themiya, Schreiber, A massive galaxy that formed its stars at z∼11 ARXIV [2308.05606], fevrier 2024

EVRARD-OUICEM ELJAOUHARI, LE JOUR ou l’univers à basculé, Ciel & espace no 590, août-septembre 2023

ANDREW PONTZEN, How redshift colours our view of the history of the universe, NewScientist, 14 OCTOBRE 2015

BRICE LOUVET, Qu’est-ce que le fond diffus cosmologique, et pourquoi est-il aussi important, Science post, 7 juillet 2023.

FABRICE NICOT, Comment-se-sont-formes-les-trous-noirs-les-plus-massifs-de-l-univers, Science et avenir, le 11.03.2021.

FELIPE ASENJIO, Electromagnetic redshift in anisotropic cosmologies, ARXIV [1801.05472], 2018/01/16

DANIEL WHALEN, radio emission from a $z =$ 10.3 Black Hole in UHZ1, ARXIV [2308.03837], 11 Sep 2023

LAURENT SACCO, Trou noir supermassif : un quasar naissant observé par Alma, Futura science, 31/03/2020

ADRIEN, Des astronomes détectent d’inexplicables sursauts radio, Techno-Science.net, 28/10/2023

Jean-Baptiste Jacquin, Un sursaut radio rapide vieux de 8 milliards d’années, LE MONDE, 24 octobre 2023

DONALD PELLETIER ET AL., NGC1277 galaxie lenticulaire située dans la constellation de Persée WIKIPEDIA, 7 janvier 2024

M. Johnson et al., Observation inédite du magnétisme de Sgr A*, trou noir central de notre galaxie, Ça se passe là-haut, 4 déc. 2015

Nathalie Mayer, Les champs magnétiques façonnent les galaxies spirales comme la Voie lactée, Futura Science, 11 déc. 2019

Henri Poincaré et al, Espace de Minkowski », Wikipédia, 11 novembre 2023

Geraint Lewis, Dans les premiers temps de l'Univers, le temps paraît s'écouler cinq fois plus lentement, GEO AVEC AFP, le 09/07/2023

Fabrice Nicot, Découverte de l'écho d'un festin cosmique datant de 200 ans, Sciences et avenir, le 21.06.2023

Brice Louvet, Des astronomes découvrent une nouvelle galaxie « quasi sombre », Sciencepost, lE 26 octobre 2023

Brice Louvet, Les premières galaxies de l’Univers sont étonnamment brillantes, Sciencepost, 10/11/2023

collaboration Planck, UN REGARD VERS L’ORIGINE DE L’UNIVERS, PUBLIC.PLANCK, le 11 janvier 2011

Mewtow, Le noyau atomique/La loi de désintégration radioactive, WIKIBOOKS.ORG, 14 decembre 2023

ALAIN LABELLE, Des neutrinos provenant du centre de la Voie lactée détectés pour la première fois, RADIO-CANADA, 12 juillet 2023

ADRIEN, La matiere-noire-deforme-considerablement-notre-galaxie, Techno-Science.net, le 04/10/2023

Théorie Mond : qu'est-ce que c'est ? FutuRA SCIENCE le 05/10/2012

Ashley Chrimes, AT2023fhn (le pinson) : transitoire optique rapide bleu à grande distance de sa galaxie hôte, ARXIV [2307.01771] le 3 octobre 2023

article inspiré des travaux de Kenzo Ishikawa, Interactions neutrino-photons : percer les mystères de la physique des particules, ISSUES.FR, Septembre 2023

ADRIEN, Une enveloppe à la température inimaginable entoure notre galaxie: d'où vient-elle ?, Techno-Science.net, le 21/12/2024

SOURCES AUDIO

La Crédibilité de la théorie du big bang » Hubert Reeves, 21 nov. 2014

L'Avenir de la vie sur Terre », Hubert Reeves, Le 27 avril 2017

LA théorie de la relativité restreinte, SCIENCE étonnante, 2018

LA relativité générale, SCIENCE étonnante, 2019

Expansion de l’Univers et controverse cosmologique », Louise Breuval 17 nov 2022

Conférence à l’Institut astronomique de Paris, « Un Univers synthétique à la rescousse pour comprendre le nôtre, à l'ère du JWST et de Euclid » Clotilde Laigle, 17 Juin 2023

Pourquoi la formation des galaxies est-elle inefficace. Pierre Gaillard (IAP) 4 avril 2023

Conférence à l’IAP, « Modéliser l’univers sur un ordinateur ». Samedi 17 juin 2023

Les galaxies primordiales avec le télescope James Webb ». Société astronomique de France, Mercredi 8 février 2023 à 19h

Mesurer les déformations de l'espace-temps avec la déviation de la lumière, COSMIC BLUESHIFT, UNIVERSITE DE GENEVE, SEPTEMBRE 2023 

Information chronologique :
Reflexion échelonnée sur un peu plus d'une anneE, mis en ligne le 1er Janvier 2025

Pourquoi nous contacter

Découvrez ce qui a permis ce développement.

Conclusions cohérentes

Modèle de cosmologie offrant des conclusions plus cohérentes et convaincantes.

Expertise JWST

Informations basées sur les observations du télescope JWST de pointe.

Réflexion approfondie

Une approche réfléchie aux paradoxes cosmologiques pour un modèle plus solide.

Coordonnées de Contact

Trouvez-nous au 3 Rue De la Justice Pourpre. Contactez-nous au +33624781070 ou par email à alaingilles.delatorre@laposte.net.

3 Rue De La Justice Pourpre

+33624781070

alaingilles.delatorre@laposte.net

Le dimanche: fermé, du lundi au vendredi: de 8 h à 18 h, le samedi: de 10 h à 16 h

Questions Fréquentes

Réponses aux interrogations courantes sur la cosmologie de l'entropie cyclique.

Qu'est-ce que la cosmologie de l'entropie cyclique?

La cosmologie de l'entropie cyclique est un modèle cohérent basé sur les observations cosmiques et la résolution des paradoxes.

Quelles observations soutiennent ce modèle?

Les observations du télescope JWST ont contribué à l'élaboration de ce modèle cosmologique.

Comment contacter le cosmologue Alain-Gilles Delatorre?

Vous pouvez contacter Alain-Gilles Delatorre par téléphone au +33624781070 ou par email à alaingilles.delatorre@laposte.net.

Quelle est l'adresse du cosmologue Alain-Gilles Delatorre?

Le cosmologue Alain-Gilles Delatorre est basé au 3 Rue De la Justice Pourpre.

Ce modèle propose-t-il des solutions aux paradoxes cosmologiques?

Oui, ce modèle de cosmologie offre des conclusions plus cohérentes sur des paradoxes cosmologiques établis.

Quels sont les avantages de ce modèle?

Ce modèle fournit une perspective novatrice sur l'entropie cyclique et ses implications cosmologiques.

Découvrez l'univers à travers l'entropie

Explorez notre modèle cosmologique révolutionnaire basé sur l'entropie cyclique. Plongez dans les mystères de l'espace et repoussez les limites de la connaissance.