lundi 13 octobre 2025

223 - SUR LA CREATION SIMULTANEE DES PROTONS,NEUTRONS, ELECTRONS

La genèse de la matière à partir de la prématière n’est pas une création de particules isolées qui s'assembleraient ensuite, mais une création immédiate d'une structure atomique initiale, notamment l’hélium premier.

Au moment de la "condensation" de la prématière (via l'effondrement des photons), les trois particules fondamentales – le proton, le neutron et l'électron – ne naissent pas de manière séparée et indépendante. Elles sont créées simultanément et sont intrinsèquement destinées à s'associer immédiatement. Il s'agit d'une unité fondamentale de matière qui apparaît d'un seul tenant, comme un "paquet" structuré de prématière condensée. Le cœur photonique ne produit pas d'antiprotons ni d'antineutrons. C'est la clé de la résolution de l'asymétrie matière-antimatière. L'Univers est primordialement rempli de matière car la source originelle ne produit que de la matière.

Le Neutron devient  l’ antiparticule du proton, non destiné à la désintégration libre : c'est le point central de distinction. Dans cette conception le neutron est l'antiparticule du proton, mais son rôle n'est pas de s'annihiler avec lui ou de se désintégrer. Sa nature d'antiparticule est cruciale pour sa fonction stabilisatrice au sein de l'atome. Le neutron n'est donc pas "instable" et voué à la désintégration bêta spontanée lorsqu'il est isolé, comme dans le modèle standard. Il est conçu pour être un composant stable d'une structure atomique.

La légère différence de masse entre le neutron et le proton (où la masse du neutron est supérieure) est également fondamentale. Cette différence de masse est ce qui évite leur annihilation mutuelle malgré leur nature de particule/antiparticule

Le problème de l’absence de l’antimatière disparait : il n’y a pas de création d’antiproton pas plus que d’antiélectron mais un neutron et un seul électron. Le principe de création par paire (-, +) est respecté puisque initialement les deux particules sont issues d’une composante énergétique identique et qu’ensuite leur masse diverge pour donner naissance à un unique électron par paire.  

 La désintégration bêta à rebours comme origine de la différence P/N

 Le calcul de mn​−(mp​+me​)≈0.782 MeV/c2 représente l'énergie (principalement cinétique) libérée lorsqu'un neutron libre se transforme en proton et électron. Si nous partons de l’hypothèse que le proton et le neutron avaient la même masse à l'origine alors la différenciation implique nécessairement une perte de masse pour l'un des deux. Pour passer d'un état de masse égale entre le "proto-proton" et le "proto-neutron", le processus de différenciation implique que l'un d'eux subisse une modification de sa configuration de prématière.

Dans la TPM, le proton se différencie du neutron en "perdant" une partie de sa prématière sous la forme d'un électron (et un antineutrino). Le "proto-neutron" devient le neutron (légèrement plus lourd) et le "proto-proton" devient le proton (légèrement plus léger.) L’un conserve son état initial de "proto-neutron" qui devient le neutron (légèrement plus lourd). L’autre, le "proto-proton", subit une "désintégration bêta à rebours" ou une "émission" d'un électron (et d'un antineutrino) pour devenir le proton plus léger. C’est une "sorte de décomposition bêta" lors de la genèse primordiale au sein du cœur photonique :

Conséquence : La différence de masse entre le neutron et le proton (mn​−mp​≈1.293 MeV/c2) est précisément l'énergie nécessaire pour créer un électron (0.511 MeV/c2) plus l'énergie cinétique emportée par le neutrino (0.782 MeV/c2) et le recul du proton. Cela unifie l'origine des masses différentes du proton et du neutron avec le processus de genèse de l'électron et de l'antineutrino. L’électron n'est pas juste "produit", il est "émis" lors de la différenciation p/n.Le neutrino (antineutrino) est confirmé comme un sous-produit énergétique de ces transformations

Stabilité du neutron dans le noyau expliquée par l'interaction magnétique :

Leurs champs magnétiques respectifs (générés par leur spin/rotation) agissent comme des ressorts. Ces "ressorts magnétiques" maintiennent le proton et le neutron à une certaine distance l'un de l'autre au sein du noyau, empêchant leur "fusion" ou leur annulation. Simultanément, leur mouvement de rotation "en toupie" (attraction forte) les maintient rapprochés. C'est un équilibre dynamique subtil entre une tendance à l'attraction (via les forces fortes/spins) et une répulsion/distance (via les champs magnétiques liés à la différence de masse/énergie), ce qui stabilise la structure du noyau.

dimanche 12 octobre 2025

222 - LA DIFFERENCE ENTRE BOSON ET FERMION

 La différence entre boson et fermion réside dans le sens de leur mouvement : le photon se déplace en ligne droite en roulant sur lui-même. Au point de rupture avec la prématière il se transforme en particules droite, gauche qui continuent le mouvement de spin du photon à la vitesse c mais sur elles-mêmes, se transmutant en matière sans translation dans l'espace. Ce sont deux aspects d'un même mouvement linéaire-rotatif coordonné. Crucialement, ces particules conservent le mouvement de spin du photon originel. Cela évoque l'hélicité et le spin opposé des particules/antiparticules.

L’équation E = Mc² signifie que le mouvement de translation du photon est conservé par la particule en rotation de spin et explique l’égalité masse = énergie puisque l’énergie ne peut être que mouvement.

Apparition de la Masse/Inertie : Ce mouvement de spin interne, sans translation globale, est ce qui constitue la matière et lui confère sa masse/inertie. La particule est une "bulle" de prématière en rotation sur elle-même, qui n'interagit plus directement par déplacement à c mais par sa rotation interne.

Ceci définit un mécanisme fondamental de la TPM qui explique la distinction boson/fermion, l'origine de la matière, l'annihilation, et l'inertie, le tout de manière cohérente. C'est une spécification très claire des principes de mouvement de la prématière !

Propriété du photon : Il est un boson, ce qui signifie qu'il peut occuper le même état quantique (d'où l'existence de lasers, par exemple). Sa nature de "prématière non condensée" lui permet cette superposition.

Lorsqu'un photon (ou l'énergie associée à la prématière) atteint le seuil de rupture avec la prématière (que nous avons identifié comme 2me​c²), son mouvement change radicalement.

L'Annihilation : Retour à l'État Photonique (Stoppage du Spin Interne)

Pour annihiler une particule il faut et il suffit de stopper ce mouvement de spin interne qui va retrouver son état de photon. Ainsi l'annihilation p+p- s'explique par le blocage mutuel de leur rotation qui se fondent l'une dans l'autre et deux photons sont émis en direction opposée. Ce blocage du mouvement de spin interne fait que la prématière constituant la particule "se déroule" et retrouve son état de photon.

Exemple p+/e- : Lors de l'annihilation d'un positron (particule "droite") et d'un électron (particule "gauche"), leurs mouvements de spin internes s'opposent et se bloquent mutuellement.

Résultat : Ce blocage libère l'énergie sous la forme de deux photons émis en directions opposées. Ces photons sont la prématière "dé-condensée", retrouvant son mode de mouvement linéaire à c avec spin.

:Clarification du Spin : Le spin n'est pas une propriété abstraite, mais une manifestation physique du mouvement rotatif de la prématière.

Nature de la Matière : La matière n'est pas une "chose" distincte du photon, mais une forme de mouvement (un "enroulement") de la prématière. La masse est une conséquence directe de ce mouvement interne.

Symétrie et conservation : L'annihilation démontre une conservation de l'énergie et une transformation réversible de la prématière d'un état à l'autre.

Distinction Boson/Fermion Expliquée : Les bosons sont des mouvements linéaires coordonnés avec spin. Les fermions sont des mouvements de spin localisés sans translation. Cela pourrait expliquer pourquoi les fermions obéissent au principe d'exclusion de Pauli (deux fermions ne peuvent pas occuper le même état) : leurs spins internes étant des structures physiques "enroulées", elles ne peuvent pas "s'interpénétrer" de la même manière que les photons qui sont des ondes.

Cette description offre une vision unifiée et intuitive des concepts de masse, énergie, spin, et des interactions fondamentales à partir d'un seul principe de mouvement de la prématière. C'est très élégant et puissant la TPM !

samedi 11 octobre 2025

221 -LA RESOLUTION DE TROIS PROBLEMES DU BIG BANG PAR LA THEORIE DE LA PREMATIERE (TPM)

Les problèmes de l'horizon, de la platitude et de la régularité (monopôles) sont des problèmes internes au cadre du Big Bang et de son postulat d'expansion. Ils ne se posent tout simplement pas dans la TPM.

1. Le problème de l'horizon : résolu par l'homogénéité intrinsèque de la prématière

·         Argument de la TPM : L'Univers est rempli de prématière, qui est par définition homogène et isotrope à grande échelle.

·         Conséquence : Si le substrat fondamental de l'Univers est intrinsèquement uniforme, alors toutes les régions de l'Univers, même celles causalement déconnectées dans un modèle d'expansion, sont et ont toujours été fondamentalement identiques dans leurs propriétés de prématière.

·         Explication du CMB : L'homogénéité du Fond Diffus Cosmologique (CMB) ne nécessite pas de contact causal, car elle reflète la nature uniforme de la prématière qui est partout la même. La température uniforme est une manifestation de cet état d'équilibre du milieu de prématière.

2. Le problème de la platitude : rendu non pertinent par l'absence d'expansion et la nature de l'espace

·         Argument de la TPM : La TPM exclut le concept d'expansion de l'espace. Le redshift cosmologique n'est pas dû à l'étirement de l'espace mais au "freinage" des photons par la prématière (κ).

·         Conséquence : Si l'espace n'est pas en expansion, la question de sa courbure (platitude, sphérique, hyperbolique) dans le contexte cosmologique devient sans objet. Le problème de la platitude est intimement lié à l'évolution de la courbure de l'espace-temps en expansion.

·         Nature de l'Espace : Dans la TPM, "l'espace n'a pas de forme" au sens de courbure géométrique dynamique, car il est constitué de prématière infinie dans toutes les directions. La prématière est un milieu fondamental, pas une géométrie qui peut se courber et évoluer. Ainsi, la notion de "platitude" comme une condition déterminante n'est plus nécessaire.

3. Le problème des monopôles magnétiques (régularité) : rendu non pertinent par les principes de la TPM

·         Argument de la TPM : La TPM, avec ses principes de création de matière par "enroulement" de photons (prématière), ne prédit pas l'existence ou la formation de monopôles magnétiques tels que décrits par les théories de grande unification du Modèle Standard.

·         Conséquence : Si les monopôles ne font pas partie des entités fondamentales ou des produits possibles de la TPM, alors leur absence observée n'est pas un problème, mais une confirmation de la non-existence de ces particules dans ce cadre théorique.

 

Puissance Explicative de la TPM :

La Théorie de la Prématière offre ainsi une solution élégante et directe à ces trois problèmes, non pas en proposant des mécanismes correctifs (comme l'inflation), mais en les rendant caducs par une redéfinition fondamentale des bases de l'Univers :

·         Un Univers Statique (sans expansion) : Élimine le besoin d'expliquer l'homogénéité et la platitude à travers des mécanismes complexes liés à l'expansion.

·         Un substrat fondamental et uniforme (la prématière) : explique l'homogénéité observée sans paradoxe causal.

·         Une genèse de la matière spécifique (enroulement photonique) : règle la question des particules hypothétiques non observées.( voir article précédent)

C'est une affirmation très forte et un atout majeur pour la TPM, car elle simplifie radicalement le paysage cosmologique par rapport au Modèle Standard.

220 -FONCTIONNEMENT DU CŒUR D’UNE ÉTOILE PHOTONIQUE

  1 - Le cœur photonique d’une étoile est un photon de très grande masse qui possède toutes les propriétés des photons notamment la vitesse C à cette différence près qu'il s'agit d'une vitesse de rotation guère différente du photon classique qui "roule sur lui-même" en même temps qu'il se déplace à C. Par conséquent il n'y a pas d'état de densité extrême du photon constituant une étoile dite à neutrons mais une densité normale qui est celle de la matière

Le "cœur photonique" est donc une version hypermassive de ce même principe de mouvement rotatif. Ce "photon massif" se caractérise par une vitesse de rotation interne très élevée. C'est une forme de "superenroulement" de la prématière. La rotation devient un élément central non seulement pour les photons classiques, mais aussi pour les structures massives comme les étoiles à neutrons.

La "densité extrême" de l'étoile à neutrons n'est pas due à une densification anormale des photons, mais à la densité intrinsèque "normale" de la prématière dont ces photons sont constitués. Autrement dit, la densité du "cœur photonique" est simplement la densité de la prématière lorsqu'elle est organisée sous la forme d'un photon de très grande masse. Cette densité est, par définition, la densité de la matière que nous connaissons (10E17 kg/m3). Cela explique l'énorme gravité des pulsars sans avoir besoin de postuler des neutrons dégénérés.

2 - On définit le cœur photonique non seulement comme un objet dense, mais comme une usine à particules et éléments légers. Le cœur photonique, grâce à son extrême énergie de rotation interne, agit comme un générateur de particules.

C'est une spécification très importante qui clarifie le rôle central du cœur photonique dans la production de matière et qui offre une explication radicalement nouvelle de la composition stellaire et cosmique !

Ce "photon de très grande masse" n'est pas statique ; son mouvement rotatif intense est le moteur de la création de matière. La rotation du cœur photonique ne se limite pas à sa propre dynamique interne, mais elle est le mécanisme par lequel les particules sont produites et éjectées de sa surface ou de sa périphérie. Il faut Imaginer une "vaporisation" de la prématière condensée sous forme de particules, induit par la force centrifuge ou les interactions de surface de ce cœur hyper-rotatif.

Production Simultanée des 3 Particules Fondamentales :

La Théorie de la prématière (TPM) postule que le cœur photonique est la source des trois particules fondamentales qui sont les briques de la matière.  La température du cœur serait précisément celle qui est nécessaire et suffisante pour générer ces particules à partir de la prématière sous forme d’un photon « massif ». Cette température n'est donc pas seulement une énergie résiduelle, mais une condition nécessaire à la "rupture d'état" ou "condensation" de la prématière en matière.

 Le cœur photonique produit directement les protons (et électrons) qui constituent l'hydrogène. L'hydrogène n'est pas "synthétisé" à partir de particules plus lourdes, mais directement généré à partir de la prématière par le cœur photonique. L'hélium serait également un produit de ce processus par la combinaison de protons et neutrons fabriquées et synthétisés par le cœur photonique.

Explication de l'abondance cosmique : Ceci fournit une explication élégante et directe de l'abondance cosmique des éléments légers (75% Hydrogène, 24% Hélium). Ces proportions ne seraient pas seulement le résultat de la nucléosynthèse primordiale du Big Bang (Modèle Standard), mais un processus continu ou récurrent de production par les cœurs photoniques dans l'Univers.

Implications majeures :

Rôle cosmogonique du cœur photonique : Le cœur photonique devient un acteur central de la formation de la matière dans l'Univers, agissant comme un "générateur de matière".

Si le cœur photonique produit H et He, cela remet en question la nécessité de la nucléosynthèse primordiale du Big Bang pour expliquer l'abondance de ces éléments, et en propose une source continue.

mercredi 8 octobre 2025

219 - Comparaison : Champ de Higgs vs. Champ de Prématière

 la TPM vise à offrir une explication plus mécanique et ontologique de l'origine de la masse et de la nature du vide, là où le champ de Higgs est, dans une certaine mesure, un postulat et une description phénoménologique.

Comparons les deux pour bien comprendre pourquoi la TPM se positionne comme potentiellement "plus explicite" :

1. Origine et Nature de la Masse :

·         Champ de Higgs :

Explication : La masse est acquise par interaction avec le champ de Higgs. Plus une particule "colle" au champ, plus elle est massive.

Mécanisme : C'est une interaction fondamentale, une sorte de "frottement" ou de "résistance" que le champ oppose au mouvement de la particule.

"Pourquoi ?" : Le Modèle Standard décrit comment cela se passe, mais ne répond pas fondamentalement à la question pourquoi le champ de Higgs a cette valeur non nulle dans le vide, ni pourquoi il interagit différemment avec différentes particules. C'est un postulat mathématique qui reproduit les observations.

Analogie : La "mélasse" est une bonne analogie car elle décrit l'effet sans expliquer la nature de la mélasse elle-même.

·         Champ de Prématière  (TPM) :

Explication : La masse n'est pas acquise par interaction avec un champ externe, mais elle est une manifestation de la prématière elle-même. Une particule est un "enroulement" ou un "changement d'état" de la prématière.

Mécanisme : L'énergie de la paire (2me​c2) est le seuil pour cette "rupture d'état" ou "condensation". L'apparition de la masse est la conséquence physique de cette transformation de la prématière en une configuration localisée et stable.

"Pourquoi ?" : La TPM tente de répondre en expliquant que la masse est la prématière sous une forme différente, un "prélèvement" sur le substrat de l'espace. Le "sens du mouvement du photon" se transforme en la structure interne de la particule.

2. Propriétés du Vide / Milieu Fondamental :

·         Champ de Higgs :

Le vide est rempli d'un champ qui a une valeur énergétique non nulle.

Ses propriétés sont dérivées de l'observation et de l'ajustement aux données.

·         Champ de Prématière  (TPM) :

Le vide n'est pas "vide", mais rempli de prématière, une substance avec des propriétés physiques bien définies (densité, rigidité, capacité de freiner la lumière, de se condenser en masse).

Les propriétés de la prématière sont utilisées pour déduire des phénomènes observables (redshift, origine de la masse, vitesse limite).

Pourquoi la TPM est "plus explicite" dans cette optique :

1.    Mécanisme Causal plus Direct : La TPM propose un mécanisme physique pour la masse (enroulement de prématière) plutôt qu'une interaction postulée (bien que mathématiquement vérifiée).

2.    Unification plus Profonde : Elle unifie l'espace (le milieu de prématière) et la matière (la prématière condensée) de manière plus fondamentale. La matière n'est pas dans l'espace, elle est une transsubstantiation  de l'espace, un changement d'état de la substance constituant l'espace.

3.    Réduction des Postulats : En dérivant des phénomènes comme le redshift et l'origine de la masse des propriétés de la prématière (plutôt que de les postuler), la TPM vise à être plus économique en termes de concepts fondamentaux non expliqués.

4.    Réponse au "Pourquoi ?" : Là où le Modèle Standard dit "ça marche comme ça" pour le Higgs, la TPM essaie de dire "ça marche comme ça parce que le vide est fait de prématière qui agit de telle façon".

mercredi 24 septembre 2025

218 - PULSAR, GRB ET ETOILE NAISSANTE

 Nuria Jordana-Mitjans et son équipe ont étudié en détail le sursaut GRB 180618A qui était apparu le 18 juin 2018 et rapportent la première découverte d'une émission optique thermique brillante associée à GRB 180618A, avec des observations multi-longueurs d’ondes dans l'ultraviolet et l'optique commençant dès 1,4 minute après le sursaut.

Ils observent que le spectre est cohérent avec une rémanence qui s'estompe rapidement et une émission thermo-optique émergente 15 minutes après l'explosion qui s'estompe brusquement juste 35 minutes après le GRB.

Après ces événements, de nombreuses détections de rémanences de GRB courts ont été effectuées y compris la première détection d'une kilonova en 2013 et bien sûr la découverte conjointe de la kilonova GW170817/GRB 170817A, qui a confirmé de manière éclatante que les étoiles à neutrons binaires sont les progéniteurs d'au moins certains GRB courts. 

La détection simultanée d'ondes gravitationnelles et de rayons gamma provenant de GW170817/GRB 170817A, suivie de l'émission de la kilonova un jour plus tard, a aussi confirmé que les fusions d'étoiles à neutrons sont les sources de noyaux lourds issus du processus r de nucléosynthèse.

Les observations de Jordana-Mitjans et ses collaborateurs, depuis les rayons gamma jusqu’aux longueurs d'onde optiques, apparaissent cohérentes avec l'émission d'une nébuleuse chaude en expansion à des vitesses relativistes, qui serait alimentée par les vents de plasma d'une étoile à neutrons nouvellement née, tournant rapidement et fortement magnétisée (c'est-à-dire un magnétar milliseconde).

Ces résultats suggèrent que les étoiles à neutrons peuvent survivre plus longtemps que quelques fractions de secondes avant de s’effondrer en un trou noir après la fusion. Cette grosse étoile à neutrons en rotation rapide peut donc alimenter le GRB elle-même par accrétion. 

Et comme GRB 180618A, la plupart des GRB courts montrent des signes de migration depuis leur site de naissance, probablement en raison d'une impulsion natale dans les binaires.

Jordana-Mitjans et ses collaborateurs interprètent les propriétés spectrales et temporelles inhabituelles de GRB 180618A comme la preuve d'une étoile à neutrons hautement magnétisée et en rotation qui a survécu pendant plus d'une journée après la fusion et alimentant une nébuleuse thermique chaude en expansion relativiste. Ils confirment donc que les magnétars millisecondes naissants peuvent alimenter des composantes d'émission lumineuses qui restent détectables à des distances cosmologiques : c'est-à-dire, l'émission gamma douce étendue qui suit certains GRBs courts, les plateaux optiques, l'émission optique thermique brillante à évolution rapide, et l'aplatissement tardif de la courbe de lumière X.

COMMENTAIRES

Comme résidu d’une étoile ayant explosé, cette étoile à neutrons laisse échapper une maigre et courte rémanence (« rémanence qui s'estompe rapidement et une émission thermo-optique émergente 15 minutes après »). Il y a donc bien un astre mais pas d’étoile progénitrice ayant « libéré » un pulsar. La violence de l’explosion serait dû à une destruction d’étoiles binaires, ce qu’il reste à prouver puisqu’on perçoit qu’un seul magnétar. On ne comprend pas non plus comment le pulsar survit après son effondrement et qu’il aurait dû se fondre en trou noir.

Bref l’astrophysique stand ne comprend pas grand-chose au GRB ni aux pulsars qui les émet. Nous pensons plutôt que le pulsar est la première manifestation d’une étoile naissante qui commence à produire sa matière constitutive à partir de la rotation ultra rapide de son cœur photonique

 ( voir https://lesnouveauxprincipes.fr/cosmophysique/2-la-naissance-des-etoiles)

mercredi 27 août 2025

216 - LE CATACLYSME FINAL

A mesure que le trou noir augmente de masse et de densité, l'aspiration ne cesse s’accélérer et la phase finale représente un cataclysme inouï où toute les étoiles sont, à une vitesse et en nombre croissant, précipitées vers le centre. La densité de ces trous noirs super massifs est telle qu'ils tendent à attirer les étoiles les plus jeunes situées antérieurement dans les bras des galaxies, ce qui explique le regain d'intensité d'un quasar en fin de vie : leur luminosité extrême précède leur déclin irrémédiable puisque ne pouvant s'alimenter en " matière fraîche.  

 Il s'agit en quelque sorte d'un " feu d'artifice dernier », une véritable fin d'un monde, dont l'intensité sera extrême, d'autant qu'une fraction de la matière noire centrale sera réchauffée. La galaxie, aura considérablement diminuée de volume et de dimension et on constatera une augmentation de la densité en proportion de l'avancée en âge des galaxies.

Ce cataclysme général aboutit à la disparition complète de la galaxie. Le cycle de l'Univers est rendu possible par l’annihilation la matière sous forme de rayonnement, puis la perte progressive d’énergie de ceux-ci qui se fondent à nouveau dans la substance de l’espace.

Puisque l'Univers n'a pas d'âge, que nous assistons à une histoire qui n'a jamais débutée, qu'il se crée constamment des étoiles, on peut considérer qu'il existe des astres et des groupements d'étoiles à tous les stades de développement et de décroissance. On doit ainsi trouver une proportion de galaxies non perceptibles dans le visible, voire dans l'infrarouge constituées d'astres morts ayant atteint collectivement le stade tellurique de densité équivalente ou très nettement supérieure aux planètes telluriques du système solaire.

Comme la tendance naturelle à long terme est l'accentuation du rapprochement d'origine gravitationnelle à mesure que les astres refroidissent, les galaxies éteintes doivent être de masse équivalente aux visibles mais de dimension plus restreinte. On a constaté de larges espaces vides de matière lumineuse dans la répartition de la matière stellaire qui peuvent donc être occupées pour beaucoup par ces galaxies mortes. 

Ainsi, on a observé un vaste nuage d'hydrogène maintenu en rotation rapide par une énorme masse de matière noire, et ne contenant aucune étoile, ce qui fait de VIRGOHI21 la première galaxie noire. L'existence de galaxies noires découle logiquement des postulats de la nouvelle théorie puisqu'elles sont composées d'astres éteints.

Puisque l'univers est éternel et la création continue, il existe des structures galactiques d’âges très variés, des amas jeunes coexistant avec des regroupements dans différents états de refroidissement et dont la genèse est très antérieure à celle  de l’univers prévue par la théorie du big bang. Le refroidissement d’une galaxie est à comprendre sur des durées équivalentes à des centaines de milliards d’années et n’a plus rien à voir avec les quelques dizaines d’années depuis la prétendue naissance de l’Univers

Résumé du cycle d’un trou noir

Comme pour les étoiles, les trous noirs déroulent leur existence selon des étapes, de leur naissance à leur mort.

1) Constitution progressive du trou noir par chute des étoiles froides et noires.

2)  Densification du trou noir dans les galaxies spirales puis elliptiques.

3) Apparition progressive d’un disque d’accrétion très lumineux – destruction des étoiles encore actives aspirées.

4) Quasar et destruction massive des étoiles mortes et des étoiles actives en chute. Fortes émissions de gaz

5) Galaxie noire, extinction du quasar, persistance d’un halo de gaz autour

mardi 26 août 2025

215 -DISPERSION DES ONDES RADIO ET REDSHIFT COSMOLOGIQUE

 Pour un même phénomène, deux explications différentes !

La vitesse de propagation des ondes radio est très légèrement inférieure à celle de la lumière du fait de la densité très faible mais non nulle du milieu interstellaire. Les calculs indiquent que cette vitesse de propagation dépend de la longueur d'onde d'observation. En conséquence de quoi, le train de pulses d'un pulsar va arriver décalé d'une fréquence à l'autre, ce que l'on appelle mesure de dispersion.

Dans la physique standard, la dispersion des pulses de pulsar n'est pas due à une propriété intrinsèque du vide. Elle est causée par la présence de plasma (des électrons et des protons libres) dans le milieu interstellaire.

  • Lorsque les ondes radio d'un pulsar traversent ce milieu, les électrons libres interagissent avec les ondes.
  • Cette interaction a un effet sur la vitesse de l'onde qui dépend de sa fréquence : les ondes de basse fréquence sont plus ralenties que celles de haute fréquence.

En conséquence, les différentes fréquences d'un même pulse arrivent à des moments décalés, ce qui permet de mesurer la quantité totale d'électrons libres sur la ligne de visée.

La dépendance à la fréquence

La raison pour laquelle le milieu interstellaire affecte les ondes radio mais pas la lumière visible pour causer le redshift est la fréquence de l'onde: 

Ondes radio : Les ondes radio ont une fréquence très basse. Elles interagissent significativement avec la faible densité d'électrons libres dans le milieu interstellaire. Cette interaction est suffisante pour causer le phénomène de dispersion.

Lumière visible : La lumière visible, elle, a une fréquence beaucoup plus élevée. Elle n'est presque pas affectée par les quelques électrons libres présents dans l'espace. La densité du milieu interstellaire est tout simplement trop faible pour produire un effet de freinage mesurable sur la lumière.

Redshift cosmologique vs. Dispersion

La physique standard distingue deux phénomènes :

  1. La dispersion : Un effet local et dépendant de la fréquence, causé par le plasma dans l'espace interstellaire. C'est un phénomène réel et bien mesuré.
  2. Le redshift cosmologique : Un effet universel et indépendant de la fréquence, causé par l'expansion de l'espace lui-même. La longueur d'onde de la lumière est étirée à mesure que l'espace entre la source et l'observateur s'étend, ce qui ne dépend pas d'un milieu de propagation.

On constate avec étonnement que pour un même phénomène, l’élargissement de la longueur d’onde, nous trouvons deux explications différentes selon la « faiblesse de l’onde » Dans un cas, il y a freinage (dispersion) d’autre l’autre (Redshift) élongation par expansion de l’univers. On ne voit pas pourquoi les ondes radio ne seraient pas également victimes de l’expansion ou qu’inversement les ondes lumineuses ne soient pas atteintes par le freinage de plasma d’électrons libres. Pour un même phénomène, une conception unifiée s’impose qui irait pour notre part plus dans le sens d’un freinage de la prématière composant l’espace (voir nos calculs sur la constante K°)

samedi 23 août 2025

 214 - L'ASTROGENESE DE LA THEORIE DE LA PREMATIERE

 Cette astrogénèse est un modèle de formation stellaire dynamique et inversé par rapport au   modèle standard, où le pic d'énergie initial dicte la production des éléments lourds, et leur "désassemblage" ou synthèse d'éléments plus légers se fait à mesure que l'étoile se stabilise. C'est une vision qui propose un mécanisme entièrement nouveau pour l'origine des éléments dans l'univers. 

Phase Initiale (Mini-Big Bang Localisé) : Ébranlement extrême dans la prématière, création d'un cœur photonique ultra-chaud et rotation très rapide.

 Synthèse des Éléments Lourds : Dans ces conditions maximales, le fer (ou autres éléments lourds) est synthétisé par la fusion nucléaire des particules initialement produites par le cœur photonique. Refroidissement et Ralentissement : Le cœur tourne moins vite, la température diminue.

Synthèse des Éléments Légers : La fusion se poursuit, mais dans un environnement moins extrême, produisant des éléments progressivement plus légers qui s'organisent en couches autour du cœur de fer. Les éléments plus légers sont produits en dernier puisque la température de l’étoile ne cesse de baisser.

L'avantage de cette théorie c'est les conditions de masse n'interviennent plus pour la naissance des étoiles et en conséquence TOUTES se forment selon le même procédé, y compris les planètes.

Un avantage majeur et une conséquence fondamentale de l'astrogenèse nouvelle permet un modèle de formation des astres (étoiles et planètes) véritablement uniforme et indépendant de la masse initiale au sens où l'entend la théorie standard. C'est une distinction cruciale et un point de force de sa théorie, car elle résout des problèmes ou des complexités que le modèle standard doit gérer.

***Avantages et Implications du Modèle Uniforme de Formation des Astres

    Indépendance de la Masse Initiale (pour le déclenchement) :

***Modèle Standard : La formation d'une étoile (et indirectement de son système planétaire) commence par l'effondrement gravitationnel d'un nuage de gaz et de poussières. Pour que cet effondrement se produise et soit stable, une masse critique est nécessaire (la masse de Jeans). Les très petits nuages ne s'effondrent pas en étoiles, et la taille initiale du nuage détermine en grande partie la masse finale de l'étoile. Les planètes se forment ensuite dans le disque protoplanétaire résiduel.

Modèle prématière : Le point de départ n'est pas un nuage de matière préexistante mais un "ébranlement d'énergie extrême" dans la prématière. Cet ébranlement n'est pas conditionné par une masse de matière initiale agglomérée. Il est un phénomène localisé et intrinsèque à la prématière elle-même, capable de générer un cœur photonique rotatif.

Conséquence : Les conditions de masse et de densité de gaz n'interviennent plus comme prérequis initial pour le déclenchement de la naissance de l'astre. La formation est un processus énergétique et dynamique au sein de la prématière.

***Un Procédé de Naissance Uniforme pour Tous les Astres :

Puisque l'initiation est un "mini-Big Bang" localisé dans la prématière qui génère un cœur photonique rotatif, et que ce cœur produit la matière (d'abord lourde, puis plus légère), ce procédé fondamental peut s'appliquer à la formation de toutes les structures massives de l'univers, pas seulement les étoiles géantes. Cela implique que tous les corps célestes se forment selon le même procédé initial :

Étoiles : Les "mini-Big Bangs" les plus intenses ou les plus durables peuvent donner naissance à des cœurs photoniques de très grande énergie, produisant une quantité massive de matière, formant des étoiles. La quantité de matière produite et l'évolution du ralentissement détermineraient la masse finale de l'étoile et sa composition.

Planètes : Des ébranlements moins intenses, ou des cœurs photoniques plus petits/moins énergétiques, pourraient produire des quantités moindres de matière qui s'agrégeraient en planètes. Le mécanisme fondamental de condensation photonique et de fusion nucléaire inversée resterait le même, mais à une échelle différente.

Avantage de l'Uniformité Explicative :

Ce modèle offre une grande économie conceptuelle. Au lieu d'avoir des théories distinctes pour la formation stellaire (effondrement de nuages), la formation planétaire (accrétion dans un disque protoplanétaire), et la nucléosynthèse (fusion dans le cœur stellaire ou lors de supernovas), La théorie de la prématière propose un mécanisme unifié qui englobe la genèse de la matière, des éléments et des corps célestes à partir d'un seul principe : la prématière.

En conclusion, cette nouvelle théorie en initiant la formation des astres par un "mini-Big Bang" localisé dans la prématière (générant un cœur photonique rotatif), offre l'avantage significatif de découpler la naissance des corps célestes de leurs conditions de masse initiales (au sens des amas de gaz) et de fournir un modèle uniforme et cohérent pour la formation des étoiles et des planètes à travers l'univers éternel.

 

 

vendredi 22 août 2025

 213 -TROUS NOIR ET QUASARS

Puisque la théorie postule la création permanente de matière et non en un temps unique comme il est envisagé dans la cosmologie standard du big bang, il faut nécessairement un retour permanent de la matière à son lieu d'origine, ce qu'implique par ailleurs l'idée d'un cycle éternel création/destruction. Ce cycle est amorcé par le jeu de la gravitation qui tend à concentrer tous les astres au centre d’un trou noir se transformant progressivement en quasar éjectant la matière décomposée des astres.

La loi de l’attraction commande le regroupement et la fusion des galaxies.

1 - Le déclin commence dans la zone centrale

Comme à l'origine une galaxie s'est structurée autour des astres les plus jeunes et les plus massifs et qu'elle attire postérieurement des corps nouvellement créés, nous aurons nécessairement au centre les étoiles relativement les plus anciennes, les plus lumineuses, les plus massives dans la phase de jeunesse de la galaxie. Il semble que le déclin doive s'amorcer en premier lieu dans cette zone centrale et qu'en conséquence l'étude de l'évolution du cœur soit décisive pour comprendre les processus d'extinction et de disparition de toutes les galaxies.

Une galaxie cesse d'exister lorsque la totalité des étoiles aura rejoint la zone centrale Sa disparition est donc un processus extrêmement lent (plusieurs dizaines de milliards d’années), rythmé par un certain nombre de séquences où vont alterner les périodes de grandes activités du cœur ou de refroidissement, de calme ou d'explosions.

Le centre d'une galaxie jeune (irrégulière, spirale Sx) va comprendre les astres les plus massifs encore actifs de sorte qu'au centre nous aurons une forte densité d'astres massifs et lumineux. L'intensité du rayonnement perçue aura alors pour cause unique la simple activité de ces corps résultant de leur groupement dans un espace relativement réduit. Le noyau sera brillant, de petite dimension angulaire et comportera plusieurs millions d'étoiles rouges et vieilles de toutes masses. Il ne pourra pas en conséquence exister de " trou noir " dans les galaxies irrégulières jeunes.

L'étape suivante est celle où les astres centraux très actifs se sont éteints et où conséquence s'élargira progressivement une zone sombre au cœur des galaxies. La masse centrale qui se refroidi va constituer réellement un " trou noir " n'émettant plus de lumière pour la simple raison qu'il s'agit d'un rassemblement d'astres éteints. Le centre non actif des galaxies vieillissantes est donc nécessairement composé de plusieurs millions d'étoiles froides contenues dans un volume extrêmement restreint.

2 - Trous noirs actif et non actifs

Dans les premiers temps de la constitution d'une masse noire centrale nous n'aurons donc pas d'attraction d'étoiles jeunes massives et chaudes qui viendront se précipiter pour exploser. Mais l'attraction de la masse centrale ne cessant de s'élever, ces étoiles de "deuxième génération " les plus proches vont voir leur mouvement de plongée vers le cœur s'accélérer. L'existence d'un trou noir passif et non lumineux dans le centre de notre galaxie est donc tout à fait normal car correspondant à un stade d'évolution où la masse centrale n'est sera pas active.

Dans un cœur noir actif de galaxie, la luminosité ne sera plus centrale mais périphérique. Le trou noir actif doit donc se rencontrer essentiellement dans les vieilles galaxies elliptiques où la concentration vers le centre de la masse des étoiles est plus accentuée. La forte densité du cœur attire avec une puissance accélérée des étoiles jeunes qui s'y trouvent précipitées et annihilées. Un tel phénomène a été observé et décrit sous le nom de quasar. Il s'explique essentiellement par la rencontre d'une forte densité d'étoiles massives mais mortes, et d'étoiles jeunes aspirées qui sont détruites. Le quasar représente le " bouquet final " dans l'évolution des galaxies, le stade précédant le refroidissement général. Les explosions d'étoiles et émission de gaz ne peuvent pas se produire en conséquence au centre constitué par une masse imposante de matière noire mais à la périphérie de ce trou noir. Dés lors, plus une galaxie sera vieille et plus large et massif sera sa zone centrale noire.

Un disque d'accrétion est constitué autour de cette matière noire qui accélère les particules jusqu'à produire des rayons gamma. L'instabilité des émissions et de la luminosité est alors essentiellement liée au rythme des explosions d'étoiles et dépend de la distance de celles-ci au cœur du trou noir. Puisqu'il s'agit d'explosions successives d'étoiles, les quasars sont des objets optiquement variables. Les quasars proprement dits ne peuvent se développer que dans les vieilles structures elliptiques qui concentrent, compte tenu de leur âge, un maximum d'astres morts. Ces destructions d'astres entraînent également une partie des masses mortes attractives, ce qui explique l'intensité des rayonnements perçus, supposant des masses considérables en jeu et les jets de matière s'étendant sur des distances énormes

 

mardi 19 août 2025

 212 - LA COMPLEXITÉ DU MODELE DE L'ASTROGENESE STANDARD

Problème : Le modèle standard doit faire appel à une grande variété de sites et de processus distincts pour expliquer l'abondance de tous les éléments chimiques observés dans l'univers.

Nucléosynthèse primordiale : Formation de l'H, He, et traces de Li, Be, B dans les premières minutes du Big Bang.

Nucléosynthèse stellaire (fusion progressive) : H en He, He en C, O, puis C, O en Ne, Mg, Si, S jusqu'au Fer dans les cœurs stellaires. Nécessite des températures et pressions de plus en plus élevées.

Processus S (slow neutron capture) : Pour une partie des éléments plus lourds que le fer, dans les étoiles de faible et moyenne masse en fin de vie (branches asymptotiques des géantes).

Processus R (rapid neutron capture) : Pour les éléments les plus lourds (or, platine, uranium, etc.), nécessite des conditions extrêmes, principalement associées aux supernovas ou aux fusions d'étoiles à neutrons.

Spallation cosmique : Pour les éléments légers comme le Lithium, Béryllium, Bore, détruits dans les étoiles, produits par le bombardement des rayons cosmiques.

Complexité : Cette diversité rend le tableau général extrêmement complexe, nécessitant de calibrer de nombreux paramètres et de simuler des conditions astrophysiques très différentes.

1.    Conditions Extrêmes et Déclenchement de la Fusion :

Problème : Pour que la fusion nucléaire se produise, il faut vaincre la répulsion coulombienne entre les noyaux chargés positivement. Cela exige des températures et des pressions colossales dans les cœurs stellaires. Atteindre ces conditions, les maintenir, et passer à des stades de fusion de plus en plus lourds est un défi en soi.

Complexité : Les modèles stellaires doivent simuler précisément l'évolution de ces conditions (température, densité, composition) pour chaque type d'étoile et à chaque étape de sa vie.

2.    Problème des Éléments Rares ou "Manquants" :

Problème : Certains éléments ou isotopes sont produits en quantités insuffisantes par les processus standard, ou leur origine est mal comprise (ex: l'excès de lithium par rapport aux prédictions de la nucléosynthèse primordiale, l'abondance de certains éléments très lourds).

Complexité : Cela pousse à chercher des événements astrophysiques encore plus exotiques (hypernovae, trous noirs primordiaux, etc.) ou à raffiner les modèles existants.

3.    Phénomènes Cataclysmiques (Supernovas) :

Problème : La production des éléments les plus lourds (au-delà du fer) repose sur des événements de fin de vie stellaire extrêmement violents et complexes comme les supernovas, dont les mécanismes exacts sont encore activement étudiés et modélisés avec difficulté. La compréhension précise de l'explosion, de la densité de neutrons, de la durée de l'événement est cruciale.

Complexité : Simuler une supernova est un défi majeur pour les supercalculateurs, impliquant des dynamiques très rapides, des neutrinos, et des interactions nucléaires complexes.


L'Avantage de la Théorie de la prématière (par inversion du processus)

La théorie , en proposant une nucléosynthèse "inversée" et unifiée, contourne ou simplifie ces problèmes :

-.    Un Processus Unique et Uniforme :

Simplification : Au lieu d'une multitude de sites et de processus, la théorie de Micalef propose un mécanisme fondamental unique pour la genèse de tous les éléments: l'ébranlement de la prématière, la création d'un cœur photonique rotatif, et la condensation/fusion des particules. Ce processus est le même pour la naissance des étoiles et des planètes.