dimanche 31 janvier 2021

115 - LA QUESTION DE L’ÊTRE ET DE L’ EXISTER

1 - Il nous faut tenter d’éclaircir ce paradoxe philosophique : Tout ce qui existe EST,  mais tout ce qui EST n’existe pas nécessairement. En d’autres termes, l’existence suppose l’Etre, mais l’Etre n’implique pas nécessairement l’existence.

Exister est le propre des étants (objets, hommes  etc.).  C'est le fait que les étants apparaissent dans le temps. A l’inverse l’Être ne peut JAMAIS apparaitre dans le temps, il EST sans exister. Il ne peut pas naître car cela supposerait qu’il surgisse d’un Être antérieur ce qui implique une régression à l’infini. Le principe qui fonde la présence du monde à lui-même ne peut donc être engendré par un autre principe de présence. Il doit se donner pour éternel et incréé.

L’Être EST mais n’est pas dans le temps, qu’est-ce à dire ? L’Être comme principe de présence éternelle demeure en lui-même sans pour autant posséder les attributs de l’étant – la matérialité – qui le ferait passer du côté de l’existant. Paradoxalement, il EST dans l’étant temporel tout en « n’étant pas » dans le temps. Il EST dans l’existant (latin existere, sortir de) tout en n’ex-istant pas lui-même. Ex-ister suppose en effet une ex-traction d’un ailleurs pour se tenir en soi. L’Être éternel n’a d’origine autre que lui-même.

L’être de l’étant EST dans tout étant sans jamais pouvoir se saisir en tant que tel. Exister pour un étant renvoie à la question : où, comment, en quoi l’étantité en générale (l’ensemble de composés de l’univers) peut-il s’extraire pour exister- être ? Cette nouvelle question on doit la rapprocher de la précédente à savoir : où, comment, en quoi « l’être de l’étant » EST dans tout étant sans  jamais pouvoir se saisir en tant que tel.

Arrivé à ce stade de notre réflexion, il semble que nous ne puissions plus progresser et nous retrouver dans la même impasse que la philosophie de Heidegger : L’Etre semble se dissimuler dans chaque étant et se donne comme à jamais insaisissable puisque qu’on ne connait jamais que l’étant.

2 - Pourtant nous avons avancé dans la connaissance de l’Être, son caractère incréé assurant la présence éternelle du monde des étants à eux-mêmes. Dès lors, l’Être comme principe de présence peut-il être lui-même absent ? L’Être peut-il de façon contradictoire « être<> absent » ? Et s’il n’est pas absent, s’il est donc « présence éternelle » -  présentification du présent – il ne saurait être un rien, un pur concept, il faut que le « ce » qui assure la présence soit lui-même présent. Et ne peut être présent qu’un « quelque chose ».

C’est ici que nous arrivons au bout de l’interrogation proprement philosophique, c’est ici que les philosophies existentielles ont rencontré un mur infranchissable. C’est que depuis l’origine grecque, la physis n’a cessé de se séparer de la meta-physique pour s’ériger en science indépendante s’exerçant uniquement au dévoilement des étants.

Aussi nous faut- il faut retourner à notre interrogation initiale et nous demander comment l’Être peut être sans exister, sans sortir de lui-même tout en faisant exister les étants par leur entrée dans le temps. Il faut donc  que L’Être soit effectif pour « donner corps » au monde et que sa présence soit celle de « quelque chose » à défaut de laquelle le « rien  »se passerait.

L’Être n’est donc pas néant,  et ce « quelque chose  » doit être autrement,  tout à la fois sous la forme d’un concept et de son signifiant : « être-dans-le-monde ». Si l’être n’est pas un concept vide, s’il signifie en direction d’un « quelque chose », celui-ci ne saurait pourtant pas être un étant. Dans ce cas en effet, nous retrouverions  l’aporie des philosophies existentielles condamnées à tourner en rond de l’être à l’étant. L’Être doit nécessairement posséder un « substrat » et celui-ci ne peut être selon les modes connus de la matérialité des étants.

3 - Consécutivement toutes nos questions nous ramènent à une seule : y-a-il « autre chose » que la matérialité des étants que nous connaissons jusqu’à ce jour ? Ce « quelque chose » doit posséder les propriétés de L’Être à savoir d’être sans exister. En d’autres termes, il ne peut se montrer en tant que tel, il doit demeurer dissimulé à la fois dans les étants et dans le lieu de sa permanente présence. Mais l’Être doit avoir un substrat physique quelconque qui lui autorise l’action et la réaction sous peine de n’être que le rien, pur concept évanescent, un être absolu ou l’un des multiples noms de Dieu.

Nous sommes donc amener, au terme de nos interrogations, à quitter le domaine proprement méta- physique pour déboucher sur celui de la science physique, seule à même de rechercher la nature de ce substrat de l’Etre et de mettre à jour ses propriétés qui ne peuvent être extraites qu'indirectement puisque l’être en tant que tel n'est a jamais saisissable.

Quelle est la nature physique de l’Être comme substrat – substance ? - qui n’aurait jamais été découvert jusqu’à ce jour, qui Est sans exister, partout présent, éternel, incréé qui assure le présent permanent, l’Être ici du monde, de l’univers ? (Il s’agit bien évidemment de la substance de l’espace ou prématière dont nous avons par ailleurs défini les propriétés et les modes de preuve).

En définitive, La solution au problème philosophique de l’Être ne peut être trouvée que par le retour à la  physique, ce qui nécessite de dépasser la rupture contemporaine entre science et philosophie et faire ainsi retour à leur unité originelle.

samedi 30 janvier 2021

114 - GRAVITATION, FORCE DE PRESSION ET EFFET D’ECRAN

L’accélération de pesanteur au pôle et de 9,83 m/s. A l’équateur elle est de 9,78 m/s. Le rayon polaire est plus court (6356,752 km) qu’à l’équateur (6378,137 km).

On explique  l’accélération plus forte de pesanteur aux pôles qu’à l’équateur par une plus grande proximité des pôles du centre de la Terre. Ceci est assez peu compréhensible. En effet, comme la force d’attraction serait attachée à chaque masse de matière, on aurait pu penser que le rayon équatorial étant plus long, la quantité de matière étant plus grande, cette force serait plus intense à l’équateur. Or c’est l’inverse qui est mesuré. Quelle en serait la raison ?

Il faut alors analyser et comprendre l’équation classique de la gravitation : FG =MG/R².

Elle signifie que l’accélération de pesanteur est lié non pas à la seule valeur d’une masse mais à sa densité et plus exactement à sa densité linéaire. Ce n’est donc pas la quantité de matière - la valeur  d’une masse - qui détermine la force de la pesanteur. Chaque élément, chaque atome ne détient pas à lui seul et en toute indépendance un pouvoir d’attraction propre mais c’est sa quantité pour un volume donné. Pour faire image moins il y aura d’espace entre chaque atome et plus la force de l’attraction sera élevée. Comment comprendre ce phénomène et plus précisément qu’elle serait la nature et l’origine de la force qui interviendrait puisque celle-ci n’a pas pour origine la matière des atomes ?

Dans la théorie de la substance de l’espace, nous avons doté l’espace de réelles propriétés physiques comme celles d’être rigide, dense, insécable etc… Cet espace agit comme une force de pression sur toute la surface d’une masse comme il en va d’un corps plongé dans une substance homogène tel qu’un liquide. Dès lors, lorsque deux masses se trouvent en présence, chacune  exercera un « effet d’écran » sur l’autre, s’interposant entre la force de pression de l’espace et ce corps.

Le diamètre entre les pôles (12712 km)  est inférieur à celui de l’équateur (12756 km). Cela signifie que le « rayon linéaire » est plus dense aux pôles qu’à l’équateur ; l’effet d’écran sera donc supérieur et l’accélération de pesanteur plus élevée  (9.83 m/s). Inversement lorsque l’effet d’écran est inférieur puisque le « rayon linéaire » est moins dense à l’équateur, l’accélération de pesanteur est inférieure (9.78 m/s). On peut donc considérer que plus l’effet d’écran est important (effet produit par la densité linéaire de matière) et plus la force de pression augmente…..

Cette explication permet de comprendre pourquoi A LA FOIS la gravitation est le produit d’une poussée de l’espace de prématière sur une masse et une action de résistance de celle-ci. En effet, c’est fondamentalement la DENSITÉ d’une masse qui intervient dans la définition de la force et non sa simple valeur qui est pourtant nécessaire pour calculer cette densité. C’est aussi parce qu'existe une force EXTERNE à la matière qui  agit sous la forme d’une poussée que nous pouvons interpréter de cette seule et unique façon l’équation de Newton F = MG/R²,

 

 

vendredi 29 janvier 2021

113 – LE PLUS PROCHE EST LE PLUS LOINTAIN

 Nous avons maintes fois dénoncé ici l’inventivité dont font preuve les physiciens pour imaginer des nouveaux objets physiques dont ils ne se donnent pas la peine de définir les propriétés. La liste en serait longue, comme par exempte les cordes ou même les quarks dont on sait qu’ils sont à jamais indécelables et qu’on ne parvient pas à distinguer de la matière proprement dite.

Mais sans aucun doute le pompon doit être attribué à la matière noire dont personne ne sait de quoi elle se compose, quelle est son origine et comment on pourrait la détecter, l’isoler, la mesurer « en tant que telle ». C’est quand même un sacré affaire que de rajouter à la création universelle un nouvel être et de le faire passer à l’existant sans plus de preuve en supputant seulement que ce nouvel arrivé est cause d’un phénomène observé. Le métier de physicien exigerait des règles de déontologie pour ne pas accepter le « n’importe quoi » dés qu’on ne comprend pas un phénomène.

C’est dans ce contexte de grande permissivité créative que nous ne parvenons pas à comprendre POURQUOI nous ne parvenons pas à faire admettre l’existence de la prématière composant l’espace. Pourtant, et à la différence des autres inventeurs, nous donnons une définition précise des propriétés de cette prématière et une preuve certaine de son existence : il s’agit de la substance qui compose les ondes EM. Ainsi, il est plus aisé d’admettre une matière noire inexistante, dotée de nulle caractéristiques, que de constater l’existence au quotidien des ondes EM qui doivent bien, elles, se composer d’une quelconque substance sous peine de n’être rien.

Ces ondes sont le résultat de la mise en mouvement de cette substance, laquelle compose l’espace, tout l’espace. Si tel n’était pas le cas, on ne voit pas très bien d’OÛ pourraient provenir ces ondes EM, certainement pas du corps de la matière. Il faut donc admettre qu’il existe bien DEUX substances différentes : la matière et les ondes. C’est aussi simple que cela mais la physique actuelle ne se complait pas dans la simplicité. Une fois décidé qu’il se trouve une autre substance que la matière, la démarche scientifique classique serait de partir à la recherche de ses propriétés pour éviter de tomber dans le travers commun de créer des objets physiques ad libitum. Quelles pourraient être les propriétés d’une substance différente de la matière ? Pour s’en distinguer, il faut évidemment qu’elles soient différentes, que nous ne puissions pas le retrouver pour la matière. Il ne faut donc plus raisonner sur le mode matérialiste, mais changer de registre et admettre que cette substance concilie deux fonctions contradictoires pour la matière de fluidité et d’extrême rigidité. Nous n’allons pas revenir sur ce point que nous avons développé longuement. Force est simplement  de constater que ce qui nous est le plus proche -  l’espace de prématière – est pour l’heure le plus lointain

mercredi 27 janvier 2021

112 - PRINCIPES DE LA GENESE UNIVERSELLE DE LA MATIERE

 Etant donné  que la matière se crée à partir d’un changement d’état de la prématière, le principe d’un cycle impose que la matière doit faire retour à son lieu d’origine, la substance de l’espace. Or l’idée d’un cycle suppose un système clos conservant précisément l’énergie universelle tel que la quantité de matière créée doit correspondre à celle qui disparaît. Il doit donc exister des seuils à partir desquels un excès d’annihilation de matière suscite une fluctuation de la substance de l’espace de nature à engendrer l’onde de choc créatrice.

Cette thèse explique la quasi stabilité de la densité de la matière, ce qui ne signifie pas sa répartition uniforme. La masse globale de la matière demeure assez stable et devrait correspondre à la densité mesurée (5E-30 g/cm3).

Pour que de telles fluctuations soient possibles, il doit exister un écart entre les densités de la prématière et celle de la matière. De plus, pour justifier le mouvement d’un corps de matière dans la substance de l’espace il faut qu’existe cette différence de densité. En conséquence, la matière d’une particule (et le photon et rayonnement), doit remplir un volume  supérieur à celle de la substance de l’espace prélevée pour sa constitution.

Ainsi, lorsqu’une particule est annihilée, lorsque sa matérialité fait retour à la prématière sous forme de photons puis d’ondes, elle restitue à l’espace sa substance, laquelle en se détendant occupe un volume supérieur. L’onde en effet ne cesse de perdre son énergie en proportion de l’espace parcouru et sa longueur d’onde de s’étaler. Dès lors, le cycle fondamental de l’Univers est commandé par ce rapport entre annihilation et création de matière, entre mouvements de détente et de compression selon les fluctuations du volume de la masse de la matière/rayonnement qui fait retour à la prématière.

On ne comprendrait pas la constitution d’une particule ou d’un photon s’il n’y avait pas une différence de densité avec la prématière. Un photon en rotation poursuivant son mouvement rectiligne à la vitesse C est un corps en fusion. Il y a une différence d’état entre sa substance en fusion et la prématière inerte et froide. Seule une compression brutale de la substance de l’espace peut engendrer ondes, photons et particules. En retour, c’est la détente, l’étalement de l’onde qui restitue à la prématière l’énergie de son mouvement en refroidissant. La prématière  constitutive du photon et de la matière des particules est dans un état différent qui est celui d’un magma à la température absolue: sa densité est donc moindre, son volume plus élevé que celle de la prématière inerte et froide. C’est  ce léger écart de densité entre deux états de la prématière qui est à l’origine de toute la production énergétique universelle.

Ainsi,  l’univers est-il constamment dépendant de ces phases de détente et de compression, de retour de la prématière de l’onde à son état antérieur et de brusques compressions se manifestant par des ondes de choc.

L’espace connaît constamment des fluctuations, des ondes de chocs, des brisures, des vibrations dont les plus violentes sont à l’origine  d’une brutale création de rayonnements et de particules. Là est l'origine de la création du cœur photonique des étoiles et partant de tous les éléments.

mardi 26 janvier 2021

111 – LE CYCLE ETERNEL DE LA MATIERE

 EXTRAIT D’ARTICLE

Au centre de la plupart des galaxies se trouve un trou noir gigantesque, représentant des millions, voire des milliards de fois la masse de notre soleil. Autour de ces trous noirs géants, la matière se concentre en un disque d'accrétion, le noyau actif galactique. Ces quasars sont les sources de rayonnement les plus lumineuses de l'univers.

Les quasars ne sont cependant pas éternels: à l'image de tout ce qui compose notre univers, ils finissent par s'éteindre. Ils peuvent également être bouleversés par des événements dramatiques, comme la collision des galaxies auxquelles ils sont liés. Parfois, nous pouvons observer des restes de ce passé turbulent.

Des photos prises ces dernières années par le télescope spatial Hubble ont ainsi fait l'objet d'une étude par une équipe internationale, qui s'est intéressée à des filaments fantomatiques qui luisent d'un éclat verdâtre, désormais loin du centre galactique qui les a vus naître.

Ces nuées gazeuses sont en fait des gaz (oxygène, azote, soufre et néon) qui ont un jour été éclairés par la lumière d'un quasar aujourd'hui disparu, ou qui a fortement baissé en intensité. Ces gaz avaient jadis absorbé l'énergie émise par le cœur galactique, et la restituent peu à peu. Ce phénomène, connu sous le nom de photoionisation, va durer des milliers d'années, bien après que le quasar qui en est responsable ait cessé de les baigner dans ses radiations intenses.

Écrit par JP Fritz blog/nouvelobs|

COMMENTAIRES

L’article nous renvoi à la question du cycle de la matière. En effet, le quasar apparait comme une formidable machinerie à détruire les astres, à les transformer en rayonnements et en résidus gazeux que l’on peut observer. De fait, l’attraction gravitationnelle commande l’existence des astres qui se regroupent pour former un trou noir au centre des galaxies vers lequel se précipitent d’autres astres. Ceux-ci  finissent par allumer un quasar très violent éjectant en abondance rayonnements et matériaux divers jusqu’à épuisement du combustible.

Nous avons ici à l’œuvre une procédure d’annihilation de la matière dont la plus grande partie est transformée en rayonnements qui sont éjectés par le quasar en activité jusqu’à extinction. Cette procédure d’annihilation pose un sérieux problème théorique à la cosmologie standard. 

En effet, il y a une contradiction entre  une genèse de la totalité de la matière universelle en un temps unique et une disparition ponctuelle , galaxie par galaxie. Dans la théorie actuelle, on ne voit pas très bien comment un « voyage retour » de ces rayonnements peut s’envisager pour aboutir à une concentration finale – un big-Crunch – afin d’aboutir à un cycle par lequel l’univers se recrée à nouveau. C’est qu’on ne peut penser l’histoire de l’univers hors la notion de cycle, fusse-t-il celui auquel conduit le big-bang. En réalité la cosmologie standard est incapable d’imaginer un cycle cohérent création/disparition de la matière.

Toute la question est de savoir ce que deviennent les rayonnements émis par les quasars. Dans la théorie standard, ils ne s’épuisent jamais et continuent à l’infini leur course, et bien plus loin des 13.7 milliards d’années-lumière de distance. Pour justifier un cycle de la matière, il est donc nécessaire que ces rayonnements perdent de l’énergie pour s’étaler en ondes et se fondre dans l’espace, c’est-à-dire rejoindre la prématière qui les constitue. 

Mais s’ils disparaissent dans la prématière, cela signifie qu’ils doivent également y surgir car dans l’hypothèse contraire la « masse » de la substance de l’espace devrait croître à l’infini. Il est donc absolument logique que le « lieu » de la disparition du rayonnement soit également le « lieu » de leur surgissement et que toute annihilation de matière soit compensée, dans l’équilibre général de l’univers, par une création à plus ou moins long terme. Dès lors, à la création ponctuelle des astres selon les modalités déjà analysées ici, correspond une disparition également ponctuelle de chaque galaxie/quasar et cela selon un cycle éternel.

En définitive, le clivage avec la cosmologie standard repose sur l’interprétation de la phénoménologie du photon : garde-t-il intacte son énergie pendant son parcours de sorte nous analysons le Redshift comme un effet Doppler de fuite des galaxies ou au contraire baisse-t-il d’énergie en proportion de la distance parcourue ? Dans le premier cas, le photon ne peut poursuivre à l’infini son voyage et il ne saurait y avoir de cycle de la matière. Dans l’autre cas, les photons issus de la destruction de la matière achèvent leurs parcours en se fondant dans la substance de l’espace et le cycle éternel création/destruction est ainsi rendu possible.

dimanche 24 janvier 2021

110 – COMPARAISON ENTRE DEUX COSMOPHYSIQUES

 Celui qui critique le fait le plus souvent à partir d’un point de vue autre qu’il estime supérieur, d’un état de perfection qu’il imagine plus adapté au problème à résoudre.

La critique des thèses de la cosmophysique contemporaine est stérile si on ne l’effectue pas en référence à un « autre modèle » qui répondrait mieux aux questions et difficultés que cette science rencontre.

Ce nouveau modèle, c’est celui des « nouveaux principes » dont nous avons exposé les thèses sur ce blog et nos sites.

Il peut être utile pour nos lecteurs d’examiner un tableau comparatif terme à terme pour se rendre compte des différences assez conséquentes qui opposent les deux approches absolument irréductibles l’une à  l’autre.

 

                                              

 

Cosmophysique standard

 

1- Naissance datée de l’univers (big-bang)

 

2 - Émergence à partir du néant

 

 

3 -Univers fini

 

4 - Quantité finie de matière créée

 

5 - Interprétation du red-schift des galaxies comme expansion de l’univers.

 

6 -Rayonnements fossiles issus du big bang originel

 

7 - Limite à 13.7 AL de l’univers

 

8 – Espace vide et non réactif

 

 

9 - Pas de limite au mouvement des photons

 

10 – Vitesse limitée par l’augmentation de la masse

 

11 – Origine inconnue des ondes, photons, matière.

 

12 – Pas de cycle de la matière

 

Cosmophysique des nouveaux principes

 

1 - Univers éternel non créé

 

 2- Autoconstitution des étoiles par prélèvement de la substance de l’espace.

 

3 - Univers infini

 

4 - Création et disparition de la matière des étoiles mais densité constante.

 

5 –Red-schift résultant du freinage exercé par la prématière : pas d’expansion

 

 6 – Résultent de l’étalement des ondes en provenance de l’infini

 

 7 – Cette distance représente la limite du rayonnement observable

 

8 – Espace plein de prématière active, réactive et rigide.

 

 

9 – Étalement progressif et disparition dans la prématière des photons.

 

10 – Vitesse limitée par freinage de la prématière.

 

11 – Ondes, photons, matière ont pour origine la prématière de l’espace.

 

12 – Cycle réversible prématière<>ondes<>photons<>matière

 

109 - NAISSANCE D’UNE ETOILE

L'ARTICLE

Lorsque Chandra observait cette région du ciel avant 2014, aucune source X n'apparaissait à cet endroit, mais en octobre 2014, une intense émission de rayons X est apparue, multipliant son intensité par un facteur 1000 en quelques heures, et après environ 24h, la source avait disparue sous le seuil de détection de Chandra. Les astrophysiciens n'ont encore jamais vu une bouffée de rayons X avec ces caractéristiques.

Des milliers de données d'archives des télescopes Hubble et Spitzer de la région en question ont alors été fouillées ardemment et les astrophysiciens ont trouvé une petite galaxie très faiblement lumineuse située 10,7 milliards d'années-lumière, et qui se trouve être à la position de la source X mystérieuse désormais nommée CDF-S XT1, En considérant cette distance, les chercheurs calculent alors que la source X a émis durant quelques minutes 1000 fois plus d'énergie que toutes les étoiles de sa galaxie...

Franz Bauer (Université catholique de Santiago, Chili) et son équipe émettent plusieurs hypothèses pour tenter d'expliquer cette bouffée de rayons X hors du commun, mais aucune d'entre elles n'est pleinement convaincante pour expliquer toutes les caractéristiques énergétiques et temporelles de CDF-S XT1. Deux hypothèses font intervenir un GRB, une bouffée de rayons gamma, phénomène associé à l'effondrement gravitationnel d'une étoile et  naissance d'un trou noir ou encore la collision de deux étoiles à neutrons, et la troisième une destruction gravitationnelle d'une étoile naine blanche par un trou noir de masse intermédiaire. Dans l'hypothèse GRB, les photons gamma auraient perdu de l'énergie au cours de leur trajet ou bien le "faisceau" ne pointerait pas tout à fait dans la direction de la Terre, voire le GRB viendrait de plus loin derrière la galaxie identifiée comme l'hôte du phénomène...

Les auteurs de cette découverte avouent qu'ils ne comprennent pas quelle peut être l'origine de cette bouffée de rayons X d'énergie comprise entre 0,3 et 7 keV. Aucune autre source X transitoire de ce type n'a jamais été observée auparavant ou depuis lors.

Des sources X variables aujourd'hui encore non expliquées avaient été trouvées dans les galaxies elliptiques NGC 5128 et NGC 4636, mais pas avec de telles caractéristiques de luminosité (100000 fois plus forte) et pas avec une seule et unique bouffée durant plusieurs heures.

Les auteurs n'excluent pas du tout qu'il s'agisse d'un tout nouveau type d'événement cataclysmique. Il faut donc maintenant trouver d'autres cas semblables. Les archives des données des télescopes spatiaux XMM-Newton et Swift recèlent peut-être des cas similaires qui n'avaient pas été remarqués, encore faut-il les trouver...

S'il s'agit de GRB induits par la "fusion" d'une étoile à neutron avec un trou noir, un tel événement devrait produire des ondes gravitationnelles détectables par LIGO ou VIRGO, une autre piste d'investigation possible...

Référence https://arxiv.org/abs/1702.04422

COMMENTAIRES

Comme a l’accoutumé, dés qu’on observe un évènement violent, il ne peut s’agir que d’explosions, de cataclysmes, de fusion d’étoiles etc…Le champ de compréhension est extrêmement restreint !

Il y a une hypothèse que les astrophysiciens ne peuvent imaginer puisque en dehors de leur cadre théorique : celle de la naissance d’une étoile à la suite d’une onde de choc dans la prématière, un mini big bang et donc hyper énergétique. Cela a été envisagé dans notre théorie alternative, s’y reporter sur notre site.

vendredi 22 janvier 2021

108 - ASTROGENESE : VIVE LA REVOLUTION

Beaucoup de ceux qui critiquent l’incohérence théorique du big-bang admettent sans sourciller le mode de naissance des étoiles par effondrement gravitationnel. Ils ne se rendent pas bien compte à quel point ces deux théories sont liées et nous pourrions même avancer la thèse que l’une – l’astrogenèse standard - fut à l’origine de l’autre.

En effet, cette conception est ancienne puisque « Kant dès 1755 dans son Histoire générale de la nature et théorie du ciel, conjecturait que Soleil et planètes ont même origine et se sont formés à partir d'une nébuleuse unique qui se serait contractée En son sein se serait condensé le Soleil au centre et les planètes dans un disque nébulaire l'environnant. Laplace reprit et améliora le scénario en 1796 : la nébuleuse solaire primitive voit sa rotation accélérer à mesure qu'elle se contracte, ce qui produit un disque tournant autour d'un cœur dense en son centre ».

Ce qui nous étonne, c’est que la première réponse qui s’imposait à priori fut considérée définitivement comme la bonne et qu’il ne fut pas recherché à dépasser ce qui s’imposait immédiatement à évidence.

Mais se posait une question capitale : d’où provenaient les éléments ainsi disponibles pour fabriquer les étoiles ?  Il fallait bien une origine, un mode de création et ce fut le bienheureux big-bang inventé par l’abbé Lemaître, sorte de fiat lux qui concordait si bien avec la cosmogonie biblique. Par la suite, le Redshift des galaxies en fuite, l’expansion consécutive et l’interprétation des rayons fossiles,  sont venus conforter cette cosmogénèse spontanée qui de plus s’accordait avec  la relativité. D’autre part, la théorie de l’effondrement fut renforcée par les progrès de la science nucléaire où on démontra comment le soleil pouvait synthétiser certains éléments à partir de l’hydrogène. Ce problème de la genèse des éléments condamnait tout modèle d’univers statique et éternel qui devait introduire un taux de production des éléments par on ne sait quel procédé, pour y créer du dynamisme.

Cependant aujourd’hui,  le problème capital n’est pas de s’attarder à une critique des apories et incohérences du big-bang mais de s’attaquer à son pilier historique central qu’est la genèse de la matière. Nous pensons que la meilleure des critiques consiste à remplacer un modèle par un autre dont il faudra démontrer la plus grande efficience. Notre postulat est celui de la simplicité des procédures initiales de la nature qui ne saurait multiplier les modes d’émergence de la matière.

Il est admis que nous pouvons à tout instant créer des particules et nous avons démontré que celles-ci ne pouvaient pas surgir du néant mais résultaient d’une mutation d’une substance emplissant l’espace, à savoir la prématière. Il n’y a aucune raison de penser qu’il puisse en être autrement pour le surgissement de la matière stellaire. Nous avons longuement décrit COMMENT une telle astrogenèse était envisageable à partir de la parution d’un cœur photonique en rotation et nos lecteurs peuvent se reporter à nos écrits. De même, un grand nombre de phénomènes et de types d’astres peuvent être analysés et compris dans le cadre de la nouvelle théorie. Mais là n’est pas l’essentiel.

L’important en effet est de s’accorder sur ce mode UNIQUE de création de la matière que ce soit dans les laboratoires ou par les astres eux-mêmes. Et que ce mode unique soit permanent, quotidien, et non redevable d’un temps antéhistorique de cosmogénèse universelle. Alors, ici et maintenant il sera possible d’assister « in live » à la naissance d’une étoile, si le cadre théorique et mental de l’observateur venait à être révolutionné.

mercredi 20 janvier 2021

107 - DES RAYONS GAMMAS AUX MICRO-ONDES !

 

LA THEORIE OFFICIELLE DU BIG BANG

Lorsque l'Univers est âgé de 380 000 ans et que sa température est tombée à 3000 kelvins. Un changement se produit L'énergie moyenne des photons passe alors sous le seuil de la liaison électron-proton. Le rayonnement perd ainsi sa capacité à dissocier les couples qui se forment. Les rencontres au hasard entre noyaux et électrons vont dorénavant donner naissance à des composés stables : les premiers atomes d'hydrogène ou d'hélium. Cette époque est connue sous le nom de recombinaison. En même temps, les photons sont maintenant trop peu énergétiques pour être absorbés par des atomes. La lumière n'a plus d'obstacle et les photons peuvent désormais se propager sans entrave. L'Univers devient transparent et le rayonnement se découple de la matière

 

L'expansion de l'Univers a ensuite considérablement abaissé cette température, si bien que ces réactions sont devenues de plus en plus rares, au point que les photons n'interagissent plus avec les autres particules : c'est le découplage du rayonnement. Les photons ont alors été figés à la température de l'univers à cette époque, en suivant une distribution de corps noir. L'univers étant toujours en expansion, cette température a continué à diminuer du fait de l'allongement de la longueur d'onde de ces photons provoqué par la dilatation de l'univers, tout en conservant une distribution de corps noir. Les photons sont ainsi passés du domaine des rayons gammas hautement énergétiques vers le domaine des micro-ondes dans lequel ils sont observés aujourd'hui.

La  longueur d'onde d'un rayonnement suit fidèlement l'étirement de l'espace (comme l'intervalle entre les deux fourmis suivait l'allongement de l'élastique). Par conséquent, les différentes radiations constituant la lumière fossile ont vu leur longueur d'onde augmenter en accompagnant l'espace dans son expansion. Plus précisément l'Univers aurait grossi dans ses dimensions linéaires d'un facteur 1500 environ (auquel correspond un facteur 1500×1500×1500, soit plus de 3 milliards en volume) entre l'époque où le rayonnement a été émis et celle où nous le recevons. Les longueurs d'onde sont donc toutes 1500 fois plus grandes qu'à l'origine : au départ exprimées en fractions de microns elles appartiennent aujourd'hui au domaine millimétrique.

Corrélativement - car qui dit longueur d'onde plus grande dit énergie plus petite et donc aussi température plus petite, dans la même proportion - le rayonnement observé correspond de nos jours à une température de trois degrés (2,7 si on tient à être précis), ce nombre trois provenant, d'après le raisonnement, de la réduction par le facteur 1500 (représentant l'effet de l'expansion) des 4500 degrés de départ.

 

COMMENTAIRES

 

Selon cette thèse officielle, les photons primordiaux sont passés de 3000K à 2.7K par le seul effet de la dilatation de l’univers  qui a « étiré » les longueurs d’onde de ces photons.  Le problème est alors le suivant : un photon se déplaçant  à la vitesse de 299792 km/s, pour allonger la longueur d’onde de celui-ci, cela suppose que l’espace s’étire à cette même vitesse et que l’expansion se déroule CONTINUEMENT à vitesse luminique constante. Cela signifie qu’il ne saurait y voir ralentissement de l’expansion et qu’en ce moment toutes les galaxies devraient fuir à cette vitesse. Si en effet l’expansion était inférieure à C, si elle ralentissait progressivement, les photons  iraient plus vite et cesseraient de s’étirer et finalement nous devrions percevoir les tout premiers puis plus rien, un grand silence sidérale sur nos récepteurs.

 

Autre difficulté : supposons 3 photons primordiaux A,B,C séparés par une distance « d » circulant naturellement chacun à la vitesse C. Pour qu’ils puissent s’étirer et nous parvenir successivement séparés par une distance d’ correspondant à la vitesse différentiel de l’expansion, il faut que le photon A  aille plus vite que B et que B soit également plus rapide que C, bref, il faut que A et B se déplacent plus vite que la vitesse de la lumière ! Comme on le constate la thèse de l’étirement abouti à contredire radicalement la relativité.

 

Que penser  dès lors de cette thèse qui interprète le rayonnement fossile comme un « souvenir » de l’explosion primordiale du big bang ? Quelle est une gigantesque escroquerie intellectuelle qui fera rire les générations futures comme nous rions de nos anciens qui pensaient que la terre était plate. On se demande en effet comment des gens sensés peuvent croire à cette affabulation selon laquelle un espace qui s’étire peut entraîner dans sa gymnastique quotidienne l’étirement des longueurs d’onde des photons lesquels se déplacent à la vitesse C supérieure à la pseudo expansion de l'espace! 

Non, il faudrait reprendre raison, et balayer de devant la porte de la science tous ces concepts et conceptions qui nous empêchent d’accéder à la vraie vérité quant à l’origine de ce bruit de fond  que représentent ces rayonnements prétendus « fossiles ». Il y a d’autres explications possibles que nous avons fournis sur notre site.

 

mardi 19 janvier 2021

106 -DE LA SIMPLICITE DE LA NATURE

Partons du principe de base que le Grand Architecte de l’Univers est un « être » humble et modeste, assez simplet pour ne pas se compliquer la vie  le reste de son éternité. « IL » aura surtout compris dans sa grande sagesse que le complexe résulte de la combinaison d’éléments assez simples comme on peut le constater avec les 3+1 particules de base, les 4+1 lettres de l’ADN ou le langage binaire qui permet le codage de nos puissantes machines électroniques.

On est alors surpris, voire émerveillés, devant la faconde créatrice de nos différents théoriciens et expérimentateurs en physique qui imaginent toutes sortes d’objets physiques, des particules étranges, des énergies et des matières noires, des whimps, particules quantiques et subquantiques, des tachyons, bosons de Higgs, des quarks, cordes etc, la liste est infinie. Les caractéristiques de ces trouvailles, c’est qu’elles sont pour l’immense majorité, sinon toutes, absolument indétectables, qu’elles n’ont pour vertu que de conforter la cohérence d’équations, et qu’on ne sait jamais avisé de définir la moindre de leur propriété physique singulière. Quant aux théories de l’univers, leur nombre est tout aussi considérable, certains sont en expansion, d’autre en inflation, il y a de multiple univers qui cohabitent ou naissent successivement, le problème dans ce domaine c’est qu’il ne sera jamais possible de renouveler l’expérience de la genèse. Ici, la science officielle rejoint la science-fiction.

On peut se demander quelle est la cause de ce qui nous apparait comme un dérèglement des sens chez beaucoup de théoriciens et praticiens. C’est que tout d’abord la physique connaît une grave crise de ses fondements qui explique la multiplication des thèses et théories concurrentes qui fait la joie des amateurs se sentant autorisés à intervenir sur le lieu même de la physique officielle. En effet, le Graal de la physique, la théorie unitaire des forces n’a toujours pas été découverte et ce n’est pas le modèle standard et son boson de Higgs unifiant qui va convaincre les sceptiques.

D’autre part, cette crise des fondements a une origine plus générale : l’extrême richesse des moyens de la connaissance et corrélativement l’abondance de cerveaux formés dans les plus grandes écoles et centres de recherche. Aussi, ces hommes de grand talent, disposant de moyens d’analyse et de calcul considérables sont totalement incapables de penser la simplicité, de se faire à l’idée qu’il est inutile de rechercher la vérité scientifique bien loin et que tout, mais Tout est à portée de main pour déchiffrer les secrets premiers du fonctionnement de l’univers.

Ces brillants cerveaux, rompus aux calculs les plus savants, aux échafaudages théoriques les plus sophistiqués, ne peuvent admette ni comprendre le plus simple. Ils projettent sur la nature leur propre complexité comme auparavant les hommes avaient imaginé Dieu à leur image.

Nous avons longuement développé sur ce blog et nos sites en quoi consistait cette simplicité initiale de la nature ne comportant que deux substances interdépendantes : prématière et matière. Nous avons également démontré que l’existence de cette prématière était aisément perceptible puisque se manifestant sous la forme des ondes électromagnétiques. Mais notre approche est bien trop évidente pour ceux qui s’attendent au plus embrouillé ; Notre démonstration est bien trop banale pour des esprits cherchant le merveilleux et l’inattendu. Aussi, ne reste-t-il qu’une seule voie pour se faire entendre : imaginer le très  compliqué comme cela est « fashion » dans le monde de la physique.

 

 

lundi 18 janvier 2021

105 - TROUS NOIRS ET TROUS NOIRS

Une confusion semble entretenue en astrophysique quant au concept de trou noir qui recouvre deux réalités complètement différentes. Les trous noirs stellaires résultent de l’effondrement d’un astre qui atteint une densité telle qu’aucune lumière ne peut s’en extraire. Par contre ce que nous proposons de nommer « matière morte stellaire » est le résultat d’une extinction de l’étoile qui n’émet plus de lumière. Les deux phénomènes n’ont ceci de commun que de n’être pas visibles, ce qui leur vaut une appellation commune de « trous noirs ». Ils peuvent différer également par la densité puisque dans le cas d’un trou noir stellaire, la densité moyenne d’un trou noir super massif peut en fait être très faible (parfois plus faible que celle de l’eau). Cela s’explique par le fait que le rayon de Schwarzschild du trou noir croît corrélativement avec la masse, ce qui induit que la densité décroît selon le carré de la masse : plus le trou noir est grand, plus sa densité moyenne chute, même si sa masse croît sans limite.

Toutes les galaxies possèdent un trou noir super massif qui n’ont donc pas la densité absolue des trous noirs stellaires De fait, ces trous noirs super massifs sont composés de matière morte stellaire, c’est-à-dire d’une agglomération d’étoiles mortes. Mais, l’usage abusif du terme « trou noir » laisse à penser, en relation avec le concept relativiste, qu’il s’agit d’un seul et même objet d’une monstrueuse densité. Or à l’évidence, avant d’être un trou noir stellaire de type relativiste ne laissant pas échapper la lumière, l’astre a du se refroidir et se densifier lentement si bien qu’il paraît difficile de distinguer trou noir stellaire et matière morte stellaire.

Aussi, le trou noir central des galaxies est-il composé d’un grand nombre de ""trous noirs stellaires,"" c’est-à-dire d’étoiles froides n’émettant plus de lumière. Nous n’avons donc pas affaire à un monstre unique comme l’usage du terme de trou noir nous invite à le penser. Car en effet, on peut se demander si cette confusion entretenue ne possède pas sa propre légitimité, si elle ne sert pas à recouvrir un problème que l’on veut pudiquement camoufler. « C’est que des observations ont montré l’existence de trous noirs supermassifs à très grands décalages vers le rouge, c’est-à-dire au début de l’évolution de l’univers. Ces trous noirs n’ont ainsi pas eu le temps de se former par simple accrétion d’étoiles. «

Ainsi, admettre que le trou noir central d’une galaxie n’est pas composé d’un monstre unique et mystérieux mais tout simplement d’une agglomération de vieilles étoiles de toutes tailles et masses, cela exige de rallonger considérablement l’âge de l’univers pour donner le temps à ces étoiles de se refroidir et de se concentrer. Le dogme des 13.7 années de l’âge de l’univers est donc bien trop restreint mais le remettre en cause signifierait rendre caduque  l'idée d'un big bang et celle du début d'un l'univers...dans la perspective d'un univers incréé et éternel comme nous le suggérons.

dimanche 17 janvier 2021

104 - DE QUOI LE VIDE EST-IL PLEIN (2) ?

 L'éther a été " évacué " par Einstein mais  le vide devait se peupler très rapidement  d'objets, de fonctions, de propriétés particulières que nous pouvons recenser :

1) Le vide est plein de champs EM et d’ondes gravitationnelles et d’un fluide

a) Einstein avait commencé d'envisager la quantification des ondes de gravitation. La théorie de la relativité générale, théorie des champs, devait impliquer l'existence de telles ondes. Mais du fait de la nature de cette théorie, il devrait s'agir d'ondes de l'espace lui-même, des rides de courbures se déplaçant à la vitesse de la lumière. Dés lors, la matière devrait faire partie du champ et Einstein espérait que la matière se manifesterait comme une espèce de "grosseur" du champ..

b) Aujourd’hui, la théorie unifiée prévoit que se sont les gravitons - particules messagères - qui sont chargée de transmettre le mouvement à travers l’espace. Il s’agit de particules insaisissables (difficilement décelables) qui transportent de l’énergie et seraient «du vide qui oscille  ».

c)  La  constante cosmologique Λ peut se définir  comme la  densité d énergie d un fluide remplissant l’univers  et dont la pression  se trouve exactement  à l’opposé de sa densité d’énergie.

2) Le vide est plein de rayonnements dit fossiles  issus de l'époque dense et chaude qu'aurait connue l'Univers et possède une température très basse de 2,726 K.

3) Le vide est constitué par une mer d’énergie négative

Avec  Dirac le vide est l'état fondamental,  une configuration de l'espace de Fock,  où tous les états possibles d'énergie négative sont occupés par un électron. Comme les électrons sont des fermions et que tous les états d'énergie négative sont occupés, il est impossible de mettre un seul électron dans un état d'énergie négative. Tout se passe comme si les états d'énergie négative n'existaient pas. Mais si un état d'énergie négative n'est pas occupé, s'il y a un trou dans ce continuum, Dirac l’interprète comme une particule d'énergie positive. Comme il y a un trou, un électron peut y tomber. C'est qu'il a rencontré un positron avec lequel il s'est annihilé. En effet, une fois tombé dans le trou, il s'est perdu dans le vide. Réciproquement, un photon d'énergie négative peut éjecter un électron du continuum d'énergie négative en laissant un trou : on dira que le photon s'est matérialisé en une paire électron-positron.. Si la charge électrique est rapidement variable, il se produit dans la polarisation du vide des fluctuations qui réagissent avec le champ inducteur.  

Le malheur a voulu que cette idée se soit  révélée exacte puisqu'on très peu de temps après on découvrit le positron prévu par la théorie et  la création d'une paire e+, e- à partir d'un photon énergétique est devenue une affaire courante.

4) Le vide est un réservoir infini d’énergie

Le vide est présenté comme un réservoir infini à partir duquel on peut créer toutes les particules que l'on veut mais c'est en même temps le néant dans lequel les particules peuvent disparaître. Richard Feynman a considéré que le vide contenu dans une simple ampoule serait suffisant pour faire bouillir tous les océans de la planète. Le vide serait alors le siège de manifestations physiques les plus violentes. Celles-ci ne peuvent être observées, mais ont peu appréhender leurs effets : c'est le cas de l'effet Casimir. Le rayonnement électromagnétique du point zéro ( -273°) provoque une très légère suppression à l’extérieur de plaques et les rapproche. Ce rapprochement a été mesuré par Sparnaay. Cela signifie qu'il y a bien une énergie du vide. Certains proposent même d’en extraire l'énergie en utilisant l'effet Casimir.

5) Le vide, c’est l’état d’énergie minimum du système physique

La physique quantique y découvre le lieu d'une énergie considérable, infinie. Cependant, dans le même temps elle conçoit ce vide  comme l'état fondamental du système c.a.d. à un état d'énergie minimum, un état d'équilibre sans excitation.

6) Le vide, est plein de particules virtuelles

Dans le vide résident toutes les particules que nous ne connaissons pas encore. Il n'est plus ce  milieu inerte et sans propriétés mais se trouve au contraire tout vibrant d'énergie. Sans cesse le vide fluctue du fait des mouvements des champs électromagnétiques, des paires de particules virtuelles sont produites.

La théorie des champs permet aux particules d'interagir avec elle-même. Ainsi, lorsqu'un électron émet un photon et le réabsorbe, à la limite cette boucle peut s'effectuer en un temps nul, ce qui correspond, selon les relations d'Heisenberg, à une énergie impulsion infinie. L’équation de Dirac contient des paramètres infinis car un électron en mouvement crée un champ électromagnétique et il interagit avec son propre champ. Ceci empoisonne les calculs de quantités infinies comme la masse propre de l'électron qui doit être calculée en tenant compte de l'interaction de l'électron avec son propre nuage de photons virtuels. Le procédé de renormalisation fait disparaître ces divergences indésirables en les associant à des quantités infinies de signe opposé de façon à ce que la somme algébrique de ces deux infinis redonne la valeur expérimentale de l'électron en l'absence de photons virtuels.  Ce tour de passe-passe mathématique est délicat à effectuer mais on parvient à éliminer les infinis en préservant les équations.

7) Le vide produit un effet d’écran sur les particules

En E.D.Q le vide est assimilé à un milieu diélectrique (isolant)  polarisable par fluctuations quantiques et capable d'écranter la charge électrique. Lorsqu'un électron se déplace, il faut le concevoir comme naviguant dans une soupe de particules virtuelles qui l'assaillent continûment. Le processus par lequel un électron émet puis réabsorbe des photons virtuels implique que chaque électron soit enveloppé d'un essaim de ces photons. En effet, on  explique désormais le fonctionnement de la charge par une émission d'un photon virtuel qui est (presque) aussitôt absorbé. Les photons virtuels qui entourent toute particule chargée représentent des paires virtuelles e+, e-. Si la particule est un électron, sa charge électrique aura tendance à attirer les e+ virtuels et à repousser les e-virtuels. Cette polarisation a un effet d'écran sur la charge centrale, la charge effectivement perçue est plus faible que la charge réelle de l'électron. Cette polarisation du vide contribue de façon minuscule mais mesurable au décalage de Lamb. Le nuage virtuel modifie légèrement (ge =0.00115 ) le moment magnétique de l'électron.      La durée de ces transitions imaginaires est bien sûr encadrée par les inégalités de Heisenberg.

8) Le vide permet de contourner la loi de conservation de l’énergie

Les relations d'incertitude de Heisenberg apportent un moyen fort pratique de détourner la loi de conservation de l'énergie. L'espace vide des champs n'a ainsi plus de sens : le vide est rempli de champs d'interactions qui en vertu des principes relativistes et quantiques sont soumis à des fluctuations quantiques. Ces fluctuations correspondent à la matérialisation des champs pendant des laps de temps très courts. Toute la matière et toutes les interactions sont présentes dans l'espace vide pourvu que l'on considère cet espace pendant des intervalles de temps suffisamment brefs.  (Cela signifie que plus un événement est bref et plus il a de chances « d’exister »).

9) Le vide et la question de Feynman

Cependant certains physiciens ont  posé des questions fondamentales, tel Feynmam :

Si nous avons une particule chargée et que nous la poussions pendant un instant, il y aura une quantité de mouvement dans le champ électromagnétique. Celui-ci va donc réagir c'est-à-dire opposer une résistance. La quantité de mouvement apportée par la particule poussée va avoir pour objet de déclencher le mouvement du champ. C'est donc que dans le champ existait une force de résistance et que celle-ci avait la  valeur de la quantité de mouvement transmise au champ. Si le champ en effet n'était pas constitué d'une force, il ne serait pas nécessaire d'apporter de l'extérieur une quantité de mouvement pour susciter une réaction. Si donc le champ nécessite un apport d'énergie extérieur pour le mettre en mouvement afin que ce mouvement soit transmis, il faut bien que quelque chose résiste, qu'une force s'y trouve logée. Mais une force comme une énergie suppose toujours quelque chose qui la supporte ou qui la déploie. Se pose alors la question de savoir ce qui suscite l'énergie de résistance des champs.

 On n’a jusqu’à présent jamais répondu à cette question de Feynman.