04/07/25

Découverte d'une explosion de naine blanche en dessous de la limite de Chandrasekhar


Les supernovas de type Ia jouent un rôle fondamental en tant que "chandelles standard" pour étudier l’accélération apparente de l’expansion de l’Univers et pour mesurer son taux actuel. Le principe de chandelle standard repose en grande partie sur le fait que les supernovas de type Ia, l’explosion thermonucléaire d’une étoile naine blanche, survient toujours lorsque la naine blanche atteint la masse critique de Chandrasekhar (1,4 masses solaires) par apport de masse externe. Mais une nouvelle observation d’un jeune résidu de supernova indique que l’explosion a eu lieu bien en dessous de 1,4 masses solaires… Et si les supernovas de types Ia n’étaient pas les chandelles standard que l’on croit ? L’étude est parue dans Nature Astronomy.

Malgré leur importance capitale, la compréhension complète des systèmes progéniteurs des supernovas Ia et de leur mécanisme de déclenchement reste un problème fondamental encore aujourd’hui. Dans une naine blanche composée de carbone et d'oxygène et approchant la masse de Chandrasekhar, l'augmentation de la densité centrale déclenche inévitablement une combustion nucléaire. La masse d'explosion presque constante que fournit le modèle d'explosion à la masse de Chandrasekhar était une explication de l'homogénéité attribuée aux supernovas de type Ia. Mais des données d'observation de plus en plus nombreuses remettent en question la notion d'homogénéité des supernovas de type Ia, et une masse fixe semble même problématique pour reproduire la relation largeur spectrale-luminosité, qui est vitale pour calibrer les supernovas de type Ia en tant qu'indicateurs de distance cosmologique.

En fait, il apparaît que la relation largeur-luminosité s'explique plus naturellement par une masse variable des naines blanches et qui serait inférieure à la limite de Chandrasekhar. En outre, la capacité de faire croître les naines blanches jusqu'à la masse de Chandrasekhar limite les paramètres du système binaire progéniteur à une gamme étroite, de sorte que le taux de supernovas de type Ia qui est observé aujourd’hui est difficile à concilier avec le nombre attendu de systèmes compatibles avec le scénario d'explosion à la masse de Chandrasekhar. Il faut donc envisager d'autres scénarios impliquant des explosions d'étoiles naines blanches carbone-oxygène bien en deçà de la limite de Chandrasekhar.

La collision frontale de deux naines blanches peut sembler prometteuse pour produire des explosions de supernovas de masse inférieure à la limite de Chandrasekhar, mais ce scénario n'est pas privilégié par les astrophysiciens car les taux d'occurrence prévus sont trop faibles. Le scénario actuellement le plus prometteur pour l'explosion d’une naine blanche de masse inférieure à 1,4 masses solaire, c’est celui dit de la « double détonation ». Dans ce scénario, une naine blanche carbone-oxygène recueille de la matière riche en hélium provenant d'une compagne (d'une étoile à hélium ou d'une autre naine blanche riche en hélium, ou de la fine couche d'hélium préexistante au sommet d'une naine blanche carbone-oxygène lors d'événements de fusion). Dans cette couche d'hélium, une détonation thermonucléaire est déclenchée soit par un chauffage par compression lorsque la couche d'hélium devient suffisamment massive, soit par des instabilités dynamiques. Cette première détonation se propage ensuite à travers la fine couche d'hélium et provoque une onde de choc dans le noyau carbone-oxygène, où elle se concentre sphériquement dans un petit volume. La compression et l'échauffement du cœur de carbone-oxygène déclenchent une seconde détonation dans le cœur et font exploser complètement la naine blanche de masse inférieure à la limite de Chandrasekhar.

Bien que de nombreuses simulations indiquent que le mécanisme de double détonation est possible, elles n'ont pas encore permis de déterminer les échelles spatiales sur lesquelles la détonation primaire de l'hélium doit apparaître. Même si elles sont incapables de déterminer les détails de l'allumage des détonations nécessaires, ces simulations fournissent tout de même des informations essentielles sur la structure, la morphologie et les spectres précoces d'une supernova de type Ia à double détonation.

En termes de nucléosynthèse par double détonation, les explosions dans le noyau de carbone-oxygène et dans la couche externe riche en hélium donnent des produits qualitativement différents. En effet, le type de combustible (carbone-oxygène ou hélium) et les densités (densité plus élevée dans le cœur et plus faible dans la couche externe) diffèrent considérablement, d'environ deux ordres de grandeur. Dans le cœur, la densité du combustible est le paramètre clé qui détermine l'issue de la combustion nucléaire explosive. Pour les densités supérieures à 7 × 106 g cm-3, la combustion est presque complète et les éléments du groupe du fer, en particulier le noyau radioactif 56Ni, dominent les rendements de la nucléosynthèse. Aux densités « intermédiaires », plus éloignées du centre du noyau, l'échelle de temps de la fusion nucléaire devient de plus en plus longue et l'expansion rapide de la supernova conduit à un gel des réactions nucléaires avant que la combustion en éléments du groupe du fer ne soit achevée. En conséquence, la synthèse d'éléments de masse intermédiaire domine dans ces régions, les éléments intermédiaires les plus lourds comme le calcium étant relativement plus abondants à l'intérieur et les éléments les plus légers comme le silicium ou le soufre devenant relativement plus abondants à mesure que la densité du combustible diminue vers l'extérieur. Finalement, la densité devient trop faible (3 × 106 g cm-3) pour que l'oxygène puisse brûler et seul le carbone continue à brûler pour donner des éléments légers comme l'oxygène, le néon et le magnésium. Une structure en couches se forme dans le résidu.

À des densités encore plus faibles, la composition du combustible change rapidement, là où commence la couche d'hélium. Il faut rappeler qu'en raison de sa barrière de Coulomb plus faible, l'hélium 4 est plus réactif et que des détonations dans l'hélium sont possibles jusqu'à des densités beaucoup plus faibles. Comme dans le cas du noyau carbone-oxygène, les détonations à enveloppe d'hélium produisent une progression en couches radiales de la masse atomique des produits de combustion, les éléments les plus lourds comme le chrome, le fer ou le nickel étant synthétisés de préférence dans les parties internes et plus denses de l'enveloppe d'hélium ; les éléments plus légers comme l'hélium non brûlé, le carbone ou l'oxygène se trouvent dans les parties externes et moins denses de l'enveloppe d'hélium, et les éléments de masse intermédiaire comme le silicium ou le soufre se trouvent entre les deux.

Compte tenu de ces modélisations des signatures nucléosynthétiques du noyau de CO et de la coquille d'He, les modèles de double détonation prévoient notamment  que le calcium soit concentré dans deux couches distinctes : une couche interne provenant de la région du noyau, correspondant à la combustion incomplète de la détonation de CO (à des densités de combustible de l'ordre de quelques 106 g cm-3), et une couche externe correspondant à la détonation de l'He (à des densités de combustible de l'ordre de quelques 106 g cm-3). Cette couche externe doit avoir une vitesse plus élevée dans l'éjecta de l'explosion en expansion, correspondant à la base de la coquille de He. Les modèles d'explosion de Collins et al. prédisent une telle morphologie de double coquille de Calcium, avec des éléments de masse intermédiaire plus légers que Ca, tels que S ou Si, situés entre les deux coquilles.

Alors que les simulations numériques ne peuvent à elles seules confirmer que le mécanisme de double détonation existe dans la nature, une observation confirmée de la structure à deux coquilles révélatrice fournirait une preuve directe de son fonctionnement dans les supernovas de type Ia.

À ce jour, la supernova SN 2018byg est largement reconnue comme l'un des cas les plus convaincants liant le mécanisme de double détonation à une explosion de supernova de type Ia et est mieux expliquée par un modèle qui incorpore une couche d'hélium plutôt massive.

En raison de la petite taille angulaire aux premiers instants de la supernova, la structure unique de l'« empreinte » du Ca (la morphologie à double coquille) reste spatialement non résolue aux époques proches du pic de luminosité (15 à 20 jours après l'explosion), c'est pourquoi toute déduction d'une structure d'éjecta à double coquille à partir d'observations à ces phases dépend fortement de l'interprétation des caractéristiques spectrales.

Heureusement, ces caractéristiques changent avec le temps, car la supernova se dilate continuellement. Priyam Das (University of New South Wales,  Australie) et ses collaborateurs se sont intéressés à un jeune résidu de supoernova de type Ia situé dans le Grand Nuage de Magellan qui est nommé SNR 0509-67. Ils ont réussi l'exploit de prendre un instantané spatialement résolu d'une double coquille de calcium présente dans le résidu de supernova, grâce à l'instrument MUSE (Multi Unit Spectroscopic Explorer) du Very Large Telescope. Il leur aura fallu une pose totale de 29 h 15 min sur 39 nuits réparties entre novembre 2019 et février 2021. 

La morphologie à double coquille qu'ils ont observée est constituée de calcium hautement ionisé [Ca XV] et ils ont également isolé une coquille unique de soufre ionisé [S XII], qui est observée dans l'éjecta à chocs inversés. L'analyse des chercheurs révèle que la coquille externe de calcium provient de la détonation de l'hélium à la base de l'enveloppe externe, tandis que la coquille interne est associée à la détonation du noyau carbone-oxygène. Cette distribution morphologique d'éléments intermédiaires correspond qualitativement à la signature prédite de la double détonation d'une naine blanche de masse inférieure à la limite de Chandrasekhar par les simulations d'explosions hydrodynamiques. Comme les observations de Das et ses collaborateurs révèlent deux pics distincts et spatialement séparés dans la luminosité de surface de [Ca XV], cela fournit des preuves substantielles que des explosions de naines blanches de masse inférieure à la limite de Chandrasekhar par le mécanisme de double détonation peuvent bel et bien se produire dans la nature. 

Cette preuve implique que certaines supernovas Ia de type 1991T s'expliquent de manière plausible par des doubles détonations de naines blanches de masse inférieure à celle de Chandrasekhar. Les chercheurs précisent que le modèle d'explosion à double détonation de masse la plus élevée prédite par Gronow et al. en 2021 a produit 0,84 M⊙ de 56Ni, ce qui se situe dans la plage prédite pour les supernovas Ia de type 1991T. Par ailleurs, des observations récentes de SN 2022joj et SN 2020eyj suggèrent la possibilité d'un événement de type 1991T à partir de la double détonation d'une naine blanche CO. Et d'autres analyses d'observations de SN 2020eyj qui montre des preuves de matière circumstellaire riche en hélium, ont également pointé l'année dernière vers le mécanisme de double détonation.

Malgré les capacités de simulation tridimensionnelle limitées et le fait qu'à ce jour, aucun modèle d'explosion ne puisse expliquer de manière adéquate les supernovas Ia de type 1991T, les récentes simulations de transfert radiatif qui intègrent la physique de l'équilibre thermodynamique non local sont plus prometteuses. Il a notamment été rapporté récemment que les éléments lourds dans des états d'ionisation plus élevés devaient réduire les effets d'absorption, ce qui permettrait à une plus large gamme de masses de couches d'He de mieux concorder avec les spectres des supernovas Ia observées.

De récentes simulations multidimensionnelles de double détonation montrent aussi que, dans le scénario de la fusion de naines blanches, en plus de la naine blanche primaire subissant une double détonation, la naine blanche compagne peut elle aussi également subir une double détonation  lorsqu'elle est impactée par les éjectas de la naine blanche primaire en explosion. Cela résulte donc en une « quadruple détonation » dans le système. Une telle double double détonation pourrait également conduire à la structure à double coquille observée du calcium selon les chercheurs.

Bien qu'ils ne soient actuellement pas en mesure de différencier de manière concluante les différentes variantes de doubles détonations, Das et ses collaborateurs avec leur découverte peuvent dire avec assurance qu’une certaine forme de double détonation conduit bien à des supernovas de type Ia, avec toutes les conséquences que cela peut avoir sur l'idée de les utiliser comme des chandelles standard...


Source

Calcium in a supernova remnant as a fingerprint of a sub-Chandrasekhar-mass explosion

Priyam Das, et al.

Nature Astronomy (2 juillet 2025)

https://doi.org/10.1038/s41550-025-02589-5


Illustrations

1. Image du résidu SNR 0509-67 obtenue avec le VLT (ESO)

2. Priyam Das

29/06/25

Découverte d'un mini halo radio dans un amas de galaxie distant de 10 milliards d'années-lumière

Une équipe d'astrophysiciens a découvert un halo radio situé à 10 milliards d'années-lumière, il révèle que les amas de galaxies de l'univers primordial étaient déjà imprégnés de particules de haute énergie. Cette découverte suggère une activité ancienne de trous noirs ou bien des collisions de particules cosmiques énergétiques. L'étude est publiée dans The Astrophysical Journal Letters.

Ces vastes nuages de particules énergétiques sont appelés des « mini halos ». Ils entourent généralement des amas de galaxies. Celui que Julie Hlavacek-Larrondo (université de Montréal) et ses collaborateurs internationaux ont découvert est le plus éloigné jamais observé : 10 milliards d'années-lumière, doublant le précédent record.

Cette découverte démontre que des amas de galaxies, parmi les plus grandes structures de l’univers, ont été immergés dans des particules de haute énergie pendant la majeure partie de leur existence. Un tel mini-halo est constitué de particules chargées et hautement énergétiques dans le vide entre les galaxies d'un amas, qui émettent ensemble des ondes radio qui peuvent être détectées depuis la Terre. Les résultats montrent que même dans l'univers primitif, les amas de galaxies étaient déjà façonnés par des processus énergétiques.

Les chercheurs ont analysé les données du radiotélescope Low Frequency Array (LOFAR), un vaste réseau de plus de 100 000 petites antennes couvrant huit pays européens, dans la bande de fréquences entre 120 et 168 MHz.

En étudiant l'amas de galaxies nommé SpARCS 1049+5640, qui est l'amas de galaxies à cœur froid le plus éloigné identifié à ce jour (z=1,7), ils ont détecté un signal radio faible et étendu et ont déterminé qu'il ne provenait pas de galaxies individuelles, mais d'une vaste région remplie de particules de haute énergie et de champs magnétiques. La zone s'étend sur plus d'un million d'années-lumière et les chercheurs montrent que l'émission radio diffuse coïncide spatialement avec l'émission X du milieu chaud intra-amas. Il possède une puissance radio de 49,8 1024 W.Hz-1, présentant des similitudes frappantes avec les minihalos radio à faible décalage vers le rouge. Cette découverte double le record de décalage vers le rouge des minihalos précédemment connus. Selon Hlavacek-Larrondo et ses collaborateurs, cette découverte remet en question les modèles de pertes par processus Compton inverse et indique la présence de champs magnétiques intenses, d'une turbulence accrue dans les amas à fort décalage vers le rouge, ou bien de processus hadroniques actifs nécessitant un rapport énergie des rayons cosmiques / énergie thermique de 0,07 sur une distance de 200 kpc. 

Cela implique en outre que les champs magnétiques sont efficacement amplifiés jusqu'à 10 µG dans un volume de 1 Mpc3 pendant l'époque de formation des amas avant z=2. 

Selon Hlavacek-Larrondo et ses collaborateurs, il y a deux explications probables derrière la formation de ce mini-halo.

La première met en scène des trous noirs supermassifs au cœur des galaxies de l'amas, qui sont capables d'éjecter des flux de particules de haute énergie dans le milieu intergalactique. Mais cette hypothèse se heurte à la question de savoir comment ces particules pourraient s'éloigner du trou noir pour créer un nuage de particules aussi gigantesque, tout en conservant une telle quantité d'énergie.

La deuxième explication fait intervenir des collisions de particules cosmiques. Il s'agit de collisions de particules chargées au sein du plasma chaud de l'amas de galaxies à des vitesses proches de celles de la lumière, interagissant entre elles pour former des particules hautement énergétiques qui émettent au final des ondes radio par effet Synchrotron dans les champs magnétiques.

Étant donné la nature de cet amas (sa masse élevée pour son décalage vers le rouge, ses caractéristiques de noyau froid prononcé et le fait que le noyau froid soit déplacé par rapport à la BCG (la galaxie la plus brillante de l'amas), il n'est peut-être pas surprenant de détecter une telle structure dans ce système, pour les astrophysiciens qui ont fait cette découverte. Ils ajoutent dans la conclusion de leur article  que leurs résultats suggèrent que de telles structures pourraient s'être formées très tôt dans la vie des amas de galaxies. Et donc, cela implique que des particules relativistes et des champs magnétiques puissants étaient déjà présents dès z∼1.7 (c'est-à-dire quand l'Univers n'était âgé que de 3,8 Gigannées), et que des processus de réaccélération ou des mécanismes hadroniques étaient actifs à l'époque de la formation des amas. 

Par conséquent, les amas de galaxies, y compris leurs progéniteurs (les proto-amas), pourraient avoir été immergés dans des particules relativistes pendant la majeure partie de leur existence. Cet environnement pourrait influencer les galaxies qui y résident, et potentiellement façonner leur évolution. Cette étude apporte ainsi de nouvelles perspectives sur l'évolution des structures à grande échelle et le rôle de l'émission radio diffuse au cours du temps cosmique.

L'avènement d'installations de nouvelle génération, notamment les relevés à haute sensibilité et haute résolution du SKA et du ngVLA, fera sans aucun doute progresser ce domaine, permettant l'exploration de ces phénomènes avec une précision sans précédent.


Source

Discovery of Diffuse Radio Emission in a Massive z = 1.709 Cool Core Cluster: A Candidate Radio Mini-Halo

Julie Hlavacek-Larrondo et al.

à paraître dans The Astrophysical Journal Letters


Illustrations

1. L'amas SpARCS 1049+5640 et son mini halo imagés dans différentes longueurs d'ondes (visible, rayons X et radio) (HLavacek-Larrondo et al.)

2. Julie Hlavacek-Larrondo 


22/06/25

Détection directe en rayons X d'un filament de gaz intergalactique chaud (WHIM)


Des astronomes ont découvert un immense filament de gaz chaud reliant quatre amas de galaxies au sein du superamas de Shapley. Dix fois plus massif que notre galaxie, ce filament apparaît contenir une partie de la matière baryonique « manquante » de l'Univers, confirmant les prédictions des simulations cosmologiques qui allaient dans ce sens. Ils publient leur découverte dans Astronomy&Astrophysics.

On rappelle que, aujourd'hui, plus d'un tiers de la matière normale de l'Univers local manque à l'appel. Elle n'a pas encore été observée, mais elle est nécessaire au bon fonctionnement du modèle cosmologique. Le modèle standard suggère que cette matière insaisissable pourrait exister sous forme de longs filaments de gaz chaud, reliant les groupes d'amas qu'on appelle le WHIM (Warm <hot Intergalactic Medium). Ce dernier présente une faible luminosité de surface et une émission de rayons X mous, ce qui le rend difficile à détecter. Jusqu'à présent, l'émission X du WHIM n'a ​​été détectée que dans un très petit nombre de filaments individuels, tandis que c'est dans un nombre encore plus restreint de filaments, que le WHIM a pu être analysé par spectroscopie.

Konstantinos Migkas (Université de Leiden) et  ses collaborateurs ont utilisé les télescopes spatiaux à rayons X XMM-Newton de l'ESA et Suzaku de la JAXA pour caractériser un tel filament de gaz chaud qui relie deux paires d'amas de galaxies entre eux : A3530/32 et A3528-N/S. Ils ont utilisé XMM-Newton pour rendre compte de manière robuste des sources ponctuelles dans le filament, que Suzaku ne parvient pas à détecter en raison de sa faible résolution angulaire, et pour caractériser complètement les amas voisins et leur contamination du signal dans la région du filament (par exemple des trous noirs supermassifs en arrière plan ou en avant plan). 

Migkas et ses collaborateurs ont ainsi produit l'imagerie directe et la détection spectroscopique de l'émission thermique étendue du WHIM de ce filament unique. Leur analyse confirme l'existence d'une émission de rayons X supplémentaire de 21±3 % dans tout le filament par rapport au fond du ciel à un niveau statistique de 6,1 σ . Les chercheurs parviennent à contraindre la température du gaz du filament, la densité électronique et la surdensité baryonique à respectivement  kT ≈ 0,8−1,1 keV (soit plus de 10 millions de K), ne ≈10-5 électrons.cm-3 et δb ≈ 30−40, respectivement, ce qui est en accord avec les simulations cosmologiques, et ce pour  pour la première fois pour un filament unique. Indépendamment de l'analyse des rayons X, les astrophysiciens identifient également une surdensité de galaxies dans tout le filament grâce à la base de données de vitesse du superamas de Shapley et peuvent limiter la longueur 3D du filament à 7,2 Mpc, avec un angle de 53° avec le plan du ciel. Il s'agit de la première détection spectroscopique en rayons X d'une émission du WHIM "pur" provenant d'un filament individuel et intact, sans contamination significative provenant de sources ponctuelles non résolues.

La détection de l'émission du WHIM des filaments cosmiques est essentielle pour résoudre le problème des baryons manquants et mieux comprendre la structure à grande échelle. Mais très peu d'études ont rapporté une détection par rayons X de l'émission provenant de filaments individuels, et encore moins d'études ont analysé l'émission WHIM spectralement. Dans cette étude, les chercheurs ont détecté sans ambiguïté un filament cosmique de 7,2 Mpc de long par imagerie et analyse spectroscopique. Ce filament avait été récemment découvert grâce à sa surdensité optique de galaxies par Aghanim et al. (2024).

Les quatre amas ont des masses intermédiaires d'environ 200 000 milliards de masses solaires. La masse totale de gaz du filament est d'environ 12 000 milliards  M⊙ . Les résultats de Migkas et al. concordent bien avec les propriétés thermodynamiques des filaments telles que prédites par les simulations cosmologiques de la structure à grande échelle. Mais des études antérieures avaient rapporté un δb environ 5 fois plus élevé pour d'autres filaments. Les chercheurs précisent que cette différence peut provenir du fait que leur méthodologie détaillée permet d'éliminer efficacement la contamination de l'émission de type AGN, ce qui a permis de retracer l'émission WHIM provenant uniquement du filament vierge, alors que les études précédentes auraient pu être davantage affectées par l'émission résiduelle des halos et des sources ponctuelles. Et cela pourrait les avoir conduits à surestimer la densité du gaz filamentaire.

En conclusion, Migkas et ses collaborateurs avertissent que, lorsque seules les données Suzaku sont utilisées (sans résoudre toutes les autres sources dans l'ensemble du filament), les propriétés du gaz sont significativement affectées et cela biaise les résultats finaux. C'est grâce à l'ajout des données X profondes de haute qualité, comme celles de XMM-Newton qu'ils ont pu caractériser le WHIM de manière robuste.

Les "baryons manquants" ne sont désormais plus manquants. 


Source

Detection of pure warm-hot intergalactic medium emission from a 7.2 Mpc long filament in the Shapley supercluster using X-ray spectroscopy

K. Migkas et al.

A&A, 698, A270 (19 June 2025)

Illustrations

1. Le filament de gaz chaud détecté entre les quatre amas de galaxies (Migkas et al.)
2. Konstantinos Migkas


15/06/25

Découverte d'une planète géante en orbite autour d'une étoile naine via son transit


Les modèles de formation planétaire indiquent que la formation de planètes géantes est beaucoup plus difficile autour des étoiles de faible masse en raison de l'échelle des masses du disque protoplanétaire avec la masse stellaire. Mais pourtant, une équipe d'astrophysiciens vient de découvrir une planète de 53 masses terrestres en orbite autour d'une étoile de 0,2 masses solaires. Ils publient leur étude dans Nature Astronomy.

Cette planète est nommée TOI-6894 b, elle a la particularité de produire un transit très profond sur la lumière de son étoile (17%), ce qui en fait une des géantes exoplanétaires les plus accessibles pour les observations de caractérisation atmosphérique, qui sont essentielles pour interpréter pleinement l'histoire de la formation de ce système remarquable, et aussi pour l'étude de la chimie du méthane atmosphérique. Grâce à la caractérisation de la courbe de lumière lors des transits, les chercheurs déduisent la masse et le rayon de la planète. Sa masse exacte est de 53,4 ± 7,1  M⊕, ou si on préfère 0,168 ± 0,022  M J, pour un rayon de 0,855 ± 0,022  R J.  TOI-6894 b orbite autour de son étoile hôte avec une période de 3,37 jours et son excentricité orbitale est de 0,029 ± 0,030.

Des exoplanètes géantes on en connaît, oui, mais des planètes géantes autour d'étoiles très petites, c'est une nouveauté. Les modèles de formation de planètes par accrétion du noyau prédisent que la capacité à former une planète géante est proportionnelle à la masse de l'étoile hôte. Ceci est principalement dû au fait que ces modèles imposent qu'une grande quantité de matière solide dans les disques protoplanétaires est nécessaire à la formation de planètes géantes et que les observations ont démontré que la masse de matière solide dans un disque protoplanétaire est proportionnelle à la masse de l'étoile. Par conséquent, on s'attend à ce que les étoiles moins massives que le Soleil forment moins de planètes géantes. En fait, plusieurs études récentes ont même prédit que les étoiles de très faible masse (M ≤ 0,3  M⊙ ) ne seraient pas capables de former des planètes géantes... 

La découverte d'exoplanètes orbitant autour d'étoiles sensiblement moins massives que le Soleil et la détermination de leur fréquence d'apparition constituent donc des tests cruciaux de la formation de planètes géantes. Les études existantes ont montré que les planètes géantes doivent être très rares autour des étoiles naines M moyennes à tardives, mais n'ont pas permis de fournir de mesures fiables de leur taux d'apparition.

C'est pour tester les prédictions des théories de formation de planètes géantes que Edward M. Bryant (University College, Londres) et ses collaborateurs  ont mené une étude utilisant les données photométriques du satellite TESS (Transiting Exoplanet Survey Satellite) pour rechercher des planètes géantes transitant devant des étoiles hôtes de faible masse. 

L'étoile TOI-6894, qui a une masse de seulement 0,207 masses solaires  a été initialement observée par TESS du 18 février au 18 mars 2020 à une cadence de 30 min. Un signal de planète candidate en transit avec une période de 3,37 jours a été signalé par Nguyen et al. en 2022 et a ensuite été identifié indépendamment par la Bryant et al l'année suivante. Ensuite, une surveillance plus fine par TESS, tout d'abord à une cadence de 10 min du 6 novembre au 30 décembre 2021 et du 26 février au 26 mars 2022 puis à une cadence de 2 min du 11 novembre au 7 décembre 2023, a confirmé la présence du signal de transit et l'a révélé comme une planète candidate probable. 

Bryant et ses collègues ont ensuite collecté un spectre proche infrarouge à moyenne résolution de l'étoile hôte en utilisant le spectromètre monté sur le télescope Magellan pour aider à la caractérisation stellaire et fournir une mesure de la métallicité. Des observations spectroscopiques à haute résolution obtenues en utilisant le spectrographe ESPRESSO au Very Large Telescope ont également été ajoutées et ont fourni la variation de la vitesse radiale stellaire à une période orbitale et une phase qui étaient cohérentes avec le signal de transit. Les chercheurs ont poursuivi avec d'autres observations spectroscopiques, cette fois  avec le spectrographe SPIRou (Spectropolarimètre Infrarouge) du télescope Canada-France-Hawaï (CFHT), qui ont permis de corroborer ce signal. Ils confirment ainsi  la nature planétaire pour le corps en transit. et ont pu déterminer que la gravité de surface du corps était de 5,73 ± 0,71 m s−2 , ce qui est cohérent avec un objet de masse planétaire.

Quant à l'étoile hôte, Bryant et ses collaborateurs montrent que TOI-6894 est une étoile naine M avec un rayon de 0,2276 ± 0,0057  R⊙ et une masse de 0,207 ± 0,011  M⊙ , ce qui est une masse très faible pour héberger une planète géante, en particulier dans le contexte de la population connue de planètes géantes. La basse température de l'étoile ( T eff  = 3 007 ± 58 K) fait que la planète TOI-6894 b a une température d'équilibre relativement froide de seulement 417,9 ± 8,6 K, en supposant un albédo A  = 0,1 et une redistribution efficace de la chaleur. 

TOI-6894 b a une masse de 0,168 M J , soit un peu plus de la moitié de la masse de Saturne, et un rayon de 0,855 R J , soit un peu plus grand que celui de Saturne. L'analyse révèle donc que TOI-6894 b est une planète géante de faible densité. 

Pour compléter la caractérisation de cette exoplanète hors-norme, Bryant et son équipe ont modélisé sa structure intérieure. Ils ont calculé la valeur de sa fraction massique métallique (la fraction de la masse totale de la planète qui n'est ni de l'hydrogène ni de l'hélium), elle vaut 0,23 ± 0,02. À partir de la métallicité stellaire mesurée de 0,142 ± 0,087, ils trouvent que la planète est enrichie en métaux par rapport à son étoile hôte, avec une fraction massique métallique un facteur 12 plus élevé. En termes de masse, cela donne une teneur massique en métaux pour TOI-6894 b de 12 ± 2  M⊕.

TOI-6894 b rejoint donc une population émergente de planètes géantes autour d'étoiles de faible masse découvertes grâce aux mesures de vitesse radiale, elles sont au nombre de 4 : LHS 3154 b, GJ 3512 b , GJ 3512 c, et TZ Ari b, et dont la présence pose de sérieux défis aux théories de formation actuelles. En particulier, le modèle d'accrétion du noyau, l'un des principaux mécanismes actuels de formation des planètes géantes, peine à former des planètes avec des masses supérieures à 30 M⊕ autour des étoiles de faible masse. La vision classique de la formation des planètes géantes par accrétion du noyau nécessite la formation d'un noyau massif, qui déclenche ensuite une phase d'accrétion de gaz incontrôlable. Les principaux obstacles à la formation de ces planètes sont la quantité limitée de matière solide dans le disque protoplanétaire avec laquelle former un noyau suffisamment massif. Car les étoiles de plus faible masse abritent en général des disques de plus faible masse, ainsi que les échelles de temps képlériennes plus longues autour de ces étoiles, ce qui inhibe la capacité de former un noyau suffisamment massif avant la dispersion du disque de gaz.

Mais, selon les chercheurs, il est possible que, avec une masse inférieure à celle de Saturne, TOI-6894 b n'ait pas eu besoin de subir une phase d'accrétion de gaz incontrôlable. Des études récentes ont en effet suggéré que les planètes de masse inférieure à celle de Saturne ont commencé leur formation par un processus d'accrétion du noyau, mais n'ont pas subi d'accrétion de gaz incontrôlable. Au lieu de cela, une phase intermédiaire d'accrétion d'éléments lourds peut se produire, accompagnée d'une accrétion régulière de gaz sur la protoplanète en formation. Un tel mécanisme pourrait fournir une voie plausible pour la formation de TOI-6894 b sans nécessiter de formation rapide du noyau ou de phase d'accrétion de gaz incontrôlable.

Une voie alternative pour la formation de planètes massives est la formation directe par condensation à partir d'un disque gravitationnellement instable. Ce mécanisme s'est avéré capable de former des planètes massives autour d'étoiles de faible masse, par exemple la planète GJ 3512b. Mais les simulations fournissent des conclusions divergentes sur la faisabilité de la formation d'une planète comme TOI-6894 b. En effet, un ensemble de simulations de formation de planètes autour d'étoiles de faible masse a produit seulement des planètes très massives avec des masses ≥ 2  MJ, indiquant que TOI-6894 b n'aurait pas pu se former par ce mécanisme. Et inversement, une autre série de simulations a démontré que ce mécanisme pouvait former des exoplanètes avec des masses dans la gamme de 0,1 à 0,3  MJ autour de protoétoiles de 0,2 M⊙, indiquant que ce mécanisme serait une voie de formation plausible pour TOI-6894 b. Les auteurs de la deuxième étude précisent en outre que les conditions initiales supposées pour les disques protoplanétaires étaient très différentes dans les deux séries de simulations... Donc, pour Bryant et ses collaborateurs, ce mécanisme reste une voie de formation plausible pour TOI-6894 b, même si des informations complémentaires sur la nature des disques protoplanétaires seront nécessaires avant de pouvoir interpréter pleinement sa formation par ce mécanisme.

Un obstacle potentiel à l'explication de la formation de TOI-6894 b par instabilité gravitationnelle provient de simulations de synthèse de planètes de 2017, qui n'ont formé aucune planète avec une masse de noyau supérieure à 5  M⊕ . C'est significativement inférieur à la teneur en masse métallique de 12 ± 2  M ⊕ de TOI-6894 b. Mais ces simulations n'ont pas pris en compte l'accrétion ultérieure de solides sur les fragments formés, et donc elles sous-estiment la teneur en masse métallique finale des planètes. Selon les astrophysiciens, il est également possible qu'une fraction substantielle des constituants métalliques de TOI-6894 b soit présente dans son atmosphère et ait été délivrée par la capture de planétésimaux par la protoplanète. Une telle dispersion de la teneur en métal dans TOI-6894 b réconcilierait la nature de la planète avec une formation potentielle par instabilité gravitationnelle. 

Les chercheurs indiquent que la température d'équilibre de la planète en fait un objet intermédiaire entre les Jupiters chauds qui sont largement observés, et les géantes gazeuses froides de notre propre système solaire, à savoir Jupiter et Saturne. Sur la base de son irradiation stellaire, on s'attend à ce que l'atmosphère planétaire soit dominée par la chimie du méthane. Ce fait seul ferait de TOI-6894 b une découverte très précieuse, car peu de descriptions de tels exemples ont été publiées, mais ce qui la rend vraiment spéciale par rapport aux objets précédemment étudiés tels que WASP-80 b, c'est la combinaison de son étoile hôte particulièrement petite, de sa courte période orbitale et de sa faible densité planétaire pour sa température d'équilibre froide. 

Les modèles atmosphériques avec et sans nuages ​​révèlent que les caractéristiques spectroscopiques dans les spectres de transmission et d'émission pour TOI-6894 b ont des amplitudes attendues supérieures aux transits primaires de nombreuses planètes. La détection de caractéristiques spectrales, la détermination de la présence de nuages ​​et la mesure de la métallicité atmosphérique sont possibles même avec des télescopes terrestres de taille moyenne ou à partir d'une seule observation de transit avec le télescope spatial Webb. TOI-6894 b sera donc très vite une exoplanète de référence dans l'étude des atmosphères dominées par le méthane.

Le système de TOI-6894 constitue donc maintenant une référence pour notre compréhension de la formation des planètes géantes et remet en question les théories actuelles, qui peinent à expliquer sa présence. Ce système se prête également très bien aux observations par spectroscopie de transmission, grâce auxquelles nous pourrons déterminer avec précision la composition atmosphérique et interne de TOI-6894 b. 

TOI-6894 se révèle être un système exoplanétaire clé pour déterminer l'histoire de la formation des planètes géantes, et en particulier celles dont les étoiles hôtes sont de plus faible masse.


Source

A transiting giant planet in orbit around a 0.2-solar-mass host star

Edward M. Bryant et al.

Nature Astronomy (4 june 2025)

https://doi.org/10.1038/s41550-025-02552-4


Illustration

1. Positionnement de TOI-6894 b dans le graphe (masse et rayon de planète en fonction de la masse de l'étoile hôte le contexte des planètes en transit connues) (Bryant et al.)

2. Edward Bryant

12/06/25

Le regroupement anormal des galaxies naines diffuses pointe vers la nature de la matière noire


Il est bien établi aujourd’hui que les galaxies les plus massives et les plus compactes ont tendance à se regrouper davantage spatialement que celles qui sont moins compactes. Ces résultats peuvent être compris en termes de formation des galaxies dans des halos de matière noire froide. Mais une équipe de chercheurs chinois vient de découvrir un comportement tout à fait inattendu et qui va dans le sens inverse concernant les galaxies naines. Moins les galaxies naines sont compactes, plus elles ont tendance à se regrouper ! Ils publient leur étude dans Nature.

Ziwen Zhang et ses collaborateurs ont mis en évidence un regroupement à grande échelle inattendu pour les galaxies naines isolées, diffuses et bleues, qui s’avère comparable à celui observé pour les groupes de galaxies massives, mais beaucoup plus fort que celui attendu en fonction de la masse de leur halo.

Leur analyse indique que le fort regroupement de ces galaxies diffuses pourrait être cohérent avec les simulations incluant la cosmologie standard ΛCDM mais seulement si plus de naines diffuses se seraient formées dans des halos de faible masse et d'âges plus élevés. Or, ce schéma n'est pas du tout reproduit par les modèles existants d'évolution des galaxies dans un cadre ΛCDM.

Les chercheurs chinois ont sélectionné leurs galaxies naines dans le catalogue de galaxies du Sloan Digital Sky Survey (SDSS) Data Release 7 (DR7). Ils n’ont pris en compte que les galaxies naines isolées, définies comme les centres des groupes de galaxies, afin d'éviter les complications liées aux galaxies satellites dans l'interprétation de leurs résultats. Ils ont également exclu les naines de couleur rouge et d'indice de Sérsic élevé, afin de pouvoir se concentrer sur les galaxies de « type tardif », dont on pensait jusqu'à présent qu'elles se formaient tardivement et qu'elles n'étaient que faiblement regroupées spatialement. Les naines ont été divisées en quatre échantillons en fonction de leur densité de masse surfacique (Σ*). Ils ont ensuite calculé les fonctions de corrélation croisée à deux points projetées (2PCCF), et en ont dérivé le biais relatif, qui est défini comme étant le rapport de la 2PCCF d'un échantillon avec celui des naines compactes (les galaxies naines qui ont les plus hautes valeurs de Σ*). Le biais relatif en fonction de Σ* montre clairement que le biais augmente avec la diminution de la densité de surface, contrairement à ce que l'on pense généralement. Pour les naines de plus faible Σ* (les naines diffuses), qu’on appelle aussi des galaxies ultradiffuses (UDG), le biais relatif est de 2.31, et indique une dépendance à Σ* à un niveau d'environ 7σ. Pour le deuxième échantillon avec Σ* le plus bas, le biais relatif est de 1.49, ce qui démontre que le déclin avec Σ* se voit sur toute la gamme de densité de surface couverte par l’échantillon. En d'autres termes : plus les galaxies ont une densité de surface Σ* faible, plus elles sont regroupées spatialement.

Zhang et ses collaborateurs rappellent que dans le paradigme actuel de la matière noire froide (CDM), plusieurs mécanismes ont été proposés pour la formation des naines diffuses. Les processus environnementaux tels que le chauffage par les marées, l'interaction entre galaxies et l'abaissement de la pression sont capables de rendre les galaxies naines plus diffuses. Mais ces mécanismes sont principalement efficaces dans les environnements de groupes et d'amas, bien que certaines simulations suggèrent que les environnements filamentaires pourraient également dépouiller les galaxies naines de leur gaz. Ces mécanismes devraient éliminer le gaz des galaxies naines et y étouffer la formation d'étoiles, produisant ainsi des naines rouges et pauvres en gaz observées dans les amas et les groupes de galaxies. Ils ne devraient pas être efficaces pour la formation des naines diffuses concernées ici, car ces naines résident dans des halos de faible masse, ont des couleurs bleues et possèdent des disques de gaz étendus.

Il a également été proposé que les naines diffuses soient produites dans des halos de spin élevé selon le modèle de formation des disques. Mais ce scénario ne peut pas expliquer le fort regroupement à grande échelle des naines diffuses. Alternativement, de multiples épisodes de rétroaction de supernovas peuvent déclencher des oscillations du potentiel gravitationnel, qui conduisent alors à l'expansion dans les parties internes des halos et à la formation de naines diffuses bleues. Un tel processus pourrait expliquer les résultats observés si son effet est plus fort dans les halos plus anciens. Mais, malheureusement, les simulations existantes suggèrent que l'effet est indépendant de l'âge et de la concentration des halos.

Zhang et ses collaborateurs n’en restent pas là. Ils montrent que ce phénomène de regroupement de galaxies naines diffuses pourrait être expliqué par l'hypothèse d'une matière noire qui peut interagir avec elle-même, ce qu’on appelle la matière noire de type SIDM (self interacting dark matter) : une matière noire qui n’interagit que très peu ou pas avec la matière baryonique ordinaire, mais qui pourrait interagir avec les autres particules de matière noire. Il faut se rappeler que modèle de la matière noire SIDM a également été proposé comme une solution prometteuse aux problèmes à petite échelle qui sont rencontrés par la matière noire de type CDM.

Les halos de SIDM devraient avoir la même histoire de formation et les mêmes regroupements à grande échelle que leurs homologues CDM, de sorte que le biais d'assemblage devrait également être le même, et avoir des densités centrales considérablement réduites en raison des collisions ultérieures des particules de matière noire. Comme la probabilité de collision entre les particules de matière noire augmente avec la densité et l'âge du halo, les halos plus anciens devraient posséder des noyaux plus grands et des densités centrales plus faibles. Ainsi, si les galaxies naines avec des Σ* plus faibles sont associées à des halos SIDM avec des noyaux plus grands (densités centrales plus faibles), une anticorrélation entre Σ* et le biais relatif est attendue. Ainsi, pour Zhang et al., le modèle SIDM combiné au biais d'assemblage fournit une explication plausible de la relation biais-Σ* qui est observée.

Si la matière noire auto-interagissante conduit à la formation de naines diffuses, l'auto-interaction doit être suffisamment forte pour produire des noyaux perceptibles, fournissant ainsi des prédictions testables. Zhang et ses collaborateurs ont utilisé un échantillon de halos et assigné à chacun des halos une galaxie avec son Σ*. Ils ont ensuite supposé une section efficace d'interaction, σm, et adopté le modèle isotherme de Jeans pour prédire le profil (rayon du noyau, rc, et densité centrale, ρ0 ) du halo SIDM. Le résultat met en évidence la similarité entre les noyaux des halos SIDM et les galaxies naines, en termes de distribution des tailles et du biais à grande échelle sur la taille, indiquant que les noyaux des halos SIDM sont des proxies viables des propriétés structurelles des galaxies naines. La relation prédite est presque une loi de puissance, on a Σ* ∝ 1/ rc2 pour une masse de halo donnée, ce qui implique que,  si la masse stellaire M* dans un halo ne dépend que de la masse totale du halo, on aurait R50 ∝ rc , où R50 est le rayon englobant 50% de la lumière de la galaxie, ce qu’on peut appeler la « taille » de la galaxie. En paramétrant la relation et en itérant le modèle de Jeans jusqu'à convergence et en ajustant le facteur de normalisation, les chercheurs chinois ont trouvé que la Σ* prédite peut effectivement  reproduire la relation biais relatif-Σ* qui est observée.

Les résultats de Zhang et al. sont clairement en défaveur d'une grande section efficace d'interaction pour la matière noire SIDM, puisque sinon cela conduirait à l'effondrement du noyau du halo et inverserait la tendance du biais avec Σ*. Les relations d'échelle prédites, Σ* ∝ 1/ rc2 et R50 ∝ rc, indiquent que les composantes stellaires des naines diffuses devraient suivre de près la dynamique induite par la matière noire. Une telle condition peut être créée par un processus qui peut mélanger les étoiles et le gaz de formation d'étoiles avec la matière noire.

Il est clair que maintenant ces hypothèses doivent être testées par exemple à l'aide de simulations hydrodynamiques qui peuvent modéliser correctement non seulement la dynamique de la composante SIDM mais aussi les processus de formation des galaxies.

A défaut de savoir exactement ce qu'est la matière noire, il se pourrait bien que l'on commence à la cerner un peu mieux... 

 

Source

Unexpected clustering pattern in dwarf galaxies challenges formation models

Ziwen Zhang et al.

Nature volume 642, pages47–52 (5 June 2025)

https://doi.org/10.1038/s41586-025-08965-5


Illustration

Le biais relatif observé des galaxies naines (à gauche) ; et le biais relatif prédit par la simulation sous l'hypothèse du modèle de matière noire auto-interagissant (SIDM) (la courbe noire) comparé aux résultats d'observation (la courbe orange) (à droite). (Zhang et al.)

 

03/06/25

Impact sur les observatoires de la lumière diffuse des débris spatiaux


Des astronomes slovaques viennent de calculer l’impact sur les observatoires astronomiques de la lumière diffusée par les minuscules débris spatiaux en orbite basse dont la quantité est en croissance exponentielle du fait du déploiement des mégaconstellations de satellites. L’étude est publiée dans Monthly Notices of the Royal Astronomical Society Letters.

On le sait, la population croissante de satellites artificiels et de débris spatiaux posent des problèmes à la fois pour les opérations spatiales proprement dites et pour l'astronomie au sol. Alors que la plupart des études précédentes se sont principalement concentrées sur les traînées discrètes de satellites interférant avec l'imagerie astronomique, Miroslav Kocifaj et ses collaborateurs avaient identifié en 2021 un nouvel effet de ciel lumineux, qui est causé non par le reflet des satellites en activité ou hors service, mais par la lumière solaire réfléchie et diffusée par la multitude d'objets spatiaux de très petite taille, voire microscopiques en orbite autour de la Terre. On parle ici d'écailles de peinture, de boulons perdus, de goutelettes, de fragments de lanceurs et autres débris. Cette composante diffuse tend à augmenter la luminosité de fond du ciel nocturne, ce qui peut avoir un impact négatif sur l'observation d'objets astrophysiques peu lumineux. Des estimations préliminaires suggèrent que cet effet contribue déjà à une augmentation de 10% de la luminosité du ciel nocturne au zénith par rapport à la limite établie par l'Union astronomique internationale (UAI) pour la pollution lumineuse sur les sites d'observation. Cela correspond à une augmentation de la luminosité de fond du ciel nocturne d'environ 20 µcd m-2.

Contrairement à la lumière artificielle provenant de sources terrestres, qui peut être atténuée par des mesures de contrôle directes telles que le blindage ou la réduction de l'intensité lumineuse, la lumière du ciel induite par les objets spatiaux provient d'au-delà de l'atmosphère terrestre, ce qui rend sa réduction plus difficile. Bien que cet effet ne soit pas permanent et qu'il pourrait diminuer avec le temps si les lancements et les opérations de satellites étaient considérablement réduits, il est actuellement difficile, voire impossible, d'appliquer des stratégies d'atténuation immédiates comparables à celles utilisées pour la pollution lumineuse terrestre.

Et le problème devrait s'aggraver avec le déploiement rapide de mégaconstellations de satellites, qui augmente non seulement le nombre de corps réfléchissants en orbite, mais aussi la quantité de débris spatiaux de petite taille, de grains et d'autres microparticules. L'étude de Kocifaj et al. de 2021 avait marqué un changement de paradigme dans notre compréhension de la pollution lumineuse artificielle, parce qu’elle a révélé une contribution précédemment non reconnue des débris orbitaux, à côté des sources existantes de luminosité diffuse du ciel nocturne.

Kocifaj et al. avaient identifié un impact négatif possible des objets spatiaux sur l'astronomie au sol et avaient prédit une aggravation rapide de la tendance à l'avenir, notamment en raison du déploiement prévu d'énormes mégaconstellations. A partir de cette première étude, M. Kocifag (université de Bratislava) et ses collaborateurs ont repris leur clavier et leurs souris pour mener une analyse plus approfondie et plus détaillée, en utilisant les modèles disponibles de la population d'objets orbitaux.

Au lieu de s'appuyer sur plusieurs approximations utilisées dans leur étude précédente - comme par exemple l'hypothèse d'un albédo uniforme pour tous les objets spatiaux - cette nouvelle étude, financée par l’ESA adopte une approche plus précise. Elle tient maintenant compte de la distribution de l'altitude et de l'angle d'élévation des objets spatiaux à un moment et à un endroit donnés. Cela permet une représentation plus précise de leur impact sur les conditions d'observation. L’approche des chercheurs intègre également la variabilité de la composition et de la distribution des tailles des objets le long de la ligne de visée.

En 2021,Kocifaj et al. prenaient en compte tous les objets, de l'orbite basse (LEO) à l'orbite géostationnaire (GEO), couvrant des altitudes de 186 à 36 786 km. Aujourd’hui, ils se concentrent exclusivement sur les objets en LEO, puisque ce sont ceux-ci qui contribuent majoritairement à la luminosité du ciel nocturne.

Les orbites LEO, sont situées entre 200 et 2000 km au-dessus de la surface de la Terre, elles accueillent actuellement la plus forte concentration d'objets artificiels. La fragmentation et la croissance continues des objets lancés augmentent continuellement le risque de collisions, contribuant potentiellement à l'accumulation de débris spatiaux sur ces orbites, ainsi qu’à une évolution irréversible de type syndrome de Kessler.

Les calculs précédents de Kocifaj et al. étaient initialement basés sur le modèle MASTER (Meteoroid and Space Debris Terrestrial Environment Reference) de l'ESA, qui génère une population synthétique de débris spatiaux. Ce modèle s'appuie sur des simulations et des calculs théoriques plutôt que sur des observations directes. En revanche, la NASA, elle, incorpore des observations radar et optiques pour affiner ses résultats et les intègre dans le modèle ORDEM (Orbital Debris Engineering Model).

Bien que les deux modèles partagent un certain nombre de similitudes pour les objets de taille supérieure à quelques millimètres, le modèle ORDEM de la NASA estime que la population d'objets de taille inférieure à 1 mm est de l'ordre de 10 à 100 fois plus élevée que ce que prévoit le modèle MASTER de l'ESA. Cette divergence a des conséquences importantes pour les prévisions de la luminosité du ciel nocturne, car elle suggère que les contributions des plus petits objets dominent de manière écrasante celles des débris plus gros. Dans le modèle de la NASA, la contribution cumulée des objets plus grands représente moins de quelques pour cent de l'impact total sur la luminosité.

Si on considère un grand corps d'une taille caractéristique G qui se fragmente en plusieurs objets plus petits, chacun d'une taille moyenne p. Comme la quantité de lumière réfléchie ou diffusée est déterminée par la section efficace de l’objet, l'augmentation de l'intensité lumineuse due à la fragmentation est proportionnelle au rapport G/p. Par exemple, si un objet de 10 cm se fragmente en fragments submillimétriques, le nombre de photons diffusés atteignant finalement un observateur peut augmenter d'un facteur 100. Par conséquent, les données sur les objets les plus petits sont essentielles pour les prédictions de la luminosité.

Kocifaj et al. effectuent la première quantification de la contribution réelle des objets LEO à la luminosité du ciel nocturne, basée sur la distribution angulaire sur leurs orbites des objets spatiaux (en particulier des débris). Ils ont effectué leurs calculs d’impact pour trois observatoires différents : le Vera Rubin Observatory (dans les Andes chiliennes), le Zwicky Transient Facility (aux Etats-unis) et l’observatoire de Quito (Equateur). Ils ont calculé cet impact pour les années 2024, 2030 et 2035, au rythme connu des déploiements de satellites présents et futurs.

Dans les scénarios 2024, la luminosité diffuse des débris de petite taille (<3 mm) que trouvent les chercheurs se situe généralement entre 3 et 8 µcd m-2 selon les cas. L'Union astronomique internationale (UAI) a fixé un seuil critique de 20 µcd m-2 pour les sites d'observation, et les estimations effectuées avec le modèle ORDEM sont déjà proches de cette limite, précisent les auteurs.

En 2035, les résultats montrent que par rapport à 2024, les niveaux de luminosité du ciel causés par les débris spatiaux devraient augmenter de manière significative, atteignant 5 à 19 µcd m-2.

Il faut noter que les valeurs de luminosité ont été calculées pour un ensemble limité de scénarios caractéristiques et à une date et une heure fixes. Les valeurs varient en fonction des mois et des heures. Vers minuit par exemple, une grande partie du ciel se trouve dans l'ombre de la Terre, ce qui minimise l'impact des débris spatiaux. Et dans des conditions d'observation spécifiques, les niveaux de luminosité peuvent dépasser largement les valeurs présentées ici.

Les chercheurs observent un élément intéressant : les niveaux de luminosité prévus pour 2035 sont généralement inférieurs à ceux de 2030. Cette variation est attribuée à l'activité solaire, qui influence fortement le volume de la haute atmosphère et donc la durée de vie des objets en orbite basse. Lors des pics du cycle solaire de 11 ans (vers 2025 et 2035), la haute atmosphère devient plus dense, ce qui permet d'éliminer plus efficacement les débris spatiaux de l'orbite basse. À l'inverse, lors des minima solaires (vers 2030 et 2041), la densité atmosphérique diminue, entraînant une augmentation des concentrations de petites particules dans l'orbite basse. Cela indique que les estimations pour 2024 et 2035 représentent des limites inférieures, alors que les niveaux de luminosité devraient être plus élevés pendant les minima solaires. En outre, pendant le minimum solaire, la luminosité naturelle du ciel est plus faible. Le rapport entre la luminosité artificielle du ciel due aux débris de l'orbite terrestre basse et la luminosité naturelle serait donc encore plus important.

Kocifaj  et al. concluent que l'ajout du à cette multitude de microdébris équivaut à une augmentation de la luminosité de fond du ciel nocturne de 5 à 11 % au-dessus des niveaux naturels. Par conséquent, le seuil fixé par l'UAI pour les sites d'observation pourrait potentiellement être atteint ou dépassé. L'augmentation rapide du nombre d'objets en orbite terrestre basse, notamment en raison de l'expansion des mégaconstellations de satellites, laisse penser que ce problème entravera de plus en plus l'observation d'objets astronomiques de faible luminosité, selon les chercheurs. Ces résultats soulignent le besoin urgent de donner la priorité à la recherche théorique et expérimentale sur les petits objets artificiels dans les études sur les débris spatiaux. Les données indiquent clairement que la compréhension du comportement et de la prolifération de ces objets est cruciale pour atteindre une durabilité de l'espace, et de la recherche en astrophysique.


Source

Low Earth Orbit satellite fragmentation rates are critically disrupting the natural night sky background

M Kocifaj et al.

Monthly Notices of the Royal Astronomical Society: Letters, Volume 541, (22 may 2025)

https://doi.org/10.1093/mnrasl/slaf052


Illustration


Carte en coordonnées polaires de la luminosité diffuse en 2035 pour les observatoires Vera Rubin (haut) et ZTF (bas). Les valeurs sont données pour le haut de l'atmosphère (gauche) et au sol (droite).

24/05/25

Jupiter 2 fois plus grande qu'aujourd'hui lors de sa naissance


Dans une nouvelle étude publiée dans Nature Astronomy , Konstantin Batygin (Caltech) et Fred Adams (Université du Michigan), fournissent un aperçu détaillé de l'état primordial de Jupiter. Leurs calculs révèlent qu'environ 3,8 millions d'années après la formation des premiers corps du système solaire, moment clé où le disque protoplanétaire se dissipait, Jupiter était deux fois plus grande qu'aujourd'hui...

Comprendre l'évolution primitive de Jupiter permet de mieux comprendre comment notre système solaire a développé sa structure particulière. La gravité de Jupiter a joué un rôle crucial dans la formation des trajectoires orbitales des autres planètes et dans la formation du disque de gaz et de poussière à partir duquel elles se sont formées. Il est donc essentiel de cerner les premières phases de la formation des planètes pour résoudre cette question. Batygin et Adams ont abordé le problème en étudiant deux minuscules lunes de Jupiter, Amalthée et Thébé, qui orbitent encore plus près de Jupiter que Io, la plus petite et la plus proche des quatre lunes galiléennes de la planète géante.

Comme Amalthée et Thébé ont des orbites légèrement inclinées, Batygin et Adams ont analysé ces faibles écarts orbitaux pour calculer la taille originelle de Jupiter. En analysant la dynamique des satellites de Jupiter simultanément avec son bilan de moment angulaire, ils parviennent à déduire le rayon et l'état intérieur de Jupiter au moment de la dissipation de la nébuleuse protosolaire.

Bien que des incertitudes considérables concernant l'intérieur de Jupiter persistent (en partie en raison de l'incapacité des données de gravité à informer pleinement sur la nature du noyau compact ainsi que des incertitudes dans l'équation d'état de l'hydrogène lui-même), au cours des trois dernières décennies, les observations des missions Galileo et Juno ont permis de mieux cerner l'intérieur complexe et multicouche de Jupiter. En particulier, de récents travaux de modélisation ont révélé une région imprégnée de pluie d'hélium, un noyau dilué à haute métallicité pouvant atteindre 25 masses terrestres, ainsi qu'un noyau compact, beaucoup moins massif et plus profond. 

D'une manière générale, les caractéristiques physiques de Jupiter correspondent aux prédictions du modèle d'accrétion du noyau de la formation des planètes géantes. Dans ce cadre, la formation des planètes géantes suit une série distincte d'étapes. Initialement, un noyau à haute métallicité se forme rapidement, laissant place à une période de croissance hydrostatique caractérisée par une lente agglomération d'une atmosphère H/He. Ce processus se poursuit jusqu'à ce que la masse de l'enveloppe gazeuse atteigne celle du noyau. Une fois ce seuil franchi, une période transitoire d'accrétion rapide de gaz s'ensuit, facilitant l'accumulation de la majeure partie de la masse de la planète. Finalement, la planète se sépare de la nébuleuse environnante, s'engageant dans une évolution thermique à long terme qui aboutit à la Jupiter que nous observons aujourd'hui, environ 4,5 milliards d'années plus tard.

Bien que les grandes lignes de ce tableau soient établies depuis des décennies, les subtilités de la séquence évolutive initiale de Jupiter restent imparfaitement comprises. En particulier, l'entropie primordiale de Jupiter qu'on présente souvent comme le problème du démarrage "à chaud" ou "à froid", ainsi que le calendrier exact de ces phases de formation restent incertains. Par exemple, dans le modèle souvent cité de Pollack et al., la transition vers l'accrétion incontrôlable se produit environ 7 millions d'années après la formation du noyau. Mais des calculs ultérieurs ont cependant proposé des chronologies alternatives, avec le modèle récent de Stevenson et al., qui suggère que la croissance incontrôlable se termine après 3 mégannées.

L'approche de Batygin et Adams qui consiste à exploiter la dynamique précoce des satellites de Jupiter, ainsi que la régulation magnétique de son budget de moment angulaire pour en déduire son rayon, contourne largement les limites des modèles existants. Cette approche offre une précision sans précédent aux propriétés du système jovien à son stade de formation.

Leurs calculs et leurs analyses mènent à la plage suivante pour le rayon primordial de Jupiter :
entre 2,02 et 2,59 fois son rayon actuel. Dans la fourchette couverte par cette estimation du rayon, les chercheurs montrent que toute valeur supérieure au rayon orbital d'Amalthée est peu susceptible d'être physiquement significative. Et comme l'inclinaison de Thébé résulte probablement de multiples passages de résonance, c'est la limite inférieure de la plage de rayons qui est privilégiée par les auteurs. Ils évaluent également le taux d'accrétion de masse de la protoJupiter, ce qui donne entre 1,2 et 2,4 masses joviennes par million d'années, ce qui est très intense.  

Avec le rayon planétaire et le taux d'accrétion contraints, les deux chercheurs déduisent ensuite la structure intérieure de Jupiter en utilisant des modèles hydrostatiques. Les profils de température, de densité et de pression correspondants sont déterminés. Ces modèles impliquent qu'au moment de la dissipation de la nébuleuse proto-solaire, l'entropie caractéristique de l'enveloppe convective de Jupiter correspond à une condition initiale de « démarrage à chaud » .

Une dernière pièce du puzzle a consisté pour Batygin et Adams à ancrer leurs calculs à une époque précise, par rapport à un marqueur bien défini de l'évolution du système solaire. Dans cette optique, en 2017, Wang et al. avaient utilisé les données de magnétisation de météorites très anciennnes pour démontrer que la nébuleuse solaire s'est dissipée environ 3,8 millions d'années après la formation d'inclusions de calcium et d'aluminium. Selon les chercheurs, comme l'énergie nécessaire pour transporter une molécule d'hydrogène de quelques rayons joviens au rayon de Hill est approximativement égale à celle nécessaire pour l'extraire du puits de potentiel gravitationnel du Soleil à 5 ​​UA, le front photo-évaporatif responsable de l'élimination de la nébuleuse dans le voisinage orbital jovien a dû simultanément éliminer le disque circumplanétaire de Jupiter. Ils peuvent ainsi  conclure que Jupiter était approximativement 2 à 2,5 fois plus grande qu'aujourd'hui, 3,8 millions d'années après la formation des premiers corps solides du système solaire. Cela correspond à un volume équivalent à plus de 2 000 Terres. 

Ces résultats apportent des précisions cruciales aux théories existantes sur la formation des planètes, qui suggèrent que Jupiter et d'autres planètes géantes autour d'autres étoiles se sont formées par accrétion de noyau, un processus par lequel un noyau rocheux et glacé accumule rapidement du gaz.  Même si les premiers instants de Jupiter restent obscurcis par l'incertitude, cette étude clarifie considérablement notre vision des étapes critiques du développement de la planète géante. Ce nouveau point de repère permettra de reconstituer avec plus de certitude l'évolution de notre système solaire.

Source

Determination of Jupiter’s primordial physical state
Konstantin Batygin & Fred C. Adams 
Nature Astronomy (20 mai 2025)

Illustration

Jupiter imagée avec le télescope Webb (NASA)

17/05/25

PDS 456 : le trou noir supermassif qui produit un vent par paquets


Au cours des 25 dernières années, les astrophysiciens ont identifié des corrélations entre les propriétés des trous noirs supermassifs et celles de leurs galaxies hôtes, indiquant que leur évolution est étroitement liée.  Dans un article paru dans Nature cette semaine, la collaboration XRISM (X-Ray Imaging and Spectroscopy Mission) rapporte des observations de PDS 456 et montrent que lorsque le trou noir supermassif au centre de la galaxie accrète de la matière, il propulse également des amas de gaz par paquets vers l'extérieur à une vitesse pouvant atteindre 30 % de la vitesse de la lumière, et non de manière uniforme comme on le pensait jusque là... 

Le gaz propulsé par l'activité du trou noir avait été identifié par de précédentes mesures de spectroscopie X du télescope à rayons X  XRISM, lancé en septembre 2023 par la NASA et la JAXA (et qui est d'ailleurs un élément clé de mon roman Impact que j'ai publié l'année dernière). Aujourd'hui, la résolution sans précédent qui est offerte par le télescope japonais (encore intact) a permis à la collaboration de détecter la structure et la dynamique du gaz avec plus de détails que jamais auparavant. Il s'agit d'une avancée majeure dans la compréhension de la façon dont les trous noirs façonnent l'évolution galactique.

La poussière et le gaz attirés vers l'horizon des événements du trou noir peuvent s'échauffer et émettre un rayonnement électromagnétique. Lorsque ce rayonnement interagit avec la matière, il peut générer de puissants vents de gaz ionisé. Ces vents entrent en collision avec du gaz plus loin dans la galaxie, et les chocs qui en résultent peuvent redistribuer la matière et l'énergie à grande échelle.

Les centres galactiques qui accrètent rapidement de la matière sont appelés des noyaux galactiques actifs (AGN). Les chercheurs de la collaboration XRISM se sont intéressés plus particulièrement à un AGN nommé PDS 456 qui est un quasar brillant. Il est environ 1014 fois plus lumineux que le Soleil, ce qui en fait l'une des sources astronomiques les plus brillantes connues de l'Univers. Ce quasar est alimenté par un trou noir supermassif dont la masse est estimée à 500 millions de masses solaires .

PDS 456 se trouve à moins de trois milliards d'années-lumière de nous, ce qui en fait un voisin relativement proche. Il est étudié comme un analogue de la population lointaine de trous noirs qui peuplaient l'Univers primordial.

De précédentes observations par spectroscopie X ont montré que le vent de PDS 456 se déplace à environ un tiers de la vitesse de la lumière et transporte une quantité d'énergie extrêmement importante, mais la résolution spectrale limitée empêchait les chercheurs de mesurer avec précision sa structure de densité et son étendue spatiale. Chose étrange, malgré l'énergie et la vitesse extrêmes du vent, les observations suggéraient qu'il avait peu d'effet sur le gaz plus loin dans la galaxie, ce qui est en contradiction avec le comportement attendu.

C'est pour creuser cette bizarrerie que les astrophysiciens ont choisi d'exploiter le spectromètre à haute résolution de XRISM qui est appelé Resolve. Cet instrument est capable de distinguer les rayons X dont les longueurs d'onde diffèrent très légèrement, ce qui permet d'explorer la structure et la dynamique des vents générés par les trous noirs avec une précision sans précédent, le mouvement décalant les raies d'émission et d'absorption dans le spectre. Ils ont donc pointé XRISM vers PDS 456 durant 6 jours, du 11 au 17 mars 2024 pour une exposition totale de 250 ks.

Les résultats montrent que le vent émanant de PDS 456 n'est pas du tout uniforme, mais comprend jusqu'à un million de paquets ​​de gaz distincts. Ces paquets sont propulsés vers l'extérieur à une vitesse pouvant atteindre 30 % de celle de la lumière, et la matière est expulsée du disque d'accrétion du trou noir à un rythme compris entre 60 et 300 masses solaires par an.

A partir des caractéristiques observées dans les spectres X, les chercheurs évaluent la taille des paquets de gaz et leur distance du disque d'accrétion du trou noir. Ils ont une taille comprise entre 2 et 16 rayons gravitationnels, ce qui fait entre 10 et 80 unités astronomiques ici, et sont situés à une distance du trou noir entre 200 et 600 fois le rayon du trou noir. 

La découverte de cette structure de vents en paquets remet en question les théories dominantes de l'évolution galactique. En effet, les modèles conventionnels considéraient ces vents comme ayant une densité uniforme. Dans ce scénario, le vent entre en collision avec le gaz et la poussière de la galaxie, expulsant et chauffant la matière et réduisant potentiellement le carburant disponible pour la formation d'étoiles. En revanche, des paquets de gaz individuels seraient capables d'éviter les zones denses de gaz dans la galaxie, s'échappant directement dans l'espace intergalactique sans transférer beaucoup d'énergie ou de quantité de mouvement au gaz du milieu galactique. Cela pourrait donc expliquer pourquoi certaines galaxies dotées de trous noirs actifs et de vents puissants ont quand même un taux élevé de formation d'étoiles, comme c'est le cas pour PDS 456. Cela pourrait également indiquer que les vents des trous noirs ne sont pas générés en continu, mais par des événements discrets et aléatoires qui ne se produisent que pendant une petite fraction du temps où le trou noir accrète de la matière.

Des travaux supplémentaires seront nécessaires pour déterminer si les vents observés dans PDS 456 sont communs à d'autres trous noirs. Sachant que des vents extrêmement puissants comme ceux de PDS 456 sont plus fréquents dans la population de trous noirs la plus éloignée, qui s'est formée au cours du premier milliard d'années après le Big Bang. La spectroscopie X à haute résolution de ces vents de trous noirs lointains n'est pas encore possible, mais des observatoires actuels et futurs, tels que le télescope spatial Webb, ALMA et l'Extremely Large Telescope pourraient être en mesure de détecter l'effet ou le non effet des vents des trous noirs sur la matière plus éloignée dans la galaxie hôte.

Grâce à ces efforts combinés, on approfondira nos connaissances sur la manière dont les trous noirs ont façonné l'évolution des galaxies tout au long de l'histoire cosmique.


Source

Structured ionized winds shooting out from a quasar at relativistic speeds

Collaboration XRISM

Nature (14 mai 2025)

https://doi.org/10.1038/s41586-025-08968-2


Illustration

Vue d'artiste du vent de trou noir par paquets (Nature)