01/05/26

Découverte d'une cavité au centre d'une galaxie géante, produite par un trou noir ultramassif


Une équipe d’astrophysiciens vient de démontrer l’existence
 d’une cavité d’une taille de l'ordre du kiloparsec dans la distribution stellaire de la galaxie centrale de l'amas A402. Les données des télescopes Webb et Hubble mettent en évidence un noyau galactique aplati dans la distribution stellaire sur lequel se superpose la cavité, ce qui implique la présence d'un trou noir ultramassif central de masse d’environ 50 milliards de M qui serait à l’origine de cette cavité. Ils montrent en outre qu'un second trou noir supermassif candidat se trouve de l'autre côté de la cavité, avec une vitesse relative de 370 km s¹. Si cette hypothèse se confirme, cela impliquerait la présence d'un système binaire de trous noirs ultramassifs séparés par plusieurs kiloparsecs, d'une masse totale de 60 milliards M. Cela en ferait le système binaire de trous noirs le plus massif découvert à ce jour. L’étude est publiée dans The Astrophysical Journal.

La zone vide qui est observée correspond à environ 20 milliards M d'étoiles manquantes dans un volume de 0,5 kpc³ . Michael McDonald (MIT) et ses collaborateurs proposent que cette cavité stellaire unique résulte d'une interaction dynamique de courte durée entre au moins un trou noir supermassif et le champ stellaire environnant. Selon eux, cette interaction pourrait être due soit à une diffusion à trois corps lors du durcissement du système binaire, soit à l'induction d'une instabilité dipolaire dans le champ de densité stellaire.

Il faut se rappeler qu’au centre des galaxies les plus massives de l'Univers, les galaxies elliptiques géantes, les profils de luminosité s'aplatissent pour former une région centrale de brillance de surface constante. Or, l'existence d'un tel noyau stellaire n'est pas prédite naturellement par les modèles actuels de formation des galaxies massives dans un univers ΛCDM. Cela suggère qu'un mécanisme secondaire est responsable de l'élimination des étoiles des régions internes de haute densité. Compte tenu de la masse des étoiles évacuées, l'hypothèse la plus probable est celle de la fusion en cours d'une paire de trous noirs supermassifs. Selon le modèle standard de formation des structures, les galaxies massives se forment principalement par fusion avec des galaxies plus petites. Étant donné que la totalité des galaxies abritent un trou noir supermassif central, la fusion de trous noirs devrait donc également être fréquente. En particulier, à des époques plus reculées, les galaxies massives situées au centre des amas devraient être le siège d'événements de fusion actifs.

Pour que deux trous noirs supermassifs fusionnent, ils doivent d'abord perdre suffisamment de moment cinétique orbital pour réduire leur séparation orbitale à un niveau suffisamment faible pour que l'émission d'ondes gravitationnelles puisse emporter l'énergie orbitale restante en un temps inférieur à l'âge de l'Univers. Bien que de telles ondes gravitationnelles issues de la fusion d'un système binaire de trous noirs supermassifs n'aient pas encore été détectées, NANOGraV et d'autres expériences de chronométrage de pulsars ont récemment mis en évidence l'existence d'un fond d'ondes gravitationnelles stochastiques qui proviendrait de la fusion collective de trous noirs binaires dans les noyaux galactiques. On pense que la phase initiale de ce processus, avant que les ondes gravitationnelles ne deviennent significatives, implique une diffusion à trois corps entre les 2 trous noirs et les étoiles, ce qui entraînerait un « nettoyage » des étoiles et de la matière noire dans la couche interne des galaxies les plus massives sur environ un kiloparsec. Ce déficit d'étoiles peut être encore accentué si la fusion des trous noirs induit un recul sur le trou noir résiduel, ce qui est très souvent le cas. Ca éloignerait le trou noir supermassif du centre du potentiel gravitationnel et conduirait à une expansion rapide des orbites stellaires derrière lui.

De tels noyaux diffus et de grande taille ont déjà été observés dans la distribution stellaire de plusieurs galaxies massives, et il a été suggéré que la taille physique du noyau observé est directement liée à la masse du trou noir qui l'a probablement créé. En effet, la masse de certains des trous noirs supermassifs les plus massifs a été déduite de la taille des régions centrales qu'ils ont creusées dans le profil lumineux de leur galaxie hôte. Cette relation repose sur l'hypothèse que le noyau s'est formé par des interactions dynamiques avec couple de trous noirs supermassifs, pendant ou après la fusion. Malgré les efforts observationnels considérables déployés pour étudier les cœurs des galaxies massives et, du point de vue théorique, pour prédire les mécanismes de leur formation, ce modèle est resté jusqu’à aujourd’hui peu étayé par l'observation directe. Le seul système pour lequel un trou noir supermassif binaire a été directement détecté comme modifiant la distribution stellaire est NGC 5419, par B. Neureiter et al. en 2023. Dans ce système, deux sources ponctuelles très proches semblent induire des perturbations cinématiques dans la distribution stellaire, ce qui conduit à la formation d'un cœur aplati. De plus, ces grands cœurs stellaires aplatis peuvent être dynamiquement instables, comme l'ont montré S. Dattathri et al. en 2025, ce qui engendre un dipôle persistant dans la distribution stellaire.

McDonald  et ses collaborateurs ont analysé des observations de la galaxie centrale d'A402, qui est un amas de galaxies massif situé à un redshift z = 0,322. La cavité qu’ils observent avec Webb avait été précédemment signalée par A. Repp et H. Ebeling en 2018 à partir d'observations du télescope Hubble. Elle avait alors été interprétée comme une zone de poussière proche du centre galactique. Mais grâce aux données de l’imageur Nircam de Webb, les chercheurs apportent aujourd’hui des preuves convaincantes qu'il s'agit en réalité d'une absence d'étoiles, et ils suggèrent donc que cela est très probablement dû à des interactions dynamiques avec la fusion d'une paire de trous noirs supermassifs.

Outre cette « cavité stellaire », McDonald et ses collaborateurs ont constaté que la galaxie centrale d'A402 possède un noyau diffus extrêmement étendu, avec un rayon de rupture de 2,2 kpc, sur lequel se superpose la cavité. Pour eux, un noyau aussi important a probablement été formé lors de la fusion passée de trous noirs supermassifs, laissant un résidu d'une masse d'environ 50 milliards de M . Ce trou noir « ultramassif » apparaît à l'extrémité ouest de la cavité stellaire comme une source ponctuelle brillante dans l'infrarouge moyen et coïncide avec un noyau galactique actif identifié par MUSE. Et sur le bord est de la cavité, les astrophysiciens trouvent également des preuves de la présence d'un deuxième noyau galactique actif, basées sur une forte émission [O iii ] localisée. Ces deux AGN ont une vitesse relative de 370 km s −1, ce qui permet aux chercheurs de calculer la masse binaire combinée du système. Ils trouvent une valeur record de 60 milliards M.

McDonald et ses collaborateurs  ont des bonnes raisons de postuler que la cavité stellaire se forme par l'interaction dynamique continue d'un cœur stellaire avec des trous noirs supermassifs en spirale. Cette interprétation est étayée par les preuves, en lumière optique et X, d'une fusion récente à l'échelle galactique, ainsi que par l'observation de deux sources à raies d'émission de part et d'autre de la cavité, compatibles avec un noyau galactique actif binaire massif. La taille de la cavité et les vitesses relatives des deux AGN supposés concordent avec les théories établies depuis des décennies sur l'érosion des cœurs stellaires par des trous noirs supermassifs (ou ultramassifs) en spirale.

Ce système offre un modèle pour un nouveau phénomène à rechercher dans les observations actuelles et futures. La détection d’autres sources similaires contribuerait à consolider les prédictions actuelles de signatures multi-messagers pour les sources du futur détecteur LISA, pour lesquelles l’échelle de temps et la fréquence de fusion demeurent des incertitudes majeures.

À l’avenir, les vastes relevés effectués avec les télescopes spatiaux Euclid et Roman, ainsi que les relevés d’archives de Hubble et Webb permettront probablement de découvrir des systèmes similaires, fournissant une estimation de l’échelle de temps de fusion des trous noirs supermassifs basée sur la fréquence d’observation de tels systèmes. Parallèlement, un suivi ciblé de ce système unique avec les télescopes les plus puissants permettra une compréhension plus complète de la nature du noyau galactique actif dans ce système et de la dynamique des étoiles dans et autour de la cavité.

Source

A Kiloparsec-scale Stellar Cavity in the Center of A402-BCG May Be Caused by Dynamic Interactions with an Ultramassive Black Hole

Michael McDonald et al.

The Astrophysical Journal Letters, Volume 1002, Number 1 (23 Avril 2026 )

https://doi.org/10.3847/2041-8213/ae5bbe


1. Observations multi-longueurs d'onde de la galaxie centrale d'A402 (McDonald et al.)

2. Michael McDonald



22/04/26

Le déséquilibre du cycle du carbone, une clé pour l'habitabilité des planètes telluriques

Déterminer l'habitabilité d’une planète ne se résume pas à savoir si elle possède ou non de l'eau liquide. Une exoplanète pauvre en eau peut être inhospitalière, qu'elle se trouve ou non dans la zone dite habitable. La Terre, la seule planète habitable connue, dépend de son cycle du carbone pour maintenir son habitabilité. Or, ce cycle dépend de l'eau, et les exoplanètes qui en sont dépourvues ont peu de chances de le maintenir, ce qui compromet sérieusement leurs perspectives d'habitabilité à long terme. Une nouvelle étude publiée dans The Planetary Science Journal examine la teneur en eau nécessaire à l'habitabilité des exoplanètes, en prenant Vénus pour exemple éloquent.

Haskelle White-Gianella et Joshua Krissansen-Totton (Université de Washington) rappellent que sur Terre, la quantité d'eau en surface est suffisante pour un cycle géologique du carbone équilibré : l'altération des silicates compense le dégazage volcanique de CO₂. La vapeur d'eau présente dans l'atmosphère terrestre se combine au dioxyde de carbone pour former de l'acide carbonique. Cet acide, faible et instable, acidifie légèrement toutes les eaux de pluie. À l'échelle des temps géologiques, il joue un rôle crucial dans le cycle d'altération carbone-silicate de la Terre , également appelé cycle d'Urey. Ce cycle, qui est une branche du cycle du carbone terrestre, permet d'éliminer le carbone de l'atmosphère sur de longues périodes. L'acide faible dissout les roches silicatées et les eaux de ruissellement se déversent dans les océans. Elles s'accumulent au fond des océans, où la tectonique des plaques finit par les enfouir dans la croute. C'est ainsi que le carbone atmosphérique est séquestré dans les roches terrestres. Sans ce cycle, le carbone s'accumulerait continuellement dans l'atmosphère, provoquant un emballement du réchauffement climatique, comme sur Vénus.

Sur les planètes arides, il se peut que la quantité d'eau en surface soit insuffisante pour que ce mécanisme de régulation par l'altération des silicates permette de maintenir des conditions habitables.

White-Gianella et Krissansen-Totton se sont intéressés aux planètes arides présentant une quantité d'eau en surface très limitée, bien inférieure à celle d'un océan terrestre. Nombre de ces planètes se situent dans la zone habitable de leur étoile, mais rien ne dit qu'elles puissent être réellement habitables. Les chercheurs ont élaboré des modèles détaillés pour tenter de comprendre les planètes arides et leur capacité à maintenir le cycle essentiel des carbonates et des silicates. Ils ont modélisé l'évolution du cycle géologique du carbone en suivant les flux d'eau et de carbone entre l'intérieur de la planète et le système atmosphère-océan.

La modélisation repose sur 18 variables, parmi lesquelles le taux d'échappement atmosphérique de l'hydrogène, le taux de dégazage volcanique, la fraction de la surface recouverte de terres émergées, la température globale, la concentration de minéraux dans les roches vierges, la porosité des roches, la fraction d'eau de pluie transformée en ruissellement, et bien d'autres. Cette modélisation s'appuie sur notre compréhension croissante du cycle du carbone terrestre et de la manière dont il régule la température.

Les résultats montrent que les planètes telluriques arides peuvent présenter des cycles géologiques du carbone déséquilibrés en raison des limites d'écoulement par rapport à l'altération, ce qui peut entraîner une perte d'habitabilité et un emballement du réchauffement. Même si une planète se trouve dans la zone habitable, donc avec une température suffisante pour posséder de l’eau liquide, elle peut devenir inhabitable si elle ne dispose pas d'une quantité suffisante d'eau en surface pour équilibrer les flux de dégazage et d'altération, expliquent les auteurs.

Une planète aride pourrait tout de même abriter le cycle d'Urey. Elle n'a pas besoin d'autant d'eau que la Terre, mais d'une quantité significative. White-Gianella et Krissansen-Totton montrent que les planètes telluriques semblables à la Terre nécessitent une quantité initiale d'eau en surface d'au moins 20 à 50 % de la masse océanique terrestre pour maintenir un cycle géologique du carbone équilibré et une température de surface tempérée sur 4,5 milliards d'années d'évolution. Les planètes arides qui possèdent moins de 20 à 50 % des océans terrestres ne peuvent pas maintenir des flux d'altération des silicates élevés, ce qui peut entraîner une augmentation incontrôlée du CO₂ atmosphérique .

Comme il est très difficile de déterminer ce qui se passe sur les exoplanètes arides et lointaines, les chercheurs se sont penché sur la cas de notre voisine Vénus. L’étude révèle que la présence limitée d'eau en surface pourrait avoir déstabilisé le cycle du carbone de Vénus, provoquant une transition d'un climat tempéré à un climat inhabitable. La surface actuelle de Vénus est inhabitable, avec des températures moyennes de 460 ° C, une pression de surface 92 fois supérieure à celle de la Terre et une atmosphère dense dominée par le CO₂. Cependant, Vénus aurait pu être habitable par le passé, sous le faible rayonnement du jeune Soleil. Les incertitudes concernant la rétroaction nuage-albédo passée de Vénus et son évolution atmosphérique la situent à la limite de la zone habitable interne, où le moment et le déclencheur de son emballement de l'effet de serre restent flous.

Les modèles climatiques globaux démontrent qu'avec une couverture nuageuse diurne suffisante et une rotation lente, la surface de Vénus aurait pu maintenir des températures habitables jusqu'à il y a 715 millions d'années. Parmi les preuves physiques d'un climat tempéré passé, on trouve d'éventuels vestiges de croûte continentale felsique, qui se forment généralement en présence d'eau et des rapports D/H indiquant d'importants réservoirs d'eau de surface, bien que pas nécessairement condensés, par le passé. À l'inverse, certaines données soutiennent l'hypothèse d'un emballement de l'effet de serre sur Vénus depuis sa formation. On suppose que les plateaux crustaux de Vénus sont felsiques, mais des plateaux composés de minéraux felsiques s'effondreraient probablement sous l'effet de la viscosité et de l'écoulement de la croûte inférieure. De plus, la dynamique atmosphère-nuages ​​après accrétion peut avoir empêché la condensation de leau liquide en surface comme l’ont montré Turbet et al. en 2021

Bien que le climat passé de Vénus demeure incertain, si elle était habitable par le passé, elle a nécessairement subi une transition climatique majeure pour atteindre ses conditions actuelles. Une explication possible de l'état inhospitalier actuel de Vénus est que, l'augmentation de la luminosité solaire a entraîné un rayonnement accru, réchauffant sa surface autrefois habitable et déclenchant finalement un emballement de l'effet de serre. Dans ce scénario, toute eau de surface se serait évaporée, puis la photodissociation de l'eau aurait provoqué une fuite rapide d'hydrogène, aboutissant à l' atmosphère actuelle desséchée et dominée par le CO₂. Cependant, l'augmentation de la luminosité à elle seule ne peut pas expliquer une transition climatique d'habitable à inhabitable. Le seuil d'emballement de l'effet de serre dépend de l'albédo et de la composition atmosphérique, lesquels sont régis par les interactions à long terme entre l'atmosphère et l'intérieur de la planète. L'augmentation de l'ensoleillement ne fait qu'accroître la couverture nuageuse diurne, et donc l'albédo. Cette rétroaction stabilisatrice entre les nuages ​​et l'albédo aurait pu permettre le maintien de conditions tempérées à la surface de Vénus, même sous l'ensoleillement actuel.

Selon les chercheurs, une autre explication à l'état inhabitable actuel de Vénus est qu'un facteur externe, autre que l'augmentation de sa luminosité, a mis fin à une période d'habitabilité. MJ Way et AD Del Genio ont suggéré en 2020 que des conditions habitables auraient même pu persister jusqu'à aujourd'hui sans une activité volcanique catastrophique, due à un resurfaçage global épisodique ou quasi continu qui aurait pu servir de déclencheur. Cependant, les variations du dégazage à elles seules ne suffisent peut-être pas à induire un changement climatique permanent. Si Vénus a autrefois abrité de l'eau liquide en surface, l'altération des silicates aurait pu réguler les concentrations de CO₂ atmosphérique, même en présence d'un dégazage volcanique rapide. De plus, les éruptions de grandes provinces ignées exposent de la roche basaltique fraîche à la surface, augmentant considérablement la réduction du CO₂ par altération chimique. Il est peu probable que des modifications du dégazage à elles seules puissent déstabiliser durablement un climat où la rétroaction carbonate-silicate est active. Des limites à l’altération sont également nécessaires pour White-Gianella et Krissansen-Totton.

La rétroaction de décarbonatation liée à la stagnation du substratum tectonique a aussi été proposée en 2021 par Höning et al. comme explication de la fin de l’habitabilité de Vénus. Cependant, on ignore si la Vénus primitive se trouvait dans un régime tectonique de type stagnation du substratum tectonique, et certains indices suggèrent une subduction localisée.

White-Gianella et Krissansen-Totton explorent donc une explication alternative à l'état actuel de Vénus après l'emballement de l'effet de serre. Selon eux, Vénus pourrait avoir initialement présenté de faibles réserves d'eau en surface, une hypothèse qui est étayée par des modèles de solidification d'océans magmatiques, ainsi que des modèles de formation planétaire démontrant des variations stochastiques dans les réserves d'eau initiales des planètes telluriques du système solaire, et par le fait que Vénus se serait vraisemblablement formée dans une région du disque protoplanétaire plus chaude et plus pauvre en composés volatils que la Terre. Dans ce régime aride initial, le manque de précipitations aurait alors limité l'altération des silicates et la réduction du CO₂ . En l'absence d'un mécanisme de régulation de l'altération des silicates pour compenser le dégazage, le CO₂ aurait ainsi pu s'accumuler dans l'atmosphère, réchauffant la surface jusqu'à la disparition complète de l'eau, ce qui expliquerait son état actuel. Vénus aurait donc fini par perdre son eau, et toute forme de vie, même simple, aurait disparu.

Même une planète comme Vénus, située dans la zone habitable de son étoile peut donc devenir inhabitable si elle est un peu aride, en raison d'un déséquilibre du cycle du carbone.

Ces travaux montrent que la définition simpliste de la zone habitable n'est qu'un point de départ. L'habitabilité dépend de bien plus que la simple proximité d'une étoile ; or, pour l'instant, c'est tout ce que nous pouvons mesurer. Même si une planète se situe dans la zone habitable de son étoile, si elle est aride, elle peut devenir rapidement inhabitable en raison d'un déséquilibre du cycle du carbone.

Selon les chercheurs, même si de nombreuses planètes pourraient être habitables pendant de courtes périodes, et même permettre l'apparition d'une vie simple, pour ce qui est d’une habitabilité à long terme, indispensable à l'émergence d'une vie complexe et d'espèces bâtisseuses de civilisations comme la nôtre, leur nombre pourrait être bien plus faible, Plus généralement, les exoplanètes telluriques arides sont moins susceptibles de rester habitables sur de longues périodes et peuvent donc être de mauvaises candidates pour la recherche de biosignatures.

Source

Carbon Cycle Imbalances on Arid Terrestrial Planets with Implications for Venus

Haskelle T. White-Gianella and Joshua Krissansen-Totton

The Planetary Science Journal, Volume 7, Number 4 (15 avril 2026)

https://doi.org/10.3847/PSJ/ae4faa


Illustrations

1. Image d'artiste de Vénus (à gauche) et des variations de Gliese 12b  (NASA/JPL-Caltech/R. Hurt (Caltech-IPAC)

2. Haskelle T. White-Gianella

17/04/26

Mesure inédite de la puissance instantanée d'un jet de trou noir

À partir de 18 années d'imagerie radio à haute résolution, une équipe de chercheurs parvient à détecter une courbure des jets du trou noir de Cygnus X-1, induite par le vent stellaire de l'étoile compagne dans le système binaire. En modélisant les interactions jet-vent, ils déterminent pour la première fois la puissance cinétique instantanée du jet, qu'ils peuvent comparer à la puissance moyenne, seule valeur accessible jusqu'alors. Ils publient leur étude dans Nature Astronomy.


Comprendre l'impact de l'accrétion de trous noirs supermassifs sur l'évolution des galaxies et des structures cosmiques est l'une des principales motivations de l'étude des jets relativistes. On observe que les jets génèrent des chocs à grande échelle, polluent le gaz interstellaire avec des champs magnétiques et des rayons cosmiques, créent une turbulence à grande échelle et vident de vastes cavités gazeuses à l'échelle des groupes et amas de galaxies. Mais il existe une difficulté fondamentale dans la modélisation de la rétroaction cinétique, qui provient de l'absence de mesure instantanée de la puissance du jet, qui pourrait renseigner sur la fraction de l'énergie accrétée qui est convertie en énergie cinétique du jet.

Pour contraindre cette rétroaction, les astrophysiciens se sont ainsi toujours appuyés sur des estimations de la puissance du jet moyennées dans le temps, des valeurs qu'ils obtiennent par calorimétrie des bulles gonflées par le jet. Cela implique de moyenner la puissance cinétique totale émise par un jet sur toute sa durée de vie, qui dépasse largement l'échelle de temps de variabilité du flux d'accrétion. En raison de ce décalage temporel, les mesures calorimétriques ne permettent donc pas de calibrer avec précision l'efficacité de la rétroaction cinétique instantanée des trous noirs en accrétion, qui est pourtant le paramètre essentiel pour les modèles de formation des grandes structures. Cela a poussé les astrophysiciens à développer une méthode permettant de mesurer la puissance instantanée des jets d'un trou noir en accrétion. Et pour ça, quoi de mieux qu'un trou noir stellaire proche dans un système binaire ? 

En effet, les binaires X à trou noir offrent une opportunité unique de mesurer la puissance instantanée des jets grâce aux interactions théoriquement prédites entre le vent stellaire de l'étoile compagne et les jets. Dans ces systèmes, le trou noir accrète de la matière provenant du puissant vent stellaire de son étoile compagne massive. Les jets émis par le trou noir doivent ensuite se propager vers l'extérieur à travers ce vent. L'impact du vent peut dévier le jet, ce qui, combiné au mouvement orbital du trou noir, engendre un jet hélicoïdal. La trajectoire globale du jet est déterminée par les intensités relatives du flux de quantité de mouvement du vent et du flux de quantité de mouvement du jet. Par conséquent, si les paramètres du vent sont connus, il est possible de mesurer instantanément la puissance, la vitesse, la géométrie et tout désalignement entre le jet et la binaire.

À une distance de 2,22 kpc, le système binaire X à trou noir de grande masse Cygnus X-1 contient un  trou noir de 21,2 ± 2,2 M⊙ en orbite avec une période de 5,6 jours avec une supergéante compagne de type spectral O et de masse 40,6 M⊙. Le trou noir s'alimente du vent stellaire de l'étoile donneuse, dont le taux de perte de masse est de (2,57 ± 0,05) × 10⁻⁶  M⊙ an⁻¹. Un jet stable est émis à proximité du trou noir et peut être résolu par des observations radio à haute résolution angulaire grâce à l'interférométrie à très longue base (VLBI). Les premières observations VLBI de Cygnus X-1 ont été réalisées à la fin des années 1990 et n'ont détecté que le jet s'approchant vers nous, amplifié par effet Doppler. Une campagne VLBI plus sensible, menée en 2016, a permis de détecter pour la première fois le jet opposé, s'éloignant de nous correspondant. Le jet s'éloignant présentait un angle de position similaire à celui du jet s'approchant dans le plan du ciel. La faible excentricité mesurée du système binaire ( e = 0,019 ± 0,003) et sa faible vitesse spatiale par rapport à son lieu de formation supposé au sein de l'association Cygnus OB3 impliquent une impulsion initiale relativement faible lors de la formation du trou noir, de sorte que l'axe du jet devrait être relativement bien aligné avec l'orbite du système binaire. Mais des travaux récents ont mis en évidence un désalignement important entre l'axe du jet et le vecteur moment cinétique orbital.

De plus, la calorimétrie de Cygnus X-1 a été utilisée pour ancrer de nombreuses relations d'échelle des trous noirs dérivées de l'observation (telles que la puissance du jet par rapport à la luminosité radio) sur toute la gamme de masses des trous noirs (en utilisant la nature invariante d'échelle des trous noirs. On comprend d'autant mieux  la nécessité de mesurer la puissance instantanée du jet de Cygnus X-1.

S. Prabu (Université Curtin, Perth, Australie) et ses collaborateurs ont donc réanalysé les données de 2016. Leur analyse d'images individuelles VLBA et EVN de la campagne de 2016 a montré que les angles de position observés des jets s'approchant et s'éloignant variaient en fonction de la phase orbitale. Ils ont vérifié, à l'aide de données d'archives, que la variation de l'angle de position du jet s'approchant était reproductible, avec des écarts dépendant de la phase orbitale par rapport à un angle de position médian constant sur une période de 18 ans . De plus, une analyse du jet indépendante de tout modèle a montré que les jets s'approchant et s'éloignant se courbent dans des directions différentes, étant déviés de la position de l'étoile donneuse.

La différence observée par les chercheurs dans les angles de position des jets s'approchant et s'éloignant ne peut pas s'expliquer par une simple précession de l'axe du jet. Elle apparaît cependant naturellement dans un scénario où les jets sont déviés par l'impact du vent stellaire. Prabu et ses collaborateurs considèrent donc un modèle analytique de la courbure du jet induite par le vent. Ce modèle équilibre le flux de quantité de mouvement du vent avec le flux de quantité de mouvement latéral du jet et prend en compte le mouvement orbital pour prédire la structure hélicoïdale globale du jet. Ce modèle, fondé sur des principes physiques, prend également en compte les effets non balistiques dus à la poussée du jet hélicoïdal contre le vent. Afin d'inférer les propriétés du jet au lancement, ils ont ajusté ce modèle analytique, évalué numériquement, à la structure de jet qui est mesurée.

L'ajustement simultané des six époques d'observation VLBA de 2016 a ainsi permis d'obtenir pour la première fois une puissance de jet instantanée dans un trou noir en accrétion, ainsi que la vitesse du jet.  Il avait été initialement proposé que le trou noir de Cygnus X-1 se soit formé par effondrement direct d'une étoile très massive. En l'absence d'une impulsion de supernova, l'axe de rotation du trou noir devrait donc être bien aligné avec son moment angulaire orbital. Mais la détection récente d'une forte polarisation des rayons X émis par le système indique un désalignement important, de l'ordre de 18°, le long de la ligne de visée. En revanche, une étude des déphasages dépendant de la fréquence, observés dans les courbes de lumière radio a indiqué un désalignement de 20 à 30° dans le plan du ciel. Compte tenu de ces résultats contradictoires, Prabu et al. ont exploré l'impact du désalignement sur les trajectoires calculées des jets.

En présence d'un jet désaligné, on s'attendrait à des interactions vent-jet non balistiques fortement asymétriques près de la base du jet. Quelle que soit la géométrie du désalignement, le jet s'approchant se propagerait vers l'étoile (où le vent est plus dense) à une phase orbitale particulière, tandis que le jet s'éloignant le ferait une demi-orbite plus tard. Un désalignement important ( ≳ 10°) entraînerait alors une forte courbure asymétrique des jets s'approchant et s'éloignant, due aux différentes forces non balistiques que leur inflige le vent ; or, les chercheurs n'observent pas ce phénomène.

Ils ont tout de même réajusté les trajectoires des jets avec davantage de paramètres pour tenir compte d'un désalignement entre l'axe du jet et l'axe orbital et ont pu déterminer la puissance du jet : 1037.3 erg.s-1 la vitesse de jet : 68% de la vitesse de la lumière, et un désalignement optimal de 5.2°. Cependant, pour tenir compte des éventuelles erreurs systématiques dues à la moyenne des trajectoires du jet sur une observation de 12 h, les astrophysiciens ont adopté une limite supérieure conservatrice de 8,2° sur le désalignement entre le jet et le système binaire.

Un si faible désalignement jet-orbite implique que d'autres explications sont nécessaires pour la forte polarisation des rayons X observée par IXPE (Imaging X-ray Polarimetry Explorer), comme la présence d'un écoulement relativiste dans la couronne. Les déphasages radio mis pourraient quant à eux s'expliquer par la structure hélicoïdale du jet, créée par la courbure du jet et le mouvement orbital du trou noir. Ce faible désalignement est également cohérent avec la faible excentricité et la faible vitesse particulière du système, ainsi qu'avec les prédictions théoriques concernant la formation de trous noirs aussi massifs .

Bien que les estimations de la puissance du jet issues des trois modèles physiques (sans désalignement, avec désalignement et avec désalignement et jet non conique) concordent entre elles à un niveau de 1 σ et soient relativement insensibles aux incertitudes du taux de perte de masse du vent de l'étoile donneuse , Prabu et ses collaborateurs privilégient l'estimation de la puissance du jet issue du modèle qui permet à la fois un désalignement et une géométrie de jet non conique. Ce modèle, qui repose sur le moins d'hypothèses, implique que, durant la durée de vie de quelques millions d'années du système binaire X à trou noir Cygnus X-1, la rétroaction cinétique totale des jets serait de l'ordre de plusieurs fois 10⁵⁰ ergs, ce qui est comparable à celle d'une supernova. 

Les chercheurs notent que la puissance instantanée des jets qu'ils ont mesurée est en excellent accord avec la puissance moyenne des jets de 4 à 14 × 10³⁶  ergs s⁻¹ obtenue pour Cygnus X-1 par calorimétrie. La ressemblance frappante entre la luminosité bolométrique des rayons X durs de Cygnus X-1 et la mesure de puissance du jet de Prabu et al. valide les fractions de conversion d'accrétion en énergie du jet qui sont communément supposées dans les simulations typiques de formation de galaxies. 

Grâce à une mesure précise et instantanée de la puissance des jets de Cygnus X-1, les chercheurs ont ainsi validé l'utilisation de la calorimétrie utilisée jusqu'alors pour calibrer la fraction d'énergie d'accrétion qui est convertie en énergie cinétique des jets. La forte concordance entre les puissances instantanées et moyennes des jets suggère la stabilité à long terme des jets produits par des flux d'accrétion radiatifs X durs inefficaces. Cette validation renforce la confiance dans l'applicabilité plus large des techniques calorimétriques pour estimer la puissance des jets dans d'autres systèmes de trous noirs, y compris les noyaux actifs de galaxies, indépendamment de leur régime d'accrétion spécifique. 

Cette mesure inédite de la fraction de conversion instantanée de l'énergie d'accrétion en énergie des jets conforte également fortement le bilan énergétique qui a été supposé pour les trous noirs en accrétion dans les simulations cosmologiques à grande échelle.

Source

A jet bent by a stellar wind in the black hole X-ray binary Cygnus X-1

S. Prabu, et al.

Nature Astronomy (2026)

https://doi.org/10.1038/s41550-026-02828-3


Illustration

Vue d'artiste de Cygnus X-1 (International Centre for Radio Astronomy Research)

14/04/26

Un nouvel accélérateur de particules extrême alimenté par un pulsar


Les nébuleuses de vent de pulsar sont des bulles de particules relativistes, alimentées par la perte d'énergie rotationnelle des pulsars. L'observatoire LHAASO (Large High Altitude Air Shower Observatory) a récemment permis de découvrir que la nébuleuse du Crabe, alimentée par le pulsar le plus énergétique de la Voie lactée, est un objet émetteur de rayons gamma de l'ordre du PeV (1015 eV), confirmant son rôle d'accélérateur de particules extrême. Les astrophysiciens de la collaboration LHAASO présentent aujourd'hui une autre source gamma ponctuelle d'ultra-haute énergie (E>100 TeV) qui est très clairement associée à la nébuleuse de vent de pulsar alimentée par PSR J1849-0001, un pulsar dont la puissance de ralentissement est 50 fois inférieure à celle du pulsar du Crabe. Ils publient leur étude dans Nature Astronomy.

Dans le spectre en énergie des rayons cosmiques mesuré sur Terre, il y a ce que les spécialistes appellent un « genou » : une cassure autour de 3 PeV qui est généralement interprété comme la limite de l’accélération des protons par les sources galactiques ordinaires, tandis que les accélérateurs extra‑galactiques dominent seulement au‑delà d'une autre cassure appelée la « cheville ». L’existence de sources galactiques capables d’atteindre des énergies bien supérieures au PeV reste donc une question ouverte. La détection de photons gamma de l'ordre du PeV, produits par des électrons de plusieurs PeV ou par des protons de quelques dizaines de PeV, constitue un indicateur direct de telles capacités d’accélération extrêmes.

La nébuleuse du Crabe, révélée comme émetteur gamma jusqu’à 1,1 PeV par LHAASO, a démontré que les nébuleuses de vent de pulsar peuvent fonctionner comme des accélérateurs de particules exceptionnellement efficaces. Mais malgré une efficacité d’accélération déjà proche des limites théoriques, la luminosité du Crabe demeure insuffisante à elle seule pour expliquer le flux des rayons cosmiques au‑delà du genou. 

En effet, la perte d'énergie des électrons due au rayonnement synchrotron impose une limite supérieure à l'énergie maximale des électrons, qui dépend de la racine carrée de l'efficacité et varie comme l'inverse de la racine carrée du champ magnétique. Pour surmonter le champ magnétique intense de 100 μG dans la nébuleuse du Crabe, l'efficacité d'accélération doit y atteindre au moins 16 % de la limite théorique pour expliquer les observations. Quel que soit le mécanisme spécifique d'accélération des particules, avec une telle efficacité d'accélération, les protons peuvent être accélérés jusqu'à l'échelle de 10 PeV sans subir de perte radiative comme les électrons, à condition qu'ils soient introduits dans la zone d'accélération de particules. Mais même si la nébuleuse du Crabe fonctionne comme un accélérateur de protons extrêmement efficace, sa luminosité en protons d'énergie de l'ordre du PeV qui est déduite n'est pas suffisante pour expliquer le flux de rayons cosmiques mesuré au-delà de la cheville. De plus, son pulsar central présente des propriétés extrêmes difficilement généralisables : il a moins de 1 000 ans et possède la puissance de décélération la plus élevée de tous les pulsars détectés dans notre galaxie (4,5×10³⁸ erg.s-1).

La question de savoir si d’autres nébuleuses de vent de pulsar, moins énergétiques, pouvaient également produire des particules au‑delà du PeV était ainsi devenue plus que pertinente. C'est à quoi se sont attelés les astrophysiciens des particules de la collaboration LHAASO.


PSR J1849‑0001
est un pulsar jeune et rapide (une période de rotation de 38,5 ms), situé à environ 7 kpc. Il est doté d’une puissance de ralentissement environ cinquante fois inférieure à celle du pulsar du Crabe, et il est entouré d’une nébuleuse de vent de pulsar détectée en rayons X et en gamma. Les observations successives par HESS, ASγ et LHAASO ont révélé que son spectre gamma s’étend jusqu’à plusieurs centaines de TeV, avec même la détection d’un photon atteignant 2 PeV. La probabilité que cet événement soit dû au fond gamma diffus est négligeable, ce qui indique une origine astrophysique robuste. Le flux de photons de l'ordre du PeV est comparable, voire supérieur, à celui qui est mesuré dans la nébuleuse du Crabe, une fois corrigé de la distance.

Les astroparticulistes montrent que le spectre gamma mesuré s'étend jusqu'au PeV selon une distribution en loi de puissance, la luminosité étant quelques fois supérieure à celle de la nébuleuse du Crabe. Les observations combinées en rayons X contraignent le champ magnétique moyen au sein de la nébuleuse  à environ 3μG (donc bien inférieur à celui du Crabe), mais elles révèlent une efficacité d'accélération des particules extrême, proche voire supérieure à l'unité.

Ce résultat remet en question la théorie de l'accélération des particules dans les nébuleuses de vent de pulsar et implique des conditions magnétohydrodynamiques non idéales au sein de l'accélérateur. Elles pourraient notamment impliquer une reconnexion magnétique en amont de l'onde de choc terminale.

L’émission d’un photon gamma de 2 PeV via la diffusion Compton inverse impose que les électrons soient au préalable accélérés à des énergies au moins comparables. Cette exigence place des contraintes sévères sur l’efficacité d’accélération : elle doit simultanément surmonter les pertes radiatives de type synchrotron et les limites imposées par la puissance de ralentissement du pulsar (son champ magnétique). 

Selon les chercheurs, si l’accélération se produit au niveau du choc de terminaison, les observations suggèrent un coefficient d’équipartition magnétique très faible, ce qui impliquerait une efficacité d’accélération nettement supérieure à celle attendue dans le cadre de la MHD idéale. Une telle condition est difficilement compatible avec les mécanismes d’accélération de type Fermi du premier ordre, mais selon les chercheurs, elle pourrait s’expliquer par des processus non idéaux, tels que la reconnexion magnétique dans un vent de pulsar strié. 

Des scénarios alternatifs sont aussi évoqués, plaçant la zone d’accélération en amont ou en aval du choc de terminaison. Ils permettent de relaxer partiellement les contraintes, mais exigent toujours des efficacités exceptionnellement élevées.

Ces résultats mettent donc en évidence une tension significative entre les observations de LHAASO et les modèles théoriques actuels des nébuleuses de vent de pulsar. L’obtention d’efficacités d’accélération de l’ordre de l’unité, voire supérieures, est un défi majeur, même dans les cadres de MHD non idéale.

La nébuleuse de vent de pulsar associée à PSR J1849‑0001 constitue ainsi un nouvel exemple de source galactique capable d’accélérer des électrons jusqu’aux énergies du PeV. Cette découverte suggère que des conditions d’accélération extrêmes pourraient être relativement communes dans les jeunes nébuleuses de vent de pulsar, et qu’elles pourraient contribuer de manière non négligeable à la population galactique d’accélérateurs de rayons cosmiques de type PeVatrons, sous réserve d’un chargement efficace en protons.

La quête d'accélérateurs cosmiques se poursuit...

Source

An extreme particle accelerator powered by pulsar PSR J1849−0001

The LHAASO Collaboration

Nature Astronomy (13  avril 2026)

https://doi.org/10.1038/s41550-026-02839-0


Illustrations

1. PSR J1849 détecté pat LHAASO dans plusieurs bandes énergétiques (LHAASO collaboration)

2. Vue aérienne de l'observatoire LHAASO et ses centaines de détecteurs de gerbes de particules induites par les photons gamma de haute énergie (LHAASO collaboration)

10/04/26

Le rôle clé de la magnétosphère dans l'architecture des satellites de Jupiter et Saturne


L'hétérogénéité morphologique des systèmes de stellites de Jupiter et Saturne est frappante : alors que la configuration jovienne est caractérisée par la présence de quatre gros satellites (les satellites galiléens Ganymède, Io, Callisto et Europe), le système saturnien est architecturalement dominé par un seul gros satellite :Titan. Une équipe sino-japonaise vient de trouver une origine de cette différence, les chercheurs publient leur étude dans Nature Astronomy.

Les géantes gazeuses du système Solaire, Jupiter et Saturne, hébergent les cortèges satellitaires les plus denses et les plus complexes connus à ce jour. Si Jupiter présente un recensement dépassant la centaine d'objets, Saturne en dénombre plus de 280, intégrés à un environnement dynamique complexe incluant son système d'anneaux. 

La divergence structurelle entre ces deux systèmes, malgré la nature gazeuse similaire des planètes géantes, constitue une problématique centrale en planétologie. Les paradigmes classiques de formation satellitaire sont aujourd'hui réévalués à la lumière de travaux récents sur l'interaction entre les champs magnétiques stellaires et planétaires et les disques circumplanétaires. Un point de friction théorique majeur réside dans l'existence potentielle d'une cavité magnétosphérique interne au sein du disque d'accrétion, la zone d'accumulation de matière primordiale régissant la formation des satellites au début de la formation planétaire.

C'est pour proposer un modèle physiquement cohérent et extrapolable aux systèmes exoplanétaires, que Yuri I. Fujii (Université de Kyoto) et ses collaborateurs ont entrepris une modélisation multi-échelle des systèmes de Jupiter et de Saturne. 

Les chercheurs ont déployé une approche intégrée combinant plusieurs techniques : simulations de la  structure interne, modélisation de l'évolution thermique et de la dynamo de Jupiter et Saturne au stade de proto-géantes, simulations hydrodynamique des disques circumplanétaires, et  suivi de l'accrétion et de la migration orbitale des satellites par des simulations dynamiques à N-corps réalisées sur le cluster de calcul haute performance du Center for Computational Astrophysics de l'Observatoire Astronomique National du Japon (NAOJ).

Fujii et ses collaborateurs montrent  que la différenciation des systèmes de Jupiter et Saturne découle directement de la pression magnétique qui est exercée sur leur disque d'accrétion. Le champ magnétique intense de la jeune Jupiter a induit la formation d'une cavité magnétosphérique robuste. Cette discontinuité physique a agi comme un "piège orbital", stoppant la migration vers l'intérieur des proto-satellites et permettant la stabilisation d'Io, Europe et Ganymède. 

À l'inverse, la magnétosphère de la jeune Saturne, plus ténue, s'est avérée incapable de tronquer le disque interne. En l'absence de cavité protectrice, la majorité des satellites en formation ont subi une migration incontrôlée, sombrant dans la planète, à l'exception notable des corps ayant survécu dans les régions externes ou via des mécanismes de résonance spécifiques.

Le processus de dichotomie magnétique repose sur le fait que si le champ magnétique de la planète est suffisamment intense (comme celui de la jeune Jupiter), il "repousse" le gaz du disque, créant une zone vide de matière entre la surface de la planète et le bord interne du disque. C'est dans ce "piège" que les satellites cessent leur migration. Lorsqu'un satellite se forme dans un disque gazeux, il crée en effet des ondes de densité spirales et l'interaction gravitationnelle avec ces ondes produit un couple qui, en général, réduit l'énergie orbitale du satellite, le forçant à migrer vers la planète.

Mais à la bordure de la cavité magnétosphérique, le profil de densité du gaz s'inverse brusquement. Ce gradient de densité positif crée alors un couple compensatoire (ou torque de corotation) qui stoppe la migration.

Pour Saturne, le champ magnétique plus faible aurait entraîné un rayon de troncature très proche de la surface planétaire. Les satellites n'ont donc pas rencontré de barrière magnétique et ont probablement poursuivi leur migration pour être "avalés" par la géante, ne laissant subsister que la matière située plus loin, d'où est issu Titan.

La différence d'intensité du champ magnétique entre les deux géantes au moment de leur formation s'explique par leur structure thermique interne. Le champ magnétique est généré par un effet dynamo dans les couches d'hydrogène métallique. Or, la masse plus élevée de Jupiter permet une pression et une température internes plus fortes, qui peut maintenir une zone de conductivité plus vaste et plus stable sur une plus longue période que chez Saturne. Il en résulte un champ magnétique dipolaire puissant dès les premières phases de l'accrétion satellitaire.

Ces résultats posent des jalons théoriques cruciaux pour la détection future d'exolunes et l'observation de disques circumplanétaires. Les prédictions du modèle suggèrent une corrélation directe entre la masse de la planète géante (et donc son moment magnétique) et la configuration de ses lunes : Les planètes de masse jovienne ou supérieure favorisent des systèmes compacts et multiples, alors que les planètes de masse saturnienne tendent vers des systèmes plus pauvres, limités à un ou deux satellites majeurs.

L'extension de ce modèle aux systèmes d'exolunes devrait permettre de raffiner notre compréhension de la diversité architecturale des systèmes planétaires lointains....

Source

Different architecture of Jupiter and Saturn satellite systems from magnetospheric cavity formation

Yuri Fujii et al.

Nature Astronomy (2 april 2026). 

https://doi.org/10.1038/s41550-026-02820-x


Illustrations

1. Vue d'artiste de la formation des satellites de Jupiter et de Saturne (Yuri I. Fujii/L-INSIGHT [Kyoto University], Shinichiro Kinoshita)

2. Yuri Fujii 

03/04/26

Détermination précise des abondances chimiques à proximité d'un trou noir supermassif


Une équipe internationale d'astrophysiciens vient de réaliser, pour la première fois, une mesure détaillée de la distribution des abondances de plusieurs éléments lourds dans l’environnement immédiat du trou noir supermassif de la galaxie du Compas. Cette analyse permet de contraindre la fraction relative des différents types de supernovas ayant enrichi chimiquement le milieu proche du trou noir. Les résultats de cette étude ont été publiés dans Nature Astronomy.

La distribution des abondances élémentaires constitue un indicateur fondamental pour retracer l’histoire de la production et de l’injection des métaux dans les systèmes astrophysiques. Elle conserve la mémoire des contributions passées des supernovas, principalement réparties entre les supernovas thermonucléaires de type Ia et les supernovas à effondrement de cœur (types II, Ib et Ic). Les éléments lourds synthétisés lors de ces explosions stellaires sont progressivement dispersés dans le milieu interstellaire et intergalactique, polluant le gaz primordial issu du Big Bang, initialement dominé par l’hydrogène et l’hélium.

Les observations en rayons X du milieu intra-amas chaud dans les amas de galaxies montrent que, lorsqu’on intègre l’enrichissement sur l’ensemble du temps cosmique, les rapports d’abondance des métaux sont proches des valeurs solaires. Ces distributions peuvent être reproduites par les modèles de nucléosynthèse actuels en supposant une contribution d’environ 20 % de supernovas de type Ia et 80 % de supernovas à effondrement de cœur.

En revanche, sonder directement la composition chimique au cœur même des galaxies, région clé pour comprendre leur histoire évolutive et la croissance des trous noirs supermassifs, est longtemps resté un défi observationnel majeur. Dans les domaines ultraviolet, optique et proche infrarouge, les abondances métalliques des galaxies abritant des noyaux actifs sont généralement inférées à partir des rapports d’intensité des raies d’émission nébulaires, au moyen de modèles de photoionisation. Ces modèles décrivent l’interaction du rayonnement ultraviolet et optique avec le gaz environnant, mais leurs résultats dépendent fortement des hypothèses adoptées concernant la distribution de densité du gaz, la forme du continuum ionisant ou encore le degré de déplétion des éléments sur les grains de poussière. Ces dépendances introduisent des incertitudes systématiques importantes.

À l’inverse, l’interaction des rayons X avec la matière est physiquement plus simple et permet d’étudier de manière quasi directe l’ensemble des composantes du milieu, qu’il s’agisse du gaz ou de la poussière. Lorsqu’un photon X de haute énergie est absorbé par un atome via le processus photoélectrique, une raie de fluorescence est émise. L’intensité de cette raie est directement proportionnelle à l’abondance de l’élément correspondant dans le milieu irradié. Les diagnostics fondés sur les raies de fluorescence observées dans le spectre X réfléchi par la matière entourant un trou noir supermassif offrent ainsi un moyen robuste d’estimer les abondances élémentaires dans les noyaux actifs de galaxies.

L’enregistrement de ces raies, souvent faibles et étroitement espacées en énergie, requiert toutefois une résolution spectrale exceptionnelle. À ce jour, l’instrument de référence pour ce type d’étude est le spectromètre à microcalorimètre Resolve, embarqué à bord du télescope spatial japonais XRISM, récemment lancé. Grâce à sa résolution en énergie sans précédent, Resolve permet la détection et la mesure précise de raies de fluorescence d’éléments qui étaient jusqu’alors inaccessibles.

Dans ce contexte, les astrophysiciens de la collaboration internationale XRISM ont ciblé la galaxie du Compas, une galaxie spirale proche (distance ≃ 4,2 Mpc) qui héberge le noyau de Seyfert 2 le plus proche connu. Des observations X antérieures avaient montré que son noyau actif est fortement obscurci par une importante quantité de matière, ce qui en fait un laboratoire idéal pour l’étude du tore obscurcissant et de son spectre de réflexion en rayons X.

La galaxie du Compas a été observée avec XRISM du 8 au 12 février 2024, pour un temps d’exposition total de 309 ks. Ces observations ont été complétées par des campagnes quasi simultanées avec les télescopes NuSTAR et XMM-Newton, afin d’étendre la couverture spectrale vers les hautes énergies et d’améliorer la résolution spatiale en dessous de 10 keV. Le spectre global obtenu avec XRISM couvre une région d’environ 3′ × 3′ centrée sur le noyau galactique et révèle de nombreuses raies d’émission associées à divers éléments, notamment l’argon, le calcium, le chrome, le manganèse, le fer et le nickel.

L’analyse du profil de la raie de fluorescence Kα du fer, élargie et modifiée par la diffusion Compton, indique que le matériau émetteur est froid, dense et fortement enrichi en métaux. Sa localisation à une distance supérieure à 0,024 pc du trou noir supermassif est compatible avec la région du tore poussiéreux. La comparaison des intensités des raies de fluorescence des différents éléments relativement à celle du fer met en évidence des rapports argon/fer et calcium/fer inférieurs aux valeurs solaires, tandis que le rapport nickel/fer apparaît au contraire surabondant.

À partir de cette distribution d’abondances, les chercheurs ont pu contraindre la combinaison optimale de supernovas responsables de l’enrichissement chimique observé, en exploitant le fait que les différents types de supernovas produisent les éléments lourds dans des proportions distinctes. Ils concluent à une contribution dominante (≈ 92 %) de supernovas à effondrement de cœur issues d’étoiles de masse inférieure à 20 masses solaires, contre environ 8 % de supernovas de type Ia.

Ces résultats ont des implications majeures pour notre compréhension de la coévolution des galaxies et de leurs trous noirs supermassifs, ainsi que pour la physique des supernovas à effondrement de cœur. La composition chimique mesurée suggère que le trou noir supermassif de la galaxie du Compas accrète un gaz récemment enrichi par des supernovas de type II, plutôt que du gaz ancien dominé par les produits des supernovas de type Ia. Ce constat reste compatible avec les scénarios de formation galactique « de l’intérieur vers l’extérieur », à condition que le gaz de la région du tore (≲ 20 pc) soit continuellement réalimenté par le disque galactique externe, remplaçant ainsi le gaz ancien.

Par ailleurs, la coexistence d’une activité de formation stellaire nucléaire et d’un noyau actif est cohérente avec les modèles dans lesquels les supernovas contribuent à l’obscurcissement du moteur central. La forte métallicité des régions nucléaires souligne également le rôle potentiel de la rétroaction des noyaux actifs de galaxies comme mécanisme d’enrichissement chimique à l’échelle galactique, voire intergalactique.

La mise en évidence d’une limite supérieure de masse (≈ 20 M⊙) pour les progénitrices des supernovas à effondrement de cœur dans la région centrale de la galaxie apporte en outre un éclairage crucial sur le devenir des étoiles massives. Certaines théories prédisent en effet que les étoiles de plusieurs dizaines de masses solaires peuvent s’effondrer directement en trous noirs, ou produire des supernovas de très faible luminosité, sans éjecter d’éléments lourds. Bien que quelques candidates à de tels effondrements directs aient été identifiées dans l’Univers local, leur contribution globale demeure débattue. L’absence de signatures chimiques associées à des supernovas issues d’étoiles de plus de 20 M⊙ dans les spectres XRISM renforce l’hypothèse d’effondrements directs ou d’explosions ratées dans les environnements riches en métaux, sauf si la formation d’étoiles très massives y est intrinsèquement inhibée.

Ce scénario pourrait également apporter une solution au « problème des supergéantes rouges », à savoir l’absence observée de supernovas à effondrement de cœur issues d’étoiles supergéantes rouges de masse supérieure à environ 18 M⊙ dans l’Univers local, malgré l’existence avérée de telles étoiles.

Enfin, l’effondrement direct des étoiles massives dans les environnements métalliquement enrichis a des conséquences importantes pour l’histoire globale de la nucléosynthèse cosmique. Dans l’Univers primordial, caractérisé par une faible métallicité, des étoiles très massives pouvaient au contraire exploser en supernovas et produire d’importantes quantités d’éléments α. Ce contraste entre les différentes époques cosmiques pourrait expliquer pourquoi les rapports d’abondance intégrés observés aujourd’hui dans la plupart des amas de galaxies sont proches des valeurs solaires.

Source

Accurate determination of chemical abundances near a supermassive black hole

Collaboration XRISM

Nat Astron (31 mars 2026).

https://doi.org/10.1038/s41550-026-02817-6


Illustrations

1. La galaxie du Compas imagée par Hubble (NASA, Andrew S. Wilson (University of Maryland); Patrick L. Shopbell (Caltech); Chris Simpson (Subaru Telescope); Thaisa Storchi-Bergmann and F. K. B. Barbosa (UFRGS, Brazil); and Martin J. Ward (University of Leicester, U.K.))

2. Le télescope spatial XRISM (JAXA)


28/03/26

Quand souffle le vent chaud de M82


Pour la première fois, des astronomes ont mesuré directement la vitesse du gaz extrêmement chaud éjecté depuis le noyau de la galaxie M82, une galaxie voisine caractérisée par une activité de formation stellaire intense. Ces résultats, publiés dans la revue Nature, constituent une avancée majeure dans la compréhension des mécanismes à l’origine des vents galactiques dans les galaxies à sursaut de formation d’étoiles.

Les observations révèlent que ce vent chaud semble être le moteur principal dun vent galactique plus froid, déjà bien documenté, qui s’étend à grande échelle autour de la galaxie. Les mesures ont été rendues possibles grâce à linstrument Resolve, un spectromètre à haute résolution associé au télescope spatial XRISM (X-ray Imaging and Spectroscopy Mission), spécialisé dans l’observation du rayonnement X.

Les modèles théoriques classiques prévoient que, dans les galaxies à sursaut de formation stellaire comme M82, l’énergie libérée par la formation massive d’étoiles et par les supernovas chauffe fortement le gaz interstellaire central. Ce gaz, porté à des températures extrêmes, subit alors une forte pression thermique qui l’entraîne vers l’extérieur sous la forme d’un vent galactique. Jusqu’à présent, l’absence de mesures directes des vitesses du gaz chaud empêchait de tester rigoureusement ces modèles. Les données de XRISM montrent désormais que ces vitesses sont supérieures à certaines prédictions, et suffisantes pour permettre au gaz de s’échapper du potentiel gravitationnel de la galaxie.

M82, souvent appelée la «galaxie du Cigare» en raison de sa morphologie allongée, est située à environ 12millions dannées-lumière de la Terre, dans la constellation de la Grande Ourse. Elle forme des étoiles à un rythme environ dix fois plus élevé que celui de la Voie lactée, ce qui en fait un laboratoire privilégié pour l’étude des processus de rétroaction  entre formation stellaire et milieu interstellaire.

La galaxie est également célèbre pour son vent froid étendu, composé de gaz et de poussières, qui s’étend sur près de 40000 années-lumière. Ce vent a été observé par plusieurs télescopes spatiaux, notamment Hubble, Chandra, Spitzer et Webb, afin de mieux comprendre le lien entre l’activité stellaire centrale et l’expulsion de matière à grande échelle.

Un enjeu important de ces recherches concerne le rôle des rayons cosmiques, des particules chargées se déplaçant à des vitesses relativistes. Accélérés par les mêmes phénomènes violents que ceux responsables des vents galactiques, ils pourraient contribuer à la pression globale exercée sur le gaz et participer à son expulsion hors de la galaxie.

Grâce à la résolution spectrale élevée de XRISM, Erin Boettcher (Université du Maryland) et ses collaborateurs ont analysé les raies d’émission X du fer fortement ionisé présent dans le gaz central de M82. L’intensité de ces raies a permis de déterminer la température du gaz, estimée à environ 25millions de kelvins, en accord avec les prédictions théoriques. À de telles températures, la pression thermique devient suffisante pour accélérer le gaz vers lextérieur, selon un mécanisme comparable à celui des écoulements de gaz dus à des gradients de pression.

La vitesse du vent chaud a été mesurée à partir de l’élargissement des raies spectrales, un effet lié au décalage Doppler. Le mouvement rapide du gaz, à la fois vers et à l’opposé de l’observateur, élargit les raies observées. L’analyse de cet élargissement indique que la vitesse du vent est légèrement supérieure à celle attendue. Combinée à la température élevée du gaz, cette vitesse suffit à expliquer l’alimentation du vent froid, sans nécessiter une contribution dominante des rayons cosmiques, bien que ceux-ci puissent jouer un rôle secondaire.

Les estimations de Boettcher  et al. suggèrent que le centre de M82 expulse chaque année une masse de gaz égale à environ 7 masses solaires. Toutefois, ils montrent qu’une partie de cette matière ne semble pas contribuer directement au vent froid observé. Seulement environ 60 % de la puissance du vent chaud est nécessaire pour accélérer le gaz froid aux vitesses observées. Cela suggère qu'environ 40 % du vent chaud, soit 3 M paran, pourraient s'échapper. En supposant un régime stationnaire, jusqu'à environ 30 millionsM de ce gaz pourraient avoir atteint le milieu intergalactique au cours des quelque 10 millions d'années écoulées depuis le début des récents sursauts de formation d'étoiles.

Ce gaz est enrichi en métaux par la formation d'étoiles. De plus, le fluide chaud du vent transporte la majeure partie de l'énergie thermique de l'écoulement multiphasique. Ceci suggère que jusqu'à un tiers de l'énergie thermique totale transportée par le vent multiphasique atteint également le milieu intergalactique lors de la phase chaude. M82 est donc un exemple de réchauffement modéré et d'enrichissement chimique du milieu intergalactique par un vent de galaxie à sursaut de formation d'étoiles à faible décalage vers le rouge. Les observations de M82 par XRISM offrent ainsi une opportunité unique de confronter les modèles de galaxies à sursaut de formation d’étoiles à des données observationnelles précises.

L'avènement de la spectroscopie des rayons X à haute résolution permettra des mesures statistiques de la masse, des métaux et de l'énergie associés aux phases les plus chaudes des vents de galaxies à sursaut de formation d'étoiles, affinant ainsi notre compréhension du cycle baryonique et des processus de rétroaction galactique pour nos modèles décrivant l’évolution des galaxies dans l’Univers.

Source

A fast starburst wind consumes most of the energy from supernovae
XRISM Collaboration
Nature volume 651 (25 march 2026)

Illustrations

1. Image composite de M82 (NASA’s Goddard Space Flight Center; X-ray: NASA/CXC/JHU/D.Strickland; Optical: NASA/ESA/STScI/AURA/The Hubble Heritage Team; Infrared: NASA/JPL-Caltech/Univ. of AZ/C. Engelbracht; XRISM Collaboration et al. 2026)
2. Spectre X du noyau de M82 mesuré par XRISM (XRISM collaboration)
3. Erin Boettcher