09/01/26

Découverte d'un probable mini-halo de matière noire atypique


Récemment, un objet d'un million de masses solaires a été découvert, associé à un arc gravitationnel étendu et extrêmement fin. Une équipe d'astrophysiciens vient d'effectuer des tests approfondis de diverses hypothèses concernant le profil de densité de masse de cet objet. Il serait composé d'un trou noir central de l'ordre de 1 million de masses solaires entouré d'une distribution de matière noire qui serait tronquée brusquement à un rayon de 139 pc, une structure qui ne ressemble à aucun objet astronomique connu et qui challenge les modèles "classiques" de matière noire froide. L'étude est parue dans Nature Astronomy.

La matière noire représente 85 % de la matière cosmique, mais sa nature demeure inconnue. Le modèle de la matière noire froide (CDM), selon lequel la matière noire est constituée de particules élémentaires massives, non relativistes et sans collisions (sans interactions entre elles), concorde avec de nombreuses observations astrophysiques. Mais il reste largement inexploré à l'échelle subgalactique. Ce modèle prédit notamment que la structure cosmique s'est formée par un processus hiérarchique ascendant. De ce fait, on s'attend à l'existence d'une population importante de halos de matière noire de faible masse (jusqu'à des échelles de masse planétaire). Ces petites structures existeraient à ​​la fois sous forme de sous-halos au sein des halos de galaxies et d'amas massifs et dans le champ cosmique, avec des fonctions de masse et des profils de densité de masse bien caractérisés par de nombreuses simulations numériques. Mesurer le profil de densité et la concentration de masse des halos de matière noire est un test crucial du paradigme standard de la matière noire froide. Ces objets sont difficiles à caractériser, mais ils peuvent être étudiés par lentille gravitationnelle. 

Les modifications du modèle CDM dans lesquelles les particules de matière noire possèdent une vitesse non négligeable aux premiers instants (c’est-à-dire ce qu'on appelle la matière noire chaude, WDM) permettent de prédire un nombre considérablement plus réduit de halos de faible masse, dont les profils de densité de masse sont nettement moins concentrés. Et la réduction du nombre de halos et de leur concentration est directement liée à la masse des particules WDM.

Une autre matière noire a aussi été théorisée depuis de nombreuses années : la matière noire auto-interagissante (SIDM), dans laquelle les particules (inconnues) interagiraient à la fois par la gravité et par d'autres forces, et pourrait ainsi redistribuer l'énergie et la quantité de mouvement au sein des halos, ce qui modifierait leur distribution et créerait des profils de densité plus diversifiés que dans le modèle CDM. Si la section efficace (probabilité) d'auto-interaction est suffisamment élevée, les halos peuvent évoluer vers un profil de densité très concentré en leur centre. Ces objets se forment par un processus de contraction incontrôlée, connu sous le nom d'effondrement du cœur. Ces halos de SIDM peuvent alors être considérablement plus concentrés en leur centre que les halos CDM de même masse. L'effondrement du cœur, dans ce cas, conduit rapidement à la formation d'un trou noir central qui, contrairement aux modèles CDM, ne dépend pas de processus baryoniques complexes et incertains. Par conséquent, la mesure directe du nombre et du profil de densité des halos de matière noire de faible masse (inférieure à 100 millions M⊙) peut permettre de distinguer avec précision les différents modèles de matière noire. Ces objets sont supposés être dominés par la matière noire, et la plupart devraient être totalement sombres. Ils ne peuvent donc être étudiés qu'à l'aide d'une sonde gravitationnelle, telle que le phénomène de lentille gravitationnelle forte.

Le système JVAS B1938+666 comprend une galaxie elliptique massive à un décalage vers le rouge z  = 0,881 qui, par effet de lentille gravitationnelle, dévie une puissante radiosource à un décalage vers le rouge z  = 2,059. Aux longueurs d'onde du proche infrarouge (2,1 μm, dans le référentiel de l'observateur), la galaxie hôte de la radiosource forme un anneau d'Einstein presque complet, au centre duquel un objet sombre de (190 ± 10) millions M⊙ a été détecté grâce à son effet de lentille gravitationnelle. La radiosource qui a été observée à 1,7 GHz (référentiel d'observation) grâce au réseau mondial d'interférométrie à très longue base (VLBI), révéle un arc gravitationnel spectaculaire et très fin qui s'étend sur environ 200 ms d'arc avec une largeur de quelques millisecondes d'arc au maximum. Cet arc est nettement séparé de l'anneau d'Einstein infrarouge sur la voûte céleste.

C'est il y a quelques mois, que Powell et al. ont effectué une analyse d'imagerie gravitationnelle des données à 1,7 GHz, et ont détecté (à 26 σ !) les effets gravitationnels d'un perturbateur dans la lentille gravitationnelle sans contrepartie lumineuse évidente dans les données d'optique adaptative du télescope Keck en proche infrarouge. La masse de l'objet sans contrepartie visible à été estimée à environ 1 million de masses solaires, en supposant qu'il se situe à l'intérieur de la galaxie lentille. Précisons que l’« imagerie gravitationnelle » désigne la technique de modélisation des lentilles gravitationnelles dans laquelle les halos de faible masse sont « imagés » sous forme de corrections pixellisées régularisées du potentiel de lentille. Ce concept a été introduit par Koopmans en 2005. 

Simona Vegetti (Max Planck Institut für Astrophysik) et ses collaborateurs ont cherché à mieux caractériser cet objet sombre massif source perturbatrice de la lentille gravitationnelle, notamment pour savoir si il ne s'agirait pas d'un petit halo de matière noire. 
Les chercheurs ont testé et comparé une grande variété de modèles paramétriques différents pour son profil de densité de masse et son décalage vers le rouge en utilisant l'évidence bayésienne logarithmique (c’est-à-dire le logarithme népérien de la probabilité d’un modèle étant donné les données). Les modèles ont été choisis pour couvrir les candidats les plus probables quant à la nature de cet objet de masse exceptionnellement faible pour une source de lentille gravitationnelle : un noyau compact ou un trou noir, décrit par une masse ponctuelle ; un amas globulaire, décrit par un profil de King ou de Plummer ; un halo ou sous-halo de matière noire, décrit par un profil de Navarro-Frenk-White (NFW) conventionnel, un profil isotherme singulier tronqué ou un profil en loi de puissance brisée ; et enfin une galaxie naine ultra-compacte, décrite par un profil de Sérsic.

Vegetti et ses collègues ont considéré des modèles composites qui superposent une composante centrale non résolue (un trou noir ou un noyau compact) à une composante étendue. Et ils ont aussi comparé des modèles avec le perturbateur à l’intérieur de la lentille (à un décalage vers le rouge de 0,881) avec des modèles où il se trouve à un décalage vers le rouge inconnu le long de la ligne de visée.

Au total, ils ont testé 23 modèles différents. Le modèle présentant le meilleur ajustement à ce qui est observé décrit un objet au décalage vers le rouge de la lentille principale, composé d'une masse ponctuelle et d'un disque uniforme vu de face. Les chercheurs notent que ce modèle présente une coupure nette de la densité surfacique à la limite de 139 pc de rayon, ce qui est difficile à concilier avec les profils des systèmes astrophysiques connus. Cela peut refléter une certaine inadéquation du modèle de lentille principal à ces petites échelles, ou bien un effet de ligne de visée non modélisé qui modifie la brillance de surface de l'arc radio à des échelles supérieures à celle du perturbateur de faible masse. 

L'explication la plus plausible selon eux est celle d'un disque de densité surfacique uniforme, vu de face, de rayon extérieur R  = 139 ± 4 pc, centré sur une composante non résolue contenant 19 % de la masse totale, soit 1,8 ± 0,1 × 10⁶ M⊙ . L' objet central pourrait être un trou noir ou un amas stellaire nucléaire. Dans les modèles CDM et WDM, la formation d'un trou noir au centre des galaxies résulte de processus baryoniques complexes et incertains. 
Dans le régime de masse de la détection, on s'attend à ce que les halos soient dépourvus d'étoiles et bien décrits par un profil NFW unique. Un halo entièrement sombre, présentant des propriétés compatibles avec le modèle d'ajustement optimal, semble donc extrêmement improbable dans les modèles CDM et WDM. Cependant, pour des sections efficaces d'interaction judicieusement choisies, cela pourrait être envisageable dans les modèles de matière noire SIDM, où l'effondrement du cœur peut conduire à la formation de trous noirs au centre des halos de matière noire (comme l'avaient montré Turner et al. en 2021). 
Vegetti et ses collaborateurs ont néanmoins cherché des solutions alternatives plus conventionnelles. 
Tout d'abord, il pourrait s'agir d'une galaxie ultracompacte possédant un trou noir supermassif central ou un amas stellaire nucléaire. Ces galaxies constituent une classe distincte de petits systèmes stellaires denses, dont la masse se situe entre celle des amas globulaires et celle des galaxies naines classiques. Découvertes initialement dans des amas de galaxies proches tels que Fornax et Virgo, elles comptent parmi les galaxies les plus denses connues à ce jour. On pense que les galaxies ultracompactes se forment de diverses manières, notamment par arrachement de matière des galaxies naines dans des environnements denses. Le modèle optimal des chercheurs présente ici une taille et une masse globales compatibles avec celles des galaxies ultracompactes connues et des amas stellaires nucléaires locaux, mais leur distribution radiale de la lumière est nettement plus concentrée au centre que la densité surfacique de masse uniforme qui est privilégiée ici.

JVAS B1938+666 est le troisième objet massif à avoir été imagé individuellement par la gravité à ce jour. Or, ces trois détections présentent des propriétés qui, à différents niveaux statistiques, apparaissent inhabituelles comparées aux halos dominés par la matière noire dans les paradigmes CDM et WDM. L'analyse de Vegetti et ses collaborateurs, combinée à celles des détections précédentes, suggère que si des observations plus profondes confirment que ces objets sont dominés par la matière noire plutôt que par les étoiles, comme c'est le cas pour les galaxies ultracompactes et les amas stellaires nucléaires, alors la matière noire ne peut pas être sans collisions, elle doit interagir avec elle même, a minima. Par conséquent, ces résultats d'aujourd'hui pourraient avoir des implications importantes pour la nature de la matière noire et le modèle cosmologique standard.

Cependant, des travaux numériques et théoriques supplémentaires sont nécessaires pour obtenir des prédictions robustes à partir des modèles SIDM aux échelles spatiales et aux phases d'évolution pertinentes. Il faudra surtout vérifier que les trois détections peuvent être expliquées de manière cohérente par les mêmes paramètres de SIDM, en premier lieu la section efficace d'auto-interaction.


Source

A possible challenge for cold and warm dark matter
Simona Vegetti et al.
Nature Astronomy (5 january 2026)

Illustration

1. Image de  la lentille gravitationnelle JVAS B1938+666. L'objet perturbateur objet de cette étude est désigné par la lettre 𝛎

2. Simona Vegetti

04/01/26

Deux noyaux instables réécrivent les sursauts de rayons X des étoiles à neutrons


Des physiciens de l'Institut de Physique Moderne de l'Académie chinoise des sciences (CAS) ont mesuré directement les masses de deux noyaux atomiques extrêmement instables, le phosphore-26 et le soufre-27 (demi-vies de 43 ms et 15 ms respectivement). Ces mesures de haute précision fournissent des données essentielles au calcul des taux de réactions nucléaires lors des sursauts de rayons X des étoiles à neutrons. Cela permet de mieux comprendre comment les éléments chimiques sont créés dans certains des environnements les plus extrêmes de l'univers. Les résultats de l'étude ont été publiés dans The Astrophysical Journal.

Les sursauts de rayons X de type I sont produits par des explosions thermonucléaires intenses et récurrentes qui sont observées dans toute la galaxie. Ils se produisent généralement dans les systèmes binaires X de faible masse, où une étoile à neutrons dense attire la matière d'une étoile compagne proche. 
L'étoile à neutrons accrète de la matière riche en hydrogène et en hélium provenant de l'étoile donneuse, formant une couche d'accrétion à sa surface. Lorsque la température et la densité de cette couche atteignent certains seuils, une réaction thermonucléaire s'emballe, déclenchant les sursauts de rayons X. Les résidus de la combustion nucléaire restent à la surface et contribuent à la composition chimique de la surface de l'étoile à neutrons, comme l'ont montré Z. Meisel et al. en 2018. Lors des sursauts de rayons X, une série de réactions (p,γ) rapides se produisent, au cours desquelles un nucléide de nombre de masse A  − 1 et de numéro atomique Z  − 1 capture un proton pour former le nucléide ( A , Z ), avec émission de rayons γ. On l'appelle le processus rp. Le facteur Q de cette réaction de capture de proton est égal à l'énergie de séparation du proton du noyau produit, déterminée par la différence de masse des nucléides impliqués : Sp =  M (A-1,  Z-1) +  M (p) −  M (A, Z). Une énergie de séparation du proton faible, voire négative, caractérise les noyaux faiblement liés impliqués dans les réactions (p,γ). Par conséquent, les processus de photodésintégration intenses établissent un équilibre dynamique (p,γ) - (γ,p) entre les isotones. Par exemple, dans des conditions d'équilibre, le rapport d'abondance entre 26P et 27S dépend exponentiellement de Sp et de la température T.
La vitesse de ces réactions et les voies nucléaires prédominantes dépendent donc fortement des masses exactes des noyaux impliqués. De nombreux noyaux impliqués dans le processus rp se situent à proximité de la limite de stabilité protonique, ce qui signifie qu'ils sont extrêmement instables et se désintègrent très rapidement. Du fait de leur courte durée de vie, leurs masses ont souvent été mal connues, voire jamais mesurées. Ce manque de données a rendu difficile la modélisation précise des réactions nucléaires lors des sursauts de rayons X de ce type.

Les physiciens débattent depuis des années de l'importance d'une voie réactionnelle impliquant le phosphore-26 et le soufre-27 dans le processus rp. Cette incertitude provient principalement de mesures de masse manquantes ou imprécises pour ces noyaux. C'est pour résoudre ce problème que l'équipe de Z. Chen a cherché a mesurer directement la masse du phosphore-26 et du soufre-27 par spectrométrie de masse isochrone à rigidité magnétique. Les expériences ont été réalisées sur l'anneau de stockage du Centre de recherche sur les ions lourds de Lanzhou (HIRFL-CSR).

Les excès de masse qu'ils ont déterminés valent 17 437 keV pour le 27S et à 10 997 keV pour le 26P. Ces valeurs donnent une énergie de séparation du proton de 849 ± 26 keV pour le 27S, soit une précision huit fois supérieure à la valeur précédente de 581 ±214 keV. Les mesures révèlent que l'énergie de séparation des protons du soufre-27 est supérieure de 129 à 267 keV aux estimations précédentes. 
À partir de ces valeurs de masse mises à jour, les chercheurs ont pu recalculer le déroulement des réactions nucléaires lors des sursauts de rayons X à la surface des étoiles à neutrons. Chen et ses collaborateurs ont évalué le taux de réaction thermonucléaire 26P(p,γ)27S dans des conditions de sursaut de rayons X. Ce taux est amélioré dans la gamme de températures de 0,4 à 2 GK, atteignant jusqu'à cinq fois le taux précédent à 1 GK. L'incertitude sur le taux de réaction inverse 27S (γ,p) 26P est quant à elle considérablement réduite grâce aux nouveaux résultats de masse de haute précision, passant de plus de dix ordres de grandeur à moins d'un.

De ce fait, les modèles prévoient une plus grande abondance de soufre-27 par rapport au phosphore-26, ce qui indique que la matière nucléaire s'écoule plus efficacement vers le soufre-27 lors de ces explosions stellaires. Ainsi, ces résultats de masse de haute précision et le nouveau taux de réaction correspondant fournissent des données plus fiables pour les réseaux de réactions astrophysiques. Ils résolvent les incertitudes dans les voies de nucléosynthèse au sein de la région phosphore-soufre des sursauts de rayons X.
Théoriquement, le 26P est produit à partir de 25Si par une réaction de capture de proton radiative (p,γ), et le 27S se désintègre quant à lui en 27P par émission béta+, ce qui permet de produire indirectement du 27P à partir du 25Si. Mais la structure résonante du 27S demeure la principale incertitude, faute de données expérimentales. Chen et ses collaborateurs recommandent donc en conclusion que de futures mesures spectroscopiques de haute précision soient effectuées sur le 27S afin d'encore mieux contraindre les modèles théoriques des sursauts de rayons X.


Source

Precision Mass Measurement of 26P and 27S and Their Impact on the 26P(p,γ)27S Reaction in Stellar X-Ray Bursts
Z. Y. Chen, et al.
The Astrophysical Journal, Volume 994, Number 2 (1 december 2025)

Illustration

Vue d'artiste d'un sursaut X d'une étoile à neutrons (Chutterstock).

27/12/25

Nouvelle estimation de l'épaisseur de la croûte de glace d'Europe


Une équipe de chercheurs vient de caractériser l'épaisseur de la glace et la structure du sous-sol d'Europe (lune de Jupiter) grâce au radiomètre micro-ondes de la sonde Juno. Alors qu'on estimait auparavant que cette croute de glace surplombant un océan liquide faisait entre 3 km et 30 km, la valeur trouvée aujourd'hui est dans la fourchette haute : 29 ± 10 km, mais il y aurait des fissures de plusieurs centaines de mètres de profondeur. L'étude est publiée dans Nature Astronomy.

Europe, est aujourd'hui l'une des cibles prioritaires de l'astrobiologie dans le système solaire, du fait de l'existence avérée de son océan liquide salé et de sa relative proximité de la Terre. Les observations de la sonde Galileo avaient révélé de vastes zones de fragmentation de la glace (un terrain chaotique), suggérant la présence de fissures, failles, pores ou bulles sous la surface. Si elles persistent, ces fissures pourraient favoriser l'habitabilité en facilitant le transport de nutriments entre la surface et l'océan. 

Steven Levin (JPL, NASA) et ses collaborateurs ont étudié la surface et la subsurface d'Europe avec la sonde Juno qui orbite toujours avec panache la grande Jupiter en survolant de temps à autre ses satellites les plus intéressants comme Io, Ganymède ou Europe. 

La sonde Juno est en orbite polaire autour de Jupiter depuis 2016, stabilisée par rotation sur elle-même à une vitesse de 2 tours par minute. Le 29 septembre 2022, elle a survolé Europe à une altitude de 360 ​​km. Europe est une cible prioritaire pour les planétologues depuis plus de 40 ans, l'intérêt pour sa potentielle habitabilité s'étant considérablement accru lorsque les mesures de la sonde Galileo ont révélé la présence d'un océan d'eau salée et conductrice sous la croûte de glace, ainsi que des fractures dans la glace de surface. Lors du survol d'Europe par Juno, son radiomètre micro-ondes (MWR), conçu initialement pour observer l'atmosphère profonde de Jupiter, a fourni des mesures spatialement résolues des températures de brillance à différentes profondeurs de la croûte de glace d'Europe.

MWR est un ensemble de six radiomètres fonctionnant à 0,6 GHz, 1,2 GHz, 2,6 GHz, 5,2 GHz, 10 GHz et 22 GHz. Lors du survol d'Europe, MWR a permis de cartographier les émissions thermiques émanant de la croûte de glace à des profondeurs allant de quelques mètres (à 22 GHz) à plusieurs kilomètres (à 0,6 GHz). Ces observations de la température de la glace en fonction de la profondeur mettent en évidence une diffusion dépendant de la fréquence au sein de la glace et contraignent ainsi l'épaisseur de la croûte de glace ainsi que la taille et la profondeur des sources des réflexions observées.

L'ensemble de données comprend 129 mesures dans chacun des six canaux de MWR, obtenues à partir de quatre rotations consécutives de la sonde. Les six cartes MWR obtenues couvrent les latitudes d'environ 10° S à environ 30° N et les longitudes de 60° O à 40° E. MWR a mesuré la température avec une précision absolue supérieure à 2 %. 


Les observations infrarouges indiquent par ailleurs que la région observée à la surface d'Europe présente des températures comprises entre 90 K et 110 K environ, avec une variation diurne d'environ 20 K. Bien que la surface d'Europe soit principalement composée de glace d'eau, on y trouve des traces de sels et d'autres matériaux non glacés, peut-être des composés soufrés, de la glace de CO2, et peut-être des molécules organiques ou des matériaux rocheux. La morphologie de surface et les mesures du champ magnétique suggèrent la présence d'un océan souterrain. Avant Juno, les estimations de l'épaisseur de la calotte glaciaire étaient imprécises, oscillant entre 3 km et 45 km environ. 
La présence d'un océan d'eau sous la calotte glaciaire impose une contrainte sur le gradient de température vertical (l'interface océan-glace doit être à environ 270 K). Une couche de glace convective pourrait exister entre l'océan et la croûte de glace conductrice. Les mesures du gradient de température vertical permettent d'estimer l'épaisseur de la partie conductrice de la croûte de glace, une éventuelle couche convective s'ajoutant à l'épaisseur totale. On suppose en outre qu'une couche de régolithe de glace, d'une profondeur variant de quelques mètres à un kilomètre, contient des fractures et des cavités pouvant atteindre 75 cm de diamètre. L'épaisseur de la croûte de glace et la nature du régolithe limitent les possibilités de communication entre la surface et l'océan, influençant les théories sur l'habitabilité d'Europe .

L'analyse de Levin et ses collaborateurs révèle la présence d'une couche de glace conductrice d'une épaisseur de 29 ± 10 km, en supposant une glace d'eau pure et l'absence de couche de glace convective. L'estimation de l'épaisseur de cette couche dépend crucialement du gradient thermique induit par les différences mesurées entre les canaux à 0,6 GHz et 1,2 GHz. Les impuretés présentes dans la glace, telles que les sels ou d'autres substances, augmenteraient l'opacité aux micro-ondes, réduisant potentiellement la profondeur sondée par tous les canaux et, par conséquent, la différence de profondeur entre les canaux à 0,6 GHz et 1,2 GHz, avec un effet approximativement proportionnel sur l'estimation de l'épaisseur de la couche de glace.
Afin de déterminer l'importance de ce phénomène, les chercheurs utilisent la théorie du milieu effectif pour estimer l'effet de la salinité sous forme d'inclusions et, alternativement, ils estiment l'effet du sel dissous dans le réseau cristallin de la glace en ajustant la partie imaginaire de la constante diélectrique pour tenir compte de la contribution du chlore à la conductivité. Une glace marine présentant une salinité de 60 μM Cl⁻ ( environ 2,3 mg kg⁻¹ ) , comme suggéré par Blankenship et al., n'a que très peu d'effet sur l'analyse de Levin et ses collègues. Une salinité de la calotte glaciaire de 15 mg kg⁻¹ , qui avait été estimée par Steinbrugge et al. , si elle était globale, réduirait la profondeur de sondage à 0,6 GHz d'environ 17 % (soit environ 5 km) si les ions sont dissous dans le réseau cristallin de la glace, ou d'environ 4 % s'ils sont présents sous forme d'inclusions. Levin et ses collaborateurs précisent que des niveaux de salinité plus élevés, ainsi qu'une dépendance de leur effet sur l'opacité à la température, pourraient avoir un impact plus important, bien que certains sels de sulfate hydratés aient peu d'effet sur l'atténuation des micro- ondes.
Pour affecter les basses fréquences et diminuer l'estimation de l'épaisseur de la couche de glace conductrice, les impuretés devraient être suffisamment répandues pour impacter la majeure partie des données MWR et suffisamment profondes pour modifier sensiblement la contribution du canal à 0,6 GHz. La modélisation présentée ici, qui suppose une glace pure, prédit une contribution de 50 % au canal à 0,6 GHz à 14 km de profondeur. Les impuretés induisant une dépendance différente à la température de la glace modifieraient également la concordance entre les données et le modèle en changeant la pente modélisée. Une analyse plus poussée de cet effet pourrait permettre de mieux contraindre le degré d'impuretés et, par conséquent, les propriétés de la couche de glace.

En tous cas, l'estimation de l'épaisseur de la croûte de glace d'Europe se situe dans la partie supérieure des estimations publiées précédemment, mais elle reste physiquement plausible. Le flux de chaleur dans le modèle de Levin et al., correspondant à une croûte conductrice de 19 à 39 km d'épaisseur, varie de 15 mW m-2 à 35 mW m-2. Ce flux de chaleur est supérieur à celui attendu pour une contribution radiogénique chondritique seule (~10 mW m-2) et il est cohérent avec les estimations prenant en compte le chauffage par effet de marée dans la croûte de glace d'Europe.
Les modèles de dissipation des marées prévoient également des variations importantes de l'épaisseur de la croûte de glace en fonction de la latitude et de la longitude, des variations que le modèle de Levin et al. ne prend pas en compte. Mais aucune preuve topographique isostatique n'a confirmé cette variation d'épaisseur prédite, et il a été avancé que le transport de chaleur océanique pourrait quasiment éliminer ces variations d'épaisseur de la croûte sur Europe.

Les planétologues constatent également que le régolithe présente une distribution de diffuseurs dont la densité diminue avec la puissance quatrième de la taille des pores et avec une hauteur d'échelle d'environ 220 m. Ils interprètent ces centres diffuseurs comme des pores dans la glace, mais ils n'excluent pas la possibilité qu'il s'agisse de fissures ou d'inclusions salines, qui donneraient des résultats similaires. Si la glace est suffisamment impure pour être sensiblement plus opaque que la glace pure, alors la distribution verticale des diffuseurs doit être moins profonde. La variation latérale des diffuseurs s'étend sur au moins quelques mètres de profondeur, mais n'est pas observée dans les canaux les plus profonds.
Pour les chercheurs, en raison de leur faible fraction volumique, de leur faible profondeur par rapport à celle de l'océan et de leur petite taille, les pores, vides ou fractures mis en évidence par ces résultats ne constitueraient probablement pas, à eux seuls, une voie d'apport de nutriments à l'océan ni un moyen de communication entre l'océan et la surface.

Les données exploitées ici n'excluent pas d'autres sources liées aux régions actives ou aux impacts sur Europe, ni la possibilité que les pores les plus fins, indétectables par les fréquences de sondage les plus profondes de MWR, ne décroissent pas de façon exponentielle mais se prolongent en profondeur. Pour conclure, les chercheurs rappellent que ces résultats se limitent aux terrains observés et qu'une cartographie plus poussée de la surface d'Europe par radiométrie ou radar pourrait révéler des régions où la couche de glace est plus mince ou plus épaisse, ou encore présenter des variations de régolithe non observées.


Source

Europa’s ice thickness and subsurface structure characterized by the Juno microwave radiometer
S. M. Levin et al.
Nature Astronomy (17 december 2025)

Illustrations

1. Europe imagée par Juno lors de son survol du 29 septembre 2022 (NASA)
2. Données MWR pour chaque canal de fréquence, superposées sur une carte d'Europe (Levin et al.)
2. Steven Levin 

21/12/25

Après la supernova, après la kilonova : la superkilonova.


Le 18 août 2025, la collaboration LIGO–Virgo–KAGRA a détecté des ondes gravitationnelles issues de la fusion d'un système binaire d'étoiles à neutrons en dessous du seuil de masse classique. Au moins une des étoiles à neutrons avait une masse inférieure à celle du Soleil. Le Zwicky Transient Facility a cartographié la localisation approximative de cet événement et a découvert une source transitoire coïncidant spatialement et temporellement avec le déclenchement des ondes gravitationnelles. La première semaine de suivi a révélé des propriétés similaires à celles d'une kilonova de type GW170817. Mais les suivis ultérieurs suggèrent des propriétés plus proches de celles d'une jeune supernova de type IIb à enveloppe dépouillée. Une analyse approfondie montre qu'il pourrait s'agir en fait des deux, dans un nouveau processus qu'on appelle une superkilonova... L'étude est parue dans The Astrophysical Journal Letters.

Rappelons que le phénomène de kilonova est associé à la fusion de deux étoiles à neutrons, qui produit une explosion riche en création d'éléments lourds. Et une étoile à neutron est le résidu d'une supernova à effondrement de coeur (de type II). Mais il existe aussi des modèles théoriques qui prédisent que dans certaines conditions, une étoile massive qui s'effondre gravitationnellement peut former non pas une étoile à neutrons, mais deux, ou plus! Il faut pour cela que l'étoile massive soit en rotation très rapide. Il existe deux variantes : soit un disque d'accrétion se forme juste avant l'explosion proprement dite à cause de la grande vitesse de rotation et se fragmente jusqu'à former une ou plusieurs petites étoiles à neutrons, ou bien le coeur de l'étoile massive fissionne sous l'effet de la rotation lors de l'effondrement, formant deux étoiles à neutrons au lieu d'une dans la supernova. Le résultat est le même : à l'issue de la supernova, il reste au moins deux étoiles à neutrons très proches l'une de l'autre qui se tournent autour l'une de l'autre à grande vitesse et se rapprochent très vite. On connaît la suite, elle devraient très vite fusionner et donc produire une kilonova, en plus de la supernova qui a eu lieu quelques heures auparavant. Un tel phénomène a été envisagé théoriquement, mais n'a jamais observé.

Mansi  Kasliwal (Caltech) et ses collaborateurs sont parvenus à cette conclusion pour AT2025ulz qui a été détecté le 18 aout, quelques heures après l'alerte donnée par les détecteurs d'ondes gravitationnelles. Le Zwicky Transient Facility (ZTF), une caméra installée à l'observatoire Palomar, a été le premier à localiser un objet rouge s'estompant rapidement, situé à 1,3 milliard d'années-lumière et localisé dans la même région que la source d'ondes gravitationnelles S250818k. L'événement, initialement nommé ZTF 25abjmnps, a ensuite été renommé AT2025ulz par le serveur de noms de phénomènes transitoires de l'Union astronomique internationale. Une douzaine d'autres télescopes ont été braqué  sur la cible pour en apprendre davantage, notamment l'observatoire Keck à Hawaï, le télescope Fraunhofer de l'observatoire Wendelstein en Allemagne, et un ensemble de télescopes à travers le monde du programme GROWTH (Global Relay of Observatories Watching Transients Happen), dirigé par Kasliwal.
Les observations ont confirmé que l'éruption lumineuse s'était rapidement estompée et avait émis une lueur rouge, tout comme GW170817 huit ans auparavant. Dans le cas de la kilonova emblématique GW170817, les couleurs rouges provenaient d'éléments lourds comme l'or créés lors de la fusion par les flux intense de neutrons. Ces atomes possèdent davantage de niveaux d'énergie électronique que les éléments plus légers, bloquant ainsi la lumière bleue tout en laissant passer la lumière rouge.

Puis, quelques jours après l'explosion, AT2025ulz a recommencé à briller, cette fois avec une teinte plus bleue et a révélé la présence d'hydrogène dans son spectre – autant de signes d'une supernova et non d'une kilonova (plus précisément d'une supernova à effondrement de cœur et enveloppe dépouillée). Mais on ne s'attend généralement pas à ce que les supernovas provenant de galaxies lointaines génèrent suffisamment d'ondes gravitationnelles pour être détectables par LIGO et Virgo, contrairement aux kilonovas.

Bien qu'AT2025ulz ne ressemble pas tout à fait à la kilonova classique GW170817, elle ne présente pas non plus les caractéristiques spectrales d'une supernova ordinaire. De plus, les données d'ondes gravitationnelles de LIGO-Virgo ont révélé qu'au moins une des étoiles à neutrons impliquées dans la fusion avait une masse inférieure à une masse solaire, suggérant ainsi que deux petites étoiles à neutrons auraient pu fusionner pour former une kilonova. Lors de l'éjection de métaux lourds, la kilonova aurait initialement émis une lueur rouge, observée par ZTF et d'autres télescopes. L'expansion des débris issus de l'explosion antérieure de la supernova aurait ensuite masqué la kilonova aux astronomes. 

En principe, des étoiles à neutrons stables peuvent exister et atteindre une masse aussi faible que 0,1 M⊙. Mais la formation d'une étoile à neutrons de masse inférieure à 1 masse solaire représente un défi majeur pour l'évolution stellaire. Des simulations détaillées de l'effondrement du cœur et de l'explosion en supernova d'étoiles massives (à rotation lente) prévoient une limite inférieure robuste à la masse d'une étoile à neutrons de 1,2 M⊙. Une limite inférieure similaire s'applique aux masses des étoiles à neutrons formées par l'effondrement, induit par accrétion, d'une naine blanche. La seule solution pour former une étoile à neutrons de masse inférieure à celle du Soleil est d'identifier un environnement riche en neutrons, car la masse de Chandrasekhar est proportionnelle au carré de la fraction d'électrons. Un tel environnement gravitationnel riche en neutrons est possible immédiatement après l'effondrement d'une étoile en rotation rapide.

La fission du coeur d'une étoile en effondrement en deux étoiles à neutrons au lieu d'une seule a été théorisé il y a 40 ans par Durisen & Tohline (1985), puis confirmé par Imshennik & Popov en 1998 et plus tard par Davies et al. (2002) puis Postnov et al. (2016). La condition nécessaire est une très grande vitesse de rotation de l'étoile massive. 

Par ailleurs, il a également été proposé que si l'enveloppe stellaire possède un moment angulaire suffisant, elle pourrait former initialement un disque de matière maintenu en suspension par la force centrifuge, plutôt que de s'accréter directement sur l'objet compact central. La production d'un disque d'accrétion massif et instable qui se fragmente puis s'effondre pour former une étoile à neutrons suite à un refroidissement par neutrinos incontrôlés ou à la dissociation de particules alpha a quant à elle été théorisée par Piro & E. Pfahl en 2007, puis par Metzger et al. en 2024 et encore récemment par Lerner et al. en 2025. Ce processus est qualitativement similaire au mécanisme proposé pour la formation de planètes dans les disques protoplanétaires ou d'étoiles dans les disques des noyaux actifs de galaxies. Et si le disque s'enrichit en neutrons, suite à la capture d'électrons par des protons, la limite inférieure de masse de Chandrasekhar pourrait permettre la formation d'étoiles à neutrons de masse inférieure à celle du Soleil comme l'ont montré Metzger et al. en 2024. Ce phénomène a récemment été illustré par Chen et Metzger (2025) à l'aide de simulations hydrodynamiques. Ces auteurs ont constaté que la fragmentation en un spectre d'objets de masse comprise entre  0,01 et 1 M⊙ est observée pour les disques à taux d'accrétion élevés. Si le disque se fragmente en plusieurs étoiles à neutrons, ces corps peuvent s'apparier en binaires serrées, soit par fission à partir d'un unique amas en effondrement, soit par friction due à l'entraînement des gaz . 

Si plusieurs étoiles à neutrons se forment par ce processus, la coalescence ultérieure de ces étoiles à neutron binaires, possiblement après un délai de quelques minutes à quelques heures suivant l'effondrement, constitue une source potentielle d'émission d'ondes gravitationnelles en quasi-coïncidence avec la supernova. Et si le disque se fragmente en une seule étoile à neutrons subsolaire, celle-ci fusionnera peu de temps après avec l'étoile à neutrons centrale (de masse ordinaire, issue de la supernova) ou le trou noir de faible masse créé par l'effondrement du coeur, créant ainsi un seul signal d'ondes gravitationnelles.

Mansi  Kasliwal et ses collaborateurs penchent plus vers la solution d'une telle fragmentation au sein du disque d'accrétion, plutôt que celle de la fission directe du coeur de l'étoile massive lors de la supernova. Selon eux, un indice fort est la faible masse de S250818k, déterminée par la méthode du chirp, qui laisse entrevoir la possibilité d'observer la fusion d'une ou deux étoiles à neutrons subsolaires, soit entre elles, soit avec l'objet compact central résiduel de l'explosion. Deuxièmement, la similarité de ZTF 25abjmnps avec les supernovas à enveloppe dépouillée suggère que l'étoile progénitrice a pu interagir dans un système binaire, ce qui lui aurait conféré un moment angulaire suffisant pour former un disque d'accrétion susceptible de se fragmenter lors de son effondrement. 
Ils précisent que les mécanismes d'accélération de la rotation des cœurs d'étoiles massives aux stades tardifs de leur évolution peuvent être divers et, dans certains cas, peuvent concerner des progénitrices contenant des quantités modérées d'hydrogène et d'hélium. Par exemple, une fusion stellaire survenant peu avant l'effondrement du cœur pourrait à la fois accélérer sa rotation et donner naissance à une supernova de type IIb. Troisièmement, selon les auteurs, l'évolution inhabituelle de la couleur pourrait indiquer le mélange d'une faible quantité d'éléments du processus r (nucléosynthèse par enrichissement rapide en neutrons), contribuant à l'opacité pendant un certain temps, jusqu'à ce que le nickel devienne dominant. Quatrièmement, les chercheurs mentionnent que l'environnement local de formation stellaire active de la galaxie hôte de ZTF 25abjmnps est un lieu propice à de tels événements d'effondrement de cœur.

L'étude de cette superkilonova candidate n'est pas finie. L'établissement d'une association plus solide entre le signal gravitationnel S250818k et le transitoire optique ZTF 25abjmnps nécessite une modélisation théorique plus détaillée et des observations tardives et sensibles. Le suivi tardif de la courbe de lumière pourrait notamment être comparé à l'échauffement qui est attendu par le nickel-56. La spectroscopie dans l'infrarouge (en particulier avec le télescope spatial James Webb) permettrait en outre de contraindre directement la composition des éjectas. La forte densité du milieu environnant dans les régions de formation stellaire active pourrait aussi faciliter les détections radio tardives. Des données radio et X supplémentaires permettraient de déterminer l'existence ou non d'une composante relativiste non thermique tardive.
Si le disque d'accrétion ou les fusions d'étoiles au sein du disque alimentent des jets relativistes, cela pourrait conférer une asymétrie à l'explosion de la supernova le long de l'axe de rotation et créer une rémanence non thermique si le jet parvient à traverser l'enveloppe éjectée de l'étoile. En revanche, une enveloppe plus large pourrait étouffer tout jet alimenté par accrétion, rendant les signatures du moteur central moins apparentes que dans les sursauts gamma traditionnels. Bien que des détections radio/X tardives corroborent cette hypothèse, leur absence ne l'exclut pas non plus... La preuve la plus convaincante de ce modèle serait sans doute la présence, dans la signature des ondes gravitationnelles, de signes de fusions multiples : par exemple, la fusion d'étoiles à neutrons subsolaires suivie de la fusion d'une étoile à neutrons avec un trou noir. Une telle double fusion n'est attendue dans le cadre du modèle de la superkilonova que si le disque d'accrétion s'est fragmenté pour former plusieurs étoiles à neutrons subsolaires. En revanche, elle n'est pas attendue si le cœur en effondrement s'est fissionné directement en deux étoiles à neutrons qui ont ensuite fusionné, ou si la fragmentation a formé une seule étoile à neutrons subsolaire qui a fusionné ensuite avec une étoile à neutrons centrale.

À l'avenir, de nombreuses méthodes permettront de vérifier la validité de cette potentielle signature de superkilonova. Grâce aux futurs interféromètres à ondes gravitationnelles plus sensibles, on devrait observer un nombre bien plus important de détections de fusions d'étoiles à neutrons binaires subsolaires, avec une signification statistique accrue et une meilleure localisation. Et puis la recherche d'une signature similaire à celle d'une supernova à enveloppe dépouillée et à effondrement de cœur devrait être aisée, même à des distances considérables, grâce à la prochaine génération de télescopes comme l'observatoire Vera Rubin, le télescope spatial Roman, ou le satellite UVEX.

Tout phénomène transitoire ressemblant à une jeune supernova à enveloppe dépouillée, coïncidant avec la fusion d'étoiles à neutrons subsolaires ou la fusion d'une étoile à neutrons et d'un trou noir, devrait en tous cas faire l'objet d'un suivi approfondi à toutes les longueurs d'onde. Une modélisation théorique plus détaillée des superkilonovas, notamment des prédictions de courbe de lumière et de spectre, permettrait aussi aux observateurs d'optimiser leurs observations de suivi. 

Lorsque GW170817 s'est produite à une distance relativement proche, la preuve de l'association multimessager était flagrante, la distinction entre une kilonova et une supernova étant alors très nette. Mais comme c'est le cas ici, les futurs événements multimessagers pourraient être différents de GW170817, et se produiront probablement beaucoup plus loin, en présentant des similitudes avec les supernovas. Aujourd'hui, nous avons l'opportunité de discerner une véritable « symphonie multimessager » : une supernova à effondrement de cœur, associé à une fusion d'étoiles à neutrons, voire deux fusions quasi simultanées pouvant impliqué également un trou noir : une superkilonova.

Source

ZTF25abjmnps (AT2025ulz) and S250818k: A Candidate Superkilonova from a Subthreshold Subsolar Gravitational-wave Trigger
Mansi Kasliwal et al.
The Astrophysical Journal Letters, Volume 995, Number 2 (15 december 2025)

Illustrations

1. Vue d'artiste du phénomène de superkilonova (Caltech/K. Miller and R. Hurt (IPAC))
2. Mansi  Kasliwal

14/12/25

Signes d'une évolution du fonctionnement des quasars dans l'histoire cosmique


Une équipe internationale d'astrophysiciens vient de publier dans les Monthly Notices of the Royal Astronomical Society des preuves convaincantes que la structure de la matière entourant les trous noirs supermassifs a changé au cours du temps cosmique, ce qui remet en cause un paradigme sur les quasars datant des années 1960.

Les quasars, identifiés pour la première fois au milieu des années 1960, sont les objets les plus brillants de l'univers. Ils sont alimentés par des trous noirs supermassifs : la matière, attirée par une gravité intense, s'enroule en spirale vers l'intérieur, formant une structure en forme de disque en rotation qui finit par plonger dans le trou noir en s'échauffant de manière extrême et  émettant alors un flux électromagnétique considérable dans de nombreuses longueurs d'ondes, notamment des ultra-violets et des rayons X.

Ce disque est extrêmement chaud en raison de la friction entre les particules de matière qui gravitent autour du trou noir. Il produit 100 à 1 000 fois plus de lumière qu'une galaxie entière contenant 100 milliards d'étoiles, générant une lueur qui surpasse celle de sa galaxie hôte et de tout ce qu'elle contient.

On pense également que la lumière ultraviolette du disque est l'un des carburants de la lumière X beaucoup plus énergétique produite par les quasars : les rayons UV, en traversant l'espace proche du trou noir, sont impactés par des nuages ​​de particules très énergétiques, une structure également connue sous le nom de couronne.

En diffusant sur ces particules énergétiques, les rayons ultraviolets voient leur énergie augmenter et devenir une lumière X intense. On parle de diffusion Compton inverse. Du fait de leur histoire commune, les émissions de rayons X et UV des quasars sont étroitement liées : une lumière ultraviolette plus intense correspond généralement à une intensité de rayons X plus forte. Cette corrélation, découverte il y a près de 50 ans, apporte des éclairages fondamentaux sur la géométrie et les conditions physiques de la matière à proximité des trous noirs supermassifs et fait l’objet de recherches intensives depuis des décennies.

Mais ce que viennent de découvrir Maria Chira (Observatoire d'Athènes) et ses collaborateurs remet en question l'universalité de cette corrélation. Ils montrent que lorsque l'univers était plus jeune – environ la moitié de son âge actuel – la corrélation entre les rayons X et la lumière ultraviolette des quasars était significativement différente de celle observée dans l'univers proche. Cette découverte suggère que les processus physiques reliant le disque d'accrétion et la couronne autour des trous noirs supermassifs ont pu évoluer au cours des 6,5 derniers milliards d'années de l'histoire cosmique. Ca remet donc en question notre compréhension de la façon dont les trous noirs supermassifs croissent et rayonnent via leur disque d'accrétion.

Chira et ses collaborateurs, ont exploité de nouvelles observations en rayons X du télescope spatial eROSITA et des données d'archives du télescope spatial XMM-Newton afin d'explorer la relation entre l'intensité des rayons X et ultraviolets d'un échantillon de quasars d'une ampleur sans précédent. Ils ont utilisé un vaste échantillon couvrant la quasi-totalité du ciel, en combinant le catalogue de quasars du Sloan Digital Sky Survey (16e édition) avec les données des deux télescopes X, ce qui donne 136 745 quasars à différents décalages vers le rouge. La couverture étendue et uniforme en rayons X du nouveau télescope eROSITA s'est avérée déterminante, permettant à l'équipe d'étudier des populations de quasars à une échelle jamais atteinte auparavant.

Les chercheurs observent une corrélation entre les flux UV (2500 Å) et X (2 keV), mais avec une normalisation à la limite inférieure des estimations précédentes. Contrairement à la plupart des résultats publiés, ils détectent une évolution douce mais systématique avec le décalage vers le rouge : la relation s'aplatit et sa dispersion intrinsèque diminue aux décalages vers le rouge plus élevés. L'évolution en fonction du décalage vers le rouge dépend de la luminosité : tandis que les quasars les plus lumineux présentent une évolution minimale, ceux dont la luminosité optique/UV est plus faible affichent des luminosités X systématiquement plus élevées avec l'augmentation du décalage vers le rouge. De plus, la dispersion intrinsèque de la corrélation diminue avec le décalage vers le rouge, conformément aux résultats antérieurs publiés.

L'évolution observée de la corrélation, si elle est d'ordre physique, suggère une modification des processus d'accrétion et de l'interaction entre les composantes fondamentales du flux d'accrétion au cours du temps cosmique. Chira et al. interprètent ce résultat dans le cadre du modèle de Dovčiak et al. (2022) et Kammoun et al. (2025). Dans ce contexte, le sens de l'évolution est compatible avec un disque de plus en plus dominé par la diffusion et une fraction plus importante de l'énergie dissipée qui est transférée à la couronne de rayons X. Cela pourrait indiquer une évolution en fonction du décalage vers le rouge de la correction bolométrique des rayons X.

Chira et ses collaborateurs montrent que l'évolution déduite est systématique et reste robuste pour tous les modèles complémentaires utilisés dans leur étude, et les observations privilégient le modèle de leur analyse où la pente et la normalisation de la corrélation dépendent du décalage vers le rouge. Des observations plus profondes en rayons X et UV seront néanmoins nécessaires pour confirmer ces tendances en étendant l'analyse à des quasars plus faibles.

Enfin, la taille de l'échantillon a permis aux chercheurs d'étudier les dépendances potentielles de la corrélation vis-à-vis des propriétés physiques des quasars. Ils n'ont trouvé aucune preuve d'une dépendance à la masse du trou noir. Ils ont mené une analyse détaillée de la dépendance de la corrélation à la puissance d'accrétion, qui est paramétrée par le rapport d'Eddington, telle que prédite par plusieurs modèles d'accrétion récents. Leurs résultats indiquent que cette dépendance est faible. Inversement, Chira et ses collaborateurs proposent que des modèles physiques robustes, associés à de grands échantillons comme celui présenté ici, soient utilisés pour évaluer les incertitudes systématiques sur les paramètres physiques des trous noirs, telles que les estimations de la masse virielle des trous noirs.

L'ensemble des relevés du ciel entier effectués par eROSITA permettra bientôt aux astronomes d'explorer des quasars encore plus faibles et plus distants. Les analyses futures, exploitant ces données ainsi que les relevés de rayons X et multi-longueurs d'onde de nouvelle génération, permettront de déterminer si l'évolution observée reflète un véritable changement physique ou simplement des effets de sélection. Ces études permettront de mieux comprendre comment les trous noirs supermassifs alimentent les objets les plus lumineux de l'univers, et comment leur comportement a évolué au cours du temps cosmique.

L'universalité de la relation entre les rayonnements ultraviolets et les rayons X sous-tend certaines méthodes qui utilisent les quasars comme « chandelles standard » pour mesurer la géométrie de l'univers et, à terme, sonder la nature de la matière noire et de l'énergie sombre. Ce nouveau résultat souligne la nécessité de la prudence, démontrant que l'hypothèse d'une structure immuable des trous noirs au cours du temps cosmique doit être rigoureusement réexaminée.


Source

Revisiting the X-ray-to-UV relation of quasars in the era of all-sky surveys

Maria Chira et al.

Monthly Notices of the Royal Astronomical Society, Volume 545, Issue 1 (11 December 2025)

https://doi.org/10.1093/mnras/staf1905


Illustrations

1. Corrélation entre la luminosité UV et la la luminosité X pour différentes valeurs de redshift z. (Chira et al.)

2. Maria Chira 


11/12/25

Détection d'un sursaut gamma durant plus de 7 heures !


Le 2 juillet 2025 a eu lieu un événement extraordinaire : un sursaut gamma a été détecté sur une durée de près de 7h d'affilée ! La plupart des sursauts gamma (GRB) de longue durée ne durent au maximum que quelques minutes. Il est probable que cet événement sans précédent annonce un nouveau type d'explosion stellaire. Selon les astrophysiciens, la meilleure explication de cette explosion est qu'un trou noir a englouti une étoile, mais ils ne s'accordent pas sur la manière dont cela s'est produit et d’autres hypothèses restent valides. Une série d’articles consacrés à GRB 250702 sont parus ou à paraître, dont celui décrivant l’émission de rayons gamma, paru dans Monthly Notices of the Royal Astronomical Society.

Détectés en moyenne une fois par jour, les sursauts gamma peuvent apparaître n'importe où dans le ciel sans avertissement. Il s'agit d'événements très lointains, l'exemple le plus proche connu ayant eu lieu à plus de 100 millions d'années-lumière. GRB 250702 a été détecté par de multiples instruments en orbite : tout d’abord le télescope spatial Fermi puis par le télescope Swift, ainsi que par l'instrument russe Konus de la mission Wind, mais aussi par le spectromètre gamma et neutronique de Psyche — la sonde spatiale de la NASA actuellement en route vers l'astéroïde 16 Psyche — et enfin par l'instrument japonais MAXI (Monitor of All-sky X-ray Image) de la Station spatiale internationale. Le télescope à rayons X à grand champ de la sonde chinoise Einstein Probe a également détecté le sursaut en rayons X et a montré qu'un signal était présent la veille. Le sursaut a duré si longtemps qu'aucun moniteur à haute énergie dans l'espace ne pouvait l'observer dans son intégralité. Ce n'est que grâce à la puissance combinée de plusieurs détecteurs spatiaux que les chercheurs ont pu suivre l’ampleur du phénomène.

La bouffée initiale de rayons gamma du 2 juillet a duré au moins 7 heures, soit près de deux fois plus longtemps que le plus long sursaut gamma jamais observé auparavant, et elle comporte d'autres propriétés inhabituelles. La durée record de l'explosion de GRB 250702B, la place dans une catégorie à part. Sur les quelque 15 000 GRB observés depuis que le phénomène a été reconnu pour la première fois en 1973, seule une demi-douzaine s'en approche. La plupart des sursauts durent de quelques millisecondes à quelques minutes et se forment de deux manières, soit par la fusion de deux étoiles à neutrons, soit par l'effondrement d'une étoile massive une fois que son cœur est à court de combustible.  Dans les deux cas il se forme un trou noir. Une partie de la matière tombant vers le trou noir est ensuite canalisée en jets de particules compacts qui s'échappent à une vitesse proche de celle de la lumière, créant des rayons gamma au passage. Mais aucun de ces deux types d’événements ne peut facilement créer des jets capables de se propager pendant plusieurs jours, ce qui explique pourquoi GRB 250702B pose un casse-tête unique.

La première localisation précise a été obtenue le 3 juillet, lorsque le télescope à rayons X Swift a imagé le sursaut dans la constellation du Bouclier, près du plan poussiéreux et encombré de notre galaxie. Compte tenu de cet emplacement et de la détection des rayons X la veille, les astronomes se sont d’abord demandé si cet événement pouvait être un type différent d'explosion provenant d'un endroit situé dans notre propre galaxie. Mais les images provenant de certains des plus grands télescopes de la planète, notamment ceux des observatoires Keck et Gemini à Hawaï et du VLT (Very Large Telescope), ont laissé entrevoir la présence d'une galaxie à cet endroit. Les astronomes se sont donc tournés vers le télescope spatial Hubble de la NASA pour obtenir une image plus nette.


Les données du Hubble ne sont pas très bien résolues et elles pourraient montrer soit deux galaxies en fusion, soit une galaxie avec une grosse bande sombre de poussière divisant le noyau en deux parties. Qu’à cela ne tienne, les astrophysiciens se sont donc empressés de demander du temps d’observation avec le télescope Webb. Et les images obtenues avec l'instrument NIRcam permettent de voir très clairement que le sursaut a brillé à travers une bande de poussière qui s'étend à travers la galaxie.

Et puis fin août, une équipe dirigée par Benjamin Gompertz de l'université de Birmingham a utilisé l'instrument NIRSpec de Webb et le VLT pour déterminer la distance de la galaxie et d'autres propriétés. La galaxie se situe à une distance de 8 milliards d’années.

Une étude approfondie de la lumière X suivant le sursaut principal a utilisé les observations de Swift, ainsi que de Chandra et de NuSTAR (Nuclear Spectroscopic Telescope Array). Les données de Swift et NuSTAR ont révélé des éruptions rapides survenant jusqu'à deux jours après la découverte du sursaut.

Les astrophysiciens estiment que l'accrétion continue de matière par le trou noir a alimenté un flux sortant qui a produit ces éruptions, mais aussi que le processus s'est poursuivi bien plus longtemps que ce qui est possible dans les modèles GRB standard. Les éruptions tardives de rayons X montrent que la source d'énergie de l'explosion a refusé de s'éteindre, ce qui signifie que le trou noir a continué à s'alimenter pendant au moins quelques jours après l'éruption initiale.

En revanche, les données des télescopes Fermi et Swift indiquent un GRB typique, bien que d'une durée très inhabituelle. Les observations spectroscopiques de Webb n'ont pas détecté d'explosion de supernova, qui accompagne généralement un GRB résultant de l'effondrement d'une étoile, bien qu'elle ait pu être masquée par la poussière et la distance. On l’a dit, Einstein Probe a détecté des rayons X un jour avant le sursaut gamma, tandis que NuSTAR a enregistré des sursauts de rayons X jusqu'à deux jours après, ce qui n'est pas du tout typique des GRB.

De plus, une étude détaillée menée par Jonathan Carney (université de Caroline du Nord) et ses collaborateurs, montre que la galaxie hôte est très différente des galaxies généralement petites qui abritent la plupart des GRB résultant d'un effondrement stellaire. Cette galaxie a une masse plus de deux fois supérieure à celle de notre galaxie.

Dans les deux scénarios les plus discutés par les astrophysiciens pour expliquer les caractéristiques de GRB 250702B, un trou noir aurait englouti une étoile en environ un jour.

Le premier scénario fait appel à un trou noir de masse intermédiaire, d'une masse de quelques milliers de masses solaires. Une étoile s'approche trop près, est étirée le long de son orbite par les forces gravitationnelles et est rapidement consommée par le trou noir, un événement de disruption par marée, mais causé par un trou noir de masse intermédiaire. Le second scénario fait quant à lui intervenir un petit trou noir, de masse stellaire, qui aurait été absorbé dans une étoile et l’aurait avalé rapidement.

C’est le second scénario qui est privilégié par Eliza Neights (université George Washington) et ses collaborateurs car, si ce sursaut est similaire aux autres, la masse du trou noir doit nécessairement être plus proche de celle du Soleil. Leur modèle envisage un trou noir d'une masse environ trois masses solaires, avec un horizon des événements de seulement 18 kilomètres de diamètre, en orbite autour d'une étoile compagne avec laquelle il fusionne. L'étoile a une masse similaire à celle du trou noir, mais elle serait beaucoup plus petite que le Soleil. En effet, son atmosphère d'hydrogène aurait été presque entièrement dépouillée, ne laissant que son noyau dense d'hélium, formant un objet qu’on appelle une étoile d'hélium.

Dans les deux cas, la matière de l'étoile s'écoule d'abord vers le trou noir et s'accumule dans un vaste disque, à partir duquel le gaz effectue sa plongée finale dans le trou noir. À un certain moment de ce processus, le système commence à briller intensément en rayons X. Puis, à mesure que le trou noir consume rapidement la matière de l'étoile, des jets de particules et des rayons gamma sont émis vers l'extérieur.

Le modèle d'étoile à hélium fait une prédiction unique : une fois que le trou noir est totalement immergé dans le corps principal de l'étoile, la dévorant de l'intérieur, l'énergie qu'il libère fait exploser l'étoile et alimente une supernova.

Malheureusement, cette explosion s'est produite derrière d'énormes quantités de poussière, ce qui signifie que même la puissance du télescope Webb n'a pas suffi pour voir la supernova attendue. Les preuves irréfutables permettant d'expliquer ce qui s'est passé le 2 juillet devront attendre de futurs événements, mais GRB 250702B a déjà fourni de nouvelles informations sur les GRB les plus longs, en grande partie grâce à la surveillance constante de la flotte d'observatoires et d'instruments en orbite.


Source

GRB 250702B: Discovery of a Gamma-Ray Burst from a Black Hole Falling into a Star

Eliza Neights et al.

Monthly Notices of the Royal Astronomical Society (14 novembre 2025)

https://doi.org/10.1093/mnras/staf2019


Illustrations

1. Image de la galaxie hôte de GRB 250702B par le télescope Webb (Neights et al.)

2. Vue d'artiste de GRB 250702B (NOIRLab/NSF/AURA/M. Garlick)

3. Eliza Neights

06/12/25

Les mégaconstellations de satellites menacent aussi l'astronomie spatiale


Ces cinq dernières années ont été marquées par une augmentation sans précédent du nombre de satellites en orbite autour de la Terre. On commence à peine à en comprendre les répercussions, à l'heure où les débris en orbite sont déjà en tel nombre qu'un micro-impact a récemment empêché le dernier équipage chinois de rentrer sur Terre avec la capsule prévue. Une chose est sûre : le ciel nocturne est en pleine mutation, et les astronomes sont aux premières loges pour en être témoins. Vu du sol, cette flambée satellitaire se manifeste par des traînées lumineuses sur les images astronomiques des grands télescopes, dues à la réflexion de la lumière solaire par les satellites lors de leur déplacement dans le ciel. Mais il n'y a pas que les télescopes terrestres qui sont impactés. Dans un article venant de paraître dans Nature, une équipe de chercheurs montre que la prolifération des satellites a et aura également un impact très important sur les télescopes en orbite.

Depuis la nuit des temps, l'humanité lève les yeux vers le ciel pour s'interroger sur sa place dans l'univers et comprendre le sens de son existence. Mais ce n'est qu'au cours des 70 dernières années que des instruments ont commencé à fonctionner au-delà de l'atmosphère de la Terre, principalement en orbite basse, à moins de 2 000 kilomètres d'altitude. Le télescope spatial Hubble est depuis 35 ans l'une des entreprises les plus réussies de l'humanité dans l'espace orbital. Mais Hubble, qui orbite à environ 500 km d'altitude, partage désormais cette orbite avec des milliers de satellites de télécommunications, dont la plupart ont été lancés au cours des cinq dernières années. De ce fait, 4,3 % des images prises par Hubble entre 2018 et 2021 présentent des traînées de satellites...

Et beaucoup de choses ont changé depuis 2021, année où l'on comptait environ 8 000 satellites actifs. On en dénombre aujourd'hui plus de 13000, sans compter les débris et les satellites hors service. Jusqu'en 2019, la plus grande constellation de satellites artificiels était le système Iridium, composé de 75 engins spatiaux en orbite terrestre basse (LEO) à des altitudes comprises entre environ 630 et 780 km. Les émissions radio dans la bande 1 621–1 628 MHz des satellites Iridium ont été parmi les premières sources de pollution électromagnétique spatiale à être prises en compte par les chaînes de traitement des données des observatoires terrestres. Mais ces dernières années, le nombre de satellites a explosé grâce à la réduction du coût par kilogramme de charges utiles lancées en orbite terrestre basse.  Le nombre de satellites artificiels a connu une croissance exponentielle depuis 2020. Durant cette période, les propositions de satellites de télécommunications soumises à la Commission fédérale des communications (FCC) des États-Unis et à l'Union internationale des télécommunications (UIT) ont été multipliées par 100. 

Les lancements devraient être encore plus accessibles à l'avenir grâce à l'arrivée des lanceurs super-lourds de nouvelle génération (Space Launch System, New Glenn, Starship et Longue Marche 9), qui devrait réduire encore les coûts de lancement et accroître la capacité de déployer davantage de satellites sur des orbites encore plus élevées. Si toutes les demandes d'autorisation auprès de la FCC aboutissent à des lancements, la Terre compterait un demi-million de satellites artificiels en orbite d'ici la fin des années 2030.

Les premières observations des satellites Starlink en 2019 ont révélé que la lumière réfléchie par ces merdes spatiales était facilement visible à l'œil nu, perturbant les observatoires terrestres sur l'ensemble des longueurs d'onde. Leurs positions apparentes dans le ciel changeant, ils laissent une trace lumineuse sur les images astronomiques, appelée "traînée". Le passage d'une traînée de satellite sur un objet d'observation (une galaxie par exemple) peut rendre l'observation totalement inutilisable. Même si la traînée ne touche pas la galaie sur l'image, elle peut générer un gradient de lumière de fond (lumière diffusée) et augmenter le bruit photonique. Pour les télescopes terrestres à grand champ de nouvelle génération, tels que l'observatoire Vera Rubin, des études conservatrices supposant des constellations de 26 000 à 48 000 satellites (nettement moins que celles proposées actuellement), prévoyaient que 20 % des images à minuit présenteront des traînées de satellites et que 30 à 80 % de toutes les expositions obtenues au début et en fin de la nuit seront affectées.


Les satellites en orbite basse (LEO) sont détectés grâce à la lumière solaire réfléchie et sont donc principalement visibles juste après le coucher du soleil et avant son lever. Ils émettent également un rayonnement infrarouge thermique et des ondes radio. La plupart des efforts d'atténuation ont porté sur la réduction de leur luminosité par des modifications de leur conception et de leur orientation, afin de les rendre indétectables à l'œil nu (magnitude ≈ 6–7). La magnitude apparente typique des satellites Starlink de première génération était de 5,1 ± 1,1. Mais les revêtements sombres et les systèmes de blocage optique se sont révélés inefficaces pour réduire la présence de traînées de satellites dans les images astronomiques, n'entraînant qu'une légère diminution de la magnitude optique (de 4,6 à 5,9 pour VisorSat et à 6 pour DarkSat). Si ces systèmes réduisent l'impact visuel pour les observateurs à l'œil nu, les satellites restent très brillants pour les observatoires astronomiques. De fait, les satellites Direct to Cell (DTC) récemment lancés en orbite possèdent des panneaux solaires et un châssis bien plus grands (125 m² contre 26 m² ) et sont beaucoup plus brillants que les satellites internet classiques (jusqu'à une magnitude visible  ≈ 0–1, contre 4–6 pour les satellites traditionnels), malgré leurs orbites plus basses et donc des transits plus rapides. Et les satellites ultra-brillants, tels que BlueWalker 3, ont une magnitude comparable à celle des étoiles les plus brillantes du ciel...

Pour comprendre l'impact des satellites non plus sur les télescopes terrestres, mais sur les télescopes spatiaux, Alejandro Borlaff (NASA Ames Research Center) et ses collègues ont utilisé une base de données publique de satellites artificiels et de leurs orbites afin de simuler différents scénarios de population satellitaire future. La taille de ces populations varie de 10 000 satellites seulement – ​​moins que la population actuelle – à un million, soit approximativement le nombre de satellites que les entreprises du monde entier ont déclaré vouloir lancer auprès de l'Union internationale des télécommunications (UIT).

Malgré ces données, la prédiction des populations satellitaires futures est encore très incertaine, car il est peu probable que tous les satellites déclarés soient lancés. Les auteurs estiment à 560 000 le nombre de satellites prévus : cela correspond approximativement au nombre de satellites figurant dans la base de données des « méga-constellations » prévues.

Les chercheurs ont sélectionné aléatoirement des images d'archives prises par le télescope spatial Hubble entre 2023 et 2024 et ont calculé le nombre de satellites de leur modèle qui auraient traversé le champ de vision du télescope lors de la prise de chaque image. Leurs résultats montrent que, avec 560 000 satellites, près de 40 % des images de Hubble auraient montré la traînée d'au moins un satellite ! 

De plus, Borlaff et ses collaborateurs montrent que, dans un avenir où tous les satellites de leur modèle seraient lancés, les images exemptes de contamination par les satellites seraient très rares pour SPHEREx, télescope infrarouge lancé en mars dernier et orbitant à environ 700 kilomètres d'altitude : plus de 96 % des images capturées par cet observatoire spatial présenteraient au moins une traînée. Les auteurs ont également étudié deux autres futurs télescopes spatiaux en orbite terrestre basse : Xuntian,  télescope chinois prévu en 2026 et ARRAKIHS, télescope européen prévu en 2030. Les résultats sont tout aussi effarants. Le nombre moyen attendu de traînées de satellites par exposition dans ce scénario est d'environ 2 pour Hubble, 6 pour SPHEREx, 70 pour ARRAKIHS et 90 pour Xuntian ! 


Pour quantifier les impacts scientifiques qui en résultent, il est également nécessaire de comprendre la luminosité de ces satellites. Modéliser cette luminosité est complexe, car les satellites contiennent de nombreux petits éléments brillants ; l’angle d’incidence du Soleil sur eux varie constamment ; et ils peuvent manœuvrer activement. Même si tous ces paramètres peuvent être modélisés avec précision, les entreprises satellitaires ne divulguent généralement pas leurs plans ni leurs états opérationnels.

Néanmoins, Borlaff et ses collègues font des hypothèses simplificatrices raisonnables et concluent que la luminosité de ces traînées serait plusieurs ordres de grandeur supérieure au minimum détectable. Outre la lumière solaire directe, les satellites peuvent être éclairés par la lumière réfléchie par la Terre et la Lune. Bien que leur luminosité soit environ quatre fois moindre lorsqu'ils sont éclairés par ces sources indirectes, la lumière qu'ils réfléchissent contribue néanmoins de manière non négligeable à la contamination des télescopes. Il est également important de noter que ces évaluations ne tiennent pas compte d'une catégorie de satellites en projet, conçus pour être hautement réfléchissants et fournir de la « lumière solaire à la demande », une pure catastrophe....

Les recommandations existantes pour faire face à cette menace des constellations de satellites préconisent des modifications des satellites pour les rendre plus sombres aux yeux des observateurs, le partage de positions et de trajectoires satellitaires précises, l’utilisation de modèles et d’expériences en laboratoire pour mieux comprendre la réflexion de la lumière par les satellites et le soutien à un réseau d’observateurs pour caractériser les interférences satellitaires.

Mais cela semble bien faible face à une mégaindustrie. Borlaff et ses collaborateurs proposent trois autres préconisations, qui concernent plus particulièrement les télescopes spatiaux : la prévention, l’évitement et la correction. La prévention est liée à l’altitude orbitale ; en effet, si les satellites des constellations orbitaient sous les télescopes spatiaux, le problème des traînées lumineuses serait en grande partie résolu. A noter que les orbites basses constituent également une stratégie d’atténuation relativement efficace pour les relevés optiques utilisant de grands miroirs collecteurs de lumière, comme l’observatoire Vera Rubin au Chili.

L'évitement et la correction des interférences sont essentiels pour les télescopes terrestres et spatiaux, ce qui nécessite une archive ouverte des orbites et trajectoires actuelles et historiques de tous les objets artificiels en orbite terrestre. Le Centre de l'Union astronomique internationale pour la protection du ciel sombre travaille actuellement à la mise en place d'un tel service grâce à l'outil de prédiction de la position des satellites SatChecker. SatChecker utilise actuellement un format de données qui permet de connaître les orbites des satellites avec une précision de 1 km. Mais pour les télescopes spatiaux, les orbites des satellites doivent être connues avec une précision de 3,5 centimètres, car les satellites à l'origine des traînées lumineuses passent beaucoup plus près des observatoires spatiaux que des observatoires terrestres.

Même si toutes ces stratégies d'atténuation étaient mises en œuvre, notre ciel serait fondamentalement transformé. Et ce, sans même parler de la pollution atmosphérique induite ( le dépôt de grandes quantités d'aluminium dans l'atmosphère terrestre pourrait créer un nouveau trou dans la couche d'ozone), et des impacts de débris orbitaux (les risques de collision augmentent exponentiellement avec la croissance du nombre d'objets en orbite). 

Nous assistons à l'aube d'une nouvelle ère d'exploitation industrielle massive de l'orbite terrestre basse  avec une augmentation prévue de 20 à 100 fois du nombre de satellites artificiels. Les résultats d'Alejandro Borlaff et ses collaborateurs démontrent que, contrairement à une idée répandue, les télescopes spatiaux ne sont pas à l'abri de la pollution lumineuse due aux satellites artificiels. Des dizaines voire des centaines de traînées de satellites apparaîtront sur les images astronomiques capturées par les télescopes spatiaux en LEO si les constellations de satellites annoncées deviennent opérationnelles.

La meilleure mitigation de cet avenir sombre (sic) pour l'astronomie reste l'arrêt immédiat de cette folle entreprise de mégaconstellations.


Source

Satellite megaconstellations will threaten space-based astronomy

Alejandro Borlaff et al.

Nature volume 648(3 december 2025)

https://doi.org/10.1038/s41586-025-09759-5


Illustrations

1. Images simulées des télescopes spatiaux Hubble, SPHEREx, ARRAKIHS et Xuntian (Borlaff  et al.)

2. Positions en altitude des télescopes spatiaux étudiés et des constellations de satellites prévues (Borlaff  et al.)

3. Nombre moyen de traînées de satellites par exposition en fonction de la population de satellites artificiels en orbite terrestre pour les quatre télescopes étudiés [échelles logarithmiques!] (Borlaff  et al.)

4. Alejandro Borlaff

30/11/25

Les galaxies Little Red Dots : des pépinières de trous noirs supermassifs


La découverte récente de toutes petites galaxies très rouge à faible rayon (appelées des Little Red Dots, LRD) a potentiellement révélé un nouveau type de population galactique dans l'Univers primordial, caractérisée par de petits rayons effectifs (100 à 200 parsecs seulement) mais de grandes masses stellaires (plusieurs dizaines de milliards de masses solaires). Leur source d'énergie demeure incertaine :  trous noirs supermassifs en accrétion ou une intense formation d'étoiles. Une équipe d'astrophysiciens à analysé les conséquences dynamiques de ces densités stellaires extrêmes et arrivent à la conclusion que les collisions d'étoiles doivent y être incontrôlées, menant à la naissance de trous noirs massifs en très peu de temps. L'étude est publiée dans The Astrophysical Journal

Les premières observations du télescope spatial James Webb ont révélé que le ciel infrarouge était recouvert de galaxies compactes et rouges : les LRD. Ces galaxies ont rapidement remis en question notre compréhension de l’Univers lointain.

Les LRD  sont nombreuses, avec des densités numériques à un redshift z  ∼ 5 (1,2 milliard d'années après le Big Bang) qui sont intermédiaires entre celles des noyaux galactiques actifs (AGN) et celles des galaxies standard. Leur distribution en décalage vers le rouge présente un pic autour de z ∼ 5, et elles sont largement observées entre z  ∼ 4 et z  ∼ 8, sur une période d'environ 1 milliard d'années d'histoire cosmique (entre 0,6 et 1,6 milliards d'années après le BB). Des études détectent actuellement des équivalents de LRD à des décalages vers le rouge plus faibles (c'est-à-dire z  < 4), bien qu'à une densité numérique significativement plus faible, qui diminue de façon exponentielle avec la diminution du décalage vers le rouge.

Les LRD sont très compactes, avec un rayon effectif moyen d'environ 150 pc, et généralement inférieur à 300 pc. Outre les propriétés observées des LRD, qui sont déjà assez particulières, leurs propriétés physiques déduites sont énigmatiques. Quelle est la source de leur lumière ? On ignore actuellement si les LRD sont principalement alimentées par un trou noir supermassif en accrétion, d’une masse typique de l’ordre de 10⁷ à 10⁸ M⊙ (R. Maiolino et al. 2024) , ou par la formation d’étoiles dans des galaxies déjà massives, dont la masse stellaire est de l’ordre de 10⁹ à 10¹¹ M⊙ (I. Labbé et al. 2023). Plusieurs études ont montré que leurs distritibution spectrale d'énergie peuvent être expliquées par diverses fractions d'AGN, qui est la fraction de lumière générée par le trou noir central à une longueur d'onde spécifique.

La plupart des LRD présentent de larges raies d'émission. Ce phénomène est généralement associé à la présence d'un trou noir supermassif central, qui accélère le gaz à des vitesses élevées. Ces signatures sont largement utilisées, aussi bien localement que dans l'Univers lointain, pour estimer la masse des trous noirs supermassifs. Cependant, plusieurs études ont également montré que cette même signature peut être produite par des galaxies extrêmement massives et compactes, dans lesquelles la forte densité stellaire du cœur engendre naturellement des dispersions de vitesse extrêmes (JFW Baggen et al. 2024 ; A. Loeb 2024 ).

Une complication supplémentaire découle de l'absence de détection de rayons X provenant des LRD, même dans les analyses d'empilement profond. Ceci est problématique pour l'hypothèse du trou noir, car la présence d'émissions de rayons X est généralement considérée comme une caractéristique de la présence d'un trou noir supermassif. Cependant, plusieurs modèles expliquent l'absence d'émissions de rayons X tout en préservant l'hypothèse du trou noir. Par exemple, R. Maiolino et al. (2025) suggèrent qu'une couche très épaisse de matériau absorbant, avec un facteur de couverture important, masquerait l'émission de rayons X. F. Pacucci et R. Narayan ( 2024 ) proposent qu'une accrétion légèrement super-Eddington sur un trou noir supermassif en rotation lente créerait un spectre d'émission si mou dans le domaine des rayons X qu'il serait pratiquement indétectable par les observatoires de rayons X actuels. 

L'interprétation fondée uniquement sur les étoiles est également remise en question. En particulier, la combinaison de deux facteurs soulève un problème majeur : (i) la nécessité de masses stellaires de l'ordre de 10⁹ à 10¹¹ M⊙ pour reproduire la lumière observée et (ii) leur compacité, avec des rayons effectifs de l'ordre de 80 à 300 pc. Les densités stellaires du cœur qui en résultent sont énormes, comme l'ont montré JFW Baggen et al. et CA Guia et al. en 2024. Plus précisément, cette dernière étude révèle que 35 % d'un échantillon de 475 LRD présentent des densités stellaires du cœur supérieures aux densités stellaires les plus élevées observées dans divers systèmes, atteignant des valeurs de l' ordre de 10⁹ M⊙ pc⁻³ ! (imaginez 1 milliard de soleils dans un cube de 3,2 années-lumière de côté...). Ces valeurs sont plus de 10 fois supérieures à la densité requise pour que des collisions stellaires incontrôlées se produisent.

Un processus d'emballement est un processus au cours duquel la croissance de l'étoile centrale se produit sur une échelle de temps plus courte que sa durée de vie. En supposant les propriétés environnementales estimées pour les LRD, les chercheurs ont calculé le temps de collision stellaire moyen, qui se trouve être inférieur à 1 million d'années, ce qui garantit que les conditions d'emballement sont réunies. Les collisions stellaires incontrôlées (à emballement) sont proposées depuis longtemps comme un mécanisme de formation des trous noirs supermassifs (RH Sanders 1970 ; MC Begelman & MJ Rees 1978 ; MJ Rees 1984 ; GD Quinlan & SL Shapiro 1990 ). Et les collisions stellaires dans les environnements denses autour des trous noirs supermassifs centraux, y compris celui de la Voie lactée, ont été largement étudiées et ont été proposées comme un mécanisme efficace pour la formation d'étoiles massives. 

A partir de ces constats et de ces questions ouvertes, Fabio Pacucci (Harvard Smithonian Center for Astrophysics) et ses collaborateurs ont examiné le phénomène en adoptant l'interprétation « étoiles seules », caractérisée par des densités stellaires extrêmes au cœur des galaxies LRD. Ils ont cherché à déterminer si le système stellaire résultant demeure stable ou bien si des collisions stellaires incontrôlées conduisent inévitablement à la formation d'un trou noir supermassif au cœur des LRD. 

Les astrophysiciens ont étudié les conséquences dynamiques de ces densités stellaires extrêmes à l'aide de trois approches complémentaires : une analyse de Fokker-Planck, un modèle analytique et une simulation directe à N corps. Pacucci et ses collaborateurs montrent que dans les LRD typiques (ρ ⋆  ∼ 10 000 à 100 000 M⊙ pc​​−3 ), le temps de friction dynamique pour les étoiles de 10 M⊙ dans les 0,1 pc centraux est très court (≲0,1 Mégannées), ce qui permet une ségrégation de masse rapide et la formation d'un noyau dense.

Et pour des  densités stellaires plus élevées (ρ ⋆  ∼ 10 millions M⊙ pc​​−3 ), ils trouvent que des collisions stellaires incontrôlables commencent à se produire en ∼0,5 mégannées, ce qui produit des étoiles très massives avec une masse finale comprise entre  9000 et 50 000 M⊙ en moins de 1 million d'années ! 

Ensuite, une fois que l'approvisionnement en étoiles supermassives est épuisé, ces étoiles supermassives se contractent sur une échelle de temps de Kelvin-Helmholtz (∼8000 ans) et s'effondrent gravitationnellement, produisant un trou noir massif avec une masse identique à celle de l'étoile. Ce processus conduit ainsi à la formation de graines de trous noirs supermassifs de masse de l'ordre de 10 000 M ⊙ jusqu'à un redshift z  ∼ 4 (1,6 milliards d'années post BB)..

Ces conclusions de Pacucci et al. reposent sur les densités stellaires déduites pour les LRD. Les estimations de masse stellaire sont sujettes à des incertitudes liées à la modélisation spectrale et à la contamination par les noyaux actifs de galaxies. Bien que certaines études suggèrent que les masses stellaires sont généralement robustes à moins de 0,3 dex près, des erreurs plus importantes ne peuvent être exclues selon les chercheurs. Si les masses stellaires réelles sont beaucoup plus faibles, les densités correspondantes, et la probabilité de collisions incontrôlées, seraient réduites.

Les auteurs rappellent cependant que les densités stellaires extrêmes peuvent également expliquer d’autres caractéristiques observées sur les LRD. Par exemple, A. Loeb et J.F.W. Baggen et al. (2024) ont proposé que les fortes dispersions de vitesse ( σ  ≳ 10³ km s⁻¹ ) induites par de tels systèmes compacts produiraient naturellement les raies larges observées dans de nombreuses LRD, sans faire intervenir l’activité d’un noyau galactique actif (AGN). Ces fortes dispersions de vitesse sont également confirmées par l'analyse de Paccuci et al. à des échelles spatiales de l’ordre de 100 pc. Dans cette perspective, les raies larges reflètent le potentiel gravitationnel du cœur stellaire dense.

De plus, la formation de trous noirs massifs d'environ 10⁴ M⊙ au centre des LRD pourrait également étayer les modèles selon lesquels la lumière observée est alimentée par des événements de rupture par effet de marée (TDE). J. Bellovary a proposé récemment que les LRD pourraient s'expliquer par des systèmes stellaires denses abritant un trou noir de masse intermédiaire, produisant des TDE récurrents lors de l'accrétion d'étoiles. En effet, l'effondrement de l'étoile supermassive centrale en un trou noir massif préserve la majeure partie de la distribution stellaire environnante, qui reste extrêmement dense : seule une petite fraction de la masse stellaire initiale est piégée dans le trou noir. Par conséquent, un important réservoir stellaire demeure disponible, entraînant des ruptures stellaires fréquentes et, de ce fait, une accrétion soutenue. Ce processus pourrait naturellement alimenter l'émission observée dans certaines LRD tout en contribuant à la croissance rapide du trou noir massif.

La voie de collision stellaire incontrôlée qui est explorée dans cette étude est distincte de l'hypothèse largement étudiée du trou noir à effondrement direct. Une graine de trou noir supermassif formée dans une LRD prototypique à z  ∼ 5 ne peut pas expliquer les quasars de masse supérieure à 10⁹ M⊙ qui ont été découverts à une époque plus précoce (à z ∼ 6–7) , et qui servent à contraindre les modèles de germination. Les LRD à z  ∼ 5 peuvent en revanche produire des germes massifs à des époques plus tardives, susceptibles d’ensemencer les trous noirs supermassifs de galaxies plus récentes.

Cependant, comme l'ont souligné F. Pacucci et A. Loeb en 2025 et comme l'ont illustré P. Rinaldi et al. cette année également, le faible nombre de détections de LRD à un redshift supérieur à 7 pourrait être  dû à un biais observationnel lié à leur faible luminosité de surface. En effet, AJ Taylor et al. ont très récemment détecté une LRD présentant de larges raies d'émission à z  ≈ 9,288 ! (530 millions d'années post BB). Si la population de LRD s'étend effectivement à des décalages vers le rouge plus élevés, alors elles constitueraient des candidates idéales pour amorcer la population de trous noirs supermassifs vus dans les quasars de masse ≳  10⁹ M⊙ à z  ∼ 6–7 (770 mégannées après BB).

Un avantage majeur des LRD par rapport au collapse direct pour la formation des graines de trous noirs supermassifs réside dans leur fréquence bien supérieure aux prédictions optimistes concernant la densité numérique des effondrements directs de nuages de gaz très massifs. Les densités numériques typiques des LRD sont de l'ordre de 10⁻⁴ à 10⁻⁵ cMpc⁻³, tandis que les modèles de formation par collapse direct produisent des graines de trou noir à des densités numériques de 10⁻⁶ à 10⁻⁸ cMpc⁻³. De fait, la formation de graines massives dans les LRD ne requiert pas de conditions particulières, telles qu'un gaz dépourvu de métaux ou un fort rayonnement de fond Lyman-Werner comme c'est le cas pour le collapse direct.

Pacucci et ses collaborateurs arrivent à la conclusion que, si les densités stellaires déduites dans les LRD sont confirmées, ces petits points rouges pourraient tout simplement représenter une pépinière répandue et très efficace pour les trous noirs supermassifs.

Source

Little Red Dots are Nurseries of Massive Black Holes

Fabio Pacucci, Lars Hernquist, and Michiko Fujii

The Astrophysical Journal, Volume 994, Number 1 (13 november 2025)

https://doi.org/10.3847/1538-4357/ae1619


Illustrations

1. Images de six LRD observées avec le télescope Webb [NASA/ESA/CSA/I. Labbe]

2. Fabio Pacucci