12/06/25

Le regroupement anormal des galaxies naines diffuses pointe vers la nature de la matière noire


Il est bien établi aujourd’hui que les galaxies les plus massives et les plus compactes ont tendance à se regrouper davantage spatialement que celles qui sont moins compactes. Ces résultats peuvent être compris en termes de formation des galaxies dans des halos de matière noire froide. Mais une équipe de chercheurs chinois vient de découvrir un comportement tout à fait inattendu et qui va dans le sens inverse concernant les galaxies naines. Moins les galaxies naines sont compactes, plus elles ont tendance à se regrouper ! Ils publient leur étude dans Nature.

Ziwen Zhang et ses collaborateurs ont mis en évidence un regroupement à grande échelle inattendu pour les galaxies naines isolées, diffuses et bleues, qui s’avère comparable à celui observé pour les groupes de galaxies massives, mais beaucoup plus fort que celui attendu en fonction de la masse de leur halo.

Leur analyse indique que le fort regroupement de ces galaxies diffuses pourrait être cohérent avec les simulations incluant la cosmologie standard ΛCDM mais seulement si plus de naines diffuses se seraient formées dans des halos de faible masse et d'âges plus élevés. Or, ce schéma n'est pas du tout reproduit par les modèles existants d'évolution des galaxies dans un cadre ΛCDM.

Les chercheurs chinois ont sélectionné leurs galaxies naines dans le catalogue de galaxies du Sloan Digital Sky Survey (SDSS) Data Release 7 (DR7). Ils n’ont pris en compte que les galaxies naines isolées, définies comme les centres des groupes de galaxies, afin d'éviter les complications liées aux galaxies satellites dans l'interprétation de leurs résultats. Ils ont également exclu les naines de couleur rouge et d'indice de Sérsic élevé, afin de pouvoir se concentrer sur les galaxies de « type tardif », dont on pensait jusqu'à présent qu'elles se formaient tardivement et qu'elles n'étaient que faiblement regroupées spatialement. Les naines ont été divisées en quatre échantillons en fonction de leur densité de masse surfacique (Σ*). Ils ont ensuite calculé les fonctions de corrélation croisée à deux points projetées (2PCCF), et en ont dérivé le biais relatif, qui est défini comme étant le rapport de la 2PCCF d'un échantillon avec celui des naines compactes (les galaxies naines qui ont les plus hautes valeurs de Σ*). Le biais relatif en fonction de Σ* montre clairement que le biais augmente avec la diminution de la densité de surface, contrairement à ce que l'on pense généralement. Pour les naines de plus faible Σ* (les naines diffuses), qu’on appelle aussi des galaxies ultradiffuses (UDG), le biais relatif est de 2.31, et indique une dépendance à Σ* à un niveau d'environ 7σ. Pour le deuxième échantillon avec Σ* le plus bas, le biais relatif est de 1.49, ce qui démontre que le déclin avec Σ* se voit sur toute la gamme de densité de surface couverte par l’échantillon. En d'autres termes : plus les galaxies ont une densité de surface Σ* faible, plus elles sont regroupées spatialement.

Zhang et ses collaborateurs rappellent que dans le paradigme actuel de la matière noire froide (CDM), plusieurs mécanismes ont été proposés pour la formation des naines diffuses. Les processus environnementaux tels que le chauffage par les marées, l'interaction entre galaxies et l'abaissement de la pression sont capables de rendre les galaxies naines plus diffuses. Mais ces mécanismes sont principalement efficaces dans les environnements de groupes et d'amas, bien que certaines simulations suggèrent que les environnements filamentaires pourraient également dépouiller les galaxies naines de leur gaz. Ces mécanismes devraient éliminer le gaz des galaxies naines et y étouffer la formation d'étoiles, produisant ainsi des naines rouges et pauvres en gaz observées dans les amas et les groupes de galaxies. Ils ne devraient pas être efficaces pour la formation des naines diffuses concernées ici, car ces naines résident dans des halos de faible masse, ont des couleurs bleues et possèdent des disques de gaz étendus.

Il a également été proposé que les naines diffuses soient produites dans des halos de spin élevé selon le modèle de formation des disques. Mais ce scénario ne peut pas expliquer le fort regroupement à grande échelle des naines diffuses. Alternativement, de multiples épisodes de rétroaction de supernovas peuvent déclencher des oscillations du potentiel gravitationnel, qui conduisent alors à l'expansion dans les parties internes des halos et à la formation de naines diffuses bleues. Un tel processus pourrait expliquer les résultats observés si son effet est plus fort dans les halos plus anciens. Mais, malheureusement, les simulations existantes suggèrent que l'effet est indépendant de l'âge et de la concentration des halos.

Zhang et ses collaborateurs n’en restent pas là. Ils montrent que ce phénomène de regroupement de galaxies naines diffuses pourrait être expliqué par l'hypothèse d'une matière noire qui peut interagir avec elle-même, ce qu’on appelle la matière noire de type SIDM (self interacting dark matter) : une matière noire qui n’interagit que très peu ou pas avec la matière baryonique ordinaire, mais qui pourrait interagir avec les autres particules de matière noire. Il faut se rappeler que modèle de la matière noire SIDM a également été proposé comme une solution prometteuse aux problèmes à petite échelle qui sont rencontrés par la matière noire de type CDM.

Les halos de SIDM devraient avoir la même histoire de formation et les mêmes regroupements à grande échelle que leurs homologues CDM, de sorte que le biais d'assemblage devrait également être le même, et avoir des densités centrales considérablement réduites en raison des collisions ultérieures des particules de matière noire. Comme la probabilité de collision entre les particules de matière noire augmente avec la densité et l'âge du halo, les halos plus anciens devraient posséder des noyaux plus grands et des densités centrales plus faibles. Ainsi, si les galaxies naines avec des Σ* plus faibles sont associées à des halos SIDM avec des noyaux plus grands (densités centrales plus faibles), une anticorrélation entre Σ* et le biais relatif est attendue. Ainsi, pour Zhang et al., le modèle SIDM combiné au biais d'assemblage fournit une explication plausible de la relation biais-Σ* qui est observée.

Si la matière noire auto-interagissante conduit à la formation de naines diffuses, l'auto-interaction doit être suffisamment forte pour produire des noyaux perceptibles, fournissant ainsi des prédictions testables. Zhang et ses collaborateurs ont utilisé un échantillon de halos et assigné à chacun des halos une galaxie avec son Σ*. Ils ont ensuite supposé une section efficace d'interaction, σm, et adopté le modèle isotherme de Jeans pour prédire le profil (rayon du noyau, rc, et densité centrale, ρ0 ) du halo SIDM. Le résultat met en évidence la similarité entre les noyaux des halos SIDM et les galaxies naines, en termes de distribution des tailles et du biais à grande échelle sur la taille, indiquant que les noyaux des halos SIDM sont des proxies viables des propriétés structurelles des galaxies naines. La relation prédite est presque une loi de puissance, on a Σ* ∝ 1/ rc2 pour une masse de halo donnée, ce qui implique que,  si la masse stellaire M* dans un halo ne dépend que de la masse totale du halo, on aurait R50 ∝ rc , où R50 est le rayon englobant 50% de la lumière de la galaxie, ce qu’on peut appeler la « taille » de la galaxie. En paramétrant la relation et en itérant le modèle de Jeans jusqu'à convergence et en ajustant le facteur de normalisation, les chercheurs chinois ont trouvé que la Σ* prédite peut effectivement  reproduire la relation biais relatif-Σ* qui est observée.

Les résultats de Zhang et al. sont clairement en défaveur d'une grande section efficace d'interaction pour la matière noire SIDM, puisque sinon cela conduirait à l'effondrement du noyau du halo et inverserait la tendance du biais avec Σ*. Les relations d'échelle prédites, Σ* ∝ 1/ rc2 et R50 ∝ rc, indiquent que les composantes stellaires des naines diffuses devraient suivre de près la dynamique induite par la matière noire. Une telle condition peut être créée par un processus qui peut mélanger les étoiles et le gaz de formation d'étoiles avec la matière noire.

Il est clair que maintenant ces hypothèses doivent être testées par exemple à l'aide de simulations hydrodynamiques qui peuvent modéliser correctement non seulement la dynamique de la composante SIDM mais aussi les processus de formation des galaxies.

A défaut de savoir exactement ce qu'est la matière noire, il se pourrait bien que l'on commence à la cerner un peu mieux... 

 

Source

Unexpected clustering pattern in dwarf galaxies challenges formation models

Ziwen Zhang et al.

Nature volume 642, pages47–52 (5 June 2025)

https://doi.org/10.1038/s41586-025-08965-5


Illustration

Le biais relatif observé des galaxies naines (à gauche) ; et le biais relatif prédit par la simulation sous l'hypothèse du modèle de matière noire auto-interagissant (SIDM) (la courbe noire) comparé aux résultats d'observation (la courbe orange) (à droite). (Zhang et al.)

 

03/06/25

Impact sur les observatoires de la lumière diffuse des débris spatiaux


Des astronomes slovaques viennent de calculer l’impact sur les observatoires astronomiques de la lumière diffusée par les minuscules débris spatiaux en orbite basse dont la quantité est en croissance exponentielle du fait du déploiement des mégaconstellations de satellites. L’étude est publiée dans Monthly Notices of the Royal Astronomical Society Letters.

On le sait, la population croissante de satellites artificiels et de débris spatiaux posent des problèmes à la fois pour les opérations spatiales proprement dites et pour l'astronomie au sol. Alors que la plupart des études précédentes se sont principalement concentrées sur les traînées discrètes de satellites interférant avec l'imagerie astronomique, Miroslav Kocifaj et ses collaborateurs avaient identifié en 2021 un nouvel effet de ciel lumineux, qui est causé non par le reflet des satellites en activité ou hors service, mais par la lumière solaire réfléchie et diffusée par la multitude d'objets spatiaux de très petite taille, voire microscopiques en orbite autour de la Terre. On parle ici d'écailles de peinture, de boulons perdus, de goutelettes, de fragments de lanceurs et autres débris. Cette composante diffuse tend à augmenter la luminosité de fond du ciel nocturne, ce qui peut avoir un impact négatif sur l'observation d'objets astrophysiques peu lumineux. Des estimations préliminaires suggèrent que cet effet contribue déjà à une augmentation de 10% de la luminosité du ciel nocturne au zénith par rapport à la limite établie par l'Union astronomique internationale (UAI) pour la pollution lumineuse sur les sites d'observation. Cela correspond à une augmentation de la luminosité de fond du ciel nocturne d'environ 20 µcd m-2.

Contrairement à la lumière artificielle provenant de sources terrestres, qui peut être atténuée par des mesures de contrôle directes telles que le blindage ou la réduction de l'intensité lumineuse, la lumière du ciel induite par les objets spatiaux provient d'au-delà de l'atmosphère terrestre, ce qui rend sa réduction plus difficile. Bien que cet effet ne soit pas permanent et qu'il pourrait diminuer avec le temps si les lancements et les opérations de satellites étaient considérablement réduits, il est actuellement difficile, voire impossible, d'appliquer des stratégies d'atténuation immédiates comparables à celles utilisées pour la pollution lumineuse terrestre.

Et le problème devrait s'aggraver avec le déploiement rapide de mégaconstellations de satellites, qui augmente non seulement le nombre de corps réfléchissants en orbite, mais aussi la quantité de débris spatiaux de petite taille, de grains et d'autres microparticules. L'étude de Kocifaj et al. de 2021 avait marqué un changement de paradigme dans notre compréhension de la pollution lumineuse artificielle, parce qu’elle a révélé une contribution précédemment non reconnue des débris orbitaux, à côté des sources existantes de luminosité diffuse du ciel nocturne.

Kocifaj et al. avaient identifié un impact négatif possible des objets spatiaux sur l'astronomie au sol et avaient prédit une aggravation rapide de la tendance à l'avenir, notamment en raison du déploiement prévu d'énormes mégaconstellations. A partir de cette première étude, M. Kocifag (université de Bratislava) et ses collaborateurs ont repris leur clavier et leurs souris pour mener une analyse plus approfondie et plus détaillée, en utilisant les modèles disponibles de la population d'objets orbitaux.

Au lieu de s'appuyer sur plusieurs approximations utilisées dans leur étude précédente - comme par exemple l'hypothèse d'un albédo uniforme pour tous les objets spatiaux - cette nouvelle étude, financée par l’ESA adopte une approche plus précise. Elle tient maintenant compte de la distribution de l'altitude et de l'angle d'élévation des objets spatiaux à un moment et à un endroit donnés. Cela permet une représentation plus précise de leur impact sur les conditions d'observation. L’approche des chercheurs intègre également la variabilité de la composition et de la distribution des tailles des objets le long de la ligne de visée.

En 2021,Kocifaj et al. prenaient en compte tous les objets, de l'orbite basse (LEO) à l'orbite géostationnaire (GEO), couvrant des altitudes de 186 à 36 786 km. Aujourd’hui, ils se concentrent exclusivement sur les objets en LEO, puisque ce sont ceux-ci qui contribuent majoritairement à la luminosité du ciel nocturne.

Les orbites LEO, sont situées entre 200 et 2000 km au-dessus de la surface de la Terre, elles accueillent actuellement la plus forte concentration d'objets artificiels. La fragmentation et la croissance continues des objets lancés augmentent continuellement le risque de collisions, contribuant potentiellement à l'accumulation de débris spatiaux sur ces orbites, ainsi qu’à une évolution irréversible de type syndrome de Kessler.

Les calculs précédents de Kocifaj et al. étaient initialement basés sur le modèle MASTER (Meteoroid and Space Debris Terrestrial Environment Reference) de l'ESA, qui génère une population synthétique de débris spatiaux. Ce modèle s'appuie sur des simulations et des calculs théoriques plutôt que sur des observations directes. En revanche, la NASA, elle, incorpore des observations radar et optiques pour affiner ses résultats et les intègre dans le modèle ORDEM (Orbital Debris Engineering Model).

Bien que les deux modèles partagent un certain nombre de similitudes pour les objets de taille supérieure à quelques millimètres, le modèle ORDEM de la NASA estime que la population d'objets de taille inférieure à 1 mm est de l'ordre de 10 à 100 fois plus élevée que ce que prévoit le modèle MASTER de l'ESA. Cette divergence a des conséquences importantes pour les prévisions de la luminosité du ciel nocturne, car elle suggère que les contributions des plus petits objets dominent de manière écrasante celles des débris plus gros. Dans le modèle de la NASA, la contribution cumulée des objets plus grands représente moins de quelques pour cent de l'impact total sur la luminosité.

Si on considère un grand corps d'une taille caractéristique G qui se fragmente en plusieurs objets plus petits, chacun d'une taille moyenne p. Comme la quantité de lumière réfléchie ou diffusée est déterminée par la section efficace de l’objet, l'augmentation de l'intensité lumineuse due à la fragmentation est proportionnelle au rapport G/p. Par exemple, si un objet de 10 cm se fragmente en fragments submillimétriques, le nombre de photons diffusés atteignant finalement un observateur peut augmenter d'un facteur 100. Par conséquent, les données sur les objets les plus petits sont essentielles pour les prédictions de la luminosité.

Kocifaj et al. effectuent la première quantification de la contribution réelle des objets LEO à la luminosité du ciel nocturne, basée sur la distribution angulaire sur leurs orbites des objets spatiaux (en particulier des débris). Ils ont effectué leurs calculs d’impact pour trois observatoires différents : le Vera Rubin Observatory (dans les Andes chiliennes), le Zwicky Transient Facility (aux Etats-unis) et l’observatoire de Quito (Equateur). Ils ont calculé cet impact pour les années 2024, 2030 et 2035, au rythme connu des déploiements de satellites présents et futurs.

Dans les scénarios 2024, la luminosité diffuse des débris de petite taille (<3 mm) que trouvent les chercheurs se situe généralement entre 3 et 8 µcd m-2 selon les cas. L'Union astronomique internationale (UAI) a fixé un seuil critique de 20 µcd m-2 pour les sites d'observation, et les estimations effectuées avec le modèle ORDEM sont déjà proches de cette limite, précisent les auteurs.

En 2035, les résultats montrent que par rapport à 2024, les niveaux de luminosité du ciel causés par les débris spatiaux devraient augmenter de manière significative, atteignant 5 à 19 µcd m-2.

Il faut noter que les valeurs de luminosité ont été calculées pour un ensemble limité de scénarios caractéristiques et à une date et une heure fixes. Les valeurs varient en fonction des mois et des heures. Vers minuit par exemple, une grande partie du ciel se trouve dans l'ombre de la Terre, ce qui minimise l'impact des débris spatiaux. Et dans des conditions d'observation spécifiques, les niveaux de luminosité peuvent dépasser largement les valeurs présentées ici.

Les chercheurs observent un élément intéressant : les niveaux de luminosité prévus pour 2035 sont généralement inférieurs à ceux de 2030. Cette variation est attribuée à l'activité solaire, qui influence fortement le volume de la haute atmosphère et donc la durée de vie des objets en orbite basse. Lors des pics du cycle solaire de 11 ans (vers 2025 et 2035), la haute atmosphère devient plus dense, ce qui permet d'éliminer plus efficacement les débris spatiaux de l'orbite basse. À l'inverse, lors des minima solaires (vers 2030 et 2041), la densité atmosphérique diminue, entraînant une augmentation des concentrations de petites particules dans l'orbite basse. Cela indique que les estimations pour 2024 et 2035 représentent des limites inférieures, alors que les niveaux de luminosité devraient être plus élevés pendant les minima solaires. En outre, pendant le minimum solaire, la luminosité naturelle du ciel est plus faible. Le rapport entre la luminosité artificielle du ciel due aux débris de l'orbite terrestre basse et la luminosité naturelle serait donc encore plus important.

Kocifaj  et al. concluent que l'ajout du à cette multitude de microdébris équivaut à une augmentation de la luminosité de fond du ciel nocturne de 5 à 11 % au-dessus des niveaux naturels. Par conséquent, le seuil fixé par l'UAI pour les sites d'observation pourrait potentiellement être atteint ou dépassé. L'augmentation rapide du nombre d'objets en orbite terrestre basse, notamment en raison de l'expansion des mégaconstellations de satellites, laisse penser que ce problème entravera de plus en plus l'observation d'objets astronomiques de faible luminosité, selon les chercheurs. Ces résultats soulignent le besoin urgent de donner la priorité à la recherche théorique et expérimentale sur les petits objets artificiels dans les études sur les débris spatiaux. Les données indiquent clairement que la compréhension du comportement et de la prolifération de ces objets est cruciale pour atteindre une durabilité de l'espace, et de la recherche en astrophysique.


Source

Low Earth Orbit satellite fragmentation rates are critically disrupting the natural night sky background

M Kocifaj et al.

Monthly Notices of the Royal Astronomical Society: Letters, Volume 541, (22 may 2025)

https://doi.org/10.1093/mnrasl/slaf052


Illustration


Carte en coordonnées polaires de la luminosité diffuse en 2035 pour les observatoires Vera Rubin (haut) et ZTF (bas). Les valeurs sont données pour le haut de l'atmosphère (gauche) et au sol (droite).

24/05/25

Jupiter 2 fois plus grande qu'aujourd'hui lors de sa naissance


Dans une nouvelle étude publiée dans Nature Astronomy , Konstantin Batygin (Caltech) et Fred Adams (Université du Michigan), fournissent un aperçu détaillé de l'état primordial de Jupiter. Leurs calculs révèlent qu'environ 3,8 millions d'années après la formation des premiers corps du système solaire, moment clé où le disque protoplanétaire se dissipait, Jupiter était deux fois plus grande qu'aujourd'hui...

Comprendre l'évolution primitive de Jupiter permet de mieux comprendre comment notre système solaire a développé sa structure particulière. La gravité de Jupiter a joué un rôle crucial dans la formation des trajectoires orbitales des autres planètes et dans la formation du disque de gaz et de poussière à partir duquel elles se sont formées. Il est donc essentiel de cerner les premières phases de la formation des planètes pour résoudre cette question. Batygin et Adams ont abordé le problème en étudiant deux minuscules lunes de Jupiter, Amalthée et Thébé, qui orbitent encore plus près de Jupiter que Io, la plus petite et la plus proche des quatre lunes galiléennes de la planète géante.

Comme Amalthée et Thébé ont des orbites légèrement inclinées, Batygin et Adams ont analysé ces faibles écarts orbitaux pour calculer la taille originelle de Jupiter. En analysant la dynamique des satellites de Jupiter simultanément avec son bilan de moment angulaire, ils parviennent à déduire le rayon et l'état intérieur de Jupiter au moment de la dissipation de la nébuleuse protosolaire.

Bien que des incertitudes considérables concernant l'intérieur de Jupiter persistent (en partie en raison de l'incapacité des données de gravité à informer pleinement sur la nature du noyau compact ainsi que des incertitudes dans l'équation d'état de l'hydrogène lui-même), au cours des trois dernières décennies, les observations des missions Galileo et Juno ont permis de mieux cerner l'intérieur complexe et multicouche de Jupiter. En particulier, de récents travaux de modélisation ont révélé une région imprégnée de pluie d'hélium, un noyau dilué à haute métallicité pouvant atteindre 25 masses terrestres, ainsi qu'un noyau compact, beaucoup moins massif et plus profond. 

D'une manière générale, les caractéristiques physiques de Jupiter correspondent aux prédictions du modèle d'accrétion du noyau de la formation des planètes géantes. Dans ce cadre, la formation des planètes géantes suit une série distincte d'étapes. Initialement, un noyau à haute métallicité se forme rapidement, laissant place à une période de croissance hydrostatique caractérisée par une lente agglomération d'une atmosphère H/He. Ce processus se poursuit jusqu'à ce que la masse de l'enveloppe gazeuse atteigne celle du noyau. Une fois ce seuil franchi, une période transitoire d'accrétion rapide de gaz s'ensuit, facilitant l'accumulation de la majeure partie de la masse de la planète. Finalement, la planète se sépare de la nébuleuse environnante, s'engageant dans une évolution thermique à long terme qui aboutit à la Jupiter que nous observons aujourd'hui, environ 4,5 milliards d'années plus tard.

Bien que les grandes lignes de ce tableau soient établies depuis des décennies, les subtilités de la séquence évolutive initiale de Jupiter restent imparfaitement comprises. En particulier, l'entropie primordiale de Jupiter qu'on présente souvent comme le problème du démarrage "à chaud" ou "à froid", ainsi que le calendrier exact de ces phases de formation restent incertains. Par exemple, dans le modèle souvent cité de Pollack et al., la transition vers l'accrétion incontrôlable se produit environ 7 millions d'années après la formation du noyau. Mais des calculs ultérieurs ont cependant proposé des chronologies alternatives, avec le modèle récent de Stevenson et al., qui suggère que la croissance incontrôlable se termine après 3 mégannées.

L'approche de Batygin et Adams qui consiste à exploiter la dynamique précoce des satellites de Jupiter, ainsi que la régulation magnétique de son budget de moment angulaire pour en déduire son rayon, contourne largement les limites des modèles existants. Cette approche offre une précision sans précédent aux propriétés du système jovien à son stade de formation.

Leurs calculs et leurs analyses mènent à la plage suivante pour le rayon primordial de Jupiter :
entre 2,02 et 2,59 fois son rayon actuel. Dans la fourchette couverte par cette estimation du rayon, les chercheurs montrent que toute valeur supérieure au rayon orbital d'Amalthée est peu susceptible d'être physiquement significative. Et comme l'inclinaison de Thébé résulte probablement de multiples passages de résonance, c'est la limite inférieure de la plage de rayons qui est privilégiée par les auteurs. Ils évaluent également le taux d'accrétion de masse de la protoJupiter, ce qui donne entre 1,2 et 2,4 masses joviennes par million d'années, ce qui est très intense.  

Avec le rayon planétaire et le taux d'accrétion contraints, les deux chercheurs déduisent ensuite la structure intérieure de Jupiter en utilisant des modèles hydrostatiques. Les profils de température, de densité et de pression correspondants sont déterminés. Ces modèles impliquent qu'au moment de la dissipation de la nébuleuse proto-solaire, l'entropie caractéristique de l'enveloppe convective de Jupiter correspond à une condition initiale de « démarrage à chaud » .

Une dernière pièce du puzzle a consisté pour Batygin et Adams à ancrer leurs calculs à une époque précise, par rapport à un marqueur bien défini de l'évolution du système solaire. Dans cette optique, en 2017, Wang et al. avaient utilisé les données de magnétisation de météorites très anciennnes pour démontrer que la nébuleuse solaire s'est dissipée environ 3,8 millions d'années après la formation d'inclusions de calcium et d'aluminium. Selon les chercheurs, comme l'énergie nécessaire pour transporter une molécule d'hydrogène de quelques rayons joviens au rayon de Hill est approximativement égale à celle nécessaire pour l'extraire du puits de potentiel gravitationnel du Soleil à 5 ​​UA, le front photo-évaporatif responsable de l'élimination de la nébuleuse dans le voisinage orbital jovien a dû simultanément éliminer le disque circumplanétaire de Jupiter. Ils peuvent ainsi  conclure que Jupiter était approximativement 2 à 2,5 fois plus grande qu'aujourd'hui, 3,8 millions d'années après la formation des premiers corps solides du système solaire. Cela correspond à un volume équivalent à plus de 2 000 Terres. 

Ces résultats apportent des précisions cruciales aux théories existantes sur la formation des planètes, qui suggèrent que Jupiter et d'autres planètes géantes autour d'autres étoiles se sont formées par accrétion de noyau, un processus par lequel un noyau rocheux et glacé accumule rapidement du gaz.  Même si les premiers instants de Jupiter restent obscurcis par l'incertitude, cette étude clarifie considérablement notre vision des étapes critiques du développement de la planète géante. Ce nouveau point de repère permettra de reconstituer avec plus de certitude l'évolution de notre système solaire.

Source

Determination of Jupiter’s primordial physical state
Konstantin Batygin & Fred C. Adams 
Nature Astronomy (20 mai 2025)

Illustration

Jupiter imagée avec le télescope Webb (NASA)

17/05/25

PDS 456 : le trou noir supermassif qui produit un vent par paquets


Au cours des 25 dernières années, les astrophysiciens ont identifié des corrélations entre les propriétés des trous noirs supermassifs et celles de leurs galaxies hôtes, indiquant que leur évolution est étroitement liée.  Dans un article paru dans Nature cette semaine, la collaboration XRISM (X-Ray Imaging and Spectroscopy Mission) rapporte des observations de PDS 456 et montrent que lorsque le trou noir supermassif au centre de la galaxie accrète de la matière, il propulse également des amas de gaz par paquets vers l'extérieur à une vitesse pouvant atteindre 30 % de la vitesse de la lumière, et non de manière uniforme comme on le pensait jusque là... 

Le gaz propulsé par l'activité du trou noir avait été identifié par de précédentes mesures de spectroscopie X du télescope à rayons X  XRISM, lancé en septembre 2023 par la NASA et la JAXA (et qui est d'ailleurs un élément clé de mon roman Impact que j'ai publié l'année dernière). Aujourd'hui, la résolution sans précédent qui est offerte par le télescope japonais (encore intact) a permis à la collaboration de détecter la structure et la dynamique du gaz avec plus de détails que jamais auparavant. Il s'agit d'une avancée majeure dans la compréhension de la façon dont les trous noirs façonnent l'évolution galactique.

La poussière et le gaz attirés vers l'horizon des événements du trou noir peuvent s'échauffer et émettre un rayonnement électromagnétique. Lorsque ce rayonnement interagit avec la matière, il peut générer de puissants vents de gaz ionisé. Ces vents entrent en collision avec du gaz plus loin dans la galaxie, et les chocs qui en résultent peuvent redistribuer la matière et l'énergie à grande échelle.

Les centres galactiques qui accrètent rapidement de la matière sont appelés des noyaux galactiques actifs (AGN). Les chercheurs de la collaboration XRISM se sont intéressés plus particulièrement à un AGN nommé PDS 456 qui est un quasar brillant. Il est environ 1014 fois plus lumineux que le Soleil, ce qui en fait l'une des sources astronomiques les plus brillantes connues de l'Univers. Ce quasar est alimenté par un trou noir supermassif dont la masse est estimée à 500 millions de masses solaires .

PDS 456 se trouve à moins de trois milliards d'années-lumière de nous, ce qui en fait un voisin relativement proche. Il est étudié comme un analogue de la population lointaine de trous noirs qui peuplaient l'Univers primordial.

De précédentes observations par spectroscopie X ont montré que le vent de PDS 456 se déplace à environ un tiers de la vitesse de la lumière et transporte une quantité d'énergie extrêmement importante, mais la résolution spectrale limitée empêchait les chercheurs de mesurer avec précision sa structure de densité et son étendue spatiale. Chose étrange, malgré l'énergie et la vitesse extrêmes du vent, les observations suggéraient qu'il avait peu d'effet sur le gaz plus loin dans la galaxie, ce qui est en contradiction avec le comportement attendu.

C'est pour creuser cette bizarrerie que les astrophysiciens ont choisi d'exploiter le spectromètre à haute résolution de XRISM qui est appelé Resolve. Cet instrument est capable de distinguer les rayons X dont les longueurs d'onde diffèrent très légèrement, ce qui permet d'explorer la structure et la dynamique des vents générés par les trous noirs avec une précision sans précédent, le mouvement décalant les raies d'émission et d'absorption dans le spectre. Ils ont donc pointé XRISM vers PDS 456 durant 6 jours, du 11 au 17 mars 2024 pour une exposition totale de 250 ks.

Les résultats montrent que le vent émanant de PDS 456 n'est pas du tout uniforme, mais comprend jusqu'à un million de paquets ​​de gaz distincts. Ces paquets sont propulsés vers l'extérieur à une vitesse pouvant atteindre 30 % de celle de la lumière, et la matière est expulsée du disque d'accrétion du trou noir à un rythme compris entre 60 et 300 masses solaires par an.

A partir des caractéristiques observées dans les spectres X, les chercheurs évaluent la taille des paquets de gaz et leur distance du disque d'accrétion du trou noir. Ils ont une taille comprise entre 2 et 16 rayons gravitationnels, ce qui fait entre 10 et 80 unités astronomiques ici, et sont situés à une distance du trou noir entre 200 et 600 fois le rayon du trou noir. 

La découverte de cette structure de vents en paquets remet en question les théories dominantes de l'évolution galactique. En effet, les modèles conventionnels considéraient ces vents comme ayant une densité uniforme. Dans ce scénario, le vent entre en collision avec le gaz et la poussière de la galaxie, expulsant et chauffant la matière et réduisant potentiellement le carburant disponible pour la formation d'étoiles. En revanche, des paquets de gaz individuels seraient capables d'éviter les zones denses de gaz dans la galaxie, s'échappant directement dans l'espace intergalactique sans transférer beaucoup d'énergie ou de quantité de mouvement au gaz du milieu galactique. Cela pourrait donc expliquer pourquoi certaines galaxies dotées de trous noirs actifs et de vents puissants ont quand même un taux élevé de formation d'étoiles, comme c'est le cas pour PDS 456. Cela pourrait également indiquer que les vents des trous noirs ne sont pas générés en continu, mais par des événements discrets et aléatoires qui ne se produisent que pendant une petite fraction du temps où le trou noir accrète de la matière.

Des travaux supplémentaires seront nécessaires pour déterminer si les vents observés dans PDS 456 sont communs à d'autres trous noirs. Sachant que des vents extrêmement puissants comme ceux de PDS 456 sont plus fréquents dans la population de trous noirs la plus éloignée, qui s'est formée au cours du premier milliard d'années après le Big Bang. La spectroscopie X à haute résolution de ces vents de trous noirs lointains n'est pas encore possible, mais des observatoires actuels et futurs, tels que le télescope spatial Webb, ALMA et l'Extremely Large Telescope pourraient être en mesure de détecter l'effet ou le non effet des vents des trous noirs sur la matière plus éloignée dans la galaxie hôte.

Grâce à ces efforts combinés, on approfondira nos connaissances sur la manière dont les trous noirs ont façonné l'évolution des galaxies tout au long de l'histoire cosmique.


Source

Structured ionized winds shooting out from a quasar at relativistic speeds

Collaboration XRISM

Nature (14 mai 2025)

https://doi.org/10.1038/s41586-025-08968-2


Illustration

Vue d'artiste du vent de trou noir par paquets (Nature) 

11/05/25

Des étoiles supermassives à l'origine des trous noirs supermassifs


Dans un article qui vient d'être publié dans les Monthly Notices of the Royal Astronomical Society, deux astrophysiciens japonais montrent, grâce à des simulations, que des étoiles supermassives de plus de 10 000 masses solaires peuvent se former dans des nuages de gaz déjà enrichis en métaux. Ces étoiles supermassives deviennent ensuite autant de graines de trous noirs supermassifs au bout d'un million d'année. Si trop de métaux sont présents, une fragmentation du gaz apparaît et donne lieu à la naissance d'amas globulaires... 

Malgré des décennies d'études approfondies, l'origine des trous noirs supermassifs demeure l'un des problèmes non résolus les plus importants de l'astrophysique. Les observations récentes révèlent que des trous noirs supermassifs existent déjà à des décalages vers le rouge atteignant 10, correspondant à 600 millions d'années après le Big Bang. Ces résultats suggèrent que les trous noirs initiaux étaient déjà relativement massifs ou que leur croissance s'est produite extrêmement rapidement – ​​ou peut-être les deux. 

Un scénario courant propose que des trous noirs "graines", plus petits, soient d'abord produits par certains processus, suivis d'une croissance par accrétion de gaz ou par fusion avec d'autres trous noirs. L'accrétion super-Eddington a été explorée comme un mécanisme potentiel de croissance rapide dans l'univers primitif, mais un fort rayonnement et des écoulements provenant des disques d'accrétion présentent des défis pour maintenir un tel régime sur des périodes prolongées. Alternativement, des scénarios impliquant des graines de trous noirs massives ont donc été proposées. Une voie prometteuse pour la formation de telles graines massives est le scénario dit de l'"effondrement direct". Dans ce modèle, des étoiles supermassives (SMS) avec des masses dépassant 100 000 masses solaires seraient produites pour s'effondrer rapidement en trous noirs. 

On estime que ces étoiles supermassives se forment dans des nuages ​​chimiquement purs exposés à un rayonnement ultraviolet intense. Le rayonnement UV dissocie la molécule H2 qui est le principal agent de refroidissement dans le gaz sans métal, supprimant ainsi le refroidissement et maintenant la température du gaz à 10 000 K. Ces températures élevées empêchent alors la fragmentation et permettent au nuage de s'effondrer de manière monolithique. Ces températures élevées entraînent également des taux d'accrétion élevés, de 0,1 à 1 masse solaire par an sur la protoétoile en formation. L'accrétion rapide supprime la rétroaction radiative stellaire en augmentant le rayon stellaire et en abaissant la température effective à environ 5000 K, permettant une accrétion continue. Par ce processus, les étoiles supermassives peuvent atteindre  100000 à 1 million de masses solaires au cours de leur courte vie de 1 Mégannée environ. Car elles s'effondrent ensuite en trous noirs de masse comparable pendant ou après leurs phases de combustion nucléaire.

La formation de SMS a notamment été soutenue par des simulations hydrodynamiques multidimensionnelles, même en tenant compte de la fragmentation et du retour radiatif protostellaire. Bien que les disques circumstellaires se forment en raison du moment cinétique de la matière en accrétion et puissent se fragmenter, cette fragmentation se produit rarement et ne réduit que modérément la masse stellaire centrale, laissant intact le scénario global de formation des SMS.

A partir de ce scénario d'effondrement direct de nuages massifs d'hydrogène pur, on peut calculer la densité numérique des trous noirs supermassifs résultants au final : elle vaut entre 10-9 et 10-3 par Mpc3. Cette densité numérique colle bien avec les observations de l'Univers jeune (un redshift supérieur à 7, de l'ordre de 10-9  par Mpc3 mais, ça ne colle plus du tout avec la densité numérique des trous noirs supermassifs dans l'univers actuel, qui est d'environ 0,1 par Mpc3. Pourtant, leurs propriétés et leur distribution de décalage vers le rouge ne montrent aucune discontinuité significative par rapport aux trous noirs supermassifs à décalage vers le rouge supérieur. Cette bizarrerie suggère la nécessité de trouver un scénario vraiment universel pour expliquer les origines des trous noirs supermassifs à toutes les époques plutôt que de s'appuyer uniquement sur le scénario d'effondrement direct de nuages d'hydrogène pur.

Ce scénario d'effondrement direct est certes séduisant mais il impose des conditions rigoureuses pour la formation des trous noirs supermassifs, ce qui rend leur production assez faible : les nuages ​​doivent rester chimiquement purs, être situés à proximité de galaxies émettant des rayons UV intenses et posséder une masse suffisante pour subir un effondrement gravitationnel. Ces conditions sont souvent incompatibles. Les nuages ​​massifs sont généralement plus ou moins enrichis en métaux, ayant déjà connu des épisodes de formation d'étoiles. Lorsqu'une galaxie proche constitue une source UV importante, ça signifie que des éléments lourds provenant d'explosions de supernovas au sein de la galaxie peuvent avoir été injectés dans les nuages ​​du halo environnant, les contaminant.

Si l'exigence d'un gaz chimiquement pur était assouplie, permettant la présence de faibles quantités de métaux, la densité numérique des trous noirs issus d'effondrement direct pourrait augmenter significativement. Mais la présence d'éléments lourds pose un défi car même une petite quantité de métaux ou de grains de poussière, à des niveaux aussi bas qu'une métallicité de 10-5 métallicité solaire peut induire un refroidissement rapide du nuage en cours d'effondrement. Et ce refroidissement accru déclenche une fragmentation vigoureuse du nuage de gaz, ce qui empêche la formation de SMS et conduit à la formation d'amas d'étoiles denses.

En 2020, Sunmyon Chon et Kazuyuki Omukai avaient démontré de manière inattendue que les SMS avec des masses dépassant 10 000 masses solaires pouvaient  se former même dans les nuages ​​​​enrichis en métaux, à condition que la métallicité reste inférieure à 10-4 métallicité solaire. Pour arriver à ce résultat, les chercheurs avaient réalisé des simulations hydrodynamiques tridimensionnelles de la formation d'étoiles dans des nuages ​​fortement irradiés par UV et légèrement enrichis en métaux. On observait que malgré une fragmentation vigoureuse déclenchée par le refroidissement de la poussière, la majeure partie du gaz s'accréte sur la ou les étoiles massives centrales par afflux direct ou par fusions stellaires, permettant leur croissance jusqu'au régime SMS. Alors que de nombreuses protoétoiles se disputent le réservoir de gaz, la ou les étoiles massives centrales sont alimentées préférentiellement, un processus qui est appelé l'« accrétion supercompétitive », et qui est analogue à l'accrétion compétitive dans les amas d'étoiles actuels, mais à une échelle beaucoup plus grande. En revanche, à des métallicités plus élevées que 10-3 métallicité solaire , les étoiles les plus massives restaient en dessous de 1000 masses solaires dans le premier 10 000 ans en raison d'une diminution d'un ordre de grandeur du taux d'accrétion causée par des températures plus basses résultant du refroidissement par les métaux.

Dans leur nouvel article, Chon et Omukai, ont beaucoup raffiné leurs premières simulations car, il y a 5 ans, ils avaient approximé les processus thermiques à l'aide d'équations d'état précalculées. De plus, la rétroaction radiative stellaire, qui peut influencer significativement la masse finale des étoiles en formation, n'avait pas été prise en compte. Par exemple, le rayonnement ionisant limite la masse maximale des étoiles de Pop III en étouffant l'accrétion par photoévaporation des disques circumstellaires, tandis que dans l'autre sens, le chauffage radiatif des grains de poussière supprime la fragmentation qui est induite par le refroidissement de la poussière en élevant les températures de la poussière et du gaz. Et puis, les astrophysiciens japonais se limitaient à des simulations couvrant seulement 10 000 ans, ce qui empêchait de voir si les étoiles massives pouvaient effectivement croître jusqu'à plus de 100 000 masses solaires.

Dans leur article de 2020, Chon et Omukai avaient aussi constaté que lorsque le refroidissement déclenche une fragmentation intense à des métallicités supérieures à un certain seuil, le nuage en effondrement évolue en un amas d'étoiles dense plutôt que de former une seule étoile supermassive. Mais là encore, les simulations étaient limitées dans le temps, ce qui laissait l'évolution à long terme de ces systèmes inexplorée.

Les nouvelles simulations intègrent désormais de manière exhaustive les processus physiques clés. Plus précisément, les astrophysiciens modélisent l'évolution des nuages ​​de gaz de manière auto-cohérente, en résolvant la physique thermique avec une chimie hors équilibre pour le gaz primordial et un traitement simplifié mais robuste du refroidissement dû aux métaux. De plus, ils incluent les effets de la rétroaction du rayonnement des étoiles en formation, ce qui est crucial pour comprendre son influence sur la fragmentation et l'accrétion de masse. Et surtout, ils étendent les simulations à une échelle de temps de 1 mégannée, durée de vie typique des étoiles très massives. Cette durée plus longue leur permet de déterminer la masse finale des SMS sous différentes métallicités. Elle leur permet également d'examiner l'évolution et les propriétés à long terme des systèmes stellaires, telles que leur structure, la distribution de leurs populations stellaires et la formation potentielle d'amas d'étoiles denses, dans des environnements irradiés par UV et légèrement enrichis en métaux.

Chon et Omukai montrent aujourd'hui que la métallicité influence significativement les propriétés de fragmentation et la croissance des étoiles massives. À de faibles métallicités ([Z/H]) < 10-3, ils montrent que des étoiles supermassives jusqu'à presque 100 000 masses solaires peuvent se former. Plus précisément, pour une métallicité de 10-6, le cas où le refroidissement par la poussière est négligeable, le gaz s'effondre de manière quasi monolithique, donnant naissance à des SMS au centre. Pour des métallicités légèrement supérieures ([Z/H] de 10-5 à 10-4, ils trouvent que le refroidissement de la poussière induit une fragmentation à l'échelle sub-parsec, avec de multiples fragments autour de la région centrale. Mais ces fragments finissent par s'accréter sur la protoétoile centrale ou fusionner avec elle, ce qui permett aux objets massifs centraux de se développer en étoiles supermassives. Pour une métallicité de 10-3, tandis que la fragmentation ralentit la croissance de la masse des étoiles centrales pendant les premières phases, l'accrétion continue à partir de filaments denses permet quand même la formation d'étoiles supermassives de 10 000 masses solaires. Pour une métallicité de 10-2 en revanche, une fragmentation à grande échelle (10 pc) conduit à une formation d'étoiles plus étendue spatialement, ce qui entraîne la formation d'un amas d'étoiles massif avec une étoile très massive centrale qui fait environ 2000 masses solaires.

Dans les simulations de Chon et Omukai, les masses des étoiles formées et de leurs trous noirs résiduels varient de 30 000 à 80 000 masses solaires pour des métallicités inférieure 10-3. La masse finale est déterminée lorsque l'apport efficace de gaz, à un taux de 0,1 M☉/an, cesse après environ 1 Mégannée. Cette interruption du flux d'accrétion est attribuée aux champs de marée des galaxies massives voisines, qui perturbent l'enveloppe externe du nuage et limitent ainsi la masse maximale pouvant être fournie au système stellaire central.

La capacité à former des graines de trous noirs massifs dans des environnements avec [Z/H] ≤ 10-3 Z☉ suggère une densité numérique de graines qui serait plus élevée que les prédictions du scénario conventionnel de l'effondrement direct. Or, une seule supernova enrichit généralement le gaz environnant jusqu'à une métallicité de  10-4 à  10-3, ce qui implique que des trous noirs massifs peuvent se former dans des halos ayant subi un épisode précédent de formation d'étoiles. Et des simulations cosmologiques de formation de galaxies ont montré que, lors des premiers stades de l'assemblage des galaxies à z ~ 10, la métallicité typique du milieu interstellaire reste dans la gamme comprise entre 10-4 à  10-3.

Le scénario d'accrétion supercompétitive proposé par les chercheurs japonais, permet donc de produire d'avantage de graines de trous noirs supermassifs via la production d'étoiles supermassives en plus grand nombre. Ils estiment que la densité numérique de ces graines de trous noirs supermassifs produites dans des nuages de gaz à métallicité finie pourrait atteindre entre 0,1 et 1 par Mpc3. Une valeur bien supérieure à celle donnée par le modèle classique du collapse direct, et qui devient tout à fait comparable avec la densité numérique des trous noirs supermassifs qui est mesurée dans l'Univers local. 

Ces beaux résultats suggèrent donc que le scénario d'accrétion supercompétitive produisant des étoiles supermassives de presque 100 000 masses solaires dans les premiers millions d'années après l'allumage des premières étoiles, et ce même dans des environnements déjà légèrement enrichis en éléments lourds, pourrait expliquer l'origine précoce de tous les trous noirs supermassifs dans l'univers.


Source

Formation of supermassive stars and dense star clusters in metal-poor clouds exposed to strong FUV radiation 

Sunmyon Chon , Kazuyuki Omukai

Monthly Notices of the Royal Astronomical Society, Volume 539 (3 May 2025) 

https://doi.org/10.1093/mnras/staf598

⁠ 

Illustrations

1. Simulations de l'accrétion d'étoiles supermassives en fonction de leur métallicité (Chon & Omukai)

2. Evolution de la masse des étoiles en fonction du temps et de la métallicité (Chon & Omukai)

3. Kazuyuki Omukai et Sunmyon Chon

02/05/25

L'eau lunaire produite par le vent solaire


Lorsqu'un flux de particules chargées provenant du Soleil, le vent solaire, percute la surface lunaire, il déclenche des réactions chimiques qui sont susceptibles de former des molécules d'eau. Une équipe de chercheurs vient de reproduire ce bombardement de protons en laboratoire sur un échantillon lunaire et ils parviennent effectivement à créer de l'eau dans le régolithe. Ils publient leur étude dans Journal of Geophysical Research.

La plupart des particules solaires n'atteignent pas la surface de la Terre, car notre planète est dotée d'un bouclier magnétique et d'une atmosphère qui les dévient puis les absorbe. Mais la Lune ne bénéficie pas d'une telle protection. Lorsque des protons percutent la surface lunaire, constituée d'un matériau rocheux appelé régolithe, ils entrent en collision avec des électrons et se recombinent pour former des atomes d'hydrogène. Ensuite, les atomes d'hydrogène peuvent migrer à travers la surface et se lier aux atomes d'oxygène abondants déjà présents dans des minéraux comme la silice, pour former des molécules d'hydroxyle (OH), et des molécules d'eau (H2O). Des traces de molécules d'hydroxyle et d'eau ont déjà été découvertes à la surface supérieure de la Lune, à quelques millimètres de profondeur seulement. Ces molécules laissent une empreinte spectrale dans la lumière réfléchie par le régolithe. Mais, avec les outils actuels, il est difficile de distinguer l'hydroxyle de l'eau ; les chercheurs utilisent donc le terme « eau » pour désigner à la fois l'une ou l'autre de ces molécules, ou un mélange des deux.
Pour expliquer l'origine de ces molécules, De nombreux chercheurs pensent que le vent solaire est la principale, bien que d'autres sources comme les impacts de micrométéorites pourraient également aider en créant de la chaleur et en déclenchant des réactions chimiques. En 2016, on a notamment découvert que de l'eau est libérée de la Lune lors des pluies de météorites. Lorsqu'un impacteur frappe la Lune, il se vaporise, créant une onde de choc qui peut percer la couche supérieure sèche du sol et libérer des molécules d'eau d'une couche hydratée située en dessous. 

Des mesures effectuées par des sondes spatiales avaient déjà suggéré que le vent solaire était le principal moteur de l'eau à la surface lunaire. Un indice clé était que le signal spectral lié à l'eau de la Lune évolue au cours de la journée. Dans certaines régions, il est plus intense le matin, plus frais, et s'atténue à mesure que la surface se réchauffe, probablement parce que les molécules d'eau et d'hydrogène se déplacent ou s'échappent plus en fonction de la température. Lorsque la surface se refroidit à nouveau la nuit, le signal atteint à nouveau son maximum. Ce cycle quotidien indique une source active – donc probablement le vent solaire – qui réapprovisionne chaque jour de petites quantités d'eau sur la Lune.


Pour vérifier cette hypothèse, Li Hsia Yeo (Goddard Space Flight Center de la NASA) et ses collaborateurs ont directement examiné des échantillons lunaires rapportés par la mission Apollo 17 en 1972. Il s'agit des échantillons LS 78421 et LS 73131.

Pour la première fois, ils ont utilisé un dispositif à faisceau de protons, une chambre à vide simulant l'environnement lunaire et un détecteur de molécules d'eau, sans avoir besoin de sortir l'échantillon et risquer de l'exposer à la contamination par l'eau présente dans l'air. 

Yeo et ses collègues ont d'abord cuit les échantillons afin d'éliminer toute trace d'eau entre leur stockage hermétique dans le centre de conservation des échantillons spatiaux de la NASA, au Centre spatial Johnson de Houston, et le laboratoire de Goddard. Ils ont ensuite utilisé un minuscule accélérateur de particules pour bombarder la poussière avec un vent solaire simulé, des protons de 1 keV, pendant plusieurs jours, soit l'équivalent de 80 000 ans sur la Lune, compte tenu de la forte dose de utilisée. Ils ont utilisé un spectromètre pour mesurer la quantité de lumière réfléchie par les molécules de poussière, ce qui a montré comment la composition chimique des échantillons changeait au fil du temps.

Les caractéristiques et la position de la bande à 3 µm (raie d'absorption de l'eau) sont mesurées entre LS 78421, LS 73131 et un témoin de silice broyée, reflétant les structures cristallines et les environnements chimiques uniques de chaque échantillon. En cyclant la température de l'échantillon jusqu'à 400 K (le maximum lunaire diurne), les chercheurs mettent en évidence le rôle de la diffusion de l'hydrogène dans la dynamique de OH/H2O dans le sol lunaire : l'eau disparaît un peu. Cela permet à Yeo et a. de calculer les énergies d'activation de la diffusion de l'hydrogène : 0,66 à 0,75 eV et de 0,72 à 0,81 eV sont obtenues respectivement pour LS 78421 et LS 73131.

Les résultats révèlent que ce processus d'hydroxylation, crée des caractéristiques spectrales uniques pour les deux échantillons lunaires étudiés. Yeo et al. montrent que les caractéristiques spectrales sont fortement influencées par la capacité de l'hydrogène à diffuser dans le sol lunaire. Les résultats montrent aussi que si ces liaisons OH nouvellement créées sont relativement stables à température ambiante, des températures plus élevées, comme à la surface lunaire éclairée par le jour, entraînent un dégazage et une diffusion accrus de l'hydrogène plus profondément dans le régolithe lunaire, exactement ce qui avait été observé par les sondes spatiales. Mais les chercheurs précisent que l'effet d'hydroxylation observé dans cette étude qui est de l'ordre de 100 ppm sur l'équivalent de 80 000 ans de rayonnement solaire, ne suffit pas à expliquer quantitativement les variations diurnes de OH/H20 qui avait été observées par la sonde EPOXI  et qui valaient plusieurs centaines de ppm par jour lunaire). D'autres études sur la relation entre la température du régolithe et l'hydroxylation sont nécessaires.

Tout en démontrant l'hydroxylation du sol lunaire par les protons du vent solaire, ces travaux ouvrent de nombreuses pistes de recherche. Premièrement, les réponses spectrales uniques de chaque échantillon lunaire au même traitement expérimental suggèrent que des différences dans des facteurs tels que la minéralogie et les fractions granulométriques pourraient jouer un rôle important dans l'hydroxylation et donc dans la quantité d'hydratation contenue dans le sol lunaire. Il a été suggéré que sous un bombardement intense et constant de plasma énergétique, de rayonnement et de micrométéoroïdes, la formation de défauts et de liaisons pendantes à la surface des grains de poussière permet l'hydroxylation (Farrell et al.,  2017 ; Fink et al.,  1995 ). 

Deuxièmement, le rôle de la température et du temps sur le mouvement et la distribution de l'hydrogène au sein du sol lunaire est un point important à considérer. Le régolithe lunaire est soumis à des températures variables et extrêmes sur toute la surface lunaire, notamment des pics importants et soudains causés par le bombardement de micrométéoroïdes. Il est donc probable que les températures locales jouent un rôle important dans la détermination du degré d'hydratation d'un site ainsi que de la migration globale de l'hydrogène sur la Lune. Ces effets thermiques interagissent probablement avec les processus de radiation et de formation de défauts. Une prise en compte complète de ces processus concurrents est donc nécessaire pour bien comprendre les durées de vie et les échelles de survie de H20 et OH à la surface lunaire. 

Source

Hydroxylation and Hydrogen Diffusion in Lunar Samples: Spectral Measurements During Proton Irradiation
Li Hsia Yeo et al.
Journal of Geophysical Research:Planets (17 March 2025)


Illustrations

1. Evolution de la concentration en eau en fonction de la fluence de protons et effet de la température (Yeo et al.)
2. Montage expérimental utilisé pour l'expérience (Yeo et al.)
3.  Li Hsia Yeo


23/04/25

FCC 224, l’autre galaxie sans matière noire


Une équipe de chercheurs vient de montrer l’existence d’une nouvelle galaxie très déficiente en matière noire qui possède des caractéristiques très similaires à d’autres galaxies pauvres en matière noire déjà identifiées (DF2 et DF4). Ces caractéristiques communes signalent l'existence d'une classe de galaxies déficientes en matière noire jusqu'à présent non reconnue. L’étude est publiée dans Astronomy&Astrophysics

La découverte de galaxies ultra-diffuses (UDG) quiescentes et déficientes en matière noire avec des amas globulaires (GC) surlumineux a remis en question les modèles de formation des galaxies dans le cadre du paradigme cosmologique ΛCDM. Auparavant, de telles galaxies n'avaient été identifiées que dans le groupe de NGC 1052, ce qui soulève la possibilité qu'elles soient le résultat de processus uniques et spécifiques au groupe, et limite leur signification plus large. En effet, les galaxies naines DF2 et DF4 possèdent de nombreuses caractéristiques inhabituelles, la plus significative étant leur absence totale apparente de matière noire dans leurs régions internes. Ces caractéristiques ont suscité de nombreuses théories sur leurs origines depuis 2018. Parmi ces scénarios, on trouve celui de la « naine à balles » proposé par Silk (2019) et van Dokkum et al. (2022), dans lequel des interactions à grande vitesse séparent la matière noire et la matière baryonique tout en générant la pression intense nécessaire à la formation d'amas globulaires exceptionnellement brillants.

Car DF2 et DF4 abritent des amas globulaires étonnamment surlumineux, avec une fonction de luminosité de l'amas globulaire (GCLF) qui les distingue des galaxies naines normales. La prédiction de ce scénario est que huit interactions de type « bullet dwarf » produisant des UDGs déficientes en matière noire devraient se produire dans un volume de 20 Mpc de côté. Les galaxies formées par ce processus constitueraient probablement une nouvelle classe de galaxies naines. Cependant, jusqu'à présent, de telles galaxies n'ont pas été identifiées. Jusqu’à aujourd’hui. Maria Luisa Buzzo (Swinburne University) et ses collaborateurs ont cherché à étudier le contenu en matière noire de FCC 224 et à explorer ses similarités avec les naines du groupe NGC 1052: DF2 et DF4, afin de déterminer si elle appartient ou non à la même classe de galaxies UDG déficientes en matière noire.

La première indication d'un lien entre FCC 224 et les galaxies déficientes en matière noire du groupe de NGC 1052 est venue de sa population d’amas globulaires inhabituellement brillants, une caractéristique qui a suscité un regain d'intérêt et des observations de suivi avec le télescope spatial Hubble en 2024 et 2025. Ces études ont mis en évidence des similitudes frappantes entre FCC 224 et les galaxies du groupe de NGC 1052, suggérant des éléments d'une origine commune. FCC 224 répond à la définition d'une UDG dans les limites des incertitudes, avec un rayon effectif de Re = 1,89 ± 0,01 kpc, et une luminosité de surface centrale de 23,97 ± 0,03 mag arcsec-2. Sa masse stellaire est de log(M⋆/M⊙) = 8,24 ± 0,04 et on estime qu'elle héberge 13 ± 1 amas globulaires (Tang et al. 2025). 

Compte tenu de ces caractéristiques particulières, FCC 224 pourrait être un nouvel exemple de galaxie naine sans matière noire. Buzzo et al. ont utilisé la spectroscopie à haute résolution du Keck Cosmic Web Imager (KCWI) pour déterminer directement le contenu en matière noire de FCC 224 et étudier ses similarités avec DF2 et DF4. En analysant leur cinématique, leurs populations stellaires et leur système d’amas, ils ont exploré la possibilité que ces galaxies forment une nouvelle classe de galaxies. Et Buzzo et ses collaborateurs trouvent que FCC 224 présente un ensemble distinct de caractéristiques partagées avec DF2 et DF4, notamment une rotation lente et prolate, une quiescence dans des environnements à faible densité, ainsi qu’une formation simultanée d'étoiles et d’amas globulaires, des gradients de population stellaire plats, une fonction de luminosité de d’amas globulaires lourde au sommet, et des amas globulaires qui apparaissent monochromatiques. Pour les chercheurs, ce cadre de diagnostic devrait permettre d'identifier d'autres exemples et soulève en tous cas de nouvelles questions pour les modèles de formation des galaxies dans le cadre de la cosmologie ΛCDM. 

FCC 224 est bien une galaxie déficiente en matière noire, avec une dispersion de vitesse stellaire de σ=7.82 (-4.36 , +6.74) km s-1, significativement plus bas que les 25 km s-1 prédits pour une galaxie naine typique de sa masse stellaire. La masse dynamique dans un rayon effectif, estimée à log(Mdyn/M⊙) = 7.9 ± 0.4, est cohérente avec sa masse stellaire dans le même rayon, et qui vaut log(M⋆/M⊙) = 7.94 ± 0.04, ce qui implique une fraction de matière noire négligeable dans cette région. La population stellaire de FCC 224 est uniformément vieille et pauvre en métaux (c'est-à-dire des profils d'âge et de métallicité plats), avec un âge pondéré par la masse qui est de 10,2 ± 0,5 Gigannées et une métallicité [M/H] = -1,3 ± 0,3 dex, correspondant étroitement (et curieusement) à ceux de ses amas globulaires.
De plus, la galaxie héberge un système d’amas globulaires inhabituel, incluant une fonction de luminosité lourde au sommet et des amas monochromatiques, similaires à ceux de DF2 et DF4. FCC 224 tourne lentement (7,5 ± 3.0 km s-1) et présente une rotation prolate. Elle réside dans un environnement de faible densité, comme le confirme l'absence de gaz et de raies d'émission. 


Ces résultats alignent FCC 224 avec DF2 et DF4 et signalent l'existence d'une nouvelle classe de galaxies naines déficientes en matière noire, suggérant une pertinence cosmologique plus large qui remet en question les modèles de formation des galaxies avec le paradigme ΛCDM et fournissant un cadre pour identifier d'autres galaxies sans matière noire. 

Source

A new class of dark matter-free dwarf galaxies ?
Maria Luisa Buzzo et al.
A&A, 695, A124 (12 march 2025)


Illustrations

1.Image et modèle de FCC 224 ( Buzzo et al.)
2. Maria Luisa Buzzo

17/04/25

Le système de galaxies satellites d'Andromède très fortement asymétrique


Une équipe d'astrophysiciens a caractérisé l'asymétrie du système d'Andromède et a testé sa concordance avec les prévisions du modèle standard. Toutes les 37 galaxies satellites d'Andromède, sauf une, sont situées à moins de 107° de notre Galaxie vu depuis le centre d'Andromède. Or, dans les simulations cosmologiques fondées sur le modèle standard, moins de 0,3 % des systèmes similaires à Andromède présentent une asymétrie comparable. Conjointement avec son plan de galaxies satellites, cela montre que le système d'Andromède paraît aberrant dans le paradigme cosmologique standard, et ça remet encore plus en question notre compréhension de la formation des structures à petite échelle. L'étude est parue dans Nature Astronomy.

La distribution spatiale des galaxies fournit des informations cruciales en cosmologie et en physique de la matière noire. Selon le modèle cosmologique standard, les petites galaxies fusionnent au fil du temps selon un processus chaotique pour former des galaxies plus grandes, laissant derrière elles des essaims de galaxies naines peu lumineuses qui orbitent autour de galaxies hôtes massives selon un arrangement quasi aléatoire. Mais ce que montrent Kosuke Jamie Kanehisa de l'Institut Leibniz d'astrophysique de Potsdam et ses collaborateurs, c'est que les galaxies satellites de la galaxie d'Andromède (M31) ont des propriétés surprenantes et jusqu'à présent inexpliquées. 

Au lieu d'être réparties aléatoirement autour de leur galaxie hôte, comme le prédit le modèle cosmologique standard, plus de 80 % de ces galaxies naines sont concentrées d'un côté de la galaxie d'Andromède. Plus précisément, tous les satellites d'Andromède, sauf un, se situent à moins de 107 degrés de la ligne pointant vers la Voie lactée, une région qui ne couvre pourtant que 64 % des environs de la galaxie hôte. Jusqu'à présent, on ignorait si cette configuration particulière remettait en cause de manière significative le modèle cosmologique actuel ou si elle s'inscrivait dans la fourchette de la variance cosmique. Mais cette asymétrie a persisté et s'est même accentuée à mesure que des galaxies moins lumineuses ont été découvertes et que leurs distances ont été affinées.
Les simulations cosmologiques modernes, qui suivent l’évolution des galaxies au cours du temps cosmique, fournissent un outil précieux pour prédire et comparer les systèmes de galaxies dans le cadre cosmologique standard. Kanehisa et ses collaborateurs ont utilisé des simulations pour rechercher des galaxies hôtes de type Andromède et analyser la distribution spatiale de leurs galaxies naines satellites à l'aide de mesures pour quantifier l'asymétrie.
La comparaison de la configuration observée d'Andromède avec ces analogues simulées révèle que la distribution de ses satellites est extrêmement rare. Il faut examiner plus de trois cents systèmes simulés pour en trouver un seul dont l'asymétrie soit aussi extrême que celle observée. Et l'asymétrie d'Andromède devient encore plus déroutante lorsqu'elle est combinée à une autre caractéristique inhabituelle : le fait que la moitié de ses satellites co-orbitent dans une structure fine et plane.

Pour Kanehisa et ses collaborateurs, la formation de cette structure anisotrope autour de M31 pose un mystère qui, compte tenu de sa rareté parmi les analogues simulés, nécessite une histoire évolutive unique pour être expliquée. Et compte tenu de l'excellent alignement de l'asymétrie du système d'Andromède avec notre Galaxie, ils posent la question de savoir si la Voie lactée pourrait potentiellement jouer un rôle dans le maintien du déséquilibre observé. Si tel était le cas, en supposant que les deux galaxies hôtes du Groupe local aient une masse similaire, les satellites de la Voie lactée devraient également subir un effet comparable dû au potentiel de M31. Mais, bien que difficile à déterminer de manière fiable en raison de la couverture inégale du ciel et à l'obscurcissement dû au disque galactique, aucun degré notable d'asymétrie n'a été signalé pour l'instant dans la distribution des satellites de la Voie lactée. Il est également peu probable selon les chercheurs que les effets de marée soient suffisamment puissants pour reproduire l'asymétrie qui est observée. Néanmoins, comme l'alignement de 6° entre le cône d'asymétrie maximale le plus significatif de M31 et la direction de la Voie lactée se produit avec une probabilité de seulement 0,27 % si l'orientation de l'asymétrie observée est aléatoire, les astrophysiciens estiment que notre Galaxie joue un rôle important dans la formation ou l'évolution du système déséquilibré d'Andromède.

Il faut savoir qu'une autre équipe a exploré en 2020 la possibilité d'une accrétion unique d'une association bien peuplée de satellites formant le système actuel d'Andromède. Mais, compte tenu de la large distribution radiale observée et de la gamme d'énergies orbitales, ils ont constaté que la structure asymétrique résultante se dissoudrait probablement dès 500 millions d'années plus tard. Dans ce scénario, l'asymétrie importante observée dans le système d'Andromède doit être dominée par une population dynamique de satellites jeunes. Un excès similaire de satellites récemment accrétés pourrait également exister autour de la Voie lactée comme l'ont montré Hammer et al. et Taibi et al. il y a quelques années.
Kanehisa et ses coauteurs notent que bien que le faible signal asymétrique dans les hôtes appariés simulés soit effectivement dû à des satellites récemment accrétés à partir de filaments proches, de tels processus sont déjà inclus de manière auto-cohérente dans les simulations cosmologiques utilisées. De plus, si l'asymétrie observée était due à des satellites récemment tombés, la nature bien peuplée de la distribution asymétrique des satellites de M31 impliquerait une pénurie catastrophique de satellites avec un temps de chute plus ancien que l'échelle de temps de dispersion de l'asymétrie.

Contrairement à l'omniprésence apparente des plans corrélés de satellites dans notre voisinage cosmique, les échantillons statistiques d'associations de naines dans l'Univers local montrent généralement un degré de déséquilibre cohérent avec les simulations. Pour Kanehisa et al., cela renforce la nécessité d'une histoire évolutive unique pour M31 dans un contexte ΛCDM. Néanmoins, ils soulignent que les populations limitées de satellites dans ces échantillons peuvent masquer des systèmes individuels qui sont comparables à l'asymétrie du groupe d'Andromède. Des relevés de nouvelle génération avec des limites de luminosité de surface plus basses seront nécessaires pour déterminer de manière concluante si l'incidence de systèmes de satellites individuels hautement asymétriques correspond également aux attentes cosmologiques.

À l'heure actuelle, aucun mécanisme de formation connu ne peut expliquer l'asymétrie collective du système d'Andromède. En conjonction avec le plan des galaxies satellites de M31, qui présente un degré de tension similaire avec les simulations, ces nouveau résultats présentent le système de galaxies satellites d'Andromède comme une valeur aberrante frappante par rapport aux attentes du modèle cosmologique ΛCDM.
Cela soulève évidemment des questions quant à savoir si l’histoire évolutive d’Andromède est particulièrement anormale ou bien si notre compréhension de la formation des galaxies à petite échelle est incomplète.

En conclusion, on rappellera que bien que ces résultats remettent en question les théories cosmologiques actuelles, ils dépendent fortement de la précision des simulations sous-jacentes, qui sont limitées par la qualité de leur modélisation de la physique stellaire et de l’évolution des galaxies. Les prochaines étapes vont donc consister à déterminer si la configuration d’Andromède est vraiment une valeur aberrante unique ou bien si des systèmes de galaxies anisotropes similaires existent ailleurs. Le télescope Euclid devrait permettre d'avancer dans cette recherche. 


Source

Andromeda’s asymmetric satellite system as a challenge to cold dark matter cosmology
Kanehisa, K.J., Pawlowski, M.S. et N. Libeskind.  
Nature Astronomy (11 april 2025).


Illustration

Vue latérale de la distribution asymétrique des satellites d'Andromède.