14/02/26

A l'origine d'Hypérion et des anneaux de Saturne


Dans un article à paraître dans Planetary Science Journal, une équipe de chercheurs montrent grâce à des simulations que Hypérion serait le résultat d'une collision spectaculaire entre Titan et une lune ancienne suite à une déstabilisation orbitale. Cette découverte contribue à expliquer l'origine du système d'anneaux de Saturne.

Dans leur article, Matija Ćuk (Institut SETI) , et ses collaborateurs présentent un nouveau modèle à l'aide de simulations numériques pour l'évolution dynamique récente du système de satellites saturniens. Ils se sont fondés sur plusieurs faits observés : premièrement la jeunesse apparente des anneaux de Saturne (démontrée depuis quelques années), deuxièmement  la jeunesse dynamique apparente des lunes internes de taille moyenne. Troisièmement, le fait qu'on observe une migration de marée rapide de Titan. Quatrièmement, l'observation d'un amortissement rapide de l’inclinaison et de l’excentricité de Titan, et pour finir, ils ont pris en considération que Saturne semble être récemment sortie de sa résonance spin-orbite passée supposée avec les autres planètes.

Selon Ćuk et ses collaborateurs, Hypérion, petite lune irrégulière en résonance orbitale 4:3 avec Titan,  serait bien plus jeune qu'on ne l'a longtemps supposé. De plus, l'orbite allongée actuelle de Titan implique qu'il a migré vers l'extérieur d'environ 4 à 5 % depuis que les deux lunes sont entrées en résonance. Et cette résonance s'est probablement formée il y a seulement 400 à 500 millions d'années seulement.

Pour expliquer la jeunesse apparente d'Hyperion, les chercheurs proposent un scénario dans lequel une lune supplémentaire de taille moyenne, qu'ils baptisent proto-Hyperion, aurait autrefois orbité entre Titan et Japet. À mesure que l'orbite de Titan s'élargissait, le système se déstabilisait ; le proto-Hyperion aurait été entraîné sur une trajectoire chaotique et aurait fini par entrer en collision avec Titan.

La fusion aurait rompu la résonance spin-orbite de longue date entre Saturne et les planètes, modifiant ainsi l'obliquité de la géante gazeuse. Dans le même temps, les débris de l'impact auraient pu s'accumuler pour former l'Hyperion actuel, dont la faible densité et la forte porosité suggèrent une structure d'amas de débris plutôt qu'un corps primordial plus "lisse".

Les simulations numériques réalisées par l'équipe montrent que les collisions entre Titan et la lune hypothétique se produisent fréquemment dans de telles conditions. Et dans de nombreuses simulations, Japet acquiert des inclinaisons et des excentricités orbitales similaires à celles observées aujourd'hui, compatibles avec des perturbations gravitationnelles survenues pendant l'instabilité.

Les simulations indiquent aussi que l'orbite de Titan se déplacerait généralement vers l'extérieur lors de la fusion, permettant ainsi à sa migration de marée en cours de reprendre. Ćuk et ses collaborateurs avancent l'hypothèse qu'un Titan excentrique, excité durant l'événement, aurait pu déstabiliser les lunes internes de Saturne par le biais d'interactions résonantes.

Des preuves indépendantes ont déjà suggéré un âge relativement jeune pour les anneaux de Saturne,  peut-être quelques centaines de millions d'années seulement (nous en avions parlé ici en 2019 et 2023), des preuves se basant sur leur masse, leur composition et leurs interactions avec les lunes voisines. Le nouveau modèle relie cette période au même épisode qui a produit Hyperion et remodelé le système externe.

Les auteurs réexaminent également l'histoire de Rhéa, dont la migration rapide vers l'extérieur implique qu'elle aurait franchi la résonance d'évection avec le Soleil au cours des dernières centaines de millions d'années. Or, de tels marqueurs dynamiques sont plus compatibles avec un système ayant subi un réarrangement récent et à grande échelle qu'avec un système resté inchangé pendant des milliards d'années.

En résumé, la séquence d'événements en trois étapes qui est proposée par les auteurs est la suivante : 

1ère étape : Une instabilité du système externe se produit il y a environ 400 millions d'années, lorsque Titan a capturé un satellite extérieur (Proto-Hyperion) et est entré en résonance 2:1, ce qui a finalement conduit à la collision entre Proto-Hyperion et Titan. Hyperion a ensuite été accrété à partir d'une petite fraction des débris issus de cette collision, pour être capturé ultérieurement et entrer dans sa résonance actuelle de 4:3 avec Titan. Les perturbations pré-collision dues à Proto-Hyperion ont modifié les excentricités et les inclinaisons de Titan et de Japet.

2ème étape : il y a 50 à 200 millions d'années, le membre le plus externe de la paire de lunes internes (« Proto-Dione » et « Proto-Rhéa ») entre en résonance 4:1 avec Titan, excentrique et incliné. L'excitation orbitale résultante des orbites des lunes internes conduit à leur collision mutuelle. Cette collision génère les lunes internes actuelles et les anneaux de Saturne.

3ème étape : il y a moins de 50 millions d'années, Titan et Japet traversent leur résonance 5:1, ce qui perturbe encore l'orbite de Japet et présente un risque important d'éjection de Japet.

Bien que les événements décrits ici se soient déroulés il y a des centaines de millions d'années et soient difficiles à confirmer directement, des observations récentes ont constamment remis en question les modèles précédents et ont révélé de nouvelles dynamiques. L'hypothèse prédit ici un système saturnien dynamiquement actif et relativement jeune, dont la configuration actuelle résulte d'événements récents et spectaculaires.

Les futures données orbitales, géophysiques et géologiques, notamment celles issues des missions ciblant les lunes de Saturne, permettront de tester ce scénario de manière essentielle. Ces données comprendront des déterminations indépendantes du taux de précession axiale de Saturne et de l'évolution orbitale de Titan, des paramètres de marée et de rotation de Titan, ainsi que de l'âge de la surface de Titan et des autres lunes. Que la séquence d'événements soit confirmée ou non, ce travail contribue à formuler de nouvelles hypothèses très pertinentes sur l'évolution du système de satellites de Saturne.


Source

Origin of Hyperion and Saturn’s Rings in A Two-Stage Saturnian System Instability

Matjia Cuk et al.

à paraître dans The Planetary Science Journal

https://www.arxiv.org/abs/2602.09281


Illustrations 

1. Hyperion imagé par la sonde Cassini le 26 septembre 2005 à une distance d'environ 34 000 km (NASA / JPL-Caltech / Space Science Institute).

2. Illustration de la séquence d'événements du modèle proposé (Matija Ćuk  et al.)

3. Matija Ćuk 



05/02/26

Un effet dynamo produit par des jets à grande échelle


Une équipe de chercheurs a découvert que les jets à grande échelle entraînent une forte amplification du champ magnétique, et ils ont intégré cet effet dans un nouveau scénario de dynamo distinct des modèles conventionnels généralement adoptés pour les dynamos planétaires et stellaires. Ces travaux sont particulièrement pertinents pour l'amplification du champ magnétique dans les plasmas, les planètes, les étoiles, les étoiles à neutrons et les disques d'accrétion autour d'objets compacts. Ils publient leur étude dans Nature.

À toutes les échelles où ils sont présents, les champs magnétiques influencent divers phénomènes, notamment la formation des étoiles, le transport des rayons cosmiques, l'accélération des particules chargées, la météo spatiale, le transport dans les atmosphères planétaires ou encore les plasmas de laboratoire.

L'origine des champs magnétiques cosmiques est depuis longtemps un mystère. La production de champs à si grande échelle nécessite de la matière en mouvement, ou des flux de fluides. Les flux à l'échelle cosmique sont alimentés par la gravité et sont généralement turbulents, caractérisés par des changements chaotiques de pression et de vitesse. Cela conduit à des champs magnétiques enchevêtrés et désordonnés qui se concentrent à petite échelle. Cependant, on observe que les champs magnétiques astrophysiques conservent une structure ordonnée, par exemple à l'échelle des galaxies ou au-delà. De plus, les flux et les champs magnétiques à petite échelle sont généralement de magnitude similaire et, surtout, alignés. Cet alignement, qu’on appelle alfvénisation, est intrinsèque aux mouvements des fluides magnétiques (ceux qui conduisent l'électricité et transportent les champs magnétiques) et il se produit naturellement et spontanément. Mais l'alfvénisation élimine presque complètement le mécanisme de dynamo conventionnel qui a été proposé pour l'amplification des champs magnétiques, dans lequel un écoulement turbulent courbe les champs magnétiques initiaux, crée des arcs, puis les tord de manière à former une boucle qui renforce les champs initiaux. En conséquence, la manière dont les champs magnétiques astrophysiques observés sont générés est restée longtemps obscure.

C’est en 1955, que E. N. Parker a paramétré les effets de la turbulence à petite échelle pour proposer une théorie de l’effet dynamo à champ moyen. Cette théorie largement utilisée reproduit les champs à grande échelle observés, mais souffre d'une difficulté à ajuster les paramètres, car ceux-ci ne sont pas justifiés par les principes fondamentaux : les études sur les écoulements turbulents montrent des champs magnétiques enchevêtrés, qui sont pliés et fragmentés en structures à petite échelle en raison de la contrainte de l'écoulement de cisaillement.

Dans leur étude, Bindesh Tripathi (Columbia University) et ses collaborateurs ont considéré un écoulement de cisaillement instable et entraîné, et ils développent une théorie analytique en réalisant des simulations tridimensionnelles avancées de la turbulence avec jusqu'à 4 096 × 4 096 × 8 192 points de grille. Ils peuvent ainsi montrer la génération ab initio de champs magnétiques quasi-périodiques à grande échelle. Les chercheurs observent que cette génération se produit via l'effet de vorticité moyenne, un processus supplémentaire de dynamo à champ moyen qui a été postulé en 1990.

La génération préalable de jets tridimensionnels à grande échelle, produits de manière robuste en tant que solutions non linéaires exactes et protégées topologiquement des équations magnétohydrodynamiques, est cruciale pour cette dynamo. Ce processus de dynamo à jet peut s'appliquer à la fois aux systèmes de laboratoire et aux systèmes astrophysiques à cisaillement. Il s'agit notamment des fusions d'étoiles à neutrons binaires, où l’effet dynamo fonctionne probablement à l'échelle de la microseconde pour produire en quelques millisecondes certains des champs magnétiques les plus puissants de l'Univers.

Tripathi et ses collaborateurs ont réalisé des simulations numériques d'écoulement de cisaillement dans un fluide magnétique (c'est-à-dire un écoulement se déplaçant dans des directions opposées, comme dans le cas d'un trafic à double sens). L'écoulement de cisaillement est courant dans la nature et entraîne le plus souvent des instabilités et des turbulences. Ces simulations ont été réalisées sur des périodes prolongées, couvrant des centaines à des milliers de temps de croissance de l'instabilité, ce qui a nécessité des ressources informatiques considérables. Les chercheurs ont utilisé ces modèles pour identifier les processus qui apparaissent naturellement dans la turbulence après de si longues périodes. Ils constatent que certains processus s’avèrent être dominants parmi les interactions complexes lorsqu’on compare le comportement de la simulation avec et sans ces processus. Ils ont également effectué des calculs analytiques pour déterminer les fondements conceptuels de ces processus.

Dans les simulations numériques, l'instabilité du flux de cisaillement produit des mouvements à grande échelle et des structures turbulentes de différentes tailles. Le mouvement à grande échelle, souvent considéré comme principalement bidimensionnel, génère des structures tridimensionnelles, qui créent à leur tour des jets à grande échelle sur de longues périodes. Ces jets sont analogues aux jets-streams, des bandes d'air qui se déplacent rapidement dans l'atmosphère terrestre. Les jets « zonaux » sont à peu près parallèles au flux de cisaillement et génèrent un champ magnétique à grande échelle dont l'énergie correspond à l'énergie cinétique du flux. Bien que l'alfvénisation aille à l'encontre du mécanisme conventionnel proposé pour l'amplification du champ magnétique, elle permet le mécanisme associé à l'instabilité du flux de cisaillement et aux jets zonaux.

Ce mécanisme alternatif de génération de champs magnétiques nécessite un écoulement de cisaillement avec des fluides à grande échelle qui se déplacent à des vitesses distinctes. Et le mécanisme s'avère robuste face aux variations de paramètres qui affectent la gamme d'échelles des mouvements turbulents.

Il se trouve que la fusion d'étoiles à neutrons crée une couche de flux de cisaillement. Et cette couche est maintenue suffisamment longtemps pour permettre au nouveau mécanisme de génération de champ de produire des champs magnétiques potentiellement 1016 à 1017 fois plus puissants que le champ terrestre. Ce mécanisme de génération de champ fonctionnerait également dans le Soleil, qui présente des flux latitudinaux à grande échelle. Les chercheurs notent que d'autres types d'instabilité à grande échelle pourraient produire des écoulements de cisaillement similaires à ceux qui ont généré des champs magnétiques dans leurs simulations.

Pour l’instant, le processus fondamental a été étudié dans un système idéalisé. Pour déterminer si ce processus fonctionne dans un système astrophysique donné, il faut tenir compte d'autres effets qui pourraient être présents. Bien que les simulations aient inclus des plages de paramètres élargies, celles-ci restent en deçà de certaines valeurs extrêmes qui sont observées dans les systèmes astrophysiques.

De plus, cette étude de Tripathi et son équipe offre une explication potentielle à une mesure de laboratoire déroutante datant de 2012, sur la génération de champs magnétiques par un métal liquide turbulent. Rahbarnia et al. avaient mesuré directement le transport d'un champ magnétique vectoriel par une turbulence isotrope dans un écoulement de sodium liquide à nombre de Reynolds élevé. Ils avaient mesuré la force électromotrice turbulente en mesurant simultanément trois composantes de la vitesse et des champs magnétiques, et calculé les corrélations qui conduisent à la génération d'un courant de champ moyen. Ils en avaient déduit que la force électromotrice turbulente tend à s'opposer et à annuler le courant local, agissant ainsi comme augmentant la résistivité effective du milieu, c'est-à-dire qu'elle agit comme une diffusivité magnétique améliorée, avec des implications importantes pour le transport turbulent dans les objets astrophysiques, en particulier dans les dynamos et les disques d'accrétion.

Mais Tripathi et ses collaborateurs précisent que des études supplémentaires sont nécessaires pour reproduire tous les aspects de cette expérience en appliquant leur nouveau mécanisme de génération. En attendant, les chercheurs prévoient d’intégrer leur mécanisme de génération de champs magnétiques dans des modèles de magnétisme solaire, d'évolution stellaire, de fusion d'étoiles à neutrons et d'accélération de particules, afin de pouvoir comparer les effets prévus avec les observations.

 

Source

Large-scale dynamos driven by shear-flow-induced jets

B. Tripathi et al.

Nature volume 649 (21 janvier 2026)

https://doi.org/10.1038/s41586-025-09912-0

 

Illustration

1. Evolution à long terme d’une dynamo, montrant des phases de génération turbulente de flux et de champs magnétiques (B. Tripathi et al.).

2. Bindesh Tripathi


30/01/26

Une nouvelle carte de la matière noire à très haute résolution


La matière noire n'émet ni n'absorbe de lumière, mais joue un rôle fondamental dans l'évolution des galaxies et des structures. Comme elle n'interagit que par la gravité, l'un des moyens les plus directs de l'étudier est l'effet de lentille gravitationnelle : la déviation de la lumière provenant de galaxies lointaines par une masse intermédiaire. Une équipe de chercheurs vient d’utiliser cette méthode avec des images du télescope Webb pour fournir une carte de la masse sombre la plus détaillée à ce jour. L’étude est publiée dans Nature Astronomy.

Diana Scognamiglio (California Institute of Technology) et ses collaborateurs ont travaillé sur des images couvrant une large zone de 0,77° × 0,70°, obtenues dans le cadre de l'étude COSMOS. En mesurant les formes de 129 galaxies par minute d'arc carrée, dont beaucoup indépendamment dans les bandes F115W et F150W de Webb, les chercheurs atteignent une résolution angulaire de 1.00 +-0.01 minute d’arc.

Le lentillage gravitationnel affecte la trajectoire de la lumière provenant de galaxies lointaines lorsqu'elle traverse le potentiel gravitationnel de toute masse située dans la ligne de visée, y compris la matière baryonique ordinaire (étoiles, gaz et poussière) et la matière noire. Dans le régime des lentilles gravitationnelles faibles qui a été étudié ici, cette déviation induit une distorsion de cisaillement de seulement quelques pour cent dans les formes apparentes des galaxies d'arrière-plan. Cette distorsion est environ dix fois plus faible que l'ellipticité intrinsèque typique des galaxies, qui est façonnée par des caractéristiques telles que les bras spiraux ou les barres.

La résolution d'une carte de lentille gravitationnelle faible correspond donc à la surface nécessaire pour englober environ 100 galaxies d'arrière-plan résolues, de sorte que le signal de cisaillement dépasse le bruit de forme. Ce nombre reflète un compromis entre la résolution spatiale et l'incertitude statistique. La sensibilité d'une carte de lentille gravitationnelle faible dépend également de la géométrie. À l'instar d'une loupe qui fonctionne mieux lorsqu'elle est placée à mi-chemin entre l'œil et l'objet, le lentille gravitationnelle est plus sensible à la masse située à mi-chemin entre l'observateur et les galaxies sources. Ce comportement est décrit par la fonction d'efficacité de lentille g(z), qui atteint son maximum à des redshifts (distances) inférieurs à la distance des objets typiques en arrière-plan, décrite par la distribution de redshift des sources n(z). La fonction d'efficacité de lentille pour le télescope Webb atteint son maximum à z = 0,38, alors qu’elle est à z = 0,34 pour le télescope Hubble et à z=0,30  pour la caméra Hyper-Suprime (HSC) du télescope Subaru.

Contrairement à la plupart des observables, pour une échelle angulaire fixe dans le ciel, la lentille gravitationnelle faible est insensible à la masse dans l'Univers très proche, car l'efficacité de la lentille tombe à zéro lorsque la lentille se rapproche de l'observateur. Les cartes de lentille gravitationnelle faible précédentes étaient limitées en termes de sensibilité, de résolution et de superficie. Depuis le sol, même les meilleurs télescopes, tels que ceux utilisés dans les relevés HSC, Kilo Degree Survey et Dark Energy Survey, doivent composer avec les effets de flou de l'atmosphère terrestre et ne permettent généralement de distinguer que 7 à 19 galaxies par minute d'arc carrée.

Ces relevés couvrent une grande partie du ciel, mais sont limités par une résolution angulaire grossière et sont principalement sensibles aux structures à faible redshift. Par conséquent, seules les structures les plus massives et les plus étendues, telles que les superamas rares dont la masse peut atteindre 1015 masses solaires (M), apparaissent de manière proéminente sur les cartes de lentille gravitationnelle terrestres. Le télescope Hubble résout les formes d'environ 71 galaxies par minute d'arc carrée, ce qui permet d'obtenir des cartes avec une résolution suffisante d'environ 2,4 minutes d'arc pour commencer à révéler les amas et les caractéristiques filamentaires du réseau cosmique.

L'imagerie haute résolution et profonde du télescope Webb change la donne. Elle permet aujourd’hui de mesurer les effets de lentille gravitationnelle faibles d'un nombre beaucoup plus important de galaxies, et à des redshifts plus élevés qu'auparavant. Cette amélioration se reflète dans la sensibilité relative à l'effet de lentille gravitationnelle, où le JWST surpasse à la fois le HSC et le HST, en particulier à des redshifts élevés.

Scognamiglio et ses collaborateurs ont ainsi mesuré le cisaillement pour 108 galaxies par minute d'arc carrée dans chacune des bandes F115W et F150W de NIRSpec. Le catalogue final est constitué des sources uniques dans chaque bande, ainsi que de celles qui sont communes, pour lesquelles les deux estimations de cisaillement sont moyennées par galaxie, ce qui donne une densité effective de 129 galaxies par minute d'arc carrée. La disponibilité de mesures répétées dans deux bandes permet de réduire le bruit de comptage des photons lors de l'estimation du cisaillement, bien que la source dominante d'incertitude reste le bruit intrinsèque de forme.

Pour l'échantillon de galaxies dont la forme a été mesurée, on a un redshift médian zmed ≈ 1,15. À partir de cet ensemble de données, les chercheurs ont construit une carte détaillée de la masse dans la structure à grande échelle. Les régions plus lumineuses indiquent des lignes de visée avec une convergence de lentille plus élevée, qui est proportionnelle à la densité de matière sombre et lumineuse, multipliée par la fonction de sensibilité g(z) et projetée sur le ciel.

Les astrophysiciens utilisent une technique de filtrage multi-échelle qui identifie les structures à différentes échelles, définies comme des échelles spatiales en unités angulaires, correspondant à des tailles physiques dans le ciel. Cette technique leur permet d'identifier simultanément à la fois les petites caractéristiques, telles que les halos autour des groupes de galaxies de faible masse (~1013−1014 M) ou de grand redshift (z ≈ 1,1), ainsi que les structures filamentaires censées les relier.

La carte de convergence des lentilles gravitationnelles dérivée des données révèle la distribution projetée de la matière totale, sombre et baryonique. 15 amas de galaxies connus précédemment détectés avec XMM-Newton et Chandra grâce à leur émission de rayons X sont tous récupérés avec un rapport signal/bruit de détection supérieur à 3. Cela constitue une amélioration substantielle par rapport aux reconstructions antérieures basées sur les données de Hubble, qui n'avaient détecté que 8 de ces amas.

Au-delà des pics isolés, la carte de convergence basée sur les données de Webb révèle un réseau de caractéristiques étendues et de faible amplitude, qui relient les surdensités à l'échelle des amas. Ces structures retracent probablement les filaments de matière noire du réseau cosmique, trop diffus pour émettre un rayonnement X significatif ou héberger de grandes surdensités de galaxies. Leur détection est conforme aux prédictions de l'effondrement gravitationnel dans le modèle ΛCDM et reflète la sensibilité accrue de Webb aux composants diffus du champ de matière qui n'étaient pas résolus auparavant par Hubble. La comparaison avec les cartes de signification des surdensités de rayons X et de galaxies illustre le couplage entre la matière noire, le gaz chaud et les galaxies lumineuses.

Si certains pics de lentille gravitationnelle faible coïncident avec des régions à forte intensité de rayons X et à surdensité galactique significative, Scognamiglio  et ses collaborateurs identifient également des pics de masse sans contrepartie claire dans l'émission de rayons X projetée ou la distribution galactique, par exemple aux coordonnées (AD, déc) (150,21°, 2,06°) et (150,32°, 2,28°). Ces caractéristiques peuvent provenir de structures sous-lumineuses ou dominées par la matière noire, d'effets de projection provenant de multiples systèmes alignés le long de la ligne de visée, ou bien de concentrations de masse à des redshifts qui ne sont pas capturés de manière optimale par la pondération de la densité galactique.

Par rapport à Hubble, Webb offre une amélioration d'environ deux fois supérieure en termes de résolution angulaire, de densité des galaxies sources et de nombre de détections significatives de structures de lentille gravitationnelle. À z ≳ 0,7, la sensibilité de Webb en matière de lentille gravitationnelle dépasse celle de Hubble d'un facteur deux, et celle des principales études terrestres d'un facteur 10. Les structures à grande échelle de la matière noire et baryonique apparaissent  alignées conformément aux prévisions théoriques, et Webb permet de les révéler avec beaucoup plus de détails, s'étendant à des régions de faible densité et à des régimes de redshift plus élevés. Cette carte fournit une vue détaillée de l'échafaudage de matière noire qui sous-tend la formation des galaxies et sert de base à de futures études sur la structure cosmique, la rétroaction et l'évolution du champ de matière au fil du temps.

À l'avenir, la sensibilité accrue de Webb pour des redshifts 1 ≲ z ≲ 2 permettra des reconstructions tomographiques des environnements de matière noire des galaxies pendant le midi cosmique, l'époque où la formation stellaire atteint son apogée. De telles mesures, qui n'ont pas été tentées dans le cadre de cette étude, permettraient d'établir un lien direct entre la structure à grande échelle et l'évolution des galaxies, y compris les effets de la rétroaction des noyaux galactiques actifs, du refroidissement du gaz et de l'assemblage de la matière noire.

 

Source

An ultra-high-resolution map of (dark) matter

Diana Scognamiglio et al.

Nature Astroinomy (26 january 2026)

https://doi.org/10.1038/s41550-025-02763-9


Illustrations

1. Cartographie de la matière noire dans la zone étudiée (Scognamiglio et al.)

2. Cartographie de la matière noire dans la zone étudiée, en contours de densité (Scognamiglio et al.)

3. Diana Scognamiglio 

25/01/26

Solar Orbiter dévoile le processus de la naissance d'une éruption solaire majeure


La sonde Solar Orbiter de l'ESA a permis de découvrir qu'une éruption solaire est déclenchée par des perturbations initialement faibles qui s'intensifient rapidement. Un ensemble inédit d'observations réalisées grâce au travail complémentaire de quatre instruments de la sonde offrent l'image la plus complète jamais obtenue d'une éruption solaire. L'étude est parue dans Astronomy&Astrophysics.

Les éruptions solaires sont de puissantes explosions qui apparaissent à la surface du Soleil. Elles se produisent lorsque l'énergie stockée dans des champs magnétiques enchevêtrés est soudainement libérée par un processus appelé « reconnexion ». En quelques minutes, des lignes de champ magnétique entrecroisées de directions opposées se rompent puis se reconnectent. Ces lignes de champ nouvellement reconnectées peuvent rapidement chauffer et accélérer du plasma à des millions de degrés, et accélérer des particules à haute énergie, loin du site de reconnexion. Mais les mécanismes précis de la libération si rapide de cette quantité colossale d'énergie restaient jusqu'alors mal compris.

Presque toutes les grandes éruptions solaires (c’est-à-dire les événements de classe M et X, avec des flux de rayons X mous > 10⁻⁵ W m⁻² ) sont causées par une déstabilisation catastrophique d’un filament – ​​un tube de flux magnétique très torsadé et finement structuré, composé de gaz chromosphérique plus froid et plus dense, dans la couronne plus chaude et moins dense, à des températures de l’ordre du million de kelvins. On pense également que de telles éruptions de filaments provoquent des éruptions stellaires (Namekata et al. 2021). Mais les processus qui déstabilisent le tube de flux et les mécanismes de libération d'énergie magnétique au début d'une éruption solaire font l'objet d'un débat de longue date. Parmi les modèles importants figurent les processus magnétohydrodynamiques (MHD) tels que les instabilités de type "kink et tore" (Hood & Priest 1979 ;Török et al. 2004 ;Kliem & Török 2006 ), l'évasion magnétique (Antiochos et al. 1999 ), ou un processus dit de "coupe de la corde" (Moore et al. 2001).

Tous ces processus impliquent nécessairement une reconnexion à un stade donné de l'évolution de l'éruption, au cours de laquelle l'énergie magnétique est libérée et convertie en d'autres formes. Des observations antérieures en micro-ondes d'une grande éruption solaire ont révélé une décroissance rapide du champ magnétique coronal (d'environ 5 Gauss par seconde), que l'on suppose être causée par une diffusion magnétique turbulente. En raison des échelles spatiales intrinsèquement petites de quelques centaines de kilomètres et des échelles de temps rapides de quelques secondes sur lesquelles les processus magnétiques impulsifs sont observés dans la couronne, des observations coronales à haute résolution (spatiale et temporelle) sont cruciales pour capturer la dynamique magnétique, telle que tracée par les structures du plasma, et pour étudier divers aspects du processus d'éruption.

Lakshmi Pradeep Chitta (Institut Max Planck pour la recherche sur le système solaire) et ses collaborateurs rapportent aujourd'hui des observations coronales à haute résolution d'une éruption qui ont été réalisées par la mission Solar Orbiter. Ces observations de l'éruption solaire majeure de classe M7.7 datant du 30 septembre 2024 révèlent des événements de reconnexion magnétique sur des échelles de temps de quelques secondes tout au plus. Leurs observations dévoilent le moteur principal d'une éruption et soulignent le rôle crucial d'un mécanisme de libération d'énergie magnétique en avalanche.

Les images à haute résolution de l'instrument EUI (Extreme Ultraviolet Imager) de la sonde Solar Orbiter ont en effet permis de zoomer sur des structures de quelques centaines de kilomètres de diamètre seulement dans la couronne solaire, l'atmosphère externe du Soleil , et de capturer des changements toutes les deux secondes. Trois autres instruments – SPICE, STIX et PHI – ont analysé différentes profondeurs et régimes de température, de la couronne jusqu'à la surface visible du Soleil (ou photosphère). Ces observations ont notamment permis aux chercheurs d'observer la progression des événements qui ont conduit à l'éruption solaire qui a commencé aux alentours de 23h47 en temps universel (UT) ce 30 septembre 2024, sur une période d'environ 40 minutes.

Chitta et ses collaborateurs ont eu la chance inouïe d'observer les prémices de cette éruption solaire avec une si grande précision. Des observations aussi détaillées et à haute cadence d'une éruption ne sont généralement pas possibles, en raison des fenêtres d'observation limitées et de l'espace mémoire considérable que ces données occupent sur l'ordinateur de bord de la sonde. 

Cet ensemble inédit d'observations d'une éruption solaire de magnitude 7,7 par Solar Orbiter révèle une image complète du mécanisme central des phases de pré-éruption et d'impulsion, sous la forme d'une avalanche magnétique. Les chercheurs montrent que l'accélération des particules non thermiques est étroitement liée à la reconnexion magnétique au sein même du filament de flux magnétique. Dans la basse atmosphère, les signatures du transport d'énergie se manifestent par des amas de plasma qui se produisent en "pluie" sur une longue période, avant même la phase d'impulsion de l'éruption.

Selon les chercheurs, la combinaison de l'émergence d'un flux magnétique à travers l'atmosphère, de sa convergence et de son annulation près de la ligne d'inversion de polarité, couplée à des mouvements de cisaillement de surface, charge l'énergie magnétique dans un tube de flux magnétique contenant un filament, qui est finalement libéré sous forme d'éruption solaire par une instabilité. Et ces processus sont étroitement régis par des mouvements convectifs qui évoluent sur des échelles de temps de l'ordre de 10 minutes. Bien qu'ils ne puissent pas déterminer la distribution de la libération d'énergie magnétique au fil du temps (en raison du manque d'observations du champ magnétique coronal), ces nouvelles observations suggèrent que la reconnexion progresse sur des échelles de temps aussi courtes que 2 s.

En raison de l'important décalage temporel entre la convection de surface et la reconnexion atmosphérique, le moteur photosphérique et la région d'éruption coronale sont dynamiquement découplés. Malgré cela, les observations en UV et rayons X révèlent une progression claire des événements de reconnexion, initialement faibles, vers des événements progressivement plus énergétiques. Cette progression se manifeste également dans le tube de flux contenant le filament lui-même, où les signatures de reconnexion s'amorcent entre quelques brins vers 23h46 TU et se propagent rapidement à l'ensemble du filament en l'espace de deux minutes. Chitta et son équipe suggèrent donc que la libération d'énergie magnétique se produit par un processus de type "avalanche", et les observations montrent que ce processus est capable de générer un chauffage du plasma sur une large gamme de températures.

Des concepts simples d'avalanche ont déjà été invoqués pour expliquer la distribution statistique en loi de puissance des flux X d'un grand nombre d'éruptions. Un modèle MHD complet du comportement en avalanche montre comment l'instabilité et la reconnexion d'un filament magnétique (c'est-à-dire un minuscule tube de flux élémentaire) pourraient rendre instables les filaments voisins dans une avalanche MHD (Hood et al. 2016 ;Reid et al. 2023). Les observations de Chitta et al. sont cohérentes avec ce scénario. Elles révèlent comment les avalanches de reconnexion, se produisant dans différentes parties du système (le système de boucles complexes et le tube de flux principal en éruption) à différentes étapes, évoluent de manière cohérente pour produire les caractéristiques observées de l'éruption.

Ce mécanisme, mis en évidence par les observations de Solar Orbiter, offre ainsi une explication naturelle à l'universalité de la distribution en loi de puissance de l'énergie des éruptions dans les étoiles de la séquence principale. En conclusion, les auteurs suggèrent qu'une telle reconnexion rapide à petite échelle dans et autour du tube de flux éruptif peut également imiter les effets de la diffusion magnétique turbulente qui ont été décrit en 2020 par Fleishman et al.

Source

A magnetic avalanche as the central engine powering a solar flare

L. P. Chitta et al.

Astronomy&Astrophysics Volume 705 (21 January 2026)

https://doi.org/10.1051/0004-6361/202557253


Illustrations

1. L'éruption du 30 septembre 2024 imagée par Solar Orbiter (Chitta et al.)

2. Lakshmi Pradeep Chitta


16/01/26

Galaxies Little Red Dots : des trous noirs supermassifs en formation au sein de cocons de gaz


Depuis la mise en service du télescope spatial Webb, les petits points rouges apparaissant sur ses images intriguent les astrophysiciens du monde entier. On en avait encore parlé ici même fin novembre. Aujourd'hui, une équipe internationale de chercheurs expliquent finalement ce qui se cache dans ces objets : des petits trous noirs supermassifs entourés d’un cocon de gaz ionisé en train de grossir rapidement. L’étude est publiée dans Nature, qui en fait sa couverture cette semaine.

Les « Little Red Dots », comme on les a appelés apparaissent dans les images de Webb à une époque cosmique comprise entre quelques centaines de millions d'années, et un milliard d'années après le Big Bang. On n’en voit plus à une époque plus récente. Certains astrophysiciens ont avancé qu'il s'agissait de galaxies massives, produisant suffisamment d’étoiles pour que le télescope spatial Webb puisse les détecter 13 milliards d'années plus tard. Mais cette théorie ne cadrait pas avec le temps qu'il a fallu à ces galaxies pour évoluer après le Big Bang.

Mais après deux ans d'analyse continue des images contenant les points rouges, les chercheurs du Cosmic Dawn Centre de l'Institut Niels Bohr ont trouvé l'explication : des trous noirs supermassifs en formation. Ces objets présentent des propriétés inhabituelles, telles que des trous noirs surmassifs pour la taille de leurs galaxies hôtes ainsi que des émissions extrêmement faibles de rayons X et radio. Vadim Rusakov (université de Manchester et Institut Niels Bohr) et ses collaborateurs montrent ici que dans la plupart des objets étudiés avec les spectres infra rouge de Webb de la plus haute qualité, les raies sont élargies par la diffusion des électrons, avec un noyau étroit. Les données nécessitent des densités de colonne d'électrons très élevées et des tailles compactes (qui se comptent en jours-lumière). Ces caractéristiques spectrales, associées à la haute luminosité, ne peuvent s'expliquer que par l'accrétion de trous noirs supermassifs à la limite d’Eddington. Les noyaux intrinsèques étroits des raies impliquent des masses de trous noirs comprises entre 100 000 et 10 millions M⊙, ce qui est 100 fois inférieur aux estimations précédentes.

Il s'agit donc des trous noirs supermassifs de masse la plus faible connus à haut redshift. Et cela suggère donc l'existence d'une population de jeunes trous noirs supermassifs. Ils sont enveloppés dans un cocon dense de gaz ionisé produisant de larges raies. L'émission nébulaire provenant de ce cocon domine le spectre optique, expliquant la plupart des caractéristiques spectrales des LRD, y compris la faible émission radio et rayons X, d’après les chercheurs.

C'est ce rayonnement du disque d’accrétion vu à travers le cocon qui donne aux petits points rouges leur couleur rouge unique. Le cocon gazeux à haute densité retraite essentiellement tout le rayonnement du continuum de Lyman provenant de la source centrale, ce qui se traduit par des profondeurs optiques de la raie Lyman extrêmement élevées qui provoquent l'absorption dans les centres de certaines raies de Balmer. La majeure partie du flux ionisant provenant du voisinage proche du trou noir supermassif est donc émise par recombinaison, ce qui implique que l'émission de gaz nébulaire doit être la composante principale des spectres optiques et proche IR de ces sources, donnant lieu aux raies d'émission et aux continuums de Balmer, Paschen et He I, ainsi qu'aux continuums qui déterminent la forme spectrale.

Rusakov et ses collaborateurs notent également que les raies larges sont très symétriques dans tous les cas qu’ils ont enregistrés, contrairement aux quasars de type 1 qui présentent des asymétries des raies de Balmer dans jusqu'à un quart des cas, et que les profondeurs optiques déduites de la diffusion des électrons sont toutes proches de 1. Pour les auteurs, cela suggère trois choses :

(1) Il pourrait exister une population encore plus fortement obscurcie, supprimant l'émission de raies en raison de l'auto-absorption;

(2) La distribution du gaz est proche de la forme sphérique, sans grand angle d'ouverture, sinon la lumière s'échapperait préférentiellement le long des lignes de visée à plus faible densité de colonne et moins de diffusion. L'interprétation la plus évidente de ces faits est que le milieu de diffusion et le milieu d’émission sont plus ou moins le même matériau (quasi sphérique) qui émet et diffuse les raies larges dans ses régions internes.

Avec une densité radiale décroissante, les régions internes produisent beaucoup plus de flux que les régions externes, qui fournissent la majeure partie de l'opacité de diffusion. Cela est possible sans invoquer un rapport raie étroite/raie élargie extrême, comme cela a été récemment suggéré. L'absence de lignes de visée à faible densité de colonne peut s'expliquer par la faible métallicité des AGN à grand redshift, qui peut entraver un refroidissement efficace et donc conduire à un cocon de gaz ionisé plus lisse ;

(3) La physique de la recombinaison peut s'écarter du scénario standard en raison de profondeurs optiques Lyman très élevées, de sorte que des rapports Hα/Hβ élevés n'impliquent pas nécessairement une extinction de la poussière.

Une autre énigme de ces sources était leur faible taux d'accrétion déduit. Les premiers stades de la croissance des trous noirs nécessitent des taux d'accrétion élevés sur de longues périodes pour croître rapidement. Les masses de trous noirs plus faibles qui sont déduites ici résolvent cette énigme. Rusakov et al. calculent un rapport d'Eddington moyen proche de l'unité pour leurs sources notées de A à L, à l'exclusion des objets B et G, en supposant que la raie Hα représente quelques pourcents de la luminosité bolométrique. Comme leur échantillon est susceptible d'être biaisé en faveur des systèmes plus lumineux, ils notent que la majeure partie de la population pourrait se situer dans le régime des trous noirs de masse intermédiaire, avec des taux d'accrétion plus faibles et/ou une extinction de poussière plus importante.

Tous ces éléments permettent d'apporter une réponse à l'énigme des LRD/objets compacts à raies larges qui ont été découverts avec le télescope Webb. Il s'agit intrinsèquement de noyaux galactiques actifs à raies étroites, c'est-à-dire de jeunes trous noirs supermassifs de faible masse (de 105 à 107 M) en phase d'accrétion d'Eddington, et qui sont enfouis dans un épais cocon de gaz. Leurs taux d'accrétion élevés produisent d'abondantes émissions UV qui ionisent leur cocon de gaz et, en même temps, refroidissent et affaiblissent efficacement la couronne, supprimant ainsi leurs rayons X durs. Le gaz ionisé empêche la fuite des ondes radio et des rayons X, tout en retraitant la quasi-totalité du rayonnement Lyman en émission optique nébulaire, produisant les raies de Balmer élargies et les ruptures de continuum qui caractérisent le spectre classique en forme de V. Ce cocon de gaz ionisé à faible métallicité ne s'agglutine pas efficacement et présente une distribution régulière laissant peu de lignes de visée optiquement minces. La distribution des densités de colonne d'électrons et l'absence d'une population similaire d'AGN de faible masse et à forte accrétion suggèrent que nous observons peut-être la croissance globale des trous noirs supermassifs dans la phase où ils sont entourés d'une enveloppe gazeuse dense quasi sphérique, avant que les effets de la métallicité et les vents efficaces n'aient nettoyé leurs régions polaires et ouvert le cocon. La chrysalide donnant alors naissance au papillon quasar…


Source

Little red dots as young supermassive black holes in dense ionized cocoons

V. Rusakov, et al.

Nature volume 649, (14 january 2026)

https://doi.org/10.1038/s41586-025-09900-4


Illustrations

1. Exemple de Little Red Dots imagées par le télescope Webb (NASA JWST/Darach Watson)

2. Couverture de Nature cette semaine

3. Vadim Rusakov


09/01/26

Découverte d'un probable mini-halo de matière noire atypique


Récemment, un objet d'un million de masses solaires a été découvert, associé à un arc gravitationnel étendu et extrêmement fin. Une équipe d'astrophysiciens vient d'effectuer des tests approfondis de diverses hypothèses concernant le profil de densité de masse de cet objet. Il serait composé d'un trou noir central de l'ordre de 1 million de masses solaires entouré d'une distribution de matière noire qui serait tronquée brusquement à un rayon de 139 pc, une structure qui ne ressemble à aucun objet astronomique connu et qui challenge les modèles "classiques" de matière noire froide. L'étude est parue dans Nature Astronomy.

La matière noire représente 85 % de la matière cosmique, mais sa nature demeure inconnue. Le modèle de la matière noire froide (CDM), selon lequel la matière noire est constituée de particules élémentaires massives, non relativistes et sans collisions (sans interactions entre elles), concorde avec de nombreuses observations astrophysiques. Mais il reste largement inexploré à l'échelle subgalactique. Ce modèle prédit notamment que la structure cosmique s'est formée par un processus hiérarchique ascendant. De ce fait, on s'attend à l'existence d'une population importante de halos de matière noire de faible masse (jusqu'à des échelles de masse planétaire). Ces petites structures existeraient à ​​la fois sous forme de sous-halos au sein des halos de galaxies et d'amas massifs et dans le champ cosmique, avec des fonctions de masse et des profils de densité de masse bien caractérisés par de nombreuses simulations numériques. Mesurer le profil de densité et la concentration de masse des halos de matière noire est un test crucial du paradigme standard de la matière noire froide. Ces objets sont difficiles à caractériser, mais ils peuvent être étudiés par lentille gravitationnelle. 

Les modifications du modèle CDM dans lesquelles les particules de matière noire possèdent une vitesse non négligeable aux premiers instants (c’est-à-dire ce qu'on appelle la matière noire chaude, WDM) permettent de prédire un nombre considérablement plus réduit de halos de faible masse, dont les profils de densité de masse sont nettement moins concentrés. Et la réduction du nombre de halos et de leur concentration est directement liée à la masse des particules WDM.

Une autre matière noire a aussi été théorisée depuis de nombreuses années : la matière noire auto-interagissante (SIDM), dans laquelle les particules (inconnues) interagiraient à la fois par la gravité et par d'autres forces, et pourrait ainsi redistribuer l'énergie et la quantité de mouvement au sein des halos, ce qui modifierait leur distribution et créerait des profils de densité plus diversifiés que dans le modèle CDM. Si la section efficace (probabilité) d'auto-interaction est suffisamment élevée, les halos peuvent évoluer vers un profil de densité très concentré en leur centre. Ces objets se forment par un processus de contraction incontrôlée, connu sous le nom d'effondrement du cœur. Ces halos de SIDM peuvent alors être considérablement plus concentrés en leur centre que les halos CDM de même masse. L'effondrement du cœur, dans ce cas, conduit rapidement à la formation d'un trou noir central qui, contrairement aux modèles CDM, ne dépend pas de processus baryoniques complexes et incertains. Par conséquent, la mesure directe du nombre et du profil de densité des halos de matière noire de faible masse (inférieure à 100 millions M⊙) peut permettre de distinguer avec précision les différents modèles de matière noire. Ces objets sont supposés être dominés par la matière noire, et la plupart devraient être totalement sombres. Ils ne peuvent donc être étudiés qu'à l'aide d'une sonde gravitationnelle, telle que le phénomène de lentille gravitationnelle forte.

Le système JVAS B1938+666 comprend une galaxie elliptique massive à un décalage vers le rouge z  = 0,881 qui, par effet de lentille gravitationnelle, dévie une puissante radiosource à un décalage vers le rouge z  = 2,059. Aux longueurs d'onde du proche infrarouge (2,1 μm, dans le référentiel de l'observateur), la galaxie hôte de la radiosource forme un anneau d'Einstein presque complet, au centre duquel un objet sombre de (190 ± 10) millions M⊙ a été détecté grâce à son effet de lentille gravitationnelle. La radiosource qui a été observée à 1,7 GHz (référentiel d'observation) grâce au réseau mondial d'interférométrie à très longue base (VLBI), révéle un arc gravitationnel spectaculaire et très fin qui s'étend sur environ 200 ms d'arc avec une largeur de quelques millisecondes d'arc au maximum. Cet arc est nettement séparé de l'anneau d'Einstein infrarouge sur la voûte céleste.

C'est il y a quelques mois, que Powell et al. ont effectué une analyse d'imagerie gravitationnelle des données à 1,7 GHz, et ont détecté (à 26 σ !) les effets gravitationnels d'un perturbateur dans la lentille gravitationnelle sans contrepartie lumineuse évidente dans les données d'optique adaptative du télescope Keck en proche infrarouge. La masse de l'objet sans contrepartie visible à été estimée à environ 1 million de masses solaires, en supposant qu'il se situe à l'intérieur de la galaxie lentille. Précisons que l’« imagerie gravitationnelle » désigne la technique de modélisation des lentilles gravitationnelles dans laquelle les halos de faible masse sont « imagés » sous forme de corrections pixellisées régularisées du potentiel de lentille. Ce concept a été introduit par Koopmans en 2005. 

Simona Vegetti (Max Planck Institut für Astrophysik) et ses collaborateurs ont cherché à mieux caractériser cet objet sombre massif source perturbatrice de la lentille gravitationnelle, notamment pour savoir si il ne s'agirait pas d'un petit halo de matière noire. 
Les chercheurs ont testé et comparé une grande variété de modèles paramétriques différents pour son profil de densité de masse et son décalage vers le rouge en utilisant l'évidence bayésienne logarithmique (c’est-à-dire le logarithme népérien de la probabilité d’un modèle étant donné les données). Les modèles ont été choisis pour couvrir les candidats les plus probables quant à la nature de cet objet de masse exceptionnellement faible pour une source de lentille gravitationnelle : un noyau compact ou un trou noir, décrit par une masse ponctuelle ; un amas globulaire, décrit par un profil de King ou de Plummer ; un halo ou sous-halo de matière noire, décrit par un profil de Navarro-Frenk-White (NFW) conventionnel, un profil isotherme singulier tronqué ou un profil en loi de puissance brisée ; et enfin une galaxie naine ultra-compacte, décrite par un profil de Sérsic.

Vegetti et ses collègues ont considéré des modèles composites qui superposent une composante centrale non résolue (un trou noir ou un noyau compact) à une composante étendue. Et ils ont aussi comparé des modèles avec le perturbateur à l’intérieur de la lentille (à un décalage vers le rouge de 0,881) avec des modèles où il se trouve à un décalage vers le rouge inconnu le long de la ligne de visée.

Au total, ils ont testé 23 modèles différents. Le modèle présentant le meilleur ajustement à ce qui est observé décrit un objet au décalage vers le rouge de la lentille principale, composé d'une masse ponctuelle et d'un disque uniforme vu de face. Les chercheurs notent que ce modèle présente une coupure nette de la densité surfacique à la limite de 139 pc de rayon, ce qui est difficile à concilier avec les profils des systèmes astrophysiques connus. Cela peut refléter une certaine inadéquation du modèle de lentille principal à ces petites échelles, ou bien un effet de ligne de visée non modélisé qui modifie la brillance de surface de l'arc radio à des échelles supérieures à celle du perturbateur de faible masse. 

L'explication la plus plausible selon eux est celle d'un disque de densité surfacique uniforme, vu de face, de rayon extérieur R  = 139 ± 4 pc, centré sur une composante non résolue contenant 19 % de la masse totale, soit 1,8 ± 0,1 × 10⁶ M⊙ . L' objet central pourrait être un trou noir ou un amas stellaire nucléaire. Dans les modèles CDM et WDM, la formation d'un trou noir au centre des galaxies résulte de processus baryoniques complexes et incertains. 
Dans le régime de masse de la détection, on s'attend à ce que les halos soient dépourvus d'étoiles et bien décrits par un profil NFW unique. Un halo entièrement sombre, présentant des propriétés compatibles avec le modèle d'ajustement optimal, semble donc extrêmement improbable dans les modèles CDM et WDM. Cependant, pour des sections efficaces d'interaction judicieusement choisies, cela pourrait être envisageable dans les modèles de matière noire SIDM, où l'effondrement du cœur peut conduire à la formation de trous noirs au centre des halos de matière noire (comme l'avaient montré Turner et al. en 2021). 
Vegetti et ses collaborateurs ont néanmoins cherché des solutions alternatives plus conventionnelles. 
Tout d'abord, il pourrait s'agir d'une galaxie ultracompacte possédant un trou noir supermassif central ou un amas stellaire nucléaire. Ces galaxies constituent une classe distincte de petits systèmes stellaires denses, dont la masse se situe entre celle des amas globulaires et celle des galaxies naines classiques. Découvertes initialement dans des amas de galaxies proches tels que Fornax et Virgo, elles comptent parmi les galaxies les plus denses connues à ce jour. On pense que les galaxies ultracompactes se forment de diverses manières, notamment par arrachement de matière des galaxies naines dans des environnements denses. Le modèle optimal des chercheurs présente ici une taille et une masse globales compatibles avec celles des galaxies ultracompactes connues et des amas stellaires nucléaires locaux, mais leur distribution radiale de la lumière est nettement plus concentrée au centre que la densité surfacique de masse uniforme qui est privilégiée ici.

JVAS B1938+666 est le troisième objet massif à avoir été imagé individuellement par la gravité à ce jour. Or, ces trois détections présentent des propriétés qui, à différents niveaux statistiques, apparaissent inhabituelles comparées aux halos dominés par la matière noire dans les paradigmes CDM et WDM. L'analyse de Vegetti et ses collaborateurs, combinée à celles des détections précédentes, suggère que si des observations plus profondes confirment que ces objets sont dominés par la matière noire plutôt que par les étoiles, comme c'est le cas pour les galaxies ultracompactes et les amas stellaires nucléaires, alors la matière noire ne peut pas être sans collisions, elle doit interagir avec elle même, a minima. Par conséquent, ces résultats d'aujourd'hui pourraient avoir des implications importantes pour la nature de la matière noire et le modèle cosmologique standard.

Cependant, des travaux numériques et théoriques supplémentaires sont nécessaires pour obtenir des prédictions robustes à partir des modèles SIDM aux échelles spatiales et aux phases d'évolution pertinentes. Il faudra surtout vérifier que les trois détections peuvent être expliquées de manière cohérente par les mêmes paramètres de SIDM, en premier lieu la section efficace d'auto-interaction.


Source

A possible challenge for cold and warm dark matter
Simona Vegetti et al.
Nature Astronomy (5 january 2026)

Illustration

1. Image de  la lentille gravitationnelle JVAS B1938+666. L'objet perturbateur objet de cette étude est désigné par la lettre 𝛎

2. Simona Vegetti

04/01/26

Deux noyaux instables réécrivent les sursauts de rayons X des étoiles à neutrons


Des physiciens de l'Institut de Physique Moderne de l'Académie chinoise des sciences (CAS) ont mesuré directement les masses de deux noyaux atomiques extrêmement instables, le phosphore-26 et le soufre-27 (demi-vies de 43 ms et 15 ms respectivement). Ces mesures de haute précision fournissent des données essentielles au calcul des taux de réactions nucléaires lors des sursauts de rayons X des étoiles à neutrons. Cela permet de mieux comprendre comment les éléments chimiques sont créés dans certains des environnements les plus extrêmes de l'univers. Les résultats de l'étude ont été publiés dans The Astrophysical Journal.

Les sursauts de rayons X de type I sont produits par des explosions thermonucléaires intenses et récurrentes qui sont observées dans toute la galaxie. Ils se produisent généralement dans les systèmes binaires X de faible masse, où une étoile à neutrons dense attire la matière d'une étoile compagne proche. 
L'étoile à neutrons accrète de la matière riche en hydrogène et en hélium provenant de l'étoile donneuse, formant une couche d'accrétion à sa surface. Lorsque la température et la densité de cette couche atteignent certains seuils, une réaction thermonucléaire s'emballe, déclenchant les sursauts de rayons X. Les résidus de la combustion nucléaire restent à la surface et contribuent à la composition chimique de la surface de l'étoile à neutrons, comme l'ont montré Z. Meisel et al. en 2018. Lors des sursauts de rayons X, une série de réactions (p,γ) rapides se produisent, au cours desquelles un nucléide de nombre de masse A  − 1 et de numéro atomique Z  − 1 capture un proton pour former le nucléide ( A , Z ), avec émission de rayons γ. On l'appelle le processus rp. Le facteur Q de cette réaction de capture de proton est égal à l'énergie de séparation du proton du noyau produit, déterminée par la différence de masse des nucléides impliqués : Sp =  M (A-1,  Z-1) +  M (p) −  M (A, Z). Une énergie de séparation du proton faible, voire négative, caractérise les noyaux faiblement liés impliqués dans les réactions (p,γ). Par conséquent, les processus de photodésintégration intenses établissent un équilibre dynamique (p,γ) - (γ,p) entre les isotones. Par exemple, dans des conditions d'équilibre, le rapport d'abondance entre 26P et 27S dépend exponentiellement de Sp et de la température T.
La vitesse de ces réactions et les voies nucléaires prédominantes dépendent donc fortement des masses exactes des noyaux impliqués. De nombreux noyaux impliqués dans le processus rp se situent à proximité de la limite de stabilité protonique, ce qui signifie qu'ils sont extrêmement instables et se désintègrent très rapidement. Du fait de leur courte durée de vie, leurs masses ont souvent été mal connues, voire jamais mesurées. Ce manque de données a rendu difficile la modélisation précise des réactions nucléaires lors des sursauts de rayons X de ce type.

Les physiciens débattent depuis des années de l'importance d'une voie réactionnelle impliquant le phosphore-26 et le soufre-27 dans le processus rp. Cette incertitude provient principalement de mesures de masse manquantes ou imprécises pour ces noyaux. C'est pour résoudre ce problème que l'équipe de Z. Chen a cherché a mesurer directement la masse du phosphore-26 et du soufre-27 par spectrométrie de masse isochrone à rigidité magnétique. Les expériences ont été réalisées sur l'anneau de stockage du Centre de recherche sur les ions lourds de Lanzhou (HIRFL-CSR).

Les excès de masse qu'ils ont déterminés valent 17 437 keV pour le 27S et à 10 997 keV pour le 26P. Ces valeurs donnent une énergie de séparation du proton de 849 ± 26 keV pour le 27S, soit une précision huit fois supérieure à la valeur précédente de 581 ±214 keV. Les mesures révèlent que l'énergie de séparation des protons du soufre-27 est supérieure de 129 à 267 keV aux estimations précédentes. 
À partir de ces valeurs de masse mises à jour, les chercheurs ont pu recalculer le déroulement des réactions nucléaires lors des sursauts de rayons X à la surface des étoiles à neutrons. Chen et ses collaborateurs ont évalué le taux de réaction thermonucléaire 26P(p,γ)27S dans des conditions de sursaut de rayons X. Ce taux est amélioré dans la gamme de températures de 0,4 à 2 GK, atteignant jusqu'à cinq fois le taux précédent à 1 GK. L'incertitude sur le taux de réaction inverse 27S (γ,p) 26P est quant à elle considérablement réduite grâce aux nouveaux résultats de masse de haute précision, passant de plus de dix ordres de grandeur à moins d'un.

De ce fait, les modèles prévoient une plus grande abondance de soufre-27 par rapport au phosphore-26, ce qui indique que la matière nucléaire s'écoule plus efficacement vers le soufre-27 lors de ces explosions stellaires. Ainsi, ces résultats de masse de haute précision et le nouveau taux de réaction correspondant fournissent des données plus fiables pour les réseaux de réactions astrophysiques. Ils résolvent les incertitudes dans les voies de nucléosynthèse au sein de la région phosphore-soufre des sursauts de rayons X.
Théoriquement, le 26P est produit à partir de 25Si par une réaction de capture de proton radiative (p,γ), et le 27S se désintègre quant à lui en 27P par émission béta+, ce qui permet de produire indirectement du 27P à partir du 25Si. Mais la structure résonante du 27S demeure la principale incertitude, faute de données expérimentales. Chen et ses collaborateurs recommandent donc en conclusion que de futures mesures spectroscopiques de haute précision soient effectuées sur le 27S afin d'encore mieux contraindre les modèles théoriques des sursauts de rayons X.


Source

Precision Mass Measurement of 26P and 27S and Their Impact on the 26P(p,γ)27S Reaction in Stellar X-Ray Bursts
Z. Y. Chen, et al.
The Astrophysical Journal, Volume 994, Number 2 (1 december 2025)

Illustration

Vue d'artiste d'un sursaut X d'une étoile à neutrons (Chutterstock).

27/12/25

Nouvelle estimation de l'épaisseur de la croûte de glace d'Europe


Une équipe de chercheurs vient de caractériser l'épaisseur de la glace et la structure du sous-sol d'Europe (lune de Jupiter) grâce au radiomètre micro-ondes de la sonde Juno. Alors qu'on estimait auparavant que cette croute de glace surplombant un océan liquide faisait entre 3 km et 30 km, la valeur trouvée aujourd'hui est dans la fourchette haute : 29 ± 10 km, mais il y aurait des fissures de plusieurs centaines de mètres de profondeur. L'étude est publiée dans Nature Astronomy.

Europe, est aujourd'hui l'une des cibles prioritaires de l'astrobiologie dans le système solaire, du fait de l'existence avérée de son océan liquide salé et de sa relative proximité de la Terre. Les observations de la sonde Galileo avaient révélé de vastes zones de fragmentation de la glace (un terrain chaotique), suggérant la présence de fissures, failles, pores ou bulles sous la surface. Si elles persistent, ces fissures pourraient favoriser l'habitabilité en facilitant le transport de nutriments entre la surface et l'océan. 

Steven Levin (JPL, NASA) et ses collaborateurs ont étudié la surface et la subsurface d'Europe avec la sonde Juno qui orbite toujours avec panache la grande Jupiter en survolant de temps à autre ses satellites les plus intéressants comme Io, Ganymède ou Europe. 

La sonde Juno est en orbite polaire autour de Jupiter depuis 2016, stabilisée par rotation sur elle-même à une vitesse de 2 tours par minute. Le 29 septembre 2022, elle a survolé Europe à une altitude de 360 ​​km. Europe est une cible prioritaire pour les planétologues depuis plus de 40 ans, l'intérêt pour sa potentielle habitabilité s'étant considérablement accru lorsque les mesures de la sonde Galileo ont révélé la présence d'un océan d'eau salée et conductrice sous la croûte de glace, ainsi que des fractures dans la glace de surface. Lors du survol d'Europe par Juno, son radiomètre micro-ondes (MWR), conçu initialement pour observer l'atmosphère profonde de Jupiter, a fourni des mesures spatialement résolues des températures de brillance à différentes profondeurs de la croûte de glace d'Europe.

MWR est un ensemble de six radiomètres fonctionnant à 0,6 GHz, 1,2 GHz, 2,6 GHz, 5,2 GHz, 10 GHz et 22 GHz. Lors du survol d'Europe, MWR a permis de cartographier les émissions thermiques émanant de la croûte de glace à des profondeurs allant de quelques mètres (à 22 GHz) à plusieurs kilomètres (à 0,6 GHz). Ces observations de la température de la glace en fonction de la profondeur mettent en évidence une diffusion dépendant de la fréquence au sein de la glace et contraignent ainsi l'épaisseur de la croûte de glace ainsi que la taille et la profondeur des sources des réflexions observées.

L'ensemble de données comprend 129 mesures dans chacun des six canaux de MWR, obtenues à partir de quatre rotations consécutives de la sonde. Les six cartes MWR obtenues couvrent les latitudes d'environ 10° S à environ 30° N et les longitudes de 60° O à 40° E. MWR a mesuré la température avec une précision absolue supérieure à 2 %. 


Les observations infrarouges indiquent par ailleurs que la région observée à la surface d'Europe présente des températures comprises entre 90 K et 110 K environ, avec une variation diurne d'environ 20 K. Bien que la surface d'Europe soit principalement composée de glace d'eau, on y trouve des traces de sels et d'autres matériaux non glacés, peut-être des composés soufrés, de la glace de CO2, et peut-être des molécules organiques ou des matériaux rocheux. La morphologie de surface et les mesures du champ magnétique suggèrent la présence d'un océan souterrain. Avant Juno, les estimations de l'épaisseur de la calotte glaciaire étaient imprécises, oscillant entre 3 km et 45 km environ. 
La présence d'un océan d'eau sous la calotte glaciaire impose une contrainte sur le gradient de température vertical (l'interface océan-glace doit être à environ 270 K). Une couche de glace convective pourrait exister entre l'océan et la croûte de glace conductrice. Les mesures du gradient de température vertical permettent d'estimer l'épaisseur de la partie conductrice de la croûte de glace, une éventuelle couche convective s'ajoutant à l'épaisseur totale. On suppose en outre qu'une couche de régolithe de glace, d'une profondeur variant de quelques mètres à un kilomètre, contient des fractures et des cavités pouvant atteindre 75 cm de diamètre. L'épaisseur de la croûte de glace et la nature du régolithe limitent les possibilités de communication entre la surface et l'océan, influençant les théories sur l'habitabilité d'Europe .

L'analyse de Levin et ses collaborateurs révèle la présence d'une couche de glace conductrice d'une épaisseur de 29 ± 10 km, en supposant une glace d'eau pure et l'absence de couche de glace convective. L'estimation de l'épaisseur de cette couche dépend crucialement du gradient thermique induit par les différences mesurées entre les canaux à 0,6 GHz et 1,2 GHz. Les impuretés présentes dans la glace, telles que les sels ou d'autres substances, augmenteraient l'opacité aux micro-ondes, réduisant potentiellement la profondeur sondée par tous les canaux et, par conséquent, la différence de profondeur entre les canaux à 0,6 GHz et 1,2 GHz, avec un effet approximativement proportionnel sur l'estimation de l'épaisseur de la couche de glace.
Afin de déterminer l'importance de ce phénomène, les chercheurs utilisent la théorie du milieu effectif pour estimer l'effet de la salinité sous forme d'inclusions et, alternativement, ils estiment l'effet du sel dissous dans le réseau cristallin de la glace en ajustant la partie imaginaire de la constante diélectrique pour tenir compte de la contribution du chlore à la conductivité. Une glace marine présentant une salinité de 60 μM Cl⁻ ( environ 2,3 mg kg⁻¹ ) , comme suggéré par Blankenship et al., n'a que très peu d'effet sur l'analyse de Levin et ses collègues. Une salinité de la calotte glaciaire de 15 mg kg⁻¹ , qui avait été estimée par Steinbrugge et al. , si elle était globale, réduirait la profondeur de sondage à 0,6 GHz d'environ 17 % (soit environ 5 km) si les ions sont dissous dans le réseau cristallin de la glace, ou d'environ 4 % s'ils sont présents sous forme d'inclusions. Levin et ses collaborateurs précisent que des niveaux de salinité plus élevés, ainsi qu'une dépendance de leur effet sur l'opacité à la température, pourraient avoir un impact plus important, bien que certains sels de sulfate hydratés aient peu d'effet sur l'atténuation des micro- ondes.
Pour affecter les basses fréquences et diminuer l'estimation de l'épaisseur de la couche de glace conductrice, les impuretés devraient être suffisamment répandues pour impacter la majeure partie des données MWR et suffisamment profondes pour modifier sensiblement la contribution du canal à 0,6 GHz. La modélisation présentée ici, qui suppose une glace pure, prédit une contribution de 50 % au canal à 0,6 GHz à 14 km de profondeur. Les impuretés induisant une dépendance différente à la température de la glace modifieraient également la concordance entre les données et le modèle en changeant la pente modélisée. Une analyse plus poussée de cet effet pourrait permettre de mieux contraindre le degré d'impuretés et, par conséquent, les propriétés de la couche de glace.

En tous cas, l'estimation de l'épaisseur de la croûte de glace d'Europe se situe dans la partie supérieure des estimations publiées précédemment, mais elle reste physiquement plausible. Le flux de chaleur dans le modèle de Levin et al., correspondant à une croûte conductrice de 19 à 39 km d'épaisseur, varie de 15 mW m-2 à 35 mW m-2. Ce flux de chaleur est supérieur à celui attendu pour une contribution radiogénique chondritique seule (~10 mW m-2) et il est cohérent avec les estimations prenant en compte le chauffage par effet de marée dans la croûte de glace d'Europe.
Les modèles de dissipation des marées prévoient également des variations importantes de l'épaisseur de la croûte de glace en fonction de la latitude et de la longitude, des variations que le modèle de Levin et al. ne prend pas en compte. Mais aucune preuve topographique isostatique n'a confirmé cette variation d'épaisseur prédite, et il a été avancé que le transport de chaleur océanique pourrait quasiment éliminer ces variations d'épaisseur de la croûte sur Europe.

Les planétologues constatent également que le régolithe présente une distribution de diffuseurs dont la densité diminue avec la puissance quatrième de la taille des pores et avec une hauteur d'échelle d'environ 220 m. Ils interprètent ces centres diffuseurs comme des pores dans la glace, mais ils n'excluent pas la possibilité qu'il s'agisse de fissures ou d'inclusions salines, qui donneraient des résultats similaires. Si la glace est suffisamment impure pour être sensiblement plus opaque que la glace pure, alors la distribution verticale des diffuseurs doit être moins profonde. La variation latérale des diffuseurs s'étend sur au moins quelques mètres de profondeur, mais n'est pas observée dans les canaux les plus profonds.
Pour les chercheurs, en raison de leur faible fraction volumique, de leur faible profondeur par rapport à celle de l'océan et de leur petite taille, les pores, vides ou fractures mis en évidence par ces résultats ne constitueraient probablement pas, à eux seuls, une voie d'apport de nutriments à l'océan ni un moyen de communication entre l'océan et la surface.

Les données exploitées ici n'excluent pas d'autres sources liées aux régions actives ou aux impacts sur Europe, ni la possibilité que les pores les plus fins, indétectables par les fréquences de sondage les plus profondes de MWR, ne décroissent pas de façon exponentielle mais se prolongent en profondeur. Pour conclure, les chercheurs rappellent que ces résultats se limitent aux terrains observés et qu'une cartographie plus poussée de la surface d'Europe par radiométrie ou radar pourrait révéler des régions où la couche de glace est plus mince ou plus épaisse, ou encore présenter des variations de régolithe non observées.


Source

Europa’s ice thickness and subsurface structure characterized by the Juno microwave radiometer
S. M. Levin et al.
Nature Astronomy (17 december 2025)

Illustrations

1. Europe imagée par Juno lors de son survol du 29 septembre 2022 (NASA)
2. Données MWR pour chaque canal de fréquence, superposées sur une carte d'Europe (Levin et al.)
2. Steven Levin