Cette image produite par le télescope spatial Hubble dans différentes longueurs d'ondes (visible et UV) montre la galaxie spirale Messier 94 (M94) qui est située dans la constellation des Chiens de Chasse, à une distance de 16 millions d'années-lumière.
On peut voir nettement une sorte d'anneau brillant dans lequel sont présentes un très grand nombre d'étoiles très jeunes et où se forment de toutes nouvelles étoiles à un taux très soutenu. Cette structure est appelée par les astronomes un anneau de bouffées d'étoiles (starburst ring).
Cette forme si particulière serait le produit d'une onde de pression venant du centre de la galaxie et se propageant vers l'extérieur. Cette onde de pression provoque une compression du gaz et des poussières dans les régions externes, et cette compression induit l'effondrement du gaz en nuages denses, qui sont propices à l'apparition de zones de gaz et poussières encore plus denses et chaudes qui sont ce qu'on appelle alors des étoiles...
Il n'aura fallu qu'un peu plus de 24 heures pour que les images brutes soient diffusées par la NASA... La sonde Cassini en orbite autour de Saturne a effectué un nouveau survol du satellite glacé Encelade hier matin, un survol de son pôle Nord à une altitude de 1839 km, afin de déceler d'éventuels phénomènes tectoniques comme ceux que Cassini avait observé à son pôle sud.
En attendant le prochain survol de Encelade prévu dans deux semaines au niveau des geysers de vapeur de son pôle sud à seulement 49 km d'altitude (!), laissez vous emporter par ce monde étrange de glace fracturée creusée de cratères et de fissures sous lesquels gît, profondément enfoui, un océan d'eau chaude...
Crédit images (images brutes) : NASA/JPL-Caltech/Space Science Institute
C'est une étude qui vient de le démontrer : les galaxies spirales sont très souvent entourées par un vaste halo qui émet des ondes radio. Ce vaste "halo radio" serait formé par des particules chargées et des champs magnétiques et était jusqu'alors invisible.
C'est en étudiant les émissions dans les longueurs d'ondes radio d'un échantillon de 35 galaxies spirales vues par la tranche que l'équipe internationale d'astrophysiciens du projet CHANG ES (Continuum Halos in Nearby Galaxies, and EVLA Survey) ont réussi à mettre en évidence la présence quasi systématique d'une vaste région formant un halo radio de part et d'autre du plan des disques galactiques. Les 35 galaxies étudiées sont des galaxies proches, réparties à des distances comprises entre 11 millions et 137 millions d'années-lumière. Elles ont été étudiées grâce au radiotélescope Karl Jansky Very Large Array dans deux bandes spectrales radio, autour de 1,5 GHz et autour de 6 GHz.
Visualisation de l'étendue du halo radio observé autour de la galaxie NGC 5775 (Jayanne English (U. Manitoba), Judith Irwin Theresa Wiegert (Queen’s U.) NRAO/AUI/NSF; NASA/STScI)
Après avoir traité 30 images radio sur les 35, les chercheurs montrent la présence sans équivoque de ces vastes étendues d'émission radio de part et d'autre des disques galactiques. De telles émissions radio peuvent être le produit de charges électriques en mouvement dans des champs électromagnétiques, typiquement des rayons cosmiques, proton, électrons ou noyaux d'atomes. On savait que de tels halos pouvaient exister mais ce que l'on ignorait jusqu'à aujourd'hui, c'est leur quasi omniprésence autour des galaxies spirales.
Les galaxies spirales, comme notre Voie lactée ont leur majorité d'étoiles, de gaz et de poussières regroupés dans un disque plat en rotation, avec des bras en forme de spirale, et la très grande majorité de la lumière et des ondes radio que nous observons proviennent d'objets qui sont situés dans ce disque. Il a toujours été difficile d'entrevoir ce qui se passe au dessus et en dessous de ce disque de matière.
L'étude du "halo radio" peut maintenant apporter de nombreuses informations sur bon nombre de phénomènes, à commencer par le taux de formation d'étoiles dans le disque ou encore les vents de particules produits par les explosions d'étoiles ou bien l'origine des champs magnétiques des galaxies.
Car l'implication importante de cette observation est que l'on peut voir maintenant comment les rayons cosmiques et les champs magnétiques non seulement débordent du disque galactique mais à quel point ils s'étendent loin du plan de rotation.
Ces résultats qui sont entièrement partagés avec la communauté astrophysique dans leurs moindres détails (l'article paru dans Astronomical Journal fait la bagatelle de 70 pages...), ce qui est une spécificité du projet CHANG ES, devraient être bientôt suivis par de nouveaux résultats en cours d'analyse par la même équipe sur d'autres échantillons de galaxies...
Source :
CHANG-ES IV: Radio continuum emission of 35 edge-on galaxies observed with the Karl G. Jansky Very Large Array in D-configuration
T. Wiegert et al.,
The Astronomical Journal, Volume 150, Issue 3 (2015)
Quelque chose ne tourne pas rond dans le modèle standard de la cosmologie actuel, le modèle que l'on nomme LambdaCDM, qui considère que l'Univers est en expansion accélérée et contient 26% de matière noire. Quelque chose ne tourne pas rond et c'est une bonne nouvelle.
Carte du CMB par Planck (ESA)
Une nouvelle étude venant de paraître sous la plume de cosmologistes français vient confirmer une anomalie importante concernant la masse des amas de galaxies. Les amas de galaxies sont des grandes structures cosmiques qui regroupent des dizaines voire des centaines de galaxies. Ils ont pour origine, pense-t-on, les fluctuations de densité qui existaient dans l'Univers primordial, et qui se voient toujours dans le rayonnement fossile du fond diffus cosmologique, exploré en détail ces dernières années par le satellite Planck.
L'étude précise de ces petites fluctuations que l'on voit dans le fond diffus cosmologique (le CMB) permet aux cosmologistes de déduire de nombreux paramètres de l'Univers, et parmi ceux-ci on peut prédire quelle doit être la densité des amas de galaxies, c'est à dire le nombre d'amas de galaxies par unité de volume d'Univers.
Parallèlement à ces prédictions théoriques basées sur des observations du CMB, on parvient à mesurer la densité réelle des amas de galaxie par l'observation. Et il existe plusieurs moyens d'observation pour faire cette mesure. Il se trouve que l'une d'elles peut être effectuée avec le même satellite qui mesure les fluctuations du CMB, mais cette fois-ci, il mesure les perturbations provoquées sur le rayonnement de fond par toutes les grandes structures qui se trouvent en avant-plan.
Le principe utilisé dans cette mesure est fondé sur l'effet Sunyaev-Zel'dovich (souvent raccourcit en effet SZ). Il s'agit du résultat de l'interaction d'électrons de grande énergie sur les photons du CMB par diffusion Compton inverse (les électrons transfèrent une partie de leur énergie aux photons micro-ondes qui gagnent de l'énergie en changeant de direction). L'effet SZ permet ainsi de cartographier la densité des électrons et par là-même les grandes densités de matière, notamment de gaz chaud, qui peuple les amas de galaxie... Et ces amas de galaxies et leur gaz chaud peuvent également être observés plus directement par l'observation en rayons X.
Masses des amas de galaxies nécessaires pour que l’abondance d’amas de galaxie soit compatible avec le modèle cosmologique standard (ΛCDM), en fonction des masses estimées par équilibre hydrostatique à partir des observations en rayons X . La ligne rouge marque l’ajustement des masses et montre que les masses du modèle standard sont 70% supérieures aux masses déduites des observations directes en rayons X (Institut d'Astrophysique Spatiale/CNRS/UPSud)
On a donc d'un côté une prédiction sur le nombre d'amas de galaxies issue de l'observation du CMB et du modèle cosmologique LambdaCDM et de l'autre des observations du nombre d'amas avec deux techniques très différentes.
Pour pouvoir comparer les prédictions et les observations du nombre d'amas, il faut prendre en compte le paramètre de la masse des amas. Or la masse des amas peut être évaluée par des observations en rayons X et a été mesurée dans le passé. Les chercheurs français, à partir des données de Planck sur l'effet SZ et des valeurs de masse acquises par l'observation en rayons X avaient montré en 2014 que le nombre d'amas était beaucoup plus faible que la prédiction issue du modèle LambdaCDM construit à partir du CMB, et pas qu'un peu ! Le nombre d'amas est entre 3 et 4 fois plus faible que ce qui est prédit.
L'équipe française menée par Stéphane Ilic du Centre de Physique Théorique à Marseille (CNRS/Université Aix-Marseille) s'est à nouveau penché sur cette forte tension comme disent les chercheurs pour ne pas employer de termes trop durs. Ils ont donc réévalué la masse des amas à partir des données d'observation en rayons X via la relation température-masse des amas, et ont regardé ensuite comment il faudrait modifier cette valeur de masse pour que, une fois injectée dans le modèle, la prédiction et les observations concordent quant au nombre d'amas observés. La réponse est sans appel : les amas devraient avoir une masse 1,70 fois plus grande que celle qui est mesurée !
Cette conclusion laisse songeur plus d'un astrophysicien et d'un cosmologiste, car elle vient tout a fait conforter l'écart sur le nombre d'amas qui était obtenu en 2014. Et quand on parle de masse ici, y est déjà incluse bien sûr la fameuse matière noire.
Quelque chose ne tourne donc pas rond, soit dans les amas, soit dans le CMB ou soit dans le modèle LambdaCDM. La masse des amas est-elle vraiment sous-estimée à ce point et pourquoi ? La matière noire est-elle encore plus présente dans les amas ? Une nouvelle physique est-elle à l'origine des écarts observés ? Le modèle LambdaCDM cache-t-il une faille importante ?
Une des clés pour tenter de comprendre ce qui cloche sera de mesurer la masse des amas par d'autres méthodes encore différentes, comme par exemple l'effet de lentille gravitationnelle; c'est ce que devrait pouvoir faire le futur télescope Euclid que l'ESA doit lancer aux alentours de 2020. C'est une très bonne nouvelle...
Source :
X-ray galaxy clusters abundance and mass-temperature scaling
S. Ilic, A. Blanchard, M. Douspis,
Astronomy and Astrophysics, 582, A79, (12 october 2015)
Les étoiles que nous appelons étoiles de Population III sont les premières étoiles qui ont été produites dans l'Univers, les étoiles primordiales qui se sont formées dans les galaxies naissantes il y a environ 13,3 milliards d'années. Si elles n'étaient pas trop massives à leur apparition, ces étoiles de Population III devraient encore exister aujourd'hui, dans notre galaxie. Mais on ne les trouve pas. A moins qu'elles ne se cachent subtilement à nos télescopes...
Des simulations cosmologiques de la formation des étoiles de Population III ont montré que la masse de ces étoiles pouvait s'étendre depuis des valeurs très grandes, plusieurs centaines de masses solaires jusqu'à des masses inférieures à celle du soleil (0,8 masse solaire). Alors que les étoiles très massives ont une durée de vie très courte et finissent par exploser et fournir de la matière à la génération suivante d'étoiles (dites de population II), celles qui avaient une masse de l'ordre de 0,8 masse solaire doivent avoir survécu plus de 13 milliards d'années et se retrouver aujourd'hui sous la forme d'étoiles de la séquence principale ou de géantes rouges.
La particularité de ces étoiles de première génération est qu'elles ne doivent pas contenir d'éléments chimiques plus évolués que l'hydrogène et l'hélium. Elles ne doivent pas comporter ni d'oxygène, ni de carbone, ni d'autres éléments plus lourds, ce que les astronomes appellent des métaux. La recherche de telles étoiles dans notre galaxie passe donc par la recherche d'étoiles montrant une absence de métaux. Or on n'en trouve pas, alors qu'elles devraient être là.
Et le milieu interstellaire, milieu qui sépare les étoiles au sein d'une galaxie se trouve pouvoir être riche en métaux, et on sait que les étoiles peuvent absorber une partie de ces gaz interstellaires par le phénomène d'accrétion. Un astrophysicien américain du Los Alamos National Laboratory vient de publier une étude dans laquelle il montre que les étoiles de faible masse peuvent absorber de la matière du milieu interstellaire en "sélectionnant" la matière absorbée, préférant le gaz et rejetant les grains de poussière. Cette sélection a lieu à cause de la pression de radiation exercée par l'étoile, qui a pour effet de repousser les grains de poussière sans pouvoir le faire sur les molécules de gaz.
Jarrett Johnson s'est donc intéressé au cas des étoiles de Population III manquantes et a simulé ce à quoi elles ressembleraient en produisant ce phénomène d'accrétion de matière différentielle. La "signature" qu'il obtient pour ces étoiles, du fait de la forte absence de fer qui est principalement contenu dans les grains de poussières, non absorbés, est une population d'étoiles enrichies en carbone et autres éléments légers (venant du gaz accrété) mais pauvres en fer.
Or, des étoiles avec cette signature chimique existent bel et bien dans notre galaxie ! Elles sont appelées des étoilesCEMP (Carbon-Enhanced Metal-Poor) et ont une origine qui reste pour le moment énigmatique.
Jarret Johnson émet alors l'hypothèse simple que ces étoiles CEMP pourraient en fait être les étoiles de Population III tant recherchées, mais elles seraient polluées chimiquement par l'accrétion différentielle du milieu interstellaire, et on ne les aurait donc tout bonnement pas reconnues...
Johnson conclut son étude avec beaucoup d'humilité en précisant que les étoiles CEMP pourraient avoir d'autres origines par d'autres processus physiques, et que les étoiles de Population III pourraient aussi ne pas produire d'accrétion du tout si elles projettent un vent solaire suffisant pour repousser la matière environnante, ce que font de nombreuses étoiles de faible masse. Mais dans ce cas on devrait les trouver facilement, ce qui n'est pas le cas... Alors son hypothèse apparaît être tout sauf saugrenue. Les premières étoiles de l'Univers sont peut-être là, tout près de nous.
Source :
The chemical signature of surviving Population III stars in the Milky Way
Jarrett L. Johnson
Monthly Notices of the Royal Astronomical Society 453, 2771–2778 (2015)
La NASA a dévoilé la semaine dernière les projets finalistes pour la prochaine mission spatiale du programme Discovery, dotée de 500 millions de dollars. Ils sont cinq, deux sont dédiés à l’étude de Vénus et trois sont orientés vers l’étude d’astéroides. Le (ou les) projets gagnants seront sélectionnés dans un an. Petit tour d’horizon…
Le programme Discovery existe depuis 1996. Ce programme de missions spatiales est dévolu à des missions à relativement bas coût (500 millions de dollars maximum hors coût du lancement). La NASA lance un appel d’offre dans le cadre de ce programme tous les deux à trois ans environ, puis retient trois finalistes, qui obtiennent alors quelques millions de dollars pour peaufiner leur proposition durant un an, puis un projet est finalement sélectionné pour devenir réalité et faire de la science.
On doit notamment au programme Discovery des instruments à grand succès comme le rover martien Mars Pathfinder ou encore les sondes MESSENGER (étude de Mercure) et DAWN (étude de Vesta et Cerès) ou dans un autre domaine le télescope spatial Kepler, chasseur d’exoplanètes. Les deux derniers appels d’offre de Discovery avaient été espacés d’un peu plus de cinq ans (la mission Grail pour l’étude du champ gravitationnel de la Lune, lancée en 2011 et la mission Insight, sélectionnée en 2012 et qui sera lancée vers Mars en 2016 pour en étudier le sous-sol). La NASA, peut-être pour se racheter de ce petit retard, vient de laisser entendre qu’elle pourrait sélectionner deux missions au lieu d’une seule pour la prochaine session du programme Discovery. Cinq projets ont en effet été présélectionnés au lieu des trois habituels, pour des lancements prévus au début des années 2020.
Vénus imagée par la sonde Magellan (NASA/JPL)
Parmi les 27 projets de missions proposés par diverses institutions et universités américaines pour cette session, la grande majorité était dédiée à l’étude de ce qu’on appelle des petits corps. Trois projets proposaient d’étudier les satellites de Mars, quatre souhaitaient mettre en orbite des télescopes pour l’étude d’astéroïdes, onze autres proposaient d’aller visiter de près des comètes ou des astéroïdes, quatre projets ciblaient l’étude de Vénus, deux se focalisaient sur la Lune et un seul s’intéressait à Mars. Deux projets s’aventuraient auprès des planètes géantes : un pour aller visiter le satellite de Jupiter Io et un autre pour étudier de près le satellite de Saturne Encelade. Un critère d’importance pour les propositions de cette année était qu’il fallait exclusivement utiliser une source d’énergie solaire et non un générateur à radio-isotope au plutonium, la NASA étant actuellement très limitée quant à son stock de plutonium 238, préférant garder ses réserves pour des missions d’envergures aux confins du système solaire en attendant la production de nouvelles quantités. Cette contrainte explique sans doute la focalisation des propositions vers des destinations pas trop lointaines.
Parmi les cinq projets présélectionnés, deux prévoient d’étudier Vénus : VERITAS et DAVINCI. VERITAS (Venus Emissivity, Radio Science, inSAR Topography and Spectroscopy) a pour objectif de cartographier la surface de Vénus avec un radar et notamment de mettre en évidence la présence de volcans actifs. DAVINCI (Deep Atmosphere Venus Investigation of Noble gases, Chemistry, and Imaging) a pour objet d’envoyer une sonde dans l’atmosphère vénusienne et d’analyser sa composition durant sa descente, qui durerait exactement 63 minutes. Elle permettrait également d’imager la surface de Vénus. Lori Glaze, responsable du projet DAVINCI, et planétologue au Goddard Space Flight Center se réjouit : « Cela envoie le message très positif qu’il est temps de retourner sur Vénus ». Les scientifiques américains n’ont en effet pas visité Vénus depuis plus de 20 ans, depuis la fin de la mission Magellan en 1994. Le projet VERITAS est dirigé par une autre femme, Suzanne Smrekar du Jet Propulsion Laboratory à Pasadena. Son outil principal, un radar, permettra aux chercheurs de voir la surface de Vénus à travers ses très épais nuages de dioxyde de soufre et de dioxyde de carbone avec une résolution bien meilleure que celle qu’avait obtenue la sonde Magellan. L’objectif est de déterminer s’il existe des volcans actifs sur Vénus, qui sont suspectés de produire des changements atmosphériques importants. DAVINCI prévoit quant à lui de larguer dans l’atmosphère vénusienne une sphère métallique bourrée de capteurs, qui analysera en temps réel son environnement en envoyant ses données à un module resté en orbite qui transférera les données vers la Terre. Cette sonde devrait fournir des images de la surface de Vénus, les premières images réelles de la surface depuis celles acquises par les atterrisseurs Venera dans les années 1970. La sonde viserait une région de Vénus montrant des terrains accidentés, appelés Tesserae, zones mystérieuses suspectées d’être d’anciens continents.
Concept de la sonde Psyche (JPL/Corby Waste)
Les trois autres finalistes sont tous dédiés à l’étude des astéroïdes, montrant par là le fort intérêt de la NASA pour ces petits corps. La NASA rappelons-le a été mandatée par le Congrès américain en 2005 pour identifier 90% des objets de plus de 140 m d’ici à 2020. Nul doute que la NASA va profiter de ces propositions de missions pour se rapprocher de son objectif, car pour le moment encore très loin de sa cible. Le projet Psyche vise à explorer l’astéroïde du même nom, qui possèderait la particularité d’être composé presque exclusivement de fer et de nickel, et pourrait être un résidu de cœur de planète avec probablement un fort champ magnétique, faisant de lui un gros aimant… Lancé en 2020, la sonde arriverait à destination en 2026. Le projet Lucy, prévoit lui d’explorer pas moins de cinq astéroïdes de type Trojans (situés sur l’orbite de Jupiter) en 2027 pour en déterminer la composition que l’on estime être très primitive. Enfin, le projet NEOCam (Near Earth Object Camera), peut-être le plus probable gagnant des trois pour la raison évoquée plus haut, est un télescope spatial devant pouvoir découvrir dix fois plus d’objets géo-croiseurs de petite dimension que ce qui est connu aujourd’hui… De par la nature des projets sélectionnés, on peut raisonnablement penser que deux missions du programme Discovery seront lancées au début de la prochaine décennie : l’une vers Vénus, et l’autre pour l’étude des astéroïdes. Un fait marquant de cette présélection est le grand retour des américains sur Vénus, peut-être trop longtemps délaissée au profit de la planète rouge…
Le prix Nobel de Physique vient récompenser cette année la mise en
évidence expérimentale de l’oscillation des neutrinos, une découverte très importante en
physique des particules qui a eu un impact majeur y compris jusqu’en
astrophysique et en cosmologie. Cette découverte implique l’existence d’une
masse – très faible – pour les neutrinos, qui n’était pas prévue dans le modèle
standard des particules il y a à peine vingt ans. Arrêtons-nous un instant sur
l’oscillation des neutrinos : c’est quoi et comment ça marche ?
Tout est parti de ce que les physiciens avaient appelé l’anomalie des neutrinos solaires. Le
pionnier de la mesure des neutrinos, Raymond Davis (nobélisé pour ses travaux
en 2002), avait installé une expérience en 1965 dans la mine de Homestake aux Etats-Unis
pour détecter les neutrinos en provenance du soleil, qui en produit d'énormes quantités dans ses réactions de fusion thermonucléaire. Après plusieurs années de
mesures et de comptages, le flux que Davis mesurait était trois fois inférieur
à celui qu’il aurait dû mesurer si les réactions nucléaires du soleil, sources
de neutrinos, étaient bien comprises.
Longtemps, il fut considéré que quelque chose était erroné dans l’expérience.
Comme elle ne permettait pas de déterminer ni l’énergie ni la direction d’origine
des neutrinos détectés, sa robustesse était mise à mal.
Mais une nouvelle expérience vit le jour dans les années 1980 au Japon
avec un détecteur de très grand volume constitué d’eau pure, capable de
détecter des neutrinos électroniques d’énergie supérieure à 5 MeV, et surtout
capable de déterminer la direction d’incidence des neutrinos détectés. Le
résultat confirma les résultats antérieurs avec un déficit du flux d’un facteur
deux cette fois-ci mais en pouvant montrer qu’il s’agissait bien de neutrinos
solaires.
Puis d’autres expériences, utilisant d’autres types de liquides pour
détecteur (le chlore dans SAGE ou le gallium dans GALLEX) permirent de détecter
des neutrinos solaires de plus basse énergie jusqu’à 0,3 MeV, avec toujours un
déficit par rapport à la théorie, mais cette fois-ci de moins grande envergure,
« seulement » 40% inférieur à la théorie. Comme le modèle du
fonctionnement interne du Soleil était bien établi, notamment par des
observations très différentes fondées sur l’héliosismologie, il devait donc
bien exister une anomalie dans la description des neutrinos et cette anomalie semblait
varier en fonction de leur énergie…
Il faut revenir un instant sur ce que sont les neutrinos. Il existe
trois saveurs de neutrinos qui correspondent aux trois familles de
leptons : les électrons, les muons et les taus. Un neutrino accompagne
toujours un lepton, soit lorsqu’il est produit, ou soit lorsqu’il est
absorbé, par exemple lors de la désintégration béta où est émis un électron accompagné d'un antineutrino (par commodité, les physiciens parlent de neutrinos même s'il s'agit en fait de leur antiparticule l'antineutrino).
Pour être sûr de bien comprendre ces déficits de flux de neutrinos
observés, il fallait pouvoir détecter tous les types de saveurs et pas
seulement une seule comme le faisaient les différentes expériences à l’époque,
même si le soleil ne devait produire théoriquement qu’une seule saveur (les
neutrinos associés aux électrons).
C’est ce que permit l’expérience canadienne SNO dans les années 1990,
qui proposa d’utiliser de l’eau lourde comme détecteur, qui grâce à son
deutérium, ouvrait la voie à la détection des trois saveurs de neutrinos par
trois types d’interactions différentes (la diffusion élastique, qui mesure les
trois flux, le « courant neutre », qui mesure le flux des neutrinos
électroniques seul, et le « courant chargé », qui mesure à nouveau
les trois flux, de manière différente de la diffusion élastique).
Probabilité d'oscillation d'un neutrino électronique.
Les chercheurs de SNO purent ainsi pour la première fois décomposer le
flux de neutrinos en ses trois composantes et résolurent par là même le mystère de
l’anomalie des neutrinos solaires. Les neutrinos électroniques ne faisaient
qu’un tiers du flux total, les deux autres tiers étant composés des deux autres
saveurs. Le flux total était lui en parfait accord avec la théorie de la
structure interne du soleil et de ses réactions nucléaires produisant
uniquement des neutrinos électroniques.
Cette mise en évidence à la fin des années 1990 fut un coup de tonnerre puisqu’elle prouvait
que les neutrinos pouvaient changer de saveur durant leur trajet entre le
Soleil et la Terre. Ils oscillaient d’une saveur à une autre.
Une telle oscillation entre saveurs est rendue théoriquement possible
si on considère qu’un neutrino est une particule qui existe sous trois états de saveurs et trois
états de masse, mais qui ne coïncident pas. Un neutrino est une superposition
de trois états de masse différents (mais de masses très petites et très
proches), c’est une combinaison linéaire de ces trois états. Lorsque le
neutrino se meut, la phase entre les états de masse change, ce qui induit un
changement de saveur.
Dans le cas simple où il n’y aurait que deux états de masse possibles,
la probabilité de partir avec une saveur donnée nx et de
mesurer la seconde saveur ny après une distance parcourue L (exprimée
en km) avec une énergie E (exprimée en GeV) est donnée par l’expression :
P(nx -> ny) = sin²(2Q)sin²(1,27.Dm².L/E)
Cette
probabilité d'oscillation dépend ainsi de trois paramètres :
-Q : l’angle de mélange, qui définit comment
les états de masse diffèrent des états de saveur. L’oscillation est maximale
quand Q = p/4et inexistante quand Q = 0.
- Dm² :
la différence des carrés des masses des différents états. Il y a autant d’états
de masse que d’états de saveurs. Ce
paramètre est crucial. Il dit simplement que si les neutrinos oscillent, cela
signifie qu’au moins l’une des saveurs à une masse non nulle et que leurs
masses doivent être différentes. Si Dm² =0,
la probabilité s’annule.
- L/E : ce paramètre est le seul que les physiciens peuvent
contrôler lorsqu’ils font des expériences d’oscillométrie des neutrinos. Il
indique que la probabilité d’oscillation dépend de la distance parcourue par le
neutrino et de son énergie. Plus l’énergie est faible et plus la distance
nécessaire pour voir une oscillation sera réduite. La probabilité d’oscillation
est maximale quand
L/E = p/(2,54.Dm²)
Dans le cas réel où il y a trois saveurs et non deux, l’expression de
la probabilité d’oscillation est un peu plus compliquée :
Avec cinq paramètres : deux différences de masses au carré Dm²12
et Dm²23
et trois angles de mélange entre les trois états de masse : Q12 , Q23 et Q13.
Depuis
les résultats pionniers de SuperKamiokande et de SNO qui valent aujourd’hui à
leurs responsables Takaaki Kajita et Arthur McDonald le prix Nobel, l’étude de
l’oscillation des neutrinos s’est largement développée grâce à des mesures
auprès de réacteurs nucléaires ou grâce à la production de faisceaux de
neutrinos détectés à longue distance à travers la croûte terrestre (comme par
exemple entre le CERN et le laboratoire souterrain du Gran Sasso en Italie
(expériences OPERA et ICARUS) ou entre le réacteur de Tokaï et SuperKamiokande
au Japon (expérience T2K), auprès des réacteurs nucléaires chinois de Daya Bay
ou entre l’accélérateur de FermiLab et le laboratoire souterrain de la mine de
Soudan aux Etats-Unis (expérience MINOS)
Ce
que l’on sait aujourd’hui sur les paramètres d’oscillation des neutrinos, à
défaut de pouvoir mesurer leur masse exacte, c’est que deux masses sont proches
l’une de l’autre et la troisième plus éloignée, sans que l’on puisse encore déterminer
de quelle saveur il s’agit ni quelle est la hiérarchie de ces masses.
L’angle de mélange Q13 serait proche de 0mais non
nul,et l’angle Q23 serait proche de p/4.
L’existence
de l’oscillation des neutrinos laisse une porte ouverte notamment sur la
possible existence d’une ou plusieurs familles de neutrinos supplémentaires,
qui oscilleraient de la même façon avec les saveurs déjà connues, et qui
pourraient expliquer notamment une autre anomalie des flux de neutrinos
observée depuis quelques années auprès de réacteurs nucléaires et pourquoi pas
fournir un candidat pour expliquer ou participer à la matière massive et
élusive qu’on appelle matière noire…
Une récente étude (1) a montré que près de la moitié des supernovas de type Ia explosent alors que la masse de l’étoile naine blanche à leur origine n’atteint pas la masse limite déclenchant en théorie l’explosion. Pour tenter d’expliquer cette étonnante population de supernovas, une théorie impliquant de la matière noire à vue le jour, montrant que celle-ci pourrait servir de déclencheur explosif…
La masse limite au-delà de laquelle théoriquement une naine blanche ne peut pas survivre et où doit se produire une explosion thermonucléaire, faisant entièrement disparaître l’étoile est la masse de Chandrasekhar et elle vaut 1,44 masses solaires. Tant qu’une naine blanche n’atteint pas cette masse au cours de son accrétion de matière provenant d’une étoile compagne, elle ne devrait avoir aucune raison d’exploser. Mais une anomalie forte semble exister d’après une étude parue en 2014 (1), dans laquelle des astrophysiciens ont étudié un panel de supernovas proches et montrent qu’entre 25 et 50% d’entre elles n’avaient pas la masse de Chandrasekhar lorsqu’elles ont explosé. Parmi celles-ci, seulement 1% montraient une masse légèrement supérieure à 1,44 masses solaires, les autres avaient une masse comprise entre 1,1 et 1,4 masses solaires.
Les ejecta de l’explosion de la supernova de Tycho (une SN Ia, observée en 1572 par le Danois Tycho Brahe) s’étendent depuis 440 ans pour former cette belle bulle de gaz de 55 années-lumières de diamètre. Sur cette image composite sont visualisés d’une part des rayons X de faible énergie en rouge (correspondant aux débris en expansion) et d’autre part des rayons X de haute énergie en bleu qui montrent l’onde de choc, une coquille d’électrons ultra énergétiques. Credit: rayons X: NASA/CXC/Rutgers/K.Eriksen et al.; Optique: DSS
Pour mesurer quelle était la masse d’une l’étoile dont l’observation de l’explosion a pu être effectuée, les astrophysiciens essayent de reconstruire les morceaux du puzzle qui peuvent encore être observés après l’explosion par des mesures d’abondance de résidus de l’étoile comme les noyaux radioactifs de 56Ni. La courbe de lumière de la supernova peut également donner des indications sur la masse de l’étoile qui a explosé.
Une nouvelle étude qui vient de paraître dans Physical Review Letters tente d’apporter une explication à ces étoiles explosées trop tôt. Le physicien américain Joseph Bramante qui signe seul ces travaux a notamment relevé un fait marquant au sujet de ces supernovas Ia précoces. Il a effectué un classement en traçant la masse des progéniteurs de SN en fonction de leur âge présumé au moment de l’explosion (évalué grâce à la mesure de l’âge des étoiles les plus voisines), et ce que l’on observe avec une très bonne confiance statistique, c’est qu’il y a une corrélation entre l’âge de l’étoile et sa masse au moment de l’explosion. Les étoiles de masse 1,44 masses solaires explosent plus jeunes que celles qui n’ont qu’une masse de 1,1 ou 1,2 masses solaire.
Bramante part de ce constat pour imaginer l’existence d’un processus d’accumulation de matière exotique au sein des étoiles, qui au fil du temps pourrait devenir suffisamment importante pour déclencher une ignition de supernova alors que l’étoile n’avait pas encore la masse requise (nous parlons ici de la masse de matière ordinaire, celle que l’on peut mesurer).
La supernova de type Ia SN 2011fe découverte le 24 août 2011 dans la galaxie M101 de la Grande Ourse (Image B. J. Fulton, Las Cumbres Observatory Global Telescope Network)
Bien évidemment, cette matière exotique ne serait ni plus ni moins qu’une forme de matière noire, des particules exotiques, et pour le coup, dans la théorie de Bramante, très exotiques. Il s’agirait dans ce modèle, de matière noire dite asymétrique, formée de particules très massives, ayant une masse de l’ordre du PeV (pétaélectronvolt), soit 1 million de fois plus massives qu’un proton ou un neutron.
Par leur interaction gravitationnelle elles s’accumuleraient dans le cœur des étoiles naines blanches jusqu’à une densité telle qu’elles pourraient induire un puits de potentiel gravitationnel suffisant pour provoquer un effondrement du cœur puis l’onde de choc caractéristique de ce type de supernova, l’échauffement extrême qui s’en suit, puis la dislocation/dispersion de la matière de l’étoile.
Outre le fait que ce type de matière pourrait être cohérent avec le modèle standard actuel de la cosmologie en fournissant une densité d’énergie de la matière noire conforme aux diverses observations, son processus d’accumulation au sein des étoiles qui est envisagé par Joseph Bramante offre en outre un élément supplémentaire très intéressant puisqu’il permettrait d’expliquer un autre petit mystère, très différent de celui des SN précoces.
Il a été observé depuis de nombreuses années que le centre galactique ne comporte pas autant de pulsars que ce que l’on devrait attendre. Mais comme la densité de matière noire asymétrique devrait être plus importante au centre de la galaxie, cette dernière pourrait alors s’accumuler plus rapidement au cœur des étoiles à neutrons (pulsars). L’auteur calcule que des particules de 1 PeV peuvent tout simplement détruire un pulsar en le transformant non pas en supernova mais en trou noir en l’espace de 100 millions d’années, expliquant ainsi la faible population observée. On ne verrait plus de pulsars car ils seraient devenus des trous noirs.
Dans le centre galactique, avec une densité de matière noire plus importante et avec le processus envisagé, cette matière noire devrait également produire l’explosion de supernovas Ia encore moins massives, et aussi plus jeunes que ce qui a été entrevu dans des zones externes de galaxies. Ces différents effets devraient pouvoir être observables, si tant est que l’on trouve suffisamment de supernovas Ia au centre de galaxies, ce qui n’est pas une mince affaire…
Sources :
(1) R. A. Scalzo, A. J. Ruiter, and S. A. Sim,
The ejected mass distribution of type Ia supernovae: A significant rate of non Chandrasekhar-mass progenitors,
Mon. Not. R. Astron. Soc. 445, 2535 (2014).
(2) Dark Matter Ignition of Type Ia Supernovae
Joseph Bramante
Phys. Rev. Lett. 115, 141301 – (29 September 2015)
Chers Académiciens des Sciences du Royaume de Suède,
Mardi 6 octobre, aura lieu l'annonce du ou des lauréats du Prix Nobel de Physique pour l'année 2015. Mesdames et Messieurs les Académiciens des Sciences de Suède, je sors de ma réserve pour vous proposer, ou vous suggérer, voire vous inciter, pour ne pas dire vous implorer de considérer le cas d'une chercheuse qui mérite amplement de se voir attribuer ce fameux Prix. Je veux parler de madame Vera Rubin, aujourd'hui âgée de 87 ans.
Vera Rubin en 1948 (20 ans) à Vassar College
(Vassar Archive)
J'estime que les travaux de Vera Rubin sur la découverte d'une anomalie majeure de la dynamique des galaxies en 1970 et qui a mené des milliers de physiciens et d'astrophysiciens de par le monde depuis lors à étudier quelle pourrait être la raison d'une telle anomalie, appelée existence de matière noire, est une découverte majeure, au même titre que le fut la découverte de l'anomalie de la vitesse d'expansion cosmique mise à jour par Saul Perlsmutter, Brian Schmidt et Adam Riess en 1998 et pour laquelle vous leur avez décerné le Prix Nobel de Physique en 2011.
Faut-il rappeler que la nature du phénomène à l'origine de cette expansion accélérée de l'Univers, attribuée à une "énergie noire", n'a pourtant encore jamais été déterminé, pas plus que celle à l'origine de l'anomalie de la dynamique des galaxies, la "matière noire", découverte par Vera Rubin, ces deux concepts fondant pourtant le paradigme actuel en astrophysique et en cosmologie? Il est même assez aisé de prédire que l'impact de l'existence d'une matière invisible est plus important sur notre vision de l'Univers que ne pourrait l'être celui de la présence d'une énergie du vide.
Vera Rubin installant un spectrographe sur le 84 pouces du Kitt Peak en 1970 (DTM/Carnegie Institution)
Vous aurez sans doute également remarqué, chers académiciens, que Vera Rubin est une femme. Et nous aurons aussi remarqué, nous, que vous ou vos prédécesseurs, depuis 1901, n'avez décerné le prix Nobel de Physique que deux fois à des femmes : une première fois en 1903 à Marie Curie (pour 1/4 du prix, partagé à la fois avec son époux Pierre Curie et avec Henri Becquerel), puis en 1963 à Maria Goeppert Mayer, à nouveau pour 1/4 du prix, partagé avec deux hommes. Etant donné la valeur des travaux scientifiques de Vera Rubin, rare femme ayant réussi a percer dans le milieu très très masculin (pour ne pas dire plus) de l'astrophysique aux Etats-Unis à la fin des années 1950, et ne pouvant pas croire que vous attendiez 2023 pour décerner un nouveau Nobel de Physique à une représentante de la moitié de l'humanité, fusse pour un quart du prix, vous vous honoreriez à décerner cette année le prix Nobel à cette astrophysicienne hors du commun qui a su convaincre ses pairs par ses travaux extrêmement novateurs à une époque où être une femme était tout sauf une aide dans le monde académique.
Vera Rubin vers 2010 (Michael A. Stecker)
Vera Rubin a suivi ses études a Vassar College dans l'Etat de New York, où elle prit goût à l'astronomie à la fin des années 1940. Elle poursuivit ses études supérieures là où les femmes étaient acceptées, ce fut à Cornell University, où elle eut la chance d'avoir pour professeurs des physiciens de talent, futurs nobélisés (Richard Feynman (1965) ou Hans Bethe (1967)). Elle poursuivit sa thèse de doctorat sous la direction d'un autre physicien déjà nobélisé, George Gamow (1946).
Le résultat de son travail de thèse, en 1954, consacré à l'étude des galaxies, fut déjà révolutionnaire, lorsqu'elle proposa que les galaxies se rassemblaient en vastes amas, un concept qui fut admis seulement vingt ans plus tard par la communauté scientifique. Ce n'est qu'en 1965 que Vera Rubin put être la première femme à pouvoir accéder au télescope du Mont Palomar, jusqu'alors réservé aux hommes...
Mesdames et messieurs les académiciens suédois, si ce n'est pour l'ensemble de ses travaux sur les galaxies, vous vous enorgueilliriez d'offrir le prix Nobel de Physique à Vera Rubin pour ses travaux sans précédents sur l'étude de la rotation des galaxies, qu'elle mena durant toutes les années soixante et soixante-dix et qui la menèrent à imposer observationnellement l'idée de l'existence d'une masse invisible à l'origine des fortes anomalies systématiquement observéessur des milliers de galaxies.
Mesdames et messieurs les académiciens, vous avez attendu seulement 13 ans pour récompenser l'observation d'une anomalie de l'expansion de l'Univers, dont l'origine est totalement inconnue. Qu'attendez-vous pour récompenser l'observation de l'anomalie de la rotation des galaxies, vieille de plus de 45 ans, et de source tout aussi inconnue, mais pourtant fondamentale aujourd'hui en cosmologie ? Qu'attendez-vous donc pour récompenser le travail d'une femme, astrophysicienne ?
Mesdames et messieurs les académiciens, il se fait tard, et si jamais le nom de Vera Rubin ne vous inspirait pas, vous pourriez avantageusement vous tourner vers celui de Jocelyn Bell (72 ans), découvreuse en 1967 du premier pulsar, et dont vous ou vos prédécesseurs avez honteusement attribué la découverte et le prix Nobel en 1974 à celui qui n'était que son directeur de thèse et cosignataire des travaux...
L'annonce de la NASA tant attendue vient de rendre son verdict : de l'eau liquide coulerait à la surface de Mars. Plus exactement dans certains cratères, mais à toutes les latitudes, aussi bien à l'équateur que à des grandes latitudes Cette mise en évidence vient après de nombreux mois de recherche sur des structures mystérieuses qui avaient été observées grâce à Mars Reconnaissance Orbiter et son instrument d'imagerie à très haute résolution HiRISE.
Ecoulements saisonniers sur le cratère Palikir qui indiquent de l'eau salée (HiRISE /NASA)
Ces structures, qu'on appelle en anglais des RSL (Recurrent Slope Linae), sont des sortes de sillons qui paraissent creusés sur les parois de cratères. Et HiRISE a pu montrer en 2011 que ces sillons évoluaient au fil de leur exposition au soleil...
Ils apparaissent à la fin du printemps Martien, grossissent en été puis disparaissent à l'automne.
Plus récemment de nouvelles observations ont été effectuées par spectroscopie avec l'instrument CRISM de MRO et ont permis d'en déduire la nature chimique de ce que semblent bien être ces écoulements.
Les chercheurs sont arrivés finalement à la conclusion que l'explication était que de l'eau provenant de l'atmosphère martienne dissolvait des sels de perchlorates existant dans le sol, produisant une solution aqueuse qui s'épanche alors sur les parois de ces cratères.
Cette solution aqueuse a le bon goût d'être liquide à des températures inférieures à zéro degré, jusqu'à environ -20°.
Bien évidemment, il ne faut pas imaginer des torrents d'eau claire dévalant les pentes de Mars. Il ne s'agit que d'eau très chargée en composés chimiques, très salée, et les chercheurs précisent qu'il n'est pas du tout évident que des microbes puissent survivre dans un tel milieu.
On savait depuis un moment que des traces anciennes d'eau existait sur Mars, notamment sous la formes de roches hydratées, et que Mars avait dû connaitre une époque humide dans son passé lointain, mais le fait qu'aujourd'hui la simple exposition au soleil puisse permettre de dépasser la température de liquéfaction d'une solution aqueuse, faisant ainsi couler des sortes de torrents de boue est une énorme nouvelle pour tous les amoureux de Mars.