samedi 27 septembre 2014

Les Instruments Scientifiques de PHILAE

Philae, vous allez souvent entendre ce nom dans les semaines qui viennent, avec un paroxysme le 12 novembre, date à laquelle cette petite sonde atterrira sur la comète Churyumov-Gerasimenko. Philae est le petit atterrisseur que la sonde Rosetta va envoyer à la surface de la comète au nom imprononçable, autour de laquelle elle s'est mise en orbite à plus de 1 milliard de kilomètres de la Terre. 



Les instruments scientifiques de Philae (ESA).
La raison pour laquelle les planétologues ont décidé de poser une petite sonde sur une comète est simple : on veut savoir de quoi sont faites les comètes, ces objets qui existent depuis le début du système solaire sans avoir trop évolué, qui sont des vestiges de notre système solaire, vieux de plus de 4 milliards d'années. Nous voulons tout savoir sur les comètes, car elles peuvent être comme une pierre de Rosette pour notre compréhension de la formation de notre système solaire, et par extension de tous les systèmes stellaires...

Et Philae est une toute petite sonde de 100 kg à peine, avec un volume un peu plus petit que 1 mètre cube, mais littéralement bourrée de technologie. Car Philae doit analyser la comète Churyumov-Gerasimenko (alias 67P) in situ. Il n'est pas question de rapporter des échantillons, tout doit se faire sur place. Je vous propose de partir à la découverte de tous les instruments high tech emportés par Philae, qui ont été imaginés et développés il y a maintenant plus de 15 ans...
Ces instruments scientifiques sont au nombre de 10 et vont exploiter de nombreux paramètres physiques : la lumière émise, absorbée, et diffusée, la conductivité électrique, le champ magnétique, la chaleur ou encore les ondes acoustiques, pour étudier de nombreuses propriétés de la comète, on peut citer la morphologie et la composition chimique du matériau de surface, la structure interne du noyau cométaire, ou encore les gaz ionisés au dessus de la surface. Philae est en outre muni d'un bras pouvant emporter un instrument, et a la possibilité de pivoter sur lui-même sur 360°.


Listons ces instruments plus en détail : 

Tout d'abord, nous avons deux imageurs : CIVA et ROLIS. CIVA est en fait un ensemble de trois systèmes de caméras, CIVA-P est un système multiple de prises de vues panoramiques, situés tout autour de Philae et permettant de surveiller les alentours de l'atterisseur, notamment dans la phase d'atterrissage. CIVA-M/V est un imageur en trois couleurs ayant une résolution microscoscopique (7 µm), et CIVA-M/I, quant à lui est un imageur infra-rouge qui observera les échantillons avant qu'ils soient envoyés dans les fours de COSAC et PTOLEMY (voir plus loin).
ROLIS, lui, est un imageur unique, il couvre un champ de vue de 57° est est situé à l'aplomb immédiat de Philae. Son objectif est de vérifier ce qui se passe exactement en dessous du module durant sa descente vers la comète. Mais une fois posé, ROLIS continuera à prendre des images de la surface en mode spectroscopique. Et comme il n'est pas situé au centre de l'atterrisseur, il pourra étudier une zone circulaire sous Philae, lorsque ce dernier produira des rotations autour de son axe.

Le détecteur Alpha Proton X-ray Spectrometer (APXS) de Philae
Inst. for Inorganic Chemistry & Analytical Chemistry,
Max-Planck Institute for Chemistry)
Puis, nous avons un instrument incontournable pour toute sonde ayant pour objectif d'analyser un matériau, quel qu'il soit : APXS (Alpha Proton X-ray Spectrometer). Comme son nom l'indique, APXS est un spectromètre qui exploite différents types de rayonnements. Il contient une source radioactive de curium-244, qui est un puissant émetteur alpha. L'émission de rayons alpha vers le sol va permettre de connaitre sa nature en mesurant les rayonnements qui reviennent vers la source d'émission.
Ces rayonnements peuvent être de trois sortes : premièrement des rayons alpha qui se trouvent rétrodiffusés par des noyaux d'atomes possédant à peu près la même masse que le noyau d'hélium (de l'hydrogène au béryllium en gros), deuxièmement des protons, lorsque les rayons alpha interagissent avec des noyaux un peu plus gros, des protons peuvent être éjectés, et être mesurés. Enfin, des rayons X, lorsque les rayons alpha ont ionisés des atomes et que les couches électroniques des atomes en questions se réorganisent en produisant instantanément des rayons X, dont l'énergie particulière est une signature sans équivoque du type d'atome qui lui a donné naissance.

Vient ensuite un instrument peu commun sur les sondes planétaires : CONSERT (COmet Nucleus Sounding Experiment by Radio wave Transmission). Son objectif est de déterminer la structure interne de la comète en mesurant comment se transmettent des ondes radio à travers le noyau cométaire. Des ondes radio sont émises par Philae et reçues par Rosetta en orbite et inversement. L'atténuation des signaux radio est ensuite disséquée par des algorithmes très élaborés et c'est alors la comète qui s'en trouve disséquée...

Parlons ensuite de MUPUS (Multi-Purpose Sensor for Surface and Subsurface Science). MUPUS doit étudier les propriétés mécaniques et thermiques du sol cométaire jusqu'à une profondeur de 30 cm. Pour cela, il est muni d'un pénétrateur qui est une sorte de gros marteau devant taper un gros coup pour enfoncer l'instrumentation composée de thermomètres qui seront situés à différentes profondeurs, et d'un accéléromètre. Au niveau de la surface du sol, MUPUS sera équipé d'un radiométre, sorte de thermomètre pour mesurer la température via le rayonnement infra-rouge.

Il y a un autre instrument sur Philae qui va creuser des trous, c'est SD2 (Sample Drill and Distribution). Son but est de carotter le sol sur une profondeur maximale de 20 cm. Les échantillons prélevés, de quelques millimètres cube seulement, sont ensuite distribués à d'autres instruments pour analyse (notamment COSAC et PTOLEMY). Précisons que les zones à forer par SD2 seront déterminées auparavant par les données issues de ROLIS et APXS. 

COSAC et PTOLEMY, parlons-en, tiens. COSAC, de son vrai nom Cometary Sampling and Composition est ce qu'on appelle un chromatographe en phase gazeuse. Il analyse la nature des atomes ou molécules d'un gaz grâce à un spectromètre de masse, qui trie les molécules par leur masse respective. Il sera très utile notamment pour l'étude des molécules organiques, qui devraient être nombreuses à la surface de 67P (j'utilise son pseudo, pardon).

PTOLEMY, lui, est également un analyseur de gaz, mais dédié principalement à la quantification des isotopes d'un élément donné. Un point essentiel sera l'analyse du carbone contenu dans le comète, et les ratios des isotopes carbone-12, carbone-13 et carbone-14, qui permettront de savoir beaucoup de choses sur l'histoire de la comète.
Ces deux analyseurs ont en commun qu'ils analysent du gaz, ce qui veut dire que les échantillons fournis par SD2 devront au préalable être chauffés dans des petits fours pour en extraire le gaz à analyser.
Les analyseurs COSAC (intégré sur Philae, à gauche) et PTOLEMY (au labo, à droite) (ESA)

SESAME (Surface Electrical Sounding and Acoustic Monitoring Experiment). En fait, sous ce nom unique se cachent trois instruments d'analyse acoustique et électrique. Le premier d'entre eux s'appelle SESAME-CASSE, il est tout à fait original dans le sens où il est positionné sur chacun des pieds de Philae et va émettre et écouter des sons (dans la gamme audible), c'est un peu le chant de Philae. Un pied émet un son et les autres écoutent l'écho de ce son en provenance de l'intérieur de la comète et ainsi de suite à tour de rôle. Mais SESAME-CASSE fonctionnera aussi en mode silencieux, juste à l'écoute des craquements internes de la comète...
Le deuxième élément de SESAME s'appelle SESAME-PP, c'est un instrument visant à mesurer la permittivité électrique du sol cométaire, toujours via les pieds de la sonde.
Le troisième sous-système de SESAME est le SESAME/DIM (Dust Impact Monitor). Son objectif est de mesurer très précisément les grains de poussière venant impacter l'atterrisseur, grâce à un détecteur piézoélectrique. Il pourra compter le nombre de grains de poussière ayant une taille de 1 µm à 6 mm de diamètre, et une vitesse comprise entre 0,025 et 0,25 m/s.

Enfin, nous terminons ce tour de Philae par l'instrument ROMAP (Rosetta Lander Magnetometer and Plasma). ROMAP est là encore un détecteur multiple composé de trois appareils différents : un magnétomètre, qui mesurera très finement le champ magnétique de 67P (si il y en a un), avec une sensibilité de 1 centième de nanotesla. Ensuite, un moniteur de plasma, ROMAP/SPM, qui va mesurer la densité, l'intensité, et la direction des électrons et des particules légères chargées au niveau du sol de la comète. Ce gaz ionisé n'est rien d'autre que le gaz relâché par la comète qui se trouve ionisé par le rayonnement UV du soleil, et qui va former la belle chevelure de la comète à son approche du Soleil. Enfin, ROMAP contient également un capteur de pression, pouvant mesurer une pression de l'ordre de 1 milliardième de la pression atmosphérique...

Tous ces instruments de haute technologie ont été développés spécifiquement pour cette mission, et ont du être adaptés aux contraintes de masse, de taille et de puissance électrique consommée, qui ont été, on s'en doute, extrêmement difficiles à concevoir et mettre en oeuvre. 
L'enjeu est de taille, au delà des planétologues, les scientifiques du monde entier attendent beaucoup des résultats qui seront obtenus grâce aux instruments de Philae. Le 12 novembre prochain sera un jour crucial. Il faut que l'atterrissage de Philae se passe bien...


source:
Rosetta’s Philae Lander: A Swiss Army Knife of Scientific Instruments
T. Reyes 
Universe Today  september 22, 2014

vendredi 26 septembre 2014

De la Pétanque sur Mars !

Curiosity, le rover de la NASA arpentant Mars, vient de trouver que les Martiens aussi jouent à la pétanque... Et ils ont perdu leur cochonnet, d'ailleurs. Il paraît que des bouteilles de Pastaga ont été trouvées à côté mais l'image a été censurée... 
Caillou en forme de boule observé par Curiosity (NASA)
Blague à part, on voit que l'érosion des vents martiens est assez puissante pour polir des gros caillous... Et qu'il n'y a rien d'intéressant sur cette planète aride...

D'un peu plus près, regardez ce beau cochonnet galet, qui n'est peut-être pas si sphérique que l'on pourrait croire : 



mercredi 24 septembre 2014

LUNA, ou l'Astrophysique Nucléaire Souterraine

La connaissance la plus précise des réactions thermonucléaires qui ont lieu au cœur des étoiles est une étape très importante en astrophysique nucléaire : elle permet non seulement d'appréhender au mieux la production d'énergie dans les étoiles, mais aussi leur production de neutrinos et la création des éléments chimiques. 
Pour connaître précisément ces réactions nucléaires, notamment leur section efficace (leur probabilité d’occurrence), rien de tel que de les reproduire sur Terre, et même sous terre...



L'expérience LUNA (Laboratory for Underground Nuclear Astrophysics) est une manip dédiée à de telles mesures de précision en astrophysique nucléaire. Elle est installée au laboratoire souterrain du Gran Sasso (LNGS) en Italie. Elle utilise des accélérateurs de particules pour créer des réactions nucléaires et mesurer leur section efficace. Ces petits accélérateurs sont enfouis dans le souterrain du LNGS pour bénéficier du très bas bruit de fond provenant des rayons cosmiques. En effet, les mesures qu'effectue LUNA doivent être si précises, et le signal étant tellement faible et rare, qu'à la manière de la recherche de particules de matière noire, l'expérience doit être installée dans le fameux tunnel de l'A24 situé auprès de L'Aquila.

L'accélérateur de LUNA et M. Anders du
Helmholtz-Zentrum de Dresden-Rossendorf (HZDR/Anders)
L'un des objectifs les plus ambitieux de l’astrophysique nucléaire est d'expliquer l'origine et l'abondance de tous les éléments chimiques que nous connaissons, et qui prennent naissance dans le cœur des étoiles, dans de multiples réactions thermonucléaires et sous de multiples scénarios possibles, ainsi que dans l'Univers primordial et sa nucléosynthèse du même nom...
Dans les étoiles, tout commence avec l'hydrogène, c'est à dire avec des protons. Le premier  processus de fusion nucléaire consomme 4 protons pour finalement produire un noyau d'hélium, en libérant une énergie de 27 MeV. La combustion nucléaire de l'hydrogène correspond à la phase la plus longue de la vie d'une étoile et est responsable de sa luminosité. Il y a deux voies possibles pour produire un noyau d'hélium à partir de 4 protons, soit par le processus appelé p-p, soit par celui, plus efficace, dit du cycle CNO. D'autres types de processus existent ensuite dans les étoiles de deuxième génération, comme les cycles NeNa ou MgAl.
Vue du hall principal du laboratoire souterrain du Gran Sasso (INFN)
LUNA a utilisé un "petit" accélérateur de 50 kV entre 1992 et 2001 et utilise aujourd'hui une machine un peu plus grosse de 400 kV. Ces accélérateurs permettent de produire des réactions nucléaires entre protons et deutérium par exemple, ou encore entre deux noyaux d'hélium-3, deux réactions fondamentales qui entre en jeu dans le processus p-p. Mais les résultats les plus importants ont sans doute été obtenus par l'étude de la réaction d'un proton sur un noyau d'azote-14, une réaction qui produit un noyau d'oxygène-15 et l'émission d'un photon gamma. Cette réaction a notamment des conséquences sur la production de neutrinos du cycle CNO, ainsi qu'indirectement sur l'âge des amas globulaires.
On peut également citer une autre réaction nucléaire d'importance étudiée par LUNA, la réaction dans laquelle on bombarde de l'hélium-4 sur de l'hélium-3 et qui produit du béryllium-7 et un photon gamma, cruciale pour comprendre la production de lithium lors de la nucléosynthèse primordiale d'une part et la production de neutrinos solaires par le béryllium-7 et le bore-8 d'autre part.

Le point commun de ces expériences, outre qu'elles accélèrent des ions sur des cibles, est qu'elles nécessitent de détecter des rayons gamma de relativement haute énergie, ce qui permet d'en déduire combien il y a effectivement eu de réactions, par rapport au nombre d'ions envoyés, et donc de déterminer la probabilité de la réaction en question (sa section efficace).
Comme je l'ai déjà dit, ces probabilités peuvent être très petites, il y a donc alors peu de rayons gamma produits. Or, des rayons gamma, il y en a partout autour de vous... Ils proviennent de la radioactivité naturelle. Pour s'en débarrasser lorsqu'on est au niveau de la mer, cela peut vite devenir complexe. On utilise des blindages autour des détecteurs de rayonnement, le plus souvent des détecteurs à semi-conducteur au germanium refroidi ou des scintillateurs en germanate de bismuth. Ces blindages vont fortement atténuer ou carrément absorber les photons gamma. Les meilleurs blindages de ce type sont ceux utilisant des matériaux de numéro atomique élevé, le plomb le plus souvent.
Spectre gamma du bruit de fond mesuré à LUNA
(sans blindage plomb en bleu, avec blindage en rouge) (LUNA collab.)

Mais le plomb au niveau de la mer, comme les autres éléments lourds, possède un défaut majeur : lorsqu'il est utilisé sous forme de gros volume (comme ce qui est nécessaire dans les mesures de LUNA), des muons du rayonnement cosmique vont y produire des réactions de spallation, créant des petites gerbes de neutrons. Et ces neutrons à leur tour vont pouvoir produire des réactions de diffusions inélastiques et de capture sur les noyaux d'atome rencontrés, en produisant devinez quoi ? Des rayons gamma... On peut ainsi générer des photons gamma à proximité immédiate d'un détecteur en voulant éliminer les photons gamma venant de plus loin... 
La seule solution pour remédier à cette quadrature du cercle est d'éliminer le flux de muons cosmiques responsable des interactions parasites dans le plomb, et donc d'aller s'enfouir en profondeur sous 1400 mètres de roches, là où le flux de muons est réduit d'un facteur 1 million.
Dans le laboratoire souterrain du Gran Sasso, les détecteurs germanium entourant l'accélérateur de LUNA peuvent être surblindés en plomb sans risque, et ainsi éliminer la quasi totalité de la radioactivité ambiante pour ne détecter que les photons gamma des précieuses petites réactions nucléaires des étoiles qui sont reproduites dans un silence abyssal...

Une évolution de LUNA est d'ores et déjà prévue pour entrer en service en 2018 et déjà les américains et les chinois montrent des velléités de suivre les pas européens innovants de l'astrophysique nucléaire souterraine.


Source :

Nuclear astrophysics and underground accelerators
Alessandra Guglielmetti, for the LUNA collaboration
Physics of the Dark Universe, Volume 4, September 2014

dimanche 21 septembre 2014

Gros Plan sur la Comète

Vous voyez cette montagne enneigée sur fond noir ? Et bien c'est la comète Churyumov-Gerasimenko vue par la sonde Rosetta à seulement 62 km de distance !

Churyumov-Gerasimenko vue par Rosetta à 62 km
ESA / Rosetta / MPS for OSIRIS Team; MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA
La sonde Rosetta poursuit ses approches en orbite de la comète 67P/Churyumov-Gerasimenko notamment pour imager les meilleurs sites d'atterrissage pour le module Philae devant s'y poser en novembre. Cette image date d'il y a environ 10 jours. Le noyau de la comète apparaît très sombre, sa surface reflète seulement quelques pourcents de la lumière du soleil qui l'atteint, équivalent à un morceau de charbon par exemple.

Ce noyau cométaire fait environ 4 km dans sa plus grande longueur. La gravité y est si faible qu'un astronaute qui serait dessus, en sautant, n'y retomberait pas mais se retrouverait à la dérive dans l'espace...

jeudi 18 septembre 2014

AMS-02 se Rapproche de la Matière Noire

Cet après-midi dans le grand auditorium du CERN à Genève, Samuel Ting a présenté les nouveaux résultats de l'expérience AMS-02, ce gros détecteur de particules et antiparticules installé en orbite sur l'ISS.
Les premiers résultats avaient été présentés au mois d'avril 2013 et nous nous en étions fait l'écho ici même



Ces nouveaux résultats qui viennent d'être présentés, et publiés dans la foulée dans Physical Review Letters sont très intéressants. Bien évidemment, aucune découverte majeure n'a été annoncé par le prix Nobel 1976, non, mais une petite découverte qui montre un phénomène vraiment intéressant. AMS-02 détecte des rayons cosmiques de très haute énergie, majoritairement des électrons et leurs antiparticules, les positrons, mais aussi des protons, des antiprotons, et autres petits noyaux chargés. Le paramètre clé pour ce qui nous concerne, nous qui nous intéressons à la matière noire est ce que l'on nomme la fraction de positrons, il s'agit du nombre de positrons détectés par rapport au nombre d'électrons+positrons. C'est un paramètre-clé car si la fraction de positrons (qui est toujours très inférieur à 0,5) augmente en fonction de leur énergie, c'est potentiellement un signe de l'existence de matière noire sous forme de particules massives (très massives, pour le coup). Et c'est justement ce qui était vu en 2013 confirmant des résultats d'autres expériences antérieures mais beaucoup moins précises. 

Fraction de positrons mesurée par AMS-02 avec 10,9 millions de particules (AMS Collaboration)
Les résultats présentés cet après-midi à Genève non seulement confirment les résultats de 2013, mais les affinent  en y apportant plus de précision. 
Sur les 54 milliards de particules détectées par AMS depuis sa mise en service en 2011, 46 milliards ont pu être analysées, parmi lesquelles ont été isolés 10,9 millions d'électrons et positrons (on en avait que 6,8 millions en avril 2013). Et grâce à ce nombre beaucoup plus important de particules, la valeur de la fraction de positrons en fonction de l'énergie peut être tracée avec beaucoup plus de précision. Et voilà cette petite découverte majeure dans les données : on peut aujourd'hui affirmer avec certitude que la courbe commence à baisser (le genre de chose qui en fait rêver plus d'un du côté de l'Elysée...). 

On peut donc affirmer que la fraction de positrons commence à décroître à partir d'une énergie de 275 GeV. Pourquoi est-ce si important ? Parce que le modèle décrivant des neutralinos de plusieurs centaines de GeV indique que ces particules de matière noire peuvent s'annihiler entre elles en produisant justement un excès de positrons, comme ce qui semble être observé par AMS-02. Et le modèle prédit justement que la fraction de positrons doit croître lentement en fonction de l'énergie, sans sauts brutaux (exactement ce qui est observé pour l'instant), et cette fraction de positrons doit ensuite brutalement chuter au niveau de l'énergie correspondant à la masse du neutralino. Il faut donc qu'à partir d'une certaine énergie la fraction de positrons commence à décroître, puis elle devrait ensuite chuter.  Mais plus les particules détectées sont énergétiques et moins il y en a... C'est donc un long cheminement pour produire ces mesures de précisions. La courbe de la fraction de positrons en fonction de l'énergie doit être patiemment construite en engrangeant toujours plus de particules...

Evolution de la fraction de positrons (modèle théorique)
pour un neutralino de 400 GeV et de 800 GeV
Il se peut aussi que la courbe décroisse lentement après ce sommet à 275 GeV au lieu de chuter brutalement, et dans ce cas, cela voudra dire que cet excès n'est pas dû à des annihilations de neutralinos... Ces positrons pourraient aussi être produits par une source astrophysique comme les pulsars. Mais cette solution n'est tout de même pas très privilégiée car les positrons dans ce cas devraient avoir une distribution assez anisotrope (venant de directions privilégiées), ce qui n'est pas du tout observé, au contraire, les positrons de AMS semblent très isotropes, ce qui est aussi en faveur de l'explication de type matière noire (annihilation de neutralinos de plusieurs centaines de GeV)...

Au rythme actuel de détection par AMS-02, la courbe de la fraction de positrons pourra peut-être arriver à sa chute providentielle dans moins de 10 ans, peut-être 5... Ou jamais... en tout cas, c'est absolument passionnant ! 


Référence : 

High Statistics Measurement of the Positron Fraction in Primary Cosmic Rays of 0.5–500 GeV with the Alpha Magnetic Spectrometer on the International Space Station

L. Accardo et al. (AMS Collaboration)
Phys. Rev. Lett. 113, 121101 – Published 18 September 2014

mercredi 17 septembre 2014

La Galaxie Naine et son Trou Noir Géant

Nous poursuivons notre série (involontaire) sur les trous noirs supermassifs… Cette découverte publiée aujourd’hui en vaut la chandelle. Une équipe d’astronomes vient en effet de trouver un trou noir supermassif, donc, mais dans une minuscule galaxie ! En fait il s’agit d’une configuration totalement inédite.



Cette galaxie est ce qu’on appelle une galaxie naine ultracompacte (une UCD, selon l’acronyme anglais, pour ultra compact dwarf), et se nomme M60-UCD1. Elle est située tout près de la grosse galaxie M60, à 54 millions d’années-lumière de nous.

La galaxie naine ultracompacte M60-UCD1
(NASA/Space Telescope Science Institute/ESA)
L’équipe menée par Anil Seth, de l’université de l’Utah, publie sa découverte dans Nature aujourd’hui. C’est avec le télescope spatial Hubble et le télescope Hawaïen Gemini North qu’ils ont observé attentivement ce qui se passait vers le centre de cette toute petite galaxie de 300 années-lumière de large seulement, mais contenant tout de même 140 millions d’étoiles.

L’émission X provenant de son centre avait intrigué la communauté. Pour en avoir le cœur net, les astronomes ont mesuré la vitesse de nombreuses étoiles peuplant la zone centrale de M60-UCD1.

L’étonnement fut vraiment grand lorsqu’ils découvrirent la valeur numérique de la masse invisible située au cœur de la galaxie et responsable du mouvement des étoiles mesurées : 21 millions de masses solaires ! Ce trou noir fait plus de 5 fois la masse du trou noir supermassif de notre galaxie (qui elle contient plusieurs centaines de milliards d’étoiles et un diamètre 600 plus grand que cette minuscule). C’est simple, à lui seul, le trou noir supermassif de M60-UCD1 représente 18% de la masse totale des étoiles de sa galaxie. Du jamais vu.

Les astronomes pensent maintenant tenir une nouvelle classe de galaxies, et reconnaissent désormais le rôle prédominant que peuvent avoir les trous noir supermassifs sur l’évolution des galaxies. Et Seth et ses collègues avancent une explication à l’existence de cette bizarrerie cosmique : comme une si petite galaxie ne semble pas pouvoir avoir créé un tel trou noir, il se pourrait qu’elle ait été dans le passé beaucoup plus grosse… 
Etant très près de la galaxie M60, les auteurs proposent l’idée que les deux galaxies auraient pu subir une collision il y a plus de deux milliards d’années, M60 ayant fini par arracher une très grande partie des étoiles de M60-UCD1, qui contenait alors 10 milliards d’étoiles, et qui devint brutalement comme peau de chagrin… mais tout en conservant son trou noir supermassif de grosse galaxie… Soit dit en passant, M60 possède elle-aussi un monstrueux trou noir dans son centre, mais lui de 4,5 milliards de masses solaires!

Jusqu’à aujourd’hui, on pensait impossible que de telles galaxies naines ultracompactes puissent abriter un trou noir supermassif. Et comme il y a presque autant de galaxies naines ultracompactes que de grosses galaxies dans notre Univers proche, le nombre total de trous noirs supermassifs pourrait tout simplement passer du simple au double.
C’est désormais ce que va essayer de démontrer Anil Seth et ses collègues allemands en s’intéressant de plus près à d’autres galaxies proches de type UCD.


Référence :
A supermassive blackhole in an ultracompact dwarf galaxy
A. Seth et al.
Nature 513, 398–400 (2014).

lundi 15 septembre 2014

Une Solution pour la Naissance des Trous Noirs Supermassifs

L’existence de trous noirs supermassifs de plus de 1 milliard de masses solaires dans un Univers à peine âgé de 1 milliard d’années pose de grandes questions aux astrophysiciens.


Comment de tels objets ont-ils pu grossir de la sorte en si peu de temps ? Ces trous noirs supermassifs sont les sources d’énergie qui sont à l’origine des quasars, objets extrêmement lumineux et lointains, connus depuis une cinquantaine d’année.
Vue d'artiste d'un trou noir entouré par un disque d'accrétion.
(NASA/CXC/SAO)
Les quasars les plus lointains que nous connaissons se situent dans une zone de l’espace-temps où l’Univers n’avait que 6% de son âge, soit un peu moins d’un milliard d’années. Les premières étoiles, elles, sont apparues quand l’Univers était âgé environ d’une centaine de millions d’année et les premières galaxies aux alentours de 500 millions d’années.
Ce que l’on pense aujourd’hui, c’est que les trous noirs supermassifs grossissent par fusion successives de trous noirs de masses intermédiaires, de plusieurs centaines de milliers de masse solaire. Mais un trou noir « normal » se forme par l’effondrement d’une étoile qui peut avoir environ une masse de 10 masses solaires, seulement. Les premiers trous noirs sont apparus après l’effondrement d’étoiles de la toute première génération, celles qui sont nées quelques centaines de millions d’années après la singularité initiale, et qui ont dû avoir une durée de vie très courte, probablement moins de 100 millions d’années.
On pense donc raisonnablement qu’il existait de nombreux trous noirs stellaires (de l’ordre de 10 masses solaires) dans l’Univers âgé de 300 à 400 millions d’années.
Mais comment peut-on passer de trous noirs de 10 masses solaires à des énormités de plus de 100000 masses solaires en l’espace de seulement 600 millions d’années ? Cette question est l’une des grandes énigmes actuelles en astrophysique. La question se pose car le grossissement en masse des trous noirs par accrétion de matière est un processus limité : le taux d’accrétion d’un trou noir (la quantité de masse attrapée par seconde) ne peut pas dépasser une certaine limite physique, le taux d’Eddington, qui est lié à la pression de radiation produite par le rayonnement du disque d’accrétion, qui vient s’opposer à la force de gravitation faisant tomber le gaz dans le disque d’accrétion.

Schéma du principe d'accrétion exponentielle par diffusion
au sein d'un amas dense. Le trou noir a un mouvement
erratique et collecte de la matière dans son mouvement.
 (Alexander et al., Science)

Deux astrophysiciens, un israélien et un américain, viennent de proposer une solution possible à cette énigme. Dans un court article paru dans le numéro de Science de vendredi dernier, ils proposent un mécanisme dynamique permettant à un trou noir stellaire d’outrepasser la limite d’Eddington et de grossir très rapidement et très fortement pour atteindre la taille d’une graine de trou noir supermassif, soit 10000 masses solaires en moins de 10 millions d’années.
Leur proposition est la suivante : à l’origine, un trou noir stellaire de 10 masses solaires se trouve emprisonné à l’intérieur d’un amas très dense d’étoiles. De plus, cet amas est traversé par un flux de gaz froid et dense également. Ce type d’amas d’étoiles pourrait être les toutes premières proto-galaxies.

Ce qui se passe est que le disque d’accrétion entourant le trou noir est fortement perturbé par les multiples interactions gravitationnelles entre le trou noir et les étoiles environnantes, très nombreuses. De fait, le trou noir se retrouve comme balloté dans un mouvement erratique parmi les milliers d’étoiles de l’amas. De plus, le flot de gaz froid circulant au milieu de tout ce monde a pour effet de rendre opaque le milieu à proximité immédiate du disque d’accrétion du trou noir. La conséquence de ces effets simultanés est une sorte de disparition de la limite d’Eddington : dans ces conditions particulières, le trou noir se retrouve pouvoir accréter et absorber tout le gaz (et les étoiles sont du gaz) se trouvant sur son chemin avec un taux (la quantité de masse par seconde) sans aucune limite. Ce grossissement est qualifié par les auteurs de supra-exponentiel, c’est dire…

Tal Alexander et Priyamvada Natarajan montrent que dans ces conditions particulières, un trou noir de taille stellaire atteint 10000 masses solaires en moins de 10 millions d’années. Ils indiquent également qu’avec de telles graines de trous noirs  de 10000 masses solaires, le seul effet d’une accrétion revenue dans un régime normal (avec limite d’Eddington) suffirait à obtenir des trous noirs de 1 milliard de masse solaire quelques centaines de millions d’années plus tard, même sans avoir recours à des fusions de graines…

Ils concluent leur article en précisant qu’il n’est même pas nécessaire qu’un tel mécanisme ait lieu systématiquement. Si cela a eu lieu dans seulement 1 à 5% des amas denses d’étoiles de l’Univers très jeune, ce serait suffisant pour expliquer le nombre de quasars que nous voyons aujourd’hui.
Serait-ce le début de la fin d’une énigme ?


Référence : 

Rapid growth of seed black holes in the early universe by supra-exponential accretion
Tal Alexander and Priyamvada Natarajan
Science, vol 345 issue 6202 (12 september 2014)

samedi 13 septembre 2014

Les Quasars Classés se Dévoilent

C’est en 1963 que les quasars ont été formellement identifiés comme étant l’émission associée à des trous noirs supermassifs accrétant de la matière au cœur de galaxies lointaines. Le terme quasar, contraction de quasi-stellar object vient du fait que l’observation en lumière visible de ces objets ressemble à s’y méprendre à une étoile… sauf que leur distance est extrêmement élevée, plusieurs milliards d’années-lumière, rendant leur origine stellaire impossible. 



Rappelons rapidement que toutes les étoiles que nous pouvons voir dans le ciel font partie de notre galaxie, et sont donc situées à moins de 100000 années-lumière de nous.
Le Quasar 3C 175 montrant un puissant jet de matière signant
l'axe de rotation du trou noir supermassif (NRAO/AUI)
La gigantesque luminosité des quasars est dûe au disque de matière (du gaz) qui tourne autour du trou noir géant à une vitesse proche de la vitesse de la lumière. L’échauffement et la friction du gaz produit cette émission lumineuse dans diverses longueurs d’ondes, elle est si intense qu’elle dépasse largement la luminosité des milliards d’étoiles qui constituent la galaxie hôte du monstre, et est visible à plusieurs milliards d’années-lumière de là.
On peut étudier les propriétés d’un tel quasar en faisant de la spectroscopie de sa lumière, en analysant la lumière par décomposition de ses longueurs d’onde. Grâce à cette technique, deux astrophysiciens chinois viennent tout juste de faire une trouvaille très intéressante, qui va permettre de mieux comprendre comment fonctionne un quasar.
Il n’ont pas étudié le spectre d’un seul quasar isolé, mais les spectres de plus de 20000 quasars ! En étudiant cette très grande population de quasars (j’ignorais d’ailleurs qu’on en connaissait déjà autant), Shen et Ho arrivent à montrer que tous les quasars peuvent être classés en fonction de seulement deux petits paramètres physiques. Pour la première fois, ils montrent que ces objets hors du commun ont des propriétés communes reliées à des paramètres simples, et qu’il existe une sorte de classe standard de quasars, de la même façon que les étoiles avaient pu être classées en fonction de leur couleur et de leur luminosité au début du XXème siècle, montrant l’existence de familles d’étoiles.
Les raies d’émission visibles dans le spectre de leur lumière révèlent des informations sur l’environnement des quasars.
Les rapports d’intensité entre différentes raies qui correspondent à des niveaux d’ionisation différents du gaz fournissent une information sur l’intensité du rayonnement du disque à l’origine de cette ionisation. Cette intensité de rayonnement du disque est elle-même directement une fonction de ce qu’on appelle le ratio d’Eddington. Un trou noir ne peut pas avoir un taux d’accrétion de gaz infini, il existe une limite, qui correspond au moment où la force de pression du rayonnement dans le disque d’accrétion (force vers vers l’extérieur) contrebalance exactement la gravité du gaz tombant vers le trou noir (vers l'intérieur).  Le trou noir peut continuer à accréter de la matière, mais à un taux constant.
Le ratio d’Eddington est le rapport de la luminosité d’un disque d’accrétion par rapport à celle d’un disque d’accrétion arrivé à la limite, c'est une sorte d’indicateur d’âge du disque d’accrétion. Mesurer des rapports d’intensité de raies bien choisies dans le spectre permet ainsi de connaître le rapport d’Eddington du quasar, c’est-à-dire la maturité de son disque d’accrétion.

L’autre information clé pouvant être obtenue dans les raies du spectre vient de l’effet Doppler, cet effet qui décale les longueurs d’ondes vers le bleu ou vers le rouge en fonction de la vitesse (rapprochement ou éloignement) de la source émettrice. 
Graphe de classification des quasars
(Shen et Ho, Kavli Institute for astronomy and astrophysics)
C'est la vitesse du gaz situé dans la ligne de visée entre le trou noir géant et nous que nous voyons, et celle-ci dépend de la force de gravitation présente, et donc de la masse du trou noir. Mais le problème dans cette méthode de mesure c'est que cette évaluation dépend de l'angle existant entre l'axe de rotation du trou noir (c'est à dire le plan du disque d'accrétion, orthogonal), et l'axe de visée, dont dépend directement la vitesse d'éloignement/rapprochement. On peut connaître cet axe de rotation dans certains quasars quand des jets de matière et de rayonnement sont bien visibles, car ils sont toujours situés exactement dans l'axe de rotation du trou noir. Mais tous les quasars ne montrent pas forcément leurs jets... C'est pour pallier à cette difficulté majeure que Shen et Ho ont eu l'idée de tracer la population de milliers de quasars en fonction de deux paramètres : sur l'axe des X, un ratio d'intensité de raies, le traceur du ratio d'Eddington (traceur de la maturité du disque d'accrétion et qui dépend aussi de la masse du trou noir), et sur l'axe des Y, l'élargissement Doppler, traceur à la fois de la masse du trou noir et de l'orientation de son axe de rotation.

Ce graphique en 2 dimensions est très riche d'enseignements : il montre pour la première fois qu'il existe un lien entre le ratio d'Eddington et l'environnement à grande échelle des quasars; les trous noirs les plus massifs  (i.e ceux qui ont un taux d'accrétion faible et un ratio d'Eddington petit) existent davantage dans des environnements à grande échelle où les quasars et leur galaxie hôte sont le plus fortement imbriqués.

Par cette nouvelle classification des quasars, Shen et Ho montrent que le comportement des noyaux de galaxie, qui ont une échelle relativement petite, semble lié à ce qui se passe à l'échelle bien plus grande de l'amas de galaxies, ce qui laisse penser à l'existence de relations d'évolution entre ces deux entités, trous noirs supermassifs et amas de galaxies...

Référence :
The diversity of quasars unified by accretion and orientation
Shen, Y. & Ho, L. C.
Nature 513, 210–213 (2014)

lundi 8 septembre 2014

La Lune : un Gros Détecteur de Rayons Cosmiques

L’origine des rayons cosmiques ultra-énergétiques est aujourd’hui toujours mystérieuse. Et pour cause, on a du mal a en détecter suffisamment pour déterminer leur direction de provenance dans le ciel, ce qui pourrait aider à comprendre leur origine.



Ces protons (pour la plupart) qui peuvent avoir une énergie de 1020 eV sont effectivement assez rares. On parvient à en détecter avec un taux d’une particule par kilomètre carré par siècle. Il faudrait donc agrandir considérablement nos détecteurs si on ne peut compresser le temps…

Le plus grand détecteur dédié à une telle recherche de particules cosmiques ultra-énergétiques est l’Observatoire Pierre Auger, du nom du grand physicien français qui fut un pionnier de la physique subatomique. L’Observatoire Pierre Auger est un vaste réseau de détecteurs disposés dans la pampa argentine sur environ 3000 km². Le concept à la base de ce type de détecteurs est d’être sensible non pas à la particule primaire ultra-énergétique, mais aux nombreuses particules secondaires et tertiaires qui se forment par interactions dans la haute atmosphère. En détectant et mesurant l’énergie et la direction de milliers de particules secondaires formant de grandes gerbes, on parvient à reconstruire les caractéristiques de la particule leur ayant donné naissance.

Mais l’Observatoire Pierre Auger n’est pas encore assez grand pour capturer suffisamment d’ultraparticules… Il n’en analyse environ que 30 par an avec une bonne donnée directionnelle, ce qui est vraiment trop peu pour avoir des résultats statistiquement propres…
Comment faire ? Des physiciens anglais, russes, hollandais et australiens viennent de proposer une idée étonnante, et pour le moins innovante. Ils proposent d’utiliser la Lune comme détecteur de particules! La moitié du détecteur en fait, car l’autre moitié reste sur Terre. Leur idée est la suivante : de même que les particules cosmiques produisent des interactions dans la haute atmosphère, elles le font également avec toute la matière qu’elles rencontrent sur leur trajet. Et la Lune peut bien sûr se retrouver sur le trajet. Comme lorsqu’elles parviennent dans l’atmosphère terrestre, les particules ultra-énergétiques vont produire d’intenses gerbes de particules secondaires dans la croûte de la Lune. L’effet que l’équipe de physiciens souhaite utiliser est un phénomène physique qui est appelé l’effet Askaryan, du nom du physicien soviétique qui l’avait mis en évidence dans les années 1960.
Rayonnement Askaryan produit par une particule
énergétique dans le régollithe lunaire (J. Bray et al.)
Ici, ce ne sont pas directement les gerbes de particules secondaires que l’on va chercher à détecter, et non, parce que ces particules sont réabsorbées très vite par la croûte lunaire. L’effet Askaryan a lieu exactement au moment où la particule primaire interagit avec un noyau d’atome et produire une gerbe de particules secondaires. Toutes ces particules (la primaire comme les secondaires) sont des particules électriquement chargées. Et dès la production de la gerbe, de nombreuses particules produites subissent une très forte décélération. Et qui dit décélération de charge électrique dit rayonnement électromagnétique. L’effet Askaryan est une émission d’ondes électromagnétiques (dans le domaine des ondes radio) lors de la production des gerbes de particules. Cette émission est très intense, mais surtout très très courte, environ  une nanoseconde.
La solution envisagée est tout de même un peu subtile, car en effet, la Lune offre potentiellement une surface de détection considérable, mais les ondes radio sont elles aussi absorbées par la croûte lunaire. Il en résulte que la surface utile est en fait constituée seulement par les bords de la Lune, là où le rayonnement n’a qu’une mince épaisseur à traverser. D’autre part, l’émission radio est produite en lobes, ce qu'il faut prendre en compte. 

Vue d'artiste du Square Kilometer Array (SKA Telescope)
L’équipe mené par Justin Bray a calculé qu’une telle émission en provenance des bords de la Lune serait assez facilement détectable avec le futur grand réseau de radiotélescopes actuellement en construction en Australie et en Afrique du Sud , le SKA (Square Kilometer Array). Ils estiment que la Lune associée au SKA serait équivalente à un observatoire dix fois plus vaste que l’Observatoire Pierre Auger, et permettrait donc de capturer (indirectement) 10 fois plus de rayons cosmiques ultra-énergétiques dans la même durée…
Ce qui est vraiment très intéressant avec ce principe de détection, c'est qu'il s'applique également aux neutrinos énergétiques, qui sont eux-aussi mystérieux et possèdent a priori une autre origine. L'intérêt est donc multiple, et quand l'imagination est au pouvoir, on ne peut pas l'arrêter...


Référence :
Lunar Detection Of Ultra-High-Energy Cosmic Rays And Neutrinos
J.Bray et al.
arxiv.org/abs/1408.6069


vendredi 5 septembre 2014

Du Nouveau sous le Soleil

Le Soleil est une étoile périodique. Son activité est rythmée par un cycle de 11 ans environ. Ce cycle montre une activité de notre étoile qui passe par des maxima et des minima. Nous venons par exemple de passer un maximum d’activité il y a quelques mois et le prochain maximum doit avoir lieu dans 11 ans.


L’activité solaire est observée par les hommes depuis très longtemps. C’est au XVIIème siècle que les astronomes observèrent des taches apparaissant sur la surface du Soleil et commencèrent à les répertorier et à les compter. Il se trouve que plus le soleil a une activité magnétique intense, plus le nombre de taches sombres à sa surface est important, c’est ce qu’on a fini par comprendre au fil des décennies.  Le cycle actuel est déjà le 24ème cycle de 11 ans qui est suivi rigoureusement par la communauté scientifique.
Lors d’un maximum, c’est non seulement un nombre de taches important qui est visible mais c’est aussi la période au cours de laquelle ont lieu les plus fortes éruptions solaires, qui peuvent produire des effets voire des dégâts jusque par chez nous, à défaut de produire de magnifiques aurores boréales ou australes…

Mais dans le fond, on connaît très mal les mécanismes qui produisent ce cycle de 11 ans. D’ailleurs 11 ans est une moyenne car ces cycles sont tout sauf réguliers, que ce soit en amplitude ou en durée. Le cycle le plus court n’a duré que 9 ans tandis que le plus long a duré près de 14 ans. Et l’amplitude du maximum actuel est très faible, l’activité au maximum n’avait jamais été aussi faible depuis plus de 100 ans…

Image composite de 25 clichés révélant la migration des zones
 magnétiques vers l'équateur (NASA/SDO/Goddard)
On n’avait depuis plusieurs siècles que le nombre de taches pour essayer de comprendre l’activité de notre étoile préférée. Mais voilà que des chercheurs américains viennent de découvrir un nouveau marqueur permettant de suivre l’activité des cycles solaires, qu’ils décrivent dans un article venant de paraître dans The Astrophysical Journal. Il s’agit de ce qu’ils appellent des « points brillants » (brightpoints), petites zones brillantes situées dans l’atmosphère solaire. Ces points brillants permettent d’observer d’une nouvelle manière comment évoluent les champs magnétiques du Soleil.

Scott McIntosh, du National Center for Atmospheric Research dans le Colorado et son équipe proposent d’observer les points brillants pour explorer l’intérieur du Soleil et ses mécanismes à l’origine de son activité périodique.
Au cours d’un cycle, les taches solaires ont tendance à migrer des hautes latitudes vers l’équateur solaire, comme emportées par de vastes mouvements de convection, tout en restant toujours à des latitudes inférieures à 30°.

C’est en cherchant des zones magnétiques particulières pouvant expliquer ces mouvements que McIntosh et ses collègues en utilisant le télescope solaire SDO (Solar Dynamics Observatory) ont trouvé ces taches extrêmement brillantes en  UV lointain et en rayons X qui semblaient s’enrouler autour des vertex formés par ces grandes zones magnétiques. Ils ont alors recherché dans les 18 années de données collectées par les satellites SOHO et SDO comment bougeaient ces points brillants au cours de plus d’un cycle solaire. Ils ont découvert que ces points brillants suivaient globalement le même chemin que les taches sombres, des hautes latitudes vers l’équateur, mais en commençant leur trajet bien plus haut, vers 55° au Nord comme au Sud.  De plus chaque hémisphère semble posséder plus d’une bande composée de ces points brillants.


McIntocsh explique que des interactions complexes de lignes de champ magnétique pourraient exister sous les couches externes du Soleil, cachées à notre vue. Les récentes observations montrent que le Soleil est peuplé de bandes de matériau magnétisé et polarisé différemment, qui une fois formées, se déplacent lentement vers l'équateur. Ces bandes sont soit polarisées Nord ou Sud et leur signe est exactement inversé de part et d’autre de l’équateur solaire, comme une image miroir. Des lignes de champ magnétique relient ces bandes entre elles et même d’un hémisphère à l’autre par-dessus l’équateur. Il apparaît que c’est lorsque ces lignes de champ sont les plus courtes que l’activité solaire est la plus faible et que le nombre de taches sombres est le moins important. Lorsque deux bandes de polarité opposées se rencontrent à l’équateur, elles disparaissent brutalement. Une telle bande met entre 16 et 21 ans pour migrer de 55° de latitude jusqu’à l’équateur. Au moment d’une annihilation, il ne reste que deux larges bandes  sur le Soleil qui se trouvent alors à 30° de latitude, les lignes de champ qui les joignent sont les plus grandes et c’est le moment du maximum de taches sombres qui apparaissent justement sur ces bandes.
Selon ce modèle, le cycle de 11 ans peut être vu comme la superposition de deux cycles plus longs, les cycles des bandes magnétiques, et il explique enfin pourquoi les taches sombres apparaissent toujours à 30° de latitude.

Mais pourquoi les points brillants associés aux bandes magnétiques apparaissent-ils à 55° de latitude ? McIntosh répond à cette question en imaginant qu’au dessus de cette latitude l’atmosphère solaire est déconnectée de la rotation de la « surface », il y aurait des mouvements très différents dans les couches profondes du Soleil entre les hautes latitudes et l’équateur, et 55° correspondrait à une latitude critique, qu’il reste à investiguer de plus près pour comprendre ce qui s'y passe…

Référence : 
Deciphering Solar Magnetic Activity. I. On The Relationship Between The Sunspot Cycle And The Evolution Of Small Magnetic Features
Scott McIntosh et al. 
The Astrophysical Journal Volume 792 Number 1, 12 (1 sept 2014)

Source : NASA News

jeudi 4 septembre 2014

Laniakea, notre Superamas de Galaxies

Ce n'est pas tous les jours que le journal Nature met de l'astrophysique en Une, et encore moins quand des chercheurs français sont parmi les auteurs de l'étude en question. Voilà donc un très beau travail que nous offrent une équipe composée d'un américain, d'un israélien et de deux français, Daniel Pomarède, du CEA (Irfu) et Hélène Courtois du CNRS (IPN Lyon). A partir de données de vitesse et de distance de dizaines de milliers de galaxies proches, ils proposent une cartographie très exhaustive du Superamas de galaxies dont fait partie notre petite Voie Lactée.

Outre cette cartographie, les astrophysiciens proposent enfin une définition claire de ce qu'est un superamas de galaxies en montrant qu'il existe une sorte de frontière à ce grand ensemble de galaxies, définie à partir des flux de vitesses galactiques, traçant un dedans et un dehors du superamas, qui n'est autre qu'un bassin d'attraction gravitationnelle. Il n'est peut être pas étranger au fait que le premier auteur, Brent Tully, travaille à l'Université de Hawaï, que les auteurs ont dénommé ce superamas d'un nom hawaïen : Laniakea, qui signifie le "ciel immense", mais c'est aussi le nom d'une belle plage hawaïenne, comptant probablement autant de grains de sable qu'il y a d'étoiles dans ces 100000 galaxies, qui se répartissent sur plus de 500 millions d'années-lumière et pèsent pas moins de 100 millions de milliards de masses solaires...

Chose encore assez rare, l'article de Nature s'appuie très largement sur des explications produites en vidéo grâce à un film d'animation, je vais donc laisser la parole à la spécialiste, Hélène Courtois qui va tout vous dire (et en version française, s'il vous plaît!): 




Représentation de Laniakea (R.B Tully et al., Nature)

Référence : 
The Laniakea supercluster of galaxies
R. Brent Tully et al.
Nature 513, 71 (4 september 2014)

lundi 1 septembre 2014

Supernovae Ia : la Preuve Thermonucléaire

Le 22 janvier dernier, c’est par hasard (c’est toujours par hasard) que fut découverte la supernova la la plus proche jamais vue depuis 42 ans. Cette supernova apparue dans la galaxie M82 était suffisamment proche de nous pour pouvoir être étudiée dans de multiples longueurs d’ondes.  



Comme on le sait, les supernovas (ou supernovae) comme cette SN 2014J sont utilisées par les astronomes pour évaluer des distances, grâce au fait que ces explosions d’étoiles produisent une luminosité intrinsèque toujours identique, faisant de leur luminosité apparente une simple fonction de leur distance.

Encadré : NASA, ESA, HUBBLE HERITAGE;
M82 : NASA, ESA, HUBBLE HERITAGE (STSCI/AURA).
Depuis quelques décennies, le phénomène de supernova de ce type, appelé le type Ia, a été modélisé puis affiné par de nombreux travaux. Il en résulte pour l’origine de cette gigantesque explosion une fusion thermonucléaire d’une étoile naine blanche ayant dépassé la masse critique (dite masse de Chandrasekhar) par accrétion de matière provenant d’une étoile compagne (le plus probablement une autre naine blanche).
Jusqu’à présent, nous n’avions pas de preuve directe que ce phénomène était bien produit par une telle fusion nucléaire des atomes de carbone formant la naine blanche, même si tout semblait coller aux modèles.
L’étude parue dans Nature la semaine dernière et dont se fait l’écho le dernier numéro de Science vient mettre un point presque final à cette question en montrant clairement la présence des isotopes attendus dans les résidus de SN 2014J. Oui, les SN Ia sont bien des explosions thermonucléaires massives de carbone comme on l’avait compris.
Eugene Churazov du Max Planck institute de Garching et ses collègues (dont plusieurs chercheurs français du CNRS et du CEA) ont utilisé le télescope spatial européen INTEGRAL, spécialisé dans les rayons gamma, en le braquant vers la position où était apparue SN 2014J seulement quelques dizaines de jours après l’éclair de lumière visible.

Lorsque la masse de la naine blanche dépasse 1,4 masse solaire, sa gravité ne peut plus être contrecarrée par la pression de dégénérescence des électrons qui la composent, elle s’effondre très rapidement et ce faisant, toute sa matière fusionne brutalement, produisant une gigantesque explosion thermonucléaire, éparpillant une grande quantité de matière, produits de la fusion nucléaire et ne laissant même pas  de résidu compact derrière elle.
Ciel en rayons gamma avant la Supernova (à droite) et après (à gauche) (E. Churazov et al.)
Pour confirmer la nature d’une telle explosion, les astrophysiciens se sont intéressés aux produits de la fusion des noyaux de carbone et des noyaux ultérieurs. En effet, ces derniers sont essentiellement des isotopes radioactifs, instables, qui se désintègrent en émettant notamment des rayons gamma. Et comme les rayons gammas émis ont une énergie bien déterminée qui dépend de la nature du noyau d’atome qui l’a émis, on peut, en les détectant, déterminer non seulement la nature des réactions et de la matière en présence mais aussi sa quantité. Et M82 est suffisamment proche pour que les flux gamma soient détectables…
D’après les modèles élaborés, ces naines blanches de carbone doivent produire, au cours de l’explosion, de nombreux isotopes radioactifs qui mènent finalement à l’isotope nickel-56 (56Ni). Le 56Ni  se désintègre en quelques jours en cobalt-56 (56Co), qui lui-même se désintègre (avec une demi-vie de 77 jours) en fer-56, qui est stable.

Dans les premières semaines suivant l'explosion, les rayons gamma émis par les produits de fusion de la supernova sont absorbés par l’enveloppe de nickel en expansion rapide qui les produit, ce qui est à l’origine de la lumière observée après réémission d’énergie. C’est environ après un mois que l’enveloppe gazeuse devient suffisamment diffuse pour laisser sortir des rayons gamma sans qu’ils n’aient été absorbés ou trop diffusés. L’équipe menée par Churazov a détecté les photons gamma du cobalt-56 en provenance de SN 2014J entre 50 jours et 100 jours après l’explosion. En théorie, la masse totale de 56Ni devant être produite par une telle SN Ia est de l’ordre de 0,5 masse solaire. A partir des spectres de rayonnement gamma du cobalt-56 mesurés, Churasov et al. arrivent à estimer la masse de Nickel-56 à 0,56 masse solaire... Ils parviennent également à donner une valeur de la vitesse d’expansion des ejecta : 10000 km/s!
Vue d'artiste de INTEGRAL (ESA)

Il s’agit là de la première preuve observationnelle directe de la nature thermonucléaire d’une supernova Ia, et ces mesures confortent très largement le modèle construit depuis de longues années.

Cependant, une autre équipe d’astrophysiciens majoritairement allemands, menés par Roland Diehl, lui aussi du Max Planck Institute à Garching, a exploré, elle, les émissions de SN2014J mais plus précisément les photons gamma émis très tôt, à peine 20 jours après l’explosion (principalement ceux du nickel-56, et toujours avec INTEGRAL) et elle trouve quelque chose d’anormal…
Certes ces astrophysiciens confirment eux-aussi la nature thermonucléaire de la supernova en mesurant les rayons gamma du nickel-56, mais ils mesurent des photons gamma qui arrivent trop tôt et en trop grande quantité par rapport au timing attendu de l’explosion. Roland Diehl et al. proposent ainsi l’existence d’une sorte d’asymétrie dans cette supernova, comme si un disque d’hélium avait entouré la naine blanche et aurait participé à l’explosion en fournissant du matériau de fusion supplémentaire, voire l’allumette à l’origine de la déflagration…

On le voit, même lorsque l’on apporte une très belle preuve observationnelle d’un modèle utilisé depuis longtemps, des petits détails peuvent encore être à l’origine de nouvelles corrections, potentiellement importantes, à notre compréhension des supernovae.


Références :
Cobalt-56 γ-ray emission lines from the type Ia supernova 2014J
E. Churazov et al.
Nature 512, 406–408 (28 August 2014)

Early 56Ni decay γ rays from SN2014J suggest an unusual explosion
R. Diehl et al.
Science Published Online (July 31 2014)

Supernova breaks the mold
Daniel Clery
Science Vol. 345 no. 6200 p. 993 (29 August 2014)