samedi 31 octobre 2015

Les éléments chimiques en proportions identiques partout dans l'Univers

Pour la première fois, des astrophysiciens ont sondé la composition chimique du milieu intergalactique sur une très grande distance, et montrent que cette composition chimique est très uniforme et équivalente à celle que l'on trouve dans le système solaire, les briques indispensables à la vie sont donc répandues de manière similaire dans tout l'Univers...



L'astrophysicienne Aurora Simionescu et ses collaborateurs ont étudié un amas de galaxies, le célèbre amas de Virgo, situé à 54 millions d'années-lumière et constitué de plus de 2000 galaxies. L'espace entre ses galaxies est rempli de gaz diffus très chaud, suffisamment chaud pour émettre de la lumière dans la longueur d'onde des rayons X. Grâce au télescope spatial Suzaku spécialisé dans la détection des rayons X en orbite depuis 10 ans, l'équipe du JAXA (Japan Aerospace Exploration Agency) a exploré l'amas de galaxies en scannant son volume suivant plusieurs directions (voir image) jusqu'à 5 millions d'années-lumière du centre de l'amas, où se trouve la galaxie géante M87.

Zones explorées par Suzaku dans l'amas de Virgo. Chaque carré correspond à une acquisition du télescope X. La zone centrale est occupée par la galaxie M87. L'image de fond est une image en rayons X produite par le satellite européen ROSAT
(A. Simionescu (JAXA) / H.Boehringer (MPE)).

Les différents éléments chimiques plus lourds que le carbone sont produits par les explosions d'étoiles, les supernovas, qui les dispersent autour d'elles. Mais cette dispersion se poursuit ensuite progressivement sur des échelles beaucoup plus grandes, par d'autres mécanismes comme des éruptions galactiques, des fusions de galaxies ou encore l'interaction des galaxies avec le gaz chaud remplissant les amas.
Il y a deux types principaux de supernova : le type Ia est issu d'une étoile naine blanche vivant en couple avec une autre étoile, qui peut être une autre naine blanche ou bien une étoile plus grosse. Lorsque la naine blanche, qui arrache de la matière à sa compagne, voit sa masse dépasser le seuil de stabilité fatidique de 1,44 masses solaires, elle explose en éjectant toute sa matière sans laisser de résidu compact.
Le type II est produit par des étoiles qui sont nées avec une masse supérieure à 8 masses solaires et qui s'effondrent sur elles-mêmes à la fin de leur vie, ne pouvant contre-carrer leur propre gravité, ces supernovas laissent derrière elles un objet compact, pulsar ou trou noir. 

Et ces deux types de supernova ne fabriquent pas tout à fait les mêmes noyaux d'atome dans les mêmes quantités et proportions. Les supernovas de type Ia dispersent beaucoup d'éléments lourds, à commencer par le fer et le nickel qui prédominent, tandis que les supernovas de type II dispersent beaucoup d'oxygène et de silicium entre autres éléments plus légers. Tous ces nouveaux éléments sont par la suite recyclés dans les générations suivantes d'étoiles.
La composition globale d'une vaste région d'Univers dépend ainsi du mélange des types de supernova qui y ont contribué. Par exemple, lorsque l'on sonde la composition globale du soleil et du système solaire, on constate que cette matière (dont vous êtes faits) à été produite à 20% par des supernovas de type Ia et 80% par des supernovas de type II.
Dans une étude antérieure, l'un des co-auteurs de cette étude, Norbert Werner de Stanford University, avait montré, déjà à l'aide de Suzaku, que le fer était distribué uniformément partout dans l'amas de galaxies de Persée, mais il n'avait pas pu déterminer la distribution des éléments plus légers produits par les supernovas de type II. Les nouvelles observations sur l'amas de Virgo viennent remplir les cases vides.   

Partie centrale de l'amas de Virgo, s'étalant sur 1,2° de côté
(zone correspondant au carré bleu de l'illustration précédente)
NOAO/AURA/NSF
Aurora Simionescu, Norbert Werner et leurs collaborateurs publient leurs observations dans the Astrophysical Journal Letters. Ils y montrent pour la première fois une détection de fer, de magnésium, de silicium et de soufre partout dans tout le volume de l'amas de galaxies. Les ratios des différents éléments chimiques sont constants quelle que soit la position dans l'amas de galaxies, et sont cohérents avec les valeurs que l'on observe dans le soleil et la plupart des étoiles de notre galaxie (qui ne fait pas partie de l'amas de Virgo).

Comme les amas de galaxie couvrent un volume énorme d'Univers (plusieurs milliers de galaxies), les astronomes peuvent utiliser ce seul exemple pour extrapoler à l'Univers dans son ensemble.  La même proportion de types de supernovas qui est à l'origine de la matière de notre système solaire se retrouve donc partout. Ce grand ensemencement a connu une période intense lorsque l'Univers était âgé entre 2 et 4 milliards d'années (il y a entre 11,8 et 9,8 milliards d'années) et se poursuit aujourd'hui à un rythme plus lent. 
Aurora Simionescu conclut :"Cela indique que tous les éléments que l'on trouve sur Terre sont disponibles, en moyenne, dans des proportions similaires partout dans l'Univers. En d'autres termes, les briques indispensables à la vie se retrouvent partout dans l'Univers..."

L'agence spatiale japonaise à annoncé le 26 août dernier la fin de la mission de Suzaku, mais les chercheurs ne sont pas déçus car il sera remplacé très vite par le sixième télescope à rayons X japonais, le très attendu ASTRO-H, qui doit être lancé en 2016.


Source : 
A uniform contribution of core-collapse and type Ia supernovae to the chemical enrichment pattern in the outskirts of the virgo cluster 
A. Simionescu et al.
The Astrophysical Journal Letters, Volume 811, Number 2 (1 october 2015)

vendredi 30 octobre 2015

Premières images du survol rapproché d'Encelade par Cassini

Cassini a donc commencé à envoyer vers la Terre les précieuses données de son survol rasant de mercredi dans les geysers du pôle sud de Encelade. Et parmi toutes ces données il y a bien sûr des images, que la NASA met à la disposition immédiatement sous forme brute, telles qu'elles nous arrivent depuis la lointaine orbite de Saturne. Je ne peux que vous faire partager un petit échantillon, et même brutes, ces images sont magiques. 

Toutes les images traitées (avec des couleurs, nettoyées et débruitées) devraient être fournies par la NASA au début 2016.

En phase d'approche, Encelade dans son environnement annulaire... 



Plan rapproché 



Et voici les jets de vapeur/glace/molécules diverses que Cassini a traversés sans encombres d'après le communiqué de la NASA (ici vus en contre-jour).


Cette dernière image est mystérieuse... On imagine qu'il s'agit de la surface de Encelade vue quand la sonde n'était qu'à une cinquantaine de km d'altitude... Absolument hallucinante. 

Image brute :



Et traitée..:



Vous pouvez retrouver toutes les images brutes de la mission de solstice de Cassini sur le site dédié : http://saturn.jpl.nasa.gov/photos/



jeudi 29 octobre 2015

Rosetta détecte de l’oxygène moléculaire inattendu sur 67P/Churyumov–Gerasimenko

On ne parle que de ça depuis hier. Rosetta a détecté la présence inattendue de dioxygène dégazant de la surface de la comète 67P/Churyumov–Gerasimenko. C’est la première fois que de l’oxygène est observé en abondance sur une comète, et sa présence n’est pas encore clairement expliquée.



ESA/Rosetta/NAVCAM
La coma de la plupart des comètes a une composition chimique dominée par trois molécules : H2O (eau), CO (monoxyde de carbone) et CO2 (dioxyde de carbone). Ces trois gaz à eux seuls peuvent former 95% de la densité totale de gaz. Et certaines comètes ont montré en plus la présence de molécules plus complexes comme des composés soufrés ou des hydrocarbures plus ou moins complexes. Mais alors que l’oxygène moléculaire, le dioxygène (O2) a déjà été observé dans le système solaire en dehors de la Terre, par exemple sur des satellites glacés de Jupiter ou Saturne, on n’en avait encore jamais trouvé la trace sur des comètes.
L’abondance de dioxygène qu’à mesurée l’équipe internationale exploitant le spectromètre de masse ROSINA-DFMS de la sonde Rosetta est importante : elle est comprise entre 1% et 10% de celle de l’eau (qui est rappelons-le la composante principale), avec une valeur moyenne de 3,8%.

Ces données ont été acquises entre septembre 2014 et mars 2015 et ont permis de différencier très finement les trois espèces chimiques dont le signal se situait dans la région du dioxygène : O2 (dioxygène), S (soufre atomique), et CH3OH (méthanol). L’origine cométaire du dioxygène détecté ne faisait aucun doute lorsque l’analyse montra le nombre de molécules qui augmentait en fonction de l’inverse du carré de la distance quand Rosetta s’approchait de la surface de Chury, à 30 km, 20 km puis 10 km.
Le spectromètre de masse ROSINA-DFMS (ESA)
On observe par ailleurs une très forte corrélation entre la densité de H2O et celle de O2. Cela indique que ces deux molécules ont une origine commune dans le noyau cométaire et que les mécanismes qui les libèrent sont liés, contrairement à d’autres composés comme le CO ou l’azote moléculaire (N2), également détecté, qui ne montrent pas de corrélation avec l’eau.

En revanche, le ratio O2/H2O décroit quand l’abondance en eau est élevée, ce qui pourrait être causé par le fait que la glace de surface est produite via un processus cyclique de sublimation-condensation d’après les auteurs.
Les chercheurs observent en outre que le rapport O2/H2O est semblable dans toute la coma et n’a que très peu évolué quand la comète s’est rapprochée du soleil. L’origine de cet oxygène moléculaire est débattue : elle aurait pu être issue de processus de photolyse ou de radiolyse des molécules d’eau, lorsque des photons énergétiques ou des électrons viennent casser les molécules H2O et permettent la recombinaison des atomes, mais André Bieler et ses collègues montrent que cette voie n’est pas viable et proposent plutôt que cet oxygène a dû être incorporé au sein du noyau cométaire lors de sa formation aux débuts du système solaire, les grains de glace et de poussières venant emprisonner les molécules de dioxygène du milieu.
Mais cette idée est tout à fait inattendue, les modèles actuels de formation du système solaire ne prédisent en effet pas des conditions propices à un tel processus physico-chimique, les molécules d’oxygène devant plutôt s’apparier rapidement avec l’hydrogène pour former… de l’eau.

L’origine de l’oxygène moléculaire qui vient d’être détecté par Rosetta sur  67P/Churyumov–Gerasimenko va devoir être étudiée plus profondément, que ce soit par des expériences en laboratoire et de nouvelles observations astronomiques.


Source :
Abundant molecular oxygen in the coma of comet 67P/Churyumov–Gerasimenko
A. Bieler et al.
Nature 526, 678–681 (29 October 2015)

mardi 27 octobre 2015

La fusion nucléaire bientôt domptée par des physiciens allemands ?

Son nom résonne comme celui d’un astre lointain : Wendelstein 7-X (ou W7-X), mais il s’agit d’une machine infernale, une machine qui pourrait bien un jour entrer dans l’histoire comme l’une des rares à avoir reproduit sur Terre l’énergie des étoiles.



Quand on parle de fusion nucléaire, on pense immédiatement au réacteur expérimental international ITER actuellement en cours de construction à Cadarache  dans le sud de la France, mais on oublie parfois qu’il existe d’autres machines en cours de fonctionnement ou en construction qui sont dévolues elles aussi à la mise au point de l’énergie potentiellement la plus abondante, intense et décarbonée : la fusion thermonucléaire, celle-là même qui fait briller les étoiles.
Le stellarator W7-X (Max Planck Institut für Plasmaphysik)
W7-X est un stellarator, contrairement à ITER qui est un tokamak. Sous ces noms un peu barbares se cachent deux conceptions assez différentes de ces machines. Le stellarator a été inventé au début des années cinquante par un astrophysicien américain, Lyman Spitzer, qui avait eu l’idée de reproduire en laboratoire à l’université de Princeton la fusion nucléaire du cœur des étoiles. Par parenthèse, c’est à Lyman Spitzer que l’on doit également l’idée d’envoyer un télescope de grand diamètre en orbite, qui deviendra un peu plus tard le télescope Hubble…

La quête de la fusion nucléaire était un des nombreux champs de bataille de la guerre froide et du côté soviétique, les physiciens proposèrent leur propre machine, baptisée Tokamak, dont la première machine fut développée à l’Institut Kurchatov de Moscou. Le concept à la base de ces réacteurs d’un nouveau type est similaire : produire un plasma d’isotopes de l’hydrogène (notamment du deutérium et du tritium) et faire en sorte de le chauffer à une température telle que l’énergie cinétique des noyaux d’atomes soit suffisante pour vaincre la barrière coulombienne et permettre leur fusion nucléaire. La fusion de ces noyaux a le bon goût d’être très exothermique, libérant une grande quantité d’énergie, à l’instar de la fission nucléaire, mais en ne produisant pas de déchets nucléaires dans cette réaction (des déchets sont tout de même produits mais secondairement via l’activation neutronique des matériaux du réacteur et avec des périodes radioactives sans commune mesure).

Lyman Spitzer et son stellarator A
(Princeton Plasma Physics Laboratory)
La grosse différence entre un stellarator et un tokamak vient des champs magnétiques utilisés. Car pour que le plasma soit chauffé à une température de l’ordre de 100 millions de degrés (dix fois plus qu’au centre du soleil, ce qui est rendu nécessaire car on ne peut pas reproduire la même densité que celle du soleil), le gaz ionisé et les électrons doivent être mis en mouvement et accélérés, et surtout maintenus dans ce mouvement. Et pour cela, rien de mieux qu’un champ magnétique. Oui, mais pas n’importe lequel, car cette matière chauffée à 100 ou 150 millions de degrés ne doit jamais entrer en contact avec la paroi de la machine…
Un tokamak ou un stellarator ont donc globalement la forme d’un tore, où circule sans fin le plasma. Mais alors que le design d’un tokamak tire parti du fait qu’un courant électronique est injecté à l’intérieur du tore pour chauffer le plasma et qui à son tour crée un champ magnétique pouvant être utilisé pour confiner le plasma à l’intérieur du tore,  le stellarator, lui, crée tous ces champs magnétiques depuis l’extérieur du tore. Il s’ensuit des différences cruciales entre les deux types de machines.
Les tokamaks se sont montrés les plus efficaces pour la production de plasmas stables, et ils ont supplanté peu à peu les stellarators depuis les années 1970 et 1980.  Mais le principe du tokamak possède quelques points faibles que le stellarator n’a pas, dont le principal est de devoir forcément fonctionner par impulsions successives (ce qui n’est pas très adapté dans une vision industrielle de la chose), et par ailleurs de pouvoir connaitre des brutales variations de confinement du plasma (on parle de disruption de plasma), pouvant mener au pire à un endommagement conséquent de la cavité de la machine.

Quelques irréductibles physiciens ont ainsi continué à étudier le stellarator, notamment les allemands de l’Institute for Plasma Physics (IPP) du Max Planck Institute à Greifswald (à 100 km au Nord de Berlin, sur la mer Baltique), qui ont construit W7-X patiemment depuis le milieu des années 1990, et vont le mettre en service en novembre 2015 après une année entière de tests de fonctionnement. Si les physiciens allemands ont mis aussi longtemps pour construire cette grosse machine, qui aura couté au final environ 1 milliard d’euros (ITER en coûte 16 milliards), c’est que W7-X ressemble à une machine infernale.
Pour atteindre la même efficacité dans la stabilité du plasma que celle obtenue avec un tokamak, le plasma dans un stellarator doit former une vrille en mouvement à l’intérieur du tore. Et la création de cette forme de mouvement de particules chargées impose l’application de champs magnétiques très complexes, ce qui implique derechef des formes de bobines et d’aimants encore  plus complexes. Ajoutez à cela que les bobines des électro-aimants sont faites de métaux supraconducteurs qui doivent être refroidis à une température proche du zéro absolu, et vous obtenez ce réacteur dont la conception n’a été rendue possible que grâce à l’aide de superordinateurs. Il est intéressant de noter au passage que ces réacteurs, que ce soit ITER ou W7-X font se côtoyer à quelques dizaines de centimètres seulement une fournaise à 100 millions de degrés et de l’hélium liquide à quelques degrés au-dessus du zéro absolu…
Le stellarator W7-X en cours de montage (Max Planck Institut für Plasmaphysik)
La conception et la fabrication d’un stellarator comme W7-X apparaissent plus délicates que ne peuvent l’être celles du tokamak ITER. Mais il s’est agit ici pour les physiciens de l’IPP de remédier aux défauts inhérents aux stellarators des premières générations et il semblerait que W7-X puisse atteindre aujourd’hui le même niveau de performances qu’un tokamak de même taille, ce qui pourrait rebattre pas mal de cartes pour l’avenir de la fusion nucléaire comme source d’énergie, une fusion nucléaire sans risques de disruption de plasma et pouvant fonctionner en continu…

Wendelstein 7-X va donc commencer ces opérations le mois prochain après près de 20 ans de conception/construction (et 9 ans de retard sur le planning initial...). ITER, quant à lui, est en cours de construction depuis cinq ans et devrait (à l’heure où j’écris ces lignes) voir son premier plasma fin 2020 et produire 10 fois plus d’énergie qu’il n’en consommera vers 2027…
La fusion nucléaire de l’après-ITER, au milieu du siècle, pourrait bien se rapprocher un peu plus des étoiles et de l’idée qu’avait eue Lyman Spitzer un siècle auparavant…


Référence :
Twisted logic
Daniel Clery
Science 23 October 2015: Vol. 350 no. 6259 pp. 369-371 

lundi 26 octobre 2015

Cassini : Plongée en panache vers Encelade

C'est dans deux jours que la sonde Cassini va étudier de très près les caractéristiques de l'océan de Encelade, satellite de Saturne. Elle va plonger dans les panaches de vapeur et de molécules organiques qui s'échappent de son pôle sud, à la distance record de 48 km d'altitude seulement...

Encelade (NASA/JPL-Caltech)
Parmi les découvertes de Cassini sur Encelade depuis 2005, il y a eut tout d'abord l'existence de ces panaches étonnants, faits de glace d'eau, de vapeur, de molécules organiques (Co2, ammoniac) et de silice, puis ce fut la mise en évidence d'eau liquide sous l'épaisse couche de glace, suivie par la mise en évidence d'une activité hydrothermale avec une eau pouvant atteindre 90°C et enfin il y a quelques mois, qu'il y avait un océan global circulant sous les quelques dizaines de kilomètres de glace de la croûte externe fissurée.

La sonde Cassini (NASA/ESA)
Ce survol de mercredi est le survol le plus rasant qu'effectuera Cassini dans le panache de vapeur glacée du pôle sud d'Encelade. Bien sûr, Cassini n'est pas en mesure de détecter une trace directe de vie dans l'océan d'Encelade, mais elle pourra fournir des indications précieuses sur son habitabilité. C'est surtout via l'activité hydrothermale (la chimie ayant lieu par interactions de roches et d'eau chaude) que les chercheurs espèrent avoir des indications intéressantes sur l'habitabilité potentielle de formes de vie primitives. Et le point clé ici est la détection d'hydrogène moléculaire (H2). Tous les planétologues s'accordent sur le fait que la présence d'hydrogène moléculaire dans le panache d'Encelade sera extrêmement intéressante si elle est avérée.

Mais le survol rapproché de la sonde servira aussi à mieux saisir la chimie des panaches elle-même, en permettant de détecter plus facilement les molécules lourdes comme les molécules organiques, qui avaient déjà été flairées mais à bien plus grande distance. Ce survol devrait résoudre le mystère de la forme des panaches, en colonne ou en rideaux ? Ou les deux ? La réponse fournira un éclairage sur la façon dont l'eau parvient jusqu'à la surface depuis l'océan sous-jacent.
Enfin, les astronomes ne s'accordent pas tous sur la quantité de glace et d'eau que les panaches projettent dans l'espace. La mesure plus précise de cette activité aura des implications importantes sur la connaissance de la durée depuis laquelle le phénomène existe. 

On a plus qu'à espérer que les analyses des données arrivent le plus vite possible, on peut  tout de même estimer que cela prendra probablement quelques mois... d'attente fébrile.


Tout savoir sur la mission Cassini : 

samedi 24 octobre 2015

Regardez ce trio de planètes dans le ciel matinal

Les jours qui viennent nous offrent un beau petit spectacle avec un trio de planètes très resserrées (à moins de 2° les unes des autres), formant un petit triangle au dessus de l'horizon Est. Nul besoin de télescope ou de lunette pour admirer Mars, Vénus et Jupiter dans cette danse. Mais si vous avez des jumelles, n'hésitez pas, ce n'est pas tous les jours que l'on peut voir trois planètes d'un coup dans le cercle de l'oculaire ! 

La configuration du triangle changera légèrement d'un jour à l'autre, où vous devrez être levés aux environs de 6h pour bien apprécier le spectacle (avant, les trois planètes seront trop basses sur l'horizon, et après, le jour commencera à se lever, les faisant disparaître). Profitez donc du changement d'heure de cette nuit pour vous lever à 6h (comme si il était 7h à l'heure d'été, c'est faisable pour un dimanche, non ?).

Voilà les cartes de ce à quoi ressemblera cette conjonction multiple entre dimanche et mercredi. Vous reconnaîtrez facilement Mars par son éclat bien plus rouge que les deux autres.

Dimanche (25/10/15) matin :




Lundi (26/10/15) matin :



Mardi (27/10/15) matin :



Mercredi (28/10/15) matin :


Bon ciel ! 

Images produites avec Stellarium

Les étoiles apparaissent comme des aimants géants

Des astronomes viennent pour la première fois de sonder les champs magnétiques régnant à l'intérieur des étoiles et ont découvert que leur cœur était extrêmement magnétisé.



C'est en utilisant la technique de l'asterosismologie, l'étude des ondes de matière se propageant à l'intérieur des étoiles que les chercheurs ont réussi à quantifier les champs magnétiques présents au plus profond d'étoiles de type géantes rouges, des étoiles plus évoluées que le Soleil. Les ondes de matière sont l'équivalent d'ondes sonores, il s'agit de perturbations qui visibles à la surface des étoiles par une oscillation caractéristique et ayant une origine à l'intérieur des couches de plasma des étoiles. Ces ondes sont produites par les turbulences multiples de l'étoile.

Vue d'artiste du piègaeage des ondes de matière par les champs magnétiques
dans le coeur d'une géante rouge (échelle non respectée)
Rafael A. García (SAp CEA), Kyle Augustson (HAO),
Jim Fuller (Caltech) & Gabriel Pérez (SMM, IAC),
L'asterosismologie est surtout bien adaptée sur les étoiles géantes, ce qui explique que l'on connait encore très mal la structure interne de notre propre étoile. Le cœur d'une étoile géante rouge est plus dense que celui d'une étoile plus jeune comme le Soleil. De ce fait, les ondes acoustiques ne se réfléchissent pas sur le cœur mais se transforment en ondes de matière et peuvent pénétrer à l'intérieur du cœur de l'étoile.  
La conversion des ondes acoustiques en ondes de matière a des conséquences importantes sur les oscillations de l'étoile géante rouge. Cette oscillation prend des formes différentes en fonction de la structure interne de l'étoile et de sa taille.
Lorsque des champs magnétiques puissants sont présents dans le cœur d'une étoile, ils peuvent stopper la propagation des ondes de matière et les contenir à l'intérieur du cœur. Pour décrire ce phénomène Jim Fuller a inventé le terme "effet de serre magnétique".  A l'image des gaz à effet de serre dans l'atmosphère terrestre qui piègent l'énergie thermique, les champs magnétiques du cœur de l'étoile piègent l'énergie associée aux ondes acoustiques. Ce piégeage a pour effet de modifier les modes d'oscillation visibles à la surface de l'étoile.
Un mode d'oscillation particulier, appelé mode dipolaire a notamment pour effet de faire varier la luminosité de la géante rouge différemment entre ses deux hémisphères. Ces infimes variations de luminosités ont pu être observées grâce au télescope spatial Kepler en 2013 sur un échantillon de géantes rouges. C'est grâce à ces observations que l'équipe de Fuller a déduit l'intensité des champs magnétiques présents dans le cœur des étoiles, et il est gigantesque : 10 millions de fois plus intense que le champ magnétique de la Terre...

Une meilleure compréhension des champs magnétiques internes des étoiles pourra aider à élucider l'origine des champs magnétiques extrêmes qui peuvent exister à la surface de certaines étoiles à neutrons ou même de naines blanches, deux formes ultimes d'étoiles ayant justement pour origine les géantes rouges. L'astérosismologie reste la méthode la plus efficace pour ausculter l'intérieur des étoiles, jusqu'au plus profond de leur cœur.


Source : 

Asteroseismology can reveal strong internal magnetic fields in red giant stars
J. Fuller et al.
Vol. 350 no. 6259 pp. 423-426 
Science (23 october 2015)

vendredi 23 octobre 2015

Quand deux étoiles sont si grosses qu'elles se touchent

Ce couple d'étoiles hors norme est appelé VFTS 352. Il est hors norme car ces deux étoiles sont massives, très chaudes, très grosses, et se tournent l'une autour de l'autre si près qu'elles se touchent et échangent leur matière. Un tel système d'étoiles est appelé dans le jargon astronomique une binaire en surcontact.



Vue d'artiste de VFTS 352 (ESO/L. Calçada)
Les binaires en surcontact sont extrêmement rares à observer, ce qui s'explique par leur durée de vie relativement courte. Les deux étoiles de VFTS 352 éloignée de nous de 160000 années-lumière, ne sont distantes entre elles (entre leurs centres respectifs) que de 12 millions de kilomètres, soit environ 5 fois moins que la distance séparant le Soleil de Mercure. Ce spécimen est exceptionnel à plus d'un titre : il s'agit de la binaire en surcontact la plus massive jamais trouvée, mais aussi la plus chaude. Et chose étonnante, les deux étoiles sont quasi identiques, en terme de masse (28,6 et 28,8 masses solaires) et de température (42500 et 41100 K).
Cette double étoile a été découverte par une équipe internationale menée par un astronome brésilien grâce au Very Large Telescope de l'ESO.
Ils ont pu observer la période orbitale des deux monstres qui ne vaut qu'environ 1 jour ! (on peut rappeler à titre de comparaison que Mercure met 88 jours pour faire une révolution autour du Soleil). Cette période orbitale permet de déduire leur distance et celle-ci s'avère si proche qu'elle se trouve inférieure au diamètre de chaque protagoniste : les étoiles se touchent via un grand pont de matière. Comme les deux étoiles sont très similaire, on n'est pas ici en présence d'une étoile en train de cannibaliser l'autre comme c'est le cas dans nombre de systèmes binaires ou une petite naine blanche accapare du gaz d'une compagne géante. Ici, les deux étoiles étant identiques, leur gravité est semblable et aucune des deux n'a le dessus sur l'autre.
Ce que Leonardo Almeida et ses collaborateurs démontrent c'est que ce partage de matière entre les deux étoiles produit un mélange d'éléments chimiques de l'une vers l'autre, qui se trouve augmenté par les forces de marées qu'elles produisent l'une sur l'autre. Ils estiment que pas moins de 30% de la matière d'une des deux membres se retrouve partagés avec l'autre. C'est la première fois qu'un tel mélange de matière interne est observé sur de telles étoiles massives.
Comme je le disais, de tels systèmes d'étoiles massives ont une durée de vie courte. Le futur de VFTS 352 n'est pas certain. Il existe de fait deux scénarios possibles selon les chercheurs. Le premier scénario prédit que les étoiles vont continuer à se rapprocher encore d'avantage pour finir par entièrement fusionner. Ce processus serait à l'origine, au passage, d'une longue bouffée de rayons gamma. L'étoile résultante aura une masse environ égale à la somme des deux composantes initiales, soit 57 masses solaires. Mais surtout, cette énorme étoile sera alors dotée d'une vitesse de rotation gigantesque, car récupérant la totalité du moment cinétique qui était celui des deux étoiles se tournant l'une autour de l'autre plus la somme des moments cinétiques propres de chacune des deux étoiles... (pensez à l'image du patineur qui tourne sur lui-même bras écartés puis colle brusque ses bras contre son corps). Le destin d'une étoile de ce type est forcément tragique, elle ne pourrait survivre guère plus de quelques millions d'années et finirait en supernova en s'effondrant à terme gravitationnellement sur elle-même pour former un trou noir.

Nébuleuse de la Tarentule avec la localisation de VFTS 352 (croix rouge au centre)
(ESO/M.-R. Cioni/VISTA Magellanic Cloud survey)
Le seconde scénario envisageable, plus intéressant pour les astrophysiciens, serait que les deux étoiles continuent à se tourner autour sans trop se rapprocher, mais tout en continuant de consommer leur carburant mis en commun, jusqu'à l'épuiser. Comme les deux étoiles ont la même masse et la même composition chimique, on peut penser qu'elles parviendront à peu de chose près à rupture de combustible nucléaire au même moment. Et c'est alors à une double explosion de supernova que l'on assisterait... Etant très massives (plus de 20 masses solaires), il s'agirait toujours de supernovas de type II avec production de trou noir en résidu. Nous serions alors en présence finalement d'un couple de trous noirs qui continueraient à se tourner autour (mais sans se toucher, eux, car étant beaucoup plus compacts). 
Et ces deux trous noirs, même si ils ne se touchent pas au départ, interagiraient fortement entre eux, et commenceraient à spiraler l'un vers l'autre en perdant de l'énergie gravitationnelle par émission d'ondes gravitationnelles, pour finir par fusionner en un unique trou noir dont la masse devrait être assez semblable à celle qui serait obtenue dans le premier scénario.
Le résultat final est le même mais le chemin pour y arriver est différent. Les astrophysiciens préfèrent largement le second scénario, qui permettrait de détecter ces fameuses ondes gravitationnelles prédites par Einstein il y a un siècle et toujours pas détectées directement.
La découverte d'étoiles double extrêmement proches comme cette binaire en surcontact est donc très importante pour les astrophysiciens, qui comptent bien en trouver d'autres encore plus proches de l'explosion ou de la double explosion.


Source : 


Discovery of the Massive Overcontact Binary VFTS 352 : Evidence for Enhanced Internal Mixing 
L. A. Almeida et al.
The Astrophysical Journal, Volume 812, Number 2

jeudi 22 octobre 2015

Découverte d'une planète détruite par une naine blanche

La plupart des exoplanètes qui ont été trouvées jusqu'à aujourd'hui se trouvent en orbite d'étoiles plutôt jeunes, du type de notre soleil ou encore plus jeunes. Une équipe d'astrophysiciens relate aujourd'hui l'observation de petits corps rocheux en orbite autour d'une étoile en fin de vie, une naine blanche, ce à quoi ressemblera notre soleil dans 10 milliards d'années. Et ces petites planètes sont en très très mauvais état, à l'image de ce qui attend la Terre dans le futur très lointain ?



Vue d'artiste de la désintégration d'une planète mineure par une étoile naine blanche
(CfA/Mark A. Garlick)
Andrew Vanderburg et ses collaborateurs ont détecté la présence de ces planètes mineures grâce au télescope spatial Kepler par la méthode du transit. Les étoiles naines blanches sont des étoiles très petites et très denses, et possèdent ainsi un champ gravitationnel imposant. De ce fait, les éléments plus lourds que l'hélium, les "métaux" qui tombent à la surface de telles étoiles n'y restent pas, ils sont attirés rapidement au centre de l'étoile ne laissant qu'une atmosphère d'hydrogène et d'hélium. Mais bizarrement, les astronomes observent des éléments lourds comme de l'oxygène, le carbone ou le silicium dans l'atmosphère d'environ un tiers des naines blanches. Et des observations en infra-rouge ont montré que de nombreuses naines blanches étaient entourées de disques de poussières. Cette pollution atmosphérique des naines blanches montre qu'une quantité importante ont pu tout simplement détruire leurs planètes et pourraient être en train de "dévorer" leur matière.
C'est ce phénomène que Vanderburg et son équipe semblent avoir vu. Ils ont observé la naine blanche nommée WD 1145+017 qui est située à 570 années-lumière, et ont découvert de multiples transits devant cette étoile, avec des périodes orbitales très courtes, de 4,5 et 4,9 heures. Et ces transits sont très particuliers car ils apparaissent peu profonds, ne produisant pas de forte atténuation de la lumière de l'étoile et durent étonnamment longtemps, entre 40 et 80 minutes à chaque passage. Un corps solide simple devrait induire un transit très court devant une petite étoile de ce type, de l'ordre d'une minute.
Pour mieux comprendre les données de Kepler, les astronomes ont donc observé WD 1145+017 avec des télescopes terrestres et ont alors mis en évidence de nouveaux transits asymétriques de 5 minutes et avec des différences de phase par rapport à ceux observés avec Kepler. En effectuant une analyse spectroscopique de l'atmosphère de l'étoile, les chercheurs ont alors vu nettement la présence de métaux à la surface de l'étoile.
Visualisation du phénomène déduit des observations de Vanderburg et al.
(la couleur représente la densité de matière)
(Nature) 
La conclusion des auteurs, qui est une explication possible à ces transits inhabituels est que une ou plusieurs petites planètes orbitent la naine blanche et cette dernière est en train de les disloquer. Les planètes perdraient ainsi de la matière qui tomberait continuellement à la surface de la naine blanche. Avant de tomber sur l'étoile, la matière évaporée des planètes formerait un grand nuage condensé de molécules, produisant une longue traînée cométaire derrière la planète en perdition. 

Il faut se rappeler qu'au cours de l'évolution d'une étoile comme le soleil, avant de devenir un naine blanche, l'étoile passe par une phase durant laquelle elle gonfle en devenant une géante rouge, perdant ensuite de grandes quantités de matière en dispersant son enveloppe. Ce phénomène, outre que des planètes comme Mercure et Vénus seront englouties dans le plasma stellaire, produit des instabilités gravitationnelles dans tout le système solaire, pouvant amener à des collisions d’astéroïdes et de planètes et au final disloquer les grands corps en de nombreux petits corps qui peuvent alors se retrouver à des distances très proches de l'étoile.
Des petites planètes en cours d'évaporation ont déjà été observées dans le passé autour d'étoiles de la séquence principale (en milieu de vie), et montraient exactement les mêmes profils de transit observés ici, avec une atténuation variable, des asymétries et des durées longues. Mais c'est la première fois que le phénomène est observé autour d'une naine blanche qui, de plus, apparaît polluée par la matière constitutive des corps rocheux planétaires.

Dans le futur, on peut imaginer que les astrophysiciens seront à même de distinguer quels éléments parmi les polluants des atmosphères de naines blanches proviennent des noyaux de planètes détruites ou de leur manteau. Cette étude nous indique finalement à quoi pourrait ressembler la fin annoncée de notre planète, dans plus de 10 milliards d'années.


Source : 
A disintegrating minor planet transiting a white dwarf
A. Vanderburg et al.
Nature 526, 546–549 (22 October 2015)

mercredi 21 octobre 2015

Une solution trouvée pour expliquer l'excès de positrons dans le rayonnement cosmique

Le détecteur de particules AMS-02 installé à bord de la station spatiale internationale a pour objectif de détecter des particules chargées légères et plus particulièrement des antiparticules comme les positrons, antiparticules des électrons, pour trouver des signes de présence de matière noire dont ils pourraient être les produits de désintégration. Et depuis 2013, AMS-02 observe un excès inexpliqué de positrons à haute énergie qui peut laisser penser à un signe d'existence de matière noire. Mais deux physiciens israéliens viennent de trouver une explication "simple" à cette anomalie.



La recherche de l'existence de particules massives de matière noire via des signes indirects comme la présence dans le rayonnement cosmique d'excès d'électrons et/ou de positrons ou d'autres antiparticules est une voie théoriquement prometteuse. Les WIMPs en se désintégrant ou en s'annihilant devraient en effet produire au final ce types de particules dont l'énergie maximale ne pourrait jamais dépasser l'énergie de masse des WIMPs d'origine. Il "suffirait" donc de détecter un excès de particules et d'antiparticules en mesurant leur énergie et d'observer une brutale chute de leur flux à une énergie bien déterminée, ce qui signerait à la fois l'existence de particules de matière noire et fournirait la valeur de leur masse.
Fraction de positrons mesurée par AMS-02 (points)
et calcul produit par les auteurs sans besoin
de matière noire (ligne rouge) (Dado et al.)
Or un tel excès d'électrons et surtout de positrons a été observé et est toujours observé aujourd'hui, tout d'abord en 2009 par l'expérience PAMELA (Payload for Antimatter Matter Exploration and Light-nuclei Astrophysics), puis par le satellite Fermi-LAT en 2012, et enfin depuis 2013 avec toujours plus de précisions par le détecteur AMS-02 embarqué sur l'ISS et qui vient de dépasser le nombre impressionnant de 70 milliards de particules détectées depuis sa mise en service. 
Les données les plus troublantes de AMS-02 sont celles de la fraction de positrons dans la somme des flux d'électrons et positrons. Cette fraction augmente en fonction de l'énergie des particules et semble atteindre un plateau, alors qu'elle devrait décroître rapidement. Un comportement très mal expliqué sans invoquer l'existence de WIMPs (voir figure). 

Certaines pistes astrophysiques ont quand-même été évoquées pour expliquer un surplus de positrons, comme une origine liée à des pulsars ou des résidus de supernovas, ou bien encore une production secondaire de positrons due à des interactions des rayons cosmiques primaires au sein de leur milieu de production comme des jets de matière relativiste de trous noirs stellaires ou massifs ou des supernovas de type Ic. Mais les observations très précises de AMS-02 ont ensuite montré, en 2014, que les positrons mesurés avaient une origine isotrope, venant de toutes les directions de l'espace, ce qui apparaît très peu cohérent avec de telles sources astrophysiques qui doivent montrer une certaine anisotropie, venant principalement du disque de la Voie Lactée.
Par ailleurs, AMS-02 mesure un excès de positrons avec des énergies toujours plus hautes, atteignant maintenant 700 GeV sans voir poindre une potentielle chute brutale du flux.
Désintégrations successives via la production de mésons pi.

Shlomo Dado et Arnon Dar, dans leur étude parue dans the Astrophysical Journal il y a quelques jours, ont recalculé par simulation les interactions du rayonnement cosmique galactique primaire sur le gaz du milieu interstellaire. En prenant en compte les collisions hadroniques de ces protons énergétiques sur les noyaux des atomes formant le gaz interstellaire ainsi que les phénomènes divers d'accélération des électrons existant dans la Galaxie, les auteurs parviennent à reproduire presque exactement les flux d'électrons et de positrons ainsi que la fraction de positrons qui sont mesurés par AMS-02.  

La source principale des positrons et des électrons à haute énergie serait dans ce cas à la production de mésons par interactions dans le milieu interstellaire proche, au dessus de 1 TeV, de protons ultra-énergétiques. Les mésons (pi+, pi- ou pi0) en se désintégrant, produisent ensuite des muons positifs et négatifs, qui eux se désintègrent respectivement en positrons et en électrons. Cette explication permet alors à Shlomo Dado et Arnon Dar de faire une prédiction selon laquelle la fraction de positrons devrait continuer à augmenter en fonction de l'énergie pour finalement atteindre la valeur asymptotique de 0,57.

Les prochains résultats d'AMS-02 sur la fraction de positrons seront scrutés attentivement pour voir si un plateau se confirme, ce qui infirmerait l'hypothèse des chercheurs israéliens ou bien si elle augmente encore avec l'énergie, ce qui irait dans leur sens.


Source : 

Origin Of The Cosmic Ray Positrons Observed Near Earth- Meson Decay Or Dark Matter Decay ?
Shlomo Dado, Arnon Dar
The Astrophysical Journal 812, 38 (october 2015)

lundi 19 octobre 2015

Les Bulles de l'Univers en mouvement

On savait l'Univers peuplé de sortes de très vastes filaments de matière (ordinaire et noire) entourant de grandes régions quasi vides. Ces régions "vides" ressemblent à des bulles pouvant atteindre plus de 150 millions d'années-lumière de large. Alors que l'on pensait que ces bulles de vide étaient statiques suivant simplement l'expansion accélérée cosmique, il n'en est rien! Des astronomes ont découvert que les grosses bulles de vide grossissent et les petites rétrécissent !...



Diego Lambas, chercheur à l'Université de Cordoba en Argentine et son équipe ont découvert de grands mouvements dans ces bulles de vide en explorant les données du grand relevé astronomique SDSS (Sloan Digital Sky Survey) et en comparant les 245 vides cosmiques identifiés avec des simulations numériques antérieures. Ils trouvent que ces grandes bulles de vides évoluent à des vitesses entre 300 et 400 km/s par rapport à leur vitesse standard d'expansion cosmique, soit plus vite, soit moins vite. Et ce sont les petites bulles qui régressent tandis que les grandes s'étendent. 
Les petites bulles de vide se trouvent être pour la plupart d'entre elles enfermées entre des zones de grande densité de matière, ce qui a pour effet gravitationnel de les faire se rapprocher entre elles et à terme disparaître. Les grandes bulles de vides quant à elles se situent plutôt entre des zones de relativement faible densité, et se retrouvent étirées par la gravité de leur environnement. 


Simulations numériques de l'évolution des bulles de vides effectuées en 2012, validées aujourd'hui par les observations analysées par Lambas et al.  (J. Hidding, R. van de Weygaert, Univ. Groningen / http://arxiv.org/abs/1205.1669 (2012))

Les très grandes structures de l'Univers ne se construisent pas seulement par la fusion des galaxies et des amas de galaxies, mais aussi par la fusion des bulles de vide. L'étude détaillée de l'évolution de ces vides, par exemple l'étude de leurs vitesses, doit pouvoir donner quantités d'informations très utiles, notamment du fait que par leur quasi absence de matière ordinaire ou noire, ces bulles de vide doivent connaître une physique très simple en étant dominées par l'énergie noire, qui est la cause de l’accélération de l'expansion cosmique et toujours mal comprise aujourd'hui.

Les bulles de vide évoluant en fonction des effets gravitationnels environnants 
(Diego G. Lambas/Victoria Rubinstein, Observatorio Astronomico Press Office)

A n'en pas douter, les bulles de vide de l'Univers sont des "objets" qui recèlent des secrets sur l'évolution non seulement des galaxies et de leurs amas mais aussi sur l'Univers dans sa globalité, de vrais objets cosmologiques.



Sources :


Vast cosmic voids merge like soap bubbles

Ron Cowen
Nature News (15 October 2015)

The sparkling Universe: the coherent motions of cosmic voids

Diego G. Lambas, et al.
à paraître dans Monthly Notices of the Royal Astronomical Society Letters
http://arxiv.org/abs/1510.00712