dimanche 31 janvier 2016

La nature des amas globulaires remise en question

Les amas globulaires sont des structures bien connues des astronomes amateurs qui aiment tant les admirer. L'origine de ces amas d'étoiles de forme sphérique est pourtant toujours controversée, surtout depuis la découverte il y a une dizaine d'années qu'ils pouvaient contenir plusieurs générations d'étoiles.



La question de la nature des amas globulaires vient d'être relancée par une nouvelle observation sur des amas globulaires jeunes qui pourtant arborent déjà plusieurs types de populations d'étoiles.
NGC 1783 imagé par Hubble (HST/NASA/ESA)
Les premiers amas globulaires ont été découverts au 17ème siècle, visibles pour les plus brillants d'entre eux avec un petit télescope. Les plus denses peuvent contenir plusieurs centaines de milliers d'étoiles liées entre elles gravitationnellement. Ils peuvent avoir l'âge de la galaxie qui les abrite, le plus souvent plus de 10 milliards d'années.
Pendant très longtemps, les astronomes ont pensé que les amas globulaires étaient peuplés d'étoiles très semblables en type et donc en âge. Mais en 2004, à partir d'observations photométrique effectuées avec le télescope spatial Hubble sur l'amas ω Centauri, les astronomes découvrirent non pas une seule population d'étoiles, mais plusieurs. Puis d'autres observations sur d'autres amas globulaires arrivèrent par la suite à la même conclusion. Les amas globulaires étaient plus complexes que ce que l'on pensait et avaient bien connu plusieurs épisodes de formation d'étoiles au cours de leur vie.
A partir de là, les astronomes tentèrent d'élaborer des scénarios pour expliquer un tel phénomène. On parla par exemple de vents stellaires éjectés par des étoiles de masse moyenne, ou d'éjecta de specimens de grande masse tournant à haute vitesse, qui auraient pu servir de déclencheurs de la formation de nouvelles étoiles. Une autre hypothèse résistait à cette vision en proposant qu'il n'y ait bien qu'une seule population d'étoiles mais que certaines étoiles dans des systèmes binaires pourraient arracher de la matière à leur compagne, formant un disque protoplanétaire autour d'elles et créant alors l'impression qu'il existait des étoiles jeunes. 
Mais aucune des hypothèses théoriques proposées ne semble à l'heure actuelle permettre d'expliquer correctement les observations, en termes de masse d'amas ou encore de dynamique. Les astrophysiciens sont à la recherche de nouvelles idées alternatives. 

Chengyuan Li (Kavli Institute for Astronomy and Astrophysics, Université de Pékin) et ses collaborateurs apportent une nouvelle piste suite à de récentes observations qu'ils ont effectuées sur trois amas globulaires massifs se trouvant dans les galaxies naines des Nuages de Magellan :  NGC 1783, NGC 1696 et NGC 411. Ces amas globulaires sont relativement jeunes, entre 1 et 2 milliards d'années. Les chercheurs montrent que ces amas globulaires ont connu une bouffée de formation d'étoiles plusieurs centaines de millions d'années après leur naissance, soit à la moitié de leur existence, grâce à la présence d'une surabondance d'hélium décelée dans les étoiles les plus jeunes de ces amas et à la répartition spatiale de ces étoiles au sein des amas.
La nouvelle hypothèse que Li et ses collaborateurs proposent à partir de ces observations est que les amas globulaires auraient pu traverser des nuages de gaz au cours de leur rotation autour de la galaxie et se faisant auraient pu accréter suffisamment de gaz pour servir de réservoir à la formation de nouvelles générations d'étoiles. 

Les chercheurs font également l'hypothèse que les jeunes amas globulaires observés dans les Nuages de Magellan ne seraient que des versions modernes des plus vieux amas globulaires pour dire que le processus invoqué pourrait avoir eu lieu de la même façon sur les très vieux amas globulaires. Cette dernière hypothèse est néanmoins sujette à une petite polémique entre spécialistes. Le lien entre amas globulaires jeunes et vieux amas globulaires n'est pas encore bien établi et la généralisation peut il est vrai sembler délicate à faire.
Il n'en reste pas moins vrai que l'approche innovante de Li et ses collaborateurs apporte une nouvelle solution qui mérite d'être approfondie, et qui devra commencer par mieux cerner les liens qui peuvent exister entre les amas globulaires de différents âges, dans les galaxies naines ou dans notre Galaxie.


Sources :

Formation of new stellar populations from gas accreted by massive young star clusters
Chengyuan Li et al.
Nature 529, 502–504 (28 January 2016)
http://dx.doi.org/10.1038/nature16493

Stellar astrophysics: The mystery of globular clusters
Antonella Nota & Corinne Charbonnel
Nature 529, 473–474 (28 January 2016) 
http://dx.doi.org/10.1038/529473a

vendredi 29 janvier 2016

Nuage de Smith : un mystère résolu qui en soulève un autre

Le Nuage de Smith, un nuage de gaz énorme découvert dans les années 1960 aux abords de notre Galaxie était resté jusqu'alors mystérieux, son origine n'ayant pu être déterminée. Une équipe d'astronomes américains vient d'en percer le mystère. 



Pour connaitre l'origine du Nuage de Smith, il fallait pouvoir déterminer sa composition : s'il est composé essentiellement d'hydrogène et d"hélium, il vient très probablement du milieu intergalactique, mais si il contient des éléments lourds, ceux produits par les étoiles, cela indique une origine galactique.

NASA, ESA, A. Feild (STScI)
Le Nuage de Smith est le seul nuage de gaz à grande vitesse de notre galaxie, parmi des centaines connus, dont l'orbite est bien connue, notamment grâce à des études menées avec des radiotélescopes. Le nuage se meut en direction du disque de la Voie Lactée à 310 km/s, qu'il devrait atteindre dans 30 millions d'années. Le Nuage de Smith n'est pas un nuage de gaz compact, il est très allongé... Si il était visible à l’œil, sa taille dans le ciel couvrirait 30 fois le diamètre de la Lune.

Pour déterminer l'abondance en éléments lourds du Nuage de Smith, Andrew Fox (Hubble Space Science Institute à Baltimore) et ses collaborateurs ont utilisé le télescope spatial Hubble et son spectrographe COS (Cosmic Origin Spectrograph) pour analyser la lumière ultra-violette en provenance de trois galaxies actives lointaines à travers le gaz du nuage. La composition chimique du nuage peut alors être établie en observant à quelles longueurs d'ondes la lumière est absorbée par le gaz.

Les chercheurs ont particulièrement regardé l'absorption due à un élément particulier qui sert de marqueur efficace des éléments lourds : le soufre. Ce que montrent les astronomes, c'est que le Nuage de Smith contient, en proportion, autant de soufre que les régions externes de la Voie Lactée situées à 40 000 années-lumière du centre galactique.

Ce vaste nuage de gaz a donc bien une origine galactique : les chercheurs affirment qu'il a connu une période intime avec la Galaxie, mais a dû être éjecté du disque de la Voie Lactée il y a environ 70 millions d'années, mais est aujourd'hui en train de revenir à grande vitesse vers son centre tel un boomerang (voir l'illustration).
"Nous avons trouvé plusieurs nuages de gaz massifs dans le halo de la Voie Lactée qui pourraient servir de carburant pour les futures formations d'étoiles dans son disque, mais pour la plupart d'entre eux, leur origine reste incomprise. Le Nuage de Smith est probablement l'un des meilleurs exemples qui montre que le recyclage du gaz est un mécanisme important dans l'évolution des galaxies." explique Nicolas Lehner, co-auteur de l'étude parue dans The Astrophysical Jounal Letters.

Les astronomes ont mesuré la taille précise du Nuage de Smith, qui commence à arborer une forme de comète qui devrait s'accentuer au fil du temps et de son approche du plan galactique. Il fait aujourd'hui 11000 années-lumière de longueur pour 2500 années-lumière de largeur. Les astronomes estiment que lorsqu'il atteindra le disque galactique, le Nuage de Smith pourrait être à l'origine d'une zone de formation intense d'étoiles, d'environ 2 millions de soleils...

Ayant résolu le mystère de l'origine du Nuage de Smith, de nouvelles questions apparaissent : Comment ce nuage est-il arrivé là, quel genre d'événement a pu littéralement le catapulter du disque galactique ? Et comment a-t-il pu rester intact ? Ce pourrait-il qu'une région de matière noire particulièrement dense ait traversé le disque de la galaxie et ait pu "capturer" ce gaz en passant ? De quoi nourrir la curiosité de nombreux astrophysiciens dans les années qui viennent...


Source

On the Metallicity and Origin of the Smith High-velocity Cloud,
A. Fox et al.
The Astrophysical Journal Letters 816:L11, (1 January 2016)

jeudi 28 janvier 2016

La galaxie la plus lumineuse de l'Univers en train de s'auto-détruire

La galaxie la plus lumineuse que nous connaissons, un quasar nommé W2246-0526, a été observée en train d’éjecter la quasi-totalité de son gaz nécessaire à la fabrication de nouvelles étoiles. Le processus montre l’existence de turbulences hors normes.



Tanio Diaz-Santos décrit ce que son équipe a observé comme une marmite d’eau bouillante chauffée par un réacteur nucléaire. L’image est évidemment un peu trompeuse. Le quasar W2246-0526 est énergétisé par encore mieux qu’un réacteur nucléaire : un trou noir supermassif. Et l’eau dans la métaphore de l’astronome chilien doit être remplacée par du gaz interstellaire. W2246-0526 est une découverte récente car c’est en 2015 que ce quasar a été identifié, situé à la belle distance de 12,4 milliards d’années-lumière. Sa luminosité est exceptionnelle, 10 000 fois plus élevée que celle de la Voie Lactée, avec pourtant une taille plus petite.  Il a été découvert grâce au télescope infra-rouge WISE (Wide-field Infrared Survey Explorer).

Vue d'artiste du quasar W2246-0526
(NRAO/AUI/NSF; Dana Berry / SkyWorks; ALMA (ESO/NAOJ/NRAO))
Ce quasar (ou cette galaxie active) fait partie d’une classe de galaxies qui sont appelées des Hot DOGs - défense de rire -  qui signifie Hot, Dust Obscured Galaxies (galaxies chaudes obscurcies de poussière). Ces galaxies ont le point commun d’être essentiellement visibles en infra-rouge et de posséder un bon gros trou noir supermassif très actif. W2246-0526 peut également être classifiée dans la famille de galaxies dite ELIRG (Extra Luminous Infrared Galaxies).

Tanio Diaz et ses collaborateurs ont observé W2246-0526 dans les longueurs d’ondes submillimétriques, à la frontière des infra-rouges et des ondes radio, grâce au réseau de radiotélescopes ALMA, situé dans le désert de l’Atacama au Chili. Ils ont réussi à déterminer la dynamique du gaz expulsé par la galaxie.
De grandes quantités de gaz semblent se trouver ainsi dans un état fortement turbulent et avec des vitesses très élevées pouvant atteindre plus de 500 km/s. La turbulence du milieu interstellaire est déduite par les chercheurs grâce à l'observation de la dispersion de la raie d’émission du carbone, centrée à 157,7 µm mais qui se trouve très élargie, signant une forte dispersion de vitesse de la source d’émission, visible de manière homogène sur plus de 8000 années-lumière à travers la galaxie.
Diaz-Santos et ses co-auteurs estiment que le comportement très turbulent observé peut être lié à l’extrême luminosité de W2246-0526, qui est produite par un disque de gaz surchauffé spiralant vers le trou noir. La lumière intense et énergétique produite par ce disque d’accrétion est ensuite absorbée par les vastes nuages de gaz entourant le disque et le trou, qui réémettent ensuite l’énergie emmagasinée sous la forme de rayonnement infra-rouge.
C’est visiblement cette intense émission infra-rouge qui provoque les turbulences observées dans toute la galaxie. Les astronomes estiment qu’à ce rythme,  W2246-0526 aura rapidement expulsé la totalité de son gaz, celui-là même qui lui sert à former de nouvelles étoiles. Mais il se peut également que l’activité du quasar se calme rapidement par manque de matière à accréter, et avec elle l’éjection rapide de gaz, permettant à la galaxie de connaître enfin une phase plus normale.


Source :

The strikingly uniform, highly turbulent interstellar medium of the most luminous galaxy in the universe
T. Díaz-Santos et al.
The Astrophysical Journal Letters, Volume 816, Number 1 (2016)

Ça Se Passe Là-Haut a 5 ans !

C'était il y a 5 ans jour pour jour... le 28 janvier 2011, qu'apparaissait le premier billet de Ça Se Passe Là-Haut. Que de chemin parcouru, que d'observations, que de découvertes, avérées ou déchues, se sont succédées depuis lors! Grâce à vous, chers lecteurs, lectrices, auditeurs et auditrices, ce blog et ce podcast ont réussi à trouver leur place dans le domaine de la vulgarisation scientifique exigeante. Depuis cinq ans, presque tous les thèmes explorés par l'astrophysique, par l'astronomie, la cosmologie ou les astroparticules ont pu être abordés sur Ça Se Passe Là-Haut. 

Fidèles lecteurs(trices), les trous noirs et leur disque d'accrétion doivent désormais vous sembler familiers, tout autant que le concept de matière noire, la détection des neutrinos ou l'océan d'Encelade... Mais l'Univers est toujours - heureusement - source d'infinies contemplations, et il vous reste, autant qu'à moi, d'innombrables découvertes à faire.

La barre du million de pages vues va être dépassée d'ici quelques jours, il s'en est ainsi fallu de peu pour que cet anniversaire soit agrémenté d'un beau symbole. Depuis les quelques dizaines de pages vues à ses débuts aux plus de 1000 par jour d'aujourd'hui, le succès de ce blog montre que la science parfois pointue à toute sa place dans la blogosphère.
Depuis cinq ans, Ça Se Passe Là-Haut est hélas encore assez seul dans le monde des blogs et des podcasts francophones à faire ce travail de mise en lumière des études que publient chaque jour les chercheurs en astrophysique, ces recherches, les plus passionnantes qui soient, qui nous font découvrir un monde parfois étrange, souvent difficilement imaginable, cet Univers dans lequel nous évoluons et dont nous sommes faits.
Puisse Ça Se Passe Là-Haut avoir créé, durant ses 5 premières années, des vocations de blogueurs scientifiques, voire, soyons fous, des vocations de chercheurs scientifiques...

Merci de votre fidélité ! 

Je tiens également à remercier celles et ceux qui font le Café des Sciences ainsi que la communauté de Webastro pour la caisse de résonance qu'ils m'ont permis d'avoir depuis quelques années...

A très bientôt

Eric

mardi 26 janvier 2016

GRAVITY à l'assaut des trous noirs

Gravity était le titre d'un film fort intéressant, qui, on s'en souvient, débutait sur une superbe vision du télescope spatial Hubble, mais GRAVITY est aussi, et maintenant surtout, le nom d'un système optoélectronique qui vient d'être installé au Very Large Telescope de l'ESO au Chili et qui promet des prouesses.


L'amas du Trapèze dans Orion, et l'étoile double
Theta Ori F résolue grâce à GRAVITY

(MPE/ESO/Gravity consortium)
L'objectif principal de GRAVITY est de révéler les détails les plus fins qui soient sur le trou noir supermassif de notre Galaxie, Sgr A*. Le système GRAVITY consiste à mélanger la lumière de quatre télescopes pour en former un grand qui aurait le diamètre de la distance séparant les télescopes individuels, jusqu'à un diamètre virtuel de 200 m... Le concept optique à la base de ce phénomène est appelé l'interférométrie. Il s'agit, en combinant la lumière captée par différents miroirs, de faire interférer les ondes lumineuses entre elles pour en extraire une information enrichie et permettre ainsi d'atteindre une résolution spatiale équivalente à celle qui serait obtenue si il n'y avait qu'un seul énorme miroir. 
GRAVITY est un instrument européen conçu et construit majoritairement par les ingénieurs et scientifiques allemands du Max Planck Institute für Extraterrestrische Physik à Garching avec le concours de nombreux français à Paris et à Grenoble. Il sera installé définitivement sur les 4 télescopes de 8 m du VLT à la fin de l'année, mais pour vérifier que tout fonctionne comme prévu, l'instrument vient d'être testé au Paranal en grandeur réelle sur les 4 télescopes auxiliaires du VLT, qui font tout de même 1,8 m chacun, après une installation qui avait débuté à l'été 2015.

Ces premiers tests en ont fait déjà le plus grand interféromètre optique du genre jamais installé. Les premières observations se sont concentrées sur la constellation d'Orion, et plus précisément l'amas du Trapèze, qui contient de nombreuses étoiles jeunes, au cœur d'une région riche de formation d'étoiles. Et GRAVITY traitant les images des télescopes auxiliaires du VLT a pu découvrir que l'une de ces étoiles, nommé Theta Orionis F était en fait une étoile double.
L'instrument GRAVITY, la grosse cuve visible est un cryostat
permettant de refroidir le système optoélectronique pour
obtenir de meilleures performances (MPE)

La puissance de GRAVITY, outre sa capacité à faire interférer des signaux optiques, est de pouvoir le faire sur des pauses de longue durée, plusieurs minutes, ce qui était difficile auparavant avec cette technique. Le gain en exposition qu'offre GRAVITY est de l'ordre d'un facteur 100 par rapport au système interférométrique précédemment le plus performant. Les chercheurs menés par Frank Eisenhauer montrent ainsi qu'il sera possible de faire des observations interférométriques sur des objets à très faible luminosité, tout en repoussant les limites de la résolution spatiale ou angulaire à des niveaux encore jamais atteints.  

Pour stabiliser le télescope virtuel durant une longue période et permettre l'observation d'objets très faibles, les astronomes utilisent la lumière d'une étoile de référence, dans le cas de cette première observation dans Orion, il s'agissait de Theta Orionis C. La stabilisation de la lumière provenant de quatre télescopes simultanément est aussi une première mondiale.

Une fois que GRAVITY sera installé auprès des quatre grands télescopes de 8 m du VLT, ce qui est prévu d'ici la fin 2016, les astrophysiciens pourront observer de très près ce qui se passe à proximité de l'horizon de Sgr A*, là où le champ gravitationnel devient très intense. Il pourra également fournir de précieuses données sur les régions situées juste autour du trou noir : la zone d'accrétion de matière et là où naissent des jets de matière et de rayonnement, et pas qu'autour de notre trou noir supermassif mais aussi d'autres bien plus lointains. Mais GRAVITY servira aussi à d'autres domaines de l'astrophysique comme par exemple l'étude détaillée de la dynamique des étoiles binaires, des exoplanètes, ou celle des disques protoplanétaires entourant des étoiles naissantes. Il pourrait également permettre d'imager directement la surface de certaines étoiles.

Les premiers tests s'étant révélés plus que concluants, il ne reste plus qu'à passer aux choses sérieuses.


Source :

First Light For Future Black Hole Probe

vendredi 22 janvier 2016

Une nouvelle méthode pour la détection indirecte de la matière noire

Une nouvelle méthode de mesure pourrait permettre d’élucider enfin le mystère de la raie X à 3,55 keV observée dans de nombreuses galaxies et attribuée par certains astrophysiciens à la présence de particules de matière noire.



Il fallait y penser, et c’est Eric Speckhard du Center for Cosmology and AstroParticle Physics de l’Université de l’Ohio et son équipe qui y ont pensé. Comment savoir si cette raie d’émission X mystérieuse à 3,55 keV est produite par du gaz galactique fortement ionisé (donc relativement classique) ou bien par la désintégration de particules de matière noire exotiques ? Les vitesses de ces deux composantes au sein d’une galaxie sont différentes ! Et qui dit vitesse d’une source de rayonnement électromagnétique (quel que soit le domaine de longueur d’onde), dit effet Doppler, ou décalage spectral. Une source de rayonnement qui s’éloigne produit un rayonnement qui se retrouve, pour l’observateur, décalée vers le rouge (les grandes longueurs d’ondes, ou basses énergies), et inversement, lorsqu’elle se rapproche, cette dernière est décalée vers les plus petites longueurs d’ondes.

Principe de la méthode proposée par Speckhard et al. Le gaz et les particules de matière noire émettraient des rayonnements ayant un décalage spectral opposé dans deux zones opposées de la Galaxie (décalage vers le rouge pour l'un et vers le bleu pour l'autre et vice-versa)
Dans une galaxie, le gaz interstellaire comme toutes les étoiles, est en rotation dans le même sens, autour du centre de la galaxie. Le soleil étant situé à environ un tiers du rayon visible de la Galaxie et tournant avec l’ensemble, lorsque l’on observe différentes directions de la Galaxie, on voit donc des décalages spectraux différents, vers le rouge pour la zone située « devant » le Soleil dans sa course galactique, et vers le bleu pour la zone qui est située « derrière » lui (voir le schéma).
Pour ce qui concerne les particules de matière noire, il en est tout autrement. Les modèles généralement admis décrivant la matière noire font état de la présence d’un vaste halo quasi sphérique peuplé de particules massives dans lequel baignent les étoiles et le gaz de la galaxie. La direction de ces particules est aléatoire. On peut se représenter un tel halo comme une sorte de bulle de gaz où chaque particule est en orbite autour du centre du halo mais avec chacune avec direction différente. Donc, vu d’ici, après soustraction de la vitesse du soleil (et de celle de la Terre autour du Soleil), la vitesse moyenne observée de ces particules devrait être nulle,  car on devrait en voir autant s’éloigner de nous que s’en rapprocher. Si ces particules se désintègrent en émettant un photon X de 3,55 keV, la longueur d’onde que nous devrions observer devrait alors être décalée uniquement à cause de la vitesse relative du Soleil par rapport au centre de la Galaxie.

Le fait important ici, c’est que ces longueurs d’ondes (ou ces énergies, rappelons que E = hc/l) émises par des particules de matière noire se désintégrant, auraient au final un décalage spectral différent en fonction de la zone de la Galaxie observée, cette différence étant inverse de celle observable dans le cas du gaz : décalée vers le bleu quand on regarde vers l’ « avant » du Soleil et décalée vers le rouge quand on regarde vers l’ « arrière ».

C’est toute l’idée de Eric Speckhard : pour savoir si la raie à 3,55 keV observée par les télescopes X Chandra X-Ray Observatory et XMM-Newton est due à une émission de gaz, il suffit de l’observer dans des directions différentes, vers l’ « avant » du soleil » et vers l’ « arrière ». Si les photons sont légèrement plus « rouges » (moins énergétiques) vers l’ « avant » du Soleil que vers l’arrière, il s’agit de gaz, si on observe le contraire, on tient de la matière noire !
Vue d'artiste de ASTRO-H (JAXA)

Cela peut paraître simple sur le papier, mais lorsqu’il s’agit de faire ces mesures, c’est évidemment un peu plus compliqué. D’après les valeurs typiques de vitesse qui existent dans la galaxie, les auteurs calculent que les décalages spectraux en question ne devraient pas dépasser 0,1%, soit environ 4 eV en termes de décalage en énergie. Or aujourd’hui aucun télescope à rayons X ne peut résoudre une si faible différence énergétique. Aujourd’hui, non, mais demain oui. Disons… dans quelques jours, oui. Effectivement, les meilleurs télescopes X aujourd’hui en orbite, Chandra, XMM-Newton, Suzaku et NuSTAR n’atteignent pas la performance requise. Mais ils vont être rejoints en orbite (et très vite supplantés) par le tout nouveau télescope X japonais nommé ASTRO-H, dont le lancement est prévu le 12 février.

Et ASTRO-H est muni d’un spectromètre pour les X mous qui peut atteindre une résolution en énergie de quelques eV pour des rayons X de quelques keV. Eric Speckhard  et ses collègues ont fait le calcul : en exploitant une exposition de 23 jours dans chaque direction galactique intéressante, l’effet sur la raie à 3,55 keV devrait être observé...
Cette nouvelle méthode qu’on peut appeler de la spectroscopie de vitesse pourrait ainsi se révéler extrêmement puissante dans le cadre de la recherche indirecte de matière noire. Même si finalement la raie à 3,55 keV se révèle avoir une origine gazeuse, la méthode restera un outil tout à fait pertinent pour discriminer un signal de matière noire d’un autre signal astrophysique plus classique.
Et si la raie à 3,55 keV se trouve avoir une origine de particules de matière noire, cette même méthode de spectroscopie de vitesse, en étant encore améliorée par des détecteurs toujours plus performants en résolution, pourrait permettre d’explorer en détails la structure spatiale et dynamique de la matière noire dans la Galaxie, voire dans d’autres galaxies. La matière noire ne serait  alors plus noire.


Source :

Dark matter velocity spectroscopy
Eric Speckhard et al.
Physical Review Letters 116, 031301 (22 January 2016)

jeudi 21 janvier 2016

Hypothèse d'une neuvième planète : le pourquoi ? et le comment ?

Vous avez très certainement entendu parler de la « découverte » d’une neuvième planète, géante, aux confins de notre système solaire. Il faut toutefois faire très attention avec les termes employés, car de découverte il n’y a point, juste de forts indices... qui peuvent se révéler faux.


Ce que montrent Mike Brown et Konstantin Batygin, astronomes au California Institute of Technology,  est que les orbites très allongées de certains objets de la ceinture de Kuiper ne pourraient s’expliquer que si il existe un objet massif, une planète géante de la taille de Neptune, ayant une orbite elle aussi très allongée et distante, au plus près, de 200 unités astronomiques (U.A).
Fait rarissime, l’astronome qui a vérifié l’article pour la revue The Astronomical Journal dans laquelle paraît le résultat de ce calcul, le referee, restant normalement anonyme, s’est identifié auprès des grands média pour dire que les auteurs de l’étude ont de très solides arguments et qu’il est « presque convaincu que la planète existe ». Mais d’autres astronomes restent toutefois perplexes.
Orbite de la 9ème planète hypothétique et des
6 KBO étudiés par Brown et Batygin (Caltech/R. Hurt)

Mike Brown n’est pas un inconnu en planétologie puisqu’il est surnommé le « tueur de Pluton ». C’est en effet lui et son équipe qui ont découvert les premières planètes naines trans-neptuniennes Eris et Sedna, qui ont prouvé que Pluton n’était rien d’autre qu’une planète naine elle aussi. Il aurait ainsi réussi à tuer la neuvième planète pour la remplacer par une autre…
L’histoire de cette « planète 9 » comme l’appellent Brown et Batygin remonte à 2014 quand fut découvert un objet de la ceinture de Kuiper (KBO) nommé VP 113 qui montre une orbite parmi les plus allongées et lointaines du système solaire, ne s’approchant pas à moins de 80 U.A du Soleil. Seule la planète naine Sedna a une orbite encore plus lointaine du soleil à son périhélie (point le plus proche du soleil). Rappelons que Pluton se situe au plus loin à 48 U.A, et Neptune à 29 U.A. Déjà à cette époque, le duo d’astronomes Chadwick Trujillo et Scott Sheppard qui avait reporté cette découverte affirmaient que de telles orbites ne pouvaient exister sans la présence d’une planète plus massive que la Terre qui devrait être située aux environs de 250 U.A. C’est à partir de là que Brown et Batygin se sont lancés dans cette quête.

Trujillo et Sheppard avaient remarqué que Sedna, VP 113 et d’autres objets de la ceinture de Kuiper avaient des points communs : leur périhélie se trouve, pour chacun d’entre eux, exactement dans le plan du système solaire. En revanche, leurs orbites respectives, elles, sont légèrement inclinées, mais toutes dans le même sens.
Mike Brown (à gauche et Konstantin Batygin (à droite (Caltech)

Batygin and Brown, en analysant de manière plus approfondie les orbites elliptiques de 6 de ces objets (Sedna, VP 113, GB 174, TG 422, VN 112 et RFS 98), ont trouvé en plus que les grands axes de leur ellipse étaient également alignés entre eux, comme si quelque chose avait produit un effet sur eux les forçant à occuper la même zone. Ils calculent que la probabilité que ce regroupement soit dû au hasard est de 0,007%.
Après des mois de simulations numériques des effets gravitationnels à plusieurs corps, Batygin et Brown en concluent  à la présence d’une planète géante, glacée et gazeuse, qui serait probablement un peu moins massive que Neptune, avec une masse comprise entre 5 et 15  fois la masse de la Terre. Puisqu’une telle géante gazeuse n’aurait pas pu se former aussi loin du soleil lors de l’époque de formation des planètes, les auteurs pensent qu’elle aurait pu naître non loin d’Uranus et Neptune et être éjectée par les effets gravitationnels combinés d’Uranus et de Neptune dans les 3 premiers millions d’années du système solaire, puis freinée dans son élan par le gaz du disque protoplanétaire et rester ainsi tout de même en orbite autour du soleil.

L’orbite de cette « planète 9 », déjà appelée de manière informelle « Phattie », est telle, en termes d’élongation (entre 200 U.A et 1200 U.A) et de période (entre 10 000 et 20 000 ans) que son observation directe semble délicate. Elle passerait la plupart du temps à une très grande distance et ne rayonnerait que la lumière du soleil réfléchie bien évidemment, donnant un éclat extrêmement faible. Le champ de vue des meilleurs télescopes de la classe 8 m ou 10 m, ainsi que Hubble, est malheureusement très faible, et revient à chercher une aiguille dans une grange de foin.
Mais Brown et Batygyn ont tout de même commencé à chercher avec le télescope Subaru de 8,2 m situé à Hawaï, qui offre l’un des champs de vue les plus importants, sans succès pour le moment. Ils ont calculé qu’il leur faudrait environ 5 ans pour explorer la zone du ciel où pourrait se trouver cette fameuse planète. Ils misent également sur le futur LSST (Large Synoptic Survey Telescope) qui entrera en service au début des années 2020 et qui couvrira des champs inédits. La quête de l’observation directe est rendue difficile du fait que la position de la planète sur la voûte céleste, si celle-ci existe bien sûr, est très mal connue.

Le télescope Subaru  (National Astromical Observatory of Japan)
Pour tenter de confirmer son existence, ou du moins rendre plus robuste cette hypothèse, il faudra observer d’avantage d’objets de la ceinture de Kuiper qui auraient pu être influencés par la planète. Les calculs montrent que ces KBO perturbés devraient avoir une orbite très fortement inclinée. Quelques cas de ce type ont déjà été répertoriés sans avoir pu être expliqués, mais il est essentiel d’en trouver de nombreux autres.
Parmi les sceptiques, il y a le planétologue Dave Jewitt, qui découvrit la ceinture de Kuiper. Il fait remarquer que la probabilité annoncée de 0,007% correspond à une signification statistique de seulement 3,8 sigmas, certes au-dessus de 3 sigmas qui commencent à indiquer la présence d’un signal, mais loin des 5 sigmas utilisés en physique des particules pour annoncer une découverte, et de relater nombre de résultats à 3 sigmas qui se sont finalement révélés être du vent.
Il existe un autre point négatif qui est lié lui à des observations en infra-rouge par le satellite Widefield Infrared Survey Explorer (WISE) de la NASA, qui a scanné tout le ciel à la recherche de naines brunes ou de planètes géantes. Les conclusions de 2013 sur cette campagne d’observation rejettent l’existence de planètes plus grosses que Saturne à une distance inférieure à 10 000 U.A. Mais Kevin Luhman, qui avait mené cette recherche pense tout de même que WISE aurait pu manquer une planète plus petite que Neptune.
Mike Brown reste lucide et optimiste, il sait que personne ne croira à la découverte d’une nouvelle planète dans le système solaire avant qu’elle ne soit observée directement dans un télescope, il dit : « Tant qu’il n’y a pas de détection directe, c’est une hypothèse,… on peut même dire une très bonne hypothèse ». 


Sources :

Evidence for a distant giant planet in the solar system
Konstantin Batygin and Michael E. Brown
The Astronomical Journal, Volume 151, Number 2

Evidence grows for giant planet on fringes of Solar System
Alexandra Witze
Nature 529, 266–267 (21 January 2016)

Astronomers say a Neptune-sized planet lurks beyond Pluto
Eric Hand
Science (20 Jan. 2016)



mercredi 20 janvier 2016

Nouveau départ pour l’astronomie X

Le 12 février va être lancé depuis le centre spatial de Tanegashima l’un des télescopes spatiaux les plus attendus du moment : ASTRO-H. Le télescope de près de 3 tonnes, emporté par un lanceur H-IIA,  est le sixième télescope à rayons X construit par l’Institute of Space and Astronautical Science (ISAS) de l’agence spatiale japonaise JAXA (le précédent était le télescope Suzaku). Mais cette fois-ci il a été conçu dans  une très large collaboration, avec le concours de 70 institutions au Japon, en Europe (notamment l’ESA et en France le CEA), aux Etats-Unis avec le Goddard Space Flight Center de la NASA et au Canada. 


ASTRO-H en cours de préparation en novembre 2015 (JAXA)
L’objectif de ASTRO-H est multiple, il devrait permettre, grâce à ses performances exceptionnelles, de grandes avancées dans l’exploration de l’Univers par ses événements les plus violents (impliquant l’émission de rayons X et de rayons gamma).
ASTRO-H sera notamment exploité, grâce à ses cinq instruments d’imagerie et de spectroscopie de très haute performance, pour l’étude de l’évolution des amas de galaxies, pour observer le comportement de la matière en champs gravitationnels extrêmes, pour étudier la rotation des trous noirs et la matière des étoiles à neutrons, pour scruter les phénomènes d’accélération de particules apparaissant dans les amas de galaxies et les supernovas, ainsi que pour étudier en détails la physique des jets de matière et de rayonnement produits par les trous noirs, cette liste n’étant bien sûr pas exhaustive.

ASTRO-H apporte des innovations majeures par rapport aux télescopes X aujourd’hui en fonction comme Suzaku,  Chandra-X-Ray Observatory, XMM-Newton ou NuStar. Avec ses instruments scientifiques, il sera à même de produire pour la première fois une imagerie spectroscopique sur des rayons X « durs » (d’énergie supérieure à 10 keV), mais également de fournir une résolution en énergie extrêmement élevée (seulement 7 eV de résolution dans la bande 0,3-10 keV, la meilleure jamais atteinte en orbite), et le tout sur une très large gamme d’énergie s’étalant entre 300 eV et 600  keV.

Vue d’artiste de ASTRO-H (Akihiro Ikeshita / JAXA)
L’astronomie X, s’attachant à la détection des photons énergétiques émis par les phénomènes astrophysiques les plus violents, n’a été rendue possible qu’à partir de l’avènement des instruments en orbite. En effet, l’énergie élevée de ces photons leur est fatale lorsqu’ils arrivent dans l’atmosphère terrestre et ses quelques kilomètres de gaz dense. Les rayons X et gamma sont suffisamment énergétiques pour ioniser les atomes d’azote ou d’oxygène ou être diffusés par leurs électrons,  et donc être fortement atténués ou absorbés avant de parvenir au niveau du sol.
Les premières observations en orbite furent effectuées dès 1962 par une fusée américaine Aerobee, qui permit d’identifier la première source X lointaine, Scorpius-X1. Mais le premier véritable télescope à rayons X fut le télescope américain Einstein lancé en 1978 et qui produisit de nombreuses données inédites jusqu’en 1981.
Les européens ne furent pas en reste avec le lancement du télescope ROSAT en 1990, qui réussit à cartographier plus de 120 000 sources X jusqu’en 1999. On peut également citer le télescope américain RXTE en activité durant 16 ans entre 1995 et 2011 à qui on doit de très nombreuses découvertes dans le domaine des objets compacts, étoiles à neutrons ou trous noirs. Mais les télescopes spatiaux à rayons X les plus performants aujourd’hui sont sans conteste l’américain Chandra X-Ray Observatory, et l’européen XMM-Newton, lancés tous les deux en 1999 (à quatre mois d’intervalle), et souvent utilisés ensemble aujourd’hui pour valider des observations sortant des sentiers battus.
Chandra comme XMM-Newton ont été conçus pour analyser et imager des rayons X mous, d’énergie inférieure à 10 keV. Chandra était un grand projet dans les cartons de la NASA depuis la fin des années 1970 à l’instar du télescope Hubble, tandis que XMM-Newton était lui plutôt la suite logique de ROSAT, avec des améliorations technologiques et plus de contributeurs partout en Europe. Les découvertes que ces deux télescopes ont produites depuis plus de 15 ans sont innombrables et touchent à tous les domaines de l’astrophysique des phénomènes violents.
Manquaient néanmoins jusqu’à récemment la possibilité d’étudier des rayons X un peu plus énergétiques, des rayons X « durs ». Le vide a été comblé tout d’abord par les japonais avec Suzaku en 2005 puis par la NASA en 2012 avec la mise en orbite du télescope NuSTAR, capable d’imager des photons X jusqu’à 80 keV, venant ainsi compléter très efficacement les deux autres grands observatoires X.

Vue d'artistes des quatre télescopes X en activité aujourd'hui (NASA, JAXA, ESA)
Suzaku est le nouveau nom qui avait été donné à ASTRO-E2 une fois en orbite, selon la tradition japonaise. Ce dernier a hélas connu une histoire mouvementée. Il a été lancé une première fois en 2000 mais a été perdu dans l’explosion du lanceur. Il fut refabriqué à l’identique pour être à nouveau lancé en 2005, avec succès cette fois-ci, mais de courte durée car il subit une perte de gaz de refroidissement deux semaines à peine  après être arrivé en orbite, perdant l’un de ces trois instruments.
L’astronomie X au Japon est une longue histoire. Suzaku était déjà le cinquième télescope X japonais. Le premier de la série remonte à 1981, avec ASTRO-A (renommé Hinotori), petit télescope d’à peine 200 kg dédié à l’étude des rayons X du Soleil. ASTRO-B (Tenma), guère plus gros, fournit de précieuses données sur les sources X variables et leurs caractéristiques spectrales entre 1983 et 1985. Il fut suivi par ASTRO-C (Ginga), plus imposant et emportant déjà un double système de détection pour observer à la fois les rayons X mous et les rayons gamma, à la recherche simultanément de trous noirs actifs, de pulsars X, des raies d’émissions caractéristiques du fer, et de l’apparition de bouffées de rayons gamma. Ginga a été actif entre 1987 et 1991 et laissa ensuite la place au télescope Asca (ASTRO-D) qui fut actif plus longtemps, entre 1993 et 2000, date à laquelle il fut perdu à cause d’une tempête magnétique… sans pouvoir être immédiatement remplacé par le futur Suzaku.
Mais Suzaku, comme XMM-Newton, Chandra et même NuSTAR sont des télescopes qui commencent aujourd’hui à vieillir et ce n’est sans doute pas un hasard si les américains et les européens participent aujourd’hui activement au développement de ASTRO-H. Car ASTRO-H fait la synthèse de tous les télescopes X précédents en en gardant le meilleur. Il permettra d’atteindre de bien meilleures performances que les meilleurs instruments actuellement en orbite, et finira par les supplanter très vite.

Principe du télescope à rayons X (focalisation de Wolter)
(Goddard Space Flight Center/NASA)
Il faut se souvenir que les rayons X sont suffisamment énergétiques pour traverser un miroir de télescope. La focalisation des rayons X est ainsi rendue beaucoup plus complexe que celle plus classique adaptée aux rayonnements allant des UV aux infra-rouges ou aux ondes radio. Les solutions généralement retenues pour focaliser des photons X est d’utiliser le principe de Wolter, qui utilise la diffusion rasante, par les phénomènes de réflexion totale externe et de diffusion de Bragg : une série de multiples petits « miroirs » cristallins multicouches (de carbone et platine par exemple) tapissent la paroi interne d’une structure cônique, et permettent de guider les rayons X avec une incidence rasante de miroir en miroir au niveau des parois vers le plan focal. Ce principe de focalisation de par les petits angles en jeu, résulte en des formes de télescopes très allongées, avec des longueurs pouvant atteindre une dizaine de mètres. C’est aussi le cas avec ASTRO-H qui possède une longueur focale maximale de 12 m.

Les instruments embarqués sur ASTRO-H sont regroupés en quatre télescopes, deux pour les X mous et deux pour les X durs, ainsi que d’un détecteur de rayons gamma, tous montés sur un banc unique avec une distance focale de 6 m pour ceux dédiés aux rayons X mous et 12 m pour les rayons X durs (voir encadré).


Rayons X de 300 eV à 10 keV (rayons X « mous »)

·         Soft X-ray Spectrometer (SXS)

Le SXS est composé d’un système de focalisation, le Soft X-ray Telescope (SXT-S) et d’un détecteur, le X-ray Calorimeter Spectrometer (XCS). Le calorimètre XCS est une véritable prouesse technologique, le semiconducteur de tellurure de mercure utilisé ne fait que 8 microns d’épaisseur et pour atteindre la résolution en énergie record de 7 eV seulement, il doit être refroidi à la température de 50 mK (50 millièmes de degrés au-dessus du zéro absolu). Son champ de vue sera de 2,85 minutes d’arc de côté. En termes de surface effective pour les X mous, ASTRO-H fera mieux que son prédécesseur Suzaku de plusieurs dizaines de pourcents.
L’instrument SXS est particulièrement bien adapté pour étudier les raies d’émission du fer de type K, qui permettent de révéler ce qui se passe dans des plasmas à des températures de l’ordre de 108 K que l’on trouve dans les disques d’accrétion stellaires, les résidus de supernovas, ou encore les amas de galaxies. La grande force de SXS est qui peut produire des spectres de sources étendues. Sa résolution en énergie est insensible à la taille de la source astrophysique. Il permet ainsi des mesures spectroscopiques à haute résolution en énergie encore jamais atteintes par les autres instruments du même type.

·         Soft X-ray Imager (SXI)

Le SXI est lui aussi composé d’un « télescope », nommé SXT-I, système de multi-miroirs, et d’un détecteur, un imageur déployant un capteur CCD de nouvelle génération qui captera des photons dans la gamme de 0,5 à 12 keV, nommé SXI. SXI couvrira un grand champ de 35 minutes d’arc de côté, venant compléter le champ plus petit du calorimètre de SXS. Le SXI est lui aussi refroidi, mais « seulement » à -120° (150 K). Le système de miroirs associé a une longueur focale de 6 m pour un diamètre de seulement 45 cm.


Rayons X de 5 keV à 80 keV (rayons X “durs”)

Le système de détection dédié aux rayons X durs est composé de deux télescopes identiques redondants, composés d’un système de focalisation et d’un détecteur, nommés respectivement HXT (Hard X-ray Telescope ) et HXI (Hard X-ray Imager).
·         Hard X-ray Telescope (HXT)
La structure particulière de focalisation des rayons X fait que la surface effective varie en fonction de l’énergie du photon incident. Pour des rayons X de 30 keV, la surface effective offerte par le HXT est de 300 cm².

·         Hard X-ray Imager (HXI)
Le HXI produira des images en rayons X sur la gamme de 5 keV à 80 keV. Il est constitué d’un détecteur à quatre couches de 0,5 mm de silicium (détecteurs SSD) surmontées d’une couche de de tellurure de cadmium (CdTe). Les rayons X de plus faible énergie (entre 5 et 30 keV) sont absorbés dans le silicium et les plus énergétiques (de 20 à 80 keV) dans la seconde couche semi-conductrice. De plus, ce détecteur pixelisé est plongé à l’intérieur d’un détecteur scintillateur de germanate de bismuth (BGO) qui aura pour vocation de rejeter très efficacement le bruit de fond.


Rayons gamma (de 100 keV à 600 keV)

·         Soft Gamma-ray Detector (SGD)
Le SGD n’est pas un imageur, mais plutôt un multi-détecteur de photons énergétiques ressemblant au satellite Fermi mais dans une variante  à plus basse énergie. Il ne peut pas  focaliser les rayons gamma arrivant, mais il les détecte en mesurant leur direction d’origine. SGD surpasse les précédents instruments similaires par un rejet très efficace du bruit de fond grâce à la technique innovante du « télescope Compton à champ de vue étroit ».  Le concept repose sur la recherche d’interactions doubles des photons énergétiques : une première interaction par diffusion Compton (diffusion élastique) dans la première partie du détecteur en silicium et une seconde interaction par photo absorption dans le segment suivant (en CdTe). Cette astuce permet, grâce à la connaissance des énergies déposées à chacune des interactions et de leur localisation, et grâce à la connaissance de la cinématique de la diffusion Compton, d’en déduire la direction d’origine du photon initial (un cône dans le ciel) et ainsi de nettoyer complètement le signal des signaux parasites signés par un cône d’arrivée reconstitué qui ne correspondrait pas avec le champ de vue défini par le collimateur placé devant le détecteur.

Les potentielles découvertes de ASTRO-H sont très nombreuses tant ses performances attendues dans une si vaste plage en énergie sont remarquables et utiles pour l’étude de nombreux domaines. Les applications d’ores et déjà envisagées ont été décrites dans une série de 16 white papers signés  fin 2014 par plus de 250 astrophysiciens impliqués dans la collaboration scientifique exploitant ASTRO-H.


La source X ultra-lumineuse M82-X2, produite par un pulsar,
a été mise en évidence par Chandra et Nustar.
(Chandra X-Ray Observatory/NASA)
On y retrouve pêle-mêle la physique des naines blanches, les phénomènes magnétiques, d’accrétion et de chocs, les binaires X, les pulsars accrétant et autres magnétars, les trous noirs de toutes tailles, les jeunes et moins jeunes résidus de supernovas, les nébuleuses de vent de pulsar, la dynamique du plasma du centre galactique, le gaz interstellaire et circumgalactique dans la Voie Lactée et d’autres galaxies, le gaz chaud des amas de galaxies, les noyaux actifs de galaxies, les phénomènes d’accélération de rayons cosmiques, ou encore l’évolution chimique de l’Univers jeune...

Et parmi toutes ces applications, il en est  une qui intéresse tout particulièrement les chasseurs de matière noire. Depuis quelques années en effet, des observations de certains centres de galaxies et d’amas de galaxies, effectuées avec XMM-Newton et Chandra,  ont montré la présence d’une raie d’émission de rayons X située à environ 3,55 keV. Cette raie inconnue peut être interprétée comme le résultat de la désintégration de particules pouvant former la matière noire (des neutrinos stériles). Mais cette raie se trouve également proche en énergie d’une raie potentiellement attribuable à du potassium fortement  ionisé qui pourrait être présent dans ces mêmes zones. Or, ni XMM-Newton ni Chandra n’ont la résolution en énergie suffisante pour pouvoir trancher. Mais ASTRO-H, lui, devrait fournir une réponse très claire grâce à sa résolution en énergie hors du commun, et ce en très peu de temps. Le mystère de la raie à 3,55 keV qui court depuis quatre ans sera résolu par ASTRO-H à n’en pas douter dans les mois qui viennent.

L’astronomie X voit un nouveau départ avec ce bijou de technologie unique qui va prendre son nouveau nom une fois en orbite, pour y rester au moins 7 ans. Avec ASTRO-H, le Japon s’affirme comme la grande puissance scientifique incontournable pour l’étude des processus extrêmes de l’Univers.