lundi 22 décembre 2014

samedi 20 décembre 2014

Un Maxi Trou Noir pour une Mini Galaxie

C'est une galaxie naine au nom barbare de J1329+3234. Elle est naine car toute petite, contenant seulement quelques centaines de millions d'étoiles, alors que pour comparaison, notre galaxie en comporte 1000 fois plus. Mais cette galaxie naine située à 200 millions d'années-lumière abrite en secret un trou noir très massif...



J1329+3234 est l'une des plus petites galaxies dans laquelle a pu être mise en évidence la présence d'un trou noir massif.
J1329+3234 vue en rayons X par XMM-Newton
(au centre de l'image)
(ESA/XMM-Newton, Secrest et al.)
En 2013, une équipe d'astronomes américains avait découvert dans cette galaxie une émission infra-rouge donnant une signature forte de la présence d'un trou noir en train d'accréter de la matière, mais assez étonnante car sans aucune contrepartie en lumière visible. C'est donc pour creuser cette piste que cette même équipe a utilisé le télescope spatial européen XMM-Newton pour observer J1329+3234 en rayons X, émissions très souvent associées aux disques d'accrétion des trous noirs.
Ce qu'ils ont découvert est plutôt surprenant : l'émission en rayons X provenant de cette galaxie naine est 100 fois plus forte que celle à laquelle on pouvait s'attendre en imaginant une population normale de petits trous noirs stellaires. L'équipe d'astrophysiciens américains animée par Nathan Secrest de l'Université George Mason en Virginie publie ses résultats dans The Astrophysical Journal, ils y montrent que l'émission X très importante associée à leurs premières détections infra-rouge ne peut avoir que pour origine un trou noir très massif, assez similaire à la façon dont des trous noirs supermassifs peuplent le centre des galaxies normales. 

Même si la masse exacte du trou noir ne peut pas encore être déterminée précisément, Secrest et ses collègues parviennent à fixer une limite inférieure pour cette masse : 3000 masses solaires. Mais il est probable que ce beau bébé pèse plus de 100000 masses solaires.

Evidemment, cette découverte est intéressante à plus d'un titre, d'abord parce qu'il est très rare de trouver un noyau actif de galaxie de ce type où la galaxie ne possède pas de bulbe central, et puis cette trouvaille participe à la recherche de l'origine des trous noirs supermassifs. On ne sait toujours pas très bien comment naissent ces gigantesques trous de l'espace temps tapis au centre des galaxies. Or là, nous sommes en présence d'un trou noir massif certes, mais pas supermassif. C'est en quelque sorte un trou noir intermédiaire entre un petit trou noir stellaire (une étoile effondrée-explosée de 10 masses solaires) et un trou noir supermassif de quelques millions de masses solaires.

Vue d'artiste de l'aspect de J1329+3234, sans bulbe
d'étoiles  et avec son trou noir massif central
(
ESA/ATG medialab)
Le paradigme dominant sur la formation des trous noirs supermassifs est qu'il se serait formé des "graines" très tôt dans l'histoire de l'Univers, issues de l'explosion des toutes premières étoiles, qui étaient déjà très massives et n'auraient donc vécues que quelques dizaines de millions d'années. Ces graines de trous noirs auraient ensuite grossi jusqu'à devenir des très gros trous noirs par fusions successives de galaxies. Comme on le sait, la fusion de deux galaxies mène inéluctablement un jour où l'autre à la fusion de leur trou noir central respectif. Et une fusion de galaxies est un phénomène quelque peu turbulent, qui produit en outre un apport de matière fraîche en grande quantité aux deux trous noirs en cours de rapprochement, les faisant grossir encore davantage.

Bien évidemment, une fois les deux trous noirs fusionnés, on a perdu toute information sur les plus petits trous noirs initiaux. Il apparaît alors très utile de traquer de tels systèmes de petites galaxies et petits trous noirs qui ont pu échapper à un phénomène de fusion, comme cette  J1329+3234.
La découverte de ce trou noir massif dans une petite galaxie sans bulbe comme J1329+3234 renforce le scénario d'un grossissement très efficace des premiers trous noirs au sein des halos gazeux des galaxies en formation. 
Nathan Secrest et ses collègues, au cours de leurs recherches en infra-rouge ont également trouvé plusieurs centaines d'autres galaxies sans bulbe ayant des caractéristiques très semblables à celles de  J1329+3234, notamment sans signe de noyau actif en lumière visible.
Secrest conclue : "Les trous noirs massifs et les noyaux actifs pourraient être bien plus communs dans les petites galaxies sans bulbe que ce que l'on pense aujourd'hui".
Ces dernières années, de plus en plus de trous noirs massifs ont pu être identifiés dans des galaxies naines mais leur détection est beaucoup plus difficile que celle de leurs cousins les supermassifs, car souvent très obscurcis en lumière visible, ou émettant très faiblement.

Cette nouvelle étude montre toute la puissance de ce qu'on appelle les recherches multi-longueurs d'ondes. Grâce à l'utilisation conjointe d'observations en visible, en infra-rouge et en rayons X, la mise en évidence du trou noir devient sans équivoque. XMM-Newton, en orbite depuis maintenant 15 ans, grâce à sa sensibilité toujours excellente, fournit des données permettant une très bonne caractérisation de l'objet massif et de son environnement et devrait continuer encore un moment...


Source : 
An optically obscured AGN in a low mass, irregular dwarf galaxy: A multi-wavelength analysis of J1329+3234
N. Secrest et al.
The Astrophysical Journal 798:38, (1 January 2015)

jeudi 18 décembre 2014

Première observation d'une SuperTerre avec un télescope terrestre

Pour la première fois, une équipe d’astronomes est parvenue à étudier une exoplanète de type SuperTerre avec un télescope terrestre relativement modeste.



La plupart des exoplanètes ont été détectées puis étudiées avec des télescopes spatiaux, dont la position en orbite rend la détection bien plus aisée. Certes, des très grosses exoplanètes, du type de Jupiter, ont pu également être détectées avec des télescopes terrestres, en revanche pour une SuperTerre, seulement 2 fois plus grosse que notre planète et 8 fois plus lourde, une détection depuis un télescope de 2,5 m de diamètre avec une atmosphère plus ou moins turbulente au-dessus de lui  est une réelle prouesse.

Vue d'artiste de 55 Cancri e comparée à la Terre
NASA/JPL-Caltech/R. Hurt (SSC)

Cette exoplanète fait partie d’un système stellaire de 5 planètes tournant autour d’une étoile très semblable au soleil, qui s’appelle 55 Cancri (55 Cnc) située seulement à 40 années-lumière de chez nous, dans la constellation du Cancer. La planète est la petite cinquième du système et porte la lettre e : 55 Cnc e. Les quatre autres étant des grosses planètes comme Jupiter avec des masses comprises entre 0,14 et 3,8 masses joviennes.

55 Cnc e avait été découverte en 2004 par un télescope spatial par des mesures de vitesse de son étoile, mais a pu être détectée ici par la méthode du transit : il s’agit d’observer la diminution de luminosité de l’étoile lorsque la planète passe devant au cours de sa période orbitale. Les chercheurs parviennent ainsi à déterminer la taille de la planète, en l’occurrence, 55 Cnc e a un diamètre égale à 2% de celui de son étoile, pour une masse de 7,8 fois celle de la Terre, l'étoile, elle, a une masse de 0,9 fois la masse solaire. 

L’équipe européenne menée par Ernst De Mooij a utilisé un télescope de 2,5 m, le Nordic Optical Telescope (NOT) à l’observatoire del Roque de los Muchachos à La Palma, aux Canaries. Ils ont observé en mode spectrophotométrique, grâce à l'instrument Andalucia Faint Object Spectrograph and Camera (ALFOSC) associé au NOT,  en regardant en même temps l’étoile 55 Cnc et une deuxième étoile très proche (BO Cnc) qui leur a servi de référence pour éliminer les effets des perturbations atmosphériques et les effets instrumentaux parasites.
Coupole abritant le Nordic Optical Telescope à La Palma

La dimension de la planète 55 Cnc e qu'ils obtiennent et publient dans The Astrophysical Journal Letters est tout à fait cohérente avec d'autres valeurs obtenues avec des télescopes spatiaux en 2012 et en 2014, le canadien MOST (Microvariability and Oscillations of STars), qui est aussi le plus petit télescope spatial et l'états-unien plus imposant Spitzer.

Il faut tout de même garder à l'esprit que 55 Cnc e a beau être une superTerre, elle est loin d'être similaire à la Terre : c'est l'une des exoplanètes qui a la période de révolution autour de son étoile la plus courte : une année sur 55 Cnc e dure seulement 18 heures, ce qui veut dire aussi que cette planète se trouve à très grande proximité de son étoile, bien plus près que n'est Mercure du Soleil... ce qui veut dire que la température qui règne à sa surface est estimée à 1750°C. 

En fait, ce qui est très important c'est de savoir que l’on peut désormais suivre et étudier ce type de planètes depuis le sol, avec des « petits » télescopes, parce que ce sont justement les types de planètes qui seront massivement découvertes autour d’étoiles brillantes proches dans la décennie qui va venir grâce notamment à la mission TESS (Transiting Exoplanet Survey Satellite), prévu pour être lancée par la NASA en 2017. Un autre avantage de ces télescopes de 2,5 m est que leur coût est sans commune mesure avec les télescopes géants comme les VLT ou l'E-ELT, et a fortiori les observatoires spatiaux.


Source :
Ground-based transit observations of the super-earth 55 cnc e
E. J. W. de Mooij et al.
The Astrophysical Journal Letters, 797:L21,  20 December 2014.


lundi 15 décembre 2014

Comment Mars aurait perdu son atmosphère : premiers éléments fournis par MAVEN

Il aura fallu à peine un mois de prises de données par la sonde MAVEN en orbite autour de Mars pour qu'on en connaisse déjà beaucoup plus sur la façon dont Mars aurait perdu son atmosphère.



La sonde américaine MAVEN (Mars Atmosphere and Volatile Evolution), lancée en novembre 2013 par la NASA, a débuté ses opérations scientifiques le 16 novembre dernier, peu de temps après le passage très proche de la comète Siding Spring, au cours duquel les scientifiques de la NASA ont dû exceptionnellement protéger la sonde en modifiant sa trajectoire. Les premières observations viennent d'être rendues publiques par la NASA et montrent l'existence d'un nouveau processus physico-chimique qui pourrait expliquer comment l'atmosphère de Mars a disparu. Ce phénomène serait lié à la pénétration du vent solaire très en profondeur dans l'atmosphère martienne.

Vue d'artiste de MAVEN (NASA/Goddard Space Flight Center)
Et MAVEN a également pu trouver quelques indications sur la composition de la haute atmosphère de Mars ainsi que de son ionosphère. Le responsable de la mission, Bruce Jakovsky, du Laboratory for Atmospheric and Space Physics à l'Université du Colorado, précise "Nous commençons à voir les liens qui existent dans une chaîne d'événements qui débutent par des processus ayant le Soleil pour origine qui vont agir sur le gaz de la haute atmosphère et mènent à une perte atmosphérique".

A chaque orbite autour de la planète rouge, MAVEN frôle l'ionosphère de Mars, cette couche d'ions et d'électrons qui s'étend entre 100 et 450 km d'altitude. Cette petite couche joue le rôle d'un petit bouclier contre l'intense vent solaire, des protons énergétiques.
MAVEN a pu mettre en évidence grâce à son instrument Solar Wind Ion Analyzer qu'un flux non négligeable de particules solaires parvenaient quand même à traverser ce maigre bouclier sans être défléchies et à pénétrer profondément dans la haute atmosphère martienne. Il semble que les interactions qui ont lieu ensuite produisent des courants de particules neutres pouvant pénétrer encore à plus basse altitude avant de produire à nouveau des ions chargés par de nouvelles interactions atmosphériques à beaucoup plus basse altitude.

Mars
C'est l'instrument Neutral Gas and Ion Mass Spectrometer de MAVEN qui, grâce à l'analyse fine de la composition de la haute atmosphère et de l'ionosphère, explore la nature du réservoir gazeux d'où s'échappe l'atmosphère de Mars vers l'espace. Ce spectromètre a permis de mesurer l'abondance de nombreux gaz sous forme ionique ou neutre, révélant la présence de structures bien définies dans la haute atmosphère, contrastant avec les basses couches où les gaz sont très mélangés. Ces fortes variations d'abondances dans le temps vont permettre de mieux comprendre comment fonctionnent la physique et la chimie dans ces régions, et a d'ores et déjà permis de mettre en évidence l'existence, insoupçonnée auparavant, d'une météo dans les hautes altitudes martiennes (des mouvements importants des couches atmosphériques).

La façon par laquelle Mars perd le gaz de son atmosphère a pu être observée grâce à l'instrument STATIC (Suprathermal and Thermal Ion Composition). A peine quelques heures après sa mise en route, MAVEN a détecté un jet de gaz ionisé au niveau du pôle de Mars, s'échappant vers le vide interplanétaire... Il apparaît que le gaz ionisé s'échauffe de plus en plus lorsqu'il monte en altitude, jusqu'à atteindre la vitesse d'échappement, qui le libère finalement et définitivement de la gravité martienne...

MAVEN est en pleine forme, est va continuer à scruter la planète rouge pour encore quelques années. A ce rythme, on aura peut être tout compris de l'atmosphère de Mars avant la fin de la mission...


Source : 
Communiqué NASA Goddard Space Flight Center (15 décembre 2014)

dimanche 14 décembre 2014

ExplorUnivers : un cours d'astronomie en ligne accessible à tous

Si vous lisez cette page, cela veut dire que vous avez un ordinateur connecté au réseau et que aimez l'astronomie et l'astrophysique. Et cela signifie aussi que vous êtes curieux et que vous aimez apprendre des choses. Si vous appréciez Ça Se Passe Là-Haut, c'est peut-être aussi parce qu'il n'y a rien à vendre ou acheter ici...



Et en plus, vous avez 3h disponibles par semaine entre le 2 mars et le 13 avril, cela tombe vraiment très bien! Il semble que vous soyez exactement le cœur de cible du tout nouveau MOOC (Massive Open Online Courses, en français « cours en ligne ouverts à tous ») qui vient d'être lancé par l'Institut de recherche sur les lois fondamentales de l’Univers (Irfu) du CEA et l'université de Nantes, et qui est intitulé ExplorUnivers.

Rappelons qu'un MOOC est une série de cours dispensés en ligne par des enseignants-chercheurs (des vrais!), comme si vous étiez sur les bancs d'un amphi, mais que vous pouvez suivre tranquillement depuis votre canapé. 

Présentation vidéo du MOOC ExplorUnivers



Ce MOOC ExplorUnivers est le premier MOOC d'astronomie populaire (accessible au plus grand nombre) en langue française. Aucun prérequis n'est nécessaire. Pour vous donner envie, je ne peux que reprendre les termes de la présentation officielle du cours : 

"ExplorUnivers est avant tout un voyage à travers les connaissances actuelles en astrophysique et en planétologie. Un voyage à travers les grands objets scientifiques à l'étude en astronomie : système solaire, galaxies, nuages moléculaires, exoplanètes... et à travers les grands instruments de recherche comme l'observatoire spatial Herschel.
Les objectifs pédagogiques de ce MOOC sont déclinés en trois niveaux :
  1. acquérir une culture générale en sciences de l’univers ;
  2. acquérir des connaissances plus approfondies en sciences et techniques ;
  3. rechercher soi-même les réponses à des controverses scientifiques.
Tout en décrivant des objets physiques, ce MOOC offrira ainsi une ouverture vers une question scientifique actuelle et des éclairages techniques, scientifiques et épistémologiques sur la démarche de recherche."


Pour achever de vous convaincre de vous inscrire (gratuitement, précisons-le encore), voici le programme, qui se déroule en 2 séances hebdomadaires sur 6 semaines : 
  • Semaine 1 : le système solaire et notre planète, la Terre, d’où part notre voyage.
  • Semaine 2 : présentation de notre étoile et de Mars, une autre planète habitable.
  • Semaine 3 : d’autres types de planètes existent, non rocheuses : les planètes gazeuses et géantes, entourées de dizaines de lunes.
  • Semaine 4 : les galaxies, ces univers-îles peuplés de centaines de milliards d’étoiles. De quoi sont-elles faites ? Quand et comment se sont-elles formées ?
  • Semaine 5 : comment se forment les étoiles et les planètes à partir du gaz interstellaire des galaxies ?
  • Semaine 6 : les conditions d’habitabilité sont-elles communes ? Quel rôle jouent les comètes dans le transport des molécules organiques et d’eau sur les planètes ? D’autres exoterres existent-elles ?
Les participants au MOOC seront tout d’abord invités à visionner les 2 vidéos principales puis des documents complémentaires mis à leur disposition pour mieux comprendre certaines notions scientifiques et techniques. Deux autres vidéos permettront d’aborder certaines notions et le rôle de la controverse scientifique dans la production des connaissances. Le participant aura également à sa disposition un glossaire et des suggestions de vidéos supplémentaires à visionner (en dehors de la plate-forme FUN)...

Les inscriptions sont ouvertes jusqu'au 27 février. Le début des cours est quant à lui fixé au 2 mars.

Pour tout savoir et vous inscrire, c'est ici sur la plateforme de MOOC FUN


jeudi 11 décembre 2014

Rosetta analyse l’eau de la comète Churyumov-Gerasimenko

Ne vous y trompez pas, ce n’est pas un instrument de Philae qui vient de déterminer la composition isotopique de l’eau de la comète Churyumov-Gerasimenko, mais un instrument d’analyse embarqué sur Rosetta la sonde principale qui tourne toujours autour de la comète. Cet instrument est un spectromètre de masse appelé ROSINA-DFMS (Rosetta Orbiter Sensor for Ion and Neutral Analysis, Double Focusing Mass Spectrometer). 



Churyumov-Gerasimenko en train de dégazer, vue par
Rosetta à 31 km de distance (ESA/Rosetta/Navcam)
Cet instrument permet de dénombrer les différents isotopes (types différents de noyaux d’atomes d’un même élément), en calculant des ratios, notamment pour l’hydrogène, le ratio D/H (la quantité relative de deutérium par rapport à l’hydrogène).
Le deutérium diffère de l’hydrogène « normal » par le fait que son noyau d’atome est deux fois plus lourd : au lieu de ne comporter qu’un seul proton, le deutérium se compose d’un proton plus un neutron. L’eau qui comporte une grande quantité de deutérium en lieu et place de l’hydrogène au sein de la molécule H2O est ce qu’on appelle l’eau lourde.
Le ratio D/H est une signature de l’origine des molécules comportant de l’hydrogène. En effet, le deutérium ne peut pas être produit comme ça dans le milieu interstellaire. Il est produit soit lors de la nucléosynthèse primordiale dans les trois minutes qui ont suivi la singularité initiale il y a 13,8 milliards d’années, ou bien lors d’une nucléosynthèse stellaire, au cœur d’une étoile en train de fusionner son hydrogène.

Ce que vient de montrer l’analyse de ROSINA-DFMS, c’est que l’eau de Chury comporte 3,5 fois plus de deutérium (le ratio D/H), que ce qu’on a en moyenne dans l’eau de nos océans.
Une seule mesure de ce type avait déjà pu être effectuée in situ auprès d’une comète, c’était dans la queue de la célèbre comète de Halley, autour de laquelle avait été envoyée la petite sonde européenne Giotto à la fin des années 1980.
La méthode appliquée par la sonde Rosetta et son spectromètre de masse ROSINA-DFMS est similaire : il s’est agi de récupérer du gaz en provenance de la surface de Chury puis de l’analyser finement en « pesant » les molécules. ROSINA a la possibilité de mesurer tous les rapports isotopiques dans l’eau  indépendamment : D/H, mais aussi les isotopes de l’oxygène 17O/16O et 18O/16O. Et ROSINA est un capteur si sensible qu’il détecte le gaz émis par la sonde Rosetta elle-même, environ 1 million de molécules par centimètre cube, où on y trouve de l’eau (qui a un ratio D/H terrestre), ainsi que des molécules organiques (venant de l’hydrazine, le carburant de la sonde), et des résidus fluorés provenant de la graisse utilisée sur la sonde.
Le ratio D/H (et facteur d'enrichissement f) pour différents corps du système solaire, la valeur mesurée sur Chury est en rouge. Les losanges sont des mesures in situ (K. Altwegg et al.)
C’est à partir de la première semaine du mois d’août 2014, quand Rosetta s’est rapprochée à moins de 100 km de la surface de la comète que ROSINA-DFMS a pu entrer en action efficacement et détecter les molécules d’eau venant vraiment de la comète.
Les résultats obtenus par l’équipe internationale exploitant ROSINA (dont un nombre important de chercheurs français), pour les rapports des différents isotopes de l’eau sont publiés aujourd’hui en ligne dans la revue Science. Les valeurs obtenues sont les suivantes :
  • ·         D/H      = 0,00053 +- 0,00007 
  • ·         17O/16O = 0,00037 +- 0,00009
  • ·         18O/16O = 0,0018 +- 0,0002

Pour comparer différentes teneurs en isotopes d’hydrogène, on utilise généralement une référence qui est le ratio D/H de la nébuleuse protosolaire, qui est évalué d’une part par des mesures sur l’atmosphère de Jupiter et d’autre part sur la photosphère du Soleil. Cette valeur de référence de D/H est appelée (D/H)PSN (PSN signifiant protosolar nebula), et elle vaut (D/H)PSN = 0,000021, valeur très proche du ratio D/H du milieu interstellaire, hors du système solaire.
La plupart des objets du système solaire sont en fait enrichis en deutérium, leur ratio D/H est plus élevé que  (D/H)PSN. Les objets du système solaire interne, comme la Terre, la Lune ou des météorites, sur lesquels le ratio D/H a pu être mesuré, montrent une valeur environ 6 fois plus forte que la référence de la nébuleuse protosolaire. Ce facteur par rapport à la référence est ce que les astrophysiciens appellent le facteur d’enrichissement f. Le facteur d’enrichissement pour la Terre vaut 7,1, mais pour toutes les comètes qui ont pu être analysées, ce facteur est situé entre 10 et 20. Et la nouvelle valeur de Churyumov-Gerasimenko vient poser de nouvelles questions, avec un facteur d’enrichissement plus fort que toutes les autres de 25,2. Cette valeur est plus élevée que ce que l’on a pu déterminé pour différents types de comètes, venant du nuage d’Oort comme Halley ou de la ceinture de Kuiper comme la famille des comètes « joviennes » comme Chury.

Les modèles de formation du système solaire prédisent comment le deutérium au sein des molécules d’eau peut se concentrer en fonction de la distance du soleil, par des mécanismes physico-chimiques de volatilisation/recondensation. Ces mécanismes permettent de produire des modifications de teneur isotopique, avec une ségrégation des isotopes lourds par rapport aux légers.

Mais même si il se confirme qu’il existe bien une augmentation du ratio D/H avec la distance du Soleil, qui est expliquée par le modèle, en revanche cette nouvelle mesure sur Chury amène les auteurs à conclure que comme le ratio D/H des comètes de la famille « jovienne » apparaît  très hétérogène et peut varier considérablement, il est beaucoup plus probable que l’eau terrestre (ainsi que notre atmosphère) provienne d’astéroïdes, plus proches de la Terre à l’époque, que de ces lointaines comètes aux origines diverses.

Source :
67P/Churyumov-Gerasimenko, a Jupiter family comet with a high D/H ratio
K. Altwegg et al.
Science, published online (10 december 2014)


mardi 9 décembre 2014

Belle pluie d'étoiles filantes les 13 et 14 décembre : les Géminides

Concernant les Géminides de 2015, voir cette page...

Cette année, la pluie d'étoiles filantes des Géminides aura lieu un weekend ! Une belle occasion pour lever les yeux aux ciel et apercevoir des centaines d'étoiles filantes! Car ces Géminides forment la deuxième pluie d'étoiles filantes la plus importante de l'année après les Perséides du mois d’août. 



Vous vous souvenez sans doute que nous avons été fort gênés par la pleine Lune le 12 août dernier. Mais ce weekend, la Lune sera environ à son dernier quartier et se lèvera sur les coups de minuit, ce qui nous laisse de longues heures pour scruter le ciel à l'oeil nu à la recherche d'un nouveau voeu. Vous aurez même deux nuits pour en profiter : samedi soir ou dimanche soir, entre 19h et 24h heure française.

Le nombre de météores pourrait normalement atteindre environ 80 par heure, soit en moyenne plus d'un par minute... Bien sûr, il faudra quand même s'éloigner des lumières polluantes des villes pour admirer les Géminides comme il se doit, même si certaines ont la réputation d'être très brillantes et de produire des longues traces, parfois très colorées.
Cette pluie d'étoiles filantes s'appelle les Géminides car son radiant, le point d'où semblent provenir les météores, est situé dans la constellation des Gémeaux

le ciel vers l'horizon Est-Sud Est à 22h le 13 décembre
Ce point, vers 22h, est situé au dessus de l'horizon Est-Sud-Est. Rappelons que la constellation des Gémeaux est formée d'étoiles qui dessinent deux hommes qui se tiennent la main, presque positionnés à l'horizontale le 13 décembre en début de nuit, à gauche de la constellation d'Orion. Mais les météores des Géminides peuvent apparaître un peu partout dans le ciel. 
Si vous souhaitez prendre des photos, préférez l'objectif le plus petit (24 ou 35 mm), avec la plus grande ouverture possible (du genre f/2.8), avec un réglage sur ISO 800 ou plus. Utilisez un trépied et répétez de multiples poses de 30 s ou 1 minute, en espérant que la chance sera de votre côté et que vous capturerez un bolide multicolore...

L'astéroïde 3200 Phaeton imagé par STEREO en 2012 à son
point le plus proche du Soleil, montrant une queue de poussières
(NASA/STEREO)
Les poussières qui sont à l'origine de la pluie des Géminides sont particulières. Elles arrivent dans l'atmosphère terrestre à une vitesse relativement faible : environ 30 km/s. Alors que la plupart des météores sont issus de poussières de comètes, comme les Perséides du mois d’août par exemple, les Géminides, elles, sont des résidus non pas d'une comète, mais d'un astéroïde, que l'on connait bien, qui s'appelle 3200 Phaeton. Cet astéroïde a une taille de 5,1 km, et la Terre croise son orbite tous les ans à cette époque de l'année. 3200 Phaeton a une orbite allongée, il passe au plus près du Soleil tous les 1,4 an (à environ 20 millions de km du Soleil). Et en 2009, 2010 et 2012, on a pu observer que 3200 Phaeton se prenait presque pour une comète ! A sa plus faible distance du Soleil, on a pu le voir éjecter des quantités de poussières très importantes, laissant penser que la chaleur du Soleil le fracturait ou du moins produisait comme une sorte de dessèchement de sa surface, avec la production d'une petite queue de matière à la manière d'une comète.

Et 3200 Phaeton semble produire des petites éruptions périodiques également lorsqu'il est plus loin du Soleil dans son trajet orbital, ce qui fournit ces fameux petits grains de poussières que vous verrez brûler dans l'atmosphère samedi soir ou dimanche soir. 

Si par malheur la météo de votre région n'est pas sympa avec vous, et que vous êtes insomniaques, vous pourrez toujours essayer de suivre en direct les Géminides grâce au projet de l'astronome italien Gianluca Masi qui mettra en direct des images du ciel à partir de Dimanche vers 3h du matin sur le site du Virtual Telescope Project.

Préparez vite votre (longue) liste de voeux ! Bon ciel à tous !

lundi 8 décembre 2014

ASTRO-H : L'Avenir Radieux de l'Astronomie X

ASTRO-H : sous ce nom qui évoque un dessin animé japonais, se cache l'un des plus beaux outils des astrophysiciens. ASTRO-H est un télescope spatial de nouvelle génération, spécialisé dans l'observation des rayons X. Il va compléter, voire supplanter, dès l'année prochaine les trois principaux télescopes à rayons X en activité que sont les américains Chandra et NUSTAR et l'européen XMM-Newton.



Vue d'artiste de ASTRO-H (JAXA)

ASTRO-H est un télescope japonais, mais pas que. Pour mener à bien un tel projet, c'est une vaste collaboration qui s'est mise en place, avec des européens et des américains. L'astronomie en rayons X est très riche, car elle adresse des phénomènes parmi les plus mystérieux, à commencer par ce qui se passe au cœur des galaxies, autour des trous noirs. Il permettra aussi de suivre de nombreux autres phénomènes comme le grossissement des grandes structures cosmiques, le comportement de la matière en présence de champs gravitationnels extrêmes, étudier l'équation d'état de la matière formant les étoiles à neutrons, ou encore traquer les structures qui accélèrent des particules dans des amas de galaxies ou des résidus de supernovas.
ASTRO-H étudiera également finement la physique des jets de matière par les trous noirs, et indirectement, pourra donner des indices sur la présence de matière noire, dans le cas où celle-ci peut produire des rayons X par décroissance ou annihilation...

Plus précisément, les 3 objectifs ambitieux que ce sont fixés les astrophysiciens japonais et leurs collègues sont les suivants : 

  • Révéler la structure à grande échelle de l'Univers et son évolution

ASTRO-H devra observer des amas de galaxies pour mesurer les relations existant entre l'énergie thermique du milieu intergalactique et l'énergie cinétique des sous-amas à partir desquels se forment les amas, ainsi que mesurer leur énergie non-thermique et leur composition chimique. ASTRO-H pourra également dans cet objectif tracer directement l'évolution dynamique d'amas de galaxies.
L'autre type d'observation liée à cet objectif est l'observation de trous noirs supermassifs distants, qui sont cachés par d'épaisses couches de matière, pour en déterminer l'évolution et comprendre le rôle qu'ils jouent dans la formation des galaxies. La sensibilité de ASTRO-H dans ce type d'observation sera 100 fois supérieure à celle de son prédécesseur japonais SUZAKU. 

  • Comprendre les conditions extrêmes de l'Univers 
ASTRO-H mesurera la vitesse de la matière située à très grande proximité de trous noirs, les disques d'accrétion, de manière à détecter la distorsion de l'espace-temps induite par le champ gravitationnel, et ainsi tester la relativité générale en conditions extrêmes ainsi que la physique de l'accrétion. 

  • Explorer les divers phénomènes de l'Univers "non-thermique" ou "violent"

ASTRO-H permettra d'explorer les zones où les particules du rayonnement cosmique de haute énergie acquièrent leur énergie, en essayant de déterminer qui de la gravité, des collisions de particules ou des explosions d'étoiles en sont responsables...

Les différents instruments formant le télescope spatial ASTRO-H (ASTRO-H collaboration/université de Genève)
L'astrophysique en rayons X est si cruciale à bien maîtriser que 4 télescopes dédiés ne seront pas de trop. Et d'ailleurs on devrait presque dire 7 télescopes. Car ASTRO-H peut être vu comme un observatoire contenant 4 télescopes différents, rien que ça... Et ASTRO-H va innover en ouvrant une nouvelle fenêtre de longueur d'onde encore jamais explorée auparavant. 
Voyons un peu plus en détail ces beaux joujoux qui seront mis en orbite dans quelques mois (la date de lancement n'est pas encore fixée précisément) pour une durée minimale de 3 ans, en espérant bien plus.

Gamme d'énergie des photons qui seront détectés par ASTRO-H avec
ses différents instruments (ASTRO-H collaboration)
ASTRO-H est tout d'abord muni de deux télescopes pour les rayons X "durs", c'est à dire ayant une énergie comprise entre 5 keV et 100 keV : HXT1 et HXT2 (Hard X-ray Telescopes), tous les deux munis d'un imageur nommé HXI. Concernant les rayons X "mous", entre 0,3 keV et 10 keV, ils seront capturés par les télescopes SXT-I (télescope imageur) et SXT-S (télescope spectromètre), ainsi que par un autre imageur spécifique, le SXI et d'un microcalorimètre (SXS) qui permettra pour la première fois de produire une spectroscopie à haute résolution en énergie et en localisation grâce à l'utilisation de détecteurs cryogéniques.
Mais ce n'est pas tout, car les japonais ont également ajouté sur ASTRO-H un détecteur de rayons gamma de faible énergie,  SGD (Soft Gamma-ray Detector) qui détectera des rayons gamma ayant une énergie entre 30 keV et 600 keV. Ainsi, avec tous ses instruments, ASTRO-H pourra explorer le ciel entre 0,3 keV et 600 keV. 

L'une des grandes avancées dans les performances prévues est la résolution en énergie des photons détectés, qui devrait atteindre seulement 7 eV sur la gamme 0,3 - 12 keV, simplement exceptionnel.
L'autre innovation importante qui est apportée sur ce télescope de nouvelle génération est que, pour la première fois, on utilisera une optique de focalisation pour les rayons X "durs", de plusieurs dizaines de keV. C'est très difficile de focaliser des photons aussi énergétiques, qui ont plus tendance à traverser la matière qu'à se réfléchir, mais des astuces technologiques permettent désormais de repousser les limites. Cela impose une distance focale considérable : pour la partie X durs (les HXT), elle sera de 12 m, contre seulement 5,6 m pour les SXT. Une fois entièrement déployé, le télescope aura ainsi une silhouette oblongue d'une longueur totale de 14 m.
Le télescope spatial  ASTRO-H en phase de test en mai 2013 (JAXA)
Une fois en orbite à 550 km au dessus de nos têtes, après une période d'un an qui sera réservée exclusivement aux astrophysiciens japonais, le télescope sera mis à disposition de la communauté scientifique pour 75% de son temps. Il est fort à parier que le calendrier des créneaux d'observation est déjà rempli depuis bien longtemps...


Source : 

The ASTRO-H X-ray Astronomy Satellite
ASTRO-H collaboration

jeudi 4 décembre 2014

Mesurer la distance d'un Trou Noir Supermassif par Triangulation

Les mesures de la distance, en astronomie, sont le plus souvent fondées sur l’observation de la luminosité apparente d’objets dont on connaît par ailleurs la quantité de lumière qu’ils émettent. La quantité de lumière que nous observons est en effet proportionnelle à la quantité de lumière émise, et inversement proportionnelle à la distance au carré. L’exemple le plus connu de cette méthode de mesure de distance est l’utilisation des supernovas de type Ia.


Mais cette méthode a aussi ses défauts et peut être une source d’incertitudes ou imprécisions assez grandes. La méthode la plus efficace pour mesurer une distance est encore de recourir à la géométrie.  
Principe de la mesure de parallaxe exploitée par Hönig et al. (Nature)
La méthode de la mesure du parallaxe permet par exemple de mesurer très précisément la distance des étoiles assez proches.  Elle repose sur le fait que la Terre, dans sa rotation autour du Soleil, ne se trouve pas à la même position à six mois d’intervalle, dans le ciel vu d’une étoile, ou inversement, une étoile ne se trouve pas à la même position dans le ciel vue de la Terre.
La petite variation angulaire observée à 6 mois d’intervalle permet très facilement par une simple formule trigonométrique de base, connaissant le diamètre (le grand-axe de l’ellipse) de l’orbite terrestre, d’en déduire la distance séparant le Soleil de l’étoile observée.
Une variation d’1 seconde d’arc observée est ainsi équivalente à une distance de 1 parsec (pc), 3,26 années-lumière.

Cette méthode fonctionne très bien jusqu’à une certaine précision angulaire, qui est aujourd’hui plus une contrainte technologique que méthodologique. Le satellite Gaïa dédié à des mesures astrométriques de précision (mesures de positions et de vitesses d’étoiles de la galaxie) peut atteindre des précisions de mesure de parallaxe inégalées, atteignant  jusqu’à  quelques microarcsecondes. Il ne permet donc pas de mesurer des distances de plus de 2 ou 3 millions d’années-lumière par cette méthode. A peine la distance de notre galaxie voisine, la galaxie d’Andromède…
Des astrophysiciens danois et japonais viennent pourtant de proposer une méthode dérivée de la méthode du parallaxe pour évaluer des distances beaucoup plus lointaines, qui se chiffrent en dizaines de millions d’année-lumière. Elle concerne des objets très particuliers, qui ont le bon goût d’être très lumineux, et d’avoir une certaine étendue spatiale. Il s’agit de noyaux actifs de galaxies (AGN), des sortes de petits quasars, qui contiennent eux-aussi un trou noir supermassif. 

Les télescopes du Keck Observatory au Mauna Kea à Hawaï
(Swinburne University of Technology)
L’idée de Sebastian Hönig et ses collègues, qui est publiée dans la revue Nature du 27 novembre, est d’inverser le triangle de la méthode du parallaxe en considérant que la base n’est plus le diamètre de l’orbite de la Terre, mais le diamètre de la source d’émission formant le noyau actif entourant le trou noir supermassif. Il se trouve que l’on peut connaître la valeur de cette base du triangle par l’observation, d’une manière indirecte. Cette méthode est appelée la cartographie de réverbération : la zone émissive entourant le trou noir supermassif produit des sauts d’émission, qui fluctuent dans le temps, lumière émise dans toutes les directions. Ces sauts de luminosité sont observés d’une part directement pour les photons qui sont produits dans notre direction, mais aussi par réverbération sur des nuages de gaz et de poussières situés à 90° de part et d’autre du disque d’accrétion du trou noir supermassif et qui renvoient une partie de la lumière vers nous.

Mais cette lumière qui va se réverbérer sur cette matière dense se meut à une vitesse bien connue, la vitesse de la lumière. Donc, lorsque l’on compare la différence temporelle entre les sursauts de luminosité qui nous arrivent tout droit du trou noir supermassif (de son disque d’accrétion en fait) et les mêmes sursauts (reconnaissables par leur structure temporelle identique) réverbérés à 90° sur des nuages de gaz, on en déduit le diamètre de la coquille de gaz entourant le trou noir supermassif accrétant…
Mais la méthode du parallaxe impose de connaître 2 paramètres géométriques pour en déduire le troisième. Nous connaissons désormais la longueur de la base du triangle, il faut maintenant connaitre l’angle que fait le sommet du triangle, c’est-à-dire la distance angulaire de la coquille de gaz où a lieu la réverbération.

Hönig et ses collègues ont exploité le fait que les nuages de poussière chaude qui rayonnent en infra-rouge et qu’on trouve autour des noyaux actifs de galaxie, étaient suffisamment étendus pour pouvoir être résolus angulairement par un interféromètre, notamment celui du télescope Keck à Hawaï. L’ordre de grandeur de la résolution angulaire atteinte est de 0,5 milli-arcseconde, soit bien moins que ce que fait Gaia, mais 100 fois mieux que ce que propose le télescope spatial Hubble.
NGC 4151 (NASA/Sloan Digital Sky Survey Collaboration)
Ils ont donc cherché un signal de réverbération de lumière sur de tels nuages d’AGN en provenance du centre, à partir des données du projet japonais MAGNUM, et l’ont trouvée.  
Avec  la mesure angulaire obtenue avec Keck et la mesure de distance obtenue avec MAGNUM, les chercheurs danois et japonais sont en mesure de déterminer la distance d’un AGN nommé NGC 4151 : 19 Mpc, soit 62 millions d’années-lumière. La valeur d’incertitude qu’ils obtiennent (2,5 Mpc) est tout à fait intéressante pour des mesures à aussi grande distance.
Et cette nouvelle mesure de distance de cet AGN NGC 4151 a des conséquences importantes. Car NGC 4151 est un très bel exemple d’AGN produisant une réverbération de la lumière issue du trou noir supermassif. Or, NGC 4151 est aussi très bien adapté à la mesure de la masse du trou noir supermassif par mesure dite « cinématique », mesure des vitesses du gaz et des étoiles proches du trou. On connaît donc la masse du trou noir supermassif de l’AGN et on connaît bien la réverbération associée à ce trou noir. Grâce à ses caractéristiques, NGC 4151 est ainsi devenu un étalon pour la mesure de la masse des trous noirs supermassifs dans les AGN dont on ne peut voir qu’un signal de réverbération. Les AGN ou quasars dans ce cas se comptent par dizaines de milliers ! Il ne suffirait donc que la masse de l’étalon soit modifiée pour que des dizaines de milliers d’autres trous noirs supermassifs voient leur masse modifiée aussi.
Or, la mesure cinématique de la masse dépend de … la distance du trou noir. Et c’est là qu’intervient la nouvelle mesure de distance de Hönig et al. Car la nouvelle valeur, plus précise, qui vient d’être obtenue, est légèrement plus grande qu’estimée auparavant (19 Mpc contre 13,2 Mpc). La masse du trou noir doit donc être revue à la hausse d'un facteur 1,4, pour passer de 38 à 54 millions de masses solaires (lorsqu'elle est calculée à partir de la cinématique des étoiles) ou de 30 à 43 millions de masses solaires lorsqu'elle est calculée à partir de la cinématique du gaz. Avec elle, c'est donc la masse de dizaines de milliers de trous noirs supermassifs dont la masse est déduite par des mesures de réverbération associées aux valeurs de l’étalon NGC 4151, qui doit être réevaluée de 40%.

Cette nouvelle méthode de mesure de distances montre toute la puissance de l’interférométrie, que ce soit dans le visible ou l’infra-rouge. Les progrès futurs dans ce domaine permettront sans nul doute d’atteindre des mesures géométriques de distances, très précises sur des échelles toujours plus grandes, peut-être même au-delà de ce que permettent aujourd’hui les chandelles standard que sont les supernovas Ia.


Référence : 

A dust-parallax distance of 19 megaparsecs to the supermassive black hole in NGC 4151
S. Hönig,et al.
Nature 515, 528–530 (27 November 2014) 

mardi 2 décembre 2014

Planck exclut la Matière Noire de AMS-02 et les Neutrinos Stériles

En ce moment même, jusqu'au 5 décembre, a lieu la conférence Planck2014 à Ferrara en Italie. Les spécialistes du fond diffus cosmologique (CMB) y discutent des dernières données analysées du satellite Planck. Alors qu'on se serait attendu à y voir la tant attendue analyse conjointe Planck-BICEP2 sur les modes B du CMB, ce ne sera hélas pas pour cette fois, mais Planck nous sert d'autres résultats toujours aussi intéressants sur les paramètres du modèle cosmologique standard, et sur des caractéristiques de la matière noire...



Carte de 30 x 30° du signal du CMB polarisé à 353 GHz.
Les couleurs tracent l’émission thermique de la poussière,
les reliefs dessinent le champ magnétique galactique. 

(ESA- collaboration Planck, mise en relief
par Marc-Antoine Miville-Deschenes)
Les résultats préliminaires qui avaient été délivrés jusque là par la collaboration Planck reposaient sur les 15 premiers mois de données accumulées par le satellite et ne contenaient que des données de fluctuations de températures du rayonnement fossile. La nouveauté avec ce nouveau jeu de données est qu'il incorpore aujourd'hui des données de polarisation du rayonnement, cette fameuse polarisation, qui a été à l'origine de cette annonce en fanfare du mois de mars dernier par la collaboration BICEP2.

En fait, Planck avait commencé a publier cette année quelques cartes de la polarisation produite par la poussière galactique (mais pas dans la zone scrutée par BICEP2). Aujourd'hui, c'est une carte quasi complète de la polarisation de la poussière galactique qu'a pu montrer l'astrophysicien Nazzareno Mandolesi, de l'Université de Ferrara.

Concernant le modèle cosmologique, on peut dire que Planck vient à nouveau confirmer ce modèle, avec plus de précision. Avec deux fois plus de données, associées à de nouvelles informations fournies par la polarisation, on obtient des résultats encore plus précis pour les valeurs des paramètres cosmologiques qui soutiennent le modèle.
Il ne suffit que de six paramètres dans le modèle cosmologique standard pour ajuster les 19 pics qui apparaissent dans les trois spectres observés par Planck : spectres de puissance angulaire en température (TT), en polarisation scalaire (TE) et spectre mixte température-polarisation (EE) (voir figures ci-dessous).

Spectres de puissance mesurés par Planck (données 2014) (Collaboration Planck)
Les nouvelles valeurs affinées des principaux paramètres cosmologiques concernant le contenu énergétique de l'Univers sont les suivantes :
  • Matière ordinaire : 4,9% 
  • Matière Noire : 26,6% 
  • Energie Noire : 68,5%

La matière noire, parlons-en, car Planck, avec ses nouvelles données apporte de nouvelles contraintes sur un certain type de matière noire, savoir les WIMPs qui ont le bon goût de s'annihiler entre elles comme le fait une vulgaire matière avec son antimatière quand elle en trouve...
Ce que vous voyez sur ce graphe ci dessous, ce sont les zones exclues par ces nouvelles données de Planck dans l'espace masse-section efficace des WIMPs (zone bleue).
Credit : ESA- collaboration Planck
Regardez-bien ce graphique, vous voyez le petit carré gris en haut à droite avec trois points dedans, et qui se retrouve dans le bleu ? Et bien il s'agit de la matière noire telle qu'imaginée par les expériences AMS-02 par sa détection de positrons excédentaires mystérieux, ainsi que par les expériences Fermi et Pamela avec des mesures du même type. Et bien, leur modèle de matière noire se retrouve donc dans le bleu... il est désormais exclu par les nouvelles données de Planck, qui permettent de dire qu'il n'a pas pu y avoir de grosses quantités d'annihilations de matière noire et surtout que ce taux d'annihilation n'a pas pu changer au cours du temps cosmologique.
Cette information n'est pas une défaite, car le signal de positrons excédentaires mesurés finement par AMS-02 est bien réel, et donc aujourd'hui toujours plus mystérieux...

Carte de 30 x 30° du signal du CMB polarisé à 353 GHz.
Les couleurs tracent l’émission thermique de la poussière,
les reliefs dessinent le champ magnétique galactique. 

(ESA- collaboration Planck, mise en relief
par Marc-Antoine Miville-Deschenes)
Bien sûr, Planck ne ferme pas du tout la porte à l'existence de matière noire (rappelons qu'il prédit qu'elle existe pour 26,6% de l'Univers), mais ces résultats permettent de faire le tri entre plusieurs modèles de matière noire, et la grosse nouvelle est qu'il ne s'agit visiblement pas de particules qui s'annihilent entre elles...

Et il y a un autre paramètre cosmologique que Planck a permis d'encore mieux cerner qu'auparavant, il s'agit du nombre de familles de neutrinos. Et là je peux dire que ce résultat me désespère quelque peu. Oui, Planck affirme qu'il n'y a que 3 neutrinos, et pas 4 et encore moins 5. En un mot comme en cent, les données de Planck montrent que le neutrino stérile est très très très improbable. 
C'est avec une marge d'erreur 30% plus faible que précédemment qu'ils parviennent à cette valeur de 3. Par ailleurs, on peut déduire de cette valeur la masse maximale des trois neutrinos (la somme des trois masses), elle vaut 0,21 eV. L'inexistence d'un quatrième neutrino, stérile et massif, élimine également un candidat plutôt sympathique pour constituer la matière noire...

Pour finir, momentanément, on peut également évoquer un autre point qu'ont permis de préciser ces nouvelles données, il s'agit de l'époque de formation des premières étoiles. Il existait une contradiction entre ce que donnait l'ancêtre de Planck, le satellite WMAP et des observations astrophysiques de quasars notamment, BigBang+400 millions d'années pour le premier, BigBang +700 millions d'années pour les secondes. Planck vient de trancher : les quasars ont raison : c'est plutôt entre 700 millions et 800 millions d'années après la singularité initiale que seraient apparues les premières étoiles.

On n'aura peut-être pas eu notre réponse définitive sur l'existence des ondes gravitationnelles primordiales par l'analyse conjointe Planck-BICEP, mais la moisson de ces nouveaux résultats aura tout de même été fort riche.
L'anayse conjointe Planck-BICEP semble prévue pour être rendue publique en janvier 2015, aux dernières nouvelles. Quant à tous ces résultats 2014 de Planck, il seront publiés dès le 22 décembre dans Astronomy & Astrophysics. Un beau cadeau de Noël avant l'heure.


Sources : 

European probe shoots down dark-matter claims
Ron Cowen& Davide Castelvecchi
Nature News, 02 december

Planck éclaire la matière noire : combien, quoi, où ?
Planck Collaboration

Planck révèle l’invisible
Planck Collaboration

Communiqué de presse CNRS :
Planck : nouvelles révélations sur la matière noire et les neutrinos fossiles