Pages

vendredi 29 avril 2016

Exoplanètes : Kepler teste une nouvelle méthode de détection

Une équipe d’astronomes a été tout particulièrement soulagée d’apprendre le retour en fonctionnement normal du télescope chasseur d’exoplanètes Kepler suite à  sa mise en mode d’urgence impromptue apparue au début du mois d’avril : l’équipe qui l’utilise pour trouver des exoplanètes avec une nouvelle technique, les microlentilles gravitationnelles.


L’arrêt brutal du fonctionnement de Kepler avait eu lieu seulement quelques heures avant le début de la campagne d’observation des microlentilles gravitationnelles prévue pour durer 80 jours. Tout étant désormais rentré dans l’ordre, cette campagne a enfin pu commencer.
Le télescope Kepler (NASA)
L’effet de lentille gravitationnelle est un effet prédit par la théorie de la relativité générale, qui indique que les rayons lumineux se déplacent en suivant les géodésiques de l’espace-temps, les mailles de ce grand filet élastique qui est déformé par les masses qui s’y trouvent. La lumière ne voyage donc pas en ligne droite mais est déviée par la présence d’objets massifs. Les premiers effets de lentille gravitationnelle ont été observés avec des cas impliquant des très grandes masses comme celles d’amas de galaxies, qui peuvent produire d’importantes déformations de la forme de galaxies situées en arrière-plan de la masse-lentille. Mais si l’effet de lentille gravitationnelle est ainsi appelé, c’est qu’il ne produit pas uniquement une déformation de la trajectoire des photons, mais il induit aussi une focalisation des rayons lumineux, qui peut avoir pour effet une augmentation de l’intensité lumineuse de l’objet lointain situé derrière la masse-lentille.
L’effet de lentille gravitationnelle existe à toutes les échelles. La masse d’une simple étoile est suffisante pour défléchir suffisamment la lumière d’une étoile située plus loin derrière elle pour que la luminosité de cette dernière soit augmentée artificiellement. C’est ce qu’on appelle les microlentilles gravitationnelles.
Et le télescope Kepler est capable de détecter des sursauts de luminosité si faibles qu’il devrait être capable de déceler ce phénomène non seulement quand il est produit par des étoiles, mais aussi par des planètes. C’est le passage d’une étoile (entourée d’une  ou plusieurs planètes) devant une autre étoile située beaucoup plus loin, telle qu’elle est vue depuis la Terre, qui permettra à Kepler d’observer ces phénomènes de microlentille en mesurant l’évolution de la luminosité sur plusieurs semaines.
Le phénomène de microlentille gravitationnelle a été utilisé dès les années 1980 pour rechercher des astres sombres, des naines brunes. La recherche par cette méthode de corps plus petits comme des planètes  a été mise en œuvre à la fin des années 1990 à partir de télescopes terrestres, comme le programme OGLE (Optical Gravitational Lensing Experiment) qui exploite les instruments de l’observatoire chilien de Las Campanas. Les astrophysiciens doivent suivre des millions d’étoiles durant plusieurs mois pour trouver un seul effet de microlentille. Et parmi ces événements de microlentille, la très grande majorité (99%) est dûe à une étoile seule, le pourcent restant montrant une courbe de lumière avec un petit pic accompagnant le pic principal, qui signe la présence probable d’une planète.
Exemple d'une courbe de lumière d'une microlentille gravitationnelle
produite par une étoile accompagnée d'une planète, le petit pic
signe la présence de la planète (Caltech)
Le gros avantage des microlentilles gravitationnelles par rapport aux autres méthodes de détection des exoplanètes comme celle du transit habituellement exploitée par Kepler, est qu’elle n’est pas seulement sensible aux planètes ayant une orbite très proche de leur étoile. Les effets de microlentille peuvent être observés sur des planètes très éloignées de leur étoile, voire des planètes esseulées, errant dans le milieu interstellaire, et qui pourraient être très nombreuses selon certains astrophysiciens.
Jusqu’à aujourd’hui, les télescopes terrestres ont permis de trouver environ 60 exoplanètes par cette méthode, mais les astronomes espèrent en trouver d’avantage avec Kepler.

On se souvient que Kepler a subi une avarie de ses roues gyroscopiques en 2013, qui l’empêche désormais de se positionner dans n’importe quelle position. Les ingénieurs de la NASA ont trouvé le moyen de continuer à l’utiliser malgré son handicap, en le stabilisant grâce au vent solaire, mais il doit du coup pointer toujours vers la même direction, qui ne varie qu’en fonction des saisons. D’avril à juillet, le champ de vue de Kepler se situe dans la direction du bulbe de notre galaxie, peuplé de nombreuses étoiles, et donc un terrain de chasse idéal pour débusquer des microlentilles gravitationnelles.
Et Kepler ne va pas travailler seul : les astronomes ont eu l’idée d’utiliser le fait que Kepler se trouve à plus de 100 millions de kilomètres de la Terre (sur une orbite autour du Soleil), pour comparer ses mesures avec des mesures enregistrées par une trentaine de télescopes terrestres répartis sur tous les continents. L’observation des mêmes microlentilles simultanément avec Kepler et sur Terre permettra de mesurer la distance du système planétaire qui en est la cause par la mesure de parallaxe. Et les astronomes ont même prévu de faire mieux, car avec un calcul de parallaxe plus complexe impliquant la comparaison des courbes de lumière obtenues avec les différents télescopes, ils pourront déduire la masse du système lentille (étoile+ planète).

Steve Howell, du Ames Research Center de la NASA, et membre de la mission scientifique Kepler, estime que le télescope devrait permettre d’observer durant cette campagne environ 100 microlentilles, dont la moitié pourraient être dûes à des planètes vagabondes et l’autre moitié à des étoiles, dont seule une petite fraction montrerait la présence de planètes en orbite.
Les chercheurs exploiteront tout ce qu’ils trouveront avec Kepler, en attendant la mise en service vers 2025 du futur télescope spatial WFIRST (Wide-Field Infrared Survey Telescope), qui a d’ores et déjà les microlentilles dans son programme de recherche d'exoplanètes, et qui pourrait révolutionner le domaine dans la prochaine décennie, dans les pas du pionnier Kepler.

Source : 
Kepler enlists relativity to find planets
Daniel Clery
Science  29 Apr 2016: Vol. 352, Issue 6285, pp. 504-505

mercredi 27 avril 2016

Découvrez le Ciel! #5 Autour de l'Aigle

Dans ce cinquième épisode de Découvrez le Ciel, je vous emmène à la découverte d'une dizaine d'objets du ciel profond situés aux alentours de la constellation de l'Aigle, laissez-vous emporter...



https://www.youtube.com/watch?v=7ctz4GiFyMw&feature=youtu.be

mardi 26 avril 2016

Découverte d'un satellite autour de Makémaké : MK2

Le télescope Hubble vient de découvrir la présence d'un satellite autour de Makémaké, la deuxième planète naine la plus brillante derrière Pluton, résidant dans la ceinture de Kuiper et découverte en 2005. Cette lune, nommée officiellement S/2015 (136472) et déjà surnommée MK2, se trouve à environ 20 000 km de la planète naine et ferait environ 160 km de diamètre. 



Makémaké et son satellite découvert : MK2 (NASA/ESA, A. Parker et al.)
On sait que la ceinture de Kuiper est un vaste réservoir de petits corps glacés, datant de la formation du système solaire il y a 4,5 milliards d'années, et qu'elle abrite plusieurs planètes naines, outre Pluton et Makémaké, on peut citer Sedna et Eris. Makémaké, elle, a un diamètre de l'ordre de 2/3 de celui de Pluton et navigue à environ 45 unités astronomiques (distance Terre-Soleil) du Soleil pour en faire le tour en 305 ans.
 Les observations datent du mois d'avril 2015 à l'aide du Wide Field Camera 3 de Hubble. C'est cette excellente instrumentation qui a permis de distinguer cette petite source de lumière 1300 fois plus faible que la planète naine. 
Les chercheurs ont utilisé exactement la même technique que celle qui leur avait permis de trouver les petits satellites de Pluton en 2005, 2011 et 2012, quelques années seulement avant qu'ils ne soient vus de bien plus près par New Horizons.
Alex Parker, du Southwest Research Institute de Boulder (Colorado) explique : "Nos premières estimations montrent que l'orbite de ce satellite semble être vue par la tranche, ce qui veut dire que le plus souvent quand on regarde Makémaké, on ne voit pas son satellite parce qu'il est noyé dans la lumière de la planète naine".
La découverte d'un tel satellite est précieuse, car elle devrait permettre, par l'étude précise de son orbite, de déterminer la masse des deux corps, et même jusqu'à la densité de Makémaké, comme ce qui avait été fait avec Pluton après la découverte de Charon en 1978. Cette découverte renforce également l'idée selon laquelle la plupart des planètes naines possèdent bien des satellites.

La découverte de MK2  est d'autant plus importante que Makémaké semble être l'un des rares objets très similaires à Pluton. La mesure de sa densité grâce aux mouvements de ce nouveau satellite permettra aux planétologues de déterminer si leur composition est vraiment similaire.
Pour le moment, les chercheurs ne peuvent que faire des estimations un peu grossières : si l'orbite du satellite est circulaire, il ferait une rotation de Makémaké en environ 12 jours. D'ailleurs, la forme de l'orbite de MK2 autour de Makémaké pourrait fournir une indication sur son origine : si elle est très circulaire, cela indiquerait que MK2 serait le produit d'une collision entre Makémaké et un autre corps de la ceinture de Kuiper. Si en revanche elle est elliptique et très allongée, MK2 aurait pu être capturé par Makémaké. Dans les deux cas, le phénomène aurait pu avoir lieu il y a plusieurs milliards d'années.

Un élément étonnant est que la surface de MK2 paraît très sombre, quasi noire comme du charbon, alors que Makémaké, au contraire, paraît blanche comme neige. Une possibilité qui peut expliquer cela d'après les premières analyses des planétologues américains, est que MK2 n'aurait pas la gravité nécessaire pour retenir une couche de glace, qui se sublimerait et partirait dans l'espace rapidement, ne laissant alors à voir que son noyau rocheux très sombre. Celui-ci ressemble fortement à un noyau de comète, qui peuplent par ailleurs massivement cette zone de la ceinture de Kuiper.

Source : 

Space Telescope Science Institute (26 avril 2016)

HAWC fournit une nouvelle carte du ciel en rayons gamma

L’observatoire gamma High Altitude Water Cherenkov (HAWC) a débuté ses opérations à l'été 2013 (voir ici). Cet observatoire qui a pour objectif d’étudier l’origine des rayons cosmiques et des rayons gamma ultra énergétiques vient de rendre publique la semaine dernière sa première carte du ciel gamma couvrant 2/3 du ciel. On y découvre de nouvelles sources d'émission gamma ainsi que des zones déjà connues mais avec plus de détails.



Cet observatoire utilise une technique de détection unique. Il s’agit d’une série de 300 grosses cuves remplies d’eau pure de 5 mètres de haut pour un diamètre de 7,3 mètres (soit 180 000 litres). HAWC est installé au Mexique, sur les pentes d’un volcan, le Sierra Negra, à une altitude de 4100 m, dans l’état du Puebla. Cet observatoire est exploité par une équipe de 120 chercheurs mexicains et américains.
Carte du ciel gamma par HAWC (HAWC Collaboration)
Chaque cuve est équipée de quatre photomultiplicateurs qui enregistrent le moindre photon de lumière apparaissant dans le volume d’eau maintenu dans le plus grande obscurité. Cette lumière dite lumière Cherenkov, trahit l’interaction de particules chargées très rapides (plus rapides que ne l’est la lumière dans l’eau, soit 40% de moins que dans le vide).
Les rayons gamma très énergétiques, en frappant la haute atmosphère, produisent des particules secondaires elles aussi très énergétiques et donc très rapides, que HAWC peut capturer au niveau du sol, qui est déjà situé à plus de 4000 m altitude, pour en perdre le moins possible lors de leur descente dans les profondeurs de l’atmosphère. HAWC peut ainsi être sensible à des particules dont l’énergie se situe entre 100 GeV et 100 TeV.
C'est environ 20 000 particules chargées secondaires par seconde que HAWC parvient à détecter. Le photon gamma le plus énergétique détecté (indirectement) avait une énergie de 60 TeV (60 000 milliards d'électron-volts).
Les rayons gamma de très haute énergie que HAWC traque, grâce à son champ de vision énorme qui lui permet de voir les 2/3 du ciel en 24 heures, viennent principalement des phénomènes les plus violents de l’Univers : collisions d’étoiles à neutrons, explosions de supernovae, trous noirs supermassifs, …

Grâce à la combinaison subtile des signaux Cherenkov des différents sous-éléments de l’ensemble, les astrophysiciens parviennent à déterminer à la fois le temps d’arrivée, l’énergie incidente et la direction d’origine du rayon gamma (ou du rayon cosmique) initial ayant produit la gerbe de particules secondaires, pour pouvoir construire une carte précise des sources de rayonnement.
La très bonne résolution angulaire sur la direction d'origine des rayons gamma détectée est obtenue par HAWC grâce à la mesure simultanée des particules secondaires dans les différentes cuves instrumentées. La direction initiale peut être reconstruite très précisément en utilisant les différences de temps d'arrivée des particules d'une cuve à l'autre, qui se comptent en nanosecondes. Et HAWC fonctionne en continu 24h/24 chaque jour de l'année.

La source gamma TeV J1930+188 imagée par HAWC
(HAWC collaboration)
Cette carte qu'a présenté Brenda Dingus (Los Alamos National Laboratory) lors de la rencontre de l'American Physical Society qui s'est tenue à Salt Lake City le 18 avril dernier, intègre toutes les données collectées depuis mars 2015 et la mise en route de HAWC à pleine capacité avec la totalité de ses cuves. On y voit notamment les très nombreuses sources gamma de notre galaxie avec de grands détails, pour certaines d'entre elles encore jamais aperçues auparavant (par exemple dans la région riche de la constellation du Cygne). 40 sources distinctes ont été trouvées dont 10 étaient inconnues auparavant, et qui sont actuellement activement investiguées pour savoir si un objet vu dans d'autres longueurs d'ondes peut y correspondre.
Deux d'entre elles ont déjà pu être associées à un résidu de supernova (un pulsar) pour la première et à un autre pulsar connu pour la seconde, situé à 26000 années-lumière.

Toujours dans la région de la Voie Lactée, une source gamma avait par exemple été identifiée il y a plusieurs années, appelée TeV J1930+188, et HAWC montre aujourd'hui que cette source n'est pas une source unique mais se trouve être composée de trois sources très proches les unes des autres. Cette zone est donc bien plus complexe qu'imaginé auparavant.
HAWC est également capable de détecter les rayons gamma venant de bien plus loin que notre propre galaxie, comme le centre de galaxies éloignées où s'active un trou noir supermassif. Et il y a juste quelques jours, au début du mois d'avril, HAWC a surpris une telle source produisant une soudaine "éruption" dans la galaxie Markarian 501. Alors qu'il n'y avait rien de particulier le 5 avril, les chercheurs ont eu la surprise de voir une intense source gamma apparaître le 6 avril, puis disparaître presque totalement le 8 avril. 
Les autres télescopes gamma ne peuvent qu'observer une portion restreinte du ciel et ont donc beaucoup plus de difficultés à pouvoir capturer ce type d'éruptions gamma. HAWC pourra évaluer la fréquence de ces événements transitoires dans les années qui viennent. Les chercheurs qui exploitent HAWC espèrent surtout pouvoir observer un tel flash gamma (ou plusieurs) en provenance du trou noir de notre galaxie, Sgr A*.

HAWC est prévu pour poursuivre ses acquisitions de données au moins dans les cinq années qui viennent, permettant d'atteindre des énergies de photons gamma toujours plus élevées. Avec la mise en commun de ses cartes détaillées et des résultats d'autres télescopes gamma, les chercheurs espèrent étendre leur compréhension des processus les plus violents de l'Univers.


Source : 

jeudi 21 avril 2016

Découverte d’un alignement inattendu de trous noirs

Une étude à l’aide d’un des radiotélescopes les plus puissants a permis à des chercheurs sud-africains de mettre en évidence l’existence de plus d’une dizaine de trous noirs supermassifs, sur les 65 qu’ils suivaient, qui sont orientés dans la même direction. Une observation tout à fait surprenante.



Ce sont les directions des jets de plasma des galaxies actives que Russ Taylor (Université du Cap) et son doctorant ont observées dans une région du ciel de 1°x1° appelée ELAIS-N1 durant 3 ans à la fréquence de 612 MHz à l’aide du Giant Metrewave Radio Telescope (GMRT) situé en Inde. Les jets de plasma et de rayonnement sont émis par les trous noirs supermassifs des galaxies actives lorsqu’ils accrètent de la matière. Ces jets sont produits par les forces magnétiques gigantesques qui apparaissent suite au mouvement de rotation très rapide autour du trou de la matière chargée électriquement (du gaz ionisé proche de la vitesse de lumière). La direction du champ magnétique induit se trouve orthogonale au plan du disque d’accrétion, exactement dans l’axe de rotation du trou noir. Les jets de particules aux deux pôles du trou noir sont alors formés de particules dont la trajectoire s’enroule autour des lignes de champ magnétique.
Alignement des jets de trous noirs supermassifs dans la zone ELAIS-N1 (Russ Taylor)
La direction des jets de plasma des trous noirs qui sont observables en radio indiquent donc l’axe de rotation du disque d’accrétion, qui est le même que l’axe de rotation du trou noir.
Russ Taylor et Preshanth Jagannathan ont découvert par hasard cet alignement inattendu.  Les chercheurs voulaient simplement observer les sources radio les plus faibles de l’Univers en testant ce qui serait accessible avec les meilleurs radiotélescopes, comme les futurs MeerKAT ou Square Kilometer Array (SKA). Dans l’image qu’ils ont produite avec GMRT, ils identifient 65 radiogalaxies par leur jet caractéristique, mais treize d’entre eux apparaissent clairement alignés avec moins de 10° d’écart angulaire. Les astrophysiciens ont alors examiné la possibilité que cet alignement soit dû au hasard et ils trouvent que la probabilité qu’un tel alignement apparaisse naturellement avec une distribution aléatoire de l’orientation des galaxies, vaut 0,1%...

Ce qui est surprenant dans l'observation de cette douzaine de trous noirs supermassifs tournant tous dans la même direction, c’est qu’ils sont très éloignés les uns des autres. Les galaxies qui les abritent n’appartiennent même pas aux mêmes amas de galaxies. Ils sont séparés par une distance de l’ordre de 100 Mpc (environ 300 millions d’années-lumière).
Russ Taylor estime que puisque ces trous noirs (ou leur galaxie hôte respective) n’ont eu aucun moyen d’échanger de l’information ou de s’influencer directement les un(e)s les autres sur de si vastes échelles, cet alignement de leur rotation a dû avoir pris forme lors de la formation des galaxies dans l’Univers très jeune. Cette hypothèse implique qu’il y a aurait eu une sorte de rotation dans la structure de ce volume d’espace qui se serait formé à partir des fluctuations de densité primordiales à l’origine des grandes structures galactiques de l’Univers (superamas de galaxies).
Des observations antérieures avaient déjà montré des indices d’orientation privilégiée de quasars et donc d’une violation de l’isotropie cosmique. Ces nouvelles observations sous forme d’images en ondes radio viennent les renforcer en offrant pour la première fois la possibilité de révéler de tels alignements sur des très grandes échelles de distance avec une faible incertitude.

Comme de tels alignements d’axes de rotation ne sont pas prédits par les théories classiques, le phénomène va devoir être étudié de plus près, à la fois par de nouvelles observations plus précises mais aussi par la théorie qui devrait prendre en compte un tel effet si il se confirme. Du côté observationnel, les astrophysiciens comptent désormais beaucoup (et toujours plus) sur les futurs grands réseaux de radiotélescopes que seront le SKA et ses précurseurs, le sud-africain MeerKAT et l’Australien SKA Pathfinder. Du côté théorique, la porte est grande ouverte. Produire une rotation d’ensemble d’une étendue de gaz dans l’Univers primordial n’est pas facile à produire sans physique un peu nouvelle, voire très exotique. Des spécialistes de la simulation de l’évolution des grandes structures cosmiques sont sans doute déjà en train d’écrire des nouvelles lignes de code.

On commence à peine à comprendre comment les fluctuations primordiales de densité ont pu évoluer dans l’Univers pour mener aux grandes structures galactiques que nous découvrons tous les jours. Il va falloir continuer…

Source :

Alignments of radio galaxies in deep radio imaging of ELAIS N1
R. Taylor and P. Jagannathan
Monthly Notices of the Royal Astronomical Society (June 11, 2016) 459 (1): L36-L40.

mercredi 20 avril 2016

De la poussière venue de l'extérieur du système solaire autour de Saturne

Cela fait maintenant 12 ans que la sonde Cassini enregistre des données en orbite autour de Saturne. Parmi ses nombreux instruments, la sonde possède un analyseur de grains de poussière, qui en a détecté des millions, pour la grande majorité d'entre eux faits de glace, mais parmi tous ces grains, il y en a 36 qui sont très différents des autres...

Vue d'artiste de la détection de poussière interstellaire
par Cassini autour de Saturne (NASA/JPL/Caltech)
Le Cosmic Dust Analyzer (CDA) de Cassini a permis d'analyser la composition chimique de ces 36 grains. Les chercheurs en déduisent que cette trentaine de grains de poussière provient de l'extérieur de notre système solaire, du milieu interstellaire. Ce n'est pas une première car les sondes Ulysses, dans les années 1990 , puis Galileo dix ans plus tard et Stardust en 2014 avaient déjà trouvé quelques grains de poussière du même type.
Ces grains de poussière proviennent du nuage interstellaire local, une bulle de gaz et de poussières que le système solaire et son cortège de planètes est en train de traverser. Les scientifiques responsables de l'instrument CDA de Cassini, autour de Nicolas Altobelli (ESA) espéraient depuis longtemps pouvoir attraper quelques spécimens poussiéreux en cherchant dans la bonne direction et en sélectionnant la bonne vitesse. La traque s'est déroulée depuis le début de la mission et CDA a capturé en moyenne quelques grains interstellaires par an ayant une grande vitesse et montrant une direction très différente de celle des très nombreux autres grains de poussière saturniens. Ces grains de poussière ont une vitesse si importante (72 000 km/h) qu'ils ne peuvent pas être capturés ni par l'attraction gravitationnelle de Saturne, ni par celle du Soleil.

Alors que les sondes précédentes n'avaient que détecté la présence de ces grains très rapides, la nouveauté apportée par Cassini est qu'elle a pu effectuer leur analyse chimique. Ces grains ne sont pas constitués de glace mais d'un mélange de minéraux particuliers, et sont étonnamment similaires entre eux. On y trouve les composants des roches : magnésium, silicium, fer, calcium et oxygène, sous la forme de silicates riches en magnésium avec des inclusions ferreuses. L'équipe de Nicolas Altobelli montre dans son article publié dans Science, en revanche, que des éléments plus réactifs comme le carbone ou le soufre sont moins abondants que la moyenne estimée du nuage local.
Le Cosmic Dust Analyzer
de Cassini (NASA/JPL)
La grande similitude dans la composition de ces 36 grains de poussière est inattendue. En effet, cette matière provenant d'explosions d'étoiles, et le type d'étoiles pouvant être assez divers, les chercheurs s'attendaient à trouver des compositions chimiques variées. Une autre surprise est que ces grains ne semblent pas aussi vieux et primitifs que ceux que l'on peut trouver dans des météorites anciennes.
Nicolas Altobelli et ses collaborateurs pensent que ces grains de poussière interstellaire, provenant d'une région de formation d'étoiles de troisième génération, pourraient être détruits puis recondensés plusieurs fois dans un processus répétitif à chaque passage d'une onde de choc produite par une explosion d'étoile de la génération précédente, avant d'être finalement accélérés une dernière fois pour arriver au niveau du système solaire.

Nicolas Altobelli précise : "La longue durée de la mission Cassini nous a permis de l'utiliser comme un observatoire de micrométéorites, nous donnant un accès privilégié à la poussière de l'extérieur du système solaire qui aurait été inaccessible autrement."

La mission Cassini se poursuit pour encore une bonne année autour de la belle aux anneaux, et, qui sait, avec peut-être l'analyse de quelques nouveaux petits grains de poussière venus de loin. 

Source : 

Flux and composition of interstellar dust at Saturn from Cassini’s Cosmic Dust Analyzer
N. Altobelli et al.
Science  Vol. 352, Issue 6283 (15 Apr 2016)

samedi 16 avril 2016

Découvrez le Ciel ! #4 Autour de Véga

Ce quatrième épisode de Découvrez le Ciel nous emmène à la découverte d'une dizaine d'objets du ciel profond situés aux alentours de Véga, l'une des étoiles les plus brillantes du ciel du Printemps...



https://www.youtube.com/watch?v=78runHTa93o&feature=youtu.be

vendredi 15 avril 2016

Rien ne va plus avec la constante de Hubble

"Je pense qu'il y a quelque chose dans le modèle standard de la cosmologie que nous ne comprenons pas...". C'est avec ces mots que Adam Riess, co-découvreur de l'accélération de l'expansion de l'Univers et prix Nobel 2011, commente ses tout derniers résultats sur la mesure directe de la constante de Hubble avec la meilleure précision jamais atteinte, elle est clairement en désaccord avec la valeur déduite des données du satellite Planck sur le fond diffus cosmologique. Cet écart, déjà observé dans des mesures antérieures (2011 et 2014), et qui se creuse, pourrait impliquer de profonds bouleversements dans le modèle standard de la cosmologie, le modèle LCDM.



L'étude des minuscules fluctuations de température du rayonnement de fond diffus cosmologique grâce au satellite Planck permet aux astrophysiciens de mettre des valeurs numériques sur une série de paramètres dits paramètres cosmologiques. Parmi eux, le paramètre peut-être le plus fondamental est la constante de Hubble H0, qui représente le taux d'expansion actuel de l'Univers (la vitesse d'expansion en fonction de la distance). Mais ce n'est pas le seul paramètre du modèle cosmologique ainsi construit et qui est appelé le modèle LCDM, on y trouve par exemple la densité de matière noire, la densité de matière ordinaire (baryonique) ou encore, bien sûr, la valeur de la densité d'énergie noire associée à une constante cosmologique Lambda (L), ou encore le nombre de familles de particules relativistes dans l'Univers primordial (appelé Neff), comme le photon ou le neutrino. Dans le modèle, tous ces paramètres dépendent les uns des autres.

L'échelle complète des distances : l'accord simultané des couples de distances parallaxes/Céphéides (en bas à gauche), Céphéides/SN Ia (au centre) et SN Ia/redshift (en haut à droite) fournit la mesure de la constante de Hubble avec une grande précision. (A. Riess et al.).


Depuis les premiers résultats déduits du fond diffus cosmologique (avec le satellite WMAP au début des années 2000 puis Planck en 2013 puis 2015), un écart substantiel existe sur la valeur de la constante de Hubble H0 qui est l'un des rares paramètres cosmologiques assez facilement mesurables par l'observation astronomique directe. Mais l'incertitude assez grande obtenue par la mesure observationnelle permettait de considérer cet écart comme étant dû à une erreur systématique de l'une ou l'autre des mesures, voire des deux. Or les nouvelles mesures de distance produites aujourd'hui par l'équipe de Adam Riess réduisent fortement l'incertitude sur H0, à 2,4%, et l'écart entre la valeur mesurée (73,02 +-1,79  km/s/Mpc) et la valeur obtenue indirectement avec Planck via le modèle standard (67,27 +-0,66 km/s/Mpc) montre une réelle tension avec une différence qui est statistiquement significative à 99,8%. Quelque chose ne colle donc pas.

Pour obtenir H0, il faut mesurer des distances et des décalages spectraux vers le rouge (qui donnent vitesse d'éloignement). L'équipe de Riess a réévalué ce qu'on appelle les calibrations de l'échelle des distances. La constante de Hubble est mesurée par la mesure de la distance de supernovas et de leur décalage vers le rouge (celui de la galaxie où se situe la supernova). Les supernovas Ia ayant quasiment toujours la même luminosité, la lumière que l'on en voit ne dépend que de leur distance.
Pour être sûr de la distance des supernovas et donc du ratio distance/luminosité, les astrophysiciens doivent "calibrer" la mesure à l'aide d'autres "chandelles" montrant elles aussi une luminosité toujours identique. Il s'agit d'étoiles variables appelées des Céphéides, dont la période de pulsation est directement liée à leur luminosité intrinsèque (plus une Céphéide est lumineuse, plus sa période de pulsation est longue). Il suffit de trouver des supernovas situées dans des galaxies qui possèdent également des Céphéides.
De la même manière que précédemment, la distance exacte des Céphéides les plus proches de nous peut être mesurée par un autre moyen, qui est le moyen astrométrique connu depuis l'Antiquité : la mesure de parallaxes. Cette mesure n'est possible que pour les régions les moins éloignées de nous, notamment dans notre galaxie, ainsi que dans notre galaxie voisine la galaxie d'Andromède, qui a le bon goût de posséder elle aussi des Céphéides.
Illustration des trois niveaux de mesures de distances à grandes distances (Céphéides, SN Ia et redshift)
(NASA/ESA,  A. Feild (STScI))
Les mesures de distances cosmiques sont ainsi découpées en quatre grandes méthodes (parallaxes, Céphéides, Supernovas Ia, décalages vers le rouge) et trois calibrations de distances (parallaxe/Céphéides, Céphéides/Supernovas puis enfin Supernovas/décalage vers le rouge).

Riess et ses collaborateurs ont étudié les deux types de chandelles standards que sont les Céphéides et les supernovas Ia, dans 18 galaxies différentes comportant ces deux types d'objets, en utilisant des centaines d'heures du télescope spatial Hubble. Ils soumettent aujourd'hui leurs résultats dans un monumental article de plus de 60 pages à la revue the Astrophysical Journal. Ils y montrent comment ils parviennent à réduire l'incertitude inhérente à ces types de mesures de distance. Alors que la valeur de H0 mesurée de la sorte auparavant était affublée d'une incertitude de 3,3%, Riess et son équipe parviennent à la réduire à 2,4%, et estiment la nouvelle valeur de H0 à 73,02 km/s/Mpc, qui est donc 8% plus élevée que la valeur déduite des données du satellite Planck.

Mais il se trouve que les chercheurs exploitant le satellite Planck sont eux aussi très confiants sur leurs mesures du fond diffus cosmologique, très précises, mais qui conduisent à déduire une constante H0 de 67,27 km/s/Mpc. Comme cette dernière est déduite en prenant en compte les différents paramètres du modèle standard cosmologique, tout porte à croire, comme le dit Adam Riess, qu'un élément du modèle est erroné, ou qu'il est incomplet.

Adam Riess
On pense bien sûr tout de suite au secteur sombre (matière noire ou énergie noire) qui est encore si mal compris. Une possibilité qui pourrait réconcilier les deux approches serait de considérer que les particules de matière noire aient des propriétés différentes de ce que l'on pense et qui pourraient affecter l'évolution de l'Univers primordial. Une autre piste pourrait être que l'énergie noire n'ait pas été constante au cours de l'histoire cosmique comme on le pense mais qu'elle aurait vu son intensité augmenter. 
Riess et ses collaborateurs montrent enfin une autre piste très intéressante : une explication plausible serait l'existence d'une source additionnelle de rayonnement sombre dans l'Univers primordial. Cela impliquerait dans le modèle LCDM une augmentation du paramètre Neff  comprise entre 0,4 et 1 (Neff vaut aujourd'hui  3,046 dans le modèle).
Une telle augmentation du nombre d'espèces relativistes dans l'Univers primordial augmente la densité de rayonnement et donc le taux d'expansion durant la période cosmique qui est dominée par le rayonnement et elle repousse alors, dans l'échelle cosmique, le moment où rayonnement et matière se trouvent à égalité vers une époque plus proche de nous. Avec un Neff = 4, d'après les chercheurs, la taille de l'horizon se retrouve réduite de quelques pourcents et H0 est alors augmentée de 7 km/s/Mpc pour un Univers plat (ce qui l'amènerait à environ 74 km/s/Mpc), ce qui est largement suffisant pour réconcilier les mesures de Riess et celles du satellite Planck aux deux extrémités de l'échelle cosmique.

Adam Riess et son équipe ont d'ores et déjà hâte de pouvoir repartir à la chasse à l'amélioration des mesures de distance et de H0 grâce aux futures données de distances qui seront accessibles dans les années qui viennent par les innombrables mesures de parallaxes du télescope Gaïa et l’observation de nouvelles Céphéides dans la Voie Lactée permettant leur calibration de distance avec toujours plus de précision. Ils espèrent ainsi pouvoir réduire d'ici peu l'incertitude globale sur H0 à 1,8%, avec pour objectif ultime d'atteindre 1%...
Quant aux théoriciens, il est fort à parier qu'ils sont déjà en train de noircir leurs tableaux blancs ou blanchir leurs tableaux noirs. Comme le dit Kevork Abazajian, cosmologiste à l'Université de Californie, non impliqué dans cette étude : "Ces résultats ont le potentiel de bouleverser de fond en comble la cosmologie!”.


Sources :

A 2.4% Determination of the Local Value of the Hubble Constant
Adam G. Riess et al.
Soumis à The Astrophysical Journal

Measurement of Universe's expansion rate creates cosmological puzzle
Discrepancy between observations could point to new physics.
Davide Castelvecchi

Akatsuki dévoile ses premières images de Vénus

En décembre dernier, les ingénieurs japonais de la JAXA parvenaient à mettre enfin leur sonde Akatsuki en orbite de Vénus après 5 ans d'errance dans le système solaire. La semaine dernière, ses premiers résultats ont été présentés à la conférence International Venus Conference ayant lieu à Oxford. On y découvre notamment dans l'atmosphère vénusienne des nuages acides striés ainsi qu'une forme mystérieuse mouvante en forme d'arc.



Malgré ses 5 années de voyage non prévues au départ, les instruments scientifiques embarqués sur Akatsuki semblent fonctionner parfaitement. On se souvient qu'un défaut sur une valve avait empêché le moteur principale de la sonde de s'allumer à temps pour ralentir et la mettre en orbite de Vénus en 2010, l'envoyant alors sur une orbite autour du Soleil. A l'occasion du passage de Akatsuki non loin de Vénus en 2015, les ingénieurs japonais ont réussi, grâce à ses moteurs auxiliaires, à dévier la sonde pour qu'elle entre dans le champ gravitationnel de Vénus, sur une nouvelle orbite assez différente de l'orbite prévue initialement (une période de 10,5 jours au lieu de 30h et une distance maximale de 370 000 km au lieu de 80 000 km).
Les nuages striés de Vénus (à gauche) et la structure mystérieuse en forme d'arc (blanchâtre, à droite) (JAXA)
Les résultats présentés consistent notamment en des images acquises par les cinq imageurs de Akatsuki, couvrant le spectre des infra-rouges aux ultraviolets, et on y voit des détails très fins des couches denses de nuages d'acide sulfurique. Les images à haute résolution obtenues en infra-rouge suggèrent notamment que les processus à l'origine de la formation des nuages de Vénus pourraient être plus complexes que ce que l'on pensait. Et ces premières images ont été obtenues à une distance de la sonde de 100 000 km de la planète, alors qu'elle doit s'en approcher bientôt à une distance de seulement 4000 km (la mission initiale devait produire un survol à 300 km...). Les prochaines images devraient ainsi révéler de bien meilleurs résultats.

La forme en arc aperçue avec l'imageur thermique LIR (Long -wave InfraRed) intrigue les chercheurs. Cette structure nuageuse qui s'étend d'un pôle à l'autre en plusieurs jours, semble tourner de façon synchrone avec la surface de Vénus et non pas avec son atmosphère (qui a une rotation beaucoup plus rapide). Le phénomène pourrait être dû à une sorte d'encrage sur des structures au sol, selon Makoto Taguchi, qui dirige l'équipe du LIR. La plupart des planétologues présents lors de cette présentation sont étonnés de voir un tel phénomène, à l'image de la planétologue Suzanne Smrekar du JPL de la NASA qui dit : "C'est assurément quelque chose de bien mystérieux!".

Akatsuki est désormais la seule sonde en activité autour de Vénus après la fin de mission de Venus Express en 2014 (voir là). Son orbite a été à nouveau légèrement modifiée le 4 avril dernier, de manière à ce qu'elle puisse continuer à tourner autour de Vénus pour plusieurs années, ainsi que pour qu'elle puisse étudier la zone équatoriale de la planète comme prévu initialement.
L'inconvénient majeur est l'orbite de la sonde qui est bien plus allongée que celle imaginée à l'origine, passant 5 fois plus loin dans son point le plus distant. Les images obtenues seront donc toujours moins résolues que ce qu'on pouvait espérer au lancement de la mission, mais les japonais sont optimistes en précisant que cet inconvénient pouvait devenir un avantage en permettant de produire des images de Vénus dans son entier et ainsi de capturer dans son atmosphère des structures à grande échelle évoluant dans le temps.

C'est en décembre prochain que la NASA devrait décider si elle retient l'un des deux projets vénusiens qui ont été short-listés parmi les 5 projets retenus pour être lancés au début des années 2020 par les américains. Le succès de Akatsuki pourrait faire pencher sérieusement la balance, surtout si de nouveaux phénomènes intrigants comme un nouveau type de volcanisme méritent d'être suivis de près...

Source:

Rescued Japanese spacecraft delivers first results from Venus
Elizabeth Gibney
Nature 532, 157–158 (14 April 2016)

mercredi 13 avril 2016

Découverte d'un couple d'étoiles hypervéloce

Une équipe d'astronomes allemands et américains vient de découvrir une étoile hypervéloce, ou plutôt un couple d'étoiles hypervéloce. C'est la première fois qu'une binaire avec une telle vitesse est observée.



Le couple d'étoiles en question est nommé PB3877, il est composé d'une étoile chaude et d'une étoile froide (30000° et 5000° respectivement). Elles se déplacent ensemble à une vitesse proche de la vitesse d'échappement de la Galaxie, plus exactement à la vitesse de 570 +-80 km/s dans le référentiel de la Galaxie. Jusqu'à présent, les seules étoiles observées avec de telles vitesses impliquant qu'elles vont s'échapper de l'attraction de la Galaxie, une vingtaine seulement, étaient toutes des étoiles seules. Ce résultat est donc une première et il remet également en cause le scénario généralement admis concernant l'origine de ces étoiles à haute vitesse, stipulant qu'elles seraient issues d'une éjection par le trou noir supermassif situé au centre de notre Galaxie. Hors, ici, s'agissant d'un couple d'étoiles se tournant l'une autour de l'autre en une centaine de jours et toutes les deux animées de la même vitesse par rapport au centre de la Galaxie, le scénario de l'éjection du trou noir est impossible. En effet, si c'était le cas, le couple d'étoiles aurait été disloqué, les deux étoiles se retrouvant séparées à jamais.
Illustration de la position actuelle et de la trajectoire de PB3877,
étoile binaire hypervéloce
(Thorsten Brand)
Par ailleurs, les chercheurs sont sûrs que PB3877 n'est pas passée à proximité du centre galactique, sa trajectoire ne correspondant pas. D'autres idées pouvant produire des étoiles hypervéloces ont été envisagées comme des collisions stellaires ou l'effet d'un supernova, mais là encore, le couple n'aurait pas résisté...
PB3877 a été découverte en tant qu'étoile hypervéloce en 2005, année où furent découvertes les trois premières étoiles hypervéloces de notre galaxie. Mais les chercheurs n'avaient pas remarqué la présence d'une compagne à l'époque. C'est à partir de nouvelles observations spectrométriques effectuées sur le télescope de 10 m Keck II à Hawaï puis avec le VLT de 8,2 m de l'ESO au Chili que Péter Németh et ses collaborateurs ont découvert la présence de faibles raies d'absorption qui ne pouvaient pas appartenir à l'étoile chaude PB3877. Il y avait là en plus de l'étoile chaude, une compagne beaucoup plus froide. L'étoile chaude a une faible masse (0,5 masse solaire), tandis que la compagne froide est 7 fois plus massive que le soleil. Le couple se trouve aujourd'hui à 18000 années-lumière de nous.
Une solution possible pouvant expliquer cette binaire hors du commun serait qu'elle proviendrait d'une autre galaxie, en ayant subi une accélération graduelle et prolongée menant à cette vitesse. Un tel scénario permet de conserver l'intégrité du couple. Les régions externes de la Voie Lactée sont connues pour contenir divers courants d'étoiles que l'on pense être des résidus de galaxies naines qui auraient été déstructurées par les forces de marée gravitationnelle de notre Galaxie. Ce n'est pour le moment qu'une hypothèse qu'il faut creuser.

La binaire PB3877 pourrait néanmoins restée liée à la Voie Lactée. Tout dépend de la quantité de matière noire qui est réellement présente dans le halo galactique. Les calculs effectués par Németh et ses collègues indiquent que ce serait le cas uniquement dans le cas où la Voie Lactée possède la quantité maximale de matière noire envisageable dans les modèles. Le suivi de cette binaire sur de longues durées pourrait ainsi fournir quelques indications sur le contenu massif de notre galaxie.

L'équipe de Németh poursuit ses recherches, à la fois sur PB3877 pour mieux caractériser ses paramètres orbitaux, et aussi pour essayer de trouver d'autres étoiles ayant le même type de trajectoire, qu'elles soient seules ou binaires, afin de confirmer une origine extragalactique.

Source : 

AN EXTREMELY FAST HALO HOT SUBDWARF STAR IN A WIDE BINARY SYSTEM
Péter Németh et al.
The Astrophysical Journal Letters, Volume 821, Number 1 (2016 April 11)

mardi 12 avril 2016

Observations inédites et imprévues de l'atmosphère de Vénus par la sonde Venus Express

La sonde européenne Venus Express a fini sa mission à l'été 2014 quand elle fut à cours de carburant. Juste avant d'être envoyée dans l'atmosphère de Vénus pour y brûler, elle a fourni des dernières données inédites sur l'atmosphère vénusienne.



Illustration de Venus Express en phase d'aérofreinage
(ESA-C. Carreau)
Cette ultime expérience n'était pas prévue initialement, elle a été proposée après même le lancement de la sonde en novembre 2005. C'est plusieurs mois après le lancement que Ingo Müller-Wodarg (Imperial College, Londres) et des collègues ont réalisé que la sonde en elle-même pouvait être utilisée pour faire des mesures sur l'atmosphère (après avoir passé plusieurs années à analyser l'atmosphère de Vénus à distance). L'idée était simplement d'utiliser les données des accéléromètres de Venus Express pour suivre comment évoluait la vitesse de la sonde durant la phase dite d'aérofreinage, lorsque celle-ci commence à entrer dans la haute atmosphère, avant de disparaître définitivement. Cette phase devait durer quelques semaines et les données pouvaient encore être transmises vers la Terre. 
Les accéléromètres de Venus Express ont donc mesuré indirectement la pression exercée par la densité de l'atmosphère de Vénus. La sonde a pu fournir des données sur la haute atmosphère, qui est appelée la thermosphère, autour de la région polaire, pour produire un profil de densité atmosphérique (en 18 points entre 130 et 140 km d'altitude).
Les résultats ont surpris les chercheurs : la densité est globalement plus faible qu'attendue et la température y est 70° plus froide qu'estimé auparavant (soit  114 K).
Ingo Müller-Wodarg et ses collègues pensent que cela pourrait être dû à ce qu'on appelle le vortex polaire, une énorme tempête localisée aux niveau des pôles de Vénus à environ 90 km d'altitude.

Mais ce n'est pas tout. Grâce à ces mesures inédites de la densité de la haute atmosphère de Vénus, Venus Express y montre pour la première fois l'existence d'ondes atmosphériques sur Vénus, sous forme de perturbations de densité horizontales. Les ondes atmosphériques sont l'équivalent de vagues dans de l'eau, mais au niveau du gaz atmosphérique, elles peuvent être causées par les vents circulant autour d'obstacles comme des reliefs montagneux. Les chercheurs publient cette étude dans la revue Nature Physics. Ils montrent que ces ondes atmosphériques vénusiennes ont une structure répétitive de 5 jours, qui est probablement liée à la rotation de la planète.
Ondes atmosphériques observées par Venus Express
(Ingo C. F. Müller-Wodarg et al.)

La connaissance de ces spécificités de la haute atmosphère d'une planète comme Vénus permet de savoir comment ce type de planète interagit avec l'espace environnant et en premier lieu avec les phénomènes violents qui peuvent apparaître comme les éruptions solaires. Cela permet également d'aider les ingénieurs qui conçoivent les sondes spatiales d'exploration en leur révélant ce qui les attend quand la sonde doit plonger dans l'atmosphère.

Les auteurs ingénieux de cette étude indiquent que le même concept de mesures par accéléromètre est tout à fait envisageable avec la sonde ExoMars qui a pris son envol vers Mars il y a quelques semaines et dont l'orbiteur devrait subir une longue phase d’aérofreinage à partir de décembre 2016, une campagne de mesure non prévue initialement...

Source :

In situ observations of waves in Venus’s polar lower thermosphere with Venus Express aerobraking
Ingo C. F. Müller-Wodarg et al.
Nature Physics (11 April 2016) 

lundi 11 avril 2016

Les briques de l'ADN synthétisées à partir des glaces des comètes

Le ribose est une sorte de sucre. Il ne vous dit peut-être rien, mais sans cette molécule, vous ne seriez pas en train de lire ces lignes. Il suffit de dire "acide ribonucléique" ou "acide désoxyribonucléique" pour que l'on comprenne aussitôt l'importance de ce sucre. Il s'agit bien évidemment de la molécule de base de l'ARN et de l'ADN, bref, de la vie telle qu'on la connait. L'origine du ribose sur Terre reste une inconnue, mais une équipe française vient de créer du ribose et de nombreux autres types de sucres en laboratoire simplement à partir de glaces interstellaires (composées de H2O (eau), CH3OH (méthanol) et NH3 (ammoniac) irradiées par de la lumière ultraviolette telle qu'elle pouvait exister dans les prémices de notre système solaire...

La chambre à vide cryogénique utilisée
par Cornelia Meinert et al. (CNRS)
On pense que la molécule d'ADN a évoluée à partir d'acide ribonucléique (ARN). Le squelette de l'ARN est constitué de molécules de ribose. L'équipe française d'astrochimistes a simulé expérimentalement une comète composée de glaces en observant attentivement quelles étaient les molécules produites par insolation de rayonnement UV, grâce à la spectrométrie de masse par chromatographie de temps de vol en 2 dimensions. Cette technique pointue permet de classer les molécules en fonction de leur masse et de les identifier avec une très grande précision.
Le scénario qu'ils ont déployé implique la photochimie et la thermochimie des glaces dites "pré-cométaires". Il prend pour hypothèse que les planétésimaux (astéroïdes, comètes, petits corps précurseurs des météorites) se sont formés par agrégation de grains de glace déjà présents, et se place dans un environnement de type disque protoplanétaire où les matériaux peuvent se mélanger. Les astrochimistes et astrophysiciens de l'Université de Nice, de l'Institut d'Astrophysique Spatiale (Université Paris 11) et du synchrotron Soleil ont utilisé des grains de poussière composés de silicates et de carbone, entourés par une couche de glace composée majoritairement d'eau, de méthanol et d'ammoniac, les glaces les plus communes. Les grains ont tout d'abord été irradiés par de la lumière ultra-violette à basse température (78 K) et basse pression puis remis aux conditions normales de température et pression. Afin de contrôler l'absence de contamination, les molécules de méthanol utilisées étaient marquées par du carbone radioactif (13C), de manière à pouvoir le suivre dans les produits organiques formés.

C'est la première fois que des chercheurs parviennent à montrer que des sucres complexes peuvent être produits simplement à la surface des premiers corps du système solaire. La formation d'autres éléments organiques constitutifs du vivant comme des acides aminés formant les protéines est un peu mieux comprise car déjà observée dans des expériences semblables en laboratoire et aussi détectée dans des échantillons de comètes ou météorites. Les sucres restaient encore mystérieux du fait de leur détection difficile .

Cornelia Meinert (Université Nice Sophia Antipolis), auteure principale de l'étude parue dans Science précise : "Nous ne sommes probablement pas les premiers à avoir produit ces molécules complexes dans des expériences d'astrochimie, les sucres, dont le ribose devait être là, mais restés non détectés... Nous avons pu les détecter grâce à notre instrumentation de chromatographie gazeuse multidimensionnelle...".
Elle ajoute : "On pourrait penser qu'il n'y a pas beaucoup de molécules organiques formées dans ces glaces, mais c'est en fait l'opposé : nous avons formé de nombreux composés et classes de composés très différents, des acides aminés, des acides, des alcools, des aldéhydes, et des sucres."
Ces résultats semblent confirmer les indices de présence de molécules organiques complexes à la surface des comètes comme a pu le montrer le robot Philae à la surface de Chouryumov/Gerasimenko dès son atterrissage, où il a mis en évidence la présence de précurseurs d'acides aminés et de sucres.

Les implications de cette découverte sont importantes, car les types de glaces étudiées (eau, méthanol, ammoniac) existent quasi partout autour des étoiles jeunes entourées d'un disque de poussières. Ces molécules complexes comme le ribose doivent donc être très répandues, et avec elles, les briques nécessaires à la vie.


Source :

Ribose and related sugars from ultraviolet irradiation of interstellar ice analogs
C. Meinert et al.
Science Vol 352 Issue 6282 (8 April 2016) 
http://dx.doi.org/10.1126/science.aad8137

samedi 9 avril 2016

Le trou noir supermassif qui ne devrait pas être là

La détection de quasars très lumineux ayant un décalage spectral z supérieur à 6 suggère que des trous noirs supermassifs de plus de 10 milliards de masses solaires étaient déjà présents à une époque reculée il y a 13 milliards d'années. Deux possibles descendants - désormais inactifs - de ces trous noirs supermassifs sont observés aujourd'hui dans les galaxies NGC 3842 et NGC 4889, des galaxies situées au centre des amas de galaxies du Lion et de Coma respectivement. Ces deux amas de galaxies forment en outre la région centrale du "grand mur", la plus grande structure galactique dans notre univers proche. De tels trous noirs supermassifs ne sont pas trouvés à l’extérieur de tels amas  très riches en galaxies. Mais un intrus de 17 milliards de masses solaires  vient d'être mis en évidence, contre toute attente, au sein d'une galaxie très isolée...



NGC 1600 (au centre) avec un zoom sur sa partie centrale où se trouve
un trou noir supermassif de 17 milliards de masses solaires
(NASA, ESA, Digital Sky Survey 2)
La galaxie en question est une grosse galaxie elliptique nommée NGC 1600, qui se trouve non loin du centre d'un petit groupe de galaxies, située à 64 mégaparsecs de la Terre (209 millions d'années-lumière). L'équipe d'astronomes menée par Jens Thomas du Max Planck-Institute for Extraterrestrial Physics, à Garching publie sa découverte dans Nature cette semaine. Ils ont établi la masse du trou noir central de NGC 1600, non pas en l'observant directement mais en observant les vitesses des étoiles à proximité du centre de cette galaxie. Ils en déduisent une masse de 17 milliards de masses solaires, ce qui en fait le deuxième trou noir le plus massif connu à ce jour (le premier ayant une masse de 21 milliards de masses solaires). Ils ont utilisé pour cela à la fois le télescope spatial Hubble et le télescope hawaïen Gemini North de 8 m et son spectrographe GMOS (Multi-Object Spectrograph). L'étude de Thomas et ses collaborateurs internationaux est issue du programme de relevé MASSIVE, qui vise à étudier les galaxies les plus massives et les trous noirs supermassifs dans l'univers proche.

La surprise vient de l'endroit où est trouvé ce monstre noir. La galaxie NGC 1600 se trouve assez esseulée, pas du tout au centre d'un vaste superamas de galaxies où l'on s'attendrait à trouver ce genre de trou noir supermassif. Le recordman de 21 milliards de masses solaire se trouve par exemple au centre d'une grosse galaxie au cœur de l'amas de Coma qui contient plus de 1000 galaxies. A contrario, NGC 1600 se trouve dans un petit groupe d'une vingtaine de galaxies. 
Or il se trouve que les petits groupes de galaxies comme celui de NGC 1600 sont au moins 50 fois plus abondants que les très vastes amas comme l'amas de Coma. La question que se posent donc les chercheurs est : "Est-ce que l'on vient de trouver le sommet d'un l'iceberg ?", les trous noirs supermassifs extrêmes sont-ils beaucoup plus communs que ce que l'on pense ?

L'environnement galactique de NGC 1600 (à gauche) comparé à
celui de NGC 4889 (à droite) (Nature)
Une autre étrangeté avec ce trou noir de NGC 1600, c'est que sa masse ne correspond pas avec la masse de la galaxie hôte. Les modèles indiquent qu'il existe une corrélation entre la masse du bulbe de la galaxie et la masse de son trou noir. Plus la masse du bulbe galactique (la partie centrale de la galaxie riche en étoiles) est grande, et plus celle du trou noir est importante. Ici, la masse estimée de NGC 1600 (830 milliards de masses solaires en étoiles et 150 000 milliards de masses solaires pour le halo) dit que le trou noir devrait être 10 fois moins massif que la valeur trouvée. La relation établie ne semble plus fonctionner pour les trous noirs supermassifs les plus imposants.

Une hypothèse évoquée pour expliquer ce trou noir monstrueux est qu'il aurait pu être la conséquence de la fusion de deux trous noirs plus petits dans un lointain passé quand les interactions de galaxies étaient plus nombreuses qu'aujourd'hui. Le trou noir résultant aurait par la suite absorbé de grandes quantités de gaz de la galaxie nouvellement formée. Ce phénomène pourrait également expliquer pourquoi NGC 1600 se trouve dans un si petit groupe de galaxies en étant de loin la plus lumineuse de toutes ses voisines d'après les chercheurs.
NGC 1600 devait à cette époque suivant tout juste la fusion être un quasar brillant, son trou noir accrétant d'énormes quantités de gaz en le faisant rayonner par échauffement. Mais aujourd'hui, il ne se passe plus rien autour de ce géant; il a fait le vide autour de lui au centre de la galaxie et on ne peut le mettre en évidence qu'à partir des effets gravitationnels qu'il produit sur les étoiles les plus proches de son horizon, jusqu'à 3000 années-lumière de distance.
Ce qu'observent en outre les astrophysiciens, c'est une zone dépeuplée d'étoiles autour du trou noir, comme si ce dernier ou l'interaction passée de deux trous noirs en avaient éjecté  un nombre important par effets gravitationnels. Thomas et ses collaborateurs estiment la masse d'étoiles ainsi éjectées du centre de la galaxie elliptique à près de 40 milliards de masses solaires, soit l'équivalent de toutes les étoiles formant le disque de la Voie Lactée... 

Les prochains résultats du programme MASSIVE révéleront peut-être si NGC 1600 est le sommet d'un vaste l'iceberg ou juste un cas très particulier.

Source :

A 17-billion-solar-mass black hole in a group galaxy with a diffuse core
J.Thomas et al.
Nature online (6 April 2016) 

vendredi 8 avril 2016

Découvrez le Ciel ! #3 Les amas globulaires du Printemps

Dans ce troisième épisode de nos balades dans le ciel du printemps, je vous invite à découvrir les objets les plus vieux de la galaxie et parmi les plus jolis à observer avec un télescope : les amas globulaires. 

jeudi 7 avril 2016

Des supernovas proches ont laissé des traces radioactives sur la Terre

Deux études parues cette semaine dans la revue britannique Nature confirment que de multiples explosions de supernovas ont irradié la Terre il y a quelques millions d'années. La première étude rapporte la découverte de traces d'un isotope rare du fer au fond des océans, le Fer-60, seulement produit au cœur des supernovas, et la seconde étude modélise quelles ont pu être les supernovas responsables de cet apport radioactif dans le voisinage du système solaire. Ces deux études indépendantes sont tout à fait cohérentes entre elles.



Modélisation de la distribution spatiale du Fer-60 dans la Bulle Locale
(la croix représente la position du système solaire) (Michael Schulreich)
Dieter Breitschwerdt du Berlin Institute of Technology et ses collaborateurs ont modélisé ce que les chercheurs appellent la "bulle locale", une région de gaz chaud large de 600 années-lumière, qui semble entourer le système solaire. Les astrophysiciens allemands, grâce à la modélisation de la distribution spatiale du Fer-60, ont trouvé que cette vaste structure a dû être produite par l'explosion d'un grand nombre de supernovas par effondrement de cœur (SN de type II) : entre 14 et 20 supernovas faisant toutes partie d'un même groupe d'étoiles en mouvement. Ils parviennent à estimer non seulement quelles étaient leurs masses et leur position exacte, mais aussi les quantités de Fer-60 qui ont été injectées au sein du système solaire au cours de son mouvement à proximité du lieu des explosions. Les deux explosions de supernova les plus récentes modélisées par Breitschwerdt et al. datent respectivement de 1,5 et 2,3 millions d'années.
Le Fer-60 est un isotope du fer qui comporte 4 neutrons en plus par rapport à l'isotope le plus abondant naturellement (et stable), le Fer-56. Il n'est produit que lors de l'explosion d'une supernova quand le cœur de fer capture des neutrons rapides et thermiques successivement. Il est radioactif (émetteur béta/gamma) avec une demie-vie (durée durant laquelle la moitié des noyaux à subi une désintégration) de 2,6 millions d'années.

Les premières traces de Fer-60 sur Terre ont été trouvées en 1999 sur le plancher océanique du Pacifique, elles indiquaient un âge du dépôt d'environ 2 millions d'années.  Mais de nouvelles mesures de Fer-60 sont rapportées cette semaine dans le même numéro de Nature, cette fois-ci beaucoup plus nombreuses (120 échantillons rapportés) et disséminées sur de nombreux points du globe (dans les océans Indien, Pacifique et Atlantique). Ces nouvelles mesures du Fer-60 retracent ainsi près de 11 millions d'années de l'histoire de la Terre. Elles montrent un pic d'abondance du 60Fe il y a entre 1,5 et 3,2 millions d'années. Cette large période a surpris le physicien Anton Wallner (Australian National University à Canberra) et ses collaborateurs qui ont mené cette étude.
L'équipe de Wallner trouve également une forte abondance de l'isotope 60 du fer plus tôt, entre 6,5 et 8,7 millions d'années, mais c'est le premier dépôt qui semble le mieux correspondre à la modélisation de l'équipe de Dieter Breitschwerdt. Les chercheurs australiens concluent à l'existence de multiples événements de type supernova à proximité dans les 10 derniers millions d'années.
De plus, les deux équipes, à partir de leurs résultats (simulations pour l'un, mesures pour l'autre), calculent la distance qui devait être celle des supernovas et tombent sur la même valeur : 300 années-lumière au maximum.

La date présumée de cette série de supernovas correspond, sans que l'on puisse faire une corrélation encore à ce stade, à un événement sur Terre qui correspond à un refroidissement général du climat et le passage du Pliocène au Pléistocène, il y a environ 2,5 millions d'années.
Au-delà d'un impact éventuel sur le climat terrestre, de telles explosions stellaires auraient été assez proches de la Terre pour éclairer le ciel autant que la pleine Lune, mais tout de même trop éloignées pour l'affecter sévèrement ou causer une extinction de masse, d'après Adrian Melott, spécialiste de l'Université du Kansas. Mais il ajoute : "Ces événements ne sont tout de même pas suffisamment éloignés pour que l'on puisse tout à fait les ignorer". 


Sources : 

The locations of recent supernovae near the Sun from modelling 60Fe transport
D. Breitschwerdt et al.
Nature Vol 532, (7 April 2016)
http://dx.doi.org/10.1038/nature17424

Recent near-Earth supernovae probed by global deposition of interstellar radioactive 60Fe
A. Wallner et al.
Nature Vol 532, (7 April 2016)
http://dx.doi.org/10.1038/nature17196

mardi 5 avril 2016

La bouffée rapide d'ondes radio FRB 150814 finalement toujours mystérieuse

Le 25 février dernier, je vous relatais l'observation d'une bouffée rapide d'ondes radio, et son suivi dans le temps, qui avait permis pour la première fois d'en déterminer la distance et l'origine extra-galactique. De nouvelles observations montrent aujourd'hui que le signal de décroissance dans cette FRB, à l'origine de la détermination de sa distance, s'avère en fait non corrélé avec cette source mais a pour origine un trou noir supermassif se trouvant dans la ligne de visée... L'origine de cette FRB (et des autres) reste donc mystérieux.



Les résultats publiés dans Nature en février dernier au sujet de FRB 150418 avaient été rapidement été mis en question à la suite de nouveaux suivis systématiques. Peter Williams et Edo Berger, du Harvard Smithonian Center for Astrophysics ont réussi à montrer en utilisant le réseau de radiotélescopes Karl Jansky Very Large Array que le signal évanescent qui suivait la bouffée radio proprement dite et qu'avaient exploitée Evan Keane et ses collaborateurs, se voyait toujours longtemps après le phénomène. Et pire, le signal se trouve être variable, pouvant croître et décroître de plus d'un facteur trois.

Le Karl Jansky Very Large Array (NRAO)
Dans leur étude qui a été acceptée pour publication par the Astrophysical Journal Letters, Williams et Berger ont observé attentivement la galaxie supposée être l'hôte de la source radio rapide, une galaxie située à 6 milliards d'années-lumière, et montrent qu'une source radio variable est présente dans la ligne de visée où a eu lieu la bouffée rapide FRB 150418. Le signal vu par Keane juste après la FRB proprement dite était donc spatialement coïncident, mais n'avait aucun lien. Keane et son équipe ont juste observé une décroissance sans observer une remontée, ce qu'ont pu voir Williams et Berger.
Les astronomes de Harvard en concluent que cette émission radio variable est issue d'un noyau de galaxie active, autrement dit un trou noir supermassif. Le trou noir supermassif produit des jets de matière au niveau de ses pôles, qui produisent ensuite du rayonnement radio par ses interactions avec le milieu. Un tel phénomène peut facilement montrer une variabilité naturelle de l'ordre de grandeur de celle qui est observée.

Avec cette infirmation des conclusions de l'étude de février dernier, les astrophysiciens reviennent à la case départ au sujet des FRB. L'explication qui avait pu être déduite à partir de la valeur de distance obtenue par l'équipe de Evan Keane (la fusion de deux étoiles à neutrons) s'évanouit.

Peter Williams précise :"Aujourd'hui, la science des FRB en est au même point que là où nous étions il y a 30 ans avec les GRB (bouffées de rayons gamma), nous voyions ces phénomènes apparaître et disparaître sans savoir d'où ils provenaient. Nous savons maintenant à peu près avec certitude quelle est l'origine des GRB courts et longs. Avec plus de données et un peu de chance, nous devrions résoudre de même le mystère des FRB d'ici peu". 


Source : 

No precise localization for FRB 150418: claimed radio transient is AGN variability
P. K. G. Williams, E. Berger
Astrophysical Journal Letters, à paraître