vendredi 29 avril 2016

Exoplanètes : Kepler teste une nouvelle méthode de détection

Une équipe d’astronomes a été tout particulièrement soulagée d’apprendre le retour en fonctionnement normal du télescope chasseur d’exoplanètes Kepler suite à  sa mise en mode d’urgence impromptue apparue au début du mois d’avril : l’équipe qui l’utilise pour trouver des exoplanètes avec une nouvelle technique, les microlentilles gravitationnelles.


L’arrêt brutal du fonctionnement de Kepler avait eu lieu seulement quelques heures avant le début de la campagne d’observation des microlentilles gravitationnelles prévue pour durer 80 jours. Tout étant désormais rentré dans l’ordre, cette campagne a enfin pu commencer.
Le télescope Kepler (NASA)
L’effet de lentille gravitationnelle est un effet prédit par la théorie de la relativité générale, qui indique que les rayons lumineux se déplacent en suivant les géodésiques de l’espace-temps, les mailles de ce grand filet élastique qui est déformé par les masses qui s’y trouvent. La lumière ne voyage donc pas en ligne droite mais est déviée par la présence d’objets massifs. Les premiers effets de lentille gravitationnelle ont été observés avec des cas impliquant des très grandes masses comme celles d’amas de galaxies, qui peuvent produire d’importantes déformations de la forme de galaxies situées en arrière-plan de la masse-lentille. Mais si l’effet de lentille gravitationnelle est ainsi appelé, c’est qu’il ne produit pas uniquement une déformation de la trajectoire des photons, mais il induit aussi une focalisation des rayons lumineux, qui peut avoir pour effet une augmentation de l’intensité lumineuse de l’objet lointain situé derrière la masse-lentille.
L’effet de lentille gravitationnelle existe à toutes les échelles. La masse d’une simple étoile est suffisante pour défléchir suffisamment la lumière d’une étoile située plus loin derrière elle pour que la luminosité de cette dernière soit augmentée artificiellement. C’est ce qu’on appelle les microlentilles gravitationnelles.
Et le télescope Kepler est capable de détecter des sursauts de luminosité si faibles qu’il devrait être capable de déceler ce phénomène non seulement quand il est produit par des étoiles, mais aussi par des planètes. C’est le passage d’une étoile (entourée d’une  ou plusieurs planètes) devant une autre étoile située beaucoup plus loin, telle qu’elle est vue depuis la Terre, qui permettra à Kepler d’observer ces phénomènes de microlentille en mesurant l’évolution de la luminosité sur plusieurs semaines.
Le phénomène de microlentille gravitationnelle a été utilisé dès les années 1980 pour rechercher des astres sombres, des naines brunes. La recherche par cette méthode de corps plus petits comme des planètes  a été mise en œuvre à la fin des années 1990 à partir de télescopes terrestres, comme le programme OGLE (Optical Gravitational Lensing Experiment) qui exploite les instruments de l’observatoire chilien de Las Campanas. Les astrophysiciens doivent suivre des millions d’étoiles durant plusieurs mois pour trouver un seul effet de microlentille. Et parmi ces événements de microlentille, la très grande majorité (99%) est dûe à une étoile seule, le pourcent restant montrant une courbe de lumière avec un petit pic accompagnant le pic principal, qui signe la présence probable d’une planète.
Exemple d'une courbe de lumière d'une microlentille gravitationnelle
produite par une étoile accompagnée d'une planète, le petit pic
signe la présence de la planète (Caltech)
Le gros avantage des microlentilles gravitationnelles par rapport aux autres méthodes de détection des exoplanètes comme celle du transit habituellement exploitée par Kepler, est qu’elle n’est pas seulement sensible aux planètes ayant une orbite très proche de leur étoile. Les effets de microlentille peuvent être observés sur des planètes très éloignées de leur étoile, voire des planètes esseulées, errant dans le milieu interstellaire, et qui pourraient être très nombreuses selon certains astrophysiciens.
Jusqu’à aujourd’hui, les télescopes terrestres ont permis de trouver environ 60 exoplanètes par cette méthode, mais les astronomes espèrent en trouver d’avantage avec Kepler.

On se souvient que Kepler a subi une avarie de ses roues gyroscopiques en 2013, qui l’empêche désormais de se positionner dans n’importe quelle position. Les ingénieurs de la NASA ont trouvé le moyen de continuer à l’utiliser malgré son handicap, en le stabilisant grâce au vent solaire, mais il doit du coup pointer toujours vers la même direction, qui ne varie qu’en fonction des saisons. D’avril à juillet, le champ de vue de Kepler se situe dans la direction du bulbe de notre galaxie, peuplé de nombreuses étoiles, et donc un terrain de chasse idéal pour débusquer des microlentilles gravitationnelles.
Et Kepler ne va pas travailler seul : les astronomes ont eu l’idée d’utiliser le fait que Kepler se trouve à plus de 100 millions de kilomètres de la Terre (sur une orbite autour du Soleil), pour comparer ses mesures avec des mesures enregistrées par une trentaine de télescopes terrestres répartis sur tous les continents. L’observation des mêmes microlentilles simultanément avec Kepler et sur Terre permettra de mesurer la distance du système planétaire qui en est la cause par la mesure de parallaxe. Et les astronomes ont même prévu de faire mieux, car avec un calcul de parallaxe plus complexe impliquant la comparaison des courbes de lumière obtenues avec les différents télescopes, ils pourront déduire la masse du système lentille (étoile+ planète).

Steve Howell, du Ames Research Center de la NASA, et membre de la mission scientifique Kepler, estime que le télescope devrait permettre d’observer durant cette campagne environ 100 microlentilles, dont la moitié pourraient être dûes à des planètes vagabondes et l’autre moitié à des étoiles, dont seule une petite fraction montrerait la présence de planètes en orbite.
Les chercheurs exploiteront tout ce qu’ils trouveront avec Kepler, en attendant la mise en service vers 2025 du futur télescope spatial WFIRST (Wide-Field Infrared Survey Telescope), qui a d’ores et déjà les microlentilles dans son programme de recherche d'exoplanètes, et qui pourrait révolutionner le domaine dans la prochaine décennie, dans les pas du pionnier Kepler.

Source : 
Kepler enlists relativity to find planets
Daniel Clery
Science  29 Apr 2016: Vol. 352, Issue 6285, pp. 504-505

mercredi 27 avril 2016

Découvrez le Ciel! #5 Autour de l'Aigle

Dans ce cinquième épisode de Découvrez le Ciel, je vous emmène à la découverte d'une dizaine d'objets du ciel profond situés aux alentours de la constellation de l'Aigle, laissez-vous emporter...



https://www.youtube.com/watch?v=7ctz4GiFyMw&feature=youtu.be

mardi 26 avril 2016

Découverte d'un satellite autour de Makémaké : MK2

Le télescope Hubble vient de découvrir la présence d'un satellite autour de Makémaké, la deuxième planète naine la plus brillante derrière Pluton, résidant dans la ceinture de Kuiper et découverte en 2005. Cette lune, nommée officiellement S/2015 (136472) et déjà surnommée MK2, se trouve à environ 20 000 km de la planète naine et ferait environ 160 km de diamètre. 



Makémaké et son satellite découvert : MK2 (NASA/ESA, A. Parker et al.)
On sait que la ceinture de Kuiper est un vaste réservoir de petits corps glacés, datant de la formation du système solaire il y a 4,5 milliards d'années, et qu'elle abrite plusieurs planètes naines, outre Pluton et Makémaké, on peut citer Sedna et Eris. Makémaké, elle, a un diamètre de l'ordre de 2/3 de celui de Pluton et navigue à environ 45 unités astronomiques (distance Terre-Soleil) du Soleil pour en faire le tour en 305 ans.
 Les observations datent du mois d'avril 2015 à l'aide du Wide Field Camera 3 de Hubble. C'est cette excellente instrumentation qui a permis de distinguer cette petite source de lumière 1300 fois plus faible que la planète naine. 
Les chercheurs ont utilisé exactement la même technique que celle qui leur avait permis de trouver les petits satellites de Pluton en 2005, 2011 et 2012, quelques années seulement avant qu'ils ne soient vus de bien plus près par New Horizons.
Alex Parker, du Southwest Research Institute de Boulder (Colorado) explique : "Nos premières estimations montrent que l'orbite de ce satellite semble être vue par la tranche, ce qui veut dire que le plus souvent quand on regarde Makémaké, on ne voit pas son satellite parce qu'il est noyé dans la lumière de la planète naine".
La découverte d'un tel satellite est précieuse, car elle devrait permettre, par l'étude précise de son orbite, de déterminer la masse des deux corps, et même jusqu'à la densité de Makémaké, comme ce qui avait été fait avec Pluton après la découverte de Charon en 1978. Cette découverte renforce également l'idée selon laquelle la plupart des planètes naines possèdent bien des satellites.

La découverte de MK2  est d'autant plus importante que Makémaké semble être l'un des rares objets très similaires à Pluton. La mesure de sa densité grâce aux mouvements de ce nouveau satellite permettra aux planétologues de déterminer si leur composition est vraiment similaire.
Pour le moment, les chercheurs ne peuvent que faire des estimations un peu grossières : si l'orbite du satellite est circulaire, il ferait une rotation de Makémaké en environ 12 jours. D'ailleurs, la forme de l'orbite de MK2 autour de Makémaké pourrait fournir une indication sur son origine : si elle est très circulaire, cela indiquerait que MK2 serait le produit d'une collision entre Makémaké et un autre corps de la ceinture de Kuiper. Si en revanche elle est elliptique et très allongée, MK2 aurait pu être capturé par Makémaké. Dans les deux cas, le phénomène aurait pu avoir lieu il y a plusieurs milliards d'années.

Un élément étonnant est que la surface de MK2 paraît très sombre, quasi noire comme du charbon, alors que Makémaké, au contraire, paraît blanche comme neige. Une possibilité qui peut expliquer cela d'après les premières analyses des planétologues américains, est que MK2 n'aurait pas la gravité nécessaire pour retenir une couche de glace, qui se sublimerait et partirait dans l'espace rapidement, ne laissant alors à voir que son noyau rocheux très sombre. Celui-ci ressemble fortement à un noyau de comète, qui peuplent par ailleurs massivement cette zone de la ceinture de Kuiper.

Source : 

Space Telescope Science Institute (26 avril 2016)

dimanche 24 avril 2016

MICROSCOPE, l'expérience de physique ultime


HAWC fournit une nouvelle carte du ciel en rayons gamma

L’observatoire gamma High Altitude Water Cherenkov (HAWC) a débuté ses opérations à l'été 2013 (voir ici). Cet observatoire qui a pour objectif d’étudier l’origine des rayons cosmiques et des rayons gamma ultra énergétiques vient de rendre publique la semaine dernière sa première carte du ciel gamma couvrant 2/3 du ciel. On y découvre de nouvelles sources d'émission gamma ainsi que des zones déjà connues mais avec plus de détails.



Cet observatoire utilise une technique de détection unique. Il s’agit d’une série de 300 grosses cuves remplies d’eau pure de 5 mètres de haut pour un diamètre de 7,3 mètres (soit 180 000 litres). HAWC est installé au Mexique, sur les pentes d’un volcan, le Sierra Negra, à une altitude de 4100 m, dans l’état du Puebla. Cet observatoire est exploité par une équipe de 120 chercheurs mexicains et américains.
Carte du ciel gamma par HAWC (HAWC Collaboration)
Chaque cuve est équipée de quatre photomultiplicateurs qui enregistrent le moindre photon de lumière apparaissant dans le volume d’eau maintenu dans le plus grande obscurité. Cette lumière dite lumière Cherenkov, trahit l’interaction de particules chargées très rapides (plus rapides que ne l’est la lumière dans l’eau, soit 40% de moins que dans le vide).
Les rayons gamma très énergétiques, en frappant la haute atmosphère, produisent des particules secondaires elles aussi très énergétiques et donc très rapides, que HAWC peut capturer au niveau du sol, qui est déjà situé à plus de 4000 m altitude, pour en perdre le moins possible lors de leur descente dans les profondeurs de l’atmosphère. HAWC peut ainsi être sensible à des particules dont l’énergie se situe entre 100 GeV et 100 TeV.
C'est environ 20 000 particules chargées secondaires par seconde que HAWC parvient à détecter. Le photon gamma le plus énergétique détecté (indirectement) avait une énergie de 60 TeV (60 000 milliards d'électron-volts).
Les rayons gamma de très haute énergie que HAWC traque, grâce à son champ de vision énorme qui lui permet de voir les 2/3 du ciel en 24 heures, viennent principalement des phénomènes les plus violents de l’Univers : collisions d’étoiles à neutrons, explosions de supernovae, trous noirs supermassifs, …

Grâce à la combinaison subtile des signaux Cherenkov des différents sous-éléments de l’ensemble, les astrophysiciens parviennent à déterminer à la fois le temps d’arrivée, l’énergie incidente et la direction d’origine du rayon gamma (ou du rayon cosmique) initial ayant produit la gerbe de particules secondaires, pour pouvoir construire une carte précise des sources de rayonnement.
La très bonne résolution angulaire sur la direction d'origine des rayons gamma détectée est obtenue par HAWC grâce à la mesure simultanée des particules secondaires dans les différentes cuves instrumentées. La direction initiale peut être reconstruite très précisément en utilisant les différences de temps d'arrivée des particules d'une cuve à l'autre, qui se comptent en nanosecondes. Et HAWC fonctionne en continu 24h/24 chaque jour de l'année.

La source gamma TeV J1930+188 imagée par HAWC
(HAWC collaboration)
Cette carte qu'a présenté Brenda Dingus (Los Alamos National Laboratory) lors de la rencontre de l'American Physical Society qui s'est tenue à Salt Lake City le 18 avril dernier, intègre toutes les données collectées depuis mars 2015 et la mise en route de HAWC à pleine capacité avec la totalité de ses cuves. On y voit notamment les très nombreuses sources gamma de notre galaxie avec de grands détails, pour certaines d'entre elles encore jamais aperçues auparavant (par exemple dans la région riche de la constellation du Cygne). 40 sources distinctes ont été trouvées dont 10 étaient inconnues auparavant, et qui sont actuellement activement investiguées pour savoir si un objet vu dans d'autres longueurs d'ondes peut y correspondre.
Deux d'entre elles ont déjà pu être associées à un résidu de supernova (un pulsar) pour la première et à un autre pulsar connu pour la seconde, situé à 26000 années-lumière.

Toujours dans la région de la Voie Lactée, une source gamma avait par exemple été identifiée il y a plusieurs années, appelée TeV J1930+188, et HAWC montre aujourd'hui que cette source n'est pas une source unique mais se trouve être composée de trois sources très proches les unes des autres. Cette zone est donc bien plus complexe qu'imaginé auparavant.
HAWC est également capable de détecter les rayons gamma venant de bien plus loin que notre propre galaxie, comme le centre de galaxies éloignées où s'active un trou noir supermassif. Et il y a juste quelques jours, au début du mois d'avril, HAWC a surpris une telle source produisant une soudaine "éruption" dans la galaxie Markarian 501. Alors qu'il n'y avait rien de particulier le 5 avril, les chercheurs ont eu la surprise de voir une intense source gamma apparaître le 6 avril, puis disparaître presque totalement le 8 avril. 
Les autres télescopes gamma ne peuvent qu'observer une portion restreinte du ciel et ont donc beaucoup plus de difficultés à pouvoir capturer ce type d'éruptions gamma. HAWC pourra évaluer la fréquence de ces événements transitoires dans les années qui viennent. Les chercheurs qui exploitent HAWC espèrent surtout pouvoir observer un tel flash gamma (ou plusieurs) en provenance du trou noir de notre galaxie, Sgr A*.

HAWC est prévu pour poursuivre ses acquisitions de données au moins dans les cinq années qui viennent, permettant d'atteindre des énergies de photons gamma toujours plus élevées. Avec la mise en commun de ses cartes détaillées et des résultats d'autres télescopes gamma, les chercheurs espèrent étendre leur compréhension des processus les plus violents de l'Univers.


Source : 

jeudi 21 avril 2016

Découverte d’un alignement inattendu de trous noirs

Une étude à l’aide d’un des radiotélescopes les plus puissants a permis à des chercheurs sud-africains de mettre en évidence l’existence de plus d’une dizaine de trous noirs supermassifs, sur les 65 qu’ils suivaient, qui sont orientés dans la même direction. Une observation tout à fait surprenante.



Ce sont les directions des jets de plasma des galaxies actives que Russ Taylor (Université du Cap) et son doctorant ont observées dans une région du ciel de 1°x1° appelée ELAIS-N1 durant 3 ans à la fréquence de 612 MHz à l’aide du Giant Metrewave Radio Telescope (GMRT) situé en Inde. Les jets de plasma et de rayonnement sont émis par les trous noirs supermassifs des galaxies actives lorsqu’ils accrètent de la matière. Ces jets sont produits par les forces magnétiques gigantesques qui apparaissent suite au mouvement de rotation très rapide autour du trou de la matière chargée électriquement (du gaz ionisé proche de la vitesse de lumière). La direction du champ magnétique induit se trouve orthogonale au plan du disque d’accrétion, exactement dans l’axe de rotation du trou noir. Les jets de particules aux deux pôles du trou noir sont alors formés de particules dont la trajectoire s’enroule autour des lignes de champ magnétique.
Alignement des jets de trous noirs supermassifs dans la zone ELAIS-N1 (Russ Taylor)
La direction des jets de plasma des trous noirs qui sont observables en radio indiquent donc l’axe de rotation du disque d’accrétion, qui est le même que l’axe de rotation du trou noir.
Russ Taylor et Preshanth Jagannathan ont découvert par hasard cet alignement inattendu.  Les chercheurs voulaient simplement observer les sources radio les plus faibles de l’Univers en testant ce qui serait accessible avec les meilleurs radiotélescopes, comme les futurs MeerKAT ou Square Kilometer Array (SKA). Dans l’image qu’ils ont produite avec GMRT, ils identifient 65 radiogalaxies par leur jet caractéristique, mais treize d’entre eux apparaissent clairement alignés avec moins de 10° d’écart angulaire. Les astrophysiciens ont alors examiné la possibilité que cet alignement soit dû au hasard et ils trouvent que la probabilité qu’un tel alignement apparaisse naturellement avec une distribution aléatoire de l’orientation des galaxies, vaut 0,1%...

Ce qui est surprenant dans l'observation de cette douzaine de trous noirs supermassifs tournant tous dans la même direction, c’est qu’ils sont très éloignés les uns des autres. Les galaxies qui les abritent n’appartiennent même pas aux mêmes amas de galaxies. Ils sont séparés par une distance de l’ordre de 100 Mpc (environ 300 millions d’années-lumière).
Russ Taylor estime que puisque ces trous noirs (ou leur galaxie hôte respective) n’ont eu aucun moyen d’échanger de l’information ou de s’influencer directement les un(e)s les autres sur de si vastes échelles, cet alignement de leur rotation a dû avoir pris forme lors de la formation des galaxies dans l’Univers très jeune. Cette hypothèse implique qu’il y a aurait eu une sorte de rotation dans la structure de ce volume d’espace qui se serait formé à partir des fluctuations de densité primordiales à l’origine des grandes structures galactiques de l’Univers (superamas de galaxies).
Des observations antérieures avaient déjà montré des indices d’orientation privilégiée de quasars et donc d’une violation de l’isotropie cosmique. Ces nouvelles observations sous forme d’images en ondes radio viennent les renforcer en offrant pour la première fois la possibilité de révéler de tels alignements sur des très grandes échelles de distance avec une faible incertitude.

Comme de tels alignements d’axes de rotation ne sont pas prédits par les théories classiques, le phénomène va devoir être étudié de plus près, à la fois par de nouvelles observations plus précises mais aussi par la théorie qui devrait prendre en compte un tel effet si il se confirme. Du côté observationnel, les astrophysiciens comptent désormais beaucoup (et toujours plus) sur les futurs grands réseaux de radiotélescopes que seront le SKA et ses précurseurs, le sud-africain MeerKAT et l’Australien SKA Pathfinder. Du côté théorique, la porte est grande ouverte. Produire une rotation d’ensemble d’une étendue de gaz dans l’Univers primordial n’est pas facile à produire sans physique un peu nouvelle, voire très exotique. Des spécialistes de la simulation de l’évolution des grandes structures cosmiques sont sans doute déjà en train d’écrire des nouvelles lignes de code.

On commence à peine à comprendre comment les fluctuations primordiales de densité ont pu évoluer dans l’Univers pour mener aux grandes structures galactiques que nous découvrons tous les jours. Il va falloir continuer…

Source :

Alignments of radio galaxies in deep radio imaging of ELAIS N1
R. Taylor and P. Jagannathan
Monthly Notices of the Royal Astronomical Society (June 11, 2016) 459 (1): L36-L40.

mercredi 20 avril 2016

De la poussière venue de l'extérieur du système solaire autour de Saturne

Cela fait maintenant 12 ans que la sonde Cassini enregistre des données en orbite autour de Saturne. Parmi ses nombreux instruments, la sonde possède un analyseur de grains de poussière, qui en a détecté des millions, pour la grande majorité d'entre eux faits de glace, mais parmi tous ces grains, il y en a 36 qui sont très différents des autres...

Vue d'artiste de la détection de poussière interstellaire
par Cassini autour de Saturne (NASA/JPL/Caltech)
Le Cosmic Dust Analyzer (CDA) de Cassini a permis d'analyser la composition chimique de ces 36 grains. Les chercheurs en déduisent que cette trentaine de grains de poussière provient de l'extérieur de notre système solaire, du milieu interstellaire. Ce n'est pas une première car les sondes Ulysses, dans les années 1990 , puis Galileo dix ans plus tard et Stardust en 2014 avaient déjà trouvé quelques grains de poussière du même type.
Ces grains de poussière proviennent du nuage interstellaire local, une bulle de gaz et de poussières que le système solaire et son cortège de planètes est en train de traverser. Les scientifiques responsables de l'instrument CDA de Cassini, autour de Nicolas Altobelli (ESA) espéraient depuis longtemps pouvoir attraper quelques spécimens poussiéreux en cherchant dans la bonne direction et en sélectionnant la bonne vitesse. La traque s'est déroulée depuis le début de la mission et CDA a capturé en moyenne quelques grains interstellaires par an ayant une grande vitesse et montrant une direction très différente de celle des très nombreux autres grains de poussière saturniens. Ces grains de poussière ont une vitesse si importante (72 000 km/h) qu'ils ne peuvent pas être capturés ni par l'attraction gravitationnelle de Saturne, ni par celle du Soleil.

Alors que les sondes précédentes n'avaient que détecté la présence de ces grains très rapides, la nouveauté apportée par Cassini est qu'elle a pu effectuer leur analyse chimique. Ces grains ne sont pas constitués de glace mais d'un mélange de minéraux particuliers, et sont étonnamment similaires entre eux. On y trouve les composants des roches : magnésium, silicium, fer, calcium et oxygène, sous la forme de silicates riches en magnésium avec des inclusions ferreuses. L'équipe de Nicolas Altobelli montre dans son article publié dans Science, en revanche, que des éléments plus réactifs comme le carbone ou le soufre sont moins abondants que la moyenne estimée du nuage local.
Le Cosmic Dust Analyzer
de Cassini (NASA/JPL)
La grande similitude dans la composition de ces 36 grains de poussière est inattendue. En effet, cette matière provenant d'explosions d'étoiles, et le type d'étoiles pouvant être assez divers, les chercheurs s'attendaient à trouver des compositions chimiques variées. Une autre surprise est que ces grains ne semblent pas aussi vieux et primitifs que ceux que l'on peut trouver dans des météorites anciennes.
Nicolas Altobelli et ses collaborateurs pensent que ces grains de poussière interstellaire, provenant d'une région de formation d'étoiles de troisième génération, pourraient être détruits puis recondensés plusieurs fois dans un processus répétitif à chaque passage d'une onde de choc produite par une explosion d'étoile de la génération précédente, avant d'être finalement accélérés une dernière fois pour arriver au niveau du système solaire.

Nicolas Altobelli précise : "La longue durée de la mission Cassini nous a permis de l'utiliser comme un observatoire de micrométéorites, nous donnant un accès privilégié à la poussière de l'extérieur du système solaire qui aurait été inaccessible autrement."

La mission Cassini se poursuit pour encore une bonne année autour de la belle aux anneaux, et, qui sait, avec peut-être l'analyse de quelques nouveaux petits grains de poussière venus de loin. 

Source : 

Flux and composition of interstellar dust at Saturn from Cassini’s Cosmic Dust Analyzer
N. Altobelli et al.
Science  Vol. 352, Issue 6283 (15 Apr 2016)

samedi 16 avril 2016

Découvrez le Ciel ! #4 Autour de Véga

Ce quatrième épisode de Découvrez le Ciel nous emmène à la découverte d'une dizaine d'objets du ciel profond situés aux alentours de Véga, l'une des étoiles les plus brillantes du ciel du Printemps...



https://www.youtube.com/watch?v=78runHTa93o&feature=youtu.be

vendredi 15 avril 2016

Rien ne va plus avec la constante de Hubble

"Je pense qu'il y a quelque chose dans le modèle standard de la cosmologie que nous ne comprenons pas...". C'est avec ces mots que Adam Riess, co-découvreur de l'accélération de l'expansion de l'Univers et prix Nobel 2011, commente ses tout derniers résultats sur la mesure directe de la constante de Hubble avec la meilleure précision jamais atteinte, elle est clairement en désaccord avec la valeur déduite des données du satellite Planck sur le fond diffus cosmologique. Cet écart, déjà observé dans des mesures antérieures (2011 et 2014), et qui se creuse, pourrait impliquer de profonds bouleversements dans le modèle standard de la cosmologie, le modèle LCDM.



L'étude des minuscules fluctuations de température du rayonnement de fond diffus cosmologique grâce au satellite Planck permet aux astrophysiciens de mettre des valeurs numériques sur une série de paramètres dits paramètres cosmologiques. Parmi eux, le paramètre peut-être le plus fondamental est la constante de Hubble H0, qui représente le taux d'expansion actuel de l'Univers (la vitesse d'expansion en fonction de la distance). Mais ce n'est pas le seul paramètre du modèle cosmologique ainsi construit et qui est appelé le modèle LCDM, on y trouve par exemple la densité de matière noire, la densité de matière ordinaire (baryonique) ou encore, bien sûr, la valeur de la densité d'énergie noire associée à une constante cosmologique Lambda (L), ou encore le nombre de familles de particules relativistes dans l'Univers primordial (appelé Neff), comme le photon ou le neutrino. Dans le modèle, tous ces paramètres dépendent les uns des autres.

L'échelle complète des distances : l'accord simultané des couples de distances parallaxes/Céphéides (en bas à gauche), Céphéides/SN Ia (au centre) et SN Ia/redshift (en haut à droite) fournit la mesure de la constante de Hubble avec une grande précision. (A. Riess et al.).


Depuis les premiers résultats déduits du fond diffus cosmologique (avec le satellite WMAP au début des années 2000 puis Planck en 2013 puis 2015), un écart substantiel existe sur la valeur de la constante de Hubble H0 qui est l'un des rares paramètres cosmologiques assez facilement mesurables par l'observation astronomique directe. Mais l'incertitude assez grande obtenue par la mesure observationnelle permettait de considérer cet écart comme étant dû à une erreur systématique de l'une ou l'autre des mesures, voire des deux. Or les nouvelles mesures de distance produites aujourd'hui par l'équipe de Adam Riess réduisent fortement l'incertitude sur H0, à 2,4%, et l'écart entre la valeur mesurée (73,02 +-1,79  km/s/Mpc) et la valeur obtenue indirectement avec Planck via le modèle standard (67,27 +-0,66 km/s/Mpc) montre une réelle tension avec une différence qui est statistiquement significative à 99,8%. Quelque chose ne colle donc pas.

Pour obtenir H0, il faut mesurer des distances et des décalages spectraux vers le rouge (qui donnent vitesse d'éloignement). L'équipe de Riess a réévalué ce qu'on appelle les calibrations de l'échelle des distances. La constante de Hubble est mesurée par la mesure de la distance de supernovas et de leur décalage vers le rouge (celui de la galaxie où se situe la supernova). Les supernovas Ia ayant quasiment toujours la même luminosité, la lumière que l'on en voit ne dépend que de leur distance.
Pour être sûr de la distance des supernovas et donc du ratio distance/luminosité, les astrophysiciens doivent "calibrer" la mesure à l'aide d'autres "chandelles" montrant elles aussi une luminosité toujours identique. Il s'agit d'étoiles variables appelées des Céphéides, dont la période de pulsation est directement liée à leur luminosité intrinsèque (plus une Céphéide est lumineuse, plus sa période de pulsation est longue). Il suffit de trouver des supernovas situées dans des galaxies qui possèdent également des Céphéides.
De la même manière que précédemment, la distance exacte des Céphéides les plus proches de nous peut être mesurée par un autre moyen, qui est le moyen astrométrique connu depuis l'Antiquité : la mesure de parallaxes. Cette mesure n'est possible que pour les régions les moins éloignées de nous, notamment dans notre galaxie, ainsi que dans notre galaxie voisine la galaxie d'Andromède, qui a le bon goût de posséder elle aussi des Céphéides.
Illustration des trois niveaux de mesures de distances à grandes distances (Céphéides, SN Ia et redshift)
(NASA/ESA,  A. Feild (STScI))
Les mesures de distances cosmiques sont ainsi découpées en quatre grandes méthodes (parallaxes, Céphéides, Supernovas Ia, décalages vers le rouge) et trois calibrations de distances (parallaxe/Céphéides, Céphéides/Supernovas puis enfin Supernovas/décalage vers le rouge).

Riess et ses collaborateurs ont étudié les deux types de chandelles standards que sont les Céphéides et les supernovas Ia, dans 18 galaxies différentes comportant ces deux types d'objets, en utilisant des centaines d'heures du télescope spatial Hubble. Ils soumettent aujourd'hui leurs résultats dans un monumental article de plus de 60 pages à la revue the Astrophysical Journal. Ils y montrent comment ils parviennent à réduire l'incertitude inhérente à ces types de mesures de distance. Alors que la valeur de H0 mesurée de la sorte auparavant était affublée d'une incertitude de 3,3%, Riess et son équipe parviennent à la réduire à 2,4%, et estiment la nouvelle valeur de H0 à 73,02 km/s/Mpc, qui est donc 8% plus élevée que la valeur déduite des données du satellite Planck.

Mais il se trouve que les chercheurs exploitant le satellite Planck sont eux aussi très confiants sur leurs mesures du fond diffus cosmologique, très précises, mais qui conduisent à déduire une constante H0 de 67,27 km/s/Mpc. Comme cette dernière est déduite en prenant en compte les différents paramètres du modèle standard cosmologique, tout porte à croire, comme le dit Adam Riess, qu'un élément du modèle est erroné, ou qu'il est incomplet.

Adam Riess
On pense bien sûr tout de suite au secteur sombre (matière noire ou énergie noire) qui est encore si mal compris. Une possibilité qui pourrait réconcilier les deux approches serait de considérer que les particules de matière noire aient des propriétés différentes de ce que l'on pense et qui pourraient affecter l'évolution de l'Univers primordial. Une autre piste pourrait être que l'énergie noire n'ait pas été constante au cours de l'histoire cosmique comme on le pense mais qu'elle aurait vu son intensité augmenter. 
Riess et ses collaborateurs montrent enfin une autre piste très intéressante : une explication plausible serait l'existence d'une source additionnelle de rayonnement sombre dans l'Univers primordial. Cela impliquerait dans le modèle LCDM une augmentation du paramètre Neff  comprise entre 0,4 et 1 (Neff vaut aujourd'hui  3,046 dans le modèle).
Une telle augmentation du nombre d'espèces relativistes dans l'Univers primordial augmente la densité de rayonnement et donc le taux d'expansion durant la période cosmique qui est dominée par le rayonnement et elle repousse alors, dans l'échelle cosmique, le moment où rayonnement et matière se trouvent à égalité vers une époque plus proche de nous. Avec un Neff = 4, d'après les chercheurs, la taille de l'horizon se retrouve réduite de quelques pourcents et H0 est alors augmentée de 7 km/s/Mpc pour un Univers plat (ce qui l'amènerait à environ 74 km/s/Mpc), ce qui est largement suffisant pour réconcilier les mesures de Riess et celles du satellite Planck aux deux extrémités de l'échelle cosmique.

Adam Riess et son équipe ont d'ores et déjà hâte de pouvoir repartir à la chasse à l'amélioration des mesures de distance et de H0 grâce aux futures données de distances qui seront accessibles dans les années qui viennent par les innombrables mesures de parallaxes du télescope Gaïa et l’observation de nouvelles Céphéides dans la Voie Lactée permettant leur calibration de distance avec toujours plus de précision. Ils espèrent ainsi pouvoir réduire d'ici peu l'incertitude globale sur H0 à 1,8%, avec pour objectif ultime d'atteindre 1%...
Quant aux théoriciens, il est fort à parier qu'ils sont déjà en train de noircir leurs tableaux blancs ou blanchir leurs tableaux noirs. Comme le dit Kevork Abazajian, cosmologiste à l'Université de Californie, non impliqué dans cette étude : "Ces résultats ont le potentiel de bouleverser de fond en comble la cosmologie!”.


Sources :

A 2.4% Determination of the Local Value of the Hubble Constant
Adam G. Riess et al.
Soumis à The Astrophysical Journal

Measurement of Universe's expansion rate creates cosmological puzzle
Discrepancy between observations could point to new physics.
Davide Castelvecchi

Akatsuki dévoile ses premières images de Vénus

En décembre dernier, les ingénieurs japonais de la JAXA parvenaient à mettre enfin leur sonde Akatsuki en orbite de Vénus après 5 ans d'errance dans le système solaire. La semaine dernière, ses premiers résultats ont été présentés à la conférence International Venus Conference ayant lieu à Oxford. On y découvre notamment dans l'atmosphère vénusienne des nuages acides striés ainsi qu'une forme mystérieuse mouvante en forme d'arc.



Malgré ses 5 années de voyage non prévues au départ, les instruments scientifiques embarqués sur Akatsuki semblent fonctionner parfaitement. On se souvient qu'un défaut sur une valve avait empêché le moteur principale de la sonde de s'allumer à temps pour ralentir et la mettre en orbite de Vénus en 2010, l'envoyant alors sur une orbite autour du Soleil. A l'occasion du passage de Akatsuki non loin de Vénus en 2015, les ingénieurs japonais ont réussi, grâce à ses moteurs auxiliaires, à dévier la sonde pour qu'elle entre dans le champ gravitationnel de Vénus, sur une nouvelle orbite assez différente de l'orbite prévue initialement (une période de 10,5 jours au lieu de 30h et une distance maximale de 370 000 km au lieu de 80 000 km).
Les nuages striés de Vénus (à gauche) et la structure mystérieuse en forme d'arc (blanchâtre, à droite) (JAXA)
Les résultats présentés consistent notamment en des images acquises par les cinq imageurs de Akatsuki, couvrant le spectre des infra-rouges aux ultraviolets, et on y voit des détails très fins des couches denses de nuages d'acide sulfurique. Les images à haute résolution obtenues en infra-rouge suggèrent notamment que les processus à l'origine de la formation des nuages de Vénus pourraient être plus complexes que ce que l'on pensait. Et ces premières images ont été obtenues à une distance de la sonde de 100 000 km de la planète, alors qu'elle doit s'en approcher bientôt à une distance de seulement 4000 km (la mission initiale devait produire un survol à 300 km...). Les prochaines images devraient ainsi révéler de bien meilleurs résultats.

La forme en arc aperçue avec l'imageur thermique LIR (Long -wave InfraRed) intrigue les chercheurs. Cette structure nuageuse qui s'étend d'un pôle à l'autre en plusieurs jours, semble tourner de façon synchrone avec la surface de Vénus et non pas avec son atmosphère (qui a une rotation beaucoup plus rapide). Le phénomène pourrait être dû à une sorte d'encrage sur des structures au sol, selon Makoto Taguchi, qui dirige l'équipe du LIR. La plupart des planétologues présents lors de cette présentation sont étonnés de voir un tel phénomène, à l'image de la planétologue Suzanne Smrekar du JPL de la NASA qui dit : "C'est assurément quelque chose de bien mystérieux!".

Akatsuki est désormais la seule sonde en activité autour de Vénus après la fin de mission de Venus Express en 2014 (voir là). Son orbite a été à nouveau légèrement modifiée le 4 avril dernier, de manière à ce qu'elle puisse continuer à tourner autour de Vénus pour plusieurs années, ainsi que pour qu'elle puisse étudier la zone équatoriale de la planète comme prévu initialement.
L'inconvénient majeur est l'orbite de la sonde qui est bien plus allongée que celle imaginée à l'origine, passant 5 fois plus loin dans son point le plus distant. Les images obtenues seront donc toujours moins résolues que ce qu'on pouvait espérer au lancement de la mission, mais les japonais sont optimistes en précisant que cet inconvénient pouvait devenir un avantage en permettant de produire des images de Vénus dans son entier et ainsi de capturer dans son atmosphère des structures à grande échelle évoluant dans le temps.

C'est en décembre prochain que la NASA devrait décider si elle retient l'un des deux projets vénusiens qui ont été short-listés parmi les 5 projets retenus pour être lancés au début des années 2020 par les américains. Le succès de Akatsuki pourrait faire pencher sérieusement la balance, surtout si de nouveaux phénomènes intrigants comme un nouveau type de volcanisme méritent d'être suivis de près...

Source:

Rescued Japanese spacecraft delivers first results from Venus
Elizabeth Gibney
Nature 532, 157–158 (14 April 2016)