15/04/2016

Rien ne va plus avec la constante de Hubble

"Je pense qu'il y a quelque chose dans le modèle standard de la cosmologie que nous ne comprenons pas...". C'est avec ces mots que Adam Riess, co-découvreur de l'accélération de l'expansion de l'Univers et prix Nobel 2011, commente ses tout derniers résultats sur la mesure directe de la constante de Hubble avec la meilleure précision jamais atteinte, elle est clairement en désaccord avec la valeur déduite des données du satellite Planck sur le fond diffus cosmologique. Cet écart, déjà observé dans des mesures antérieures (2011 et 2014), et qui se creuse, pourrait impliquer de profonds bouleversements dans le modèle standard de la cosmologie, le modèle LCDM.



L'étude des minuscules fluctuations de température du rayonnement de fond diffus cosmologique grâce au satellite Planck permet aux astrophysiciens de mettre des valeurs numériques sur une série de paramètres dits paramètres cosmologiques. Parmi eux, le paramètre peut-être le plus fondamental est la constante de Hubble H0, qui représente le taux d'expansion actuel de l'Univers (la vitesse d'expansion en fonction de la distance). Mais ce n'est pas le seul paramètre du modèle cosmologique ainsi construit et qui est appelé le modèle LCDM, on y trouve par exemple la densité de matière noire, la densité de matière ordinaire (baryonique) ou encore, bien sûr, la valeur de la densité d'énergie noire associée à une constante cosmologique Lambda (L), ou encore le nombre de familles de particules relativistes dans l'Univers primordial (appelé Neff), comme le photon ou le neutrino. Dans le modèle, tous ces paramètres dépendent les uns des autres.

L'échelle complète des distances : l'accord simultané des couples de distances parallaxes/Céphéides (en bas à gauche), Céphéides/SN Ia (au centre) et SN Ia/redshift (en haut à droite) fournit la mesure de la constante de Hubble avec une grande précision. (A. Riess et al.).


Depuis les premiers résultats déduits du fond diffus cosmologique (avec le satellite WMAP au début des années 2000 puis Planck en 2013 puis 2015), un écart substantiel existe sur la valeur de la constante de Hubble H0 qui est l'un des rares paramètres cosmologiques assez facilement mesurables par l'observation astronomique directe. Mais l'incertitude assez grande obtenue par la mesure observationnelle permettait de considérer cet écart comme étant dû à une erreur systématique de l'une ou l'autre des mesures, voire des deux. Or les nouvelles mesures de distance produites aujourd'hui par l'équipe de Adam Riess réduisent fortement l'incertitude sur H0, à 2,4%, et l'écart entre la valeur mesurée (73,02 +-1,79  km/s/Mpc) et la valeur obtenue indirectement avec Planck via le modèle standard (67,27 +-0,66 km/s/Mpc) montre une réelle tension avec une différence qui est statistiquement significative à 99,8%. Quelque chose ne colle donc pas.

Pour obtenir H0, il faut mesurer des distances et des décalages spectraux vers le rouge (qui donnent vitesse d'éloignement). L'équipe de Riess a réévalué ce qu'on appelle les calibrations de l'échelle des distances. La constante de Hubble est mesurée par la mesure de la distance de supernovas et de leur décalage vers le rouge (celui de la galaxie où se situe la supernova). Les supernovas Ia ayant quasiment toujours la même luminosité, la lumière que l'on en voit ne dépend que de leur distance.
Pour être sûr de la distance des supernovas et donc du ratio distance/luminosité, les astrophysiciens doivent "calibrer" la mesure à l'aide d'autres "chandelles" montrant elles aussi une luminosité toujours identique. Il s'agit d'étoiles variables appelées des Céphéides, dont la période de pulsation est directement liée à leur luminosité intrinsèque (plus une Céphéide est lumineuse, plus sa période de pulsation est longue). Il suffit de trouver des supernovas situées dans des galaxies qui possèdent également des Céphéides.
De la même manière que précédemment, la distance exacte des Céphéides les plus proches de nous peut être mesurée par un autre moyen, qui est le moyen astrométrique connu depuis l'Antiquité : la mesure de parallaxes. Cette mesure n'est possible que pour les régions les moins éloignées de nous, notamment dans notre galaxie, ainsi que dans notre galaxie voisine la galaxie d'Andromède, qui a le bon goût de posséder elle aussi des Céphéides.
Illustration des trois niveaux de mesures de distances à grandes distances (Céphéides, SN Ia et redshift)
(NASA/ESA,  A. Feild (STScI))
Les mesures de distances cosmiques sont ainsi découpées en quatre grandes méthodes (parallaxes, Céphéides, Supernovas Ia, décalages vers le rouge) et trois calibrations de distances (parallaxe/Céphéides, Céphéides/Supernovas puis enfin Supernovas/décalage vers le rouge).

Riess et ses collaborateurs ont étudié les deux types de chandelles standards que sont les Céphéides et les supernovas Ia, dans 18 galaxies différentes comportant ces deux types d'objets, en utilisant des centaines d'heures du télescope spatial Hubble. Ils soumettent aujourd'hui leurs résultats dans un monumental article de plus de 60 pages à la revue the Astrophysical Journal. Ils y montrent comment ils parviennent à réduire l'incertitude inhérente à ces types de mesures de distance. Alors que la valeur de H0 mesurée de la sorte auparavant était affublée d'une incertitude de 3,3%, Riess et son équipe parviennent à la réduire à 2,4%, et estiment la nouvelle valeur de H0 à 73,02 km/s/Mpc, qui est donc 8% plus élevée que la valeur déduite des données du satellite Planck.

Mais il se trouve que les chercheurs exploitant le satellite Planck sont eux aussi très confiants sur leurs mesures du fond diffus cosmologique, très précises, mais qui conduisent à déduire une constante H0 de 67,27 km/s/Mpc. Comme cette dernière est déduite en prenant en compte les différents paramètres du modèle standard cosmologique, tout porte à croire, comme le dit Adam Riess, qu'un élément du modèle est erroné, ou qu'il est incomplet.

Adam Riess
On pense bien sûr tout de suite au secteur sombre (matière noire ou énergie noire) qui est encore si mal compris. Une possibilité qui pourrait réconcilier les deux approches serait de considérer que les particules de matière noire aient des propriétés différentes de ce que l'on pense et qui pourraient affecter l'évolution de l'Univers primordial. Une autre piste pourrait être que l'énergie noire n'ait pas été constante au cours de l'histoire cosmique comme on le pense mais qu'elle aurait vu son intensité augmenter. 
Riess et ses collaborateurs montrent enfin une autre piste très intéressante : une explication plausible serait l'existence d'une source additionnelle de rayonnement sombre dans l'Univers primordial. Cela impliquerait dans le modèle LCDM une augmentation du paramètre Neff  comprise entre 0,4 et 1 (Neff vaut aujourd'hui  3,046 dans le modèle).
Une telle augmentation du nombre d'espèces relativistes dans l'Univers primordial augmente la densité de rayonnement et donc le taux d'expansion durant la période cosmique qui est dominée par le rayonnement et elle repousse alors, dans l'échelle cosmique, le moment où rayonnement et matière se trouvent à égalité vers une époque plus proche de nous. Avec un Neff = 4, d'après les chercheurs, la taille de l'horizon se retrouve réduite de quelques pourcents et H0 est alors augmentée de 7 km/s/Mpc pour un Univers plat (ce qui l'amènerait à environ 74 km/s/Mpc), ce qui est largement suffisant pour réconcilier les mesures de Riess et celles du satellite Planck aux deux extrémités de l'échelle cosmique.

Adam Riess et son équipe ont d'ores et déjà hâte de pouvoir repartir à la chasse à l'amélioration des mesures de distance et de H0 grâce aux futures données de distances qui seront accessibles dans les années qui viennent par les innombrables mesures de parallaxes du télescope Gaïa et l’observation de nouvelles Céphéides dans la Voie Lactée permettant leur calibration de distance avec toujours plus de précision. Ils espèrent ainsi pouvoir réduire d'ici peu l'incertitude globale sur H0 à 1,8%, avec pour objectif ultime d'atteindre 1%...
Quant aux théoriciens, il est fort à parier qu'ils sont déjà en train de noircir leurs tableaux blancs ou blanchir leurs tableaux noirs. Comme le dit Kevork Abazajian, cosmologiste à l'Université de Californie, non impliqué dans cette étude : "Ces résultats ont le potentiel de bouleverser de fond en comble la cosmologie!”.


Sources :

A 2.4% Determination of the Local Value of the Hubble Constant
Adam G. Riess et al.
Soumis à The Astrophysical Journal

Measurement of Universe's expansion rate creates cosmological puzzle
Discrepancy between observations could point to new physics.
Davide Castelvecchi

2 commentaires :

Youx a dit…

L'ennui du modèle standard, c'est qu'il est trop bien confirmé par toutes les observations.
On dirait que les chercheurs sont bien contents quand ils ont enfin un problème à résoudre!

Stéphane Le Corre a dit…

Bonjour,
Pour mémoire, dans l'article où je propose une explication sur l'énergie noire (https://hal-ens-lyon.archives-ouvertes.fr/ensl-01122689), une des conséquences de cette solution (cf. paragraphe 4) est qu'après une 1ère étape d'inflation, l'accélération de l'Univers devrait diminuer puis dans une 3ème étape ré-augmentée (à l'image d'un oscillateur amortit et potentiellement avoir quelques cycles d'accélération/décélération).
Si nous sommes dans le 1er cycle, cette image serait en accord qualitativement avec le fait de mesurer deux valeurs différentes (potentiellement, si nous étions dans un 2nd cycle, nous pourrions même avoir un autre max et un autre minimum!??).