On s'en souvient, il y a cinq ans, Saul Perlmutter, Brian Schmidt et Adam Riess recevaient le prix Nobel de physique pour leur découverte d'une anomalie majeure dans le taux d'expansion de l'Univers via l'observation de supernovas, publiée en 1998. Cette accélération de l'expansion a été depuis attribuée à une constante cosmologique Λ (Lambda), d'origine non connue, une énergie noire, mais néanmoins nouveau socle du paradigme cosmologique et de son modèle standard.
Mais aujourd'hui, trois physiciens anglais de l'université de Oxford viennent mettre en doute cette découverte en montrant que la signifiance statistique des résultats sur les supernovas Ia est bien plus faible que celle clamée il y a 18 ans.
Subir Sarkar et ses collègues de l'Université de Oxford ont exploité un catalogue de supernovas 10 fois plus vaste que celui des astrophysiciens de 1998 : le catalogue JLA (Joint Lightcurve Analysis) contenant 740 supernovas. Ils y ont utilisé une analyse statistique de type "maximisation de vraisemblance" en considérant tous les effets correctifs employés dans l'analyse des courbes de luminosité des supernovas Ia qui sont utilisées pour déduire leur distance avec l'hypothèse que leur luminosité intrinsèque est connue. Rappelons que les supernovas Ia sont ainsi utilisées pour obtenir une valeur de distance, et leur vitesse de récession est quant à elle obtenue par la mesure du décalage spectral de la galaxie qui les abrite. Le taux d'expansion cosmique est le facteur reliant cette vitesse mesurée directement à la distance mesurée indirectement.
Les chercheurs britanniques concluent, dans leur étude parue dans la revue Scientific Reports (journal en open access du groupe Nature), que les données seraient cohérentes avec une expansion non accélérée, avec un écart de seulement 3 sigmas de signification statistique, ce qui ne permet plus de parler de découverte d'une anomalie, pour laquelle il faut une signification statistique d'au moins 5 sigmas.
On pense immédiatement à ce qui s'est passé au CERN ces derniers mois, où un signal qui pouvait correspondre à une nouvelle particule de masse de 750 GeV était observé avec une signification statistique de 3,4 sigmas, faisant couler beaucoup d'encre durant plusieurs mois, pour se retrouver 6 mois plus tard, et avec bien plus de données accumulées, avec une signification statistique en forte baisse, inférieure à 1 sigma : une fluctuation statistique et non une particule.
On pourra objecter que d'autres données confirment l'accélération de l'expansion, comme les informations du fond diffus cosmologique (CMB) détecté par le satellite Planck. Mais comme le rappelle l'auteur principal de cette nouvelle évaluation, les tests sur le CMB sont indirects et sont effectués en partant du modèle ΛCDM. Le CMB n'est pas affecté directement par l'énergie noire mais avant tout par la densité de matière, à partir de laquelle est déduite la contribution de la constante cosmologique via la règle ΩΛ = 1 − Ωm + Ωk.
On peut également rappeler que des mesures indépendantes des supernovas, explorant des distances de l'ordre de 10 milliards d'années-lumière grâce à la lumière de quasars lointains traversant le gaz interstellaire (méthode de la forêt Lyman alpha) montrent une décélération de l'expansion à ces époques reculées, l’accélération de l'expansion ne semblant apparaître qu'il y a 5 milliards d'années, là où les données des supernovas commencent à être exploitables, sans que l'origine de cette transition soit bien comprise.
Subir Sarkar et ses collègues estiment d'après leur étude statistique qu'il est possible que l'apparente manifestation d'une énergie noire (ou constante cosmologique) soit juste la conséquence d'une analyse des données des supernovas effectuée dans le cadre d'un modèle trop simplifié.
Par exemple, un cadre théorique plus sophistiqué qui prendrait en compte que l'Univers n'est pas exactement homogène et que la matière ne s'y comporterait pas comme un gaz parfait, deux hypothèses importantes du modèle cosmologique standard, permettraient d'expliquer les observations des supernovas avec l'écart à 3 sigmas relevé par rapport au modèle sans accélération, donc sans avoir besoin de constante cosmologique.
Subir Sarkar ajoute : "Naturellement, un gros travail sera nécessaire pour convaincre la communauté des physiciens et astrophysiciens mais notre étude démontre qu'une clé de voûte du modèle standard actuel est en fait plutôt chancelante. Nous espérons que cela motivera de meilleures analyses des données cosmologiques, et que cela inspirera des théoriciens pour penser des modèles cosmologiques plus élaborés."
L'existence d'une accélération de l'expansion devrait en tous cas être testée directement par l'observation sans recours aux supernovas, dans la prochaine décennie grâce aux futurs grands télescopes en projet ou en cours de construction.
Source :
Marginal evidence for cosmic acceleration from Type Ia supernovae
J. T. Nielsen, A. Guffanti & S. Sarkar
Scientific Reports 6, 35596 (21 October 2016)
Illustration :
1) Les équations du modèle cosmologique standard incluant le terme Λ (Shane Larson)
3) Schéma de l'évolution de l'expansion cosmique (NASA/WMAP Science Team)
10 commentaires :
Avec combien de signification statistique l'équipe de 2011 a établit l'accélération de l'expansion ?
C'était en 1998, en 2011, c'est la réception du prix Nobel. Dans le papier de Riess et al. lorsqu'ils imposaient un univers plat, id est Omega_Lambda + Omega_M = 1, la signifiance stat pour Omega_Lambda > 0 était à 7 sigmas ou 9 sigmas en fonction de la méthode de fit utilisée...
cet article de 1998 de Astronomical Journal est accessible ici : http://www.stsci.edu/~ariess/documents/1998.pdf
ça laisse rêveur, si on songe par exemple aux études qui sont capables de montrer que l'énergie noire parait constante et correspondrait de ce fait à la constante cosmologique. Qui faut-il sigmatiser ?
S Sarkar parle d'expansion non accélérée possible à 3 sigmas, mais ce n'est pas la même chose que de dire que lambda=0, car dans ce cas l'expansion doit continuer à décélérer ; il serait intéressant de savoir à combien de DS on se trouve par rapport à un d²R/dt²<0, compte tenu d'un oméga K très proche de 0 (résultat fiable du CMB, indépendant des SN) ; on se retrouve alors avec un oméga M proche de 1, ce qui n'arrange pas le problème de la matière noire et parait difficilement compatible avec les observations (relevés de galaxies, lentilles) ?
Il n'y a personne à stigmatiser ici Popaul, la science avance, on la voit juste avancer, et parfois il faut reculer d'un pas pour avancer de deux...
Pascal, il faut peut-être revoir drastiquement le modèle, qui peut paraître à certains égards fondé sur des hypothèses trop simplistes (datant des années 1930 rappelons-le) comme l'homogénéité et le comportement de la matière vue comme un gaz parfait...
Et là, ça peut changer beaucoup de choses.
Comme le précise le blog de l'université d'Oxford à l'origine de l'info,
http://www.ox.ac.uk/news/science-blog/universe-expanding-accelerating-rate-%E2%80%93-or-it
précisons qu'il existe une expérience qui pourra trancher la question. Comme l'a déclaré Sarkar : "L'expérience CODEX proposée pour l'European Extremely Large Telescope devrait mesurer la dérive Doppler sur une période de 10 à 15 ans afin de déterminer si le taux d'expansion est réellement en accélération". En attendant de trancher la question, la communauté des cosmologistes se base sur des données significatives indiquant que l'univers est effectivement en expansion accélérée. Reste à présent à comprendre pourquoi et comment ce phénomène s'est-il déclenché.
Une réponse de Adam Riess au sujet de cette publication de S. Sarkar et al. :
https://blogs.scientificamerican.com/guest-blog/have-astronomers-decided-dark-energy-doesn-t-exist/
Est ce que l'on tient compte de la disparition de la matière dans les milliers de trous noirs, cela ajouterait il à l'expansion ou le contraire ???
J.A.Araque.
Merci, Eric, pour la réponse de Riess ; elle me parait assez convaincante ; le désormais classique diagramme oméga M / oméga Lambda illustre bien la concordance des données indépendantes (SN Ia, BAO, CMB), et la puissance statistique de cette concordance ; ainsi les seules données CMB + BAO nous placent déjà sans ambiguïté dans un univers accéléré, même sans les données des SN.
En effet Eric, ce ne sont certainement pas les ébranlements liés au progrès des données et des méthodes pour les obtenir qu'on devrait stigmatiser. Mais que valent vraiment les modèles ? Peut-être faudra-t-il un jour reculer de 10 pas en arrière. Certaines voix s'élèvent contre l'enrôlement de l'astrophysique dans la vérification/réfutation supposée prioritaire des spéculations théoriques concernant le dark sector, et pensent qu'elle a mieux à faire, si j'en crois cet article de 2007: arXiv:0704.2291v1 - Fundamentalist physics: why Dark Energy is bad for Astronomy, de Simon D.M. White
Il me semble aussi que si les théoriciens ne font pas assez de ménage en amont c'est à dire du tri dans les spéculations, le jeu peut être sans fin. Une stratégie essentiellement basée sur l'expérience ne permet pas de réduire le flot des nouvelles spéculations. C'est comme vouloir avec le seau des données écoper sans fin les voies d'eau ouvertes dans la barque de la physique par les trous de sa logique. Et il est scientifiquement plus intéressant pour tous le monde de mieux utiliser les crédits en éliminant d'abord logiquement le maximum de modèles spéculatifs avant de chercher à les confronter aux données. Et aussi prioritaire quand la recherche et l'interprétation des données deviennent dépendantes des modèles.
Enregistrer un commentaire