L’énergie noire… sous ces deux mots se cache un énorme mystère, ou pourquoi pas une énorme erreur ? Le concept d’énergie noire est lié à la découverte en 1998 d’un comportement inattendu de l’expansion de l’Univers. Au lieu de ralentir comme prévu par le modèle cosmologique standard fondé sur la relativité générale, le taux d’expansion a été mesuré s’accélérant.
Il fallait donc trouver une « chose » qui puisse produire une telle accélération de l’expansion, et on a inventé une nouvelle forme d’énergie liée à l’espace-temps lui-même, qui permet un tel scénario et comme on ne sait absolument pas quelle serait la nature de cette énergie qui agirait à l’opposé de la gravitation, elle a été appelée par la communauté anglo-saxonne Dark Energy, ce qui a été traduit faussement en français par Energie Noire…
Il fallait donc trouver une « chose » qui puisse produire une telle accélération de l’expansion, et on a inventé une nouvelle forme d’énergie liée à l’espace-temps lui-même, qui permet un tel scénario et comme on ne sait absolument pas quelle serait la nature de cette énergie qui agirait à l’opposé de la gravitation, elle a été appelée par la communauté anglo-saxonne Dark Energy, ce qui a été traduit faussement en français par Energie Noire…
Répartition énergétique de l'univers selon le modèle actuel |
Revenons au départ. A la mesure du taux d’expansion de 1998 qui a conduit à l’observation d’une accélération. Comment fait-on cette mesure ? Il faut évaluer deux paramètres : une vitesse d’éloignement et une distance sur un même objet astrophysique, et faire ces mesures à plusieurs époques cosmiques différentes.
Pour connaître la vitesse de récession, les astrophysiciens possèdent un moyen très puissant, connu depuis des décennies et utilisé efficacement dans de très nombreuses applications : le décalage de longueur d’onde. La théorie de la relativité restreinte dit que plus la vitesse d’éloignement d’un objet par rapport à un observateur est grande, plus sa lumière est décalée vers le rouge. Inversement, plus sa vitesse de rapprochement est grande, plus elle est décalée vers le bleu.
L’Univers étant en expansion, tous les objets s’éloignent de nous, et la lumière de tous ces objets est décalée vers le rouge. Et plus la distance est grande, plus la vitesse de récession est importante, et donc plus le décalage vers le rouge est grand.
On pourrait donc connaître la valeur de distance en même temps que la valeur de vitesse en regardant uniquement le décalage vers le rouge. Oui. Mais cela nécessite un étalonnage préalable à l’aide d’un autre moyen, puisqu’il faut connaitre le facteur qui relie la vitesse (mesurée grâce au décalage de longueur d’onde) et la distance, et c’est justement ce facteur qui donne le taux d’expansion que l’on cherche à connaître avec précision, notamment savoir si il accélère ou ralentit au cours du temps.
Les astrophysiciens ont donc besoin de deux mesures totalement indépendantes. La mesure de vitesse est trouvée, ce sera le décalage de longueur d’onde. Reste à trouver le support de la mesure de distance.
Le moyen le plus simple pour mesurer la distance d’une étoile est d’utiliser la géométrie et le fait que la Terre n’est pas toujours au même endroit au cours de l’année puisqu’elle tourne autour du Soleil. A six mois d’intervalle, nous ne voyons pas les étoiles avec le même angle de vue, elles paraissent donc légèrement bouger dans le ciel. Un mouvement infime qui permet tout de même de mesurer la distance avec une précision étonnante. Cette méthode des parallaxes est efficace mais bien évidemment, plus la distance considérée est grande, plus les angles correspondants sont petits et il arrive inéluctablement une limite à partir de laquelle nos télescopes ne parviennent plus à déceler de si petite variations angulaires. La méthode des parallaxes ne permet donc pas de mesurer des distances extrêmement grandes.
Pour étudier l’évolution de l’expansion de l’Univers, il faut regarder très très loin, ce sont des galaxies lointaines qu’il faut observer, à plusieurs milliards d’années-lumière. Si on ne peut pas utiliser la méthode géométrique des parallaxes, il faut donc utiliser une méthode fondée sur la physique des étoiles dont on cherche à mesurer la distance. Une étoile est un objet qui émet une certaine quantité de lumière, puis cette lumière voyage dans l’espace et finit par arriver sur la Terre, dans nos miroirs puis dans nos pupilles. La luminosité apparente que nous percevons est une fonction de nombreux paramètres, mais les paramètres principaux sont d’un côté la quantité de lumière produite par l’étoile (sa luminosité absolue) et d’autre part la distance qui nous sépare d’elle. Le flux de lumière produit par une étoile décroit comme l’inverse de la distance au carré. Nous y voilà. Pour connaître la distance, il suffit de connaître la luminosité apparente que nous voyons (c’est notre mesure), et la quantité de lumière que produit l’étoile (la luminosité absolue).
Vue d'artiste de l’accrétion de matière par une naine blanche, future SN Ia |
C’est là qu’interviennent les Supernovae Ia (SN Ia). Pour comparer des distances à partir d’une luminosité apparente observée, il faut que les étoiles en question émettent exactement la même quantité de lumière à l’origine. Mais toutes les étoiles sont différentes, elles sont de types, de masses, de composition différente et donc ne produisent jamais la même quantité de lumière. Toutes ?
Les supernovae Ia semblent justement pouvoir être utilisées comme des étalons qui émettent toujours la même quantité de lumière. La raison pour laquelle elles émettent, pense-t-on, toujours la même quantité de lumière vient de la nature physique de ce qu’est une explosion de supernova de type Ia : il s’agit d’une étoile naine blanche qui accrète de la matière d’une étoile compagne (naine blanche elle aussi) et qui en arrive à un moment donné à dépasser la masse limite au-delà de laquelle sa pression interne de dégénérescence électronique ne peut plus contrecarrer la force de gravitation, et l’étoile s’effondre alors sur elle-même en produisant ce gigantesque rebond thermonucléaire et l’apparition d’une étoile à neutrons. Cette masse limite, appelée masse de Chandrasekhar a une valeur très précise, qui est déterminée par les lois de la mécanique quantique, elle vaut 1,44 fois la masse du soleil. Toutes les supernovae Ia seraient donc des explosions d’objets de 1,44 masses solaires, produisant ainsi au final toujours la même quantité de lumière.
Il faut bien comprendre que tout le concept d’énergie noire repose donc sur ce phénomène : les supernovae Ia (qui ont été utilisées lors de la « découverte » de l’anomalie du taux d’expansion en 1998) doivent toutes produire exactement la même quantité de lumière. Si le phénomène n’est pas exact, l’accélération de l’expansion et donc l’énergie noire peuvent être mis à la poubelle.
Alors, est-ce que les supernovae Ia explosent bien toutes quand elles atteignent la masse de Chandrasekhar ? Peut-on être sûr que les naines blanches les plus lointaines (anciennes) ayant produit une SN Ia il y a 10 milliards d’années relèvent des mêmes phénomènes d’accrétion de masse que celles plus récentes, de composition chimique et d’environnement différents car de deuxième ou troisième génération ?
On sait par exemple que des naines blanches sont capables de dépasser légèrement la masse limite si elles ont une très grande vitesse de rotation. La force centrifuge agit alors à l’opposé de la force de gravitation.
Simulation numérique d'une explosion de naine blanche en supernova Ia
Et si pour une raison encore non connue les naines blanches en systèmes binaires d’il y a 10 milliards d’années tournaient (parfois ou systématiquement) plus vite sur elles-mêmes, si bien qu’elles dépasseraient les 1,44 masse solaire réglementaire avant d’exploser ? Et si pour une raison ou une autre, ces naines blanches binaires subissaient des phénomènes massifs et rapides de capture de masse conduisant à un dépassement important de la masse de Chandrasekhar au moment de l’explosion plutôt qu’une accrétion lente et progressive ?
Et si l’environnement des naines blanches binaires d’il y a 10 milliards d’années était tellement plus poussiéreux ou gazeux que celui des naines blanches plus récentes, que la lumière de la supernova en serait fortement atténuée ?
Si ces situations existaient, la luminosité absolue des SN Ia ne serait en fait pas un véritable étalon. Une luminosité absolue plus grande de 50% par exemple induit une erreur de 23% sur la valeur de la distance (trouvée dans ce cas plus courte que ce qu’elle serait en réalité, avec une vitesse de récession plus grande que prévu, donc une accélération apparente).
Si ces situations existaient, et il n’a pas encore été prouvé qu’elles n’existaient pas, la conséquence en serait que l’énergie noire ne serait que du vent…
Le concept d’énergie noire repose sur la mesure réellement la plus difficile qui soit en astronomie : la mesure des distances. Il suffirait d’un petit rien pour que ce concept déroutant sensé remplir 73% de l’Univers ne devienne la plus grande erreur des astrophysiciens d’aujourd’hui.
15 commentaires :
Bonjour,
je pensais qu'il y avait d'autres "besoins" de dark matter ou de dark energy dans le bestiaire des objets célestes, par exemple pour expliquer la formation et / ou vitesses de rotation de certaines galaxies ?
et un grand merci pour ce blog, c'est passionnant à lire!
Bonjour,
Admettons que l'énergie noire n'existe pas. Savons-nous expliquer l'emplacement du premier pic dans le spectre de puissance du rayonnement fossile ?
Bonjour,
Attention à ne pas faire d'amalgame entre énergie noire et matière noire... bien que ces deux "choses" soient qualifiées de "noire", il n'y a aucune relation entre elles, ça n'a rien à voir. On n'a pas besoin d'énergie noire pour expliquer la formation ou la dynamique des galaxies. En revanche, de matière noire, oui.
Question pertinente... Il faut rappeler que les oscillations acoustiques et autres pics dans le spectre de puissance du CMB dépendent de très nombreux paramètres cosmologiques, et pas uniquement la densité d'énergie, on peut citer :
la courbure spatiale de l’univers
la densité d’énergie noire
la densité de matière baryonique
la densité de matière noire
la vitesse H0 d’expansion
l’amplitude initiale des fluctuations de densité
l’indice spectral du spectre de puissance P(k)
la normalisation et l’indice spectral d’éventuelles perturbations tensorielles
la masse et le nombre de familles de neutrinos
le moment de la réionisation
les paramètres caractérisant des défauts topologiques, ou autres...
La position des pics dans le spectre dépend de la courbure, la hauteur des pics dépend quant à elle de la densité de matière et par exemple, la hauteur relative des pics va dépendre de la densité de baryons.
Une fluctuation qui n'a eu le temps que d'effectuer une demi-oscillation au moment du découplage a une longueur d'onde égale à la taille de l'horizon du son. Sa taille physique à cet instant est donc connue, et sa distance est également connue: z=1100. Cela donne un triangle de base et de hauteur données, mais l'angle au sommet dépend de la géométrie de l'espace: il est plus petit que la valeur euclidienne si la courbure de l'espace est négative, et il est plus grand si la courbure est positive. Cet angle est justement la position du premier pic acoustique, qui permet d'en déduire la courbure.
Le premier pic est autour de l=180 (1° si je ne fais pas d'erreur). A priori cela détermine la courbure spatiale de l'univers (donc euclidien à 1% près).
Donc s'il n'y a pas d'énergie sombre, il manquerait 73% dans la densité d'énergie afin d'expliquer une courbure spatiale proche de zéro. Est-ce que c'est juste ?
De ce que je comprends, l'observation du taux d'hydrogène deutérium, (et d'autres couples de nucléotides) contraint la densité de baryon (qui correspond environ à 5% de la densité d'énergie de l'univers). Cette densité, et les fluctuations de température du rayonnement fossile ne permettent pas d'expliquer la formation des galaxies aussi rapidement (quelque chose comme 1 milliard d'années seulement après le Big Bang).
De l'autre côté, la courbe de rotation des galaxies montre qu'il y a 5 fois plus de matière source de gravitation invisible que de matière visible (estimée avec la luminosité des galaxies, ou avec la loi de Tully-Fischer).
On pourrait dire ça, ce dont on est assez sûr (quoique), c'est de la densité de matière (Omega_m = 0,27 (matière noire + matière ordinaire). Pour une courbure plate comme il semble être le cas, il faut donc combler avec 0,73 de quelque chose.
En fait quand je disais que énergie noire et matière n'étaient pas liées, ce n'est pas tout à fait vrai, en fait elles ont un lien précisément ici dans la densité d'énergie qui fixe la courbure.
Les 0,73 ne seraient pas forcément une densité d'énergie noire... On peut imaginer des tas d'autres choses...
Quelles seraient les autres pistes ? Ca m'intéresse bien.
Donc on écarte la matière noire froide ?
Je ne suis pas sûr que la matière noire chaude soit un candidat crédible (on parle de scénario bottom up dans la formation des structures) ?
C'est vrai que c'est plutôt un scénario Bottom-Up qui semble favorisé (d'abord formation de petites galaxies, qui fusionnent pour devenir plus grosses, qui s'assemblent ensuite en amas puis en superamas...). Et qui dit Bottom-Up dit plutôt matière noire froide (WIMPs), mais je pense perso qu'il ne faudrait tuer ni l'une ni l'autre avant d'en avoir trouvé ... ce qui peut prendre encore quelques centaines d'années, ou quelques mois...
Un petit neutrino stérile peut-être ? Un petit axion ?
Comme cela a été évoqué par d'autres, il me semble que l'existence et la valeur de la densité d'énergie noire sont loin maintenant de reposer uniquement sur les mesures de distances et de décalage vers le rouge des Supernovae de type Ia (publiées la première fois en 1998 par deux équipes indépendantes...), mais sur l'analyse du fond cosmologique à 3K, et en particulier les dernières mesures du satellite Planck, qui en ont donné une valeur très précise.
Et il y a d'autres mesures (mirages gravitationnels, BAO...), qui convergent vers la même valeur...
Ces données donnent la densité de matière (environ 0,3 par rapport à la densité critique), ainsi qu'une indication sur le fait que la courbure serait nulle, ce qui implique que la densité totale devrait être égale à la densité critique, donc que la densité de matière serait insuffisante. Mais tout ça n'est qu'un modèle après tout.
Peut-être, mais quand différentes méthodes, qui n'ont rien à priori à voir (Supernova, Fond cosmologique...) convergent vers une même valeur, cela donne un point certain à ces modèles.
Et il faut rappeler que l'énergie sombre est compatible avec les équations d'Einstein, sous la forme de la constante cosmologique qu'il avait introduite, puis retirée, car non nécessaire dans un univers en expansion..., en 1917...
Même les modèles de formation de galaxies semblent demander maintenant la présence d'énergie sombre.
Si c'était un neutrino stérile, et bien il ne doit pas se comporter comme de la matière noire froide, sinon on retombe dans les WIMPs.
S'il est trop léger, c'est difficile de corroborer les modèles avec les observations qui semblent favoriser les formations des structures du type bottom up.
Quant à l'axion, même réponse non ?
au sujet des axions, je renvoie vers le billet que j'y avais consacré en novembre dernier :
http://drericsimon.blogspot.fr/2013/11/axions-lautre-matiere-noire.html
Des axions de masse s'échelonnant entre 1 µeV et 1000 µeV, constituant 73% de la densité critique ne sont pas contredits par le mécanisme bottom up ?
En tout cas que ces particules (neutrinos stériles, axions) constituent ce qu'on pourrait appeler la matière noire tiède ou chaude, cette composante ne peut pas entrer dans la composition des 73% d'énergie manquante pour rendre l'espace euclidien. Sinon il y a un problème dans la position du premier pic, ou dans l'estimation de l'âge à la recombinaison ou du modèle d'expansion ?
Enregistrer un commentaire