La plupart sinon toutes les galaxies géantes abritent un trou noir supermassif dans leur centre, qui peut avoir une masse de quelques millions à quelques milliards de masses solaires. Et quand de grandes quantités de matière tombent sur le trou noir, des jets puissants de matière et de rayonnement peuvent se former, conduisant à ce qu’on appelle un quasar lorsque le jet se trouve dans la direction d’observation.
Vue d'artiste du système triple de trous noirs supermassifs (Deane et al.)
SDSS J1502+1115 est un quasar de ce type, il est situé à une distance de 4,3 milliards d’années-lumière, dans la constellation du Bouvier. Cette galaxie active observée depuis de longues années s’était révélée posséder non pas un mais deux trous noirs supermassifs, étant le résultat de la fusion de deux galaxies plus petites. Les deux trous noirs supermassifs avaient été mesurés être distants de 24000 années-lumière.
C’est en voulant confirmer leur existence que l’astronome sud-africain Roger Deane a fait une découverte étonnante : l’un des deux trous noirs supermassifs est en fait un couple de trous noirs supermassifs ! Nous sommes donc en présence d’un trio de trous noirs supermassifs dont deux se trouvent très rapprochés l’un de l’autre.
Il existait jusqu’à présent à notre connaissance seulement 4 systèmes triples de trous noirs, dont la paire la plus rapproché était séparée de 7800 années-lumière, ce qui est bien plus loin que la sphère d’influence gravitationnelle (qui est d’environ 350 années-lumière pour un trou noir de 1 milliard de masses solaires). Ici dans SDSS J1502+1115, les deux trous noirs supermassifs du trio ne sont séparés que par 450 années-lumière. Ils sont si rapprochés que leur rotation l’un autour de l’autre produit une distorsion hélicoïdale de symétrie de révolution sur la structure à grande échelle des jets observés en ondes radio. En 2006, un système binaire de trous noirs supermassifs (mais juste binaire celui-là) avait été observé dans la radio-galaxie 0402+379 avec une séparation record de 24 années-lumière.
Cette nouvelle paire serrée de trous noirs supermassifs, dénommés J1502SE et J1502SW (le troisième s’appelant J1502P), a été trouvée par les auteurs après avoir seulement scruté 6 galaxies, ce qui leur fait dire que la probabilité de trouver de tels spécimens est bien plus grande que ce que l’on pensait auparavant. Ils ont utilisé pour cela deux fréquences radio (1,7 GHz et 5 GHz) avec le réseau européen du VLBI (Very Long Baseline Interferometry).
Le système binaire de trous noirs J1502S (Nature.com)
Le plus intéressant, outre de mieux comprendre comment se forment les trous noirs supermassifs gigantesques par fusions successives de plusieurs trous noirs supermassifs plus petits, est que de tels systèmes gravitationnels sont susceptibles de produire des ondes gravitationnelles lors de leur rapprochement et de leur fusion inéluctable. Pour le moment, aucun système binaire de trous noirs supermassifs n’est assez resserré pour pouvoir émettre des ondes gravitationnelles détectables et aucune onde gravitationnelle n’a jamais été détectée directement. Mais si Deane et ses collègues n’ont pas eu une extraordinaire chance de trouver ce nouveau système binaire resserré, cela signifie que de tels systèmes de trous noirs liés sont nombreux et par conséquent aussi les candidats à l’émission d’ondes gravitationnelles détectables.
C’est vrai, dans quelques milliards d’années, nous auront un beau système binaire de trous noirs supermassifs au seuil de notre porte, quand notre galaxie fusionnera avec la galaxie d’Andromède, et quand leurs deux trous noirs supermassifs se rapprocheront inéluctablement… mais comme nous n’avons pas le temps d’attendre, la recherche d’autres systèmes serrés de trous noirs supermassifs, qu’ils soient duos, trios ou plus (qui sait ?) est d’ores et déjà lancée.
Référence :
A close-pair binary in a distant triple supermassive black hole system
Des physiciens pensent que l’univers pourrait être comme une sorte de liquide, et que cela pourrait résoudre pas mal de problèmes de mise en concordance des théories du grand (la relativité générale) et du petit (la mécanique quantique).
On pense généralement que l’espace et le temps sont les éléments fondamentaux de l’Univers. Mais si ils n’étaient pas fondamentaux mais au contraire la résultante d’une construction d’éléments plus petits et plus élémentaires qui nous échappent complètement, à l’image d’un liquide constitué de molécules ? Nous verrions seulement le comportement du liquide, dont les propriétés physiques émergeraient en fait de la physique de ses constituants (les « molécules »).
L’eau est faite de molécules composées d’atomes d’hydrogène et d’oxygène. Ces molécules interagissent entre elles selon les lois de la mécanique quantique, mais à notre échelle, l’eau apparaît comme un milieu continu, coulant, transparent avec des propriétés de viscosité et de réfraction. Toutes ces propriétés que nous voyons sont des propriétés émergentesqui n’existent pas au niveau des molécules individuelles mais seulement au niveau macroscopique, même si au final elles en découlent.
Des physiciens ont commencé à penser à une telle possibilité pour l’espace-temps dans les années 1990, dans le but d’essayer d’unifier mécanique quantique et relativité générale. De nombreux autres physiciens s’étaient lancés, certains avec de beaux succès théoriques, dans le développement d’une gravitation quantique, citons par exemple la théorie des cordes ou encore la gravité quantique à boucles… Mais peut-être est-ce vain de vouloir quantifier la gravité, peut-être que ce qui devrait être quantifié est une brique fondamentale (la "molécule" dans notre analogie) qui produit l’espace-temps (le liquide) à partir d’une échelle plus profonde ?
Deux physiciens italiens, Stefano Liberati et Luca Maccione se sont lancés dans la recherche de signes observationnels pouvant montrer que l’espace-temps agirait comme un liquide, et ils ont obtenu des réponses. Plus précisément, ils ont exploré comment le concept devait affecter le trajet des photons très énergétiques. Un espace-temps émergent qui agirait comme un fluide ressemblerait beaucoup à un espace-temps d’une autre théorie, à une exception près. Les physiciens italiens ont montré que des différences devaient apparaître dans des situations extrêmes comme le déplacement de photons très énergétiques. Pour reprendre l’analogie, dans un univers-fluide, les particules voyageraient dans l’espace-temps comme des vagues à la surface de l’eau, et les lois de la mécanique des fluides pourraient s’appliquer sans grandes modifications. Il devrait notamment exister des phénomènes de dispersion (variation de la vitesse) et de dissipation (perte d’énergie). Comme une onde perd de l’énergie lors de son trajet dans un milieu matériel, Liberati et Maccione montrent qu’un phénomène similaire devrait avoir lieu pour les photons traversant l’espace-temps. Bien que l’effet devrait être faible, des photons de haute énergie traversant une longue distance devraient perdre une fraction notable de leur énergie, selon eux.
La nébuleuse du Crabe
Pour tester cette idée, nos deux physiciens ont donc exploité une source astrophysique bien connue qui est la nébuleuse du Crabe, dont le cœur se trouve être un résidu de supernova qui émet des quantités appréciables de rayons X et de rayons gamma, à une distance de 6500 années-lumière de nous. Si l’espace–temps possède des propriétés de fluide, leur énergie devrait avoir subi une dissipation qui se verrait dans le spectre observé.
Les physiciens n’ont rien observé de tel dans les photons X et gamma du Crabe !... OK, l’espace-temps n’est donc pas un fluide, allez-vous conclure… Pas si vite ! Grâce à ces observations, Liberati et Maccione posent des contraintes fortes sur la théorie, l’idée n’est pas complètement rejetée. L’observation de l’absence de dissipation permet de circonscrire leur théorie : elle indique que si l’espace-temps était un fluide, il ne pourrait être qu’un fluide avec une viscosité très très faible, en d’autres termes, un superfluide.
Bien évidemment, si ce concept était correct, cela signifierait que la vitesse de la lumière ne serait pas constante, ce qui apparaît être une grave violation de l’invariance de Lorentz à la base de la théorie d’Einstein, mais mettre à mal la Relativité permettrait aussi de se débarrasser des quantités infinies qui y apparaissent … ce qui n’est pas pour déplaire aux grands unificateurs de théories.
Référence :
Astrophysical Constraints on Planck Scale Dissipative Phenomena
Stefano Liberati et Luca Maccione
Physical Review Letters 112, 151301 (14 april 2014)
Les astronomes ont été surpris lorsqu'ils ont dépouillé en 2013 les données acquises avec le télescope Hubble sur la galaxie NGC 5548 : ils ont aperçu un flot de gaz ionisé qui se mouvait d'une façon très curieuse...
NGC 5548 vue par Hubble (NASA/ESA)
Ce flot de gaz bougeant très vite a la particularité de bloquer presque la totalité des rayons X mous produits par le trou noir supermassif de NGC 5548 (par son disque d'accrétion, en fait). Pour essayer d'en savoir plus sur ce qui se passe là-haut au centre de NGC 5548, une équipe internationale a réussi à utiliser pas moins de cinq télescopes spatiaux spécialisés dans les rayons X, c'est à dire tout ce qu'on a de disponible : Swift, NuSTAR (Nuclear Spectroscopic Telescope Array), Chandra, ainsi que les européens XMM-Newton (X-ray Multi-Mirror Mission) et INTEGRAL (Integral gamma-ray observatory).
Schéma reconstruit du centre de NGC 5548
(J.S. Kaastra et al.)
Ce que l'équipe internationale (anglais, néerlandais, espagnols, italiens, américains, français, etc) partie à la recherche de réponses a finalement trouvé, c'est que le jet de gaz ionisé observé absorbe près de 90% des rayons X et laisse passer le rayonnement ultra-violet, lui aussi produit au voisinage du disque d'accrétion du trou noir. Ce même jet de gaz ionisé fait aussi écran au gaz situé à proximité immédiate du disque d'accrétion, ce qui permet l'existence de "vents" très puissants jusqu'à des distances très faibles du disque d'accrétion.
Les astrophysiciens ont pu dater depuis quand le phénomène a lieu, il est relativement récent puisqu'il existerait au moins depuis 3 ans. Ce type d'observation est extrêmement rare sur ce type d'objet, les astrophysiciens ayant mené cette recherche s'estiment très chanceux d'avoir pu mettre un tel comportement en évidence. On sait désormais un peu mieux comment de puissants vents de gaz ionisés permettent aux trous noirs supermassifs d'expulser de grandes quantités de matière dans les noyaux de galaxies actives.
Et dans les quasars plus gros que NGC 5548, ces types de vents pourraient même réguler l'évolution à la fois du trou noir supermassif, et celle de la galaxie hôte.
Ecoutez les explications de Megan Whewell, chercheuse doctorante britannique faisant partie du consortium qui s'est penché activement sur NGC 5548 et co-auteure de l'article paru dans Science(en anglais) :
L’énergie noire… sous ces deux mots se cache un énorme mystère, ou pourquoi pas une énorme erreur ? Le concept d’énergie noire est lié à la découverte en 1998 d’un comportement inattendu de l’expansion de l’Univers. Au lieu de ralentir comme prévu par le modèle cosmologique standard fondé sur la relativité générale, le taux d’expansion a été mesuré s’accélérant.
Il fallait donc trouver une « chose » qui puisse produire une telle accélération de l’expansion, et on a inventé une nouvelle forme d’énergie liée à l’espace-temps lui-même, qui permet un tel scénario et comme on ne sait absolument pas quelle serait la nature de cette énergie qui agirait à l’opposé de la gravitation, elle a été appelée par la communauté anglo-saxonne Dark Energy, ce qui a été traduit faussement en français par Energie Noire…
Répartition énergétique de l'univers selon le modèle actuel
Revenons au départ. A la mesure du taux d’expansion de 1998 qui a conduit à l’observation d’une accélération. Comment fait-on cette mesure ? Il faut évaluer deux paramètres : une vitesse d’éloignement et une distance sur un même objet astrophysique, et faire ces mesures à plusieurs époques cosmiques différentes.
Pour connaître la vitesse de récession, les astrophysiciens possèdent un moyen très puissant, connu depuis des décennies et utilisé efficacement dans de très nombreuses applications : le décalage de longueur d’onde. La théorie de la relativité restreinte dit que plus la vitesse d’éloignement d’un objet par rapport à un observateur est grande, plus sa lumière est décalée vers le rouge. Inversement, plus sa vitesse de rapprochement est grande, plus elle est décalée vers le bleu.
L’Univers étant en expansion, tous les objets s’éloignent de nous, et la lumière de tous ces objets est décalée vers le rouge. Et plus la distance est grande, plus la vitesse de récession est importante, et donc plus le décalage vers le rouge est grand.
On pourrait donc connaître la valeur de distance en même temps que la valeur de vitesse en regardant uniquement le décalage vers le rouge. Oui. Mais cela nécessite un étalonnage préalable à l’aide d’un autre moyen, puisqu’il faut connaitre le facteur qui relie la vitesse (mesurée grâce au décalage de longueur d’onde) et la distance, et c’est justement ce facteur qui donne le taux d’expansion que l’on cherche à connaître avec précision, notamment savoir si il accélère ou ralentit au cours du temps.
Les astrophysiciens ont donc besoin de deux mesures totalement indépendantes. La mesure de vitesse est trouvée, ce sera le décalage de longueur d’onde. Reste à trouver le support de la mesure de distance.
Le moyen le plus simple pour mesurer la distance d’une étoile est d’utiliser la géométrie et le fait que la Terre n’est pas toujours au même endroit au cours de l’année puisqu’elle tourne autour du Soleil. A six mois d’intervalle, nous ne voyons pas les étoiles avec le même angle de vue, elles paraissent donc légèrement bouger dans le ciel. Un mouvement infime qui permet tout de même de mesurer la distance avec une précision étonnante. Cette méthode des parallaxes est efficace mais bien évidemment, plus la distance considérée est grande, plus les angles correspondants sont petits et il arrive inéluctablement une limite à partir de laquelle nos télescopes ne parviennent plus à déceler de si petite variations angulaires. La méthode des parallaxes ne permet donc pas de mesurer des distances extrêmement grandes.
Pour étudier l’évolution de l’expansion de l’Univers, il faut regarder très très loin, ce sont des galaxies lointaines qu’il faut observer, à plusieurs milliards d’années-lumière. Si on ne peut pas utiliser la méthode géométrique des parallaxes, il faut donc utiliser une méthode fondée sur la physique des étoiles dont on cherche à mesurer la distance. Une étoile est un objet qui émet une certaine quantité de lumière, puis cette lumière voyage dans l’espace et finit par arriver sur la Terre, dans nos miroirs puis dans nos pupilles. La luminosité apparente que nous percevons est une fonction de nombreux paramètres, mais les paramètres principaux sont d’un côté la quantité de lumière produite par l’étoile (sa luminosité absolue) et d’autre part la distance qui nous sépare d’elle. Le flux de lumière produit par une étoile décroit comme l’inverse de la distance au carré. Nous y voilà. Pour connaître la distance, il suffit de connaître la luminosité apparente que nous voyons (c’est notre mesure), et la quantité de lumière que produit l’étoile (la luminosité absolue).
Vue d'artiste de l’accrétion de matière par une naine blanche, future SN Ia
C’est là qu’interviennent les Supernovae Ia (SN Ia). Pour comparer des distances à partir d’une luminosité apparente observée, il faut que les étoiles en question émettent exactement la même quantité de lumière à l’origine. Mais toutes les étoiles sont différentes, elles sont de types, de masses, de composition différente et donc ne produisent jamais la même quantité de lumière. Toutes ?
Les supernovae Ia semblent justement pouvoir être utilisées comme des étalons qui émettent toujours la même quantité de lumière. La raison pour laquelle elles émettent, pense-t-on, toujours la même quantité de lumière vient de la nature physique de ce qu’est une explosion de supernova de type Ia : il s’agit d’une étoile naine blanche qui accrète de la matière d’une étoile compagne (naine blanche elle aussi) et qui en arrive à un moment donné à dépasser la masse limite au-delà de laquelle sa pression interne de dégénérescence électronique ne peut plus contrecarrer la force de gravitation, et l’étoile s’effondre alors sur elle-même en produisant ce gigantesque rebond thermonucléaire et l’apparition d’une étoile à neutrons. Cette masse limite, appelée masse de Chandrasekhar a une valeur très précise, qui est déterminée par les lois de la mécanique quantique, elle vaut 1,44 fois la masse du soleil. Toutes les supernovae Ia seraient donc des explosions d’objets de 1,44 masses solaires, produisant ainsi au final toujours la même quantité de lumière.
Il faut bien comprendre que tout le concept d’énergie noire repose donc sur ce phénomène : les supernovae Ia (qui ont été utilisées lors de la « découverte » de l’anomalie du taux d’expansion en 1998) doivent toutes produire exactement la même quantité de lumière. Si le phénomène n’est pas exact, l’accélération de l’expansion et donc l’énergie noire peuvent être mis à la poubelle.
Alors, est-ce que les supernovae Ia explosent bien toutes quand elles atteignent la masse de Chandrasekhar ? Peut-on être sûr que les naines blanches les plus lointaines (anciennes) ayant produit une SN Ia il y a 10 milliards d’années relèvent des mêmes phénomènes d’accrétion de masse que celles plus récentes, de composition chimique et d’environnement différents car de deuxième ou troisième génération ?
On sait par exemple que des naines blanches sont capables de dépasser légèrement la masse limite si elles ont une très grande vitesse de rotation. La force centrifuge agit alors à l’opposé de la force de gravitation.
Simulation numérique d'une explosion de naine blanche en supernova Ia
Et si pour une raison encore non connue les naines blanches en systèmes binaires d’il y a 10 milliards d’années tournaient (parfois ou systématiquement) plus vite sur elles-mêmes, si bien qu’elles dépasseraient les 1,44 masse solaire réglementaire avant d’exploser ? Et si pour une raison ou une autre, ces naines blanches binaires subissaient des phénomènes massifs et rapides de capture de masse conduisant à un dépassement important de la masse de Chandrasekhar au moment de l’explosion plutôt qu’une accrétion lente et progressive ?
Et si l’environnement des naines blanches binaires d’il y a 10 milliards d’années était tellement plus poussiéreux ou gazeux que celui des naines blanches plus récentes, que la lumière de la supernova en serait fortement atténuée ?
Si ces situations existaient, la luminosité absolue des SN Ia ne serait en fait pas un véritable étalon. Une luminosité absolue plus grande de 50% par exemple induit une erreur de 23% sur la valeur de la distance (trouvée dans ce cas plus courte que ce qu’elle serait en réalité, avec une vitesse de récession plus grande que prévu, donc une accélération apparente).
Si ces situations existaient, et il n’a pas encore été prouvé qu’elles n’existaient pas, la conséquence en serait que l’énergie noire ne serait que du vent…
Le concept d’énergie noire repose sur la mesure réellement la plus difficile qui soit en astronomie : la mesure des distances. Il suffirait d’un petit rien pour que ce concept déroutant sensé remplir 73% de l’Univers ne devienne la plus grande erreur des astrophysiciens d’aujourd’hui.
Cet été, vous ne bronzerez pas idiots, c'est hors de question. Pour vous aider dans cette tâche ardue, je vous propose un jeu spécial. Vous connaissez sans doute le roman que j'ai publié l'année dernière : Soixante Nanosecondes, disponible gratuitement sur Ça Se Passe Là Haut.
Ce roman a pour cadre la recherche sur les neutrinos, en parallèle avec l'histoire tumultueuse d'un des pionniers de cette physique, Ettore Majorana.
Le quizz que je vous propose ci-dessous en 20 questions porte sur le contenu de Soixante Nanosecondes, en même temps que sur la physique des neutrinos et l'histoire de la physique...
Amusez-vous bien ! Bonne lecture, Bon été à tous !
Des observations effectuées grâce à l'Atacama Large Millimeter Array (ALMA) viennent pour la première fois de permettre de cartographier le gaz moléculaire ainsi que la poussière qui composent des galaxies hôtes de sursauts gamma (GRBs). De manière étonnante, la densité de gaz mesurée est très inférieure à celle attendue, et en revanche, la quantité de poussière, elle, est bien plus grande que prévu...
vue d'artiste d'un GRB "sombre" (ESO)
C'est cette poussière interstellaire qui est à l'origine de ce qu'on appelle des GRB "sombres", c'est à dire qui ne produisent pas de lumière détectable après leur bouffée de rayons gamma. L'équipe d'astrophysiciens japonais qui publie ces résultats dans Nature cette semaine a en outre produit les premiers résultats de ALMA sur des GRB. Les chercheurs japonais ont étudié deux galaxies qui abritent les bouffées de rayons gamma GRB020819B et GRB051022, respectivement situées à 4,3 milliards et 6,9 milliards d'années-lumière.
Les sursauts gamma sont d'intenses explosions produisant une très grande quantité d'énergie, ils sont le plus souvent observés au sein de galaxies lointaines. Les sursauts dont la durée excède deux secondes sont classés comme des sursauts gamma de longue durée et sont appelés sursauts "longs" (des LGRB). On pense généralement qu'ils sont associés à des explosions desupernovae.
L'explosion est souvent suivie d'une émission lumineuse rémanente, générée par les multiples collisions entre la matière éjectée et le gaz environnant, et qui s'estompe lentement.
Les sursauts "sombres" semblent ne pas produire de lumière après leur émission gamma. Les chercheurs pensaient que les étoiles massives explosant en supernova devaient se situer dans des zones de formation active d'étoiles, et donc dans un environnement riche en gaz moléculaire. L'apport de ALMA utilisé par les astrophysiciens japonais est qu'il permet de détecter des raies d'émission du gaz moléculaire, avec une très bonne résolution spatiale et une excellente sensibilité.
Cela faisait une bonne dizaine d'années que l'équipe japonaise cherchait à mesurer directement le gaz moléculaire entourant des zones de GRB dans différentes galaxies. Ils ont essayé de nombreux grands instruments mais c'est finalement ALMA qui leur a permis de parvenir à leurs fins.
ALMA (partiel) (ESO)
Il apparaît donc que le gaz moléculaire se concentre préférentiellement au centre des galaxies hôtes de GRB et que les poussières se retrouvent en périphérie, là où justement ont eu lieu ces GRB. Une explication envisagée est que les étoiles massives ayant donné naissance aux GRB ont eu le temps de modifier sensiblement leur environnement initialde formation avant d'exploser.
Un mécanisme avancé est lié à la plus forte sensibilité du gaz moléculaire au rayonnement ultra-violet. Les photons UV détruisent les liaisons entre atomes dans les molécules, faisant ainsi disparaître les nuages de gaz moléculaires en les dissociant, alors que les grains de poussières ne subissent pas le même sort. Une chose est quasi certaine, les GRB "sombres" seraient bien assombris par la poussière interstellaire.
Les chercheurs japonais ne restent pas sur cette belle première engagée avec ALMA, ils prévoient d'ores et déjà d'observer avec le même instrument de nombreuses autres galaxies hôtes de GRB pour déterminer si il s'agit bien d'un phénomène systématique pour tous les GRB.
référence :
Two gamma-ray bursts from dusty regions with little molecular gas
La galaxie d'Andromède est notre galaxie voisine. Elle possède la particularité, comme notre propre galaxie, de posséder des bras en forme de spirales. On appelle ces galaxies justement des galaxies spirales. Mais Andromède a aussi la particularité de montrer des bras spiraux ressemblant étonnamment à des anneaux. Une équipe d'astrophysiciennes américaines vient de publier une étude montrant quelle pourrait bien être l'origine de ces spirales dans la galaxie d'Andromède.
Vidéo de la simulation numérique produite par les auteurs (Nature.com)
Les bras spiraux d'Andromède seraient apparus lors d'une collision entre Andromède et une petite galaxie naine du voisinage il y a environ 900 millions d'années. Pour en arriver à cette conclusion, nos astrophysiciennes ont construit une simulation numérique de la galaxie d'Andromède (M31) et des interactions de ses étoiles constituantes lors de collisions avec la galaxie naineM32.
Avant d'être collisionnée, Andromède est supposée avoir été une galaxie en forme de disque, sans bras (et donc sans chocolat) et M32 supposée abritée un trou noir supermassif. Aujourd'hui, M32 est comme incrustée à l'intérieur de la géante M31, toutes deux situées à environ 2,5 millions d'années-lumière de nous.
La collision aurait généré des ondes comme on peut le visualiser sur la simulation. Mais ces ondes ne sont pas conduites par un impact direct, étoiles contre étoiles ou nuages de gaz contre nuages de gaz, mais par attraction gravitationnelle. Et ce sont ces ondes qui seraient devenues les spirales d'Andromède. Dans leur simulation, Marion Dierickx et ses collègues ont fait collisionner M32 dans une zone externe de M31, plutôt que vers son centre, la probabilité d'un tel "impact" étant beaucoup plus grand.
La simulation animée semble se dérouler très vite mais l'échelle de temps est ici considérable, le "film" se déroule sur plus de 2 milliards d'années (Gyr), M32 démarre au bord du halo de matière sombre d'Andromède, puis commence à plonger à travers son disque à une vitesse de 500 km/s, 1,2 milliards d'années plus tard, puis prend encore près de 900 millions d'années pour revenir en arrière et parvenir à sa position actuelle, où elle est en train de traverser à nouveau Andromède.
La Galaxie d'Andromède M31 (NASA/JPL-Caltech/K. Gordon)
La simulation de Dierickx et al. suggère que les bras d'Andromède que l'on pouvait croire en forme d'anneaux sont bel et bien des bras spiraux, mais vus comme des anneaux depuis chez nous avec une très grande inclinaison.
Cette étude nous donne également des informations sur la naine M32. Jusqu'à maintenant, les astronomes pensaient que les galaxies naines comme M32 étaient compactes parce que leur compagnes géantes leur avaient extirpé leur enveloppe de matière noire, gaz et étoiles. Les auteurs montrent que cela ne doit pas être le cas pour M32 : la galaxie a dû naître compacte, car sa rencontre avec Andromède ne permet pas, selon le modèle développé, de réduire sa taille et sa masse de gaz à celles qui sont observées.
Ces galaxies naines compactes doivent donc être formées par un autre mécanisme, mais lequel ? Encore une petite trouvaille qui ouvre une nouvelle question...
Enfin, les auteurs trouvent par leur simulation que M32 serait un peu plus proche de nous que ce que l'on pensait généralement, une prédiction qui est testable avec de prochaines observations, et qui pourra permettre de valider (ou non) ces travaux numériques.
Dans l'image finale de cette animation, le Ultra-Violet Ultra Deep Field produit par le télescope Spatial Hubble vous montre plus de 10000 galaxies dans le même champ... L'image la plus lointaine faisable aujourd'hui...
Certaines galaxies possèdent un noyau extrêmement brillant, parfois 100 000 fois plus brillant que celui de galaxies plus « normales ». Dans ces noyaux actifs de galaxie, de l’énergie est libérée quand de la matière tombe en spiralant vers le trou noir supermassif qui se trouve au centre et qui peut avoir une masse de plusieurs milliards de masses solaires.
Et dans environ 10% de ces noyaux actifs, une fraction de la matière est expulsée sous la forme de deux jets de matière propulsés à une vitesse proche de la vitesse de la lumière et entremêlés de rayonnements divers.
Or depuis que l’on connait l’existence de cet jets, nous ignorons toujours quelle est le phénomène physique qui en est à l’origine. Mais pour la première fois, une équipe d’astrophysiciens montre, dans une étude parue cette semaine dans Nature, une preuve directe que ces jets de matière sont propulsés par une sorte de générateur électromagnétique géant qui prend sa source dans des champs magnétiques (énormes) vrillés par la rotation du trou noir supermassif. L’énergie de rotation du trou noir se retrouve ainsi transformée in fine en énergie cinétique des jets de matière.
A gauche : image composite de la galaxie NGC5128 (optique + rayons X (bleu) + radio (orange)); à droite : schéma de l'origine magnétique des jets d'après M. Zamaninasab et al.
Jusqu’à présent, les chercheurs n’étaient jamais parvenu à voir d’aussi près ce qui se passe à la périphérie d’un trou noir supermassif, du fait de l’échelle très réduite inaccessible même aux instruments ayant la meilleure résolution spatiale ou angulaire. On parle ici de phénomènes se déroulant sur environ 3 années-lumière mais situés à une distance de plusieurs milliards d’années-lumière de nous, je vous laisse calculer l’angle que cela représente…
Mais c’est aujourd’hui (presque) possible ! A grand renfort de technologie et d’intelligence bien évidemment. Il suffit pour cela d’utiliser le principe de l’interférométrie à très longue distance, dans laquelle une dizaine de radiotélescopes répartis sur plusieurs continents (le réseau VLBI) fournissent des données en simultané d’une même source et dont les signaux sont « mélangés », ce qui revient au final à obtenir l'équivalent d'un radiotélescope de la taille de la distance qui sépare les plus éloignés du groupe, en l’occurrence ici presque la taille de la Terre…
Comme la résolution est directement liée au diamètre du radiotélescope, il s’ensuit une phénoménale performance.
Mais malheureusement, j'ai dit "presque" parce que malgré ces prouesses, le VLBI ne permet de résoudre une zone seulement 100 fois plus grande que la zone réellement intéressante. Qu'à cela ne tienne, les astrophysiciens ont supplanté la technologie par l'intelligence. Pour évaluer le flux magnétique en périphérie immédiate du trou noir, ils ont évalué le flux magnétique des jets d'une part et observé la luminosité du disque d'accrétion d'autre part. Le flux magnétique (valeur du champ magnétique par unité de surface) doit être proportionnel à la luminosité du disque.
Le réseau VLBI "global" (T. Krichbaum, MPIfR)
Les auteurs ont trouvé à partir de l'étude de 76 noyaux de galaxies actives que le flux magnétique des jets et la luminosité des disques d'accrétion étaient très corrélés entre eux. Cette corrélation indique ainsi clairement et de manière directe que le flux magnétique du trou noir supermassif est lui aussi corrélé directement avec le flux magnétique des jets de matière, ce qui ce revient à expliquer l'origine des jets par le champ magnétique vrillé du trou noir.
Ce qu'ont trouvé Mohammad Zamaninasab et son équipe de l'université de Bonn modifie radicalement la façon dont les astronomes voyaient ces jets de matière : ce ne sont pas juste des flux de matière et de rayonnement expulsés par un monstre, il s'agit également de structures magnétiques à part entière. Comme il existe une relation fondamentale entre champ magnétique et courant électrique, ces jets devraient en fait être considérés à la fois comme du champ magnétique et du courant électrique.
Les jets des trous noirs supermassifs peuvent s'étendre jusqu'à des distances de plusieurs dizaines de milliers d'années-lumière, s'aventurant dans l'espace intergalactique (orthogonal au plan galactique). Des effets autres que magnétiques doivent agir sur eux de plus en plus, plus ils s'éloignent de leur géniteur, mais ce qui se passe tout au bout de ces jets de matière est encore très mal connu.
D'autre télescopes interférométriques à très longue distance, pourquoi pas en orbite, seront sans doute nécessaires pour poursuivre cette exploration de l'extrême.
référence :
Dynamically important magnetic fields near accreting supermassive black holes
N'ayez pas peur. Apophis est certes un astéroïde actuellement assez dangereux, mais nous sommes quasi sûrs qu'il n'impactera pas la Terre, ni le 13 avril 2029, ni en mars 2036. Mais il est vrai qu'il passera très près de nous et repasse inéluctablement. Apophis est un astéroïde géocroiseur. Il a été découvert il y a peine dix ans, en 2004.
Et au moment de sa découverte, alors qu'on ne connaissait encore que très mal ses caractéristiques, la probabilité de collision avait été estimée à 2,7% pour son passage de 2029, un risque énorme...
Reconstruction géométrique de Apophis d'après les
observations Infra-rouge (Müller et al.)
Mais on en sait maintenant plus sur Apophis et la probabilité d'impact, que ce soit pour 2029 ou 2036 est réduite à des pouillièmes de pouillèmes, pour ne pas dire que c'est impossible. Mais il est vrai qu'en 2029, notre cher astéroïde passera mois loin que certains de nos satellites géostationnaires (qui se trouvent à 36000 km d'altitude).
Etant donné qu'Apophis est aujourd'hui l'un des corps les plus dangereux pour l'humanité dans un avenir à moyen terme, il est important de le connaitre parfaitement, ne serait-ce que pour pouvoir affiner au maximum les calculs de sa trajectoire.
Pour pouvoir faire ces calculs, nous avons besoin de connaitre de nombreuses caractéristiques, car le mouvement d'un astéroïde ne dépend pas uniquement de sa masse et des lois de la gravitation, ce serait trop simple...
L'effet non-gravitationnel le plus important sur un astéroïde de ce type est l'effet Yarkovsky, qui est le recul produit par la réémission de chaleur emmagasinée après éclairement solaire et qui induit une quantité de mouvement additionnelle au niveau de la surface de l'objet, qui peut devenir suffisamment importante pour modifier la trajectoire de plusieurs centaines de mètres tout de même.
En outre, la connaissance de la structure d'un tel astéroïde est non seulement nécessaire pour calculer finement sa trajectoire, mais aussi pour évaluer quel serait son effet si jamais (X) il venait à impacter la Terre dans quelques centaines d'années...
C'est pour tenter d'en savoir beaucoup plus sur Apophis et dans cet objectif qu'une équipe d'astronomes allemands a utilisé le télescope infra-rouge Hershel pour observer dans le détail Apophis lors de son dernier passage au plus près de nous l'année dernière.
Ils viennent de publier leurs résultats dans Astronomy and Astrophysics et cette étude montre par exemple une réévaluation de la masse et la taille du monstre (Apophis est un dieu Égyptien et signifie aussi "géant") : Apophis a une forme allongée mais son diamètre moyen est d'après ces dernières mesures, revues à la hausse, de 375 m +- 12 m. La masse évaluée à partir d'une hypothèse sur sa densité et sa porosité (entre 30% et 50%) est comprise entre 44 et 62 millions de tonnes. C'est un beau caillou.
Disons le tout de suite pour ne pas y revenir, l'énergie de son impact potentiel calculée par les auteurs à partir de sa masse serait de l'ordre de 375 Megatonnes de TNT...
Ce qui apparaît intéressant c'est que Apophis ressemble beaucoup sur plusieurs points à un autre astéroïde que l'on connait mieux : Itokawa. Ils ont une taille très similaire, ainsi qu'un albédo (pouvoir de réflexion) identique de 0,30, et une inertie thermique également très proche.
On connait bien la porosité et la densité de Itokawa, respectivement 41% et 1,9, alors que ce sont encore des inconnues pour Apophis.
Les astronomes allemands ont donc considéré qu'Apophis devait avoir une densité et une porosité semblables à celles de Itokawa et c'est ainsi qu'ils ont calculé sa masse, qui reste toutefois incertaine d'un facteur 2.
Autre information qui peut être cruciale : Itokawa est un corps pas complètement monolithique, il s'agit d'un agglomérat de débris coalescents. Et le comportement d'un objet aggloméré qui entre dans l'atmosphère est très différent a priori de celui d'un corps monolithique, surtout quand il fait une cinquantaine de millions de tonnes... Il doit tendre à se disloquer en une multitude de morceaux, ce qui peut le rendre bien moins dangereux. Les auteurs de l'étude pensent que le plus probable est que Apophis est du même genre. Il se pourrait même que l’astéroïde se disloque par effets de marée en passant de nombreuses fois près de la Terre.
Je vous vois déjà vous demander ce qui arriverait si on se retrouvait avec une dizaine de "petits" morceaux de 30 m chacun croisant l'orbite de la Terre... Ce qui est sûr c'est qu'un tel scénario n'a pas encore été imaginé et n'est de toute façon pas prédictible, à moins de se pencher encore d'avantage sur ce caillou pour tout savoir sur lui.
Pour conclure, l'équipe qui publie son étude aujourd'hui montre que l'on peut apprendre beaucoup sur les astéroïdes géocroiseurs en les observant. La NASA s'est d'ailleurs lancée dans un vaste programme de détection d'astéroïdes géocroiseurs, et si vous voulez vraiment vous faire peur (pour vos descendants en tous cas), ce n'est sûrement pas d'Apophis qu'il faudrait s'effrayer mais peut-être des quelques dizaines d'objets ayant une probabilité d'impact plus grande que la sienne (5,7 E-6), disons plus grande que 0,01% (1e-4), et qui sont parfois assez gros, que la NASA a déjà listé et surveille comme le lait sur le feu, sans compter ceux qui n'ont encore jamais été détectés. Regardez plutôt cette page ci-dessous : (colonnes "impact prob." pour la probabilité et "est. diam" pour la taille exprimée en km)... Source : Thermal infrared observations of asteroid (99942) Apophis with Herschel T. G. Müller et al. Astronomy&Aastrophysics 566, A22 (2014) http://neo.jpl.nasa.gov/risk/ :