vendredi 27 février 2015

10 ans chez le Seigneur des Anneaux (Saturne), par André Brahic

Conférence d'André Brahic sur la mission Cassini qui étudie le monde de Saturne, filmée aux Rencontres du Ciel et de l'Espace 2014. Excellent comme d'habitude... A voir absolument.

jeudi 26 février 2015

Découverte d'un trou noir de 12 milliards de masses solaires distant de 12,9 milliards d'années-lumière

Pour fabriquer un trou noir supermassif de plusieurs milliards de masses solaires, il faut un certain temps, surtout quand on estime que les graines de trous noirs qui donneront plus tard ces montres ne pèsent au départ que 100 000 masses solaires... Alors, que penser de ce monstre de 12 milliards de masses solaires qui vient d'être découvert, situé à plus de 12,9 milliards d'années-lumières de nous, c'est à dire dans un univers âgé d'à peine 875 millions d'années seulement ?


Cette découverte a été effectuée par une équipe sino-américaine et fait l'objet d'un article dans la revue britannique Nature cette semaine. Il s'agit tout simplement du trou noir supermassif le plus gros jamais découvert dans l'Univers âgé de moins de 1 milliard d'années.
Vue d'artiste d'un trou noir avec son disque d'accrétion
(Swinburne Astronomy Productions )
Il est appelé SDSS J010013.02+280225.8, ou plus simplement J0100+2802Le précédent record dans cette catégorie des quasars ayant un décalage vers le rouge supérieur à 6, c'est à dire distants de plus de 12 milliards d'années-lumière (ils sont au nombre de 40 aujourd'hui), était un trou noir de "seulement" 2 milliards de masses solaires... 
J0100+2802 est aussi le trou noir supermassif qui montre le taux d'accrétion le plus énorme jamais entrevu, ce qui en fait également l'objet le plus brillant de l'Univers de cette époque (rappelons qu'un trou noir brille par son disque d'accrétion, le disque de matière qui lui tourne autour à très grande vitesse et qu'il dévore), le taux d'accrétion est égal à la quantité de matière absorbée par unité de temps. 
Les astrophysiciens sont parvenus à "mesurer" la masse de ce trou noir justement en observant la vitesse à laquelle le gaz de son disque d'accrétion tombait dedans. 

Reprenons. Les premières étoiles sont nées quand l'Univers avait environ 500 millions d'années. Ce trou noir supermassif au sein d'un quasar se trouve dans l'Univers âgé de 875 millions d'années, soit 6% de son âge actuel. Il s'est donc passé à peine quelques centaines de millions d'années entre l'apparition des premières étoiles et l'existence de cet objet hors norme. Théoriquement, ce n'est pas complètement impossible de parvenir à une masse pareille en si peu de temps, mais cela veut dire que ce trou noir montre un taux d'accrétion maximal depuis sa naissance, et ce durant plusieurs centaines de millions d'années. Or il existe une limite théorique à la durée de l'accrétion maximale d'un trou noir.
L'accrétion en elle-même ne peut dépasser une certaine limite, la limite d'Eddington, qui est fixée par la pression de radiation émise par le disque d'accrétion, et la durée maximale d'une accrétion au taux maximal était jusqu'à aujourd'hui estimée être de l'ordre de 100 millions d'années. Le calcul des astrophysiciens chinois montre que l'accrétion au taux limite d'Eddington pour ce trou noir produirait une masse de 13 milliards de masses solaires, mais en bien plus de 100 millions d'années.
Il semblerait que cette dernière limite doive être réévaluée désormais, à moins qu'il existe un phénomène qui empêche le rayonnement du disque d'accrétion d'inhiber l'accrétion (la chute de matière vers le trou noir) et que la limite d'Eddington puisse être dépassée. 
Une autre hypothèse se fait également jour pour expliquer l'existence d'un trou noir si massif en si peu de temps. Son origine pourrait ne pas être liée à la coalescence d'une ou plusieurs graines de trous noirs (trous noirs stellaires), mais directement lié à un effondrement gravitationnel de nuages de gaz plus précoce, sans passer par la phase étoiles, ce qui aurait pour effet de gagner beaucoup de temps et de démarrer avec une masse plus importante... On le voit, les astrophysiciens semblent pour le moins perplexes face à cette découverte. 

Par ailleurs, on constate généralement dans les galaxies proches qu'il existe une corrélation entre la masse totale des étoiles d'une galaxie et la masse du trou noir central ; plus la galaxie est grosse, plus le trou noir est gros. Si cette corrélation est la même dans l'Univers âgé de moins de 1 milliard d'années, cela impliquerait que la galaxie hôte de ce quasar découvert par Xue-Bing Wu et ses collègues posséderait entre 4000 et 9000 milliards d'étoiles... Ce qui en ferait l'une des plus grosses galaxies connues.

Il semble que la découverte de J0100+2802 renforce les idées disant que la croissance des trous noirs supermassifs est plus rapide que celle de leur galaxie hôte. Il sera donc très intéressant de se pencher de plus près vers cet objet abritant ce monstrueux trou noir pour étudier les étoiles qui l'accompagnent, et c'est ce que l'équipe chinoise projette de faire maintenant avec l'aide du télescope spatial Hubble.


Sources :
An ultraluminous quasar with a twelve-billion-solar-mass black hole at redshift 6.30
Wu, X.-B. et al. 
Nature 518, 512–515 (2015)

A giant in the young universe
B. Venemans
Nature 518, 490-491 (2015)

mercredi 25 février 2015

Aux Origines de la Nébuleuse d'Orion

La grande nébuleuse d'Orion (M42) est un incontournable de la constellation du même nom, et donc un incontournable du ciel d'hiver, la saison idoine pour observer les joyaux d'Orion. Cette magnifique nébuleuse qui est si vaste et brillante qu'elle peut être vue à l’œil nu malgré sa distance de 1350 années-lumière, a pourtant des origines assez mal comprises.


L'anneau de poussière découvert (en vert, à gauche),
l'anneau visible à droite était déjà connu et entoure
l'étoile Lambda Orionis. La nébuleuse d'Orion se trouve
dans la partie inférieure du grand anneau (Schafly et al.)
On sait qu'il s'agit d'une nurserie stellaire, là où naissent des centaines d'étoiles par condensation de gaz, mais d'où vient tout ce gaz est resté longtemps un mystère. De nouvelles observations grâce à une nouvelle technique d'imagerie de la région de M42 viennent de montrer l'existence d'un très vaste anneau de poussière de plusieurs centaines d'années-lumière, dont la nébuleuse ne fait qu'une petite partie. Cette découverte, publiée dans The Astrophysical Journal par une équipe  internationale, dont un astronome français, donne des indices sur l'origine de la Grande Nébuleuse : des explosions d'étoiles massives qui auraient été situées au centre de l'anneau actuel auraient pu éjecter quantité de poussière et de gaz qui par la suite aurait pu produire la nurserie d'Orion.

L'équipe animée par Eddie Schafly, du Max Planck Institute for Astronomy a trouvé cet anneau de poussière en utilisant le télescope Pan-STARRS de 1,8 m à Hawaï. Ils cherchaient de la poussière interstellaire en observant le rougissement caractéristique de la lumière d'étoiles lointaines produit par la présence de poussière. Ils ont cartographié ainsi la zone d'Orion en trois dimensions par l'observation de plus de 20 millions d'étoiles. Le diamètre de l'anneau découvert fait exactement 330 années-lumière de diamètre, il est si grand qu'on pourrait y inclure 27 pleines lunes... Et la grande nébuleuse d'Orion s'y trouve dans une de ses sections les plus denses. 

Les astrophysiciens proposent un scénario pour l'origine de la nébuleuse d'Orion à partir de la découverte de cet énorme anneau de poussière : il y a environ 10 millions d'années (la nébuleuse n'existait pas), un groupe d'étoiles massives apparurent. Ces étoiles très chaudes et lumineuses auraient émis un intense rayonnement UV qui ionise l'hydrogène interstellaire autour d'elles. Ce rayonnement produit une sorte de bulle de gaz et de poussière en expansion, qui se serait accéléré encore davantage lorsque les étoiles massives auraient explosé en supernovas.
La nébuleuse d'Orion (M42) imagée
par le télescope spatial Hubble
(ESA/NASA)
Puis une partie de la surface de la bulle aurait pu être suffisamment dense pour se recontracter sous l'effet de la gravitation et former de toutes nouvelles étoiles, notamment cette région très riche, rendant lumineux le gaz et la poussière, qu'on admire aujourd'hui tous les hivers sous le nom de Nébuleuse d'Orion.

Ce scénario est bien évidemment une première ébauche et nécessitera d'être confirmé. Pour cela, il faudra montrer que l'anneau de poussière est en expansion. Mesurer sa vitesse d'expansion permettra d'autre part de remonter le temps et de savoir quand à débuté cette expansion, et donc de déterminer assez précisément la séquence des événements qui ont donné naissance à la nébuleuse d'Orion.

La découverte de cet anneau de poussière s'avère une découverte importante pour mieux comprendre les phénomènes de formation d'étoiles, bien au-delà du cas particulier de la nurserie d'Orion...


Source : 
Three-dimensional Dust Mapping reveals that Orion Forms Part of a Large Ring of Dust
E. F. Schlafly et al. 
ApJ 799 116 (2015)



vendredi 20 février 2015

La sonde DAWN en vue de la planète naine Cérès

La planète naine Cérès, qui était autrefois classée parmi les astéroïdes (jusqu’en 2006), va très bientôt avoir pour la toute première fois  la visite d’une sonde, la sonde américaine Dawn. C’est le 6 mars prochain qu’aura lieu le premier rendez-vous tant attendu. Cérès n’est pas un corps comme les autres, il fait partie du petit club des astres du système solaire qui ont pu être (ou sont) habitables, notamment grâce à l’eau liquide qu’il semble renfermer.


Cérès imagé par DAWN le 12 février 2015 à une distance de 80 000 km (deux angles différents) (NASA/JPL).
Des mesures de densité ont déjà été effectuées sur Cérès et ont révélé qu’il était constitué pour 1/3 de glace. Les planétologues pensent que sous une énorme couche de glace se cache un océan liquide. On est quasi sûrs qu’il a dû exister dans la jeunesse de Cérès quand il était plus chaud, et tout le challenge de la sonde Dawn sera de montrer s’il a été entièrement gelé ou bien s’il subsiste sous forme liquide.

Cérès ressemble ainsi un peu à Europe, satellite de Jupiter et à Encelade, satellite de Saturne, qui ont le même type de structure, grosse couche de glace avec potentiellement un océan liquide en dessous. Le gros intérêt de Cérès est qu’il se trouve bien plus près de nous que le monde des planètes gazeuses. Plus Dawn se rapproche de Cérès, meilleures sont les images qu’elle nous envoie. Ces dernières sont devenues meilleures que celles du télescope spatial Hubble à partir du mois de janvier. Le 12 février dernier, Dawn n’était plus qu’à 80 000 km du but et a envoyé des images très détaillées, sur lesquelles apparaissent des taches blanches un peu étranges dans des cratères. Certains planétologues pensent qu’il s’agit de glace de subsurface exposée par un impact d’astéroïde.

Une fois arrivée à proximité de Cérès, Dawn va être mise en orbite autour de la planète naine, à 13 500 km d’altitude, vers la fin du mois d’avril. Puis petit à petit, son altitude va être diminuée pour atteindre seulement 375 km à la fin 2015.  Cette très basse orbite permettra de produire des images avec une résolution impressionnante de seulement 35 m.
Cérès est très différent de Vesta, l’autre planète naine (ex astéroïde géant) que Dawn a déjà étudiée en détails en 2012. Cette différence est probablement due à la vitesse de formation respective des deux corps, qui a dû être de quelques millions d’années différente, suffisante pour qu’il subsiste moins d’éléments radioactifs ayant pour effet de chauffer le milieu. Vesta s’étant formée rapidement dans un milieu encore chaud, toute glace s’est vaporisée, alors que Cérès a pu conserver une bonne quantité de glace dans un milieu déjà plus froid.
Il existe aussi l’hypothèse que Cérès se serait formée beaucoup loin qu’elle n’est aujourd’hui, du fait de sa ressemblance avec Europe, Encelade, ou encore Pluton. Les chercheurs exploitant Dawn vont tenter de tester ces différentes hypothèses, par exemple en analysant la présence de certaines molécules qu’on associe à une formation en zone froide.
L’autre grand chantier de Dawn sera bien sûr de déterminer la structure interne de Cérès, quelles sont les différentes couches, y-a-t-il une couche liquide ? Ces évaluations seront effectuées grâce à des mesures de champ gravitationnel.
Vue d'artiste de la sonde Dawn (JPL/NASA)

Ce qui rend l’aventure de Dawn passionnante, c’est que c’est une sonde déjà rescapée. Elle est munie de roues gyroscopiques, des gros disques qui tournent pour produire un moment cinétique qui permettent de se positionner dans une direction donnée. Et juste avant son lancement en juillet 2007, les ingénieurs apprirent qu’il existait une défaillance sur ces roues gyroscopiques, mais c’était trop tard pour les changer. Le télescope Kepler est muni des mêmes roues gyroscopiques et c’est aussi ce qui l’a amené à de graves défaillances.
La première roue gyroscopique de Dawn tomba en rade en juin 2010, puis une deuxième en août 2012, alors que Dawn quittait Vesta. Les responsables de la mission, pour pouvoir arriver jusqu’à Cérès ont alors décidé d’utiliser un plan B, et de remplacer l’orientation par roues gyroscopiques (il en restait encore deux) par de brefs ajustements de propulseurs.
Dawn a la particularité d’emporter un stock de carburant (de l’hydrazine) mais qui n’est pas dédié à sa propulsion principale. Elle utilise un moteur à propulsion ionique, qui éjecte du xénon ionisé, en produisant une petite accélération, certes faible (il lui faut 9 jours pour passer de 0 à 100 km/h), mais suffisante pour atteindre ses objectifs. L’hydrazine économisée peut ainsi être utilisée pour ajuster l’orientation de la sonde.
Pour économiser du carburant une fois en orbite autour de Cérès, Dawn sera retournée en direction de la Terre moins souvent que prévu initialement, stockant plus de données et en envoyant plus par session de transmissions. Ces changements de protocole font que la mission durera plus longtemps que prévu et devrait prendre fin à l’été 2016.

Il est très probable qu’une fois la mission de Dawn menée avec succès, Cérès devienne la prochaine destination pour un futur atterrisseur à la recherche de traces de vie… Les mois qui viennent nous le diront.


Source:

Dawn probe to look for a habitable ocean on Ceres
Eric Hand
Science Vol. 347 no. 6224 pp. 813-814 (20 February 2015)

jeudi 19 février 2015

Le Lithium enfin trouvé dans les Novae

Ce qu'on appelle le problème du lithium est une des grandes questions de l'astrophysique d'aujourd'hui. Nous savons qu'une partie de cet élément chimique léger (de numéro atomique égal à 3) a été produite dans l'Univers très jeune lors de la nucléosynthèse primordiale, mais la comparaison des modèles d'évolution chimique et des abondances stellaires en lithium observées dans notre Galaxie ne collent pas. 


Elles indiquent qu'une partie du lithium aurait due être synthétisée  dans les vieilles étoiles de faible masse de type géantes rouges, ainsi que dans des petites explosions d'étoiles qu'on appelle des novae. Or nous avons déjà pu observer la présence de lithium dans des géantes rouges, mais encore jamais dans des novae.

Production du Li-7 via la production de Be-7 (Nature)
Mais c'est désormais chose faite, car pour la première fois, une équipe japonaise annonce avoir observé indirectement la présence de lithium (du Li-7) au sein d'une nova, une fameuse nova appelée Nova Delphini 2013 (ou V339 Del).
Tajitsu et al. détaillent dans un article venant de paraître dans Nature leur observation de béryllium radioactif, du Be-7, qui se désintègre assez vite en Li-7.
Le lithium a une origine complexe, il en a en fait trois : par nucléosynthèse primordiale dans les premières minutes qui ont suivies le Big Bang, par des réactions nucléaires dans le milieu interstellaire, produites par des rayons cosmiques énergétiques (qui sont aussi à l'origine du béryllium et du bore), et enfin par des réactions nucléaires au sein des étoiles. 
A l'intérieur des étoiles, le Be-7 est formé par la fusion nucléaire de noyaux d'hélium-3 et hélium-4. Cet élément radioactif capture ensuite un électron et se transforme en Li-7 en émettant un neutrino et un photon gamma de 478 keV (sa période de demie-vie est courte, environ 53 jours).
Mais une production efficace de Li-7 par ce processus nécessite que cette réaction nucléaire se déroule dans les couches stellaires externes chaudes, et que le Be-7 fraîchement produit soit ensuite transporté dans des couches plus froides avant qu'il ne se transforme en Li-7. De cette manière, le Li-7 peut "survivre" plus longtemps. Ce processus est appelé le "mécanisme de transport du Be-7 de Cameron-Fowler". C'est cet unique mécanisme, décrit il y a plus de 40 ans, qui est responsable de la production de lithium dans les étoiles.

Les novae sont des explosions thermonucléaires, qui apparaissent à la surface d'étoiles naines blanches qui ont arraché un peu trop de gaz (hydrogène) à une étoile compagne. L'accumulation de masse sur la naine blanche produit une instabilité nucléaire puis une violente explosion. On estime qu'au cours de ce type d'explosion, le mécanisme de Cameron-Fowler apparaît également, devant produire du Li-7. La quantité de Li-7 attendue au cours d'une nova dépend en fait de la nature chimique de la naine blanche. Elle se divisent en deux grandes familles : les naines blanches à carbone et oxygène, qui produisent des novae CO, et les naines blanches à oxygène et néon, qui sont à l'origine de novae ONe... C'est dans les novae CO que la production de Be-7 et de Li-7 est la plus importante théoriquement, car les réactions de fusion du cycle CNO y évoluent plus vite, ce qui a pour effet de détruire moins de He-3 et de Be-7. L'ordre de grandeur de la masse de Li-7 produite par une telle nova avoisine 1 dix-milliardième de la masse du soleil.

La nova étudiée par l'équipe de Tajitsu, Nova Delphini 2013, est justement une nova de type CO. Ils l'ont observé entre 38 et 52 jours après l'explosion, à la recherche de raies de lumière ultraviolette correspondant à du Be-7 ionisé, avec le télescope Subaru de l'Observatoire Astronomique National du Japon.
Les chercheurs montrent pour la première fois qu'il y a dans Nova Delphini 2013 au moins autant de Be-7 et donc de Li-7 que ce qui est prédit  par la théorie et le mécanisme de transport de Cameron-Fowler.
Ainsi, on peut conclure à partir de cette observation que les novae peuvent effectivement jouer un rôle important dans la production de lithium. 
Par ailleurs, il va sans doute devenir possible grâce aux novae, de détecter enfin directement l'émission radioactive accompagnant la production du Li-7, les photons gamma de 478 keV qui n'ont encore jamais pu être mis en évidence malgré des recherches poussées avec les télescopes spécialisés en orbite.

Quoiqu'il en soit, les chercheurs japonais montrent que la méthode de détection des raies UV du Be-7 ionisé est une méthode très puissante pour estimer la contribution des novae dans l'abondance galactique du Li-7. Une très belle avancée qui éclaircit un problème qui n'en sera bientôt plus un.


Sources : 
Explosive lithium production in the classical nova V339 Del (Nova Delphini 2013)
Akito Tajitsu et al.
Nature 518, 381–384 (19 February 2015) 

Astrophysics: A lithium-rich stellar explosion
Margarita Hernanz
Nature 518, 307–308 (19 February 2015)

mercredi 18 février 2015

Une étoile à frôlé le système solaire il y a 70000 ans

Une équipe internationale d’astronomes vient de découvrir qu’une petite étoile binaire était passée très près de notre système solaire il y a 70 000 ans seulement. Elle est passée si près qu’elle a traversé le nuage d’Oort, ce grand réservoir de comètes situé aux confins du système solaire.


Illustration de l'étoile binaire de Scholtz (Rochester University)
Bien que globalement les étoiles de notre Galaxie possède un mouvement de rotation autour du centre galactique, les vitesses et les directions d’étoiles voisines peuvent être assez différentes, pour des raisons propres à leur histoire respective. Il peut ainsi arriver qu’une étoile se rapproche d’une autre assez vite puis s’en éloigne aussi vite. C’est ce qui s’est passé avec cette étoile nommée WISE J072003.20-084651.2, mais surnommée (on comprend pourquoi) WJ0720 ou encore l’ « étoile de Scholtz », du nom de l’astronome allemand Ralf-Dieter Scholtz qui l’a découverte à la fin 2013 grâce à la mission WISE de la NASA (Wide-field Infrared Survey Explorer) qui a cartographié le ciel en infra-rouge.
L’étoile de Scholtz est composée de deux composantes, toutes les deux très petites, l’une est une étoile naine rouge dont la masse fait seulement 8% de celle du soleil et sa compagne est une naine brune (étoile non allumée) de seulement 6% de la masse du soleil. Elle a une faible luminosité malgré sa distance assez faible (elles sont à environ 20 années-lumière de nous aujourd’hui).
C’est en analysant la vitesse et la trajectoire de l’étoile de Scholtz que Eric Mamajek de l’université de Rochester aux Etats-Unis et ses collègues sont parvenus à retracer son parcours passé et montrent que cette étoile s’est approché du Soleil à une distance la plus courte connue à ce jour pour une étoile voisine, à seulement 0,8 années-lumière, 5 fois plus près que notre voisine la plus proche actuelle, Proxima Centauri. Cette distance est égale à 52000 unités astronomiques (une U.A est la distance séparant le Soleil et la Terre).
Dans leur article paru la semaine dernière dans The Astrophysical Journal Letters, les astronomes indiquent qu’ils sont sûrs à 98% que WJ0720 a traversé ce qu’on appelle le nuage d’Oort externe. Le nuage d’Oort est une sorte de coquille entourant le soleil à très longue distance s’étalant entre 0,5 et 1 année-lumière et peuplée de milliards de petits cailloux, qui sont autant de comètes potentielles lorsqu’une perturbation gravitationnelle vient modifier leur orbite. Et le nuage d’Oort est relativement épais, il peut être décomposé en ce qu’on appelle le nuage d’Oort interne, et le nuage externe.
Ce qui a intrigué Eric Mamajek et l’a poussé à regarder de plus près la trajectoire de l’étoile de Scholtz, c’est qu’elle avait une vitesse tangentielle très faible (sa vitesse apparente sur la voûte céleste) malgré sa distance faible. Normalement, les étoiles aussi proches ont une vitesse tangentielle assez grande. Il n’y avait que deux possibilités : soit l’étoile fonçait vers nous, ou soit elle s’éloignait de nous. Mais d’autres mesures, de sa vitesse radiale cette fois, ont été effectuées à l’ESO par Ivanov, coauteur de l’étude, et ses collègues, par des mesures du décalage Doppler, et ont montré que l’étoile de Scholtz s’éloignait directement de nous à très grande vitesse, environ 20 U.A/an, ce qui fait en unités « humaines » près de 340 000 km/h... ou environ 100 km/s si vous préférez.  Les chercheurs ont pour cela exploité deux grands télescopes, le Southern African Large Telescope (SALT) situé en Afrique du Sud et le Magellan Telescope de l’observatoire Las Campanas au Chili.
Structure du nuage d'Oort (The Electronic Universe Project)
En reliant sa vitesse radiale mesurée et la direction de son mouvement (obtenu par la combinaison des deux vitesses, radiale et tangentielle), les astronomes se sont rendus compte que l’étoile de Scholtz était passée très près du Soleil il y a très peu de temps à l’échelle cosmologique, à peine 70 000 ans.

Avant cette découverte, le passage d’étoile le plus proche était estimé être celui de l’étoile HIP 85605, qui est passée près du soleil il y a 240000 à 470000 ans, mais seulement à une distance (réestimée par Mamajek et al.) de 200 années-lumière, soit très très loin du nuage d’Oort du système solaire.
Mamajek et son équipe ont modélisé plus de 10000 trajectoires possibles pour WJ0720 à partir des données cinématiques, en prenant en compte un grand nombre de paramètres. 98% de ces trajectoires montrent que l’étoile est passée dans le nuage d’Oort externe. En revanche seulement 1 trajectoire sur 10000 arrive dans le nuage d’Oort interne. Ce résultat est important car ce sont des perturbations de cette zone interne du nuage d’Oort qui peuvent produire des pluies intenses de comètes, potentiellement dangereuses pour les planètes telluriques que sont Mars, Vénus ou la Terre. Le passage de l’étoile de Scholtz n’aurait donc eu qu’un impact négligeable sur notre système solaire et on peut s’en réjouir. Mais comme le fait remarquer Eric Mamajek, d’autres perturbateurs importants du nuage d’Oort peuvent se cacher dans des étoiles proches.

Même si la luminosité intrinsèque de ce type de naine rouge est très faible, elles peuvent être sujettes à des éruptions multipliant par mille leur éclat. Il est donc possible que l’étoile de Scholtz lors de son passage proche ait été visible à l’œil nu de quelques hommes de Neandertal admirant le ciel.
Le télescope Gaia lancé récemment par l’Agence spatiale européenne a pour mission de cartographier des milliards d’étoiles de la Galaxie en mesurant leurs vitesses et positions. Grâce à ces données, les astronomes pourront enfin déterminer avec précision quelles sont les étoiles proches qui se sont ainsi rapprochées de près du Soleil dans le passé ou qui vont le faire à coup sûr dans le futur.


Sources :
The closest known flyby of a star to the solar system
Eric E. Mamajek et al.
The Astrophysical Journal Letters, 800:L17, 2015 February 10

Neighbours hiding in the Galactic plane, a new M/L dwarf candidate for the 8 pc sample
R.-D. Scholz
Astronomy & Astrophysics 561, A113 (2014)


samedi 14 février 2015

L'Univers est-il accessible à nos sens ? Dialogue entre Jean-Pierre Luminet et Carlo Rovelli

Quand deux chercheurs que l'on aime bien ici, Jean-Pierre Luminet et Carlo Rovelli, discutent entre eux sur l'accessibilité de l'Univers à nos sens, tous nos sens sont en éveil... La vidéo dure 30 minutes, et c'est bien évidemment trop court.

jeudi 12 février 2015

5000ème lecteur pour Soixante Nanosecondes

Un an et deux mois après la mise en ligne de mon roman Soixante Nanosecondes, le 5000ème lecteur de la page dédiée vient d'être atteint, ce qui en fait également la page la plus vue de Ça Se Passe Là-Haut depuis sa création...

Le jour où j'ai mis en ligne gratuitement mon livre, je n'imaginais pas une seule nanoseconde pouvoir atteindre autant de lecteurs avec ce roman, le roman des neutrinos supraluminiques.  Je tiens à vous remercier chaleureusement, chers lectrices et lecteurs, en espérant qu'il vous aura donné l'envie d'en savoir encore plus sur Ettore Majorana ou les neutrinos.

A cette occasion, vous pouvez en connaître davantage sur les coulisses de l'écriture de Soixante Nanosecondes, en écoutant une interview que j'ai donnée la semaine dernière à l'excellent blog Lisez La Science, consacré aux livres de sciences.


Le Soleil fait son show grâce à SDO

SDO (Solar Dynamics Observatory) est un satellite de la NASA qui vient de fêter ses 5 ans en orbite autour du Soleil, et pour fêter cet anniversaire, le Goddard Space Flight Center de la NASA a concocté une petite vidéo retraçant les superbes images (ou films) prises par SDO depuis 5 ans. C'est tout simplement superbe, et presque émouvant de voir vivre notre étoile, montrant des tempêtes magnétiques et autres éruptions parfois gigantesques. Vous reconnaîtrez également le transit de Vénus devant le Soleil le 6 juin 2012, que SDO ne pouvait pas manquer. Laissez vous emporter par votre étoile ! (plein écran conseillé!...)


mardi 10 février 2015

Preuve de la présence de matière sombre à l'intérieur de la Voie Lactée

Les études s'intéressant à la matière noire de notre galaxie, plus précisément à l'évaluation de sa densité, sont de deux sortes : soit elles sont fondées sur des modélisations de la distribution de masse, ou soit elle tentent d'effectuer des mesures locales dans l'environnement du Soleil via une estimation du potentiel gravitationnel local grâce à des mesures de la cinématique des étoiles et de gaz dans le voisinage du Soleil. 


Une étude qui vient de paraître en ligne dans Nature Physics montre sans ambiguïté pour la première fois grâce à de telles mesures de vitesses d'étoiles que de la masse non visible est présente en grande quantité dans la partie la plus interne de notre galaxie, à proximité du Soleil et entre le Soleil et le centre galactique.
Image de la Voie Lactée avec en surimpression les traceurs de vitesse utilisés par les auteurs. Les traceurs ont un code-couleur en fonction de leur vitesse par rapport au Soleil (éloignement ou rapprochement). Le halo sphérique bleu représente la distribution spatiale de la matière sombre. (Image de la Voie Lactée : Serge Brunier)
La présence de matière sombre dans les parties externes de notre Galaxie avaient déjà été mise en évidence depuis de nombreuses années, mais elle a toujours été compliquée à mettre en évidence dans notre voisinage proche, au cœur de la Voie Lactée, à cause de la difficulté inhérente à obtenir des mesures de vitesse de rotation avec la précision requise pour ce type d'évaluation.

Et c'est pourtant aujourd'hui ce que sont parvenus à faire les astrophysiciens Miguel Pato de l'Université de Stockholm et ses collègues Fabio Iocco et Gianfranco Bertone. Ils ont pour cela confectionné la plus grande compilation de mesures de vitesses de gaz et d'étoiles de notre Galaxie publiées depuis des dizaines d'années. Ils ont ensuite comparé toutes ces vitesses de rotation de gaz et d'étoiles avec ce qui serait attendu dans l'hypothèse où il n'existerait que de la matière lumineuse dans la Galaxie (c'est à dire que toute le masse serait ce qu'on peut voir).
Ils démontrent que la rotation observée à l'intérieur de la Voie Lactée ne peut pas être expliquée sans considérer la présence de grandes quantités de matière noire autour de nous.
Il faut dire que nos trois astrophysiciens ont utilisé vraiment un échantillon impressionnant : 2780 mesures de vitesses, en grande majorité des cinématiques de gaz et plus minoritairement des mouvements d'étoiles (un peu plus de 500 tout de même).

Miguel Pato insiste : "Notre méthode permettra pour les prochaines observations astronomiques , de mesurer la distribution de matière sombre dans notre Galaxie avec une précision inégalée. Cela permettra de raffiner notre compréhension de la structure et de l'évolution de notre Galaxie, et cela permettra des prédictions plus robustes pour les nombreuses expériences de recherche de particules formant la matière noire. Cette étude constitue ainsi un pas très important dans la quête de la nature de la matière noire...".

Une preuve observationnelle est d'autant plus importante que les méthodes fondées sur des modélisations de distribution de masse sont sources de grandes incertitudes. Dans ces modélisations, la distribution de matière noire est considérée suivre un profil de densité inspiré par des simulations numériques, comme par exemple un ajustement analytique de type profil NFW (Navarro-Frenk-White) ou profil de Einasto, qui comportent au moins deux paramètres libres, dont les meilleures valeurs sont déterminées par des contraintes dynamiques.  Or ces classes de profils de densité sont inspirées par des simulations sans baryons (la matière ordinaire), mais ces derniers jouent un rôle non négligeable dans la région interne de la Voie Lactée.

La conclusion que donnent Miguel Pato et ses coauteurs est qu'une évidence d'une composante sombre diffuse apparaît avec un niveau de confiance à 5σ lorsque l'on compare la courbe de rotation de la Voie Lactée et les prédictions de nombreux modèles baryoniques (la matière visible). Cette composante sombre diffuse contribue au potentiel gravitationnel de la Voie Lactée.
La robustesse statistique des mesures a été testée vis à vis de la variation de nombreux paramètres comme le rayon galactocentrique, la vitesse mesurée, le mouvement du Soleil et la sélection des données, ainsi que d'effets systématiques dus aux bras spiraux, ce qui rend ce résultat très fort pour les faibles rayons galactocentriques (la zone très interne de la Galaxie).

Sans aucune hypothèse sur la nature de cette masse sombre, ces résultats ouvrent une nouvelle voie pour la détermination de sa distribution à l'intérieur de la Galaxie.


Source : 
Evidence for dark matter in the inner Milky Way
Fabio Iocco, Miguel Pato & Gianfranco Bertone
Nature Physics, Published online 09 February 2015

lundi 9 février 2015

Le Smiley Galactique

Ce que vous voyez là est une image réelle, il s'agit de galaxies. Ce qui paraît être un visage souriant est formé de galaxies dont l'image est très déformée par un effet de lentille gravitationnelle produit par la distorsion de l'espace-temps provoquée par un amas de galaxies massif situé au centre, nommé SDSS J1038+4849.
La distorsion est si forte que les galaxies d'arrière plan sont vues comme des arcs, presque un anneau, qu'on appelle anneau d'Einstein.
Les deux "yeux" de ce sympathique smiley cosmique observé par Judy Schmidt avec le télescope spatial Hubble sont deux grosses galaxies brillantes situées en avant plan.

Le smiley galactique, produit par SDSS J1038+4849 vu par Hubble  (ESA/NASA/Judy Schmidt)
Notre tendance à trouver si facilement des visages dans des objets inanimés est due à un phénomène neurologique appelé pareidolie. Les humains sont adaptés à reconnaître très facilement des visages, et il semble que notre cerveau parvienne à nous jouer des tours en trouvant des visages un peu partout...

L'effet de lentille gravitationnelle est fort utile pour les astrophysiciens, car il leur permet d'observer des objets bien plus lointains que ce qu'ils pourraient voir sans ce phénomène (en plus de déformer l'"image", la distorsion spatio-temporelle produit également une amplification du flux de lumière. L'effet de lentille gravitationnelle permet aussi de déterminer la masse de l'amas de galaxie qui en est responsable, et d'observer la présence de masse non visible...

vendredi 6 février 2015

Hyper-K, le futur détecteur de neutrinos gigantesque

Les physiciens japonais ont pour projet de construire un détecteur de neutrinos gigantesque, de plus d’un million de tonnes… Ce futur détecteur s’appelle HyperKamiokande, et prendrait la suite de l’actuel SuperKamiokande.



Illustration d'une vue d'ensemble du
détecteur Hyper Kamiokande
(Hyper-K collaboration)
HyperKamiokande, qu’on appelle déjà Hyper-K, permettrait de détecter 20 fois plus de neutrinos que SuperKamiokande dans la même durée, ou le même nombre, mais 20 fois plus vite, si vous préférez ; faire en 5 ans ce que Super-K aurait pu faire en un siècle.
Hyper-K serait constitué de deux énormes réservoirs d’eau ultra-pure, de 250 m de long. Il permettrait non seulement de détecter les neutrinos en provenance du ciel (neutrinos solaires ou neutrinos astrophysiques des supernovas ou d’ailleurs, ainsi que des neutrinos atmosphériques produits dans la haute atmosphère), mais aussi des neutrinos produits par l’Homme envoyés dans ce méga détecteur par un faisceau d’un accélérateur de particules. L’un des challenges à accomplir pour disposer d’un tel instrument unique en son genre sera de réunir la bagatelle de 800 millions de dollars. C’est notamment dans cet objectif que des physiciens de 13 pays se sont réunis le weekend dernier pour lancer ce qui ressemble à une protocollaboration, à même de s’adresser d’un seul nom aux diverses agences de financement de la recherche.  L’affaire est loin d’être gagnée car il y aura de la concurrence, d’un côté certains physiciens japonais souhaite installer au Japon le plus grand collisionneur de particules (électrons-positrons), l'International Linear Collider, et de l’autre, les américains ont un autre projet de détecteur géant de neutrinos.

L’aventure japonaise des neutrinos a commencé il y a 30 ans avec l’expérience Kamiokande (Kamioka Nucleon Decay Experiment), qui démontra qu’il était possible de déterminer l’énergie et la direction de trois types de neutrinos différents : les neutrinos du soleil, ceux provenant d’une supernova et ceux produits dans l’atmosphère par interaction de rayons cosmiques. Ces recherches valurent d’ailleurs à son responsable scientifique Masatoshi Koshiba le prix Nobel de Physique en 2002. On se souvient notamment de la détection le 23 février 1987 par Kamiokande d’une poignée de neutrinos provenant de la fameuse supernova du grand nuage de Magellan SN1987A.

Vue de l'intérieur du détecteur
SuperKamiokande (Kamioka observatory)
Puis dans les années 1990, Kamiokande et devenu SuperKamiokande (Super-K), et a permit de démontrer que les neutrinos avaient bien une masse… L’objectif de l’évolution de Super-K en Hyper-K serait d’aller explorer encore davantage les propriétés des neutrinos. Le procédé physique utilisé resterait le même : les neutrinos interagissent dans l’eau en créant indirectement de la lumière par effet Cerenkov. L’analyse de cette lumière permet ensuite de déterminer de nombreux paramètres, comme le type de neutrino parmi les trois familles connues, l’énergie, et leur direction d’incidence. Ces énormes réservoirs instrumentés de milliers de photomultiplicateurs sont enfouis par 1000 m de profondeur dans une ancienne mine, de manière à réduire les bruits de fond parasites.
Kamiokande contenait 3000 tonnes d’eau et 1000 capteurs de lumière, puis Super-K à partir de 1996 monta à 50000 tonnes d’eau et 13000 capteurs, et Hyper-K est prévu pour être formé de deux réservoirs contenant chacun 1 million de tonnes d’eau et 100 000 capteurs…
Le nombre de personnels impliqués dans les projets grossit quasi proportionnellement; alors qu’ils étaient une vingtaine, tous japonais, sur Kamiokande, Super-K est composé de 120 scientifiques pour moitié non-japonais, et Hyper-K implique déjà près de 250 chercheurs et ingénieurs de plus de 60 laboratoires répartis dans le monde, alors qu'on est qu’au stade du papier.

L’une des particularités de Super-K est qu’il permet d’étudier des neutrinos produits par un accélérateur de proton, le J-PARC (Japan Proton Accelerator Research Complex), qui est situé à Tokai, à 295 km de là et qui tire des neutrinos en direction de Super-K. Ce type de mesure permet d’étudier comment les neutrinos oscillent d’une saveur à une autre (un neutrino électronique se transforme en neutrino muonique ou tauique, et/ou vice-versa). Hyper-K fera bien sûr le même type de mesures, mais les physiciens de J-PARC proposent en plus de multiplier par trois l’intensité du faisceau de neutrinos à cette occasion.
Mais c’est peut-être l’observation des neutrinos astrophysiques qui est la plus exaltante : les chercheurs ont estimé que si une supernova explosait (enfin !, on l’attend depuis 400 ans) dans notre galaxie, Hyper-K pourrait détecter 250000 neutrinos en l’espace de 10 secondes, permettant des données fabuleuses pour comprendre ces explosions d’étoile.

Il existe une dernière cerise sur le gâteau : Hyper-K est tellement massif avec ces millions de tonnes d’eau et possède tellement de photodétecteurs, qu’il pourrait être sensible pour détecter la désintégration d’un seul proton. La désintégration du proton a été postulée mais n’a encore jamais été observée. Si elle l’était, notre vision de l’Univers (futur) en serait bouleversée…
En attendant, la proto-collaboration devrait rendre ses études de design à la fin de l’année, avec l’espoir de débuter une construction en 2018, pour une mise en service dès 2025. C’est demain.


Source :
Japanese neutrino physicists think really big
Dennis Normile
Science Vol. 347 no. 6222 p. 598 (6 February 2015)

jeudi 5 février 2015

Tout savoir sur le satellite Planck

Vous reprendrez bien un peu de Planck ? A l'occasion de la publication par la collaboration exploitant le satellite Planck  de sa toute dernière carte du fond diffus cosmologique, elle de la polarisation du rayonnement,  le CNRS a produit cette vidéo qui explique à peu près tout sur ce qu'à mesuré le Planck, et comment. A regarder sans en perdre une miette...


Planck : la première lumière de l'Univers par CNRS

Simuler l'évolution de l'Univers avec des supercalculateurs français

Saviez-vous que quelque uns des plus puissants calculateurs se trouvaient en France ? Ils sont par exemple utilisés pour produire des simulations des plus précises sur les structures de l'Univers. Voyez plutôt cette petite présentation du CEA (service d'Astrophysique, situé à Saclay) qui vous explique tout ça : 


mercredi 4 février 2015

Galaxies : Un lien entre trou noir supermassif et halo de matière noire ?

Existe-t-il un lien entre les trous noirs supermassifs des galaxies et le halo de matière noire supposé baigner ces mêmes galaxies ? Une petite équipe d'astrophysiciens libanais tente d'apporter une réponse à cette question très intéressante...


Vue d'artiste du halo sphérique de matière noire
devant entourer les galaxies (ESO)
Pour établir une éventuelle connexion entre la masse du trou noir supermassif situé au cœur d'une galaxie, et la masse du halo de matière noire, il faut trouver un point d'entrée observationnel. La propriété galactique qu'ont sélectionnée Bassem Sabra et ses collègues dans cet objectif est la vitesse circulaire maximale de la galaxie. Plus précisément, ils ont étudié la relation qui peut exister entre la valeur de la masse du trou noir supermassif et la valeur de la vitesse circulaire maximale. L'astuce réside dans le fait que cette valeur de vitesse de rotation doit dépendre de la masse de matière noire présente dans le halo galactique, c'est la seule hypothèse que considèrent les astrophysiciens libanais. Donc, si une corrélation existe entre la masse du trou noir et cette vitesse de rotation, cela implique également l'existence d'une corrélation entre la masse du trou noir supermassif et la masse de matière noire...
Dans leur étude à paraître dans the Astrophysical Journal, les chercheurs se sont intéressés à de nombreuses  galaxies de tous types, la seule nécessité était qu'elles devaient avoir une mesure directe de la masse de leur trou noir supermassif, ainsi qu'une mesure directe de la vitesse circulaire et de la vitesse de dispersion des étoiles. D'autres analyses de ce types ont été effectuées dans le passé, mais en utilisant une méthode plus indirecte, en étudiant la corrélation existante entre vitesse circulaire et vitesse de dispersion dans le bulbe galactique, avec une hypothèse sur la relation entre vitesse de dispersion dans le bulbe et masse du trou noir supermassif. 
Les astrophysiciens libanais estiment qu'une mesure directe de la masse du trou noir supermassif est bien plus préférable pour déterminer une corrélation, car plus directe, sans hypothèse intermédiaire.

L'échantillon de galaxies initial exploité, offrant les mesures nécessaires à l'analyse (masse du trou noir déterminée par des mesures dynamiques et vitesse circulaire ou vitesse de dispersion) se composait de 376 galaxies. Après une sélection drastique des meilleures candidates permettant les incertitudes les moins fortes, il n'en restait plus 89.
Les masses des trous noirs utilisés dans l'échantillon s'étalent entre 1,1 million de masses solaires (dans une galaxie nommée Cirinus), pour le plus maigre, jusqu'à 17 milliards de masses solaire (dans NGC 1277) pour le plus lourd... C'est dire si cet échantillon couvre toute la famille des trous noirs supermassifs.

Vue d'artiste d'un trou noir supermassif (NASA)
Vous vous demandez ce que ces chercheurs trouvent ? Je vais vous le dire : ils trouvent qu'il n'existe pas de corrélation (ou bien elle est très très faible) entre la masse du trou noir supermassif central d'une galaxie et la masse de son halo de matière noire. Il faut préciser que cette étude porte uniquement sur des galaxies relativement proches de nous, c'est à dire situées dans l'univers actuel.  Cette précaution sur l'aspect temporel est importante car des études effectuées en 2011 ont montré que dans l'Univers jeune (lointain), une telle corrélation devait être importante.
Il reste néanmoins une population de galaxies qui défie cette analyse, c'est celle des galaxies spirales sans bulbe possédant un trou noir supermassif, pour lesquelles on ne peut pas étudier une éventuelle corrélation par cette méthode de la vitesse circulaire ou de la vitesse de dispersion stellaire...

Les auteurs concluent leur article en évoquant ce à quoi on semble avoir échapper : le fait que si une telle corrélation entre masse de trou noir supermassif et masse de halo de matière noire devait persister dans l'Univers actuel, cela impliquerait l'existence de trous noirs hypermassifs au cœur des halos de matière noire des amas de galaxies. Ces monstres s'éloignent donc un peu de notre perspective.


Source : 
The Blackhole-Dark Matter Halo Connection
B. Sabra et al.
à paraître dans the Astrophysical Journal

mardi 3 février 2015

La rotation asynchrone des exoplanètes telluriques et leur zone habitable

Les planètes situées dans la zone habitable d'une étoile de faible masse sont souvent considérées être en rotation synchrone autour de leur étoile, dû à un effet de marée important, car à relativement faible distance de leur étoile. Une rotation synchrone est la situation dans laquelle la rotation d'une planète sur elle-même est synchronisée sur sa rotation orbitale : elle fait un tour sur elle-même dans la même durée qu'elle fait une orbite autour de son étoile.


Atmosphère de Vénus, imagée en UV par
la sonde Pionner Venus Orbiter en 1979 (NASA)
Une rotation synchrone pour une planète pourrait affecter considérablement son habitabilité potentielle. Mais une nouvelle étude qui vient de paraître dans la revue américaine Science montre que la synchronisation n'est peut-être pas si fréquente, grâce aux effets atmosphériques des planètes.
On sait par exemple que Vénus possède une rotation rétrograde qui est provoquée par son atmosphère très dense, plus exactement par un effet de marée thermique. L'effet de marée thermique est un effet d'entrainement de la croûte planétaire par son atmosphère, qui est, elle, mise en mouvement par les variations de température produites par l'alternance jour/nuit.  De grandes masses atmosphériques ont un mouvement d'oscillation qui suit le cycle diurne, et ont un effet direct sur la rotation de la croûte par friction.
Mais, alors que les effets de marée classiques, qui ont également lieu à l'intérieur de la croûte de la planète, ont tendance à synchroniser la rotation de la planète sur elle-même avec sa rotation orbitale (comme ce que l'on voit tous les jours à une autre échelle entre la Lune et la Terre), l'effet de marée thermique, lui, produit une désynchronisation, car les mouvements atmosphériques sont légèrement décalés par rapport au passage jour/nuit du simple fait de l'inertie thermique qui existe dans l'atmosphère.

L'équipe menée par Jérémy Leconte au Canadian Institute for Theoretical Astrophysics, de l'Université de Toronto, montre, en utilisant un modèle climatique global, que même une atmosphère relativement mince peut éloigner la rotation d'une planète tellurique d'une rotation synchrone.
Grâce à leur modèle, les planétologues peuvent en déduire un modèle de marée beaucoup plus réaliste, qui prédit l'existence de quatre états d'équilibre rotationnel asynchrones, dont deux sont stables. Ces deux  états d'équilibre stables sont atteints quand l'amplitude des marées thermiques dépasse un certain seuil, qui est rencontré pour les planètes telluriques habitables possédant une pression atmosphérique de 1 bar et tournent autour d'une étoile plus massive que 0,7 masse solaire. 
Cette limite baisse même jusqu'à 0,3 masse solaire si la pression atmosphérique vaut 10 bar.

Ainsi, de nombreuses planètes semblables à la Terre récemment découvertes, peuvent avoir une rotation asynchrone sur leur orbite, même si elles ne possèdent qu'une très mince atmosphère. C'est particulièrement le cas à la frontière externe des zones habitables où les planètes sont le plus souvent pourvues d'atmosphères de CO2 de plusieurs bar de pression atmosphérique. Les conséquences de cette trouvaille sont multiples. Une rotation synchrone signifie qu'un hémisphère reste constamment dans la nuit, au froid. Mais si la plupart des planètes sont finalement asynchrones, cela implique qu'elles seraient plus habitables que ce que l'on pouvait penser, toute la surface pouvant être éclairée dans un cycle diurne/nocturne.

D'un autre côté, les planétologues pensaient que la zone habitable pouvait s'étendre assez près d'une étoile si la planète était synchrone, gardant alors un hémisphère pas trop chaud même à proximité de l'étoile (celui qui reste à l'ombre). Mais s'il s'avère qu'elles sont plutôt asynchrones, donc ayant une alternance jour/nuit sur toute leur surface, elles en deviennent alors moins habitables, puisque les deux hémisphères subissent alors de très fortes températures périodiquement. L'effet de marée thermique qui empêche les planètes ayant une atmosphère de devenir synchrones dans leur révolution orbitale a donc pour conséquence de modifier l'étendue de la zone habitable, celle-ci s'éloignant de l'étoile.

Jérémy Leconte et ses collègues concluent leur article en proposant d'inverser le phénomène étudié et d'utiliser l'observation de la rotation des exoplanètes pour en déduire la présence et les caractéristiques d'une éventuelle atmosphère... Un bel exemple de résultat de modélisation mis au service de futures méthodes d'observation avancées.


Source : 
Asynchronous rotation of Earth-mass planets in the habitable zone of lower mass stars
J. Leconte et al.
Science Express (15 january 2015)