dimanche 29 janvier 2012

Voyage à la vitesse de la lumière (ou presque)

Que verrait-on si nous faisions un voyage à la vitesse de la lumière ? C'est ce qu'a voulu savoir Alain Riazuelo, astrophysicien à l'Institut d'Astrophysique de Paris en 2008 en produisant des simulations numériques de l'espace-temps, avec des résultats étonnants :


jeudi 26 janvier 2012

Découvertes de deux nouvelles Tatooine (exoplanètes circumbinaires)

Les découvertes s'enchaînent vite. L'année 2011 avait vu la découverte de la première exoplanète orbitant autour d'un couple d'étoile, à l'image de la célèbre planète Tatooine de Star Wars, qui fut appelée Kepler-16b, du nom du télescope spatial Kepler qui l'a découverte, lui-même nommé d'après Johannes Kepler, grand astronome du 16ème siècle.
Voilà que Kepler (le télescope !) remet ça, avec la découverte de deux nouvelles « Tatooine » : Kepler-34b et Kepler-35b. C'est ce que nous apprennent William Welsh et ses collègues dans le numéro de cette semaine de Nature.
Le suffixe « b » ici est astucieusement utilisé pour rappeler que l'exoplanète en question tourne autour d'une étoile binaire (deux étoiles tournant l'une autour de l'autre).
Toutes les deux, Kepler-34b et Kepler-35b sont des planètes gazeuses géantes du genre de Jupiter. La première tourne autour d'un couple d'étoiles serrées en 289 jours et la seconde en 131 jours.

Vue d'artiste d'une planète circumbinaire
Les deux méthodes les plus efficaces pour la détection des exoplanètes sont fondées d'une part sur la mesure de la vitesse des étoiles, une planète massive perturbant très légèrement le mouvement de son étoile. Cette méthode a permis jusqu'à présent de découvrir environ 400 exoplanètes, et notamment la première d'entre elles en 1995, la célèbre 51 Pegasi, planète de 0.47 fois la masse de Jupiter mais orbitant à une distance de seulement 0.052 fois la distance Soleil-Terre…

La seconde méthode, en plein essor grâce à l'utilisation de télescopes spatiaux, seuls capables de détecter d'infimes variations de luminosité, est fondée sur l'observation de transits des planètes devant leur étoile : la planète obscurcit très faiblement l'étoile en passant devant. Et quand il y a non pas une mais deux étoiles comme dans le cas des systèmes binaires, il y a un double transit, à la fois de l'étoile compagnon et de la planète….

Environ 200 exoplanètes ont pu être mises en évidence par cette méthode. Requérant une précision extrême sur la mesure de la variation de luminosité détectée, les télescopes terrestres ont du mal à détecter d'autres planètes que de grosses planètes proches de leur étoile(s). En revanche, au-dessus de l'atmosphère, tout est plus facile, et le télescope Kepler s'est fait une spécialité dans la découverte d'exoplanètes de petite taille (petite masse) et moins proches de leur étoile (en zone dite habitable ») par la méthode des transits. Il exploite si bien la méthode qu'il a déjà engrangé pas loin de 2000 candidates exoplanètes, actuellement en attente de validation…
Le taux de planètes circumbinaires observé permet ainsi de faire des calculs statistiques et ils indiquent que ces planètes doivent exister autour de 1% de toutes les étoiles binaires proches à courte période. Sachant que le nombre d'étoiles binaires à courte période dans notre galaxie par exemple est tout à fait considérable – les étoiles de la taille de notre soleil vivent généralement en couple de ce type -, le nombre de telles planètes calculé par Welsh et al. est de l'ordre de plusieurs millions ! (et rien que pour notre galaxie, en gardant à l'esprit que les binaires à longues période ne sont pas prises en compte ici et qu'elles sont au moins aussi nombreuses que celles à courte période).
Rappelons enfin que le nombre de galaxies observables est de l'ordre de plusieurs milliards… 
couple d’étoiles Principe d'une étoile binaire (animation interactive par http://astronomia.fr/) : cliquez sur M/A

Ces trois planètes circumbinaires (les deux nouvelles plus Kepler-16b) ont toutes quelques points en commun (mais qui semblent liés  à la façon de les détecter par Kepler) : elles se situent à une distance proche de 1 UA de leurs étoiles et les couples d'étoiles sont séparés d'environ 0.2 UA. Elles se trouvent ainsi très proches de la plus petite orbite stable possible. 
Mais Kepler en poursuivant sa quête va devenir de plus en plus sensible aux plus longues périodes, et ces trois premières sont loin d'être les dernières et peuvent être vues comme le sommet d'un immense iceberg. Un an après avoir découvert la première planète circumbinaire, qui pouvait paraître une étrangeté de science-fiction, nous savons maintenant qu'elles sont légion…

source:
Transiting circumbinary planets Kepler-34 b and Kepler-35 b
W.F Welsh et al.  Nature  481, 475–479   (26 January 2012)

Lire aussi :


samedi 21 janvier 2012

Un Drone à propulsion Nucléaire pour explorer Titan

Les planétologues américains ne manquent pas d’idées. On le sait, Titan, le plus grand satellite de Saturne, est très intéressant par ces nombreuses spécificités, dont l’une des plus intéressantes est sans doute sa couche d’eau liquide présente en subsurface. On dit souvent que Titan est l’une des trois cibles les plus intéressantes à explorer dans le système solaire.
 Il a été exploré sous différentes formes, depuis Pioneer 11 en 1979, puis Voyager 1 en 1980, qui a fait le détour exprès vers Titan sacrifiant ainsi ses possibilités de rencontrer ensuite Uranus et Neptune… et surtout par la sonde Cassini-Huygens, à la fois en orbite (orbiteur Cassini) et sur son sol glacé (module au sol Huygens). Mais Titan possède également une épaisse atmosphère qui rend l’observation depuis l’orbite un peu complexe…

Comme cette zone intermédiaire entre le très grand vu en orbite et le très petit vu du sol reste aujourd’hui inexplorée, une équipe américaine pluridisciplinaire propose d’aller y aller jeter un œil, ou plus exactement un tas d’instruments. Et ils n’ont pas trouvé mieux que d’utiliser pour cela un objet volant dans l’atmosphère…  Un avion sans pilote, qu’on appelle couramment un drone.
Il faut savoir que cette atmosphère est si dense que la portance y est grandement facilitée. Un physicien du nom de R. Zubrin avait même calculé dès 1990 qu’un homme muni d’ailes tel le mythologique Icare, pourrait aisément y voler avec sa propre puissance musculaire…

Avec environ une densité 4 fois supérieure et une gravité 7 fois plus faible que sur Terre, les vols sont ainsi 28 fois plus « faciles » : un avion donné peut porter 28 fois plus de masse sur Titan que sur Terre… Si on comparait avec l’atmosphère de Mars, ça serait 1000 fois plus facile sur Titan que sur Mars… 

Ce drone, encore au stade du papier, a été baptisé AVIATR pour Aerial Vehicle for In-situ and Airborne Titan Reconnaissance. 

Vue d'artiste du projet AVIATR
Le concept est fondé sur une sonde de transport qui serait envoyée en orbite autour de Titan en sept années puis qui larguerait ce petit oiseau dans l’atmosphère Titanesque. Le but d’AVIATR est ensuite de parcourir le satellite de long en large, à différentes altitudes, et ce durant de longs mois sans s’arrêter ni se poser bien évidemment, le tout en envoyant ses données directement vers la Terre sans passer par un orbiteur relais… 

Autant la propulsion d’une sonde dans le vide du système solaire est relativement aisée, autant c’est une autre paire de manche lorsqu’il s’agit d’un déplacement dans une atmosphère, où il y a des vents, un freinage, etc… Bref, il faut un vrai moteur pour avancer. C’est aussi pour cette raison des vents forts qu’une solution de type ballon a été rejetée après étude.

Mais quel type de moteur utiliser pour pouvoir voler durant plusieurs mois sans s’arrêter une seule fois ? Un moteur électrique assurément. Mais comment produire cette électricité ? Des panneaux solaires ? Impossible du fait de la couverture nuageuse et des alternances d’ensoleillement.  Il fallait donc s’inspirer de ce qui a été fait pour les sondes lointaines ne pouvant pas compter sur la puissance solaire… Des générateurs nucléaires à radioisotopes… Les RTGs selon l’acronyme anglosaxon pour Radioisotope Thermoelectric Generators sont des systèmes thermoélectriques qui utilisent la chaleur pour la transformer en courant électrique par un thermocouple.

Cette chaleur est produite naturellement par un bloc d’oxyde de plutonium-238. Cet élément radioactif émet presque exclusivement du rayonnement alpha énergétique qui a la propriété de chauffer le métal dans lequel il est créé. Le bloc d’oxyde de plutonium est donc une source de chaleur continue qui est entièrement indépendante de son environnement, et qui décline simplement par la décroissance de la radioactivité de l’isotope en question : elle est divisée par deux tous les 88 ans, ce qui donne une diminution de la puissance thermique de 0.79% par an…Cette source de chaleur est analogue à la chaleur interne de la Terre qui est issue du même phénomène de radioactivité alpha d’isotopes (d’uranium et de thorium). Sauf qu’ici, le plutonium est un radio-isotope artificiel, fabriqué par l’homme, et essentiellement dans des réacteurs nucléaires. 
Ces  RTG au plutonium-238 ont équipé de nombreux vaisseaux  depuis 1961 pour les alimenter en électricité, comme les sondes Pioneer 10 et 11, Voyager 1 et 2, Galileo, Ulysses, Cassini et jusqu’à New Horizons qui ne pouvaient recourir aux panneaux solaires pour leurs missions lointaines. Des RTG furent aussi utilisés sur Mars avec les deux modules d’atterrissages Viking, ainsi que pour les expériences scientifiques menées sur la Lune par les missions Apollo 12 à 17.

Non seulement leur fabrication est très couteuse, mais les stocks actuels de Pu-238 sont de plus en plus faibles et l’efficacité énergétique des RTG est pour ainsi dire déplorable avec environ seulement 8% (c’est la quantité d’énergie thermique transformée finalement en électricité)… 

Titan et Saturne vus par Cassini
C’est donc vers un nouveau type de générateur nucléaire, toujours à base de Pu-238 mais beaucoup plus efficace, que ce sont tourné les physiciens du projet AVIATR. Ils proposent de recourir à l’un des plus vieux moteurs imaginés, puisqu’il s’agit d’un moteur de Stirling, dont le concept date du début du 19ème siècle, auquel ils fournissent une source chaude de type nucléaire, parvenant ainsi à multiplier par 4 le rendement énergétique, donc à réduire d’autant la masse de plutonium à emporter, ou bien, à augmenter la puissance par 4 à masse égale…  Ce générateur nouveau porte le doux nom de ASRG (Advanced Stirling Radioisotope Generator). 

Mais revenons à notre drone et à ces instruments embarqués maintenant bien alimentés. Les buts scientifiques de la mission sont très nombreux : géologie de surface et science atmosphérique sous de nombreux aspects passionnants. On peut citer entre autres :
  • Comprendre les interactions mer/terre à partir de la diversité des berges et interfaces 
  • Caractériser les interactions atmosphère/lacs à partir de la dynamique des vagues. 
  • Étudier l’histoire de la formation des lacs à partir des couches géologiques en bordure 
  • Étudier les flux de liquide et sédimentaires des lacs 
  • Caractériser les zones d’érosion 
  • Déterminer où sont localisées les liquides de surface et pourquoi 
  • Étudier les transports de sédiments 
  • Étudier l’activité des champs de dunes sur la surface de Titan 
  • Mesurer les vents et étudier le climat 
  • Étudier les changements climatiques à partir des évolutions des dunes 
  • Étudier les mouvements de la lithosphère à l’origine des reliefs 
  • Étudier l’origine cryovolvanique de structures observées précédemment par Cassini 
  • Observer les cratères pour l’étude de la lithosphère 
  • Exploration de zones non observées auparavant 
  • Identifier des sites d’atterrissage (atitanissage) d’après leurs caractéristiques géologiques, météorologiques, chimiques, … 
  • Rechercher des molécules organiques prébiotiques et mise en évidence d’activité astrobiologique 
  • Étudier globalement la circulation atmosphérique des vents et du méthane 
  • Étudier les nuages et la pluie 
  • Étudier les propriétés des brouillards 
Cette proposition innovante de nouvelle mission vers Titan, détaillée sur 73 pages par Jason W. Barnes et ses collègues (dont quelques français) dans Experimental Astronomy a été chiffrée à 715 millions $, ce qui en fait un projet éligible au programme « New Frontiers » de la NASA. 

 Les études seront poursuivies pour améliorer encore le design de cet oiseau titanesque, premier avion à propulsion nucléaire de l’histoire, en attendant une réponse budgétaire d’ici quelques années…
 

vendredi 20 janvier 2012

Des galaxies naines complètement invisibles mais encore détectables

Certains objets ne brillent pas suffisamment pour être observables facilement. C’est le cas des galaxies dites naines ou satellites, très petites et très peu lumineuses. On ne peut voir la lumière de leurs étoiles que lorsqu’elles se trouvent à proximité de nous. 

Dans le groupe Local auquel notre galaxie appartient, nous n’avons pas pu observer autant de galaxies naines que ce qu’on aurait dû d’après les modèles de formation des galaxies. Cette non observation commençait à mettre un doute dans l’esprit des astrophysiciens spécialistes des galaxies.
Il fallait donc pouvoir en observer ailleurs, plus loin autour de galaxies plus distantes de nous. Oui, mais comment faire étant donné leur très faible luminosité ? 

Vegetti et al ont eu l’idée d’utiliser à nouveau le phénomène de lentille gravitationnelle pour trouver des galaxies naines lointaines, et plus exactement leur masse. Cette équipe s’est attelée à observer une galaxie distante appelée JVAS B1938+666, qui se trouve produire un bel effet de lentille gravitationnel sous la forme d’un anneau d’Einstein produit par la déformation complète de l’image d’une autre galaxie encore plus lointaine, située en arrière-plan de cette galaxie lentille.

C’est grâce au télescope Keck de 10 m et son optique adaptative qu’ils ont pu parvenir à déterminer la distribution de masse de la galaxie-lentille, par l’utilisation d’algorithmes numériques très avancés. Ils en déduisent également quelle est la forme réelle ainsi que la luminosité de la galaxie déformée.
Et que dit la distribution de masse ? Elle montre qu’il existe un excès de masse - et elle permet de le cartographier – qui ne peut pas appartenir à la galaxie-lentille. Ils attribuent cet excès à une galaxie naine satellite, invisible car trop faible, mais bien là.

C’est la première fois qu’une galaxie naine peut être mise en évidence à une distance si lointaine (10 milliards d'années lumières). Cette galaxie satellite est estimée faire 113 millions de masses solaires pour un diamètre de 2000 années-lumière, ce qui la place définitivement dans la catégorie des galaxies satellite, même si sa masse est beaucoup plus faible que d’autres galaxies satellites (plus proches) découvertes récemment.
Cette galaxie satellite doit être mise en regard avec la petite cinquantaine que l’on connaît déjà dans votre voisinage du groupe Local et qu’on peut observer visuellement. A partir des mesures de vitesse de leurs étoiles, ces galaxies naines montrent qu’elles sont largement dominées par une composante massive non visible, de la matière noire. Et c’est aussi à cause de cette forte masse (vraiment invisible) que la galaxie satellite de  JVAS B1938+666 a pu être détectée par la modification de son effet de lentille gravitationnelle…

Mais les simulations qui sont basées sur les modèles de formation de galaxies impliquant une grande quantité de matière noire dite « froide », montrent qu’il devrait exister bien d’avantage de galaxies satellites dominées par la matière noire dans le groupe Local, que ce qui est actuellement observé. Le modèle est –il erroné ? Le groupe Local est-il particulier ?

C’est dans ce questionnement que la découverte de Vangetti et al. apparaît importante puisqu’elle permet de fournir des informations sur un autre environnement que celui des galaxies proches du groupe Local, et permet d’ores et déjà de conforter le modèle impliquant la matière noire froide.

Elle montre également que de telles mises en évidence – pas si évidentes- sont possibles, ce qui permet d’envisager, si des observations de ce type se multiplient, d’améliorer grandement notre connaissance sur l’origine de la prédominance de la matière noire dans les galaxies, quelle que soit leur taille.

mardi 17 janvier 2012

200 Milliards de Planètes, et moi et moi et moi...

On s'en doutait un peu, il faut bien le dire... 
Il n'y avait aucune raison pour que nous soyons une exception, nous et notre système planétaire, ces 8 planètes tournoyant sans fin autour de ce soleil si agréable... Voilà que des astronomes viennent de le démontrer, enfin  : toutes les étoiles possèdent des planètes ! Au moins une planète par étoile...
C'est grâce à la technique de la microlentille gravitationnelle, un effet de la relativité d'Einstein qui fait se tordre les trajectoires des rayons lumineux rencontrant une masse, que ces chercheurs français de l'ESO (European Southern Observatory) ont pu démontrer cette très importante nouvelle. 

Il est vrai que ces derniers temps, il se se passait plus une seule semaine sans qu'une nouvelle exoplanète ne soit trouvée. Nous en sommes à 726 exoplanètes identifiées, mais ce que nous disent Arnaud Cassan de l'Institut d'Astrophysique de Paris et ses collègues dans cet article paru dans Nature le 12 janvier, c'est qu'il y en a au moins 200 milliards rien que dans notre petite galaxie...
Depuis Galilée nous savons que nous ne sommes pas exceptionnels, nous en avons encore une nouvelle preuve éclatante...

Les microlentilles gravitationnelles sont un outil surpuissant  pour trouver des exoplanètes ne pouvant pas être observées autrement. Les étoiles sont utilisées comme autant de petites lentilles qui viennent amplifier la lumière située en arrière plan, et lorsqu'un ou plusieurs planètes gravitent autour de cette étoile-lentille, le phénomène d'amplification est légèrement perturbé. c'est cette signature qu'on utilisé Cassan et al. pour déterminer l'existence massive de planètes. Un travail de longue haleine qui a duré 6 ans grâce à de nombreux télescopes, principalement situés dans l'hémisphère Sud (Afrique du Sud, Chili, et Australie).

Parmi ces dizaines de milliards de planètes, un nombre certain est constitué de planètes de type tellurique, et a fortiori ressemblant fortement à notre petite planète bleue, tout est affaire de statistiques désormais...


jeudi 12 janvier 2012

Une Supernova sans Survivant

Les supernovae de type Ia n'ont pas encore livré tous leurs secrets. Nous ne savons toujours pas très précisément quels types d'étoiles sont impliqués dans ces prodigieuses explosions, ce qu'on appelle leur progéniteurs. Le dernier numéro de Nature nous offre une analyse qui montre l'existence d'un nouveau type de progéniteur, et pas des moindres, puisqu'il s'agit d'un progéniteur qui ne laisse presque rien derrière lui... 

Le modèle classique des supernovae Ia est un couple formé par une naine blanche et une étoile compagnon, qui peut être de différents types : étoile moyenne, subgéante, etc... sauf géante rouge.
La naine blanche accapare de la matière à son compagnon jusqu'à atteindre une masse critique(la fameuse masse de Chandrasekhar), tellement critique qu'elle en explose litteralement, disparaissant en se dispersant en une (bien souvent) jolie bulle de gaz... Et le compagnon reste alors seul, débarrassé de son dévorant trublion de voisin.
SNR 0509–67.5
Mais ce qu'ont observé Schaefer et Pagnotta en cherchant au centre de cette belle bulle rémanente appelée SNR 0509–67.5 située dans le grand nuage de Magellan, c'est qu'il n'y avait rien
 
Pas d'étoile compagnon esseulée, rien de suffisamment lumineux pour être une étoile quelconque dont une partie de la matière aurait pu être croquée par une méchante naine blanche... rien.

Alors, que s'est-il passé il y a 400 ans (pour nous) lors de ce cataclysme stellaire ? Et bien, c'est là que les astrophysiciens montrent toute l'étendue de leur imagination, car au delà du modèle classique appelé de simple dégénérescence, faisant intervenir une seule naine blanche, ils ont inventé le modèle de la double dégénérescence, dans lequel l'étoile compagnon est elle aussi une naine blanche. Et je vous le donne en mille, que ce passe-t-il dans ce modèle explosif ?

Il se passe tout bonnement que les deux naines blanches ont une masse totale qui est supérieure à la masse critique (1.4 fois la masse du soleil seulement), et ce n'est pas l'une des deux qui vole de la matière à l'autre, mais plutôt une fusion des deux étoiles qui a lieu... sauf que cette fusion se termine mal, car l'explosion est ineluctable... Et il ne reste derrière ce beau feu d'artifice que cette enveloppe gazeuse visible dans différentes longueurs d'ondes, petite nébuleuse qui n'a de planétaire que le nom et qui parvient tout de même à en dire long sur l'un des événements les plus violents de notre monde.


mercredi 11 janvier 2012

La Frustration de l'Astronome Amateur

Que voit-on dans nos télescopes ? Sans évoquer la magnitude limite atteignable par un œil entraîné ou une certaine durée de pose (astro)photographique, le fait que nous n’ayons accès qu’à l’Univers visible (je ne fais pas de distinction entre longueurs d’ondes…) peut laisser perplexe au moment où nous jetons nos pupilles dans nos oculaires…

Le prix Nobel de physique a mis en valeur en 2011 l’observation d’une expansion accélérée de l’Univers, qui a été l’origine d’un bouleversement dans nos conceptions cosmologiques il y a à peine 15 ans.

Et pour cause, depuis 1980, nous pensions que l’Univers visible représentait seulement  15% de tout son contenu, le restant étant une matière noire non détectable. Et depuis 1998, nous pensons donc qu’il ne représente plus que 4%... Oh, une broutille. Nous ignorons complètement la nature de 96% de ce qui nous entoure et nous fait. Une broutille, disais-je.

Ce qui veut dire aussi que les beautés que nous observons dans nos télescopes ne seraient en fait que les ombres projetées sur la paroi de la caverne au fond de laquelle nous sommes enchainés, pour reprendre l’image célèbre exposée par Platon dans La République.

Au-delà de la masse manquante et de l’énergie du vide, qualifiées toutes les deux de l’adjectif « noir », comme si l’inconnu était forcément noir,  bien d’autres phénomènes inaccessibles nous le resteront sans doute à jamais. Je pense là encore à des objets affublés de la couleur noire : les trous. On ne parvient qu’à en calculer la masse par des méthodes indirectes. Et la découverte en 2011 des deux trous noirs les plus massifs avec près de 10 milliards de masses solaires chacun, et donc un rayon d’horizon d’environ 200 unités astronomiques ouvre des questions presque existentielles.


Qu’y a-t-il au-delà de ce rayon de Schwarzschild ou de Kerr ? Que ce passe-t-il au fond d’un trou noir ? Que devient toute cette matière (la visible comme la noire dont les trous noirs se repaissent aussi) ? –il est assez amusant de se dire qu’en fait un trou noir n’est « fait » que de 15% de matière ordinaire, mais surtout de 85% de matière … noire ! – Une singularité de l’espace-temps est-elle quelque chose qui existe vraiment ? Cette question même a-t-elle un sens ? Probablement pas puisque nous ne pouvons pas aller vérifier…

L’essentiel des modèles cosmologiques et physiques plus généralement étant construit avec les mathématiques, la question qui vient ensuite est : Pourquoi les mathématiques nous permettent-elles de si bien représenter ce qui se passe autour de nous, même ce qui est invisible pour nos sens ou nos détecteurs ? Inventons-nous les maths ou bien les découvrons-nous ? Les maths préexistent-elles dans l’Univers, par exemple via sa géométrie ?

Ne pouvons-nous découvrir que ce que nous inventons ?


Revient également à l’esprit la question des infinis, depuis la singularité « initiale » jusqu’aux singularités des trous noirs en passant par la topologie des modèles d’Univers qu’offre la cosmologie. Infinis spatiaux et/ou temporels mêlés. Pourquoi l’infini est-il si omniprésent à la fois dans les mathématiques que nous avons inventées (ou découvertes ?) et dans ses applications physiques alors qu’il est si peu imaginable par nos humbles cerveaux ? Curieusement il semble que nous ayons plus de facilités à imaginer un infini temporel plutôt qu’un infini spatial, pourquoi donc ?


Force est de constater que nous ne savons encore rien, et nous ne saurons sans doute jamais rien, ni nous ni nos descendants, sur la nature profonde de tout ce machin qu’on appelle Univers, l’unité dans la diversité : des quarks qui forment des protons et des neutrons, des leptons qui interagissent avec ces nucléons via des bosons divers et variés, ces ensembles se concentrant par leur masse jusqu’à créer des étoiles et des ensembles de centaines de milliards d’étoiles, baignées dans des halos de particules furtives mais massives, ces galaxies si esthétiques que nous admirons sous tous les angles de vue possibles...


Comment se résoudre à cette frustration au moment de collimater son Newton ? Se dire qu’il y a dèjà tant d’objet à admirer pour les amateurs que nous sommes. Se dire que notre univers à nous, astrams, est l’Univers visible et parmi cet Univers visible, seulement celui qui nous envoie des photons entre 400 et 800 nanomètres de longueur d’onde. Un trou de serrure sur 4% de l’Univers… 

Le champ le plus lointain observé par le télescope Hubble (NASA/ESA)
Et se dire surtout que l’astronomie est la science la plus ancienne mais sans doute une science encore techniquement très jeune en plein essor.  Songez qu’il y a moins de 100 ans il n’existait qu’un seul télescope de plus de 2,5 m de diamètre et que les galaxies n’ « existaient » pas, on ne savait pas non plus que l’Univers était en expansion, encore moins en expansion accélérée, on ne connaissait rien au cycle de vie des étoiles, on n’avait aucune idée de ce qu’était un trou noir, ou encore un pulsar… il y a moins de 100 ans…

Pour résoudre cette frustration intrinsèque à notre passion, peut-être que le plus simple est de se dire que nous avons une chance inouïe. Nous avons la chance de vivre autour d’une seule étoile, ou encore autour d’une étoile qui n’a pas de compagnon proche. Nous ne vivons pas à la périphérie d’un amas globulaire par exemple, et c’est une chance incroyable. 


Car imaginez un instant si nous avions une ou plusieurs étoiles très proches - donc très brillantes -dans notre ciel en plus du soleil, qui par exemple seraient visibles toute la nuit (du soleil principal). Que ce serait-il passé ? 


Nous n’aurions jamais pu observer visuellement les étoiles lointaines, le ciel « nocturne » étant constamment d’une pâleur crépusculaire ; nous ne nous serions donc jamais intéressés à ce qui se passe là-haut (hormis aux quelques étoiles trop visibles); nous ignorerions totalement l’existence des nébuleuses, encore moins des galaxies, et nous ne pourrions même pas imaginer leur existence, n’ayant pas d’exemple à observer. Nous n’aurions jamais construit de modèles cosmologiques tels que ceux qui sont les nôtres aujourd’hui. Nous aurions dans nos têtes un Univers étrange dont les lois seraient fondées à partir de l’existence de seulement quelques étoiles très brillantes.


Quel serait donc cet Univers ? Savourons la chance qui est la nôtre en pensant aux civilisations lointaines qui ont la malchance de subir un tel environnement et oublions notre frustration en profitant pleinement de la nuit … noire !



lundi 9 janvier 2012

L'Univers noir cartographié comme jamais !

Enfin ! Enfin on voit cette matière! Elle n'est plus noire!... Juste un peu sombre...

La première carte de la matière noire a été présentée aujourd'hui à Austin (Texas), au cours du 219ème congrès de l'American Astronomical Society. C'est surtout la plus grande jamais réalisée puisqu'elle couvre plus d'un milliard d'années lumières...

Carte de la matière noire, crédit : Van Waerbeke, Heymans et CFHTLens collaboration

La matière noire (23% de tout le contenu de l'Univers et 85% de toute la matière) qu'on ne peut pas voir habituellement car ne produisant que des effets gravitationnels, a pu tout de même être cartographiée par cette équipe Ecossaise grâce au télescope CFHT (3.6 m) de Hawaï, grâce justement aux déviations de la lumière produites par les concentrations de masse de matière noire autour et au sein des galaxies...

On savait déjà faire ce type de mesure, mais là, il s'agit d'une autre échelle ! 10 millions de galaxies ont été mises à contribution...
Il apparaît que certains amas observables en rayonnement visible sont également de fortes concentrations de matière noire.

C. Heymans et al. nous promettent de multiplier encore par un ordre de grandeur (facteur 10) la taille de cette jolie carte d'ici à quelques années seulement...


source : Ciel&Espace.


Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telr

vendredi 6 janvier 2012

La Musique des Etoiles...

Les étoiles font de la musique. C’est ce que parviennent à observer les astronomes exploitant le télescope spatial Kepler à la recherche d’exoplanètes.
Quel est le rapport entre les exoplanètes et la « musique » des étoiles ? Cette « musique » est en fait une série d’ondes acoustiques parcourant l’intérieur des étoiles. Ces ondes acoustiques sont provoquées par des turbulences ayant lieu à la surface des étoiles, qui se propagent ensuite dans toute l’étoile en formant des résonances.

Les fréquences de résonances dépendent étroitement de la taille de l’étoile, ainsi que de sa composition et donc de sa masse. Et par quoi se traduisent ces phénomènes acoustiques ? Et bien par des variations périodiques de très faible intensité (de l’ordre de 1/1000) de la luminosité de l’étoile. C’est justement ce type de signal qui est recherché par le satellite Kepler pour mettre en évidence la présence d’exoplanètes autour des étoiles.
Exemple de modes de vibration

De fait, le télescope Kepler est utilisé pour deux recherches très différentes, à la fois sa recherche principale (les exoplanètes) et une recherche secondaire sur l’étude acoustique des étoiles. On appelle cette dernière branche de l’astrophysique l’astérosismologie, ou encore la musique des étoiles...


L’asterosismologie avait été révolutionnée une première fois par le satellite Corot lancé en 2006, puis quelques années seulement plus tard maintenant avec Kepler, qui est neuf fois plus sensible que Corot et permet d’écouter plusieurs centaines d’étoiles en même temps. Avant Corot, l’asterosismologie ne pouvait se limiter qu’aux 20 étoiles proches les plus brillantes, à cause de la turbulence de l’atmosphère terrestre qui empêchait de voir ces très faibles variations de luminosité, petites notes de musiques noyées dans un bruit assourdissant…
Heureusement, les signaux produits par les résonances acoustiques des étoiles et par les transits d’exoplanètes n’interfèrent pas entre eux : alors que les variations acoustiques de luminosité ont des périodes temporelles de l’ordre de quelques minutes, celles liées au transit de planètes ont des durées de l’ordre de l’heure.

Les planétologues travaillent ainsi en toute sérénité avec les asterosismologues sur les mêmes données.
Il y a quelques mois une équipe de musicologues (d’astérosismologues) a étudié un groupe de 500 étoiles avec Kepler pour en déduire leur masse et vérifier les modèles d’étoiles communément utilisés. L’analyse des fréquences et des amplitudes a permis de montrer que la masse de ces étoiles se situait dans la bonne fourchette, mais cependant était légèrement inférieure à ce qui était prévu, pouvant avoir pas mal d’implications sur les modèles de formation de galaxie ou autres. L’asterosismologie s’avère être un outil puissant.

Elle a aussi permis à une autre équipe d’étudier en détail le fonctionnement de l’intérieur de ces grosses caisses que sont les géantes rouges, et ont pu mesurer la vitesse de rotation du cœur de ce type d’étoile. Ils trouvent ainsi un cœur compact tournant dix fois plus vite que la surface, comme on s’y attendait de par nos modèles de formation des géantes rouges avec contraction du cœur et expansion de l’enveloppe, mais aussi par la physique classique et la conservation du moment cinétique, tel le patineur qui tourne plus vite sur lui-même lorsqu’il ressert les bras…

D’autres astrophysiciens voudraient pouvoir relier les oscillations acoustiques des étoiles à leur éventuel cycle magnétique comme il en existe un pour notre Soleil. Mais pour cela, le suivi d’une étoile donnée devrait se faire sur une dizaine d’années et Kepler doit cesser son activité à la fin 2012…
Des deux domaines de recherche dédiés au satellite Kepler, des petits malins ont proposé de n’en faire qu’un, également dans le but de prolonger au maximum cette mission, dont le satellite aurait suffisamment de ressources pour vivre jusqu’en 2020.
Ils proposent d’associer la musique avec la danse : associer les résultats obtenus sur la taille des étoiles avec ceux obtenus sur le transit des exoplanètes pour une même étoile. En effet, la taille des exoplanètes détectées lors de leur transit est obtenue relativement à la taille de l’étoile. Or cette dernière peut être parfois assez mal connue… sauf par l’analyse acoustique !
L’asterosismologie donne alors la taille de l’étoile, l’explanétologie fournit la taille relative de la planète et ensemble, ces deux résultats fournissent la dimension précise de l’exoplanète… Cette méthode pourrait être très prometteuse pour les petites exoplanètes de la taille de la Terre par exemple…

biblio :
Kepler’s surprise: The sounds of the stars
Ron Cowen
Nature 481 (04 January 2012)

Voir aussi :

Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

jeudi 5 janvier 2012

Le chaînon manquant entre galaxies naines et amas globulaires


Le numéro A3 du volume 537 de Astronomy & Astrophysics nous offre les résultats d’une enquête menée par une équipe d’astronomes de l’ESO (European Southern Observatory) au sujet d’objets encore un peu mystérieux que l’on appelle les galaxies naines ultra compactes (GNUCs, ou UCDs en anglais). 
Ces UCDs sont connues pour former une classe de systèmes stellaires nombreuse depuis maintenant une dizaine d’années. Mais elles restent mystérieuses notamment par leur morphologie très compacte, montrant généralement une taille entre 30 et 300 années-lumière pour une masse dépassant le million de masses solaires.

Plus généralement, leurs caractéristiques (taille, forme ou luminosité) sont similaires à la fois à celles de galaxies naines et à celles d’amas d’étoiles (amas globulaires). 
Omega Centauri
Plusieurs centaines de GNUCs ont déjà été découvertes et deux hypothèses ont été émises au sujet de leur formation : soit il s’agit d’amas globulaires très massifs, soit il s’agit de galaxies naines « normales», mais déformées par de forts effets de marée.
 
S. Mieske, M. Hilker, et I. Misgeld de l’ESO, ont voulu trancher ces deux hypothèses. Pour cela, ils ont conduit une étude statistique sur la population des GNUCs. Ils ont comptabilisé les GNUCs dans différents amas de galaxies, en fonction de la luminosité de leur environnement.
Ils parviennent ainsi à établir que si les GNUCs sont des amas globulaires très brillants, nous ne devrions qu’en trouver seulement un ou deux dans le voisinage proche de notre galaxie. Et c’est ce qui est exactement observé. Le seul objet satellite de notre galaxie et qui peut être considéré comme une GNUC est le célèbre Omega Centauri.

A l’aide de leur nouvel outil statistique, les auteurs ont étudié à l’aide du VLT non seulement le groupe Local mais aussi des amas de galaxies comme l’amas du Fourneau, de l’Hydre, ou du Centaure.
Ils montrent clairement que la distribution de luminosité des GNUCs correspond très bien à celle des amas globulaires les plus brillants. Cela corrobore l’hypothèse que la très grande majorité des GNUCs sont en fait des amas globulaires très massifs.

Cette étude montre que d’un point de vue statistique, il n’apparaît aucun besoin d’invoquer un autre scénario pour expliquer l’origine de ces galaxies naines ultra compactes… qui n’en sont donc pas…


Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

mercredi 4 janvier 2012

Un peu de gaz pour notre Trou Noir

La source radio Sgr A* située dans le Sagittaire est connue depuis plusieurs années comme étant le site du trou noir supermassif situé au centre de notre galaxie, la Voie Lactée. C’est un peu « notre » trou noir.

Une récente étude des orbites stellaires aux alentours a mis en évidence un objet se déplaçant vers Sgr A* à une vitesse de 1700 kilomètres par seconde. La revue Nature en fait la Une de son premier numéro de l’année.

La basse température et les propriétés spectrales de cet objet indiquent qu'il s'agit d'un nuage de poussières et de gaz ionisé, ayant trois fois la masse de la Terre et un diamètre de 250 UA, et qui est en train de tomber dans le trou noir. Les modèles astrophysiques prédisent que lorsque le nuage va se rapprocher du trou noir, les émissions de rayons X vont devenir beaucoup plus importantes, et une bouffée géante de rayonnement pourrait être émise à partir de 2013 si le nuage se disloque et nourrit le trou noir de son gaz.

D'après les observations faites en longueurs d’ondes radio, infrarouge et rayons X, nous savons que de la matière tombe en permanence dans le trou noir supermassif qui réside au centre de la Voie Lactée.

Quand cette matière gazeuse plonge vers le trou noir, elle se réchauffe et émet un rayonnement électromagnétique en grande quantité, ce qui permet de «voir» l'environnement immédiat du trou noir comme une source, qui est connue sous le nom de Sagittarius A* (ou Sgr A *).

Durant la décennie au cours duquel les chercheurs ont suivi son émission, Sgr A* a montré quelques variations sur des périodes de quelques minutes à quelques heures – liées sans doute à des inhomogénéités ou des instabilités dans son phénomène d'accrétion.

Mais sur de plus longues périodes, son émission moyenne est restée relativement stable. Cela risque fort de ne plus être le cas longtemps…

Simulation des trajectoires possibles (pas à l'échelle) (Nature)


Gillessen et al., qui signent la découverte de cette bulle de gaz dans ce même numéro de Nature, estiment que la distance la plus proche du nuage par rapport au trou noir aura lieu à la mi-2013.

Mais bien avant 2013 et même déjà maintenant, ce nuage doit déjà commencer à être perturbé par les instabilités dynamiques et les forces de marée du trou noir.

Selon les auteurs, le gaz va se retrouver dispersé sur un vaste éventail de trajectoires orbitales, et certaines d'entre elles pourraient s'accréter sur le trou noir au deuxième semestre 2013, conduisant éventuellement à un regain important de luminosité (et sur une longue durée !) de Sgr A*.



Cette bouffée prédite - avec précaution tout de même -  serait un outil précieux pour sonder l'environnement immédiat entourant le trou noir, au sujet duquel on sait encore peu de choses.

Ce que nous savons est que le taux moyen d'accrétion de masse qui est à l’origine de l'émission de Sgr A* est exceptionnellement faible, ce qui explique pourquoi notre trou noir galactique est si difficilement observable. Le fait que nous pouvons tout de même le détecter est largement dû à sa proximité – sa distance de la Terre est environ 100 fois plus proche que le plus proche trou noir supermassif, situé dans un autre noyau galactique, celui d'Andromède.

Nous savons aussi que le gaz est chauffé par l’accrétion à tel point que les particules individuelles de gaz approchent presque la vitesse de la lumière, et que l'émission observée émane d'un vrai maelström magnétohydrodynamique. Mais les paramètres de base de ce régime d’accrétion à faible taux sont encore mal compris. S’agit-il d’un disque d’accrétion bien défini ou d’un système de jets de matière comme on en connait dans de nombreuses autres galaxies ?

Le nuage de gaz poussiéreux de Gillessen et ses collègues, dont on connaît assez bien les caractéristiques dynamiques pourrait ainsi offrir une nouvelle perspective sur la géométrie et la dynamique de l'écoulement d'accrétion de « notre » trou noir à nous.


L'échelle de ce nuage de gaz et de poussière est très modeste: avec un rayon d'environ 120 UA et une masse de seulement environ trois fois celle de la Terre, il a le statut d'un minuscule fragment d'un nuage dense interstellaire.

Cela soulève d'importantes questions quant à savoir si il restera cohérent lors de son grand plongeon autour de Sgr A*.

Le sort inévitable d'une telle goutte de gaz semble inexorablement être la fragmentation. On peut aussi se demander pourquoi ce n’est pas déjà arrivé à ce petit nuage.

Gillessen et al. ont effectué une simulation numérique de la manière dont la force de marée du trou noir pourrait perturber un petit nuage, et leurs résultats semblent être conformes à leur observation d'un allongement progressif de la goutte, jusqu’à produire une sorte de queue de gaz.

Mais il sera nécessaire d'ajouter de nouveaux calculs hydrodynamiques de ce phénomène afin d'évaluer si le petit nuage que les auteurs ont découvert pourrait survivre assez longtemps au plongeon violent pour déposer une quantité importante de matière à proximité du trou noir.

On pourrait également envisager la possibilité que le nuage de gaz soit en fait lié plus fortement avec une masse annexe beaucoup plus grande que le nuage – par exemple une étoile relativement petite ou un trou noir de masse stellaire - liant le gaz poussiéreux sous la forme d'un disque circumstellaire.

Orbitant autour de Sgr A*, ce système subissant les forces de marée du trou noir lors de son approche à sa plus faible distance, pourrait quand même fournir une grosse quantité de carburant au disque d’accrétion et produire un beau sursaut de luminosité que ne manqueront pas de scruter bon nombre de télescopes sur Terre et en orbite.

Sources :

Astrophysics: The final plunge 
Mark Morris 
Nature 481, 32–33  (05 January 2012)

A gas cloud on its way towards the supermassive black hole at the Galactic Centre 
Gillessen et al. 
Nature 481, 51–54 (05 January 2012)




Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad