dimanche 30 novembre 2014

Le Plutonium de l'Espace

La NASA est aujourd'hui très anxieuse de devenir à court de plutonium-238. Le plutonium-238 (Pu-238) est cet isotope du plutonium qui est très intéressant à utiliser dans une sonde spatiale devant voyager très longtemps et très loin. 


Une pastille d'oxyde de plutonium 238 destinée à une RTG.
Elle rougeoie sous l'effet de sa chaleur interne produite par
radioactivité alpha.

C'est vers le début des années 1960 que fut inventé le concept de générateur thermique à radioisotope (RTG, Radioisotope Thermoelectrioc Generator). Le principe repose sur l'effet thermo-couple, qui fait que certains matériaux, quand ils ont un côté froid et un côté chaud, se mettent à produire un courant électrique entre les deux extrémités. Il est donc assez facile de créer une source d'énergie électrique à partir d'une source de chaleur.
Et le Pu-238 est une source de chaleur "naturelle". Enfin, ce n'est pas un isotope radioactif naturel, car il est produit par l'homme, mais il chauffe naturellement grâce à sa radioactivité alpha. Cet isotope est d'ailleurs sympathique parmi tous les autres isotopes radioactifs, parce qu'il n'émet que du rayonnement alpha, aucune émission gamma ou neutronique n'accompagne cette décroissance radioactive, qui donne de l'uranium-234, ce qui permet de le manipuler assez facilement.
C'est donc tout naturellement que les premiers générateurs thermiques à radioisotope ont employé le Pu-238 comme source primaire d'énergie, et de très nombreuses sondes spatiales américaines et satellites russes, ont exploité des RTG au Pu-238. 
La demie-vie radioactive du Pu-238, la durée au bout de laquelle il a perdu la moitié de sa radioactivité, vaut environ 88 ans, ce qui permet de fournir à un engin spatial une énergie presque stable et continue durant des dizaines d'années. C'est notamment grâce à cette source d'énergie que nous pouvons continuer à suivre les données des sondes Voyager qui quittent aujourd'hui le système solaire près de 40 ans après leur lancement.

Depuis les années 50, du Pu-238 était produit comme un résidu de la fabrication (massives) des armes nucléaires, aux Etats-Unis et en Union Soviétique. C'est sans doute pour cette raison que ni les européens ni les japonais n'ont développé cette technologie des RTG pour leurs sondes respectives, ils ne disposaient pas assez (pour les anglais et français) ou pas du tout (pour les japonais) de Pu-238. 

Mais les américains vivent sur leurs stocks depuis le début des années 1990, depuis que l'usine de Savannah River a fermé ses portes et ne produit plus de Pu-238.
Schéma d'un des 3 RTG de type GPHS de la
sonde Cassini en orbite autour de Saurne.
(NASA/JPL)
La NASA dispose donc aujourd'hui de seulement 35 kg de plutonium pour fabriquer des RTG, mais plus de la moitié semble déjà inutilisable car ayant une puissance thermique déjà trop faible. C'est un réel problème, car les programmes futurs de la NASA ont un besoin énorme d'énergie car la plupart ont lieu à très longue distance, où des panneaux solaires ne servent plus à grand chose.
Aujourd'hui, les sondes équipées d'un RTG au plutonium sont parmi celles qui nous ont apporté ou qui vont nous apporter les plus beaux résultats : outre les deux Voyager, on peut citer les expériences scientifiques des missions lunaires, les sondes Pionner 10 et 11, les sondes Cassini (autour de Saturne), Ulysses (autour du Soleil), Galileo (Jupiter), New Horizons (Pluton et au delà), mais aussi sur Mars, les atterrisseurs Viking 1 et 2 et le plus récent Curiosity, toujours en activité.
Mais avec 15 kg de plutonium-238, on ne fabrique pas beaucoup de RTG et on ne propulse pas beaucoup de sondes... il n'est qu'a rappeler que la sonde Cassini a elle seule est munie de trois RTG pour une masse totale de plutonium de près de 24 kg! New Horizons est moins gourmande avec seulement 1 kg de Pu-238, mais Curiosity en utilise 4 kg et le prochain rover martien de la NASA prévu pour 2020 en utilisera déjà 5 kg...

Face à cette situation plus qu'alarmante, la NASA avait proposé de lancer la conception d'une nouvelle génération de générateurs thermiques, permettant de consommer 4 fois moins de plutonium, un générateur nommé ASRG fondé sur un cycle thermodynamique de Stirling, mais des coupes budgétaires fin 2013 ont mis un terme à ce programme (lire à ce sujet Adieu planètes lointaines). La NASA a dû faire un choix, et ce choix a été celui de relancer tant bien que mal la production de Pu-238. 

La NASA vient donc de passer un contrat avec le DOE américain (Department Of Energy) pour la fourniture de 1,5 kg de plutonium par an à partir de 2021, pour un montant de 50 millions de dollars/an. Elle pourra ainsi produire environ un RTG tout les 4 ans à partir de cette date, mais pas plus, soit deux missions par décennie.

Intégration du RTG au plutonium (en noir) sur la sonde
New Horizons en 2005 (NASA)
Produire 1,5 kg d'oxyde de plutonium-238 par an (soit 1,1 kg de Pu-238 pur) n'est pas du tout facile, fut-ce pour un pays comme les Etats-Unis. LE DOE va mobiliser trois grands centres de recherche. La production se fait à partir du retraitement du combustible usé de centrales nucléaires : on en sépare chimiquement le neptunium-237 dans l'Idaho, au Idaho National Laboratory, puis ce neptunium-237 métallique est mis sous forme de petites pastilles, mises dans des gaines pour former des crayons qui vont ensuite être mis dans le cœur d'un des réacteurs produisant le flux de neutrons le plus intense, le High Flux Isotope Reactor à Oak Ridge National Laboratory dans le Tennessee. Le flux de neutrons va produire le précieux Pu-238 par capture neutronique par le Np-237 (pour seulement 10 à 12% du neptunium initial). Le plutonium-238 est ensuite extrait du réacteur pour être reconditionné sous forme de pastilles d'oxyde de plutonium, au Los Alamos National Laboratory (Nouveau Mexique), avant de pouvoir être livré au Jet Propulsion Laboratory de la NASA basé en Californie.

Mais tous ces efforts pour produire plus de plutonium risquent d'être encore très insuffisants, si la NASA a besoin d'énergie pour une exploration spatiale habitée, comme elle le suggère en imaginant visiter un astéroïde ou Mars. Car, alors qu'une sonde planétaire nécessite une puissance électrique entre 300 et 900 Watts, il en est tout autre dans le cas d'un gros vaisseau habité vers l'espace lointain qui aura besoin de dizaines de kilowatts. Des rapports internes de la NASA suggéreraient déjà l'idée de passer à la gamme supérieure : un réacteur nucléaire à fission... Une solution qui a n'a jamais été retentée dans l'espace depuis 1965.


Source :

Nuclear power: Desperately seeking plutonium
Alexandra Witze
Nature 515, 484–486 (27 November 2014)

vendredi 28 novembre 2014

Hayabusa-2 : encore mieux que Rosetta/Philae

Alors que l'on vient d'apprendre que Philae pourrait être réactivé aux environs du mois de Mars, une autre sonde/robot est actuellement sur son pas de tir, en attente de décoller (Lundi 1er décembre si la météo est favorable), pour aller à la rencontre d'un autre vestige du système solaire : un astéroïde. Cette sonde Japonaise de la Japan Aerospace Exploration Agency (JAXA), nommée Hayabusa-2 recèle encore plus de subtilités que Philae.



Hayabusa-2 explorant 1999 JU3 (Akihiro Ikeshita/JAXA)

Hayabusa-2 a pour objectif un astéroïde venant de la ceinture d'astéroïdes située entre Mars et Jupiter. Son petit nom est 1999 JU3 et avec ses 900 m, il a une taille plus petite qu'un noyau de comète, mais tout aussi intéressant à étudier. Car Hayabusa-2 va rapporter des échantillons sur Terre!
Les Japonais n'en sont pas à leur première. Si vous vous souvenez, la première sonde Hayabusa avait réussi à toucher l'astéroïde Itokawa en 2005 et avait pu rapporter quelques grains de poussière en 2010, après des péripéties et pas mal d'avaries. C'était déjà une première mondiale. L'analyse de ces échantillons avait pu à l'époque démontrer l'existence d'un lien entre les compositions chimiques de certains astéroïdes et des météorites tombant sur Terre. 
Avec cette deuxième Hayabusa, les chercheurs japonais montent un cran au-dessus, car pour étudier de très près 1999 JU3, qui est un astéroïde de type C (très riche en carbone), ils ont prévu non seulement de récolter des échantillons de surface avec trois récupérateurs, mais aussi de déposer un robot sur la surface pour analyser in situ, et Hayabusa-2 emporte également un perforateur explosif, qui devra produire un beau cratère sur l'astéroïde pour pouvoir ensuite analyser la nature du matériau de subsurface. Rien que ça!..

Si le lancement se passe comme prévu, Hayabusa-2 fera un tour complet du Soleil avant de repasser près de la Terre et rebondir gravitationnellement pour enfin arriver auprès de 1999 JU3 en juillet 2018. Arrivé à destination, il restera à proximité durant 18 mois afin de cartographier le plus précisément toute la surface de l'astéroïde, ainsi que caractériser sa rotation, pour pouvoir choisir où atterrir.

Hayabusa-2 est notamment équipé d'un imageur infra-rouge qui permettra de repérer la quantité de chaleur dégagée par 1999 JU3 et comment sont distribués les différents minéraux en surface.
Intégration de MASCOT (DLR)
Le principe imaginé pour récolter des échantillons est fondé sur une approche de la sonde en orbite à très très basse altitude : elle va frôler la surface en tendant une sorte de perche au bout de laquelle se trouve un petit gobelet qui grattera la surface. 
Elle fera ce type d'approche par trois fois. Mais c'est avant la troisième fois qu'entrera en scène le fameux perforateur explosif, afin de pouvoir ramasser le matériau expulsé par le choc ayant produit un cratère de diamètre orévu entre 2 m et 7 m!).
Et ce n'est pas tout, car Hayabusa-2 a son "Philae" a elle : il s'appelle MASCOT (Mobile Asteroid Surface Scout), c'est un tout petit rover pas plus gros qu'une boite à chaussures, mais bourré d'électronique dans ses quatre instruments, qui pourra se déplacer par bonds successifs. On y trouve bien sûr un imageur, pour nos beaux yeux, ainsi qu'un microscope et deux autres instruments d'analyse. MASCOT est géré par le centre spatial allemand en collaboration avec la JAXA, l'ESA et le CNES et sera contrôlé par la même équipe qui contrôle aujourd'hui Philae.
L'expérience acquise avec Philae va pouvoir être utilisée à plein pour la mise en oeuvre de MASCOT. Les scientifiques ont par exemple déjà modifié leurs programmes pour mettre en route MASCOT le plus tôt possible à son arrivée à la surface, pour parer à toutes les éventualités et récupérer le maximum de données avant une éventuelle panne d'énergie.
Et Hayabusa-2 lancera aussi sur 1999 JU3 trois autres petits robots appelés MINERVA qui prendront plein de photos, à la japonaise...

Hayabusa-2 quittera ensuite son astéroïde en 2019 pour revenir sur Terre avec ses précieux échantillons. Elle devrait atterrir en décembre 2020 en Australie...

L'exploration des petits corps ancestraux du système solaire ne fait que commencer et va aller en s'accentuant. Alors que Hayabusa-2 sera sur son chemin, en 2016, ce sont cette fois-ci les américains qui lanceront leur mission de récupération d'échantillon astéroïdal, avec la sonde OSIRIS-REx, qui aura pour objectif un astéroïde nommé Bennu, plus petit que 1999 JU3, mais  a priori tout aussi riche en matière carbonée...

Une collaboration entre les deux équipes est déjà prévue pour comparer les deux astéroïdes...

Références  :
Japan to assault asteroid
Dennis Normile
Science Vol. 346 no. 6213 p. 1040 (28 November 2014)

Japanese asteroid probe delayed
Alexandra Witze
Nature News (28 November 2014)

mercredi 26 novembre 2014

Des rayons cosmiques plus riches que prévu

Après plusieurs décennies d'études, les chercheurs se demandent encore de quoi sont fait les rayons cosmiques ultra-énergétiques, en provenance des confins de la Galaxie. On sait qu'il s'agit de particules chargées très énergétiques, avec deux modèles physiques en concurrence : une dominante de protons ou bien une majorité de noyaux de fer. Mais de nouveaux résultats du laboratoire Pierre Auger viennent secouer les modèles établis.



Vue artistique de gerbes de rayons cosmiques ultra-énergétiques
(ASPERA/Novapix/L. Bret)
Les rayons cosmiques ultra-énergétiques (UHECR) ne sont pas trop problématiques ici au niveau de la mer, mais ils deviennent une véritable embûche, quel que soit le type de particule, dès lors que l'on souhaite voyager plus de quelques mois dans l'espace loin du champ magnétique protecteur de la Terre (voir à ce sujet le concours lancé par la NASA au sujet des voyages vers Mars). Et connaître leur composition exacte est surtout fondamental pour savoir quelle est leur origine. 
Savoir de quoi ils sont fait nous dit d'où ils viennent : trous noirs, supernovas, ou collisions de galaxies... Le point commun des ces potentielles origines est la violence du phénomène en jeu, nécessaire pour produire des accélérations considérables menant ces particules à des vitesses proches de la vitesse de la lumière.
La collaboration Pierre Auger a installé un vaste observatoire dédié à la détection des traces de ces rayons cosmiques ultra énergétiques. Le bien nommé Laboratoire Pierre Auger, du nom d'un pionnier français de la physique des particules, est situé en Argentine et constitué de multiples détecteurs Cherenkov (1600 cuves instrumentées remplies d'eau) répartis sur des dizaines de kilomètres carrés. Ces détecteurs permettent de détecter depuis 8 ans différents types de particules secondaires formant de très grandes gerbes de millions de particules produites par l'interaction d'un seul rayon cosmique au sommet de l'atmosphère.

Ce que les physiciens d'Auger montrent de très nouveau dans leur étude parue en preprint il y a quelques semaines, c'est que, outre protons ou noyaux de fer, d'autres noyaux de masse moyenne, comme l'hélium ou l'azote semblent former une part significative dans le mix de ces rayons cosmiques.
Un des 1600 détecteurs du Laboratoire Pierre Auger
(Auger Collaboration)
Le principe qui a permis aux physiciens de la collaboration internationale Auger de déterminer la nature des particules primaires à l'origine des gerbes observées est fondé sur la mesure de la profondeur de pénétration de la gerbe de particules secondaires à son développement maximum. Plus le rayon cosmique primaire produit une gerbe qui s'enfonce profondément dans l'atmosphère et se rapproche du sol, plus il devrait être léger.

Les rayons cosmiques interagissent avec les atomes constituants l'atmosphère, de très nombreuses particules sont alors créées, ce qu'on appelle une gerbe, ou cascade : on y trouve tout d'abord des mésons pi neutres qui vont très vite se désintégrer en photons gamma énergétiques, qui à leur tour produiront des électrons et des positrons, qui formeront de nouveaux rayons gamma (on appelle cette contribution la gerbe électromagnétique), la particule primaire dans ses interactions sur les noyaux d'azote ou d'oxygène de l'atmosphère produira aussi des mésons pi chargés (+ ou -), qui se désintégrerons rapidement en muons et antineutrinos. Ces muons pourront au choix atteindre le sol (pour la majorité d'entre eux) ou bien se désintégrer avant d'y parvenir, en produisant électrons et antineutrinos électroniques, l'électron pouvant à nouveau entrer dans une cascade électron/gamma. L'autre composante dans la gerbe est ce qu'on appelle la composante hadronique : le rayon cosmique incident, par son énergie colossale (qui peut atteindre l'énergie de masse de 1 milliard de protons), va littéralement casser des noyaux d'atome, en produisant des fragments de noyaux et surtout des protons et des neutrons, qui pourront eux aussi atteindre le sol, ou finir capturés , tout en produisant des photons gamma.

Principe de la détection du Laboratoire Auger (Gilles Maurin)
Par exemple, un proton ultra-énergétique s'enfoncera plus près du sol avant de produire sa gerbe que ne pourra le faire un noyau de fer, qui interagira plus vite au cours de sa descente. 
Les physiciens d'Auger ont donc minutieusement mesuré les altitudes (après reconstruction des traces  (invisibles!) de particules des gerbes à leur maximum, et ensuite comparés ces résultats avec des modèles informatiques en faisant varier la composition des particules primaires, celles qui arrivent en premier tout en haut de l'atmosphère.
La nouveauté que cette nouvelle étude apporte se trouve dans la façon d'analyser les données : auparavant, on ne considérait qu'une valeur moyenne et un écart-type pour la profondeur, dans une série de gerbes ayant une énergie donnée. Là, toutes les gerbes pour une énergie donnée ont été analysées une par une. C'est grâce à cette méthode que les chercheurs ont pu mettre en évidence la présence très probable de noyaux atomiques intermédiaires dans la composition des rayons cosmiques ultra-énergétiques, noyaux d'hélium et/ou d'azote... à moins que les modèles de production des gerbes ne soient complètement à revoir...

Les détecteurs du Laboratoire Pierre Auger continuent aujourd'hui leur quête quasi quotidienne à la recherche des rayons cosmiques les plus énergétiques, qui sont aussi les plus rares, mais très riches d'informations sur ce qui peut se passer à des milliers ou des millions d'années-lumière.


Référence : 
Depth of Maximum of Air-Shower Profiles at the Pierre Auger Observatory: Composition Implications
Auger Collaboration

vendredi 21 novembre 2014

La NASA a besoin de vos idées, et vous paye!

La NASA a un gros problème : elle veut faire voyager des astronautes vers Mars, mais la dose de rayonnement due aux rayons cosmiques galactiques (GCR) est trop importante, je vous en avais parlé ici fin janvier 2014. Il semble bien que les ingénieurs de la NASA soient à court d'idées pour parvenir à réduire ces doses, car aujourd'hui, la vénérable institution appelle les simples citoyens pleins de neurones à proposer des idées pour réduire la dose des futurs astronautes.. Et la NASA paye ! Il s'agit en fait d'une sorte de concours d'innovation, qui est récompensé par un prix total de 12000 $, sachant que plusieurs idées pourront être récompensées, avec la plus brillante recevant un prix d'au moins 5000 $ et les autres 1000 $ minimum... C'est via son Center of Excellence for Collaborative Innovation (CoECI) situé au Johnson Space Center à Houston que la NASA lance cet appel à idées innovantes et elle en a délégué l'organisation de cette consultation à une société prestataire : InnoCentive Inc.

Les GCR sont composés de protons et autres noyaux d'atomes ionisés très très énergétiques, qui proviennent d'on ne sait pas trop où, en tout cas probablement de notre propre galaxie. Et ils induisent des doses dans le corps des astronautes et tout autre système organique notamment via des réactions produisant des particules secondaires ionisantes. Mais je ne vais peut-être pas vous en dire trop, c'est que j'ai bien envie de participer à ce petit concours, moi... et j'ai quelques idées... L'objectif est de réduire la dose par un facteur 4, ce qui semble presque imaginable pour le physicien que je suis...

Si vous cela vous tente aussi, sachez que la date limite pour rendre votre copie est le 15 décembre.

Et pour tout savoir, rendez-vous ici : 
ainsi que là : 

mercredi 19 novembre 2014

Observation d’un alignement étrange des quasars à très grande échelle

C’est une observation assez incroyable. Un alignement des axes de rotation de dizaines de quasars, s’étendant sur plusieurs milliards d’années-lumière, a pu être observé grâce au télescope VLT de l’ESO. Ces quasars, trous noirs supermassifs rayonnants fortement par leur disque d’accrétion de matière, apparaissent alignés sur la structure à grande échelle de l’Univers jeune, leur axe de rotation étant systématiquement aligné sur la direction du filament cosmique de matière qui les contient, et ce sur plusieurs milliards d’années-lumière…



Vue d'artiste de l'alignement de l'axe de rotation des quasars (ESO/M. Kornmesser)
C’est une équipe d’astrophysiciens belges qui publie cette observation étonnante dans la revue Astronomy & Astrophysics de décembre.  Damien Hutsemékers et ses collègues de l’Université de Liège ont exploité le spectrographe  FORS (FOcal Reducer and low dispersion Spectrograph) du Very Large Telescope pour étudier un échantillon de 93 quasars connus auparavant pour former des groupes s’étalant sur plusieurs milliards d’années-lumière, à une distance de plus de 9 milliards d’années-lumière d’ici.
La première chose intriguante que les chercheurs belges ont relevé est l’alignement des axes de rotation de plusieurs quasars entre eux, alors qu’ils étaient séparés de plusieurs milliards d’A.L. Et puis ils ont ensuite regardé si ces alignements étaient liés aux structures de matière à grande échelle (la distribution des galaxies). Il faut ici rappeler que la structure à grande échelle de l’Univers montre une répartition des galaxies et amas de galaxie qui forme de vastes filaments formant comme des surfaces de très grandes bulles « vides », en tout cas beaucoup moins denses en galaxies.
La réponse fut sans appel : les quasars observés sont répartis sur les filaments de matière formant cette vaste toile cosmique, et oui, leur axe de rotation est bel et bien aligné sur l’ « axe » du filament dans lequel ils se trouvent, systématiquement et sur des échelles de distance considérables….
Simulation des grandes structures cosmiques
(côté de 300 millions d'années-lumière)
(ESO/Collaboration Illustris)
Les astrophysiciens ont calculé la probabilité que de tels alignements des axes de rotation des trous noirs supermassifs soient une pure coïncidence, elle n’est que de 1% ! Un tel comportement d’alignement d’axe de rotation avait déjà été entrevu sur des galaxies en 2013 à plus petite échelle, mais il n’avait encore jamais observé sur des quasars, et surtout jamais sur de telles distances de plusieurs milliards d’A.L. 
C’est donc un tour de force d’avoir réussi cette observation indirecte. Pour évaluer la direction de l’axe de rotation d’objets aussi démesurément lointains, la méthode utilisée repose sur l’observation de la polarisation de la lumière. La direction de la polarisation, associée à d’autres informations comme la largeur de certaines raies d’émission dans le spectre, permet de déterminer l’angle de vue du disque d’accrétion de matière du trou noir source du quasar. Et le disque d’accrétion est toujours perpendiculaire à l’axe de rotation, ce qui permet d’en déduire la direction de cet axe de rotation…
Il est tentant de rapprocher les indices d’alignement d’axe de rotation de galaxies proches observés à plus petite échelle avec ces nouvelles observations, en imaginant un mécanisme commun à son origine, mais les auteurs mettent en garde sur le fait que la rotation de toute une galaxie peut être très différente de la rotation du trou noir supermassif qui se trouve dans son centre…
Ces nouveaux résultats semblent par ailleurs expliquer des mesures de polarisation assez similaires que la même équipe avait obtenue il y a 15 ans, et qui avait été interprétées à l’époque par un effet de polarisation de la lumière par le milieu interstellaire, des effets parasites qui ont pu être rejetés dans ces nouvelles observations.

D’où proviennent de tels alignements ? Pour tenter de répondre à cette question, je ne résiste pas à recopier la dernière phrase de l’article de l’équipe de D. Hutsemékers, qui vaut une bien belle conclusion : « The existence of correlations in quasar axes over such extreme scales would constitute a serious anomaly for the cosmological principle. » (L’existence de corrélations entre les axes de rotation des quasars sur des échelles aussi extrêmes constituerait une sérieuse anomalie pour le principe cosmologique).

Référence :
Alignment of quasar polarizations with large-scale structures
D. Hutsemékers et al.
A&A 572, A18 (2014)


mardi 18 novembre 2014

La Matière Noire Topologique, un nouveau type de Matière Noire mesurable...

La totalité des expériences ayant pour objectif de détecter directement ou indirectement la matière noire sous sa forme la plus communément imaginée, des WIMPs ou des axions, n'a pour le moment jamais fourni de résultats positifs indéniables. 
Face à ce manque de signal positif, certains chercheurs commencent à remettre sur le devant de la scène d'autres explications pour la matière noire. L'une d'elles est ce qu'on appelle la matière noire topologique


Vue schématique du phénomène du passage d'un défaut topologique et son
impact sur les mesures temporelles de horloges de la constellation de
satellites du GPS (Nature Physics)
Ce type de phénomène peut être visualisé sous la forme de défauts de l'espace-temps, des défauts topologiques. Ces défauts de l'espace-temps, qui prennent la forme d'un champ particulier ayant une variation spatiale, peuvent apparaître sous la forme de structures ponctuelles (des monopoles), à une dimension (des cordes) ou à deux dimensions (des surfaces, qui sont alors appelées des murs de domaines). Cette théorie est bien sûr très spéculative, bien au delà du modèle standard, mais elle n'a encore jamais pu être ni contredite, ni prouvée expérimentalement. 
C'est donc à une preuve expérimentale potentielle d'un tel phénomène que deux physiciens russes travaillant aux Etats-Unis et au Canada, se sont lancés à l'assaut. Andrei Derevianko et Maxim Pospelov montrent dans un article venant de paraître dans Nature Physics comment un tel champ de défauts topologiques de l'espace-temps pourrait être mis en évidence "simplement" grâce à des mesures d'horloges atomiques en orbite. L'idée a le mérite d'être beaucoup plus simple que la théorie à démontrer : il s'agit d'observer attentivement d'éventuelles différences dans les références de temps des nombreux satellites du réseau GPS gravitant autour de la Terre.

Derevianko et Pospelov font l'hypothèse que les défauts topologiques recherchés font au moins la taille de la Terre et qu'ils apparaissent suffisamment fréquemment de manière à ce que la Terre passe à travers durant au moins une campagne de mesure. Parmi les interactions envisageables de ces défauts d'espace-temps avec la matière ordinaire, il y a que cette "matière noire" modifie la masse des particules ordinaires lorsqu'elles franchissent le mur de domaine. Et cela devrait évidemment produire des effets mesurables, selon les théoriciens russes.
Vue d'artiste de la constellation du GPS (NIST)
Utiliser les satellites du système GPS permet de pouvoir exploiter les instruments les plus précis jamais construits par l'homme : des horloges atomiques dont la précision atteint le milliardième de milliardième...  Et une telle horloge atomique qui passerait à travers un mur de domaine se mettrait à battre à une fréquence différente de sa fréquence initiale. Lorsque la Terre passerait au travers d'un tel défaut topologique, c'est tout le réseau des horloges du système GPS qui serait modifié. Et l'ordre dans lequel les différentes horloges seraient affectées devrait révéler la mouvement de la Terre par rapport au mur de domaine. L'utilisation de différents types d'horloges atomiques devrait en outre permettre, toujours selon Derevianko et Pospelov, d'étudier la nature des interactions qui auraient lieu entre défauts topologiques et matière ordinaire.

Une telle "matière noire" est estimée devoir être stationnaire, or comme la vitesse de la Terre dans sa rotation autour du centre galactique est de l'ordre de 300 km/s, c'est la vitesse à laquelle on devrait s'attendre à trouver ces défauts topologiques (s'ils existent !). Tous les signaux entre horloges atomiques qui ne se propageraient pas à cette vitesse pourraient ainsi être exclus, ce qui permet d'obtenir un signal pour le moins robuste...

Il se pourrait aussi que les détecteurs d'ondes gravitationnelles puissent être impactés par de tels passages de défauts topologiques. Associer les grands détecteurs d'ondes gravitationnelles VIRGO et LIGO à des mesures d'horloges des satellites du GPS serait une méthode pour le moins innovante, en tout cas jamais essayée...
Toutes les idées sont bonnes à prendre en attendant la première preuve irréfutable d'une explication à ce qu'on appelle la matière noire, à défaut d'autre chose... Celle-ci est pour le moins amusante, voire décoiffante.


Référence : 
Hunting for topological dark matter with atomic clocks
A. Derevianko & M. Pospelov
Nature Physics (17 November 2014)

lundi 17 novembre 2014

Semarkona : la météorite magnétique qui fait comprendre l'origine des planètes

Les mesures les plus précises à ce jour du champ magnétique qui existait il y a plus de 4 milliards d’années dans notre système solaire viennent d’être rapportées dans un article paru dans la revue américaine Science. C’est en étudiant de très près une météorite particulière que l’équipe menée par Roger Fu, du Massachussets institute of Technology, a pu mesurer l’aspect qu’avait le champ magnétique dans le système solaire primordial. Une première.



Vue d'artiste de chondrites dans le champ magnétique du
système solaire primordial (MIT Paleomagnetism Laboratory)
La météorite exploitée pour cette mesure assez incroyable est ce qu’on appelle une chondrite, qui est en fait un débris d’astéroïde produit par de multiples collisions, et qui s’est retrouvée par hasard dans l’orbite de la Terre et y est tombé le 26 octobre 1940. La météorite que Roger Fu et son équipe ont exploitée s’appelle Semarkona, elle doit son nom à l’endroit où elle est tombée, dans le Madhya Pradesh en Inde. Elle pèse exactement 691 grammes. 
Ces météorites sont restées telles qu’elles étaient depuis leur formation au tout début de la naissance du système solaire. Elles sont constituées de nombreux petits grains, appelés des chondres, qui font une taille de l’ordre d’un millimètre de diamètre.

Les chondres sous forme cristalline, eux-mêmes, se sont formés par fusion de grains rocheux lors de collisions dans la nébuleuse solaire, ce nuage de gaz poussiéreux qui entourait le soleil tout juste après son allumage. Et le point crucial ici, c'est que ces chondres contiennent des minéraux à base de fer, qui se sont retrouvés naturellement magnétisés par le champ magnétique présent dans le nuage de gaz au moment de la formation de ces chondres, qui devinrent alors des sortes de petits aimants. Une fois refroidis et cristallisés, l’empreinte du champ magnétique est donc restée figée à jamais, jusqu’à ce qu’un morceau de chondrite vienne s’écraser sur la Terre quelques milliards d’années après...
Les chercheurs ont réussi à mesurer la valeur du champ magnétique « emprisonné » dans les grains de chondre et ils trouvent une valeur de 54 microTesla.
Cette mesure de champ magnétique n'est pas intéressante que pour elle-même ou l'exploit qu'elle représente. Elle permet aussi (et surtout) indirectement de comprendre comment se sont formés les premiers blocs rocheux du système solaire, les ancêtres de nos planètes.
La météorite Semarkona (Open University)

Steve Desch, co-auteur de l’étude, explique que pour produire de tels chondres magnétisés par fusion, des ondes de choc devaient être présentes à travers la nébuleuse solaire, avec un champ magnétique de fond à cette époque-là qui devait se trouver compris entre 5 et 50 microTesla, en fonction de l’intensité des ondes de choc.
Cette explication est préférée à d’autres alternatives car si par exemple la magnétisation des grains était due au  passage de l’astéroïde initial dans une zone d’éruption magnétique solaire, cela aurait produit un champ magnétique « gelé » dans la chondrite beaucoup plus intense que celui qui a été observé dans Semarkona.

Cette mesure est la première mesure aussi précise et robuste du champ magnétique qui existait au début de notre système solaire. On le voit, elle permet en outre de contraindre les modèles de formation des premiers corps rocheux du système solaire à une époque très lointaine, où le système solaire ne ressemblait encore qu'à un vaste disque de cailloux et de poussières...


Source : 
Solar nebula magnetic fields recorded in the Semarkona meteorite
R.Fu et al. 
Science, 13 November 2014

vendredi 14 novembre 2014

Découverte d’une Rotation Asymétrique d’Uranus

Longtemps vu comme l’une des régions les plus calmes de toutes les planètes géantes gazeuses, l’hémisphère Sud d’Uranus se révèle en fait être le lieu de nombreux phénomènes atmosphériques jamais vus auparavant, indiquant l’existence de processus inhabituels dans les couches internes de la planète.



Visualisation d'Uranus avec ses anneaux et ses satellites... et ses nuages
au pôle Sud, en fausses couleurs (University of Arizona)
C’est en réanalysant des images d’Uranus prises il y a 28 ans par la sonde Voyager 2, que l’astronome américain Erich Karkoschka, de l’université d’Arizona, a réussi à mettre en évidence des structures jusque-là invisibles, qui révèlent des structures de rotation étranges et inattendues. Cette découverte jette un regard nouveau sur les structures internes des planètes gazeuses géantes, non seulement sur le cas particulier d’Uranus mais valable aussi pour tout type de planète ou exoplanète gazeuse.

Lorsque Voyager-2 survola Uranus en janvier 1986, les images qu’elle nous envoya montrèrent un disque bleu pâle, sur lequel aucun détail ne pouvait être distingué, a contrario des images fabuleuses obtenues sur Jupiter ou Saturne et plus tard Neptune. On n’y voyait pas plus de 8 structures très faibles, toutes situées dans l’hémisphère sud. Et parmi ces structures atmosphériques, une seule était localisée dans la moitié la plus australe de l’hémisphère sud. Et ni le télescope Hubble ni d’autres télescopes ne permirent de déceler d’autres détails sur Uranus… La moitié la plus au sud de l’hémisphère sud d’Uranus semblait être la zone la plus calme de tout le système solaire.
Les travaux que Erich Karkoschka a présentés cette semaine lors de la réunion de l’American Astronomical Association à Tucson au Texas ont été obtenus grâce à l’analyse très fine, par de nouveaux algorithmes de reconnaissance de forme, des images de Voyager-2. Il a pu ainsi découvrir des dizaines de petites structures nuageuses qui avaient un contraste extrêmement faible. Erich Karkoscka avait connu un succès semblable lorsqu’il avait réanalysé les images du voisinage d’Uranus 13 ans après le passage de Voyager-2 et avait découvert un nouveau satellite, Perdita. Le planétologue s’amuse en précisant que la mémoire d’ordinateur nécessaire pour traiter les 1600 images d’Uranus n’était pas disponible à l’époque la mission et ne pouvait même pas être imaginée. Aujourd’hui, ces travaux peuvent être menés pour une fraction infime du coût d’une mission spatiale.

Uranus imagée par Voyager-2 en 1986
(NASA)
Après ces traitements d’images élaborés où le contraste a dû être réhaussé d’un facteur 300 par rapport à l’original, on parvient à voir nettement ce qui ressemble à des nuages convectifs qui seraient causés par des phénomènes de condensation. Certaines structures ressemblent à des nuages qui s’étendent sur plusieurs centaines de kilomètres. Mais c’est la rotation de l’ensemble qui est très étonnante. Les mouvements des nuages, qui suivent les vents, se développent soit vers l’Est, soit vers l’Ouest avec une vitesse qui dépend de la latitude. Et connaître la période de rotation à chaque latitude permet alors de connaître toute la circulation atmosphérique de la planète.
C’est à Giovanni Cassini que l’on doit les premières mesures de rotation d’une planète géante, lorsqu’il suivit le mouvement de la Grande Tache Rouge sur Jupiter en 1665. Depuis lors, les astronomes ont pu déterminer la totalité des structures rotationnelles de Jupiter et Saturne, mais seulement 75% pour Uranus et Neptune. Grâce à Karkoschka, on peut désormais monter le pourcentage d’Uranus à 100%.
Le phénomène étonnant qui est mis en évidence par Karkoschka, c’est que la rotation d’Uranus paraît asymétrique, alors que toutes les autres planètes ont une rotation identique dans leurs deux hémisphères. Ce n’est pas le cas sur Uranus : les latitudes Sud ont une rotation 15% plus rapide que les latitudes Nord…

Ce résultat défie bien sûr toutes les théories sur les atmosphères de planètes gazeuses. Erich Karkoschka précise : « La rotation inhabituelle des hautes latitudes australes d’Uranus est certainement due à une structure inhabituelle à l’intérieur d’Uranus. Bien que la nature de cette structure et son interaction avec l’atmosphère ne sont pas encore  connues, l’observation de cette rotation anormale laisse présager que l’on peut apprendre des choses sur l’intérieur des planètes gazeuses par ce moyen. »

Credit : Erich Karkoschka/University of Arizona

Sonder l’intérieur des planètes gazeuses est un réel challenge. Peu de données existent aujourd’hui. Les rares techniques qui permettent d’obtenir quelques informations sont des observations d’ondes radio, qui ont mis en évidence la rotation du champ magnétique, qui traduit probablement une rotation de leur cœur interne. D’autres mesures ont essayé d’exploiter les champs gravitationnels, mais sans résultats très probants. Les mesures de rotation atmosphériques telles que celles de Karkoschka pourrait donc permettre d’avancer en améliorant les modèles.

Il faut se rappeler aussi qu’Uranus n’est pas tout à fait comme les autres planètes du système solaire : son axe de rotation est renversé presque à 90° par rapport à l’orthogonale au plan de l’écliptique. Cela signifie que chacun de ces pôles pointe directement vers le soleil durant plusieurs dizaines d’années, la période d’Uranus autour du Soleil étant de 85 ans. Le pôle Sud d’Uranus est ainsi entré en 2007 dans une longue nuit de 43 ans, désormais invisible depuis la Terre, en attendant la prochaine sonde spatiale…

Source : 
University of Arizona



jeudi 13 novembre 2014

Les Neutrinos Ultra-Énergétiques originaires de Sgr A* ?

Il se pourrait bien que ce soit le trou noir supermassif de notre galaxie, le dénommé Sgr A*, qui soit à l'origine des neutrinos ultra-énergétiques qui ont été détectés par le détecteur géant IceCube! Cette conclusion vient d'être proposée après des observations fort pertinentes obtenues avec trois télescopes spatiaux spécialisés dans la détection de rayons X.


Visualisation des traces d'un des neutrinos les plus énergétiques détectés
par IceCube, surnommé "Bert", son énergie est de 1,14 PeV (IceCube)
Chandra, Swift et NuSTAR ont tous les trois pu observer des signes d'événements violents sous forme de bouffées de rayons X, en provenance du centre galactique, là où se cache Sgr A*, et les astrophysiciens menés par Yang Bai de l'université du Wisconsin ont eu la riche idée de regarder ce qui se passait au même moment dans le détecteur de neutrinos IceCube, qui rappelons-le est situé dans la glace antarctique. Juste après la plus grosse éruption de rayons X provenant de Sgr A*, moins de 3 heures après, IceCube détectait un des 36 neutrinos ultra-énergétiques qu'il a permis de mettre en évidence depuis 2010 et dont la direction est compatible avec le centre galactique. Et le même phénomène s'est reproduit après des bouffées de Sgr A* observées par Swift et NuSTAR, également en coïncidence spatiale et temporelle. Il semble que cela ne puisse pas être un simple hasard puisque la probabilité d'une telle coïncidence aléatoire n'est que de 1,6%...

Les physiciens des astroparticules estiment que les neutrinos les plus énergétiques doivent provenir d'événements très violents, comme des fusions de galaxies, l'absorption massive de matière par des trous noirs ou la production de vents de matière autour de pulsars.
L'origine exacte de ces particules furtives et ultra-énergétiques (on parle en PeV, des millions de GeV) est recherchée depuis de longues années sans avoir trouvé une réponse satisfaisante. S'il s'avère juste que les trous noirs massifs peuvent être le moteur de ces neutrinos hors normes, on aura fait une très belle avancée.

Vue d'artiste de Chandra (NASA/Chandra XRay Lab)
Les chercheurs, qui publient leur étude dans Physical Review D, proposent un mécanisme de production de ces neutrinos par Sgr A* : ils pourraient être des produits de désintégration de particules chargées, des pions (ou mésons pi), qui sont accélérés par une onde de choc successive à une activité particulièrement forte de l'environnement du trou noir. Une fois accéléré à une très grande énergie, le pion, instable, se désintègre en produisant un muon et un antineutrino muonique, et puis le muon se désintègre à son tour en un électron et un antineutrino électronique.
Et les auteurs précisent que cette signature devrait être accompagnée également de désintégrations d'autres pions, neutres ceux-là, qui doivent produire des rayons gamma d'énergie de l'ordre du TeV, donc potentiellement détectables avec nos meilleurs (actuels ou futurs) détecteurs de rayons gamma cosmiques comme HESS, HAWC, CTA ou VERITAS.

Et en même temps, le mécanisme proposé par Bai et ses collègues américains  pourrait expliquer un autre grand mystère astrophysique, celui des rayons cosmiques ultra-énergétiques (eux aussi), qu'on appelle en jargonnant les UHECR (Ultra High Energy Cosmic Rays). Comme les particules chargées qui forment ce rayonnement cosmique (protons, noyaux d'hélium et électrons principalement) sont défléchies par les champs magnétiques au sein de notre galaxie, on n'arrive très difficilement à déterminer leur direction d'origine. Mais ce qui semble certain, c'est que les ondes de chocs au voisinage des trous noirs qui peuvent produire finalement les neutrinos observés, peuvent également produire ces particules chargées très énergétiques.

L'utilisation de messagers multiples sera vraiment la clé des futures découvertes en astrophysique. Associer rayons X et neutrinos est une première, et elle semble déjà très fructueuse.


Source : 
Neutrino Lighthouse at Sagittarius A*
Y. Bai, A. J. Barger, V. Barger, R. Lu, A. D. Peterson, J. Salvado
Phys. Rev. D  90, 063012 (2014)
en accès libre sur ArXiv : http://arxiv.org/pdf/1407.2243v1.pdf


mercredi 12 novembre 2014

Jupiter : Pourquoi la Grande Tache Rouge est-elle Rouge ?

La couleur rouge de la Grande Tache Rouge de Jupiter a très probablement pour origine une dissociation de molécules par l'activité du rayonnement solaire sur la haute atmosphère jovienne. C'est ce qu'annonce une équipe américaine dans une nouvelle analyse rendue publique cette semaine lors d'une réunion de l'American Astronomical Association à Tucson dans l'Arizona.
Ce résultat contredit l'opinion générale sur la nature de la Grande Tache Rouge, selon laquelle la couleur rouge serait due à des nuages situés à plus basse altitude, qui seraient transportés dans les couches supérieures par le cyclone.


Kevin Baines, Bob Carlson et Tom Momary du Jet Propulsion Laboratory, ont exploité des données acquises par la sonde Cassini il y a 14 ans lors de son passage rapproché près de Jupiter lorsqu'elle était en route vers Saturne, ainsi que des expériences de chimie effectuées en laboratoire.


Au laboratoire, les chercheurs ont exposé des gaz d'ammoniac et d'acétylène à un intense flux de rayonnement ultra-violet, afin de simuler ce qui se passe à très haute altitude sur Jupiter. Ils sont parvenus à produire un composé chimique rouge, qu'ils ont pu comparer avec ce qu'avait pu être observé par l'instrument VIMS (Visible and Infrared Mapping Spectrometer) de la sonde Cassini. Ils trouvent que les propriétés optiques de leur mélange sont tout à fait similaires à un modèle de grande tache rouge dans lequel le gaz rouge est confiné dans les plus hautes couches atmosphériques du cyclone géant.
Les chercheurs américains précisent que les nuages situés juste en dessous de cette couche au sein de la grande tache, non exposés aux UV, sont probablement dans les teintes grises ou blanches.

Jupiter est composée presque exclusivement d'hydrogène et d'hélium, mais possède aussi quelques autres composés chimiques. Parmi ces composés, on trouve l'ammoniac, l'hydrosulfate d'ammoniac et l'eau. L'hydrosulfate d'ammoniac est le composant d'une des principales couches nuageuses Joviennes. Baines et ses collègues avaient donc tout d'abord pensé que la couleur rouge pouvait provenir d'une photodissociation de cette molécule. Mais leur expérience en laboratoire sur ce gaz a produit non pas un composé rouge mais un composé d'un très beau vert... Ce résultat négatif les a donc poussé à se tourner vers des composés chimiques plus simples, comme des mélanges d'ammoniac et d'hydrocarbures, qui sont aussi rencontrés communément dans les hautes altitudes de Jupiter.
La Grande Tache Rouge (NASA/JPL/Caltech/Space Science Institute)
C'est en irradiant aux UV un mélange d'ammoniac et d'acétylène que Baines et al. ont obtenus leur meilleur résultat, celui qui collait parfaitement aux données de la sonde Cassini.
Pour expliquer pourquoi la couleur rouge sur Jupiter n'est observée que dans la Grande Tache Rouge et quelques taches plus petites, les planétologues répondent que l'altitude joue un rôle-clé : la Grande Tache est extrêmement haute, elle atteint une altitude beaucoup plus élevée que n'importe quel autre nuage de Jupiter. Les vents du cyclone emportent des particules de glace d'ammoniac bien plus haut que d'habitude et les exposent alors à un flux de rayons ultra-violet bien plus élevé. De plus, le vortex du cyclone confine les particules, ce qui renforce d'avantage la production de ces composés rouges. 
Quant aux autres teintes visibles sur Jupiter, allant de l'orange à l'ocre en passant par le marron ou le beige, Baines explique qu'il s'agit de zones où les nuages élevés sont beaucoup plus fins que ce qui existe au niveau du grand cyclone, et cette faible épaisseur permet de voir de grandes profondeurs atmosphériques où existent des composés chimiques très colorés. 

Il était temps que l'on comprenne comment s'est formé cet œil de Jupiter, comme on l'appelle parfois, cette Grande Tache Rouge qui est observée depuis près de 400 ans, car elle est en train de rétrécir à vue d’œil justement. La Grande Tache Rouge est en train de disparaître, mais un nouveau cyclone du même type est en train lui de grossir... Le rouge sera encore présent sur Jupiter pour au moins un siècle...


Source :
http://www.jpl.nasa.gov/news/

lundi 10 novembre 2014

Atterrissage de PHILAE sur Churyumov-Gerasimenko en Direct


Suivez en direct l'atterrissage de Philae sur 67P/Churyumov-Gerasimenko



Pour en savoir plus sur les instruments scientifiques qui sont embarqués sur Philae et les analyses qu'il va effectuer sur la comète 67P/Churyumov-Gerasimenko, voir Les Instruments Scientifiques de PHILAE


dimanche 9 novembre 2014

Comète Siding Spring + Mars : Premiers résultats d'analyses

C'était le 19 octobre dernier, la comète Siding Spring frôlait Mars sous les yeux très proches de plusieurs sondes en orbite autour de la planète rouge. Les scientifiques opérant ces sondes initialement dédiées à l'étude de Mars avaient bien sûr profité de cette occasion rarissime pour étudier la comète et ses interactions avec l'atmosphère martienne. Les premiers résultats viennent d'être rendus publics par les équipes américaines exploitant la sonde MAVEN.



En fait, les trois sondes MAVEN, MRO et Mars Express ont toutes les trois pu observer comment la comète a introduit de grandes quantités d'ions (des atomes ionisés) dans l'atmosphère de Mars, où plutôt son ionosphère, là où se concentre les couches de gaz ionisé.

Vue d'artiste de Siding Spring approchant Mars avec les sondes à l'affût
(NASA/JPL)
Siding Spring est passé à seulement 139500 km de Mars et sa queue a impacté l'atmosphère de la planète rouge. Se faisant, elle a produit dans l'atmosphère une pluie d'étoiles filantes monumentale comme les martiens n'en avaient pas vue depuis bien longtemps. Le nombre de météores a été évalué à de l'ordre de 1000 par heure...
Rétrospectivement, les scientifiques qui opèrent les sondes en orbite autour de Mars se réjouissent d'avoir modifié leurs trajectoires pour leur éviter de se trouver pile dans la queue de la comète... et pour pouvoir analyser plein de choses.
MAVEN a été exploité via son instrument IUS (Imaging Ultraviolet Spectrograph) qui a pu observer une émission intense d'ions de magnésium et de fer juste après la pluie de météores. Cette émission ultraviolet a dominé tout le spectre UV de Mars durant plusieurs heures avant de se dissiper lentement dans les deux jours suivants.
Un autre instrument de MAVEN, le NGIMS (Neutral Gas and Ion Mass Spectrometer) a permis de déterminer la composition d'une bonne partie de la poussière ayant impacté Mars. Huit types d'atomes ionisés ont été détectés, notamment du sodium, du magnésium et du fer. Cette mesure est la toute première mesure directe de la composition de la poussière d'une comète venant du nuage d'Oort.
La sonde européenne Mars Express, quant à elle, à observé une énorme augmentation de la densité d'électrons juste après l'approche la plus faible de la comète. C'est l'instrument MARSIS (Mars Advanced Radar for Subsurface and Ionospheric Sounding) qui a produit cette mesure. Ce pic d'ionisation dans l'atmosphère martienne a eu lieu à une altitude sensiblement plus basse que celle du maximum d'ionisation habituellement observé. Ce pic d'ionisation semble directement lié aux fines particules cométaires qui se désintégraient en brûlant dans l'atmosphère de Mars.

Ensuite, l'instrument SHARAD (Shallow Subsurface Radar) de la sonde MRO a lui aussi mis en évidence l'effet de la comète sur l'ionosphère en montrant que la denstié d'électrons produite dans l'ionosphère était supérieure à entre 5 et 10 fois la normale.
Mais MRO est aussi muni d'un excellent imageur, HiRISE (High Resolution Imaging Science Experiment) qui a permis de réveler une taille du noyau cométaire plus petite qu'estimée auparavant, avec seulement 2 km, et une période de rotation de 8 heures, ce qui en revanche confirme les observations antérieures effectuées avec Hubble. Les planétologues de MRO ont également essayé de détecter des composés chimiques en analysant le spectre de la lumière avec le spectromètre imageur CRISM (Compact Reconnaissance Imaging Spectrometer for Mars), mais sans pouvoir mettre en évidence la présence d'un composé particulier.

En plus de ces mesures qui ont été faites dans les minutes ou les heures ayant suivi le passage frôlant de Siding Spring, les sondes martiennes continuent aujourd'hui à mesurer l'atmosphère de Mars pour déceler d'éventuelles perturbations à caractère de long terme que la comète a pu induire.

Source : 
MAVEN collaboration
University of Boulder Colorado
http://lasp.colorado.edu/