Pages

29/08/15

La future cible de New Horizons dévoilée par la NASA

Ça y est, c'est désormais officiel depuis hier. La NASA a dévoilé quel serait l'objet de la ceinture de Kuiper que New Horizons ira visiter de près. Il s'agit de l'objet nommé 2014 MU69.



Vue d'artiste du survol d'un KBO par New Horizons
(NASA/JHUAPL/SwRI/Alex Parker)
Il restait deux objets possibles en lice dans le panier de la NASA, 2014 MU69 a été choisi sur des considérations bassement pratiques : il permet de consommer moins de carburant pour la sonde. La trajectoire de New Horizons va donc être modifiée à partir de la fin du mois d'octobre par une succession de poussées, qui au total brûleront 12 kg de carburant sur les 35 kg qu'il reste dans le réservoir de New Horizons. 

Il est prévu par les ingénieurs de la NASA que le survol de ce 2014 MU69 se fasse à une altitude de seulement 12000 km, soit environ la même distance que celle du survol de Pluton le 14 juillet dernier.
Cet objet glacé de la ceinture de Kuiper a été trouvé grâce au télescope Hubble en 2014 utilisé in extremis pour localiser des candidats potentiels à visiter.
2014 MU69 fait partie des objets de la ceinture de Kuiper "classiques", qui ont une orbite stable, visiblement non perturbée par les planètes géantes externes. On ne connait pas grand chose pour le moment sur 2014 MU69 si ce n'est sa taille : 45 km de diamètre. 

Le survol aura lieu le 1er janvier 2019 si tout se passe comme prévu, et d'ici là, New Horizons aura l'occasion de faire des images d'autres objets de la ceinture de Kuiper, environ douze d'après les estimations des spécialistes, mais à longue distance, ce qui ne permettra pas d'étudier leur surface en détail. On pourra quand même voir si il existe d'autres couples comme le couple Pluton-Charon. L'approche minimale de ces autres KBOs devrait être de l'ordre de 15 millions de km, de quoi produire des images avec une bien meilleure résolution que ce que peut fournir Hubble depuis l'orbite terrestre...

Source : 
NASA picks next New Horizons destination
Alexandra Witze
Nature News (28 August 2015)

27/08/15

Trous Noirs : La nouvelle idée de Stephen Hawking pour résoudre le paradoxe de l'information

C’est l’une des questions les plus énigmatiques qui reste sans réponse aujourd’hui dans la physique des trous noirs : que devient l’information sur l’état physique des particules qui sont absorbées par un trou noir ? La relativité générale dit que l’information est détruite, la mécanique quantique dit que toute information ne peut jamais être détruite. Il y a là une contradiction ou un paradoxe, c’est ce qu’on appelle le paradoxe de l’information. Stephen Hawking a beaucoup travaillé sur ce problème, seul ou avec des collègues théoriciens. Il vient de proposer il y a deux jours une nouvelle idée pour répondre à cette question lancinante.


A. Strominger, S. Hawking et M. Perry (photo A. Zytko)
Hawking a proposé cette nouvelle idée mardi dernier à Stockholm au cours d’un séminaire organisé par la physicienne Laura Mersini-Houghton de l’Université de Caroline du Nord, et par le KTH Royal Institute of Technology et l’Université de Stockholm. Y sont réunis une trentaine de physiciens théoriciens parmi les meilleurs spécialistes des trous noirs. L’idée de Hawking, qu’il a étudiée et développée avec les théoriciens Malcolm Perry de Cambridge et Andrew Strominger de Harvard, indique que l’information serait en fait bien préservée mais  qu’elle ne pénétrerait pas à l’intérieur de l’horizon du trou noir ; elle serait conservée (encodée) à sa surface sous la forme d’un hologramme à 3 dimensions. Rappelons que l’horizon d’un trou noir est l’endroit à partir duquel plus rien ne peut en sortir et qu’un hologramme est une représentation d’un objet de dimension N dans un objet de dimension N-1. L’idée d’un hologramme à la surface des trous noirs est issues de travaux en théorie des cordes où il avait montré que l’horizon d’un trou noir peut contenir un hologramme à 3 dimensions (deux dimensions spatiales et une de temps) qui représente parfaitement l’espace-temps à 4 dimensions de l’intérieur du trou noir. Par ailleurs, on se souvient des travaux pionniers de Jacob Bekenstein, récemment disparu, montrant que l’entropie d’un trou noir est proportionnelle à sa surface.  Et entropie et information sont deux entités identiques à une constante près… (la constante de Boltzmann).

La théorie résumée par Stephen Hawking mardi stipule que l’information quantique est stockée sur l’horizon du trou noir sous la forme de ce qui sont appelées des « super translations ». Les super translations ont été conceptualisées en 1962, et seraient ici un hologramme des particules tombant dans le trou noir, elles en contiendraient donc toute l’information qui sinon serait définitivement perdue.
D’après Andrew Strominger, on peut se représenter ce processus par une sorte de surface de photons situés exactement sur la surface de l’horizon, ils sont juste en équilibre entre la chute dans le trou noir et l’échappement.  Quelle que soit la taille du trou noir même lorsqu’il grossit, cette surface de lumière est toujours présente.
A chaque fois qu’une particule quelconque traverse l’horizon, elle laisse une empreinte sur cette surface, en modifiant légèrement l’ensemble de la surface de lumière qui se réarrange, produisant une « super-translation ».

Cette information pourra  ensuite être renvoyée vers le reste de l’Univers bit par bit lorsque le trou noir rayonne en produisant des fluctuations quantiques (le rayonnement de Hawking), mais dans une forme chaotique. L’information est donc bien toujours  là, mais, dans la pratique, comme l’a dit Hawking, c’est comme si elle était perdue car elle est inexploitable, où comment chercher la capitale du Minnesota dans une encyclopédie que l’on vient de réduire en cendres après l’avoir jetée dans la cheminée…  Strominger précise que le grand challenge sera de démontrer que les super translations ont la capacité de stocker l’énorme quantité d’informations requise pour conserver non pas seulement une petite partie mais bien tout le contenu avalé par le trou noir.
Les physiciens espèrent bien que la résolution de ce paradoxe de l’information, si cette idée s’avère correcte,  les aidera à comprendre comment fonctionne la gravitation aux échelles où la mécanique quantique gouverne.

Stephen Hawking a promis la publication de la théorie, avec tous ces détails, dans quelques semaines … Il est donc probable que nous en reparlions bientôt.


26/08/15

Retour sur le mystère de G2, survivant de Sgr A*

Vous vous souvenez sans doute de la saga de G2... J'avais relaté ici en janvier 2012 l'observation de cet étrange chose qui se déplaçait très vite vers le trou noir de notre Galaxie, Sgr A*. Alors que les astrophysiciens pensaient tenir là un gros nuage de gaz qui allait être avalé par le trou noir dans un feu d'artifice de rayons X, un phénomène très rare si proche, et donc hyper intéressant, il ne s'était absolument rien passé (voir ici et )... Au lieu d'être disloquée, la "chose", G2, est passée à proximité de Sgr A* et est bien toujours là dans son entièreté. Et on ne sait toujours pas ce que c'est.


Mais on essaye de le savoir, car cet objet est trop étrange. Le fait que cette sorte de nuage de gaz ait survécue à son passage au plus près du trou noir supermassif indique une chose : il doit connaître une certaine attraction gravitationnelle interne, autrement dit il doit être "lié". Il faut savoir que différentes équipes d'astronomes ont essayé de déterminer la nature de ce G2 à partir de ce qu'on pouvait déduire des observations,  La plus logique était une étoile supergéante engoncée dans le nuage de gaz, mais cette hypothèse n'a pas pu être validée.
Evolution de G2 depuis 2006, la couleur montre la vitesse,
en rouge un éloignement, en bleu un rapprochement
(ESO, Nature)
Aujourd'hui, une équipe italienne propose dans une étude parue dans The Astrophysical Journal une nouvelle solution pour expliquer G2 : au centre du nuage de gaz pourrait se trouver un embryon planétaire qui aurait été éjecté de son système stellaire. Cet ensemble aurait la taille de l'orbite terrestre autour du Soleil.

Il faut comprendre une chose, c'est que le centre galactique ne ressemble en rien à l'environnement proche du Soleil. La densité d'étoiles y est multipliée par un million, des anciennes étoiles de faible masse principalement, mais aussi une plus petite population d'étoiles massives, jeunes et lumineuses (d'environ 10 millions d'années) qui sont entourées d'un anneau de gaz moléculaire ayant une masse équivalente à plusieurs dizaines de milliers de masses solaires.

Quand G2 a été détecté pour la première fois entre 2006 et 2010, son orbite future avait pu être prédite et montrait qu’il devait passer très près de Sgr A* au printemps 2014, ce qui avait suscité une excitation certaine parmi les astrophysiciens (et sur Ça Se Passe Là-Haut !), car cela voulait dire qu’on allait voir ce qui allait se passer,  c’est-à-dire suivre en temps réel les effets du trou noir supermassif.
Allait-on voir une intense émission de rayons X avec la formation d’une accrétion, ou bien la formation de jets de matière comme ce que l’on voit avec les quasars ? Un an après son passage au plus proche du point théorique du centre de la Galaxie (le trou noir Sgr A*) qui a eu lieu en mai 2014, nous pouvons affirmer que rien de tel ne s’est produit, il n’y a pas eu d’accrétion de gaz autour de Sgr A* à même de produire quelque chose d’observable. Mais c’est tout de même intéressant car c’est une donnée qui permet d’aider à comprendre ce qu’est ce fameux G2.
A part la première hypothèse d’une étoile supergéante dans une large enveloppe de gaz, il avait été proposé d’autres scénarios pour expliquer G2 . Le premier d’entre eux, un peu complexe,  était que ce serait en fait le front d’une onde de choc produite par l’interaction du vent stellaire d’une étoile de faible masse située à l’intérieur du nuage avec le plasma situé aux alentours . Un autre scénario intéressant était qu’il se serait agi d’une étoile déchirée par les effets de marée intenses produits par le trou noir supermassif. Une autre hypothèse mentionnait également la fusion de deux étoiles.
La zone de Sagittarius A imagé par Chandra
(Chandra X Ray Observatory)
C’est surtout le fait que G2 ait réémergé de l’autre côté du trou noir en étant intact qui aide à comprendre. La zone du spectre où G2 est le mieux détecté est dans les infra-rouges (longueurs d’ondes comprises entre 2 et 5 microns). Même si sa luminosité est faible (sa luminosité intrinsèque étant 30 fois inférieure à celle du Soleil), elle montre une émission typique de poussières à la température d’environ 500 K. Une hypothèse plausible, étant donné qu’il s’agit forcément d’un objet lié gravitationnellement, est que G2 contienne une petite étoile très jeune entourée par un disque de poussières. Un excès d’émission infra-rouge est en effet, chez les étoiles jeunes, un indice fort d’extrême jeunesse, et de telles étoiles ont déjà pu être observées justement dans cette région du centre galactique.
Mais la proposition de Michela Mapelli et Emanuele Ripamonti va plus loin. Selon eux il n’y aurait tout simplement pas d’étoile au sein de G2. Il s’agirait dun système protoplanétaire qui aurait été éjecté de son étoile suite à une rencontre malencontreuse avec une autre étoile dans ce milieu si propice à des interactions gravitationnelles déstabilisantes. Le système protoplanétaire, un vaste amas de gaz et de poussières, resterait lié par sa propre gravité. G2 dériverait depuis lors et se serait retrouvé par hasard à proximité immédiate de Sgr A*.

De tels objets sont normalement invisibles directement, mais lorsque les forces de marée d‘un trou noir supermassif commencent à les déformer, ils peuvent briller un peu plus que d’ordinaire. Mapelli et Ripamonti ont fait le calcul sur la base d’un tel objet, embryon protoplanétaire de masse comprise entre 10 et 100 masses joviennes, et montrent qu’il devient détectable et ressemble à s’y méprendre à ce qui est observé quand on regarde G2. Cela implique que les couches extérieures du nuage de gaz et de poussières soient déformées ou arrachées par les forces gravitationnelles du trou noir, donc chauffées, puis ionisées par le milieu interstellaire (où ne manquent pas les ultra-violets des jeunes étoiles voisines pour le faire).
Cette nouvelle hypothèse doit maintenant être confirmée par d’autres observations. Un suivi en continu du centre galactique est notamment mené par le réseau ALMA au Chili et par le Jansky Very Large Array au Nouveau Mexique. Ces grands instruments devraient apporter des informations sur G2, complémentaires à celles, déjà riches, obtenues dans l’infra-rouge.

Sources :

Signatures of Planets and Protoplanets in the Galactic Center: A Clue to Understanding the G2 Cloud?
Michela Mapelli and Emanuele Ripamonti 
Astrophys. J. 806, 197 (2015).

Astrophysics: Mystery survivor of a supermassive black hole
John Bally
Nature 524, 301–302 (20 August 2015) 


23/08/15

Des neutrinos de l'hémisphère Nord détectés au pôle Sud

L'Observatoire IceCube a récemment montré l'existence de neutrinos très énergétiques qui proviennent d'objets astrophysiques (non encore identifiés), mais assurément situés en dehors de notre galaxie. Mais pour trouver ces 37 neutrinos ultra-énergétiques, les chercheurs de IceCube, installé dans la glace de l'Antarctique, n'avaient scruté que l'hémisphère Sud du ciel... Et bien, désormais, ils le font également avec l'hémisphère Nord, grâce à la faculté qu'ont les neutrinos de pouvoir traverser la Terre de part en part...


Les physiciens de IceCube sont malins, sachant que l'un des bruits de fond les plus gênant dans le détecteur IceCube, sont les muons cosmiques, qui produisent le même genre de signal que certains neutrinos énergétiques (qui en interagissant avec la glace produisent des muons), et sachant en outre que le flux de muons cosmiques peut très très difficilement traverser le diamètre de la Terre alors que les neutrinos, eux, peuvent le faire, ils en ont conclu qu'il devait être possible d'utiliser la Terre elle même comme une sorte de gros filtre, qui ne laisserait passer que les bons neutrinos venus de l'hémisphère Nord et stopperait les muons parasites.
Carte du ciel en coordonnées équatoriales des neutrinos astrophysiques détectés par IceCube (en bleu les 27 premiers et en rouge ceux provenant de l'hémisphère Nord dans cette nouvelle analyse), l'énergie la plus probable est mentionnée (en TeV) pour chaque événement  (IceCube Collaboration).
Le détecteur IceCube, rappelons-le, est formé de 5160 photomultiplicateurs (des détecteurs de lumière), distribués le long de grandes lignes plongeant dans la glace à une profondeur comprise entre 1,5 et 2,5 km pour couvrir environ un volume de 1 km3 dans la glace.
Lorsqu'ils produisent des muons en interagissant dans la glace, les neutrinos astrophysiques laissent ainsi des traces rectilignes dans le détecteur, qui permettent aux physiciens de déterminer la direction d'incidence de la particule initiale. Les muons créent de la lumière dite "lumière Cherenkov" dans la glace, qui est mesurée. Et les physiciens déterminent non seulement la direction, mais aussi le sens de la trajectoire, vers le bas (donc venant du Sud) ou vers le haut (venant du Nord). En ne sélectionnant que les traces rectilignes montrant une direction d'origine boréale, les chercheurs de IceCube peuvent ainsi être quasi sûrs qu'il s'agit de neutrinos et non pas de "simples" muons du rayonnement cosmique, rappelons-le, pratiquement incapables de traverser les 12756 km du diamètre terrestre.

La collaboration IceCube vient ainsi de publier dans Physical Review Letters la détection de 21 neutrinos de très haute énergie en provenance du ciel de l'hémisphère Nord. Leur énergie va de 156 TeV à 1693 TeV (soit 1,69 PeV), et leur flux est très supérieur à celui qui serait attendu si il s'agissait de neutrinos créés dans l'atmosphère par des réactions secondaires de rayons cosmiques. Il s'agit donc avec une forte probabilité de nouveaux neutrinos astrophysiques. Les flux sont d'ailleurs tout à fait compatibles avec ce qui est observé dans l'hémisphère sud du ciel. Pour isoler ces 21 nouveaux neutrinos astrophysiques, les chercheurs ont trié pas moins de 35000 neutrinos provenant de l'hémisphère nord, mais la plupart de plus basse énergie et provenant avant tout de l'atmosphère, détectés durant une période de 660 jours entre mai 2010 et mai 2012. Cette nouvelle analyse, indépendante de celle effectuée sur la partie Sud du ciel vient donc confirmer les précédents résultats obtenus et l'origine extragalactique de ces neutrinos très énergétiques.

Alors qu'il est question d'agrandir IceCube et de construire de nouveaux grands détecteurs de neutrinos dans le but d'attraper toujours plus de ces neutrinos extragalactiques et découvrir enfin leur origine toujours incomprise, de tels résultats ne pouvaient pas mieux tomber, quelques semaines seulement après l'annonce cet été dans une conférence de la détection du neutrino le plus énergétique jamais observé par IceCube. Le développement de ce qu'on appelle maintenant l'astronomie des neutrinos est en marche...


Source :
Evidence for Astrophysical Muon Neutrinos from the Northern Sky with IceCube
M. G. Aartsen et al. (IceCube Collaboration)
Phys. Rev. Lett. 115, 081102 (20 August 2015)

21/08/15

Matière Noire : XENON100 exclut DAMA sur le terrain des électrons

Les WIMPs (Weakly Interacting Massive Particles, particules massives interagissant faiblement) qui pourraient former la matière noire, doivent produire de très rares collisions avec les noyaux d’atome (dans un détecteur par exemple) et montrer une variation périodique de l’intensité de ces collisions au cours d’une année, avec un maximum en été et un minimum en hiver, à cause de la rotation de la Terre autour du Soleil.



Le détecteur de XENON100 avec l'équipe de
l'Université de Zürich participant à la collaboration
 XENON100 (Universität Zürich )
L’expérience italienne DAMA/LIBRA observe avec son gros détecteur scintillateur, depuis des années, un signal, avec exactement cette modulation. Alors qu’ils clament mesurer des WIMPs depuis le début des années 2000, toutes les autres expériences de recherche directes fondées sur la mesure de collisions sur des noyaux d’atomes, avec des technologies différentes et toutes bien plus sensibles que DAMA, n’ont pourtant jamais rien vu de tel, excluant de fait les résultats de DAMA et leur jetant un certain discrédit suite à leur entêtement et à leur certaine opacité. Oui mais.
Oui, mais il n’y a pas que des noyaux atomiques dans un détecteur, que ce soit un scintillateur organique, un gaz liquéfié ou un semi-conducteur, il y a aussi des électrons, et beaucoup. Or le signal de DAMA peut aussi être interprété comme des interactions de WIMPs sur les électrons au lieu des noyaux… Et ça, les collisions élastiques ou inélastiques sur les électrons, les autres manips de recherche directe ne s’y intéressent pas, soit qu’elles ne peuvent pas y accéder pour des raisons technologiques (nécessité d’un seuil de détection très bas entre autres), soit que la structure électronique des atomes en jeu ne s’y prête pas. Oui, mais…
Oui, mais non loin du détecteur de DAMA/LIBRA dans le laboratoire du Gran Sasso, il y a celui de XENON100, qui cherche des WIMPs avec du xénon liquide, en cherchant des collisions sur les noyaux de xénon. Et le xénon possède exactement la même structure de couches électroniques que l’iode, qui serait l’élément prépondérant du détecteur en iodure de sodium de DAMA/LIBRA pour ce qui est des interactions WIMP/électron. Et XENON100 est une expérience très sensible, avec un bruit de fond (un signal parasite) bien maitrisé et très bas, bien meilleur que celui de DAMA. C’était trop tentant pour les physiciens américano-européens de XENON100 de ne pas regarder ce que cela donnerait si on analysait les mesures à l'aune des interactions WIMPs-électrons au lieu de celles sur les noyaux.  
La collaboration XENON100 publie ainsi aujourd’hui dans la revue Science les résultats qu’elle a obtenus en analysant les données prises durant un peu plus de 220 jours entre le printemps 2011 et le printemps 2012, couvrant donc une période entière de modulation du signal (le maximum d’intensité théorique a lieu le 2 juin, le minimum ayant lieu le 2 décembre), en se focalisant autour de la période du maximum. Les physiciens de XENON100 obtiennent alors un certain signal, qu’ils doivent comparer avec ce que trouvent leurs concurrents de DAMA. Pour cela, ils convertissent le signal de DAMA en ce qu’il donnerait dans le détecteur de XENON100 s’il s’agissait d’un certain type de WIMP, puis comparent les deux.

Signal mesuré par DAMA/LIBRA (en rouge) et celui de XENON100 (en bleu)
durant la même période (XENON100 collaboration)
La collaboration XENON n’y est pas allée de main morte sur cette étude, puisqu’ils ont évalué le signal d’interaction WIMP-électron pour trois différents modèles de WIMPs, dont notamment ceux qui auraient pu expliquer plus facilement le signal de DAMA : la WIMP « standard », la WIMP de type « électron miroir » et la WIMP de type « matière noire lumineuse » (une particule massive qui a la particularité d’émettre un photon gamma en se désexcitant lors de son interaction avec la matière, et pour laquelle serait détectée l’interaction du photon gamma de désexcitation plutôt que celle de la particule massive).
Bref, vous l’aurez peut-être compris, les comparaisons de XENON100 pour chacun de ces trois modèles indiquent une très nette incompatibilité avec les données de DAMA.

La conclusion de cette étude est que des interactions de matière noire sur les électrons sont fortement exclues comme explication au signal modulé mesuré par DAMA/LIBRA. Il va donc encore falloir chercher l’explication ailleurs… ou bien les physiciens de DAMA/LIBRA acceptent enfin de fournir les détails sur leurs bruits de fond à basse énergie, mais ça c’est une autre paire de manches…


Source :
Exclusion of leptophilic dark matter models using XENON100 electronic recoil data
The XENON Collaboration
Science Vol. 349 no. 6250 pp. 851-854 (21 August 2015)

20/08/15

La comète Chury/67P pleine de trous

Parmi les nombreuses trouvailles effectuées par la sonde Rosetta sur la comète 67P/Chouryumov-Gerasimenko, il en est une étonnante qui concerne la surface du noyau cométaire : elle est pleine de trous, un vrai gruyère!


Une équipe de chercheurs européens exploitant les données multiples de Rosetta a publié il y a quelques semaines une étude consacrée à la structure de la surface de 67P dans la revue Nature et montre l’existence de nombreux gros trous dans le noyau cométaire: 18 exactement, de quoi faire un beau golf… Jean-Baptiste Vincent et ses collègues décrivent en détails ces trous étonnants visibles à la surface de Chury, qu’ils ont étudié de près grâce notamment aux images produites par l’instrument OSIRIS (Optical, Spectroscopic and Infrared Remote Imaging System) de Rosetta. C’est en cartographiant la surface de la comète que les chercheurs ont découvert la présence de ces 18 trous qui ont un diamètre de 200 mètres pour une profondeur d’environ 180 m. Leur morphologie est tout à fait singulière, de forme cylindrique avec une ouverture circulaire et des parois très abruptes. On n’ose imaginer si Philae avait fini sa course dans l’un de ces gros trous…

crédit : ESA/Rosetta/MPS for OSIRIS Team 
Qui plus est, ces trous paraissent actifs : les images des trous lorsqu’ils sont éclairés par la lumière solaire montrent un dégagement de poussières sous forme de jets, provenant de leurs parois ou bien de leur fond. La question que se posent les planétologues est bien sûr de savoir d’où viennent ces trous. Et l’équipe de J.B Vincent propose une hypothèse : ce seraient des trous d’effondrement. Ils se formeraient lorsque des matériaux de surface, plus denses que la structure sous-jacente s’effondreraient brutalement. Par ailleurs, il a été montré par l’équipe exploitant l’instrument Radio Science Investigation, que la densité moyenne du noyau cométaire de 67P n’était que de 0,47, soit deux fois moins que la densité de la glace. Et un autre instrument de Rosetta, le Grain Impact Analyser and Dust Accumulator avait mesuré quant à lui un ratio poussière/glace d’environ 4, ce qui laisse penser que ce sont des silicates et des matériaux organiques qui dominent largement la comète plutôt que de la glace. Cette donnée associée celle de la densité mène à la conclusion que 80% du volume de la comète est simplement du vide, ou en d’autres termes, que la comète est extrêmement poreuse, une grosse éponge… Les modèles de formation cométaire prédisent justement une forte porosité de leur structure interne, indiquant que les comètes se forment dans l’enfance du système solaire par agrégation de corps plus petits.

Les chercheurs montrent également dans leur étude que dans certaines zones de 67P, la surface est dominée par de vastes bassins très plats. Certains astronomes estiment qu’il peut s’agir de zones de sublimation très similaires à ce qui avait été observé sur une autre comète semblable à Chury, la comète Wild 2. On peut penser que ces bassins s’élargissent au fur et à mesure que leurs parois se subliment en dégazant, laissant derrière elles les particules non-volatiles qui viennent tapisser le fond du bassin.
Il vient alors à l’esprit des planétologues que peut-être que les grands trous observés par l’équipe de JB Vincent seraient les précurseurs de ses bassins de sublimation, qui s’agrandissent petit à petit par la sublimation de leurs parois. Ce qui est certain, c’est que la plupart des grands trous observés sur Chury se trouvent dans les mêmes zones que celles où se trouvent les vastes bassins.

ESA/Rosetta/MPS for OSIRIS Team / J.B Vincent et al.
Ce qui étonne les astronomes, c'est qu'on ne trouve pas de tels bassins de sublimation sur d'autres comètes plus vieilles que Chury et Wild 2. Le point commun de Wild 2 et Chury est en effet leur "jeune âge", c'est à dire la courte durée depuis laquelle elles ont été perturbées gravitationnellement par Jupiter et se retrouvent depuis sur une orbite à même de faire sublimer leur noyau et de les rendre actives : à peine 60 ans, alors que des comètes du même type sur lesquelles on n'observe pas de bassins ou de trous seraient bien plus vieilles (comme par exemple les comètes Tempel 1 ou Hartley 2). Une réponse possible à cette petite énigme pourrait être que sur ces "vieilles" comètes, les bassins pourraient avoir été remplis de couches importantes de matériau non volatile accumulées au cours des phases de sublimation successives, réduisant par là-même leur taux d'activité actuel.

Chury/67P est passée à son périhélie il y a une semaine (son point le plus proche du Soleil), situé à 180 millions de km du Soleil, c'était le 13 août. Rosetta va continuer à lui tourner autour en récoltant de précieuses données encore pendant plus d’un an, le comité de programme scientifique de l’ESA venant de décider la prolongation de la mission jusqu’à fin septembre 2016. Les chercheurs espèrent pouvoir compter sur quelques données en provenance de Philae s’il daigne communiquer correctement un jour, ce qui ne semble pas acquis pour le moment. Peut-être pourrons nous assister à l'apparition de nouveaux trous à la surface de 67P ou bien à l'élargissement des 18 déjà observés.

La compréhension des phénomènes associés à la sublimation du noyau des comètes pourra permettre de mieux appréhender l'origine de leur formation, car on ne sait toujours pas comment se forment les comètes à deux lobes proéminents comme Chury/67P : par collision douce de deux noyaux cométaires ou bien par érosion/sublimation progressive...


Source : 
Large heterogeneities in comet 67P as revealed by active pits from sinkhole collapse
Jean-Baptiste Vincent et al.
Nature 523, 63–66 (02 July 2015)

18/08/15

Quand des trous noirs font exploser des étoiles à distance

On ne soupçonne pas le pouvoir que peuvent avoir les trous noirs supermassifs. Une toute nouvelle analyse de 13 supernovas très inhabituelles, des explosions qui n'auraient pas dues avoir lieu et en des endroits peu communs, montre qu'un trou noir supermassif n'y serait pas pour rien. 


Cette histoire a commencé en 2000 lorsque des astrophysiciens découvrirent des supernovas qui avaient explosé en dehors de galaxies, et qui plus est il s'agissait d'étoiles jeunes qui n'auraient pas encore dû atteindre le stade de supernova. C'était depuis lors devenu un vrai petit mystère insoluble. Ryan Foley de l'Université d'Illinois a émis l'idée que ces étoiles avaient dûes migrer en dehors de leur galaxie avant d'exploser et que peut-être que le mécanisme à l'origine de cette éjection était aussi à l'origine de l'explosion prématurée...
Exemples de supernovas riches en calcium éloignées de leur galaxie d'origine
(NASA, ESA, and R. Foley, University of Illinois)
Afin de tester son idée, l'astronome, seul aux commandes, s'est intéressé à la vitesse de ces étoiles avant qu'elles n'explosent en fouillant les archives de trois grands télescopes, celui du Lick Observatory en Californie et les hawaïens Keck et Subaru.
Ce qu'il a découvert c'est que ces étoiles se déplaçaient à très grandes vitesses, semblables à celles des étoiles qui sont éjectées de notre Galaxie par notre trou noir supermassif. Pour donner un chiffre, disons 7 millions de kilomètres par heure (ça calme).

Ryan Foley s'est ensuite intéressé aux galaxies qui étaient les plus proches de ces supernovas si particulières, classées sous le terme "supernovas riches en calcium". Il a pour cela utilisé les données de Hubble, et ce qu'il a vu était que dans tous les cas, il s'agissait de grosses galaxies en train de fusionner ou de galaxies elliptiques ayant récemment fusionné. Et d'autres indices allaient dans le même sens, comme par exemple la présence dans de nombreux cas d'un ou plusieurs trous noirs supermassifs très actifs, nourris par de la matière fraîche issue de la collision galactique.  
Par ailleurs, un point commun de ces différents cas est que ces galaxies se trouvent dans un environnement dense au cœur d'amas de galaxies, le lieu privilégié pour des fusions de galaxies...

A partir de ces différents indices, le scénario élaboré par Foley est le suivant : deux vieilles galaxies contenant donc pas mal d'étoiles doubles se rapprochent l'une de l'autre et fusionnent. Lors de la fusion, les deux trous noirs supermassifs se rapprochent inéluctablement l'un de l'autre en spiralant l'un vers l'autre. Se faisant, ils emportent avec eux tout un cortège d'étoiles qui se trouvent suffisamment près d'eux pour être piégées gravitationnellement. Mais lorsque les deux trous noirs se retrouvent vraiment très près l'un de l'autre, une étoile binaire en orbite autour du premier peut se retrouver très près aussi du second, et les effets gravitationnels à trois ou quatre corps, dont deux supermassifs, étant ce qu'ils sont, il peut tout simplement arriver une violente éjection de l'étoile binaire à grande vitesse en dehors du plan de la galaxie.
 Et le scénario n'est pas fini, ce faisant, le couple d'étoiles est également déstabilisé, ce qui induit que les deux étoiles se rapprochent aussi l'une de l'autre au cours de leur éjection de la galaxie. Et au bout d'un moment, les deux étoiles, dont une naine blanche préférentiellement, sont trop proches et fusionnent à leur tour, et la naine blanche ne le supporte pas, c'est l'explosion, la supernova. 
La durée écoulée entre l'éjection et l'explosion est de l'ordre de 50 millions d'années, alors qu'un couple de naines blanches tranquille peut théoriquement durer plusieurs milliards d'années.

Des éjections d'étoiles peuvent avoir lieu aussi avec un seul trou noir supermassif comme je l'ai déjà mentionné avec par exemple Sgr A*. On estime que notre trou noir supermassif éjecte ainsi une étoile par siècle. Mais avec deux trous noirs supermassifs en interaction gravitationnelle, la probabilité se retrouve multipliée par 100 !

Mais ces supernovas très particulières cachent semble-t-il encore quelques mystères... Elles ont une luminosité systématiquement plus faible que leurs congénères plus classiques, et par ailleurs elles semblent stopper leur fusion thermonucléaire à la production du calcium au lieu de continuer jusqu'au fer comme les supernovas "normales". Elles éjectent également moins de matière lors de l'explosion. Des questions à même de donner encore un peu de travail aux meilleurs scénaristes de l'astrophysique. 


Source :

Kinematics and host-galaxy properties suggest a nuclear origin for calcium-rich supernova progenitors
Ryan J. Foley
Monthly Notices of the Royal Astronomical Society 452, 2463–2478 (2015) 

17/08/15

Deux nouveaux détecteurs d’astroparticules très bientôt sur l’ISS

Dans deux jours s’envolera du Japon depuis le centre spatial de Tanegashima le cinquième cargo de ravitaillement japonais à destination de la station spatiale internationale (ISS). Cet événement pourrait passer inaperçu, sauf qu’il emporte un instrument scientifique pas comme les autres, un détecteur de rayons (particules) cosmiques.


On a déjà longuement parlé ici du détecteur d’antiparticules AMS02, qui est installé sur l’ISS depuis 2011 et qui fournit des résultats assez étranges depuis quelques années, avec toujours plus de précision tous les 6 mois environ, sous la forme d’un excès de positrons (anti-électrons) de haute énergie. La station spatiale est de fait un excellent endroit pour étudier les particules venant de l’univers, qu’elles constituent de la matière ou de l’antimatière. Quand on les étudie depuis le sol terrestre en effet, on ne les détecte pas directement mais seulement leurs produits secondaires qu’elles génèrent en interagissant dans l’atmosphère. En orbite, il en est tout autrement car ce sont les particules initiales elles-mêmes que l’on peut attraper. 
Actuel et futurs détecteurs de particules sur l'ISS (A. CUADRA/Science)
Un des inconvénients de ce gros détecteur était sa masse, et son coût, qui dépassait le milliard de dollars. Mais face à la très bonne efficacité obtenue, les physiciens ont eu l’idée d’exploiter à nouveau l’ISS pour y faire de la science, et donc d’y implanter d’autres détecteurs de rayons cosmiques, non pas en remplacement de AMS02, qui fonctionne toujours bien, mais plutôt en complément, pour regarder les particules énergétiques différemment, et pour moins cher. 
Ce tout nouveau détecteur de rayons cosmiques qui devrait arriver à bon port cinq jours après son lancement s’appelle CALET (CALorimetric Electron Telescope). Il est issu d’une collaboration internationale regroupant des japonais, des américains et des italiens. Cet instrument qui n’a coûté que 33 millions de dollars est dévolu à l’étude d’un certain type de particules cosmiques : des électrons de très haute énergie, ainsi que leurs antiparticules. Comme ces électrons perdent rapidement de l’énergie lorsqu’ils voyagent dans le milieu galactique ou extragalactique, les plus énergétiques d’entre eux doivent forcément provenir de moins de quelques milliers d’années-lumière, donc de l’intérieur de notre galaxie.
CALET devrait être à même d’identifier des sources proches capables d’accélérer les électrons, on pense notamment à des résidus de supernovas, mais aussi à des pulsars, et pourquoi à d’autres sources potentielles comme des désintégrations d’hypothétiques particules de matière noire. L’énergie maximale atteignable par CALET sera bien plus élevée que celle de AMS02, mais à l’inverse de AMS02, ne permettra pas de compter tous les types de particules, se focalisant seulement sur les électrons, et ne pouvant d’ailleurs pas distinguer directement électrons et anti-électrons. Mais un excès de positrons pourra tout de même être détecté sous la forme d’un excès global de particules, dont on pourra en extraire un éventuel surplus de positrons par de savantes analyses de données.
Et les physiciens ne s’arrêtent pas là. Dans le courant de l’année prochaine, ce sera au tour d’un troisième détecteur de particules d’être installé à l’extérieur de l’ISS. Celui-là porte un nom plus amusant que les autres : Cosmic Ray Energetics and Mass for the ISS, soit l’acronyme ISS-CREAM qui paraît-il doit se prononcer « Ice Cream »…

ISS-CREAM devrait être lancé par SpaceX en juin 2016 et se focalisera lui, toujours dans un esprit de complémentarité, sur les noyaux lourds de haute énergie, depuis les noyaux d’hydrogène (les protons) jusqu’aux noyaux de fer. La mesure précise de la composition de ces types de « rayons cosmiques » devrait nous en apprendre beaucoup sur les processus qui sont à l’origine de l’explosion des supernovas.
Nos connaissances actuelles sur les rayons cosmiques butent toujours sur une question sans réponse. Dans le spectre en énergie de ces particules, il apparaît ce que les spécialistes appellent le « genou ». C’est en fait la forme du spectre en énergie (la courbe représentant le flux de particules en fonction de leur énergie, en échelle logarithmique) qui décroit assez lentement plus l’énergie augmente, puis soudain, à une énergie de l’ordre de 1016 eV, la pente de la courbe change, montrant une décroissance plus forte, ce qui donne à cette courbe l’aspect d’une jambe pliée.
Spectre en énergie des rayons cosmiques montrant la rupture de pente, appelée "knee" (genou).
Les physiciens pensent aujourd’hui que le “genou” pourrait être l’énergie maximale que pourraient fournir les supernovas à leurs particules par des phénomènes d’accélération. Les particules d’énergie supérieure seraient alors issues de phénomènes physiques ou de sources différents. Comme l’énergie transférée aux particules se fait par des processus électromagnétiques, cette dernière dépend de la charge électrique de la particule en question. Il s’ensuit que plus un noyau atomique est chargé (donc plus il possède de protons), plus son énergie devrait être grande. C’est ce que doit démontrer ISS-CREAM. Si ce mécanisme se trouve exact, les rayons cosmiques ayant une énergie au-delà du genou pourraient être expliqués par l’existence d’accélérateurs naturels plus puissants que les supernovas comme par exemple des trous noirs supermassifs.
Et ce n’est pas encore tout… Les physiciens japonais ne manquent pas d’imagination car ils prévoient d’installer encore un autre détecteur spécifique sur l’ISS, mais dans 6 ans cette fois, qui s’appelle pour l’instant le Extreme Universe Space Observatory at the Japanese Experiment Module (JEM-EUSO). Ce détecteur aura la particularité de scruter les rayons cosmiques de manière indirecte, en observant leurs interactions avec l’atmosphère de la Terre, mais vues du dessus. Il s’agira d’observer la lumière ultra-violette qui est générée par les gerbes de particules secondaires produites par les rayons cosmiques primaires ultra-énergétiques. JEM-EUSO devrait ainsi permettre aux astroparticulistes d’en déduire leur énergie et leur origine.

La station spatiale internationale est donc en passe de devenir un véritable laboratoire de physique des astroparticules et on ne peut que s’en réjouir. On se demande déjà pourquoi ce type d’expériences n’avait pas été imaginé dès le départ de l’ISS il y a plus de 15 ans.

Source :
Science Vol. 349 no. 6248 pp. 572-573  (7 August 2015)
Catching cosmic rays where they live
Emily Conover

16/08/15

Découverte du plus petit trou noir supermassif à ce jour

L'une des grandes questions de l'astrophysique aujourd'hui est de savoir comment les trous noirs supermassifs, ces monstres qui peuvent atteindre plusieurs dizaines de milliards de masses solaires au centre des galaxies parviennent à grossir de la sorte, et d'où viennent-ils, au fond ?


 RGG 118, observée en visible et en rayons X
(X-ray: NASA/CXC/Univ of Michigan/V.F.Baldassare, et al;
Visible: SDSS; Illustration: NASA/CXC/M.Weiss)
La découverte du trou noir supermassif le plus petit jamais entrevu à ce jour vient d'être acceptée pour publication dans The Astrophysical Journal Letters par une équipe de quatre astrophysiciennes américaines grâce à l'utilisation conjointe du télescope spatial Chandra X-ray Observatory et du télescope Clay de 6,5 m, installé au Chili. La masse de ce tout petit trou noir supermassif n'est que de 50 000 masses solaires, et il se trouve bien au centre de sa galaxie, nommée RGG 118. Le précédent record de petitesse était environ le double en masse, soit 100 000 masses solaires. Cette découverte est importante car elle devrait permettre de mieux comprendre comment les trous noirs de différentes masses grossissent. Pour fixer les idées, ce trou noir de RGG 118 est environ 100 fois moins gros que Sgr A*, le trou noir supermassif de notre galaxie, qui n'est déjà pas réputé pour être très gros. La galaxie hôte de ce trou noir, RGG 118, est elle-même une galaxie naine, qui se trouve à 340 millions d'années-lumière.

La masse du trou noir a pu être estimée par les astrophysiciennes grâce à la mesure de la vitesse du gaz froid à proximité du centre de la galaxie, en lumière visible. Elles ont ensuite observé les rayons X qui en provenaient pour trouver que l'émission de gaz chaud spiralant vers le trou noir montrait une pression de radiation en accord avec ce qui était attendu pour un trou noir supermassif. Par ailleurs, la relation entre les vitesses des étoiles autour du trou noir et sa masse est conforme avec ce qui est observé dans d'autres cas de trous noirs supermassifs.  
Ce que montrent Vivienne Baldassare de l'Université du Michigan et ses collègues, c'est que ce tout petit trou noir supermassif se comporte tout à fait comme les gros trous noirs de plusieurs millions ou milliards de masses solaires, ce qui indiquerait que le processus de grossissement serait indépendant de la taille du trou noir au temps t.

Les deux scénarios alternatifs dominants actuellement pour la formation des premiers trous noirs supermassifs sont :
1) la formation de trous noirs "graines" par l'effondrement de gigantesques nuages de gaz ayant une masse entre 10 000 et 100 000 masses solaires, 
2) la formation de graines par l'effondrement d'étoiles géantes d'environ 100 masses solaires. 
Il surviendrait ensuite dans les deux cas une succession de fusions de ces trous noirs, devenant ainsi de plus en plus gros...

La découverte du trou noir de RGG 118 pourra peut-être permettre de décider lequel des deux scénarios est le bon, c'est en tous cas ce qu'espèrent de nombreux astrophysiciens. Mais la quête de trous noirs supermassifs toujours plus petits continue, car dans ce domaine comme dans d'autres, la quantité de données s'avère toujours primordiale pour construire un modèle robuste.

Source : 
A ~50,000 solar mass black hole in the nucleus of RGG 118
Vivienne Baldassare et al.
à paraître dans The Astrophysical Journal Letters