Astronomie, Astrophysique, Astroparticules, Cosmologie. L'infini se contemple, indéfiniment. ISSN 2272-5768
31/05/14
27/05/14
Ondes Gravitationnelles et Inflation peuvent Disparaître dans un Nuage de Poussières
La science est peut-être aussi en train de vivre une crise de confiance. Vous vous souvenez que le 18 mars dernier, je vous annonçais la découverte des premières ondes gravitationnelles de l’univers comme étant une confirmation de l’existence de l’inflation. Cette découverte avait été annoncée lors d’une conférence de presse à Harvard à grands renforts de buzz médiatique. Les résultats pouvaient sembler robustes a priori, mais assez vite, des objections se sont fait connaître.
Il se pourrait que l’équipe de BICEP2 ait pris un signal de bruit de fond pour le signal utile et que leur découverte n’en soit en fait pas une… Je serais tombé dans le piège avec des milliers d’autres. C’est en tout cas une version qu’essaye d’imposer un groupe de cosmologistes qui ont ré-analysé comme ils ont pu les données de BICEP2, dont l’article scientifique n’a toujours pas été publié par ailleurs.
Pour essayer d’y voir un peu plus clair, reprenons le problème. Les physiciens de BICEP2 ont détecté une polarisation particulière de la lumière micro-onde du fond diffus cosmologique (CMB), que l’on appelle une polarisation de modes B.
Mais il se trouve qu’une autre source produit des photons polarisés circulairement formant une polarisation de modes B : la poussière interstellaire de notre galaxie. Cette source étant connue, les données brutes doivent donc être traitées pour enlever le signal parasite du signal total détecté.
D’après le physicien théoricien Raphael Flauger, de l’Institute for Advanced Studies de Princeton, presque tout le signal de BICEP2 pourrait être dû à cette poussière galactique, et non au CMB. Il a présenté son analyse à l’Université de Princeton le 15 mai dernier.
Carte du CMB avant correction et après correction (Raphael Flauger) |
Les chercheurs de la collaboration BICEP2, eux, avaient estimé que le signal de ces poussières galactiques d’avant-plan était négligeable. Ils l’ont modélisé de plusieurs façons et le plus sophistiqué de ces modèles est basé sur une carte du rayonnement micro-onde d’ « avant-plan » produite par le satellite européen Planck.
Comme la collaboration Planck n’a pas encore publié ses résultats sur ce point, les physiciens de Princeton se sont servis pour faire leur analyse de la carte qu’avait présentée l’équipe de BICEP2 le 17 mars lors de leur présentation.
L’équipe de BICEP2 affirmait que la carte du signal parasite ne montrait un rayonnement ne provenant que de l’intérieur de notre galaxie. Mais Raphael Flauger affirme lui qu’elle pourrait aussi contenir du rayonnement non-polarisé provenant d’autres galaxies plus lointaines, ce qui aurait pour conséquence de laisser penser que la polarisation du rayonnement parasite de la galaxie est beaucoup plus faible que ce qu’il est en réalité. Cette carte et cette estimation aurait induit les chercheurs de BICEP2 en erreur en sous-estimant l’avant-plan galactique et donc surestimant la polarisation du rayonnement du CMB. Ils n’auraient pas enlevé autant de signal parasite qu’ils auraient dû.
Pour tester son idée, Flauger a utilisé d’autres données provenant de Planck, également récupérées à la mano d’une présentation, pour corriger la carte que BICEP2 a utilisée. Sa conclusion est sans appel, l’avant plan apparaît beaucoup plus fort sur la carte corrigée et, selon lui, il peut expliquer tout le signal observé par BICEP2…
John Kovac, chef de file de la collaboration BICEP2 répond qu’il a toujours été clair qu’ils ne pouvaient pas être sûrs de la fraction de leur signal provenant réellement du CMB. Les six modèles de poussières polarisées utilisés ont tous une part importante d’incertitude, rendant l’interprétation délicate.
Mais Raphael Flauger répète quand même qu’il n’a pas prouvé que le signal de BICEP2 est erroné. Il dit « J’espère toujours après tous les calculs que j’ai refaits que le signal de BICEP2 existe bel et bien… ». Mais on ne peut pas cacher que leur annonce a maintenant quelques sérieuses épines dans le pied. Car il n’y a pas que l’analyse de Flauger qui est en cause, il se trouve aussi que l’intensité du signal de polarisation mesuré par BICEP2 est deux fois plus élevé que la limite supérieure déterminée indirectement par des physiciens de Planck à partir des variations de température du CMB. La taille du signal pose aussi des problèmes aux théoriciens qui essayent d’expliquer comment eut lieu l’inflation…
Signal de polarisation de modes B (BICEP2 collaboration) |
Les physiciens de BICEP2 n’avaient peut-être pas le bon instrument pour mesurer finement la polarisation du rayonnement du fond diffus cosmologique. Il aurait suffi de disposer d’un télescope pouvant échantillonner plusieurs longueurs d’ondes et non pas une seule. La mesure de plusieurs fréquences aurait permis immédiatement de séparer les composantes d’avant-plan et d’arrière-plan.
Nous devrions connaître le fin mot de cette histoire en octobre prochain, quand la collaboration Planck publiera ses résultats sur la mesure de polarisation du CMB. Il y aura alors deux cas de figure :
Dans le premier, Planck trouve un avant-plan très faible, Flauger a tort, le signal de BICEP est donc réel, et l’équipe BICEP pourra toujours revendiquer la découverte, même si Planck mériterait sa part de la découverte par sa confirmation.
Dans le second cas de figure, Planck trouve un rayonnement galactique polarisé important, le signal de BICEP2 n’était qu’un artefact, et là, et bien, la crédibilité de la science va en prendre un coup…. Nous nous demanderons tous désormais comment faire confiance aux chercheurs qui nous annoncent en grandes pompes des découvertes exaltantes, avant d’avoir vérifié entièrement leurs résultats ou leurs modèles, et sans doute devrons-nous nous remettre en question en tant que relais d’informations scientifiques auprès du grand public, et moi le premier…
Source:
Blockbuster claim could collapse in a cloud of dust
Adrian Cho
Science Vol. 344 no. 6186 p. 790 (23 May 2014)
26/05/14
La Seconde Vie du Télescope Kepler
La nouvelle mission est appelée K2, mais vous n'y trompez pas, il s'agit toujours du télescope Kepler. Kepler n'est pas mort comme on l'a cru suite à ses déboires de roues gyroscopiques. Les ingénieurs de la NASA ont trouvé une superbe astuce pour continuer à utiliser le télescope dans sa traque aux exoplanètes. La solution trouvée est digne des plus grandes astuces que peut nous offrir la physique...
Tout d'abord, rappelons que le télescope spatial Kepler, qui est en orbite autour du soleil, est muni de quatre roues gyroscopiques qui lui servent à s'orienter et à maintenir son orientation pour pouvoir observer les étoiles. L'année dernière, nous apprenions que, après une première roue, c'était une deuxième roue gyroscopique qui s'était grippé... Or il faut au moins trois roues pour que Kepler puisse s'orienter correctement. Il était donc foutu pour poursuivre sa mission... Sauf que...
Sauf que les ingénieurs sont parfois ingénieux... La NASA a tout de suite lancé un grand brainstorming parmi toutes les équipes touchant de près ou de loin à la navigation des télescopes spatiaux et un projet s'est finalement imposé, trouvé un financement et vient d'être accepté par le comité sélection de la NASA.
L'équipe proposant cette seconde vie pour Kepler, le projet K2, a eu l'idée de remplacer la roue gyroscopique défectueuse par... le soleil! Bien évidemment, il est impossible d'aller le réparer là où il est, il faut donc utiliser ce qu'on a sous la main. Le phénomène physique qu'ils ont eu l'idée d'exploiter est la pression de radiation. Les photons du soleil qui impactent en permanence le corps du télescope produisent une pression, de la même manière que le ferait le vent sur un objet dans l'atmosphère.
Pour rendre le télescope stable, pointant toujours dans la même direction, il faut que sa zone anguleuse faisant la jonction de deux de ses panneaux solaires se trouve parfaitement de face vis à vis du rayonnement solaire, la symétrie du tube faisant le reste.
Le concept du projet K2, la seconde vie de Kepler (NASA) |
Cette position particulière a en revanche des conséquences : l'orientation de Kepler doit toujours rester parallèle à son mouvement, ce n'est pas compliqué en soi, sauf que Kepler tourne autour du soleil et il ne doit jamais avoir le soleil dans son miroir, sous peine de destruction immédiate des systèmes d'imagerie... Cette position de stabilité par pression de radiation implique donc que le télescope doit changer d'orientation à quatre reprises au cours de sa rotation autour du soleil.
Cette nouvelle mission sera ainsi découpé en quatre campagnes distinctes qui pointeront du coup 4 régions du ciel différentes.
Chaque campagne d'observation durera 83 jours, au cours desquels Kepler poursuivra le travail commencé depuis son lancement : scruter des variations très faibles de luminosité d'étoiles signant la présence de planètes en transit devant leur étoile.
Il est probable que certains ingénieurs américains ont été élevés à McGyver, et c'est plutôt une bonne nouvelle.
25/05/14
21/05/14
New Horizons : Ratage en Vue...
A plus de 4 milliards de kilomètres de la Terre, la sonde New Horizons en route vers Pluton, qu’elle doit atteindre en juillet 2015, risque fort de rater la moitié de sa mission initiale.
New Horizons a été lancée en 2006 avec deux objectifs : d’une part étudier Pluton et ses satellites, et d’autre part, étudier un objet de la ceinture de Kuiper (un OCK), ce grand réservoir de petits corps glacés aux confins du système solaire.
Le périple de New Horizons (NASA) |
Et jusqu’à aujourd’hui, les astronomes impliqués dans le projet ont utilisé deux télescopes : le télescope Subaru de 8,2 m à Hawaï et le télescope Magellan de 6,5 m au Chili. Ils ont trouvé 50 nouveaux OCK… mais aucun n’est à une distance suffisante pour être atteint par New Horizons. Or le temps presse de plus en plus, puisque New Horizons doit changer de trajectoire juste après son passage près de Pluton l’année prochaine, pour rejoindre ce fameux OCK. Evidemment, pour calculer avec une bonne précision la nouvelle trajectoire, il faut savoir un peu en avance quelle est la cible et quelles sont ces caractéristiques orbitales…
Les astronomes n’ont plus que quelques mois pour trouver un candidat intéressant et pour tout calculer. Pris par le stress, l’équipe en charge de cette quête vient de demander en urgence un énorme temps d’observation sur le télescope spatial Hubble (plus de 150 orbites d’observations), alors que ce dernier est déjà surbooké… Le comité du HST qui alloue les temps d’observation doit donner sa réponse le 13 juin prochain.
Une partie du problème rencontré par les chercheurs d’OCK est que la zone de recherche se trouve exactement dans plan galactique (la Voie Lactée que nous pouvons voir par nuit bien noire). C’est une zone où se trouvent énormément d’étoiles évidemment, et dont la luminosité noie celle des éventuels OCK présents en avant-plan.
Il y a aussi un problème moins avouable, qui est que le nombre d’OCK trouvables a été très surestimé par l’équipe américaine. Le nombre d’OCK de faible luminosité avait été extrapolé à partir de celui des OCK de forte luminosité, or il s’est avéré que la relation n’est pas linéaire du tout…
Avec le temps d’observation qu’il leur reste d’ici à la fin 2014 sur Subaru et Magellan, la probabilité de trouver un bon OCK a été estimée être inférieure à 40%. Elle pourrait remonter à 90% si le temps d’observation demandé avec Hubble est accordé. C’est donc presque leur dernière chance. Sans Hubble, il serait peut-être encore possible de détecter un OCK en début d’année prochaine mais cela compliquerait sérieusement la mission car il faudrait alors que New Horizons attende un peu plus après son passage auprès de Pluton avant d’allumer ses moteurs pour modifier sa trajectoire, ce qui voudrait dire aussi que la sonde devrait effectuer un virage beaucoup plus serré que ce que les scientifiques souhaiteraient, pour atteindre la trajectoire correcte.
Dans le pire des cas, car ils l’imaginent aussi, bien sûr, New Horizons passerait quand même aux environs d’un OCK, mais beaucoup plus loin que ce qui était prévu initialement. Plusieurs cibles à longue distance ont été identifiées. Les planétologues se réconfortent quelque peu en se disant que même à grande distance, le télescope de 21 cm de New Horizons fera des meilleures images d’OCK que celui de 2,4 m de Hubble en orbite terrestre… On se console comme on peut.
Source :
Pluto-bound probe faces crisis
A.Witze
Nature 509, 407–408 (22 May 2014)
20/05/14
Des Microbes sur Mars ?
Des dizaines d’espèces de microbes ont pu accompagner le rover Curiosity sur Mars, où il a atterri en août 2012. Il semble effectivement que des microbes clandestins aient pu échapper à la vigilance des méthodes de nettoyage avancées de la NASA avant le lancement de la sonde. Mais personne ne peut affirmer si ces bactéries ont survécu ou non à leur voyage interplanétaire.
Une étude qui s’est penché sur plus de 300 souches bactériennes prélevées sur Curiosity avant son départ a montré qu’un nombre étonnamment élevé résiste à des températures extrêmes et aux dommages causés par le rayonnement ultra-violet dur (les UV C). Ces résultats qui ont été présentés le 19 mai lors du meeting annuel de l’American Society for Microbiology sont les premiers du genre permettant de comprendre comment certaines bactéries peuvent survivre à une décontamination et à un vol spatial.
Curiosity sur Mars (NASA/JPL) |
Ce travail donne des informations capitales sur ces microbes qui peuvent être des explorateurs spatiaux, comme on les appelle. Le frottis des différentes surfaces de Curiosity avant son lancement, a révélé pas moins de 65 espèces différentes de bactéries. La plupart étaient du genre Bacillus. Une fois rapportées au labo, les biologistes leur ont fait subir des tas de mauvais traitements : dessèchement, exposition UV, froid et acidité extrêmes.
Résultat : Environ 11% des 377 souches ont survécu à plus d’une de ces conditions très sévères. Et 31% de ces bactéries résistantes n’ont pas formé de spores de protection. Les chercheurs estiment qu’elles ont utilisé d’autres moyens biochimiques de protection, comme des modifications métaboliques.
Stephanie Smith de l’université de l’Idaho, qui a mené cette étude, précise qu’au début de ce travail, rien n’était connu sur les organismes collectés.
Un travail plus ancien, dirigé par le Jet Propulsion Laboratory de la NASA, s’était intéressé aux microbes isolés sur les structures de montages du rover Curiosity. Il avait conduit à recenser l’ensemble des microbes présents.
L'identification de ces espèces résistantes aide à évaluer les niveaux de contamination résiduelle sur de tels engins spatiaux.
Bacillus Subtilis |
Alors que les sondes spatiales passent par de multiples phases de nettoyage et désinfection pour assurer l'absence de contamination, des rapports de la NASA suggèrent que les développeurs du projet Curiosity n'ont pas suivi les protocoles de protection à la lettre... Ces protocoles sont des précautions, car bien sûr, on ne sait pas très bien si ces petites bêtes peuvent tolérer les conditions très dures de la surface martienne...
Et les planétologues ne sont pas rassurés. Ils s'inquiètent que ces souches microbiennes puissent contaminer le sol de Mars ou potentiellement atteindre des échantillons de roches qui seraient collectés par de futures missions, laissant croire à l'existence d'une vie microbienne martienne...
Les données qui ont été présentées par Stephanie Smith et son équipe devrait aider les spécialistes de la NASA à revoir leurs procédures de désinfection, elles indiquent surtout que ce sujet mérite encore d'être fouillé. La connaissance des espèces bactériennes qui peuvent survivre à un voyage interplanétaire est d'autant plus crucial dans l'optique de la future mission américaine planifiée en 2020 avec un rover quasi identique à Curiosity, mais avec l'objectif de rapporter des échantillons sur Terre... Ça serait tout de même ballot de découvrir des bactéries martiennes ayant fait l'aller-retour.
Source :
Microbial stowaways to Mars identified
J. Madhusoodanan
Nature, 19 May 2014
18/05/14
15/05/14
Quelle est la Durée de Vie d'un Neutron ?
Malgré plusieurs décennies de
mesures, les physiciens ne sont toujours pas d’accord sur la valeur de la durée de vie du neutron. Les neutrons
sont les particules qui forment les noyaux d’atomes avec les protons. Ils sont
stables lorsqu’ils sont confinés au sein d’un noyau atomique, mais tout seuls,
ils se désintègrent spontanément en protons par une désintégration béta :
ils émettent un électron et un antineutrino. Leur durée de vie est de l’ordre
de un quart d’heure.
Connaître la durée de vie exacte
du neutron est très important en physique, notamment pour répondre à des
questions fondamentales sur l’existence ou non d’une nouvelle physique au-delà
du modèle standard et sur des processus astrophysiques nouveaux.
Il existe deux façons de faire
pour mesurer la durée de vie des neutrons : soit on compte le nombre de
neutrons qui disparaissent à partir d’un paquet de neutrons préalablement
préparé, ou soit on compte le nombre de « produits » de leur
désintégration béta. La première méthode est appelée la méthode de la bouteille, et la seconde la méthode du faisceau.
Désintégration béta du neutron en proton |
La méthode du faisceau est la
plus ancienne, expérimentée depuis les années 1980. Elle consiste à produire un
fin faisceau de neutrons que l’on va entourer par des pièges à protons. On peut
ainsi compter le nombre de protons émis par le faisceau et par là même
connaître le nombre de neutrons qui « meurent ». La dernière mesure
de ce type a été effectuée en 2013 par des physiciens américains du NIST (National Institute of Standards and
Technology) qui se sont spécialisés dans ce type de mesure. Ils obtiennent une durée de vie très
exactement de 887,7 ± 3,1 secondes.
Les mesures via la méthode de la
bouteille, elles, en revanche ont été développées seulement depuis la fin des
années 1990, et permettent d’atteindre une précision plus grande. La méthode
consiste à enfermer un certain nombre de neutrons dans une sorte de conteneur
bien fermé, puis à compter le nombre de neutrons à certains intervalles de
temps. La meilleure mesure à ce jour obtenue par cette méthode date de 2008,
par une collaboration entre une équipe russe du Petersburg Nuclear Physics Institute et l’Institut Laue Langevin de Grenoble. Le résultat obtenu valait 878,5 ±
1 secondes.
Il y a donc une différence de 9
secondes entre les deux mesures, qui est très largement supérieure aux barres
d’erreur respectives des deux manips. C’est tout à fait embarrassant pour les
physiciens. Quelqu’un se trompe, mais qui ? Et le plus gros problème n’est
pas tant de trouver quel protocole
expérimental produit un biais, c’est plutôt de savoir quelle est la bonne durée
de vie du neutron entre ces deux valeurs, car cette différence de 9 secondes,
aussi petite peut-elle nous sembler, a des conséquences très importantes par
exemple en cosmologie. La durée de vie du neutron a un impact direct sur la
formation des premiers noyaux atomiques, la nucléosynthèse primordiale.
Installation expérimentale du NIST (méthode du faisceau) |
Pour les astrophysiciens qui
élaborent le modèle de la nucléosynthèse primordiale, la durée de vie du
neutron est le paramètre qui possède la plus grosse incertitude, et ils sont
bien embêtés. Il se trouve que parmi les choses qui peuvent impacter par
ailleurs la nucléosynthèse primordiale, il y a la matière noire, sous forme de particules exotiques. Ces particules
pourraient avoir interagi avec les protons et les neutrons de l’Univers
primordial et avoir ainsi modifié la production des premiers noyaux d’atome.
L’enjeu de connaître précisément la durée de vie du neutron est donc crucial.
Et bien comprendre la
décroissance béta du neutron est également extrêmement important pour
comprendre l’une des quatre forces fondamentales, l’interaction faible. C’est
cette interaction qui est responsable par exemple de la fusion nucléaire et de
la radioactivité. Le modèle standard de la physique des particules décrit très
bien la désintégration béta du neutron mais les physiciens se demandent toujours
si ce modèle est complet. Si des mesures de la décroissance du neutron dévient
des prédictions, elles pourraient être le signe de l’existence d’un niveau plus
profond sous-jacent…
Enfin, une autre possibilité est
que justement l’écart de 9 secondes observé entre les deux types d’expériences
est une preuve de nouvelle physique. Le fait que la durée de vie mesurée est
plus courte dans la méthode de la bouteille pourrait signifier que les neutrons
se désintègrent occasionnellement par un autre moyen que la désintégration
béta, produisant autre chose que des protons. Cela créerait un certain nombre
de protons manquants dans les expériences à faisceau, qui mesureraient alors
une durée de vie des neutrons plus longue que dans les expériences à bouteille,
comme si moins de neutrons se désintégraient dans une durée donnée alors qu’ils
se désintégreraient bien, mais en autre chose, non détecté.
Il faut préciser que ces expériences
sont très difficiles à effectuer. Dans les expériences à faisceau, la
difficulté vient du fait qu’il faut pouvoir compter de manière absolue à la
fois les neutrons qui se trouvent dans le faisceau et les protons qui sont
capturés.
Dans les expériences à bouteille,
le challenge technologique concerne la bouteille. Il faut que les parois
internes de la bouteille réfléchissent parfaitement les neutrons, sans aucune
absorption… L’équipe de l’ILL travaille actuellement à la mise au point d’un
conteneur plus grand pour comparer les résultats obtenus avec des bouteilles
plus petites. Ils devraient ensuite pouvoir extrapoler les résultats à une
bouteille de dimension infinie, et pouvoir ainsi atteindre des précisions de
quelques dixièmes de secondes sur la valeur de la durée de vie du neutron.
D’autres équipes comme celle du
laboratoire national de Los Alamos aux Etats-Unis, travaillent à l’élimination
pure et simple des parois de la bouteille, par l’utilisation de champs
magnétiques et gravitationnels auxquels sont sensibles les neutrons.
Si les deux méthodes ne
parviennent pas à réconcilier leurs résultats, il faudra certainement inventer
une nouvelle méthode de mesure, sans quoi nous devrons conclure que la physique
nous cache encore des choses.
Source
:
Neutron
Death Mystery Has Physicists Stymied
C. Moskowitz
Scientific
American (May 13 2014)
13/05/14
Neutrinos Stériles et Matière Noire font Bon Ménage
« Neutrinos stériles » et « matière noire ». Ces deux expressions vont de mieux en mieux ensemble on dirait. Au moment où vient d’être publié un livre blanc (4) sur les neutrinos stériles, sous la forme d’un énorme article de plus de 150 pages faisant tout le tour de la question, rédigé par les dizaines de spécialistes de ces particules décidemment étonnantes, un article, paru fin avril dans Physical Review Letters (1), serait presque passé inaperçu si une brève parue dans Nature la semaine dernière (2) ne s’en était fait l’écho sous l’interjection « Heavy neutrino may be dark matter » qui ne pouvait qu’attirer mon regard…
Cet article de Phys. Rev. Letters est le fruit d’un physicien américain, seul, Kevork Abazajian, qui travaille à l’université de Californie. Il y démontre par quel mécanisme des neutrinos stériles de 7 keV peuvent être produits et être à l’origine des raies gamma inconnues observées à 3,5 keV en provenance du centre des amas de galaxies.
Paramètres (angle de mélange - masse) les plus probables pour le neutrino stérile déterminés par Abazajian. |
Nous en avions parlé ici en février dernier, plusieurs équipes d’astrophysiciens ont observé une raie spectrale de rayons X (gamma) à l’énergie d’environ 3,5 keV. Cette raie ne correspond à rien de connu et semble bien réelle, c’est-à-dire statistiquement significative. Et la seule hypothèse restante pour expliquer l’existence de ces photons semblant provenir de là où il y a la plus de matière noire, est qu’ils proviendraient de la désintégration de neutrinos stériles. Les neutrinos stériles sont une famille hypothétique de neutrinos, faut-il le rappeler, dont la caractéristique essentielle est qu’ils n’interagissent avec rien, si ce n’est par gravitation. Et comme ils sont un peu lourds, ils se désintégreraient en produisant des neutrinos « normaux » et des photons dont l’énergie serait la moitié de leur masse.
Ce que fait Abazajian, c’est de considérer qu’effectivement toute la matière noire est constituée de tels neutrinos stériles de 7 keV, et il cherche ensuite quel mécanisme physique peut être à l’origine de la production de ces neutrinos pour ensuite regarder quels effets ce mécanisme produit au final sur les structures à petite échelle et grande échelle dans l’Univers.
Un des gros défauts du modèle dit de matière noire froide impliquant des WIMPs, et qui est pourtant le modèle dominant aujourd’hui, c’est qu’il prédit la formation d’un grand nombre de galaxies naines autour de notre galaxie, via la présence de nombreux subhalos de matière noire. Ces galaxies naines seraient particulièrement riches en matière noire d’ailleurs. Mais nous n’avons jamais vu ces (théoriquement) nombreuses galaxies satellites ! C’est sans aucun doute le gros point faible du modèle de matière noire à base de WIMPs, ce qu’on appelle la matière noire froide, les neutrinos, eux, formant une matière noire chaude (car étant des particules en mouvement rapide, pour faire court).
Et bien, Kevork Abazajian trouve qu’un modèle impliquant non plus des WIMPs, mais des neutrinos stériles de 7 keV produits par un mécanisme de type résonant (mécanisme MSW), prédit un nombre de galaxies satellites beaucoup plus réduit, tout à fait cohérent avec ce qui est observé. Qui plus est, il montre également que l’on peut prédire avec ce nouveau modèle la distribution de densité au sein de ces galaxies naines, et vous l’aurez compris, cette dernière se trouve à nouveau cohérente avec les observations.
Il faut tout de même noter que des astrophysiciens et physiciennes s’attaquent un peu partout au problème de la quantité de galaxies naines dans l’hypothèse WIMPs en cherchant des voies d’explications par l’affinage du modèle physique de matière noire. Une telle solution a notamment été publiée très récemment sur le site de préprints ArXiv (3), et offre une solution très élégante pour sauver la matière noire froide, en montrant qu’il « suffirait » que les WIMPs puissent interagir avec les photons pour transformer radicalement la formation de subhalos et retrouver le bon nombre de galaxies satellites. En revanche, il n’est pas question ici d’expliquer la raie mystérieuse à 3,5 keV détectée grâce à XMM-Newton et Chandra et qui a remis sur le devant de la scène les nouveaux neutrinos.
C’est du côté du Japon qu’il va falloir se tourner désormais. En effet, les japonais vont lancer l’année prochaine leur télescope à rayons X ultra-performant Astro-H. celui-ci devrait scruter le centre de notre galaxie et ne devrait pas rater une belle raie monochromatique à 3,5 keV si elle existe vraiment.
Références :
(1) Resonantly Produced 7 keV Sterile Neutrino Dark Matter Models and the Properties of Milky Way Satellites
Kevork Abazajian
Phys. Rev. Lett. 112, 161303 (24 April 2014)
(2) Heavy neutrino may be dark matter
Nature 509, 137 (08 May 2014)
(3) Solving the Milky Way Satellite Problem with Interactions between Cold Dark Matter and Radiation
C. Boehm et al.
Soumis à MNRAS Letters
(4) Light Sterile Neutrinos: A White Paper
K. Abazajian et al.
11/05/14
09/05/14
Un Nouveau Journal d'Astrophysique en Accès Libre : Journal of High Energy Astrophysics
Après l'apparition du journal Physics of The Dark Universe en 2012 qui ouvrait la voie des journaux d'astrophysique en open access chez le grand éditeur scientifique Elsevier, voici un nouveau venu, toujours chez Elsevier et à nouveau en accès libre et gratuit. Il s'intitule Journal of High Energy Astrophysics.
Ce journal, comme son titre l'indique, accueillera des publications sur le sujet ô combien passionnant des phénomènes les plus énergétiques de l'Univers. Le premier article vient d'ailleurs d'être mis en ligne, et c'est un bon début car ce tout premier article est une revue sur les détections de neutrinos ultra-énergétiques de IceCube, ce super détecteur de neutrinos enfoui dans la glace antarctique, un gros glaçon de 1 km de côté bardé de milliers de photomultiplicateurs traquant à chaque instant le moindre photon de lumière Cherenkov produit par des particules secondaires relativistes.
Cet article rédigé par une équipe de physiciens américain, revient sur la petite trentaine de neutrinos très énergétiques détectés jusqu'à aujourd'hui par IceCube en posant les différentes hypothèses sur leur origine astrophysique. D'où peuvent bien venir ces neutrinos ?
Il est encore très difficile de déterminer précisément la direction des neutrinos détectés par le déteteur géant, mais c'est désormais le but des physiciens : déterminer les sources des neutrinos.
Ces 28 neutrinos cosmiques se composent de 26 individus d'énergie comprise entre 50 TeV et 1 PeV et de 2 autres entre 1 PeV et 2 PeV (les fameux Bert et Ernie).
Les auteurs expliquent les origines possibles de ces neutrinos, ils peuvent être galactiques, ou extragalactiques, c'est à dire provenant de notre galaxie, ou bien de plus loin, d'autres galaxies. Pour chacun de ces deux cas, leur origine peut être diverse.
Si ils sont galactiques, le modèle qui semble le mieux à même d'approcher les données collectées serait une origine par des interactions entre protons, qui vont produire des pions qui eux-mêmes se désintègrent en muons et en neutrinos. Et Luis Anchordoqui et ses collègues montrent qu'il se pourrait bien que le centre galactique soit le lieu d'origine d'au moins 6 neutrinos sur les 28 et que ça commencerait à être significatif... (ils concèdent tout de même que c'est un peu spéculatif).
L'autre famille de modèles considère que les neutrinos cosmiques vus par IceCube sont extragalactiques. Et dans ce cas, ils ont plusieurs origines possibles, dont les physiciens américains dressent la liste en précisant les contraintes associées. Ces possibilités sont les suivantes :
- Des bouffées de rayons gamma (GRB),
- Des noyaux galactiques actifs (AGN),
- Des blazars,
- Des galaxies à flambée d'étoiles,
- Des pulsars récents,
- Des rayons cosmiques ultra-énergétiques.
Autant de phénomènes astrophysiques qui peuvent produire les particules étonnantes détectées en Antarctique. Retrouvez dès maintenant comment ces objets aux noms barbares produisent ces neutrinos, en allant voir cet article du volume 1 du Journal of High Energy Astrophysics, à la page 1. Il est là :
http://www.sciencedirect.com/science/journal/22144048
Bonne lecture scientifique !
Source :
Cosmic neutrino pevatrons : A brand new path way to astronomy, astrophysics, and particle physics
L. Anchordoqui et al.
Journal of High Energy Astrophysics 1–2(2014) 1–30
Il est encore très difficile de déterminer précisément la direction des neutrinos détectés par le déteteur géant, mais c'est désormais le but des physiciens : déterminer les sources des neutrinos.
Ces 28 neutrinos cosmiques se composent de 26 individus d'énergie comprise entre 50 TeV et 1 PeV et de 2 autres entre 1 PeV et 2 PeV (les fameux Bert et Ernie).
Les auteurs expliquent les origines possibles de ces neutrinos, ils peuvent être galactiques, ou extragalactiques, c'est à dire provenant de notre galaxie, ou bien de plus loin, d'autres galaxies. Pour chacun de ces deux cas, leur origine peut être diverse.
La carte du ciel des 28 neutrinos ultra-énergétiques de IceCube |
Si ils sont galactiques, le modèle qui semble le mieux à même d'approcher les données collectées serait une origine par des interactions entre protons, qui vont produire des pions qui eux-mêmes se désintègrent en muons et en neutrinos. Et Luis Anchordoqui et ses collègues montrent qu'il se pourrait bien que le centre galactique soit le lieu d'origine d'au moins 6 neutrinos sur les 28 et que ça commencerait à être significatif... (ils concèdent tout de même que c'est un peu spéculatif).
L'autre famille de modèles considère que les neutrinos cosmiques vus par IceCube sont extragalactiques. Et dans ce cas, ils ont plusieurs origines possibles, dont les physiciens américains dressent la liste en précisant les contraintes associées. Ces possibilités sont les suivantes :
- Des bouffées de rayons gamma (GRB),
- Des noyaux galactiques actifs (AGN),
- Des blazars,
- Des galaxies à flambée d'étoiles,
- Des pulsars récents,
- Des rayons cosmiques ultra-énergétiques.
Autant de phénomènes astrophysiques qui peuvent produire les particules étonnantes détectées en Antarctique. Retrouvez dès maintenant comment ces objets aux noms barbares produisent ces neutrinos, en allant voir cet article du volume 1 du Journal of High Energy Astrophysics, à la page 1. Il est là :
http://www.sciencedirect.com/science/journal/22144048
Bonne lecture scientifique !
Source :
Cosmic neutrino pevatrons : A brand new path way to astronomy, astrophysics, and particle physics
L. Anchordoqui et al.
Journal of High Energy Astrophysics 1–2(2014) 1–30
08/05/14
Nous N'Irons Jamais Explorer Une Exoplanète
Désolé de vous décevoir, mais nous n'irons jamais voir une exoplanète de près, jamais! C'est notamment la raison pour laquelle l'existence de milliards d'exoplanètes ne m'émeut guère. Et ça explique aussi entre autres pour quelle raison nous n'avons jamais reçu la visite d'aliens depuis que l'écriture existe ici-bas. Vous pourrez me rétorquer qu'il ne faut jamais dire "jamais". Vous avez raison, mais là, tout de même... Tentons donc une petite démonstration.
Prenons le cas d'une exoplanète qui serait très intéressante au vu de ces caractéristiques et qui serait située très près de nous, disons à 10 années-lumière. Imaginons que l'on souhaite aller l'explorer.
C'est loin...
10 années-lumière. Tout le problème est là. A l'échelle de la galaxie, cette distance est ridicule, la Voie Lactée faisant environ 200 000 années-lumière de large.
Mais pour nous, c'est loin, 10 années-lumière, très loin. Beaucoup trop loin pour une espèce comme la nôtre.
On peut rappeler qu'une année-lumière fait environ 9000 milliards de kilomètres. Un bon repère de ce que nous parvenons à produire de mieux en termes de voyages spatiaux est le programme des sondes Voyager. Voyager 1 vient tout juste l'année dernière de quitter le système solaire, au bout de 37 ans de voyage. Elle se trouve aujourd'hui à une distance de 0,0019 année-lumière de la Terre, en 37 ans...
Pour parcourir les 10 années-lumière de notre cas de figure, une sonde du même type devrait ainsi voyager durant 195 000 ans.
Mais, allez, soyons optimistes envers les progrès techniques, imaginons que nous parvenions à créer des sondes qui peuvent aller 10 fois plus vite! Le voyage ne durerait donc alors plus qu'un peu moins de 20000 ans.
De l'énergie pendant longtemps
Mais au fait, vous imaginiez quoi ? Une mission de robot, ou bien une mission habitée ? C'est très différent. Mais dans les deux cas, il faut pouvoir transmettre des informations à la Terre, le but est tout de même d'explorer et de transmettre ce que l'on découvre à l'humanité. Il est donc nécessaire d'utiliser de l'énergie, et de pouvoir envoyer et recevoir des signaux électromagnétiques.
RTG au Pu-238 de Cassini (NASA) |
Je ne vous cache pas que les panneaux solaires fonctionnent encore jusque Mars mais au-delà ça devient vite problématique. La luminosité du Soleil devient bien trop faible pour être utilisée et c'est une autre source d'énergie qu'il faudra utiliser. Aujourd'hui, toutes les sondes partant au loin comme les Voyager, Cassini ou autre New Horizons utilisent des générateurs thermo-électriques à base de plutonium, qui fournit naturellement de la chaleur par sa désintégration radioactive. Mais comme tous les corps radioactifs, il possède une période de décroissance déterminée et on considère que la radioactivité a totalement disparue au bout de 10 fois la période de l'isotope. Cette période vaut 86 ans pour le Plutonium 238. Au bout de 860 ans, on n'a donc plus d'énergie. Il faudra trouver encore une autre source d'énergie pour tenir 20000 ans.
Mais bon, imaginons que l'esprit humain du futur saura inventer l'énergie absolue, un réacteur à fusion nucléaire miniaturisé qui tient dans une sonde et lançons notre robot vers cette exoplanète qui nous semble pouvoir abriter la vie...
Nous sommes en 2314. La fusée part. La sonde, judicieusement baptisée New Earth voyage durant 20000 ans en ligne droite droit vers Kepler-5267b, qui est notre cible. Rappelons qu'elle va 10 fois plus vite que ce qu'on sait faire et qu'elle embarque un réacteur à fusion nucléaire miniaturisé, dont la version grosse comme un immeuble n'existera même pas en 2050.
Pour tout savoir sur cette attrayante exoplanète, nous devons écouter la sonde quand elle arrivera sur place, 20000 ans plus tard. Mais avant qu'elle arrive sur place, il faut qu'elle "freine", et la meilleure façon de faire, c'est d'utiliser les rebonds gravitationnels, comme ce que l'on fait couramment avec toutes nos sondes d'exploration du système solaire. Mais pour bien faire les choses, il faut connaître au moins aussi bien le système de Kepler-5267b que notre propre système solaire, de manière à pouvoir calculer très précisément la trajectoire à emprunter et le moment à la minute voire à la seconde près.
Admettons que nos futurs astronomes soient des astromètres hors-pairs et parviennent à tout connaître sur le système de Kepler-5267 pourtant situé à 10 années-lumières, et qu'ils parviennent à calculer très précisément tout ça.
Transmettre dans le temps
Mais que ce passera-t-il durant les 20000 ans qui vont s'écouler entre le lancement de New Earth et son arrivée autour de Kepler-5267b ? Comment conserver et transmettre l'information dans le temps ?, comment faire comprendre aux scientifiques du futur qu'ils doivent écouter la sonde New Earth à partir d'un certain jour à 20000 ans d'intervalle ?
Ecouter la sonde. La puissance de notre réacteur à fusion nucléaire miniaturisé ne sera tout de même pas fantastisque, et il est fort à parier qu'à 10 années-lumière de distance, le signal sera très très faible. La technologie dans 20000 ans aura peut-être même rendue impossible la détection de ce signal en occupant toutes les bandes électromagnétiques. Ou seulement à cause de la température de l'atmosphère (mais c'est une autre histoire).
Le petit soucis de la transmission sera également que le signal mettra 10 ans à transiter entre la sonde et la Terre. Il n'y a donc pas d'interactivité possible.
Le transfert d'information ne devrait se faire que dans le sens sonde-Terre. Reste aux hommes du futur lointain à décoder l'information selon les éléments qu'ils auront conservé durant 20000 ans... Il faut penser aux informations que nous ont transmises les hommes de Néandertal pour s'imaginer la situation.
Des hommes irradiés ou des robots obsolètes
Je vois déjà les plus hardis d'entre vous se dire : mais si c'est si compliqué, pourquoi ne pas envoyer des hommes ? Bien sûr. Envoyons des hommes, et des femmes, car il en faudra. Il faudra en fait une très grande population, et pas seulement un petit équipage bien entendu. 20 000 ans c'est 700 générations. Une sorte d'arche de Noé, où il faudra faire vivre des centaines de personnes durant 200 siècles, confrontés à de multiples mutations génétiques provoqués par le rayonnement cosmique incessant, sans possibilités de créer par eux-mêmes le progrès scientifique et technique nécessaire à leur évolution. Oublions...
Passons à la cryogénisation des corps. Il ne reste plus que ça. Il faut dormir pendant 20000 ans. Et surtout il faut que le système de cryogénisation tienne le coup pendant tout ce temps, et par exemple que notre réacteur à fusion ne vienne pas à bout de son deutérium et de son tritium. Hum. Ce qu'il y a, c'est qu'au moment du lancement, les réacteurs à fusion n'existeront que depuis 250 ans à peine, on ne les aura jamais testé sur des périodes plus longues. Idem pour les systèmes à cryogénisation. Pour tenir 20000 ans, c'est chaud. En plus, ça ne marche que dans les films, la cryogénisation, mais bon, imaginons qu'en 2314 cela fonctionne.
2001, L'Odysée de l'Espace, S. Kubrick |
Nos astronautes se réveillent à l'approche de Kepler-5267b, réveillés par l'ordinateur de bord, qui n'a pas planté durant 20000 ans, bien sûr. Leur corps a subi les dégâts des rayonnements cosmiques durant tout le trajet. Le froid cryogénique à endormi l'activité réplicatrice de leurs cellules mais leur ADN n'en est pas moins complètement détruit par les rayons cosmiques. Dès leur réveil, leur organisme se remet en route mais il fait n'importe quoi, leur durée de vie est de fait très limitée. Et ils sont de plus livrés à eux-mêmes, toute discussion avec la Terre étant impossible pour les mêmes raisons dites précédemment. Admettons qu'ils découvrent une planète extraordinaire, habitable, géniale et tout et tout, voire habitée... Ils envoient donc toutes les informations recueillies vers la Terre pour terminer leur mission. Mais les hommes sur Terre ne sont plus les mêmes qu'eux. La probabilité qu'ils ne les aient pas oublié durant tout ce temps est assez faible, ce qui fait de cette mission une mission non seulement suicidaire mais aussi assez vaine...
Jamais pour nous, jamais pour eux...
Notre exemple concernait une planète fictive située à 10 années-lumière et un vaisseau allant 10 fois plus vite que ce qu'on sait faire.
L'exoplanète le plus prometteuse aujourd'hui Kepler-186f se trouve non pas à 10 années-lumière, mais à 500 années-lumière. Il faut donc multiplier par 50 les durées évoquées ci-dessus. En imaginant encore de plus grandes prouesses technologiques avec une vitesse du vaisseau encore multipliée par 10, soyons fous, la durée pour atteindre Kepler-186f par un robot ou des hommes congelés serait de 100 000 ans.
Quel dirigeant ou organisme parviendrait à trouver le financement pour un projet de ce type ? Jamais cela ne peut voir le jour, jamais...
Et si vous vous demandez pourquoi nous n'avons jamais eu la visite de créatures extra-terrestres, vous avez je l'espère un début de réponse. Il est probable que les extra-terrestres intelligents même les plus évolués et même immensément riches ne soient au final pas suicidaires...
Vos commentaires sont les bienvenus, comme toujours!
05/05/14
Première Mesure de la Rotation d'une Exoplanète sur elle-même
Vous le savez si vous me suivez
régulièrement, la découverte des exoplanètes n’est pas mon dada favori, car je
trouve que cette quête ressemble un peu trop à celle des navigateurs européens
du 15ème siècle. Les cent premières îles découvertes furent
passionnantes, et puis ensuite, on sait qu’il en existe presque une infinité,
et on est assez vite blasé, et ce d’autant plus que l’on sait pertinemment que
nous n’irons jamais sur place…
Mais bon, ce qui est tout de même
intéressant dans cette science de la planétologie, ce sont les avancées techniques inventives qu’elle
génère pour assouvir cette curiosité presque vaine. Voilà donc une nouvelle
prouesse, réussie par des astronomes hollandais de l’Observatoire de Leiden,
qui, pour la première fois viennent de mesurer la rotation sur elle-même d’une
exoplanète.
Beta Pictoris b autour de son étoile à plusieurs années d'intervalle (l'étoile est masquée par le rond central) (source : Nature) |
On ne parle pas ici de la
rotation de la planète autour de son étoile, ce qui est assez facile à
observer, mais de sa rotation sur elle-même, ce que font les milliards de
planètes de l’Univers, et la Terre en 24h chrono.
Ignas Snellen et son équipe ont observé
une exoplanète qui s’appelle b Pictoris
b. Ce n’est pas n’importe quelle exoplanète, car elle fait partie du premier
système découvert dans lequel il y avait "quelquechose" autour de l'étoile, c’était en 1983. b Pictoris b, qui fut, elle ,confirmée dès 2008, est ce qu’on appelle une Jupiter chaude, une
planète gazeuse géante très jeune (à peine 50 millions d’années d’existence) 10
fois plus chaude que Juju. Elle est séparée de son étoile b Pictoris par une distance double de celle
séparant le Soleil de Jupiter, et brille 10000 fois plus qu’elle. Non seulement
on comprend pourquoi elle a été l'une des premières exoplanètes découvertes, mais ses
caractéristiques en font la planète idéale pour en tirer un maximum
d’informations à partir de la lumière qu’elle nous envoie, notamment dans
l’infra-rouge.
Les astronomes hollandais ont
utilisé un des quatre télescopes formant le Very
Large Telescope de l’observatoire européen austral (ESO), installé dans les
Andes chiliennes, et plus précisément un instrument appelé Cryogenic High-Resolution Infrared Echelle Spectrograph (CRIRES)
durant la nuit du 17 décembre 2013.
L’idée de Snellen et de ses
collègues était d’exploiter le spectre émis par la planète en se focalisant sur
des raies d’absorption de molécules qui n’existent que dans son atmosphère et
pas dans l’étoile à proximité. Ces molécules dépendent de plusieurs paramètres
comme la composition chimique bien sûr, mais aussi la température et la
pression de l’atmosphère planétaire. On y trouve notamment de l’eau, du
monoxyde de carbone, de l’ammoniac et du méthane, ce qui offre de nombreuses
raies à étudier dans le spectre lumineux.
Le Very Large Telescope à l'observatoire du Paranal (ESO) |
La vitesse de la planète autour
de son étoile produit un décalage Doppler des raies, vers le rouge quand elle
s’éloigne de nous sur son orbite, et vers le bleu lorsqu’elle se trouve dans la
partie où elle se rapproche. Mais à ces décalages spectraux s’additionnent d’autres
petits décalages qui apparaissent sous la forme d’un élargissement des raies
décalées. Vous me suivez ? Puisque la planète tourne sur elle-même, on
voit une moitié du disque planétaire qui s’éloigne de nous, décalant la lumière
vers le rouge, et l’autre moitié s’approchant de nous, produisant un décalage
vers le bleu.
C’est en mesurant très
précisément cet élargissement des raies spectrales provenant de b pictoris b que les auteurs sont parvenus à
déterminer comment elle tourne sur elle-même. La forme de l’élargissement des
raies spectrales fournit une information à la fois sur la vitesse de rotation,
et sur l’inclinaison de l’axe de rotation par rapport à la ligne de
visée.
Par cette technique, les
astronomes hollandais peuvent dire que b
Pictoris b est actuellement en train de tourner vers nous (décalage global des
raies du monoxyde de carbone vers le bleu) et qu’elle tourne sur elle-même avec
une vitesse de 25 km/s, soit 50 fois plus vite que la Terre, et le double de celle de Jupiter. Et comme on connait par ailleurs une estimation de la taille de cette
exoplanète, la durée de son « jour » (une rotation sur elle-même) peut alors être évaluée. Il vaut
8h terrestres.
Une rotation aussi rapide n’est
pas une surprise pour les astronomes, il semble exister une tendance (au moins
dans notre système solaire) qui indique une augmentation de la rotation avec
une augmentation de la masse de la planète (Mercure et Vénus sont des
exceptions, qui sont trop perturbées par le Soleil). Les chercheurs estiment
déjà qu’avec une telle vitesse de rotation, les processus météorologiques qui
doivent exister sur b Pictoris b
doivent être très influencés par sa rotation.
Cette première mesure de rotation
d’une exoplanète va à n'en pas douter ouvrir la voie à de très nombreuses autres mesures du même
type sur les milliers d’exoplanètes géantes gazeuses déjà recensées ou en attente de découverte...
Référence :
Fast spin of the
young extrasolar planet β Pictoris b
I. Snellen et al.
Nature 509, 63–65 (01
May 2014)
Inscription à :
Articles
(
Atom
)