09/11/13

Lune : Pourquoi Deux Faces si Différentes ?

Si je vous parle de la Lune, vous voyez tout de suite le disque blanchâtre que tout le monde connait depuis sa toute tendre enfance. Parfois pleine, parfois en croissant ou à moitié pleine, mais toujours le même disque lunaire. Pourtant la Lune est un astre qui tourne et elle ne possède pas qu'une seule face...

Si la Lune nous montre toujours la même face, ce n'est pas un hasard, c'est dû à la gravitation, qui produit des effets de marée, qui ne sont rien d'autre que les effets différentiels de la gravitation. La gravitation est plus forte au bord de la Lune le plus près de nous qu'en son bord de l'autre côté. Il s'ensuit que depuis sa naissance il y a plusieurs milliards d'années, la rotation de la Lune sur elle-même s'est trouvée modifiée par l'action de la force de gravitation de la Terre, jusqu'à devenir synchrone avec sa rotation autour de la Terre. Où que nous soyons sur Terre, nous voyons toujours la même face de la Lune.

Face visible (NASA/JPL)
Bref, nous ne connaissons la face cachée de la Lune que depuis 1963, alors que sa face visible était connue de nos ancêtres australopithèques.
Mais je suis à peu près sûr que vous ne pourriez pas me décrire à quoi ressemble cette face cachée de la Lune... 

Et bien il se trouve que la face cachée de la Lune est très différente de sa face visible. Et c'est une petite énigme qui persiste depuis que la sonde soviétique Luna 3 nous en a fourni les premières images il y a 50 ans...

Face cachée (NASA/JPL)
La face cachée possède beaucoup moins de grands cratères et pour ainsi dire aucune mer. Certaines théories disent que les grands bassins visibles sur la face visible ont été créés par des météorites de plus grande taille que celles qui ont atteint la face cachée. Mais une étude venant de paraître dans Science montre que la taille des cratères et des bassins qui en découlent n'est pas seulement liée à la taille de la météorite impactante, mais aussi de la température de la croûte.
Les planétologues de l'institut de Physique du Globe de Paris ont utilisé les données de la sonde GRAIL de la NASA qui a étudié en détail la croûte lunaire en mesurant son champ gravitationnel. Ils trouvent que les deux faces ont à peu près le même nombre de cratères, mais alors que la face cachée possède un seul bassin plus grand que 320 km, il y en a 8 sur la face visible.
Il suffit que la croûte soit quelques centaines de degrés plus chaude pour qu'un impact identique produise un cratère deux fois plus large.
Une différence de température de la croûte au moment de l'impact ne donne donc pas du tout le même résultat. 

Sur la vidéo de simulation effectuée par l'auteure principale de cette étude, ci-dessous, vous pouvez voir l'effet différent du même impact météoritique, sur la face cachée à gauche et sur la face visible à droite. La seule différence est une différence de température de la croûte lunaire.



Il se trouve qu'il y a 4 milliards d'années, soit 500 millions d'années après la formation de la lune (en même temps que la Terre), la face visible aurait pu être plus chaude que la face cachée. Des chercheurs étudiant la face visible ont notamment détecté la présence d'isotopes radioactifs dont la désintégration pouvait chauffer la croûte lunaire, explique Maria Zuber, planétologue au MIT et co-auteure de l'étude.

C'est maintenant cette asymétrie de radioactivité entre les deux faces lunaires qu'il faut pouvoir expliquer. Et là les avis divergent parmi les astronomes. Il n'y a pas encore de consensus  Le modèle dominant repose sur l'existence d'une forte activité volcanique sur la face visible, qui aurait répandu de très grandes quantités de lave et de matériau contenant les isotopes radioactifs. La face cachée aurait quant à elle connu une activité volcanique beaucoup moins forte.
Une autre hypothèse est que les éléments radioactifs ont été apportés par la collision d'un petit corps, une petite lune d'environ 1000 km de diamètre.

L'énigme de la face cachée est un peu moins énigmatique, mais on est encore loin d'avoir entièrement compris l'histoire de notre satellite que nous ne pouvons admirer qu'à moitié...


Référence : 
Asymmetric Distribution of Lunar Impact Basins Caused by Variations in Target Properties
Katarina Miljković et al.
Science 8 November 2013 Vol. 342 no. 6159 pp. 724-726 

06/11/13

Axions : l'Autre Matière Noire

Maintenant que l'hypothèse des WIMPs pour expliquer la matière noire se trouve quelque peu mise à mal par les résultats récents de l'expérience LUX, le temps est peut-être venu de vous parler de l'autre (d'une autre) hypothèse pour expliquer la masse manquante : les Axions. Les quoi ? Les axions ! (mais si, et il n'y a pas de faute d'orthographe, je vous rassure).

Bon alors, c'est quoi, les axions ? Ce sont des particules, vous vous en serez douté. Elles ont été inventées dans les années soixante-dix, un peu avant le concept de WIMP d'ailleurs. Les axions, dont le nom vient de la notion d'axe de symétrie, n'ont pas du tout été inventés pour résoudre le problème de la matière noire, mais pour résoudre une anomalie qui apparaît dans la force nucléaire forte, cette force qui lie entre eux les quarks par l'intermédiaire des gluons à l'intérieur des protons et des neutrons (entre autres).

Schéma de la composition des neutrons
et protons (University of California)
Pour bien comprendre, il faut se rappeler quelques notions de symétries. En physique des particules, il existe trois grandes symétries :
C : la symétrie de charge, ce qui se passe lorsqu'on inverse toutes les charges d'une particule (par charge, on entend non seulement la charge électrique mais aussi tous les nombres quantiques caractérisant les particules : nombre baryonique, nombres leptoniques, ...)
P : la symétrie de parité, ce qui se passe lorsqu'on renverse les référentiels (effet miroir)
T : la symétrie de temps, lorsqu'on inverse la flèche du temps...

Elles peuvent ensuite être appliquées les unes avec les autres pour donner de nouveaux types de symétries, comme la symétrie CP, ou la totale : CPT.

Le problème est que l'on a observé que les quarks et les gluons respectaient la symétrie CP dans les neutrons, alors qu'ils ne devraient pas d'après ce que prédit la théorie de l'interaction forte, par ailleurs bien comprise et testée très précisément depuis longtemps. Comme l'interaction faible brise la symétrie CP, on s'attendrait à ce que l'interaction forte la brise aussi... 
La symétrie CP (symétrie de charge et de parité) peut être visualisée si on imagine qu'à partir d'un paquet de quarks et de gluons, on inverse toutes les particules ainsi que leurs positions et leurs vitesses. Le paquet de particules apparaît exactement comme le paquet précédent et se comporte de la même façon.

Diagramme de Feynman de la désintégration de l'axion en deux photons
Si la symétrie CP était brisée dans la force nucléaire forte, le neutron, qui est composé de deux quarks down et un quark up plus une kyrielle de gluons, aurait plus de charges positives associées à l'un de ses pôles magnétiques et plus de charges négatives associées à son autre pôle magnétique. Cette distribution, de charges qu'on appelle le moment dipolaire électrique du neutron, subirait alors une inversion lorsqu'on inverse tous les paramètres dans la transformation CP. Mais les physiciens nucléaires ont montré depuis quelques décennies que le neutron ne se comportait pas du tout comme ça, il n'a aucun moment dipolaire électrique. La symétrie CP semble donc régner dans l'interaction nucléaire forte.

Et ce n'est pas cohérent avec la théorie (qu'on appelle la chromodynamique quantique). Cette dernière stipule que certaines interactions entre gluons doivent briser la symétrie CP.
Il y a alors deux possibilités pour remédier à ce "strong CP problem" comme disent les physiciens : le premier consiste à faire en sorte que le paramètre qui régit l'intensité de ces fameuses interactions entre gluons se retrouve comme par miracle très très proche de 0. La seconde solution consiste à imaginer un mécanisme encore inconnu qui annule l'interaction qui nous embête.
Helen Quinn (SLAC)

Vous avez compris que notre Axion est un produit de cette seconde solution. C'est en 1977 que les théoriciens américains Roberto Peccei and Helen Quinn ont trouvé cette solution extrêmement  élégante. Ils ont imaginé que le vide comportait un nouveau champ quantique, un peu à l'image d'un champ électrique, qui interagit avec les gluons de telle manière que l'interaction violant CP disparaisse. Et les axions sont simplement les particules associées à ce nouveau champ, comme le boson de Higgs est la particule associée au champ du même nom ou le photon est celle du champ électromagnétique.

L'Axion aurait pu s'appeler le boson de Peccei-Quinn ou de Quinn-Peccei, mais le nom d'axion, plus simple, est resté, et restera... Mais Helen Quinn et Roberto Peccei ont obtenu la reconnaissance de leurs pairs cette année en recevant ensemble le prix J.J. Sakurai for Theoretical Particle Physics, qui est décerné chaque année par l'American Physical Society, prix qu'obtinrent François Englert et Peter Higgs en 2010...
Roberto Peccei (UCLA)

Et le lien avec la matière noire? me direz vous... Et bien, il se trouve qu'une quantité considérable d'axions, si le mécanisme s'avère correct, a dû être créée dans l'Univers primordial. Et bien sûr, l'axion possède une masse. Les observations astrophysiques fournissent des limites très fortes sur la masse de l'axion : elle doit impérativement se situer entre 1 µeV (un millionnième d'électron-volt) et 1000 µeV. 
Vous pensez bien que des équipes se sont mises en quête de détecter les axions... Sur le papier, ça a l'air relativement simple : il se trouve que les axions doivent interagir non seulement avec les gluons de la force forte mais aussi avec les photons de la force électromagnétique. 
En passant dans un champ magnétique, l'axion peut se transformer, avec une certaine probabilité, en photon!
Mais étant donné leur très petite masse, l'énergie correspondante du photon créé est elle aussi très petite, ce qui donne une longueur d'onde assez grande, dans le domaine des ondes radio.

L'aimant de ADMX (Washington University)
C'est exactement ce type de détection que cherchent à exploiter les américains de la collaboration ADMX (Axion Dark Matter Experiment) de l'Université de Washington. Ils ont construit un détecteur très inhabituel pour le milieu de la physique des astroparticules.  Il consiste à produire un énorme champ magnétique dans une sorte de grosse boîte et a essayer de détecter la moindre onde radio qui en sort. La technologie utilisée est à la pointe, avec un aimant supraconducteur de 6 tonnes de 1 m de long, qui produit un champ magnétique plus de 150000 fois plus élevé que le champ magnétique terrestre.
Ils utilisent également une cavité spécifique pour amplifier le signal radio par un facteur 100000...
Et ce n'est pas tout, pour améliorer le rapport signal/bruit, le tout doit être refroidi à très basse température, tout corps chauffé émettant des infra-rouges mais aussi des ondes radio. C'est donc à des températures de l'ordre du dixième de Kelvin que le détecteur de ADMX est refroidi.
Pour simplifier, il suffit de dire que ADMX est le récepteur radio le plus sensible du monde. Il peut détecter un milliardième de milliardième de milliardième de Watt (10-27).

ADMX va démarrer à la fin de l'année avec une toute nouvelle technologie ultra-performante à base de SQUIDs (détecteurs supraconducteurs). Les physiciens estiment que durant les trois années qui viennent, ils doivent voir les axions si ils existent. Si ils ne les voient pas, cela voudra dire que le mécanisme de Peccei-Quinn n'est pas la bonne méthode pour évacuer le strong CP problem, et que la matière noire est encore faite d'autre chose...


03/11/13

Le Fond Diffus Cosmologique de Neutrinos

Vous connaissez sans doute, si vous êtes fidèle lecteur, ce qu'on appelle le fond diffus cosmologique (CMB par son acronyme anglais), ces photons qui nous parviennent d'une époque où l'Univers n'avait que 280000 ans et était 1000 fois plus petit qu'aujourd'hui.  Il a notamment été mesuré avec une très grande précision par le satellite Planck, dont nous avons amplement parlé ici. Ce fond diffus de photons nous permet de tirer de précieuses informations sur la jeunesse de l'Univers et sur ses caractéristiques aujourd'hui. Mais il existe un autre fond diffus, encore plus ancien, et potentiellement encore plus instructif sur les premières secondes de l'Univers: le fond diffus cosmologique de neutrinos.

Le fond diffus de neutrinos possède des similarités avec le fond diffus de photons. Il apparaît lors d'un découplage entre particules. Dans les fractions de secondes suivant la singularité initiale, coexistent dans l'Univers électrons, positrons, quarks, antiquarks, neutrinos, antineutrinos et photons.
Fond diffus cosmologique (photons) (Planck Collaboration)
De par leur interaction faible avec les électrons, les neutrinos se "libèrent" de leur emprise à une température (ou énergie) bien plus grande que les photons, qui interagissent eux par interaction électromagnétique avec les électrons. Qui dit énergie bien plus grande dit  bien plus tôt.
Alors que le découplage photons-électrons a lieu à une température de l'ordre de 3000 Kelvins, celui des neutrinos prend place lorsque la température avoisine les 10 milliards de Kelvins, soit une énergie d'environ 1 MeV. Cette température correspond à un âge de 1 seconde seulement! Les neutrinos reliques formant le fond diffus de neutrinos nous donnent ainsi une image de l'Univers lorsqu'il n'avait que 1 seconde...


C'est dire l’intérêt extrême qui existe à pouvoir mesurer ce fond diffus de neutrinos. Mais voilà, il n'y a rien de plus difficile à mesurer. Non seulement le nombre de ces neutrinos reliques qui nous parviennent est faible (leur densité est estimée à 56 neutrinos/cm3, alors qu'elle est de 370 photons/cm3 pour le fond diffus cosmologique de photons), mais leurs interactions avec la matière, qui doit nous permettre de les détecter, est elle aussi extrêmement faible. Les neutrinos n'interagissent presque pas, ils peuvent aisément traverser de part en part toute une planète sans être arrêtés...

Mais les physiciens cherchent tout de même des pistes pour détecter ces neutrinos primordiaux.
L'une des pistes envisagées est une détection indirecte : si une source de rayonnements ultra énergétiques (typiquement un GRB produit par une supernova ou un trou noir) produit des neutrinos ultra-énergétiques, dont l'énergie dépasse 1022 eV, ceux-ci pourraient interagir avec les neutrinos du fond diffus (qui eux ont une énergie très faible désormais) pour former des bosons Z qui se désintégreraient rapidement en gerbes de particules comme des électrons et des positrons énergétiques, détectables par nos détecteurs de rayons cosmiques habituels.
Désintégration béta du tritium (philica.com)

Cette méthode a le gros désavantage d'être très indirecte. Une autre méthode, directe celle-là, est donc envisagée sérieusement pour détecter ces neutrinos reliques qui nous entourent, nous imprègnent et nous traversent continuellement...

Cette méthode de détection directe repose sur le phénomène de radioactivité béta. Lors de la désintégration béta, un électron et un antineutrino électronique sont émis simultanément par le noyau radioactif. Ils emportent tous les deux une partie de l'énergie de la réaction, la somme étant toujours la même et ne dépendant que de l'isotope concerné. 

Il se trouve que la réaction inverse est possible : si un neutrino électronique est absorbé par un tel noyau radioactif (le tritium, isotope radioactif de l'hydrogène, est une bonne cible), il peut y avoir émission d'un électron tout seul (sans antineutrino) qui emporte toute l'énergie de la réaction plus celle de la masse du neutrino incident.
Si cela arrive, la mesure de l'énergie de tous les électrons émis par le tritium (le spectre en énergie) doit donc montrer une petite (toute petite) partie qui a une énergie un tout petit supérieure à toutes les autres... La différence est en fait égale à deux fois la masse du neutrino électronique.
Vu comme ça, ça à l'air facile. Mais je ne vous ai pas encore parlé de la probabilité qu'une telle réaction ait lieu...

Il existe une expérience germano-russe, appelée KATRIN (Karlsruhe Tritium Neutrino Experiment), qui justement utilise une source de tritium  de 20 µg, pour observer de très près l'énergie des électrons qui en sont émis, dans le but de déterminer la masse des antineutrinos électroniques. Le calcul développé par A. Fässler et ses collègues montre qu'avec cette source, le nombre d'interactions de neutrinos du fond diffus est de 1 tous les 590 000 ans!
Ligne de faisceau de KATRIN : a) source de tritium gazeux moléculaire, b) section de transport des électrons, c) préspectromètre, d) spectromètre principal (analyse de haute précision de l'énergie des électrons), e) détecteur: détection des électrons transmis.
Mais ils ne perdent pas espoir pour autant, ces physiciens acharnés... Ils considèrent une variante optimiste qui montre que les neutrinos reliques, comme ils possédent une petite masse, peuvent subir une agglomération au sein des galaxies, augmentant ainsi considérablement leur densité initiale de 56/cm3 à plus de 50 millions/cm3. Avec cette hypothèse la plus optimiste, ils parviennent à calculer un taux d'interaction de 1,7 coups par an. C'est mieux.

Mais c'est encore trop peu. Alors, comme le calcul a été effectué à partir de la source existante de l'expérience KATRIN, nos chers physiciens proposent donc d'utiliser une bien plus grosse source de tritium, de 2 mg par exemple, ce qui permet d'augmenter d'un facteur 100 le nombre d'interactions pour atteindre 160/an. Et là ça devient envisageable...

Il reste en fait un dernier petit verrou technologique qui est le détecteur d'électrons. Ce dernier doit avoir une excellente résolution en énergie, suffisante pour pouvoir distinguer des fractions d'électron-volts, ce qui est encore aujourd'hui un petit challenge. Mais même si le détecteur de KATRIN n'a pas une résolution suffisante, le comptage dans la zone d'intérêt devrait tout de même permettre de fixer des limites sur la densité des neutrinos reliques, ce qui est déjà un résultat excellent...

A quand une cartographie complète du fond diffus de neutrinos aussi précise que celle de Planck en photons ? Les paris sont lancés, et la recherche est en marche.


Référence :
Search for the Cosmic Neutrino Background and KATRIN
Amand Faessler et al.


30/10/13

Matière Noire : l'Expérience LUX ne Détecte pas de WIMPs !

Voilà un résultat négatif qui est peut-être aussi important que s'il avait été positif (enfin... non, quand même pas finalement). La collaboration LUX vient de rendre public ses premiers résultats obtenus grâce au détecteur de matière noire le plus performant du moment, lors d'un séminaire présenté par Dan McKinsey et Rick Gaitskell.

Ils atteignent une sensibilité de détection hors norme, permettant d'explorer une zone jusqu'alors jamais atteinte (une section efficace qui descend jusque 10-45 cm² et une masse détectable minimale de l'ordre de 6 GeV). Et ils n'observent rien ! Nada. Nothing. Que dalle. Il n'y a pas d'interactions de WIMPs dans le xénon liquide du détecteur LUX!
Du moins, rien de plus que le maigre bruit de fond attendu, exactement la quantité de bruit de fond attendu, pas de signal...
Des membres de LUX devant le détecteur
Comme je le disais dans le post précédent sur LUX, le fait qu'ils ne détectent rien met un très sérieux coup à l'hypothèse WIMP et surtout l'hypothèse apparue ces trois dernières années d'une WIMP de l'ordre de 10 GeV pour expliquer la matière noire. Les indices de détection qui avaient été donnés par CoGENT et CDMS, ainsi que ceux de CRESST et de DAMA sont complètement exclus par ces tout nouveaux résultats que viennent de nous annoncer les physiciens de LUX.

Ce résultat est très important, il veut dire que le concept de particule supersymétrique interagissant très faiblement avec la matière n'est sans doute pas la bonne piste pour expliquer la masse manquante observée dans les galaxies et les amas de galaxies...

Le mystère de la matière noire reste donc entier, sachant que l'hypothèse WIMP est sans doute maintenant dans une impasse.

Référence (papier accompagnant la présentation) : 
http://luxdarkmatter.org/papers/LUX_First_Results_2013.pdf


Séminaire de LUX en Direct

Suivez en direct le séminaire de la collaboration LUX sur leurs premiers résultats de recherche directe de matière noire (à partir de 16h heure française (15h GMT) :
CONCLUSION A LIRE ICI  : http://drericsimon.blogspot.fr/2013/10/matiere-noire-lexperience-lux-ne.html


24/10/13

LUX : un Détecteur à la Recherche de la Matière Noire

MISE A JOUR : voir les résultats annoncés le 30 octobre

Comme de nombreuses autres expériences dédiées à la recherche directe de la matière noire (recherche de l'observation de faibles interactions de particules massives), l'expérience américaine LUX (Large Underground Xenon Experiment) s'est enfouie sous terre.
C'est une ancienne mine, située dans le Dakota du Sud, rebaptisée le laboratoire Sanford Underground Research Facility (SURF), du nom du mécène qui a financé en grande partie les installations, qui sert d'antre pour ce détecteur hors normes.
Principe de la chambre à projection temporelle permettant de localiser une interaction
LUX est une chambre à projection temporelle au xénon liquide/gazeux. Le design des chambres à projection temporelle n'est pas récent, il date des années 1970. Ces détecteurs permettent de localiser très précisément en trois dimensions la position d'une interaction d'une particule. Un réseau de photomultiplicateurs donne une information en deux dimension et la durée de dérive des électrons créés en même temps que le flash de scintillation fournit la position dans la troisième dimension. Le xénon est un scintillateur : lorsqu'une particule dépose un peu de son énergie dans le liquide, ce dernier émet de la lumière, dont l'intensité est proportionnelle à la quantité d'énergie déposée, et en même temps, il est ionisé.
Les détecteurs de lumière ultrasensibles positionnés judicieusement tout autour du volume de xénon permettent d'enregistrer tous les événements qui se passent dans le volume du scintillateur.
Les détecteurs de lumière équipant LUX peuvent détecter jusqu'à un unique photon...
Détail sur un des photomultiplicateurs de LUX (Brown University)

Bien évidemment, il ne faut pas uniquement se protéger du flux de muons cosmiques en s'enterrant, il faut également éviter le moindre bruit de fond radioactif de la radioactivité naturelle qui existe partout (dans les parois du labo souterrain, dans les matériaux de structure, dans le xénon lui-même. Pour cela, les physiciens américains de LUX ont soigneusement purifié leur xénon, de sorte qu'il ne comporte aucune (ou presque) impureté radioactive.


Le xénon liquide a également le bon goût de posséder une densité proche de trois fois celle de l'eau, il arrête ainsi assez facilement les quelques rayons gamma qui peuvent lui arriver dessus. Il forme en fait un autoblindage. Comme la position des interactions peut être obtenue, il suffit de ne regarder que celles qui ont lieu au centre du volume, protégé par les couches externes.
La masse de détecteur est un facteur clé pour augmenter la probabilité d'interactions de particules (des WIMPs), et LUX fournit une masse inégalée de 368 kg de xénon. 

La sensibilité annoncée de LUX, grâce à sa très grande masse et à son efficacité de détection de la lumière de scintillation, doit mener à une amélioration d'un facteur 100 par rapport aux meilleurs résultats actuels, avec notamment un seuil de détection très bas, permettant d'observer potentiellement des particules peu massives.

         
Partie centrale du détecteur LUX avant remplissage de xénon et avant mise en place du blindage externe (LUX collaboration).

Les performances de LUX doivent permettre, pour faire simple, de faire la loi au sujet des WIMPs et de devenir l'expérience leader mondiale dans la recherche directe de ces particules encore hypothétiques (mais pour combien de jours ?), rien de moins...

Les  physiciens et physiciennes qui composent la collaboration LUX ne viennent pas de n'importe où, une grande partie sont issus d'anciennes expériences de recherche de matière noire (XENON10 et ZEPLIN III) et d'autres viennent du monde des grandes expériences d'étude des neutrinos comme SuperK, SNO ou IceCube. 
Les membres de la collaboration LUX (LUX Collab.)
Pour être exhaustif, les institutions impliquées sont les suivantes : 
  • Brown University
  • Case Western Reserve University
  • University of Rochester
  • Imperial College London
  • Edinburgh University
  • Lawrence Livermore National Laboratory
  • South Dakota School of Mines and Technology
  • University of Maryland
  • Texas A&M University
  • University of California, Davis
  • University College London
  • LIP Coimbra, Portugal
  • University of South Dakota
  • Lawrence Berkeley National Laboratory
  • University of California, Berkeley
  • University of California, Santa Barbara
  • Yale University

Les premiers résultats très attendus de LUX seront rendus publics au cours d'un événement médiatique le 30 octobre prochain. Séminaire webcasté à suivre sur http://sanfordlab.org/public-event/1610

23/10/13

Nouvelle Galaxie Ultra-Lointaine et Ultra-Productive

Alors, oui, cela faisait quelques mois que l'on n'avait pas battu un record de distance pour une galaxie... Et bien, voilà, on remet ça!
Celle-ci se trouve dans un Univers âgé d'à peine 700 millions d'années. Elle se trouve à 13,1 milliards d'années-lumière, donc. 
Son petit nom, horrible par ailleurs, est z8_GND_5296, elle a été identifiée dans le Cosmic Assembly Near-infrared Deep Extragalactic Legacy Survey (CANDELS). Le décalage vers le rouge de cette galaxie est énorme, il vaut 7,51. Alors qu'elle émet dans l'ultra-violet, la lumière de z8_GND_5296 qui nous parvient se situe dans le proche infra-rouge...
Jusqu'à présent, on ne connaissait que 5 galaxies possédant un redshift (décalage vers le rouge) supérieur à 7, avec des valeurs respectivement de 7.008, 7.045, 7.109, 7.213 et 7.215. z8_GND_5296 fait donc un petit bond dans le temps en reculant encore d'avantage et en dépassant 7,5.
z8_GND_5296  [V. Tilvi (Texas A&M), S. Finkelstein (UT Austin), the CANDELS team, and HST/NASA]

Mais cette lointaine petite galaxie montre quelque chose de surprenant auquel les astrophysiciens, qui publient leur découverte dans Nature, ne s'attendaient pas : elle produit énormément d'étoiles, à un taux exceptionnel d'environ 330 masses solaires par an (c'est 100 fois plus que ce qu'arrive à produire notre pauvre Voie Lactée...). C'est tout simplement l'un des taux de formation d'étoiles les plus élevés que l'on connaisse...

Ce taux de formation énorme d'étoiles est déduit de l'abondance en "métaux" (comprendre des éléments plus lourds que l'hélium, formés par les étoiles) dans la population d'étoiles de cette galaxie, qui apparaît déjà forte. N'oublions pas que nous sommes là à seulement 700 millions d'années après le Big Bang...
Et comme une telle galaxie était totalement inattendue statistiquement dans le type de survey étudié par Finkelstein et ses collègues, ils en concluent que l'Univers jeune de cette époque doit posséder de nombreux autres sites de formation rapide d'étoiles de ce type.

Il ne reste plus maintenant qu'à les trouver, toujours plus loin dans l'espace et dans le temps, jusqu'à atteindre la barrière de la toute première galaxie au delà de laquelle le gaz diffus régnait en maître...

Lire aussi :  http://drericsimon.blogspot.fr/2012/11/record-battu-une-galaxie-133-milliards.html

référence :
A galaxy rapidly forming stars 700 million years after the Big Bang at redshift 7.51
S. L. Finkelstein et al. 
Nature  502, 524–527(24 October 2013)

20/10/13

La Supernova à Antimatière Encore Introuvable

L'origine des supernovae "ordinaires", celles dites de type II, est à peu près compris depuis quelques dizaines d'années. Ces événements explosifs apparaissent lorsqu'une étoile massive à consumé l'essentiel de l'hydrogène et de l'hélium de son cœur  Les réactions nucléaires ne permettant alors plus de compenser la force de gravitation énorme qui écrase le cœur  il s'ensuit un effondrement très rapide de l'étoile sur elle-même, puis la formation d'une étoile à neutrons et l'éjection de la plus grande partie de l'enveloppe restante, le tout dans une furie de réactions nucléaires, de photons gamma et de neutrinos...
Mais ce scénario n'est valable que pour des étoiles suffisamment massives, mais pas trop non plus, entre 8 et 20 masses solaires. Pour des étoiles extrêmement massives, cependant, d'autre mécanismes pourraient être à l'oeuvre.
Vue d'artiste d'une explosion d'une supernova à instabilité de paires (NASA)
Par exemple, une étoile qui aurait une masse 140 fois plus importante que le soleil pourrait former une supernova très particulière. La température serait si élevée dans son cœur que le bain thermique pourrait produire des paires de particules et antiparticules : électron-positron.
Imaginez un matériau chauffé à très haute température, il devient rouge, puis orangé, jaune, puis finalement bleu, violet, ultraviolet, puis, si on continue à chauffer, la longueur d'onde des photons émis est celle des rayons X et des rayons gamma. Lorsque des photons (gamma) atteignent l'énergie de 1,022 MeV, qui est égale au double de la masse de l'électron, ils peuvent se matérialiser en produisant un couple de particules/antiparticules en disparaissant, en l’occurrence un couple électron/positron.

Et que se passe-t-il lors de la création de ces paires de particules ? Et bien la pression de radiation créée par les photons dans le cœur de l'étoile disparaît brutalement avec eux, la gravitation gagne à nouveau, et très très vite. Un effondrement encore plus monstrueux apparaît, exponentiel, faisant s'échauffer encore d'avantage le cœur, qui produit alors toujours plus de paires électrons-positrons accélérant encore le processus. Tout se passe en une fraction de seconde. La grosse différence ici est que l'étoile possédait encore tout son combustible d'hydrogène au début de l'effondrement... Ce type de supernova doit éjecter toute son enveloppe massive très vite, emplie d'éléments nouvellement formés au cours de l'effondrement et du rebond, hautement radioactifs pour la plupart.

C'est d'ailleurs la présence de ces nombreux éléments radioactifs qui permet d'identifier clairement la nature d'un tel objet explosif. En effet, la courbe de luminosité de ces supernovae à instabilité de paires - c'est leur nom officiel, mais on pourrait les nommer supernovae à antimatière - a la particularité de décroître beaucoup plus lentement que celle des supernovae classiques. Cette décroissance de lumière étant gouvernée par la décroissance radioactive des éléments produits au cours de la phase de combustion totale.

Découverte de SN 2007bi en 2007 (SN Factory)
Il se trouve qu'une supernova extrêmement brillante découverte il y a cinq ans semblait correspondre parfaitement à ce phénomène, je veux parler de SN 2007bi. La décroissance de sa lumière suivait particulièrement bien la courbe de décroissance radioactive du cobalt-56. Mais le problème avec cette supernova, que certains pensent être la première du genre, est qu'elle se trouvait dans une galaxie où il y avait surtout des étoiles de seconde génération, déjà assez pauvres en hydrogène et hélium. De telles étoiles ne peuvent pas produire ce type de supernova à instabilité de paires...

Un test très simple permet de savoir si l'étoile à l'origine d'une supernova était extrêmement massive : son enveloppe importante devrait retarder quelque peu la luminosité. Le pic d'émission devrait apparaître environ au bout d'un an, beaucoup plus longtemps que dans le cas d'une supernova plus "classique". Malheureusement, dans le cas de SN 2007bi, on ne l'a vue qu'au moment où elle arrivait à son pic de luminosité... 
Mais une équipe d'astrophysiciens américains vient de découvrir deux supernovae très semblables à SN 2007bi en termes d'extrême luminosité, et dans leur tout début d'émission. Ils ont pu montrer que, de par leur rapide évolution de luminosité, elles ne pouvaient pas dépasser les 20 masses solaires, et que donc elles ne pouvaient pas (ni SN 2007bi du coup) être des supernovae à instabilité de paires.

création de paire e+/e-
Il faut donc trouver un autre mécanisme capable d'expliquer cette extrême luminosité, et le modèle qu'ils proposent est tout autre : l'émission ne serait pas gouvernée par les éléments radioactifs des débris de l'explosion, mais par l'étoile à neutron résiduelle, qui serait en rotation extrêmement rapide (1000 tours par secondes) et munie d'un champ magnétique surpuissant. Ces types d'étoiles à neutrons sont appelées des magnétars.

Ayant échoué dans leur recherche de supernova à instabilité de paires dans l'univers proche, Nicholl et ses collègues, qui publient leur étude dans Nature, déduisent qu'elles ne représenteraient qu'une fraction de 1 sur 100000 supernovae.

Finalement, la meilleure chance de trouver de telles supernovae à antimatière est de les chercher plus loin dans le temps, à l'époque des premières générations d'étoiles, où elles étaient bien plus massives et dénuées d'éléments lourds. Ce sera le travail des futurs télescopes spatiaux.



Référence :

Slowly fading super-luminous supernovae that are not pair-instability explosions
M. Nicholl et al.
Nature 502, 346–349 (17 October 2013)

16/10/13

Une Révolution Scientifique dans 15 Jours ?

Que faut-il penser de cette information ? Les physiciens de l’expérience LUX qui cherchent à détecter la matière noire par interactions directes de WIMPs nous informent qu’ils vont annoncer leurs premiers résultats dans deux semaines, le 30 octobre. Ils organisent pour cela une grande conférence de presse, avec visite de l’installation la veille pour les journalistes curieux, et la conférence de presse sera webcastée…

Pour rappel, je vous avais dit ici il y a quelques mois que, d’après des évaluations du physicien Dan Hooper, spécialiste de la matière noire, LUX devrait détecter une quantité non négligeable de WIMPs, jusqu'à 24 en un mois...

Les résultats qui vont être annoncés le 30 octobre correspondent à une prise de données de 60 jours (seulement !).
Je crois pouvoir dire que c’est assez inhabituel qu’une expérience annonce des premiers résultats seulement après 60 jours de comptage, et encore plus à grands renforts de communication… Initialement, la collaboration LUX avait précisé qu’ils fourniraient leurs premiers résultats à la fin de l’année. Il reste encore 3 mois, les gars ! Est-ce un résultat si important que vous voulez nous annoncer dès maintenant ? On est en droit d’en frissonner de plaisir…

Pour faire court, la sensibilité de LUX doit être à même de trancher de manière définitive sur les indices de détection qu’ont montré d’autres expériences de recherche directe (CDMS et CoGENT) : soit elle les confirme en détectant plein de WIMPs à basse énergie, ou soit elle ne voit rien et on repart à zéro, et le désarroi s'installe...

Schéma du coeur du détecteur LUX
Si on essaye d’interpréter cette espèce d’empressement à annoncer quelque chose que l’on voit là de la part de la collaboration LUX, j’aurais tendance à penser qu’il s’agit d’un résultat positif (détection). En effet, dans le cas contraire (non détection), on aurait naturellement envie d’attendre d’avantage, de faire plus de comptage avec le détecteur, pour améliorer encore plus la limite d’exclusion annoncée (et 120 jours de comptage au lieu de 60 jours permet de baisser la limite d’exclusion d’un facteur 2, c’est comme avoir un détecteur deux fois plus massif, et ça peut permettre de mieux voir une éventuelle modulation du signal dans le temps, c’est-à-dire que c’est tout sauf négligeable).

Alors, détection ?

Ce qui est prévu lors de cet événement médiatique est une brève présentation du directeur de Sanford Lab, suivie de la présentation des résultats durant une heure, puis une intervention du gouverneur de l’état du Dakota du Sud (qui a participé au financement du labo souterrain), ainsi qu’une présentation du détecteur de nouvelle génération devant prendre la suite de LUX…. Etrange, l'intervention du gouverneur, y-a-t-il une élection en vue au Dakota du Sud ?...

Voilà. On ne va plus dormir pendant 15 jours. Il ne reste plus qu’à patienter comme on peut et réserver la journée du 30 octobre. Le séminaire/conf de presse/webcast est planifié à 9h00 heure du Dakota du Sud (dans l’après-midi pour nous).

Alors, révolution en vue, ou pschiit ? Restez à l’écoute, on va en reparler…



L'annonce de l'annonce :

Site du Sandford Lab où aura lieu le webcast :



11/10/13

Gaia ou la Renaissance de l'Astrométrie

Dans quelques semaines, le 20 novembre, l’ESA va lancer un petit bijou de technologie, le satellite Gaia.
Gaia est un télescope dédié à l’astrométrie, cette science vieille comme l’astronomie, qui consiste à cartographier le ciel en enregistrant les positions exactes des étoiles. Son objectif durant sa mission, initialement prévue pour durer 5 ans, est d’atteindre le nombre de 1 milliards d’étoiles, toutes dans notre voie lactée, bien sûr.

Mais Gaia va cartographier non seulement les positions en deux dimensions sur la voute céleste, mais aussi dans la troisième dimension, la distance, pour environ 10 millions d’étoiles qui le permettront, et avec une précision inférieure à 1%...
Gaia devrait ainsi faire faire un pas de géant dans les données astronomiques. Il faut savoir qu’aujourd’hui, nous ne connaissons avec précision la distance que de quelques centaines d’étoiles proches seulement !...
Vue d'artiste de Gaia (ESA).
Ce qui permettra ces très grandes précisions de mesure est l’imageur embarqué dans Gaia : il s’agit d’un ensemble de 106 capteurs CCD, fournissant une image résolue de 900 megapixels. On peut comparer par exemple avec l’équipement du télescope spatial Hubble muni de 2 CCD pour un total de 16 megapixels seulement…
Gaia sera en fait instrumenté par deux télescopes pointant chacun dans une direction différente du ciel, séparées de 106.5° exactement, et permettant un champ de vue très vaste. Le satellite fera une rotation complète sur lui-même en 6 heures pour imager tout le ciel, et chaque étoile sera mesurée plusieurs fois au cours du temps, environ 70 fois.  En l’espace de 5 ans, Gaia aura produit plus d’images que Hubble en 21 ans.

La précision attendue sur la position des étoiles est de l’ordre de quelques microarcsecondes, une résolution des centaines de fois meilleures que les meilleures données actuelles, et des millions de fois plus précises que les données collectées par l’astronome grec Hipparque il y a 2000 ans.
La mesure de la distance sera effectuée par la méthode infaillible de la parallaxe, qui est d’autant plus aisée à mettre en œuvre que l’étoile est proche. Le phénomène de parallaxe est rappelons le mouvement apparent d’un objet lointain vu de deux endroits différents. Dans notre cas, ces deux endroits d’observation se situent de part et d’autre du soleil à 6 mois d’intervalle grâce à la rotation de la Terre autour du soleil.
Alors que la turbulence atmosphérique empêche les télescopes au sol de distinguer des tout petits mouvements apparents des étoiles, et donc limite les mesures de parallaxe à des étoiles relativement proches (quelques centaines d’années-lumière au mieux), ce ne sera plus le cas avec Gaia. La résolution obtenue en orbite permettra de mesurer des distances jusqu’à environ 30000 années-lumière.
Principe de la mesure de distance par la parallaxe (wikipedia).
Gaia permettra également de mesurer précisément des mouvements propres d’étoiles (variation de leur position au cours du temps), ainsi que des vitesses d’éloignement ou rapprochement (via l’analyse spectrale de leur lumière et le décalage Doppler).
Nous aurons ainsi une superbe carte en quatre dimensions (3 positions et vitesse) des millions d’étoiles les plus proches qui nous entourent dans la galaxie.
Gaia a eu un prédécesseur au début des années 1990, le satellite Hipparcos, qui avait réussi à cataloguer près de 120000 étoiles dont seulement 400 d’entre elles avec une précision de l’ordre de 1%.
Portait d'Hipparque.

Gaia, à l’inverse de Hipparcos, pourra aussi détecter d’autres objets que des étoiles, par exemple des naines brunes (des étoiles « ratées ») ou encore des exoplanètes massives, suffisamment massives pour  modifier le mouvement apparent de leur étoile. Et plus près de nous, Gaia pourra également observer et collecter des données sur les dizaines de milliers d’astéroïdes qui gravitent dans notre système solaire et qui pourront passer dans son champ de vue.

La connaissance des positions et vitesses d’une grande zone de notre galaxie permettra de beaucoup mieux comprendre la formation de la galaxie, ainsi que par exemple la distribution de matière noire. Il n’est pas exclu non plus (et heureusement) que ces données de très grande précision montrent des phénomènes incompris, à l’origine de découvertes majeures…
Quoi que trouve Gaia, une chose est certaine : son catalogue astrométrique, qui sera publié vers 2021, restera une référence pour les plusieurs décennies à venir.