mercredi 30 octobre 2013

Matière Noire : l'Expérience LUX ne Détecte pas de WIMPs !

Voilà un résultat négatif qui est peut-être aussi important que s'il avait été positif (enfin... non, quand même pas finalement). La collaboration LUX vient de rendre public ses premiers résultats obtenus grâce au détecteur de matière noire le plus performant du moment, lors d'un séminaire présenté par Dan McKinsey et Rick Gaitskell.

Ils atteignent une sensibilité de détection hors norme, permettant d'explorer une zone jusqu'alors jamais atteinte (une section efficace qui descend jusque 10-45 cm² et une masse détectable minimale de l'ordre de 6 GeV). Et ils n'observent rien ! Nada. Nothing. Que dalle. Il n'y a pas d'interactions de WIMPs dans le xénon liquide du détecteur LUX!
Du moins, rien de plus que le maigre bruit de fond attendu, exactement la quantité de bruit de fond attendu, pas de signal...
Des membres de LUX devant le détecteur
Comme je le disais dans le post précédent sur LUX, le fait qu'ils ne détectent rien met un très sérieux coup à l'hypothèse WIMP et surtout l'hypothèse apparue ces trois dernières années d'une WIMP de l'ordre de 10 GeV pour expliquer la matière noire. Les indices de détection qui avaient été donnés par CoGENT et CDMS, ainsi que ceux de CRESST et de DAMA sont complètement exclus par ces tout nouveaux résultats que viennent de nous annoncer les physiciens de LUX.

Ce résultat est très important, il veut dire que le concept de particule supersymétrique interagissant très faiblement avec la matière n'est sans doute pas la bonne piste pour expliquer la masse manquante observée dans les galaxies et les amas de galaxies...

Le mystère de la matière noire reste donc entier, sachant que l'hypothèse WIMP est sans doute maintenant dans une impasse.

Référence (papier accompagnant la présentation) : 
http://luxdarkmatter.org/papers/LUX_First_Results_2013.pdf


Séminaire de LUX en Direct

Suivez en direct le séminaire de la collaboration LUX sur leurs premiers résultats de recherche directe de matière noire (à partir de 16h heure française (15h GMT) :
CONCLUSION A LIRE ICI  : http://drericsimon.blogspot.fr/2013/10/matiere-noire-lexperience-lux-ne.html


jeudi 24 octobre 2013

LUX : un Détecteur à la Recherche de la Matière Noire

MISE A JOUR : voir les résultats annoncés le 30 octobre

Comme de nombreuses autres expériences dédiées à la recherche directe de la matière noire (recherche de l'observation de faibles interactions de particules massives), l'expérience américaine LUX (Large Underground Xenon Experiment) s'est enfouie sous terre.
C'est une ancienne mine, située dans le Dakota du Sud, rebaptisée le laboratoire Sanford Underground Research Facility (SURF), du nom du mécène qui a financé en grande partie les installations, qui sert d'antre pour ce détecteur hors normes.
Principe de la chambre à projection temporelle permettant de localiser une interaction
LUX est une chambre à projection temporelle au xénon liquide/gazeux. Le design des chambres à projection temporelle n'est pas récent, il date des années 1970. Ces détecteurs permettent de localiser très précisément en trois dimensions la position d'une interaction d'une particule. Un réseau de photomultiplicateurs donne une information en deux dimension et la durée de dérive des électrons créés en même temps que le flash de scintillation fournit la position dans la troisième dimension. Le xénon est un scintillateur : lorsqu'une particule dépose un peu de son énergie dans le liquide, ce dernier émet de la lumière, dont l'intensité est proportionnelle à la quantité d'énergie déposée, et en même temps, il est ionisé.
Les détecteurs de lumière ultrasensibles positionnés judicieusement tout autour du volume de xénon permettent d'enregistrer tous les événements qui se passent dans le volume du scintillateur.
Les détecteurs de lumière équipant LUX peuvent détecter jusqu'à un unique photon...
Détail sur un des photomultiplicateurs de LUX (Brown University)

Bien évidemment, il ne faut pas uniquement se protéger du flux de muons cosmiques en s'enterrant, il faut également éviter le moindre bruit de fond radioactif de la radioactivité naturelle qui existe partout (dans les parois du labo souterrain, dans les matériaux de structure, dans le xénon lui-même. Pour cela, les physiciens américains de LUX ont soigneusement purifié leur xénon, de sorte qu'il ne comporte aucune (ou presque) impureté radioactive.


Le xénon liquide a également le bon goût de posséder une densité proche de trois fois celle de l'eau, il arrête ainsi assez facilement les quelques rayons gamma qui peuvent lui arriver dessus. Il forme en fait un autoblindage. Comme la position des interactions peut être obtenue, il suffit de ne regarder que celles qui ont lieu au centre du volume, protégé par les couches externes.
La masse de détecteur est un facteur clé pour augmenter la probabilité d'interactions de particules (des WIMPs), et LUX fournit une masse inégalée de 368 kg de xénon. 

La sensibilité annoncée de LUX, grâce à sa très grande masse et à son efficacité de détection de la lumière de scintillation, doit mener à une amélioration d'un facteur 100 par rapport aux meilleurs résultats actuels, avec notamment un seuil de détection très bas, permettant d'observer potentiellement des particules peu massives.

         
Partie centrale du détecteur LUX avant remplissage de xénon et avant mise en place du blindage externe (LUX collaboration).

Les performances de LUX doivent permettre, pour faire simple, de faire la loi au sujet des WIMPs et de devenir l'expérience leader mondiale dans la recherche directe de ces particules encore hypothétiques (mais pour combien de jours ?), rien de moins...

Les  physiciens et physiciennes qui composent la collaboration LUX ne viennent pas de n'importe où, une grande partie sont issus d'anciennes expériences de recherche de matière noire (XENON10 et ZEPLIN III) et d'autres viennent du monde des grandes expériences d'étude des neutrinos comme SuperK, SNO ou IceCube. 
Les membres de la collaboration LUX (LUX Collab.)
Pour être exhaustif, les institutions impliquées sont les suivantes : 
  • Brown University
  • Case Western Reserve University
  • University of Rochester
  • Imperial College London
  • Edinburgh University
  • Lawrence Livermore National Laboratory
  • South Dakota School of Mines and Technology
  • University of Maryland
  • Texas A&M University
  • University of California, Davis
  • University College London
  • LIP Coimbra, Portugal
  • University of South Dakota
  • Lawrence Berkeley National Laboratory
  • University of California, Berkeley
  • University of California, Santa Barbara
  • Yale University

Les premiers résultats très attendus de LUX seront rendus publics au cours d'un événement médiatique le 30 octobre prochain. Séminaire webcasté à suivre sur http://sanfordlab.org/public-event/1610

mercredi 23 octobre 2013

Nouvelle Galaxie Ultra-Lointaine et Ultra-Productive

Alors, oui, cela faisait quelques mois que l'on n'avait pas battu un record de distance pour une galaxie... Et bien, voilà, on remet ça!
Celle-ci se trouve dans un Univers âgé d'à peine 700 millions d'années. Elle se trouve à 13,1 milliards d'années-lumière, donc. 
Son petit nom, horrible par ailleurs, est z8_GND_5296, elle a été identifiée dans le Cosmic Assembly Near-infrared Deep Extragalactic Legacy Survey (CANDELS). Le décalage vers le rouge de cette galaxie est énorme, il vaut 7,51. Alors qu'elle émet dans l'ultra-violet, la lumière de z8_GND_5296 qui nous parvient se situe dans le proche infra-rouge...
Jusqu'à présent, on ne connaissait que 5 galaxies possédant un redshift (décalage vers le rouge) supérieur à 7, avec des valeurs respectivement de 7.008, 7.045, 7.109, 7.213 et 7.215. z8_GND_5296 fait donc un petit bond dans le temps en reculant encore d'avantage et en dépassant 7,5.
z8_GND_5296  [V. Tilvi (Texas A&M), S. Finkelstein (UT Austin), the CANDELS team, and HST/NASA]

Mais cette lointaine petite galaxie montre quelque chose de surprenant auquel les astrophysiciens, qui publient leur découverte dans Nature, ne s'attendaient pas : elle produit énormément d'étoiles, à un taux exceptionnel d'environ 330 masses solaires par an (c'est 100 fois plus que ce qu'arrive à produire notre pauvre Voie Lactée...). C'est tout simplement l'un des taux de formation d'étoiles les plus élevés que l'on connaisse...

Ce taux de formation énorme d'étoiles est déduit de l'abondance en "métaux" (comprendre des éléments plus lourds que l'hélium, formés par les étoiles) dans la population d'étoiles de cette galaxie, qui apparaît déjà forte. N'oublions pas que nous sommes là à seulement 700 millions d'années après le Big Bang...
Et comme une telle galaxie était totalement inattendue statistiquement dans le type de survey étudié par Finkelstein et ses collègues, ils en concluent que l'Univers jeune de cette époque doit posséder de nombreux autres sites de formation rapide d'étoiles de ce type.

Il ne reste plus maintenant qu'à les trouver, toujours plus loin dans l'espace et dans le temps, jusqu'à atteindre la barrière de la toute première galaxie au delà de laquelle le gaz diffus régnait en maître...

Lire aussi :  http://drericsimon.blogspot.fr/2012/11/record-battu-une-galaxie-133-milliards.html

référence :
A galaxy rapidly forming stars 700 million years after the Big Bang at redshift 7.51
S. L. Finkelstein et al. 
Nature  502, 524–527(24 October 2013)

dimanche 20 octobre 2013

La Supernova à Antimatière Encore Introuvable

L'origine des supernovae "ordinaires", celles dites de type II, est à peu près compris depuis quelques dizaines d'années. Ces événements explosifs apparaissent lorsqu'une étoile massive à consumé l'essentiel de l'hydrogène et de l'hélium de son cœur  Les réactions nucléaires ne permettant alors plus de compenser la force de gravitation énorme qui écrase le cœur  il s'ensuit un effondrement très rapide de l'étoile sur elle-même, puis la formation d'une étoile à neutrons et l'éjection de la plus grande partie de l'enveloppe restante, le tout dans une furie de réactions nucléaires, de photons gamma et de neutrinos...
Mais ce scénario n'est valable que pour des étoiles suffisamment massives, mais pas trop non plus, entre 8 et 20 masses solaires. Pour des étoiles extrêmement massives, cependant, d'autre mécanismes pourraient être à l'oeuvre.
Vue d'artiste d'une explosion d'une supernova à instabilité de paires (NASA)
Par exemple, une étoile qui aurait une masse 140 fois plus importante que le soleil pourrait former une supernova très particulière. La température serait si élevée dans son cœur que le bain thermique pourrait produire des paires de particules et antiparticules : électron-positron.
Imaginez un matériau chauffé à très haute température, il devient rouge, puis orangé, jaune, puis finalement bleu, violet, ultraviolet, puis, si on continue à chauffer, la longueur d'onde des photons émis est celle des rayons X et des rayons gamma. Lorsque des photons (gamma) atteignent l'énergie de 1,022 MeV, qui est égale au double de la masse de l'électron, ils peuvent se matérialiser en produisant un couple de particules/antiparticules en disparaissant, en l’occurrence un couple électron/positron.

Et que se passe-t-il lors de la création de ces paires de particules ? Et bien la pression de radiation créée par les photons dans le cœur de l'étoile disparaît brutalement avec eux, la gravitation gagne à nouveau, et très très vite. Un effondrement encore plus monstrueux apparaît, exponentiel, faisant s'échauffer encore d'avantage le cœur, qui produit alors toujours plus de paires électrons-positrons accélérant encore le processus. Tout se passe en une fraction de seconde. La grosse différence ici est que l'étoile possédait encore tout son combustible d'hydrogène au début de l'effondrement... Ce type de supernova doit éjecter toute son enveloppe massive très vite, emplie d'éléments nouvellement formés au cours de l'effondrement et du rebond, hautement radioactifs pour la plupart.

C'est d'ailleurs la présence de ces nombreux éléments radioactifs qui permet d'identifier clairement la nature d'un tel objet explosif. En effet, la courbe de luminosité de ces supernovae à instabilité de paires - c'est leur nom officiel, mais on pourrait les nommer supernovae à antimatière - a la particularité de décroître beaucoup plus lentement que celle des supernovae classiques. Cette décroissance de lumière étant gouvernée par la décroissance radioactive des éléments produits au cours de la phase de combustion totale.

Découverte de SN 2007bi en 2007 (SN Factory)
Il se trouve qu'une supernova extrêmement brillante découverte il y a cinq ans semblait correspondre parfaitement à ce phénomène, je veux parler de SN 2007bi. La décroissance de sa lumière suivait particulièrement bien la courbe de décroissance radioactive du cobalt-56. Mais le problème avec cette supernova, que certains pensent être la première du genre, est qu'elle se trouvait dans une galaxie où il y avait surtout des étoiles de seconde génération, déjà assez pauvres en hydrogène et hélium. De telles étoiles ne peuvent pas produire ce type de supernova à instabilité de paires...

Un test très simple permet de savoir si l'étoile à l'origine d'une supernova était extrêmement massive : son enveloppe importante devrait retarder quelque peu la luminosité. Le pic d'émission devrait apparaître environ au bout d'un an, beaucoup plus longtemps que dans le cas d'une supernova plus "classique". Malheureusement, dans le cas de SN 2007bi, on ne l'a vue qu'au moment où elle arrivait à son pic de luminosité... 
Mais une équipe d'astrophysiciens américains vient de découvrir deux supernovae très semblables à SN 2007bi en termes d'extrême luminosité, et dans leur tout début d'émission. Ils ont pu montrer que, de par leur rapide évolution de luminosité, elles ne pouvaient pas dépasser les 20 masses solaires, et que donc elles ne pouvaient pas (ni SN 2007bi du coup) être des supernovae à instabilité de paires.

création de paire e+/e-
Il faut donc trouver un autre mécanisme capable d'expliquer cette extrême luminosité, et le modèle qu'ils proposent est tout autre : l'émission ne serait pas gouvernée par les éléments radioactifs des débris de l'explosion, mais par l'étoile à neutron résiduelle, qui serait en rotation extrêmement rapide (1000 tours par secondes) et munie d'un champ magnétique surpuissant. Ces types d'étoiles à neutrons sont appelées des magnétars.

Ayant échoué dans leur recherche de supernova à instabilité de paires dans l'univers proche, Nicholl et ses collègues, qui publient leur étude dans Nature, déduisent qu'elles ne représenteraient qu'une fraction de 1 sur 100000 supernovae.

Finalement, la meilleure chance de trouver de telles supernovae à antimatière est de les chercher plus loin dans le temps, à l'époque des premières générations d'étoiles, où elles étaient bien plus massives et dénuées d'éléments lourds. Ce sera le travail des futurs télescopes spatiaux.



Référence :

Slowly fading super-luminous supernovae that are not pair-instability explosions
M. Nicholl et al.
Nature 502, 346–349 (17 October 2013)

mercredi 16 octobre 2013

Une Révolution Scientifique dans 15 Jours ?

Que faut-il penser de cette information ? Les physiciens de l’expérience LUX qui cherchent à détecter la matière noire par interactions directes de WIMPs nous informent qu’ils vont annoncer leurs premiers résultats dans deux semaines, le 30 octobre. Ils organisent pour cela une grande conférence de presse, avec visite de l’installation la veille pour les journalistes curieux, et la conférence de presse sera webcastée…

Pour rappel, je vous avais dit ici il y a quelques mois que, d’après des évaluations du physicien Dan Hooper, spécialiste de la matière noire, LUX devrait détecter une quantité non négligeable de WIMPs, jusqu'à 24 en un mois...

Les résultats qui vont être annoncés le 30 octobre correspondent à une prise de données de 60 jours (seulement !).
Je crois pouvoir dire que c’est assez inhabituel qu’une expérience annonce des premiers résultats seulement après 60 jours de comptage, et encore plus à grands renforts de communication… Initialement, la collaboration LUX avait précisé qu’ils fourniraient leurs premiers résultats à la fin de l’année. Il reste encore 3 mois, les gars ! Est-ce un résultat si important que vous voulez nous annoncer dès maintenant ? On est en droit d’en frissonner de plaisir…

Pour faire court, la sensibilité de LUX doit être à même de trancher de manière définitive sur les indices de détection qu’ont montré d’autres expériences de recherche directe (CDMS et CoGENT) : soit elle les confirme en détectant plein de WIMPs à basse énergie, ou soit elle ne voit rien et on repart à zéro, et le désarroi s'installe...

Schéma du coeur du détecteur LUX
Si on essaye d’interpréter cette espèce d’empressement à annoncer quelque chose que l’on voit là de la part de la collaboration LUX, j’aurais tendance à penser qu’il s’agit d’un résultat positif (détection). En effet, dans le cas contraire (non détection), on aurait naturellement envie d’attendre d’avantage, de faire plus de comptage avec le détecteur, pour améliorer encore plus la limite d’exclusion annoncée (et 120 jours de comptage au lieu de 60 jours permet de baisser la limite d’exclusion d’un facteur 2, c’est comme avoir un détecteur deux fois plus massif, et ça peut permettre de mieux voir une éventuelle modulation du signal dans le temps, c’est-à-dire que c’est tout sauf négligeable).

Alors, détection ?

Ce qui est prévu lors de cet événement médiatique est une brève présentation du directeur de Sanford Lab, suivie de la présentation des résultats durant une heure, puis une intervention du gouverneur de l’état du Dakota du Sud (qui a participé au financement du labo souterrain), ainsi qu’une présentation du détecteur de nouvelle génération devant prendre la suite de LUX…. Etrange, l'intervention du gouverneur, y-a-t-il une élection en vue au Dakota du Sud ?...

Voilà. On ne va plus dormir pendant 15 jours. Il ne reste plus qu’à patienter comme on peut et réserver la journée du 30 octobre. Le séminaire/conf de presse/webcast est planifié à 9h00 heure du Dakota du Sud (dans l’après-midi pour nous).

Alors, révolution en vue, ou pschiit ? Restez à l’écoute, on va en reparler…



L'annonce de l'annonce :

Site du Sandford Lab où aura lieu le webcast :



vendredi 11 octobre 2013

Gaia ou la Renaissance de l'Astrométrie

Dans quelques semaines, le 20 novembre, l’ESA va lancer un petit bijou de technologie, le satellite Gaia.
Gaia est un télescope dédié à l’astrométrie, cette science vieille comme l’astronomie, qui consiste à cartographier le ciel en enregistrant les positions exactes des étoiles. Son objectif durant sa mission, initialement prévue pour durer 5 ans, est d’atteindre le nombre de 1 milliards d’étoiles, toutes dans notre voie lactée, bien sûr.

Mais Gaia va cartographier non seulement les positions en deux dimensions sur la voute céleste, mais aussi dans la troisième dimension, la distance, pour environ 10 millions d’étoiles qui le permettront, et avec une précision inférieure à 1%...
Gaia devrait ainsi faire faire un pas de géant dans les données astronomiques. Il faut savoir qu’aujourd’hui, nous ne connaissons avec précision la distance que de quelques centaines d’étoiles proches seulement !...
Vue d'artiste de Gaia (ESA).
Ce qui permettra ces très grandes précisions de mesure est l’imageur embarqué dans Gaia : il s’agit d’un ensemble de 106 capteurs CCD, fournissant une image résolue de 900 megapixels. On peut comparer par exemple avec l’équipement du télescope spatial Hubble muni de 2 CCD pour un total de 16 megapixels seulement…
Gaia sera en fait instrumenté par deux télescopes pointant chacun dans une direction différente du ciel, séparées de 106.5° exactement, et permettant un champ de vue très vaste. Le satellite fera une rotation complète sur lui-même en 6 heures pour imager tout le ciel, et chaque étoile sera mesurée plusieurs fois au cours du temps, environ 70 fois.  En l’espace de 5 ans, Gaia aura produit plus d’images que Hubble en 21 ans.

La précision attendue sur la position des étoiles est de l’ordre de quelques microarcsecondes, une résolution des centaines de fois meilleures que les meilleures données actuelles, et des millions de fois plus précises que les données collectées par l’astronome grec Hipparque il y a 2000 ans.
La mesure de la distance sera effectuée par la méthode infaillible de la parallaxe, qui est d’autant plus aisée à mettre en œuvre que l’étoile est proche. Le phénomène de parallaxe est rappelons le mouvement apparent d’un objet lointain vu de deux endroits différents. Dans notre cas, ces deux endroits d’observation se situent de part et d’autre du soleil à 6 mois d’intervalle grâce à la rotation de la Terre autour du soleil.
Alors que la turbulence atmosphérique empêche les télescopes au sol de distinguer des tout petits mouvements apparents des étoiles, et donc limite les mesures de parallaxe à des étoiles relativement proches (quelques centaines d’années-lumière au mieux), ce ne sera plus le cas avec Gaia. La résolution obtenue en orbite permettra de mesurer des distances jusqu’à environ 30000 années-lumière.
Principe de la mesure de distance par la parallaxe (wikipedia).
Gaia permettra également de mesurer précisément des mouvements propres d’étoiles (variation de leur position au cours du temps), ainsi que des vitesses d’éloignement ou rapprochement (via l’analyse spectrale de leur lumière et le décalage Doppler).
Nous aurons ainsi une superbe carte en quatre dimensions (3 positions et vitesse) des millions d’étoiles les plus proches qui nous entourent dans la galaxie.
Gaia a eu un prédécesseur au début des années 1990, le satellite Hipparcos, qui avait réussi à cataloguer près de 120000 étoiles dont seulement 400 d’entre elles avec une précision de l’ordre de 1%.
Portait d'Hipparque.

Gaia, à l’inverse de Hipparcos, pourra aussi détecter d’autres objets que des étoiles, par exemple des naines brunes (des étoiles « ratées ») ou encore des exoplanètes massives, suffisamment massives pour  modifier le mouvement apparent de leur étoile. Et plus près de nous, Gaia pourra également observer et collecter des données sur les dizaines de milliers d’astéroïdes qui gravitent dans notre système solaire et qui pourront passer dans son champ de vue.

La connaissance des positions et vitesses d’une grande zone de notre galaxie permettra de beaucoup mieux comprendre la formation de la galaxie, ainsi que par exemple la distribution de matière noire. Il n’est pas exclu non plus (et heureusement) que ces données de très grande précision montrent des phénomènes incompris, à l’origine de découvertes majeures…
Quoi que trouve Gaia, une chose est certaine : son catalogue astrométrique, qui sera publié vers 2021, restera une référence pour les plusieurs décennies à venir.


vendredi 4 octobre 2013

Le Boson de Higgs à l'Origine de la Matière Noire et de l'Asymétrie Matière-Antimatière ?

Et si le boson de Higgs était à l'origine de deux grandes énigmes actuelles de la physique : la matière noire et l'asymétrie entre matière et antimatière ? C'est ce que suggèrent deux physiciens qui publient une nouvelle théorie audacieuse dans Physical Review Letters.

Tout part de la suggestion par Sean Tulin, de l'University of Michigan et Géraldine Servant de l'institut Catalan de recherches avancées de Barcelone, qu'il aurait pu exister une asymétrie entre le boson de Higgs et son antiparticule dans l'Univers primordial.
On pense actuellement que le boson de Higgs ne possède pas d'antiparticule, mais le modèle standard de la cosmologie permet qu'il y ait eu à la fois des bosons de Higgs et des anti-bosons de Higgs quand l'Univers était très jeune. Le boson de Higgs interagit avec la matière ordinaire, et une éventuelle asymétrie entre bosons et anti-bosons de Higgs peut se transmettre d'une certaine manière en provoquant une asymétrie entre matière et antimatière...

Cette idée a été appelée l'Higgsogénèse par les auteurs, en référence à la baryogénèse, qui est la phase de production des baryons (protons et neutrons) en plus grande quantité que les antibaryons.

Tulin et Servant montrent que si le boson de Higgs interagit également avec la matière noire, par exemple en produisant des particules de matière noire lors de sa désintégration, il peut créer une quantité de matière noire telle que le ratio matière noire/matière visible est exactement ce que nos observons aujourd'hui...

Une conséquence, et non des moindres, de ce concept serait l'existence d'un test très simple pour l'existence de la matière noire, qui a tant de mal à être mise en évidence directement. Ici, quand le boson de Higgs se désintègre en d'autres particules dans le LHC au CERN, il produirait également des particules de matière noire, indétectables, mais que l'on pourrait déduire à partir des autres produits de la désintégration.
Les désintégrations de bosons de Higgs n'ont pour le moment pas encore été étudiées avec suffisamment de détails pour dire si un tel phénomène a lieu, mais cela pourrait être fait assez facilement dans le futur proche...

Et d'autres groupes de recherche s'intéressent aussi à l'Higgsogénèse, comme par exemple la physicienne théoricienne Sacha Davidson, de l'Institut de Physique Nucléaire de Lyon, et ses collègues, qui ont publié en juillet dernier sur arxiv.org une étude cherchant quels sont les prérequis pour produire l'asymétrie originelle entre Higgs et anti-Higgs à l'origine de tout le processus. Et ils trouvent qu'une théorie relativement simple peut produire une asymétrie du type de celle que proposent Tulin et Servant aujourd'hui.
Dans ce modèle, le modèle standard de la physique des particules inclut bien sûr toutes les particules existantes, mais y incorpore aussi deux bosons de Higgs, plus une troisième particule 'Higgs-like' qui resterait inobservable...

Ce qui rend ces modèles théoriques très intéressants, c'est qu'ils parviennent à mettre ensemble trois faits empiriques assez éloignés a priori : l'existence prouvée du boson de Higgs (nobélisé dans quelques jours), d'une matière noire, et d'une asymétrie matière-antimatière.

Références :

Higgsogenesis
Servant, G. & Tulin, S. 4
Preprint : http://arxiv.org/abs/1304.3464 (2013).
à paraître dans Phys. Rev. Lett.

Davidson, et al. 
Baryogenesis through split Higgsogenesis
Preprint : http://arxiv.org/abs/1307.6218 (2013).


jeudi 3 octobre 2013

Découverte de Supervolcans sur Mars

Après Science la semaine dernière, c’est au tour de Nature cette semaine de mettre Mars en couverture… Plusieurs cratères aux formes irrégulières, localisés dans une zone septentrionale de Mars appelée Arabia Terra, viennent d’être reconnus comme étant en fait un nouveau type de constructions volcaniques élevées, des supervolcans.
 Ces anciens volcans constituent ensemble une nouvelle zone volcanique martienne qui n’avait encore jamais été reconnue comme telle auparavant.

Joseph  Michalski du Planetary Science Institute de Tucson, et  Jacob Bleacher du NASA Goddard Space Flight Center cosignent cette étude. Ils montrent que ces paterae à faible pente sont très similaires aux supervolcans que l’on connait sur Terre, et possèdent des formes montrant des effondrements de structure, un volcanisme effusif et des éruptions explosives.  De la lave extrudée a contribué à la formation de ces hauts plateaux escarpés énigmatiques de l’Arabia Terra.

La Patera Eden (ESA/Mars Express/Freie Universität Berlin)
Les supervolcans sont définis comme des volcans qui sont capables au cours d’une seule éruption de cracher plus de 1000 km3 de roches, cendres et autres débris.
Ces volcans martiens apparaissent si massifs qu’ils ont pu, lorsqu’ils étaient actifs il y a plusieurs milliards d’années, couvrir toute la surface de Mars de cendre volcanique.
Des dégazages de soufre ainsi que des fins grains pyroclastiques issus de l’éruption de ces calderas semblent avoir alimenté la formation des roches sédimentaires et des terrains érodés qui sont observés tout autour de la région équatoriale de Mars. Ces fins grains sont notamment ceux de très petite taille qu’a pu observer le rover Curiosity dans le cratère Gale.
Le plus bel exemple de ces nouveaux volcans est sans doute la structure géologique qui est nommée Eden Patera, qui est longue de 85 kilomètres, pour une largeur de 55 kilomètres et une profondeur de 1.8 kilomètres. Ce qu'ont trouvé les deux chercheurs est l’existence de trois calderas dans la zone dépressionnaire, incluant un probable lac de lave solidifiée et un creuset volcanique où la lave aurait pu s’épancher.
Eden (NASA/JPL/MSSS)

Ces anciens volcans sont très différents des autres volcans martiens que l’on connaît par ailleurs, comme le célèbre Olympus Mons, le plus grand volcan du système solaire avec ses 625 km de diamètre. Ce type de volca, crache sa lave lentement, presque en continu, durant des milliards d’années. Par contraste, les anciens volcans découverts ont dû produire des éruptions très violentes, peut-être parce que leur magma était plus chargé en eau, ou bien parce qu’il remontait à travers la croute martienne à plus grande vitesse.

Cette découverte d’un nouveau type de volcanisme sur Mars change fondamentalement l’image de l’histoire géologique et climatique que l’on se faisait de Mars. Ils ont très probablement joué un grand rôle dans l’évolution primordiale de Mars.


D’autres bassins érodés des hauts plateaux martiens qui avaient été considérés depuis toujours comme étant des cratères d’impact très anciens devraient maintenant être reconsidérés à la lumière de cette découverte, comme pouvant être eux aussi des formations volcaniques formées aux débuts d’une phase de magmatisme furieuse sur Mars…


Voir également cette petite vidéo (en anglais) :




source : 
Supervolcanoes within an ancient volcanic province in Arabia Terra, Mars
Joseph R. Michalski &  Jacob E. Bleacher

Nature 502, 47–52 (02 October 2013)




mardi 1 octobre 2013

Titan, la Lune en Plastique

Titan est la plus grosse lune de Saturne. Il est composé de pas mal d'hydrocarbures, à commencer par le méthane qui y existe sous forme probable d'un océan.

Mais la molécule de méthane est une petite molécule fragile (CH4), qui se casse très facilement sous les rayons du soleil. En se cassant, les molécules de méthane se recollent ensemble, deux à deux pour former éthane, ethylène ou éthyne, ou trois par trois, elles forment alors du propane, du propylène ou du propyne.
Lors de son passage auprès de Saturne et de Titan en 1980, la sonde Voyager 1 avait effectué quelques analyses chimiques et avait mis en évidence la présence de propane (la plus lourde des molécules à trois carbones) et de propyne (l'une des plus légères), mais curieusement, pas de trace de propylène...
Titan, vu par Cassini (NASA/JPL)
Bien heureusement, la sonde Cassini, qui est toujours actuellement en orbite saturnienne et qui rend périodiquement visite au gros Titan, possède un instrument très performant pour l'analyse à distance de composés gazeux, par l'analyse de leurs émissions dans l'infra-rouge. Cet instrument s'appelle le Composite Infra Red Spectrometer (CIRS). Pour la première fois, le CIRS vient de découvrir une nouvelle molécule sur une lune, et il s'agit du propylène manquant ! 

Le propylène, vous en touchez tous les jours, sous sa forme de chaîne polymérisée qu'on appelle le polypropylène. C'est le plastique peut-être le plus répandu, celui de vos sacs d'hypermarchés ou de vos boites de rangement.
Il y a donc du plastique sur Titan en quantités non négligeables, du plastique naturel...

Cette nouvelle pièce du puzzle va maintenant aider les planétologues à mieux comprendre encore le véritable zoo chimique qu'est l'atmosphère de Titan.



source :

A paraître dans The Astrophysical Journal Letters 30 septembre 2013