29/08/13

Mesurer le Champ Magnétique d'un Trou Noir Supermassif à l'aide d'un Magnétar, c'est Possible!

Les ondes électromagnétiques  polarisées linéairement et qui passent à travers une champ magnétique subissent ce qu’on appelle une rotation de Faraday : le vecteur polarisation acquiert un mouvement de rotation, dont l’intensité, qui est appelé la MR (mesure rotationnelle) dépend bien sûr de l’intensité du champ magnétique, mais aussi de la densité d’électrons, de la distance traversée, et des constantes classiques que sont le nombre pi, la masse et la charge de l’électron et la vitesse de la lumière.

Il se trouve que l’émission radio qui est associée au trou noir supermassif du centre galactique, Sgr A*, possède la MR la plus énorme qu’on connaisse de toutes les sources de la galaxie ; elle vaut -5 105 rad.m-2. On pense qu’elle est produite par une colonne de gaz chaud magnétisé depuis le flux d’accrétion tombant dans le trou noir.
Mais la rotation de Faraday que subit l’émission radio de Sgr A*, qui doit traverser toute la colonne de gaz en accrétion, est dominée par les plus petites échelles. Pour pouvoir mesurer la magnétisation du disque d’accrétion aux échelles les plus externes, d’autres source radio polarisées sont nécessaires.


Les pulsars sont bien sûr des candidats idéaux. Je vous ai déjà parlé ici de l’utilisation d’un pulsar en orbite autour de Sgr A* pour étudier le champ gravitationnel. Et bien, ils peuvent donc également être utilisés pour étudier le champ magnétique, c’est ce qu’on fait des astrophysiciens grâce à la découverte d’un magnétar très proche de Sgr A*, qui se nomme PSR J1745-2900, et qui se trouve à moins de 35 années-lumière du centre galactique.
Son émission radio montre une très forte polarisation linéaire, ce qui permet d’en étudier facilement sa rotation de Faraday. Cette a été mesurée sur trois radiotélescopes différents, et la valeur de MR obtenue n’est ni plus ni moins que la plus importante, après celle de Sgr A*.

Les astrophysiciens parviennent à en déduire la distance à laquelle se trouve le plasma magnétisé à l’origine de la rotation de Faraday, à moins de 100 années-lumière du trou. Grâce à cette valeur, ils cherchent ensuite à calculer la valeur du champ magnétique, évidemment. Mais pour cela ils ont eu besoin d’informations supplémentaires sur le gaz en présence. Il y a en fait deux sous-populations de gaz de différentes températures dans cette zone. Ils trouvent finalement une valeur du champ magnétique qui serait de l’ordre de 2,6 mGauss à une distance de 0,12 parsecs (0.4 A.L) du trou.

Or, comme il s’agit d’un disque d’accrétion, la densité et le champ magnétique sont sensés croître plus le rayon est petit, plus on s’approche de l’horizon du trou. La modèle de l’émission de Sgr A* dit qu’il doit produire un champ magnétique compris entre 30 et 100 Gauss pour expliquer le rayonnement synchrotron qui a lieu au niveau de l’horizon.

Il suffit d’appliquer une simple évolution de l’intensité du champ magnétique en inverse de la distance, ce que dit la théorie, pour trouver que le passage de 0.12 parsec, qui est égal à 300000 fois le rayon de l’horizon du trou noir (pourtant déjà grand), à 1 ou 2 fois le rayon, donne un champ magnétique de plusieurs centaines de Gauss… ce qui est tout à fait cohérent avec la plupart des modèles d’accrétion, où une équirépartition de l’énergie magnétique, cinétique et gravitationnelle dans le gaz accrété est supputée…


Référence :
A strong magnetic field around the supermassive black hole at the centre of the Galaxy
R. P. Eatough et al.
Nature (2013) 20 August 2013



28/08/13

Découverte de la plus Vieille Etoile Jumelle du Soleil et Résolution d'un Mystère

Voilà une toute nouvelle découverte, une belle découverte astrophysique comme on les aime. L'annonce d'un résultat important par une équipe brésilienne avait été faite il y a une semaine. Le buzz était là. Et le résultat à la hauteur.

Ces messieurs-dames travaillant avec le Very Large Telescope situé sur les sommets Chiliens viennent de trouver une étoile jumelle de notre Soleil, complètement identique, sauf qu'elle est âgée de 8,2 milliards d'années, soit environ 4 milliards d'années plus vieille que le Soleil. La recherche d'étoiles jumelles du soleil plus jeunes ou plus vieilles est très importante car elles nous donne une image de ce à quoi ressemblera le soleil dans quelques temps. Il faut se rappeler qu'on ne l'observe scientifiquement que depuis 400 ans, c'est à dire rien du tout...

Cette étoile jumelle s'appelle HIP 102152, elle est située à seulement 250 années-lumière de nous, et localisée dans la constellation du Capricorne sur la voûte céleste. De très bons spectres de sa lumière ont pu être acquis avec le spectrographe UVES du VLT et révèlent sa très grande similitude avec le soleil. Pour bien comprendre si le soleil est vraiment particulier, l'équipe à étudier non seulement cette nouvelle vieille jumelle, mais aussi une autre jumelle connu auparavant et connu surtout pour être, elle, plus jeune que notre chère boule de chaleur, 18 Sco, âgée seulement de 2,9 milliards d'années.

Schéma des étoiles jumelles du soleil (ESO)
HIP 102152 est la plus vieille jumelle du soleil jamais identifiée. Un des grands mystères qui vient peut-être d'être enfin compris concernait la teneur en Lithium du Soleil. Ce dernier montre en effet un grand déficit en Lithium par rapport à l'abondance qui devait être celle du milieu dans lequel il s'est formé. Rappelons que le lithium est le troisième élément de la table de Mendeleiev et qu'il s'est formé dans l'univers primordial avec l'hydrogène et l'hélium.
Les astronomes brésiliens et leurs collègues d'un peu partout ont donc regardé la quantité de lithium qu'il y a dans les étoiles de type Soleil, en fonction de leur âge, à partir de 18 Sco, du Soleil et de HIP 102152. 
Et ils trouvent une très forte corrélation entre le taux de lithium et l'âge de l'étoile! La "jeune" en a bien plus que le Soleil, et la "vieille" en a bien moins... La conclusion paraît de fait évidente : les étoiles consomment leur lithium...

Et ce n'est pas encore tout... L'étude de HIP 102152 montre qu'elle possède un autre déficit en certains autres éléments, tout comme le Soleil, mais pas comme de nombreuses autres étoiles. Or ce sont précisément les éléments qu'on retrouve dans les corps rocheux qui gravitent autour du soleil (météorites, planètes rocheuses, ...). Les astrophysiciens concluent que cette vieille jumelle doit elle aussi posséder des planètes rocheuses en orbite...


source : 

ALMA Découvre la Beauté des Cocons d'Etoiles

Des astronomes chiliens, américains et allemands ont découvert une vue magnifiquement incandescente de matière s’échappant à grande vitesse d’une étoile nouvelle-née. Ils ont utilisé pour cela le réseau de radiotélescopes le plus performant au monde actuellement : ALMA (Atacama Large Millimeter/submillimeter Array). En observant dans la longueur d’onde du monoxyde de carbone, l’objet répertorié Herbig-Haro 46/47, ils ont découvert que ses jets de matière sont beaucoup plus énergétiques que ce qu’on pensait auparavant. De plus, cette toute nouvelle image montre un nouveau jet jusqu’alors inconnu qui pointe dans une toute autre direction.
Les étoiles très jeunes sont des objets violents qui éjectent de la matière à des vitesses furieuses (de l’ordre du million de kilomètres par heure…). Et quand cette matière se choque contre le nuage de gaz qui se trouve à proximité, il se produit une émission de lumière, ce qu’on appelle un objet de Herbig-Haro.


HH 46/47 vu par ALMA/NTT  (ESO/NAOJ/NRAO)/H. Arce)
George Herbig et Guillermo Haro ont été les premiers à étudier en détail les spectres de ces objets étranges qui portent aujourd’hui leur nom. Ce sont eux qui ont compris qu’il ne s’agissait pas simplement de la lumière réfléchie sur du gaz ou de la poussière mais qu’il s’agissait de chocs de matériel éjecté à très haute vitesse dans les régions de formation d’étoiles.
Herbig-Haro 46/47 est un exemple spectaculaire du phénomène, il est situé à 1400 années-lumière, dans la constellation australe de Vela.

Ces résultats à paraître dans The Astrophysical Journal ont été obtenus dans les toutes premières périodes d’exploitation de ALMA, alors même que toutes les antennes n’étaient pas encore fonctionnelles, en à peine cinq heures de temps.



ALMA vu du ciel

Les nouvelles images révèlent des détails très fins des deux jets principaux, l’un pointant vers nous, et l’autre s’en éloignant. Le gros apport de ALMA c’est qu’il a permis de mesurer la vitesse de déplacement des jets.
Le système observé paraît similaire à la plupart des étoiles de faible masse en cours de formation, mais en même temps, il est aussi inhabituel parce que le flux de matière impacte le nuage de gaz sur un côté de l’étoile, et s’en échappe de l’autre côté. Et cela en fait de fait un excellent exemple pour étudier l’impact des vents stellaires sur le nuage de gaz d’où s’est formée l’étoile qui en est à l’origine.

Le nouveau jet qu’ont pu découvrir les chercheurs sur ces images se trouve quasi à angle droit des deux principaux.  Il semble qu’il existe une étoile compagnon à proximité qui produirait ce jet, c’est la meilleure explication à ce jour.

Les astronomes prédisent déjà, au vu de ces résultats, que ALMA sera à même de complètement révolutionner le domaine de la formation des étoiles…


Référence :

23/08/13

Les Etoiles Vacillent pour nous Dire leur Taille

Les étoiles scintillent. Ça vous en avez probablement tous fait l’expérience. Mais le scintillement que nous pouvons tous voir, et qui permet d’ailleurs de différentier les étoiles  des planètes (qui elles ne scintillent pas à cause de leur diamètre apparent beaucoup plus important que les points stellaires), le scintillement que nous voyons, disais-je est dû aux mouvements de l’atmosphère qui produisent quantités de variations d’indice de réfraction de l’air et autant de variation de l’intensité de la lumière qui nous parvient.

Mais quand les satellites observent la lumière des étoiles en orbite, comme le télescope Kepler (R.I.P), alors qu’ils ne devraient pas être gênés par les effets de l’atmosphère, observent encore une scintillation, une variation rapide de l’intensité de la lumière…  Cette très faible scintillation est propre à l’étoile.
Une équipe d’astrophysiciens exploitant les données de Kepler vient de montrer qu’à partir des variations très rapides d’une étoile observées, qu’ils appellent le flicker, qu’on peut traduire par vacillement ou papillotement, on peut en déduire la valeur de sa gravité de surface.
Evolution de la luminosité d'une étoile type (F. Bastien et al., Nature)
 Et c’est d’importance, car connaissant le champ gravitationnel d’une étoile, si on connait par ailleurs sa température de surface ainsi que sa composition, il est facile d’en déduire sa taille. Et dans le cas où il s’agit d’étoiles munies d’exoplanètes, comme on évalue toujours la taille des planètes par rapport à la taille de leur étoile, la connaissance du rayon de l’étoile donne immédiatement la valeur du rayon de la ou des planètes qui y orbitent…
Mais revenons un peu sur comment nos chers astrophysiciens en sont arrivé là. Il faut savoir que les étoiles peuvent être très variables dans la lumière qu’elles émettent. Une grande part de ces variations est due aux oscillations mécaniques de l’enveloppe des étoiles, ce qui est étudié par l’astérosismologie (voir La musique desétoiles). Elles peuvent également provenir par exemple de la rotation de grandes taches stellaires le long du disque. Mais ces variations d’intensité se déroulent sur des grandes plages de temps, des heures ou des jours.
En observant de très près grâce à la finesse que pouvait obtenir le télescope Kepler, en enregistrant les variations de luminosité au cours du temps avec une excellente résolution temporelle, Fabienne Bastien de l’Université Vanderbilt dans le Tennessee et ses collègues qui publient leurs résultats cette semaine dans Nature, montrent qu’il existe une variation très rapide, sur une échelle de temps inférieure à huit heures et qui vient se superposer sur tous les autres types de variations.

feu le télescope Kepler
Or, il se trouve que l’astérosismologie permet  de déterminer la gravité de surface de certaines étoiles. Bingo. Parmi les étoiles observées par Bastien et al., certaines possédaient des données asterosismologiques, on connaissait leur accélération g.

En mettant en regard l’intensité du vacillement observé et la valeur de la gravité de surface g, ils montrent qu’il existe une très bonne corrélation entre les deux.
Cette corrélation permet maintenant de déterminer des valeurs de g  à partir du vacillement avec une précision inférieure à 25%, ce qui représente une vraie prouesse car meilleure d’un facteur deux à trois par rapport aux méthodes antérieures.

L’origine de ce vacillement semble provenir de la granulation stellaire. La granulation, qui est bien observée sur le soleil, est produite par le phénomène de convection, quand de l’énergie est transportée dans les couches externes. Il se forme alors des zones convectives de relativement petite échelle où s’alternent en variant dans le temps des zones claires et sombres. Les auteurs de l’article montrent que plus les variations de luminosité sont grandes, plus g est faible, ce qui se traduit par une granularité de plus grande échelle.

Les études sur le vacillement vont se poursuivre dans les Teraoctets de données Keplériennes qu’il reste à dépouiller. Même si Kepler ne fournira plus de nouvelles données, cette nouvelle méthode proposée sera de toute façon appliquée sur les données des futurs chasseurs d’exoplanètes comme l’américain TESS (Transiting Exoplanet Survey Satellite) qui devrait être mis en orbite en 2017 , ou l’européen PLATO (Planetary Transits and Oscillations of Stars) un peu plus tard…




Source :
An observational correlation between stellar brightness variations and surface gravity
Fabienne A. Bastien et al.
Nature 500, 427–430 (22 August 2013)


19/08/13

Indices Indirects de Matière Noire dans les Bulles de Fermi

Il y a presque un an, je vous racontais ce qu’étaient les bulles de Fermi, ces vastes zones du ciel situées de part et d’autre du plan de notre galaxie, et qui ont la particularité de former des sortes de lobes, des bulles, d’où sont émis une quantité de rayons gamma, ainsi que du rayonnement micro-onde.
Ces bulles s’étendent environ jusqu’à une latitude de 50 degrés au-dessus et en dessous du plan galactique. L’énergie des rayons gamma que l’on y trouve s’étend entre 1 GeV et 100 GeV et est bien plus grande que l’émission gamma qu’on peut trouver dans le disque de notre galaxie.

La question de l’origine de ces bulles émissives a suscité de longs débats depuis quelques années maintenant. Le modèle qui semble le plus à même d’expliquer ce que l’on voit est basé sur le  phénomène de diffusion Compton inverse : des électrons très énergétiques diffusent sur des photons de faible énergie (typiquement des photons du domaine visible ou infra-rouge) en leur fournissant une grande part de leur énergie cinétique. Les photons sont ainsi boostés vers des hautes énergies,  devenant des photons gamma.

Schéma des bulles de Fermi.
Une étude venant de paraître dans Physics of the Dark Universe s’est penchée à nouveau sur les caractéristiques des photons gamma en provenance de ces bulles de Fermi, notamment en découpant les zones par tranches de latitude. Et des surprises sont apparues...
Aux latitudes supérieures à 30 degrés, tout se passe comme prévu par le modèle de diffusion Compton inverse, le spectre en énergie reflète très bien le modèle impliquant des électrons de l’ordre du GeV ou du TeV diffusant sur les photons du fond diffus ainsi que sur des photons de lumière stellaire.

En revanche, pour des latitudes plus basses, plus près du centre galactique donc, une telle origine leptonique pour le rayonnement gamma observé ne peut plus l’expliquer à elle seule. Un pic dans le spectre en énergie apparaît à quelques GeV. Et aucune solution fondée sur des interactions de rayons cosmiques de types protons ne permet non plus de produire un tel spectre gamma…

Il se trouve qu’il y a un autre endroit où un spectre similaire est observé, c’est dans la région entourant de très près le centre galactique. Les différentes solutions qui avaient été proposées pour expliquer cet excès de photons gamma sont d’une part de l’annihilation de matière noire, d’autre part une population de pulsars millisecondes ou encore des interactions de rayonnement cosmique avec le gaz interstellaire. 
Dans leur article, les chercheurs américains montrent que ce qui est observé à basse latitude jusque 20 degrés n’est rien d’autre que la continuité de ce qui est vu au niveau du centre galactique. Les caractéristiques sont extrêmement proches.
Diagramme de l'annihilation des WIMPs (Columbia University)
Il s’agit d’une émission qui s’étend donc jusqu’à environ 10000 années-lumière du centre de notre galaxie. Et la morphologie du signal est cohérente avec une origine d’annihilation de matière noire distribuée selon un certain profil (un profil de Navarro-Frenk-White généralisé, mais passons…).

La forme spectrale du signal est quant à elle conforme à une annihilation de WIMPs de 10 GeV en deux leptons tau-antitau, ces deux leptons produisant ensuite les photons gamma observés secondairement. Mais elle est aussi conforme avec une WIMP de 50 GeV qui s’annihilerait en deux quarks. Dans les deux cas, le calcul de la section efficace d’annihilation que font les auteurs d’après le nombre de photons gamma observés donne une valeur qui est tout à fait comparable avec celle qui est couramment admise pour une relique thermique du Big Bang comme les WIMPs sont sensées l’être…

Quant aux deux autres solutions ? Et bien les physiciens états-uniens indiquent qu’il serait très étonnant de trouver des myriades de pulsars milliseconde aux hautes latitudes, étant donné qu’il n’existe pas de population stellaire correspondante, quant aux interactions de rayonnement cosmique sur le gaz, on peut l’oublier aussi, trop loin, trop peu… Il n'y aurait donc plus qu'une seule et unique solution, mais au choix : 10 GeV ou 50 GeV...


Source : 
Two emission mechanisms in the Fermi Bubbles: A possible signal of annihilating dark matter
D. Hooper et al.
Physics of the Dark Universe Volume 2, Issue 3, September 2013, Pages 118–138

07/08/13

Entre la Nova et la Supernova, la Kilonova

Une observation effectuée avec le télescope spatial Hubble vient de mettre en évidence pour la première fois que les bouffées de rayons gamma de très courte durée étaient produites par la fusion de deux objets compacts hyper-denses. Ces objets sont probablement une paire d'étoiles à neutrons ou bien une étoile à neutrons et un trou noir.
C'est en observant dans l'infra rouge paradoxalement, que les astrophysiciens ont réussi à montrer pour la première fois qu'il s'agissait en fait d'un phénomène appelé Kilonova. Une kilonova était prédite pour accompagner les GRB ultra courts (moins d'une seconde). Le phénomène est environ 1000 fois plus brillant qu'une nova, d'où son nom. Une nova, comme vous vous en souvenez, est une éruption d'une naine blanche. Mais une kilonova bien que beaucoup plus brillante, est tout de même 10 à 100 fois moins brillante que supernova typique, qui est une explosion d'étoile massive.

Illustration du modèle de fusion d'objets compacts produisant des GRB . (NASAESA, and A. Field (STScI))
Les bouffées de rayons gamma (GRB en anglais) ultra-courtes génèrent parfois une rémanence faible dans le visible ou le proche infra-rouge., qui peut elle durer de quelques heures à quelques jours. 
Le modèle le plus abouti prédisait que de telles bouffées ultra-courtes étaient issues du crash de deux objets compacts, mais aucue observation n'avait encore pu étayer cette théorie. 

L'opportunité se présenta aux astronomes le 3 juin dernier quand le télescope spatial Swift prit en flagrant délit un GRB extrêmement brillant, GRB 130603B, situé dans une galaxie éloignée de 4 milliards d'années lumière. La bouffée gamma en elle même dura un dixième de seconde, mais fut environ 100 millliards de fois plus brillante que le flash kilonova.
La rémanence dans le visible fut détectée avec le télescope William Hershel des îles Canaries.
A peine quelques jours après, du temps d'observation put être obtenu sur le télescope spatial Hubble et ce dernier chercha dans la direction du GRB les 12 et 13 juin, et trouva un objet rouge et faible. Trois semaines plus tard, une nouvelle observation indiqua une nette décroissance de luminosité montrant clairement qu'il s'agissait d'une explosion.
Images de GRB 130603B obtenues à deux semaines d'intervalle avec Hubble (NASA/HST)
En plus de confirmer la nature des GRB ultra-courts, cette découverte à deux autres implications importantes : la première concerne l'origine de plusieurs éléments chimiques comme l'or et le platine, qui restait mal comprise. Or, les kilonovae sont prédites pour être de grosses productrices de ces éléments lourds, qui sont expulsés lors de l'explosion dans l'espace environnant, avant de se retrouver dans la génération suivante d'étoiles et de planètes qui tournent autour.
La seconde implication est que comme les fusions d'objets compacts sont connus pour être de très fortes sources d'ondes gravitationnelles selon la relativité générale, il suffit de chercher des phénomènes de type kilonova pour regarder de près ce qui s'y passe en termes d'ondes gravitationnelles, ce qui facilite grandement la tâche, plutôt que de les chercher un peu au hasard sur la voute céleste...

Source :
Nature, 3 august 2013

01/08/13

Dark Side (of the WIMPs) : une Belle Expérience

C'est une belle et ambitieuse manip. Elle s'appelle Dark Side 50. Son but : détecter des WIMPs, des particules formant la matière sombre, si elles existent. Dark Side 50 est actuellement en cours d'installation dans le temple de la physique souterraine, le LNGS, Laboratoire du Gran Sasso, en Italie, où elle va cotoyer de nombreuses autres manips de recherche directe de matière noire...
La collaboration Dark Side est formée à la fois d'européens et d'américains, ce qui est relativement rare dans le milieu de la recherche des WIMPs, première innovation. 

Mais les plus grosses innovations sont technologiques, bien sûr. Outre le fait que le tunnel du Gran Sasso a été sélectionné pour lieu de résidence avec ses 3600 mètres d'équivalent eau de roche de couverture contre les muons cosmiques pour obtenir le bruit de fond le plus bas possible, la technologie qui a été choisie est parmi les plus prometteuses du moment, à savoir une chambre à projection temporelle (une TPC dans l'acronyme international), mais utilisant de l'argon liquide et gazeux, en lieu et place du déjà utilisé par ailleurs xénon : 50 kg d'argon.
Schéma de la TPC de Dark Side 50
Les WIMPs, en interagissant dans l'argon liquide, doivent produire un signal de scintillation (observée dans la phase liquide) et d'ionisation, récupéré dans l'argon gazeux. 

Mais comme toute manip de recherche d'événements ultra rares, le soucis est le bruit de fond de la radioactivité naturelle, et notamment, spécifiquement pour Dark Side, ce ne sont pas vraiment les isotopes qui produisent des rayonnements gamma qui vont être le problème, puisque la technologie des TPC à argon diphasique permet une très bonne discrimination des signaux produits par des gammas et les signaux produits par des reculs de noyaux (ce qui est recherché). Non, le soucis majeur est justement ce qui peut produire des reculs de noyaux similaires à ceux produits par des WIMPs. Et ce qui peut créer ce type d'événements, ce sont les neutrons.

Il existe en fait deux sources distinctes de neutrons dans une manip comme Dark Side située dans les profondeurs d'une montagne : d'une part des neutrons dits radiogéniques, et d'autre part les neutrons cosmogéniques.
Les neutrons radiogéniques sont les neutrons qui sont issus de la décroissance radioactive de certains éléments présent en infimes quantités dans les matériaux formant ou entourant les détecteurs (de l'uranium par exemple).
Les neutrons cosmogéniques, eux, ont une énergie plus grande et sont produits par des réactions secondaires des quelques muons cosmiques qui parviennent quand-même à traverser la montagne des Apennins et à arriver jusqu'au détecteur.

La nouveauté technologique que Dark Side 50 va déployer pour contrer ces neutrons est l'utilisation d'un double véto actif : les neutrons vont être détectés avant (ou après) avoir produit une interaction parasite dans le détecteur. Pour ce faire, le système de détection forme une véritable poupée russe gigantesque : la chambre contenant l'argon est placée au centre d'une citerne contenant un scintillateur liquide à base de bore, où les neutrons radiogéniques interagissent avec le bore, ce qui produit secondairement de la lumière qui est détectée. Ainsi, si un signal typique de WIMP est enregistré en même temps (ou presque) qu'un signal dans le scintillateur boré, alors il ne sera pas enregistré.
Schéma des vétos actifs anti-neutrons de DS 50.

Second véto actif, troisième niveau de notre poupée russe : le détecteur de neutrons qui contient la TPC est lui-même plongé dans une autre grosse citerne de 11 m de diamètre, qui, elle, contient juste de l'eau, et des détecteurs de lumière bien sûr. Le but de cette citerne, outre que l'eau arrête très bien les neutrons, est de détecter le passage de muons cosmiques, qui pourraient aller produire des neutrons (cosmogéniques) dans le détecteur. Les muons en passant dans l'eau vont produire de la lumière par effet Cherenkov. Là encore, si un signal lumineux est observé dans la citerne d'eau en même temps qu'un signal type WIMP dans la chambre TPC à Argon, alors ce dernier ne sera pas comptabilisé...

Les manips concurrentes utilisent dans de nombreux cas des vétos actifs, notamment pour la détection du passage de muons, mais jamais aussi élaborés et pouvant véritablement évaluer précisément le bruit de fond des neutrons.

Mais Dark Side propose de pousser même un peu plus loin l'innovation dans la sélection des matériaux utilisés pour la construction du détecteur, les matériaux devant bien sûr être le plus radiochimiquement pur. Les physiciens américains de la collaboration ont proposé d'utiliser de l'argon souterrain au lieu d'argon atmosphérique. Effectivement, il existe des sources d'argon en sous-sol, notamment aux Etats-Unis. La différence est que dans l'atmosphère, il existe un isotope de l'argon, l'argon-39, qui est radioactif, naturellement produit par bombardement de neutrons dans la haute atmosphère. L'argon existant en profondeur, lui, est exempt de cet isotope gênant. Enfin, surtout gênant pour les puristes des astroparticules, parce que la radioactivité générée par l'argon-39 est de 1 becquerel par kilogramme, ce qui est absolument dérisoire à notre échelle... Mais cela permettra à la manip d'être parfaite jusque dans son cœur de poupée russe.

Le début d'opération de Dark Side 50 a eu lieu début 2013. La sensibilité attendue de cette belle expérience est de l'ordre de 2.10-45 cm² pour des WIMPs de 100 GeV en 3 ans de comptage, ce qui serait bien meilleur que ce qu'ont pu atteindre de nombreuses expériences concurrentes...

En savoir plus :

Site de la collaboration Dark Side :http://darkside.lngs.infn.it/

23/07/13

La Terre Vue Depuis Saturne par Cassini

Cette image a été prise le 19 juillet dernier par la sonde Cassini actuellement en orbite autour de Saturne. Elle nous montre cette toute petite boule bleue qui est notre planète, vue à une distance de 1,44 milliards de kilomètres.
NASA/JPL Caltech Space Science Institute
Cette superbe vue est effectuée à partir de la zone à l'ombre des anneaux de Saturne, avec un angle d'environ 20 degrés en dessous du plan des anneaux. Cassini se trouve ici à 1,21 millions de kilomètres de Saturne.

18/07/13

Capturer un Astéroïde : la NASA Voit Trop Grand ?

La NASA a élaboré un plan pour aller capturer un petit astéroïde et le rapprocher de la Lune pour l’étudier de près. C’est un des éléments de l’Asteroid Initiative que Barack Obama a annoncé en avril dernier pour mettre au budget 2014.

Et du challenge, il y en a. Pas tant dans la technologie permettant de faire cette récupération, mais surtout pour trouver le bon caillou… En fait, il n’y a qu’une poignée d’astéroïdes qui pourraient s’avérer adéquats. Le groupe de travail qui s’est réuni le 9 juillet dernier à l’académie des sciences américaine à Washington s’est conclu dans un scepticisme assez marqué. Les planétologues spécialistes des astéroïdes ont exprimé leurs doutes aux responsables de la NASA.

Vued'artiste d'un système de capture d'astéroïde (NASA)
Si le projet trouve un financement, alors la NASA va devoir faire de gros efforts pour enrichir les bases de données sur les astéroïdes de petites dimensions. En effet, même si le contenu de la mission reste assez flou, on sait quel genre d’astéroïde serait utile : un objet suffisamment solide, de l’ordre de 10 m de diamètre, et possédant une trajectoire idoine pour être capturé par un vaisseau lancé en 2017.
Parmi les plus de 10000 astéroïdes proches de la Terre, seulement 370 seraient suffisamment petits pour être capturés. Mais parmi ces 370 actuellement connus, seulement 14 ont une orbite adéquate… Et parmi ces 14, uniquement 4 ont déjà été étudiés plus ou moins en détails pour que l’on en connaisse quelques propriétés sur leur texture ou leur vitesse de rotation. C’est dire le manque de candidats sérieux pour le moment.

Il est par exemple requis que l’astéroïde sélectionné n’ait pas une vitesse de rotation supérieure à 2 tours/minutes pour ne pas endommager le système de capture.
L’idéal pour la NASA serait de trouver environ 15 nouveaux astéroïdes de 10 m à proximité dont la moitié avec une bonne orbite, et cela dans les 4 prochaines années ! Le gros problème, c’est que les équipements actuels dédiés à la recherche d’astéroïdes sont optimisés pour trouver des objets de plus de 150 m.
Les observatoires dédiés vont donc devoir s’améliorer grandement, ce qui est d’ores et déjà prévu pour certains d’entre eux comme le Catalina Sky Survey, qui a découvert la plupart des petits astéroïdes proches, et qui va voir s’ajouter deux nouvelles caméras en 2014, doublant ainsi son champ de vue et donc ses chances de trouver de petits cailloux errants…

Le télescope du Catalina Sky Survey (University of Arizona)
La NASA prévoit aussi de remettre en fonction un satellite plongé en sommeil depuis 2011, le Wide Field Survey Explorer, ainsi que mettre à contribution les télescopes PanSTARRS-2 et ATLAS situés à Hawaï. La multiplication de différents télescope s’avère cruciale dans ce type de traque car, une fois découvert, un petit astéroïde peut devenir très vite invisible et on a alors besoin de télescopes infra-rouge ou radio pour évaluer sa forme et sa composition.

Un astéroïde de 10 mètres de diamètre pèse environ 400 tonnes, la masse de la station spatiale internationale. Les ingénieurs américains du Johnson Space Center de Houston travaillent déjà au design de l’engin qui permettrait de capturer ce caillou. L’idée est relativement simple : il s’agit d’envoyer une sonde à proximité immédiate de l’astéroïde puis de déployer une sorte de grand sac pour ensuite le tirer lentement pour le rapprocher de la Lune en environ 4 ans.
Des astronautes pourraient alors dès 2021 se rendre au niveau du caillou capturé et en prendre quantité d’échantillons. Le coût estimé de l’opération se situe entre 1 et 3 milliards de dollars (disons au minimum 3 milliards, donc), mais officiellement, les officiels américains le répètent : il ne s’agit pas de faire de la science. A la limite, les échantillons qui seront prélevés n’auront que peu d’intérêt. Il s’agit avant tout pour les américains de se confronter à des challenges spatiaux pour s’entrainer dans des conditions difficiles avant de pouvoir aller plus loin vers Mars à l’horizon 2030 notamment.

A l’heure actuelle, nous ne savons pas si le l’asteroid initative va être financé.  Ce que l’on sait en revanche, c’est que les pontes de la NASA aiment proposer des programmes et réfléchir ensuite sur leur faisabilité. Une sorte de marche en avant forcée qui peut produire des effets bénéfiques, ou pas.

Source :
Asteroid plan looks rocky
Alexandra Witze
Nature 499, 261–262(18 July 2013)

14/07/13

Un Détecteur de Matière Noire à Base d'ADN

Katherine Freese est une astrophysicienne théoricienne pleine d'imagination, ce qui est plutôt intéressant pour une théoricienne. Cette chercheuse de l'Université du Michigan s'intéresse depuis de longues années à l'un des problèmes actuels les plus importants en astrophysique et en cosmologie : la matière noire (ou matière sombre).
Avec son équipe et un collaborateur biologiste, elle vient de proposer un concept de détecteur très innovant qui pourrait permettre de détecter très efficacement une caractéristique cruciale des WIMPs, à savoir leur direction, et avec une très grande précision.

Schéma du concept de détecteur de WIMPs à ADN (A. Drukier, K. Freese)
En effet, comme on le sait, le système solaire étant en rotation autour du centre galactique et plongé dans un halo de matière noire sous forme de WIMPs (hypothèse la plus couramment admise), et la Terre tournant autour du Soleil, il résulte une modulation apparente du flux de WIMP. C'est le signal qui est recherché par les expériences de détection directe des WIMPs. Mais il s'avère qu'il est aujourd'hui impossible de pouvoir mesurer la direction d'incidence des particules fantômatiques que sont les WIMPs. Or c'est en observant leur direction d'origine qu'on pourra être catégorique sur la nature galactique de la modulation annuelle observée. L'enjeu est de taille.

Pour connaître la direction des WIMPs qui font reculer les noyaux d'atomes par collision élastique, il faut pouvoir mesurer la direction du noyau qui recule, c'est aussi simple que ça. Mais les meilleurs détecteurs actuels, qu'ils soient des semiconducteurs, des cristaux scintillateurs ou bien des chambres d'ionisation à gaz, ne produisent des reculs de noyaux qui ne sont que de quelques nanomètres alors que la résolution spatiale de ces détecteurs n'est que de quelques micromètres, soit 1000 fois plus.

L'idée, assez géniale, de Katherine Freese est d'utiliser la biologie. Et plus exactement des systèmes biologiques que l'on maîtrise parfaitement aujourd'hui : l'ADN, sa multiplication et son analyse automatisée.
Le but est de parvenir à reconstruire la direction des WIMPs via la direction des noyaux d'atomes qui sont impactés, avec une résolution nanométrique. Quoi de mieux qu'un simple-brin d'ADN, parfaitement connu, et dont on peut connaître avec une très grande précision le lieu de cassure éventuelle ?

Flux de reculs moyenné dans le temps, en coordonnées galactiques (pour des WIMPs de 100 GeV, section efficace de 10-6 pb, modèle de halo standard avec une densité de 0.3 GeV/cm3; A. Green

Voici la méthode proposée : des milliers de simples-brins d'ADN sont produits avec une suite de bases bien choisies (A, C, T, G, A, C, etc, par exemple) et sont accrochés sur une feuille de métal de numéro atomique élevé, de l'or dans l'idée publiée.

Les WIMPs interagissent dans la feuille d'or et produisent des "noyaux de recul", qui vont pouvoir s'échapper de la feuille et vont ensuite se déplacer parmi les milliers de brins d'ADN situés en dessous. Lorsqu'un noyau lourd d'or rencontre un brin d'ADN, il le coupe littéralement. On obtient alors, lorsque de nombreux WIMPs vont faire de même, une série de brins d'ADN qui se retrouvent coupés à différents endroits.
Grâce aux techniques maintenant classiques de biologie moléculaire (la PCR, polymerase chain reaction), on arrive à amplifier l'ADN par un facteur de l'ordre du milliard. Une seule cassure de brin d'ADN devient tout à fait visible. En traitant l'ensemble des brins qui étaient suspendus à la feuille d'or, on peut obtenir une véritable trace indiquant la direction prépondérante des noyaux d'or, et donc des WIMPs...

Non seulement une résolution spatiale 1000 fois meilleure pourrait être obtenue par rapport aux meilleurs détecteurs actuels, permettant de mesurer la direction incidente, mais ce type de détecteur serait également sensible aux WIMPs de très basse énergie, ce que n'offrent pas tous les détecteurs classiques. De plus, il serait très peu sensible au bruit de fond, ne nécessitant ainsi pas forcément d'être installé en labo souterrain. Il ne nécessiterait pas non plus d'être refroidi à des températures cryogéniques.

Qui plus est, malgré une masse d'or nécessaire de l'ordre de 1 kg, ce type de détecteur serait a priori moins cher que ce qui se fait de mieux aujourd'hui et même plus polyvalent, l'or pouvant être remplacé par d'autres métaux pour explorer la masse et la section efficace des WIMPs par exemple...

Avec tous ces avantages si alléchants, il ne reste plus qu'à prouver la faisabilité expérimentale d'un tel dispositif, en espérant que cela puisse aboutir avant que d'autres expériences plus colossales soient arrivées au but plus rapidement...


biblio :
New Dark Matter Detectors using DNA for Nanometer Tracking
Andrzej Drukier, Katherine Freese et al.
Arxiv  1206.6809 v1 (28 juin 2012)

Optimizing WIMP directional detectors
Anne Green et al.
Astroparticle Physics vol. 27, (mars 2007), p. 142-149


10/07/13

Le Temps Existe-t-il ?

Prenez le Temps d'écouter ces deux conférences passionnantes par les deux plus grands spécialistes actuels du temps...


Le Temps existe-t-il ? (Etienne Klein, CEA)




La Physique a-t-elle besoin du Temps ? ( Marc Lachièze-Rey, CEA)




A lire également : Le Temps est-il une illusion ? sur le blog de DrGoulu : Pourquoi, Comment, Combien ?

07/07/13

De La Matière Noire Détectée Sans le Savoir ?

A écouter !

Dan Hooper est un physicien théoricien qui aime beaucoup la matière noire. Il l'aime tellement, il y croit tellement, pourrait-on dire, qu'il en est sûr, non seulement elle existe sous forme de WIMPs, mais en plus il arrive à en détecter là où les physiciens expérimentateurs ne la voient pas dans leurs données... Et il donne même la masse (et la section efficace) de la particule tant recherchée avec une précision assez déconcertante : entre 7 et 10 GeV.

Reprenons.
A ce jour, quatre expériences ont vu des événements compatibles avec des interactions de WIMPs dans leurs détecteurs, tout d'abord les italiens de DAMA, qui le clame depuis 2002 déjà, mais avec des méthodes semble-t-il controversées (encore que...). Ensuite les américains de l'expérience CoGENT en 2010, puis se fut le tour des allemands de CRESST en 2011. Enfin, très récemment, d'autres américains, avec l'expérience CDMS-Si.
Dan Hooper (Fermilab)
Toutes ces expériences de recherche directe de matière noire ont un point commun : les événements observés impliqueraient des WIMPs de faible masse, inférieure à 10 GeV, alors que la plupart des expériences étaient optimisées depuis des années pour chercher des particules aux environs de 50 à 100 GeV. 
Et le fait notable c'est aussi que toutes ces expériences utilisent des détecteurs de type différents : scintillateur NaI, germanium semiconducteur, scintillateur bolométrique en tungstate de calcium, et bolomètre silicium, respectivement.
Même si la plage de masse obtenue est à peu près la même, il reste des incohérences entre les différents résultats. Deux seulement se recoupent partiellement : ceux de CoGENT et de CDMS-Si. Mais il faut savoir que les trois interactions observées par CDMS-Si n'ont pas été clamées comme découverte par leurs auteurs, qui sont peut-être trop prudents.

Les physiciens de CoGENT, eux, sont sans doute un peu moins prudents. Il ont réanalysé en 2012 les données de l'expérience CDMS mais avec l'autre partie des détecteurs de CDMS, ceux en germanium et non plus en silicium. Et vous devinez ce qu'ils obtiennent ?  Des événements compatibles avec des interactions de WIMPs, et qui sont cohérents également à la fois avec ceux de CoGENT, et les récents de CDMS-Silicium...

Il y a encore mieux. Les quatre expériences mentionnées étaient toutes rejetées par une cinquième, qui les excluait toutes, il s'agit de XENON100, dont les résultats nuls avec un détecteur à base de xénon liquide permettaient de tracer une courbe d'exclusion qui rendait impossible la véracité des revendications des autres expériences. 
Le détecteur XENON100 (XENON Collaboration)
Vous avez sans doute noté que j'écris à l'imparfait. Car Dan Hooper, physicien très respecté du fameux Center for Particle Astrophysics au Fermi National Accelerator Laboratory vient de publier sur le site de preprints Arxiv une réanalyse des données de XENON100 (La réanalyse de données indépendante à tendance à devenir monnaie courante, et ce n'est pas pour nous déplaire).

D'une manière assez magistrale, Hooper nous montre que les deux événements situés dans la zone d'intérêt et qui avaient été estimés être du bruit de fond par les physiciens de XENON100 (ils avaient calculé qu'il devrait y avoir au maximum 1,2 événements de bruit de fond), possèdent en fait des caractéristiques très anormales.

Déjà, le bruit de fond attendu devait avoir une probabilité de 80% d'être constitué de reculs d'électrons et pour 20% d'interactions de neutrons. En étudiant attentivement la réponse de scintillation de ces deux interactions, Hooper trouve que ça ne ressemble pas du tout à des reculs d'électrons. La probabilité se réduit donc d'autant, ils ne seraient donc pas des électrons, et il resterait 3.5% pour que ces deux événements soient des neutrons.

Ensuite, Hooper observe qu'une caractéristique du signal de ces deux événements (le ratio de l'amplitude du signal S2/S1) est bien plus faible que celui qui est mesuré expérimentalement lorsqu'on approche une source de neutrons du détecteur en phase de calibrage... De plus, les deux signaux se trouvent très près du seuil de détection, alors que les neutrons s'"étalent" sur une grande plage...
Dan Hooper poursuit son étude en calculant ce que donnerait comme signal dans le détecteur XENON100  des WIMPs ayant les caractéristiques de celles déduites des données de CoGENT et CDMS. Vous devinez ? Les événements simulés se retrouvent exactement là où se trouvent les deux événements observés!...
A la lecture du papier, on sent l'auteur qui jubile derrière son clavier, on imagine le sourire de celui qui est sûr de lui... Il semble dire aux physiciens de XENON100 : "vous les aviez sous les yeux et vous n'avez rien vu!...".

Dan Hooper note tout de même un point important (et qui a sans sûrement mis le doute aux physiciens de XENON100) : si la masse attendue est la bonne, en revanche le nombre détecté n'est pas du tout conforme. Il devrait y en avoir cent fois plus avec la masse de ce détecteur et la durée du comptage... Qu'à cela ne tienne, Hooper apporte la preuve que tout peut être réconcilié à condition que quelques paramètres du détecteur XENON100, comme l'efficacité de luminescence par exemple, soient corrigés de leurs incertitudes.

Le conteneur de xénon de LUX dans son réservoir blindage (encore vide) (LBNL)
Pour finir son article plus qu'enthousiaste, Dan Hooper se lance dans la prédiction. Sachant qu'une expérience s'appelant LUX, utilisant elle aussi le xénon liquide, mais avec une masse beaucoup plus importante que XENON100 (350kg au lieu de 100 kg) et avec une efficacité de détection de la lumière de scintillation bien meilleure, est en train de démarrer aux Etats-Unis, il calcule le nombre de "candidats" WIMPs qu'elle devrait détecter. Le nombre est fabuleux : entre 3 et 24 par mois (oui, par mois!).

Je propose donc à toutes les expériences de recherche directe de matière noire d'envoyer très vite la totalité de leurs données à D. Hooper, Fermi National Accelerator Laborator, Batavia, Illinois en attendant l'annonce fracassante dans quelques mois. Peut-être arriverait-il à avancer la date ?


Référence :

Revisiting XENON100's Constraints (and Signals?) For Low-Mass Dark Matter
Dan Hooper
http://arxiv.org/pdf/1306.1790.pdf (7 juin 2013)

05/07/13

Des Bouffées d'Ondes Radio Ultracourtes : Phénomène Inédit

Une équipe d'astronomes anglais et australiens vient de détecter pour la première fois une population de bouffées d'ondes radios très particulières. Ces dernière sont ultracourtes et leurs propriétés laissent penser qu'elles proviennent de bien au-delà de la Galaxie.
Ces mystérieuses bouffées d'ondes radio ne durent que quelques millièmes de secondes et se répètent environ toutes les 10 secondes. Il s'agit d'un phénomène jusqu'alors inconnu.

Alors que des sources radio qui varient sur des durées de l'ordre de jours ou de mois ont été enregistrées depuis plusieurs dizaines d'années en provenance de galaxies lointaines, de tels signaux ultra courts extragalactiques n'avaient encore jamais été détectés.
Le radiotélescope Parkes (CSIRO)
C'est en 2007 que l'équipe s'est intéressée de près à ce type de sources après qu'un tel signal avait été suggéré en 2007 à partir d'observations faites en 2001 mais restées très controversées (le dénommé "Lorimer burst"). Dan Thornton et ses collègues ont utilisé les données archivées du radiotélescope australien de 64 m Parkes, celui-là même qui avait donné des indices  pour un tel signal en 2001. Et l'équipe de Thornton en a trouvé pas moins de quatre. 

Ces signaux montrent une évolution temporelle très caractéristique : leur fréquence décroit presque linéairement en fonction du temps.

Les ondes radios durant leur parcours dans l'espace sont diffusées et dispersées par la matière ionisée qu'elles rencontrent, surtout par les électrons. Ce sont les basses fréquences qui sont le plus affectées et moins les hautes fréquences.
Les quatre signaux trouvés, situés dans différentes régions du ciel, sont tellement dispersés que la quantité d'électrons de la galaxie qui se trouvent sur le chemin ne peuvent causer que 6% de cette dispersion... Ces signaux radio viennent donc de bien plus loin.
Grâce aux modèles du contenu en électrons du milieu intergalactique, les astronomes parviennent à estimer la distance parcourue par ces bouffées d'ondes radio : entre 5,5 et 10 milliards d'années lumière.

Intensité du signal en fonction de la fréquence (en y) et du temps (en x).
Ensuite, la grande brièveté et l'intensité des bouffées indiquent que l'on a affaire à de petits objets très énergétiques. Les astrophysiciens pensent qu'ils pourrait s'agir de magnétars (des pulsars avec un champ magnétique très intense), mais rien n'est certain à ce stade, puisque aucune contrepartie optique n'a été observée. C'est aujourd'hui un but des astronomes de Parkes que d'observer en "direct" de telles bouffées radio, de manière à pointer dans la foulée des télescopes optiques pour en savoir plus sur ce qui se passe...


Observer une contrepartie optique pourra permettre de connaitre assez précisément la distance de ces objets. Et connaissant la distance précise, la mesure de la dispersion des signaux radio pourra mener au calcul de la quantité d'électrons qui se situent sur le trajet intergalactique.

La connaissance de l'abondance des électrons n'est pas anodine : elle permet de connaître par déduction le nombre de baryons (protons et neutrons). Or il se trouve que le nombre de baryons dans les galaxies est toujours un sujet chaud, puisqu'une grande partie des baryons (la moitié!) qui ont du se former dans l'Univers primordial sont aujourd'hui aux abonnés absents, on ne sait pas où ils se trouvent...

Cette découverte importante d'une nouvelle classe de bouffées d'émissions radio, publiée aujourd'hui dans Science, pourrait ainsi fournir un outil très puissant aux astrophysiciens.

Référence :
A Population of Fast Radio Bursts at Cosmological Distances
D. Thornton et al.
Science  Vol. 341 no. 6141 pp. 53-56 (5 July 2013)