15/03/12

L'Astrophysique Souterraine

L’astrophysique est une science qui fait lever les yeux vers le ciel. Ça semble évident. Mais aujourd’hui, dans ces développements particulo-cosmologiques, l’astrophysique a besoin de plus en plus de se cacher dans les profondeurs de la Terre…

A la recherche de particules cosmiques qui n’interagissent que très peu avec la matière, donc très difficiles à détecter, il est indispensable de protéger les systèmes de détection de la moindre interférence. Quand on cherche une aiguille dans une grange de foin, on aime transformer la grange en botte, effectivement…
Laboratoire souterrain du Gran Sasso (credit INFN)
Dans le cas des recherches sur les neutrinos ou bien sur la matière noire (sous forme de particules), les astrophysiciens des particules (adeptes de la cosmologie observationnelle), se sont donc depuis de longues années déjà, enterrés dans des laboratoires très profondément enfouis, qu’ils soient situés dans des mines abandonnées, ou bien sous des montagnes (en profitant de tunnels existants).
Schéma d'une gerbe produite par un proton (rayon cosmique)
Car les principales particules qui font du foin pour reprendre notre image sont les muons dits cosmiques (µ). Ces muons, qui font partie de la famille des électrons, mais 140 fois plus lourds, sont en fait produits dans la haute atmosphère par de vrais rayons cosmiques pour le coup, qui sont principalement des protons de haute énergie (pour 50%) et des noyaux d’hélium (25%) puis des noyaux plus lourds, provenant pour la plupart du Soleil mais aussi de plus loin dans notre Galaxie.
 Ces protons et noyaux d’hélium collisionnent les atomes de l’atmosphère et produisent alors des pions qui produisent à leur tour ces fameux muons, qui se trouvent être fort gênants car détectés dans nos détecteurs préférés de neutrinos ou de WIMPs (particules pouvant former la matière noire).

Et il n’existe qu’une seule solution efficace pour réduire ce flux permanent de muons, c’est d’intercaler entre l’atmosphère et le détecteur une grosse, très grosse quantité de matière qui va les absorber. Quoi de mieux que plusieurs centaines ou milliers de mètres de roche ?
C’est ainsi que sont nés les laboratoires souterrains dédiés à la physique des astroparticules (presque toutes, sauf les muons et leurs progéniteurs, bien sûr).

Et c’est donc dans une sorte de course à l’échalote du laboratoire qui s’implantera au plus profond de manière à obtenir le bruit de fond (muons parasites) le plus bas possible. De nombreux pays sur tous les continents se sont lancés dans cette course, et l’Europe se trouve assez bien pourvue…
De manière à pouvoir comparer les différents sites, dont les roches ne sont pas forcément similaires, les épaisseurs ou profondeurs sont exprimées en mètres équivalent d’eau, les différents laboratoires sont aussi comparés en termes de flux résiduel de muons cosmiques arrivant dans le labo, qui est exprimé en nombre de muons/m²/jour.

Il faut rappeler que le flux de muons cosmiques qui nous arrive constamment sur nos têtes, lorsque nous sommes au niveau de la mer, est de l’ordre de 10 000 muons/m²/minute ! (n’ayez crainte, la très grande majorité d’entre eux nous traversent sans rien nous faire…).

On peut ainsi classer les laboratoires souterrains selon leur performance de bruit de fond le plus bas, en traçant le flux de muons résiduel en fonction de l’épaisseur d’eau équivalente correspondant à la profondeur du site, et en positionnant où se situe tel labo sur la courbe.

A ce petit jeu, on voit que les gagnants de cette course sont les chinois, avec un tout nouveau labo en cours de construction, JingPing, qui devrait bénéficier sous sa montagne de 2500 m, de plus de 7,5 km d’épaisseur d’eau équivalente !... 
Mais au fait, qu’est ce qui y est étudié dans ces labos, au juste ? Faisons un petit tour d’horizon par ordre de profondeur : 

Solotvina (mine, Ukraine, 1000 m eq. eau) :
Le laboratoire souterrain de Solotvina  n’abrite pas d’expérience en tant que telle mais est surtout utilisé pour effectuer de la R&D sur de nouveaux types de détecteurs scintillateurs de très haute pureté, notamment pour la détection de matière noire, mais aussi pour l’étude de la radioactivité « double béta », qui fournit de précieux éléments sur la physique des neutrinos.

OTO (tunnel, Japon, 1400 meq. Eau) :
Ce laboratoire souterrain modeste accueille deux expériences principales :
  • ELEGANT : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
  • MOON : détection de matière noire avec scintillateurs.
·          
Y2L (Corée du Sud, 2000 m eq. Eau) :
Les coréens ont décidé de se lancer eux aussi dans la recherche de la matière noire, en refaisant une expérience semblable à celle de l’expérience controversée DAMA (installée elle au Gran Sasso).
·         KIMS : détection de matière noire avec scintillateur.

Kamioka (tunnel, Japon, 2000 m eq. Eau) :
Le laboratoire souterrain de Kamioka abrite le plus fameux détecteur de neutrinos, SuperKamiokande, mais aussi d’autres expériences plus méconnues :
  • Superkamiokande : détection de neutrinos cosmologiques et solaires
  • XMASS : détection de matière noire avec Xénon liquide
  • NEWAGE : détection de matière noire
  • CLIO : détection d’ondes gravitationnelles
  • CANDLE : détection de décroissance double béta (étude des caractéristiques des neutrinos)

Soudan (mine, Etats-Unis, 2000 m eq. Eau) :
Le laboratoire souterrain de la mine de sel de Soudan abrite notamment l’expérience MINOS qui devait remesurer la vitesse des neutrinos après les résultats stupéfiants de OPERA. Il accueille aussi l’une des plus performantes expériences de détection des WIMPs malgré sa profondeur moyenne.
  • CDMS II : détection de matière noire avec détecteurs cryogéniques Germanium
  • CoGent : détection de matière noire avec détecteurs Germanium
  • MINOS : détection de faisceaux de neutrinos à longue distance (oscillométrie)

Canfranc (tunnel, Espagne, 2400 m eq. Eau) :
Bénéficiant des Pyrénées et d’un tunnel ferroviaire désaffecté, les scientifiques espagnols mettent à disposition ce laboratoire certes pas très grand, mais assez profond. Deux expériences principales y ont compté ou y compte encore des particules :
  • ANAIS : détection de matière noire
  • ROSEBUD : détection de matière noire

Boulby (mine, Royaume-Uni, 2800 m eq. Eau) :
Les mines anglaises sont-elles réputées pour leur profondeur ? En tous cas, celle de Boulby permet de chercher furieusement des trac es de matière noire, noire comme une tête de mineur anglais.
  • ZEPLIN III : détection de matière noire
  • DRIFT II : détection de matière noire

Gran Sasso (tunnel, Italie, 3200 m eq. Eau) :
C’est un peu la star des labos souterrains, avec sa surface très importante et sa profondeur tout à fait enviable… Il abrite de fait un très grand nombre d’expériences très variées :
  • DAMA/LIBRA : détection de matière noire avec scintillateurs
  • CRESST2 : détection de matière noire avec scintillateurs cryogéniques
  • XENON100 : détection de matière noire avec xénon liquide
  • WARP : détection de matière noire
  • COBRA : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
  • CUORICINO : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
  • GERDA : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
  • BOREXINO : détection de neutrinos solaires
  • LVD : détection de neutrinos de supernovae
  • LUNA2 : astrophysique nucléaire
  • OPERA : détection de faisceaux de neutrinos à longue distance
  • ICARUS  : détection de faisceaux de neutrinos à longue distance
Et d’autres en géologie, biologie, environnement, …

Homestake (mine, Etats-Unis, 4000 m eq. Eau) :
Ancienne mine d’or, Homestake s’est rendue célèbre grâce aux découvertes de R. Davis sur les flux de neutrinos solaires dès les années 60. Le laboratoire est encore en activité et devrait s’agrandir dans les années qui viennent. Les principales expériences de physique des astroparticules qui s’y trouvent implantées sont les suivantes :
  • LUX : détection de matière noire
  • MAJORANA : détection de la décroissance double béta (étude des caractéristiques des neutrinos).

Baksan (mine, Russie, 4700 m eq. eau) :
Très ancien labo, emblème à l’époque du dégel des relations américano-russes.
  • SAGE : détection de neutrinos

Modane (tunnel, France, 4800 m eq. Eau) :
Situé en plein milieu (km 7) du tunnel du Fréjus reliant la France et l’Italie, ce labo souterrain géré conjointement par le CNRS et le CEA bénéficie d’une profondeur exceptionnelle grâce à la haute montagne le surplombant. Il abrite deux grosses expériences principales qui le remplissent presque entièrement. Le projet d’extension en cours sera le bienvenu.
  • NEMO : détection de la décroissance double béta (étude des caractéristiques des neutrinos).
  • EDELWEISS : détection de matière noire avec détecteurs cryogéniques Germanium

Sudbury (SNOLAB) (mine, Canada, 6000 m eq. eau) :
Les canadiens aussi ont leurs gueules noires, à défaut d’avoir leur matière noire (quoique…), encore pour quelques temps le labo avec expériences actives le plus profond du monde. 6000 m d’eau équivalent au-dessus de la tête !...
  • PICASSO : détection de matière noire
  • SNO : détection de neutrinos solaires
  • DEAP/CLEAN : détection de matière noire
  • SuperCDMS : détection de matière noire avec détecteurs cryogéniques Germanium

JingPing( tunnel, Chine, 7500 m eq. eau) :
En cours de construction, la profondeur est tellement prometteuse que ça fait presque peur…


13/03/12

Mars, Photo au Dobson

Qui a dit que c'était le mois de Mars, hein ?

En ce moment, Mars se montre sous son meilleur apparat. Et il était tentant de pointer le Dobson avec le Canon au foyer... Voilà ce que ça donne (inutile de préciser que le ciel était nickel) :





Canon EOS 1000D au plan focal derrière Barlow X2, 1/100 s


Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

12/03/12

Quand Jupiter embrasse Vénus

Ce soir, c'est soirée Planètes... après la prise de vue au vol de la douce étreinte entre Jupiter et Vénus, nous allons nous attaquer au rouge Mars, presque aussi gros qu'un Saturne sans anneaux!...

Jupiter (à gauche) se couche avec Vénus.
Voir aussi : Jupiter, Lune, Vénus

Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

11/03/12

Les Anomalies Fécondes du Neutrino

On s’en souvient, en septembre dernier, les physiciens de l’expérience OPERA située au laboratoire souterrain du Gran Sasso en Italie annonçaient lanouvelle incroyable que les neutrinos avaient une vitesse supraluminique, supérieure à celle de la lumière. Cela consistait en une énorme anomalie vis-à-vis de ce qui était couramment admis. Et de fait, il semble bien qu’il s’agisse d’une simple erreur expérimentale.

Mais le neutrino, cette particule furtive, depuis sa « naissance » théorique puis sa découverte expérimentale, a toujours montré de nombreuses anomalies, qui ont été à l’origine de plusieurs révisions ou création de nouvelles lois physiques.
Revenons un instant sur l’histoire tumultueuse des neutrinos, ces particules qui baignent l’Univers à raison de  1 milliard de neutrinos pour un proton…
Naissance compliquée
Tout d’abord, il faut rappeler que la naissance du neutrino elle-même est le fruit de l’observation d’une forte anomalie dans le phénomène de radioactivité béta.
La radioactivité béta a été découverte à la fin du 19ème siècle, un noyau d’atome se transforme en un autre noyau en émettant un électron (en fait un neutron du noyau se transforme en proton dans cette décroissance). La particule béta est l’électron.
Wolfgang Pauli en 1951
Dans les années 1910, les physiciens se sont rendu compte que s’il n’y avait qu’un électron émis dans cette désintégration, les lois de conservation de l’énergie et de la quantité de mouvement n’étaient pas conservées, mais violées…
Personne ne comprenait ce phénomène et ce n’est qu’en 1930 que le physicien Wolfgang Pauli proposa une solution pour remédier à cette anomalie : il suffisait que le noyau émette en même temps que l’électron une seconde particule, neutre, pour que les lois de conservation soient rétablies.
Cette nouvelle particule devait en revanche être très légère et interagir très faiblement avec la matière environnante.

Personne n’avait jamais vu de particule ayant ces caractéristiques et personne ne savait comment pouvoir détecter une telle particule, à tel point que pendant longtemps les physiciens ont estimé que sa détection était impossible...


Observation expérimentale grâce à l'énergie nucléaire
Ce n’est qu’en 1956 qu’il fut possible de mettre en évidence expérimentalement le neutrino, grâce au développement des réacteurs nucléaires de production d’électricité aux Etats-Unis. En effet, les réactions nucléaires de fission produisent une quantité importante d’isotopes radioactifs produisant des antineutrinos électroniques lors de désintégrations béta.
Télégramme annonçant à W. Pauli la découverte du neutrino. (CERN)
Ces réacteurs produisent de l’ordre de 300 milliards d’antineutrinos par cm² et par seconde.
Les  physiciens Clyde Cowan et Frederick Reines ont construit un détecteur pour détecter ce flux de neutrinos et l'ont placé près du réacteur de Savannah River en Caroline du Sud et ont pu détecter pour la première fois ces particules imaginées 25 ans plus tôt.
Cowan a disparu en 1974, mais Reines reçut le prix Nobel en 1995 pour cette découverte.
Mais la plupart des neutrinos (ou antineutrinos) qui nous traversent à chaque seconde ne proviennent pas des réacteurs nucléaires construits par l’Homme, mais plutôt du gros réacteur thermonucléaire qui nous éclaire chaque jour, le Soleil.

Anomalie des neutrinos solaires
Pour fixer un ordre de grandeur, il faut savoir que chaque seconde, l’ongle de votre petit doigt est traversé par 65 milliards de neutrinos solaires, chaque seconde !

Évidemment, depuis que l’on a compris l’origine de l’énergie du Soleil dans les années 30, on cherche à le comprendre de mieux en mieux, et la détection des neutrinos du Soleil est importante pour tirer des informations sur le fonctionnement interne de notre étoile. 
C’est ainsi que très tôt certains astrophysiciens se sont spécialisés dans l’observation des neutrinos solaires en en mesurant le flux arrivant sur Terre. Et en 1964, les pionniers Ray Davis et John Bacall ont construit un détecteur de neutrinos solaires au fond de la mine de Homestake dans le Dakota du Sud. Le choix d’un laboratoire souterrain était rendu indispensable pour s’affranchir du bruit de fond dû aux interactions du rayonnement cosmique (muons principalement).

Ces premiers résultats ont tout de suite montré l’existence d’une anomalie. Il manquait une certaine quantité de neutrinos vis-à-vis de ce qui était attendu par les modèles théoriques du fonctionnement interne du Soleil… Une quantité non négligeable puisqu’il aurait dû être détecté trois plus de neutrinos…
Les spécialistes du soleil et ceux des particules se sont combattus de longues années pour savoir qui se trompait. En vain. Personne ne faisait erreur.

Ils oscillent bel et bien
L’existence de différents types de neutrinos avait été découverte dans les années 60. Mais le phénomène possible d’oscillation d’une saveur de neutrino à l’autre ne fut proposé qu’à la fin des années 60. Cette théorie ne gagna pas un grand intérêt dans la communauté des physiciens… jusqu’à ce qu’elle devienne une solution parfaite pour mettre d’accord les astrophysiciens solaires et les physiciens des particules… 
Intérieur du détecteur Kamiokande (Japon)

Si il manquait des neutrinos électroniques, ils devaient avoir disparu durant leur trajet entre le soleil et la Terre. Enfin, pas complètement disparus, disparus sous leur forme initiale, mais toujours là sous une autre forme. Les neutrinos sont en fait des particules composites qui possèdent plusieurs saveurs en eux-mêmes! Ils peuvent être à la fois de type électronique, muonique ou tauiques.... C'est le phénomène d'oscillation qui fut introduit pour les neutrinos d'une manière tout à fait judicieuse et efficace
Ces autres saveurs de neutrinos ne pouvaient pas être détectées par les détecteurs…

Lorsque de nouveaux détecteurs capables de mesurer les trois types de neutrinos ont été construits, l'écart a entièrement disparu.
Le phénomène de l’oscillation des neutrinos a une énorme implication, outre le fait d’expliquer des anomalies de flux : il repose sur le fait que les trois types de neutrinos possèdent chacun une masse différente. Ce qui veut dire une masse différente de zéro. Alors qu’il était couramment admis que le neutrino était sans masse, il est devenu évident dans la moitié des années 1990 que le neutrino avait bel et bien une masse, et chaque neutrino une masse différente, le plus léger étant le neutrino électronique et le plus lourd le neutrino tau.

Anomalie des neutrinos atmosphériques
Une nouvelle anomalie apparut dans les années 1980, un peu en même temps que celle concernant les neutrinos solaires, c’est l’anomalie dite des neutrinos atmosphériques. Des neutrinos sont produits dans la haute atmosphère par des réactions de muons cosmiques qui interagissent avec les noyaux d’atomes d’oxygène et d’azote. Comme les neutrinos interagissent ensuite très peu avec la matière, on s’attend généralement à en observer autant venant du ciel que du sol (ces derniers étant produits dans l’atmosphère aux antipodes et traversant la Terre de part en part.
C’est un peu par hasard que des physiciens cherchant à mesurer la durée de vie du proton dans des laboratoires souterrains ont eu besoin de connaitre les flux de neutrinos atmosphériques provenant de différentes directions et ont mesuré des écarts très important entre les deux directions : un facteur 2 !... 

Cette anomalie fut résolue par l’apport de nouveaux phénomènes physiques associés à l’oscillation des neutrinos, en y ajoutant l’effet de la matière traversée par les neutrinos : l’effet MSW (Mikheyev–Smirnov-Wolfenstein), qui indique que l’oscillation des neutrinos est modifiée par la matière qu’ils traversent, un peu à l’image d’un indice de réfraction pour la lumière… 
Cet effet MSW fut évidemment repris dans les calculs des neutrinos solaires pour tenir compte de l’hydrogène traversé par les neutrinos au cœur du Soleil et permit d’accorder encore mieux les calculs et les mesures.
Détecteur LSND (Los Alamos)
Mais une autre anomalie apparut bien vite.

Une nouvelle anomalie...
En 1993, les scientifiques de Los Alamos (Etats-Unis) construisirent un détecteur pour l’étude des oscillations : le LSND (Liquid Scintillator Neutrino Detector).
L’expérience LSND reste célèbre parmi les physiciens, parce qu’elle a vu un petit excès d’antineutrinos électroniques provenant apparemment de nulle part.

La seule possibilité permettant d’expliquer les flux de neutrinos observés à LSND est de proposer l’existence d’un quatrième neutrino (voire d’avantage), qui oscillerait toujours comme ces congénères, mais aurait la subtile caractéristique d’être stérile, c'est-à-dire n’ayant aucune interaction avec la matière, autre que la gravitation…

Évidemment, l'existence d'un quatrième neutrino jetterait un doute sérieux sur les modèles actuels de la physique des particules. Mais il pourrait aussi aider à expliquer certains problèmes encore non résolus, tels que les détails des réactions nucléaires qui apparaissent lors des explosions de supernovæ.
Cependant les résultats de LSND ne sont pas admis par toute la communauté des physiciens des particules, même si une expérience récente lancée en 2002, MiniBoone, a apporté des résultats allant dans le même sens que ceux de LSND en détectant un excès de neutrinos à faible énergie…

Anomalie des neutrinos de réacteurs
Et l’existence de ces hypothétiques neutrinos stériles est relancée par une nouvelle anomalie, celle appelée l’ « anomalie des neutrinos de réacteurs ». C’est grâce à la détection des neutrinos de réacteurs nucléaires que les neutrinos ont été identifiés formellement en 1956. Et depuis des expériences de mesure de flux de neutrinos ont eu lieu dans tous les pays (ou presque) équipés de réacteurs nucléaires.
Schéma du détecteur IceCube (Antarctique)
Et ce qui est observé partout est une petite différence systématique entre le flux mesuré et le flux attendu d’après les modèles prenant tous les paramètres en compte (réactions nucléaires, transport des particules, oscillations à faible distances…) : il manque environ 6% de neutrinos. Cette anomalie des neutrinos de réacteur pourrait elle aussi être expliquée par l’existence d’un quatrième ou un cinquième neutrino, lui aussi stérile…

Une fausse anomalie
Puis vint la dernière anomalie en date de 2011 avec un excès de vitesse, mais qui fut résolu sans avoir besoin de nouvelles théories en seulement quelques mois, à l’aide semble-t-il d’une bonne connexion de fibre optique.
On le voit, le neutrino est une particule féconde en physique, et il n’est pas impossible qu’elle le reste autant au 21ème siècle qu’elle ne le fut au 20ème.

Déjà de nouvelles expériences de grande taille sont imaginées notamment aux Etats-Unis pour mieux comprendre la physique du neutrino. En Europe et en Asie, de nombreuses expériences sont en cours ou à l’étude et l’oscillométrie des neutrinos est devenue une branche de la physique des particules à part entière.
Il n’est pas exclu qu’une fois apprivoisé et bien compris, le neutrino puisse être exploité par l’Homme, comme le fut la radioactivité au 20ème siècle, dont il reste un acteur invisible mais fondamental.

08/03/12

Nouvelles traces de Higgs à 125 GeV au Tevatron!

Hier ont été annoncés les derniers résultats des détecteurs CDF et DZERO de l'accélerateur américain TEVATRON situé près de Chicago. 
En combinant les deux expériences, un signal de Higgs est observé aux environs de 125 GeV, sortant du bruit de fond avec 2.2 sigma... 

Le niveau de confiance est trop faible pour parler de découverte mais le fait majeur est que ce qui est observé se trouve au même endroit (en terme d'énergie, ou masse si vous préférez) que ce qui était observé au CERN à l'automne dernier! 

Coïncidence ? Prophétie autoréalisatrice ? Ou bien prémisses d'une belle découverte avant le fin de l'année ? 
Ce qui parait certain c'est que la découverte (si les 5 sigmas sont atteints) ce fera au CERN et pas au TEVATRON, qui va devoir fermer ses portes faute de financements... 


Le LHC au CERN doit lui redémarrer dans quelques jours (le 14 mars) pour plusieurs mois de collisions à 8 TeV (contre 7 TeV en 2011).


L'été risque d'être chaud pour les physiciens en Suisse et partout dans monde (et les bouteilles de Champagne sont au frigo, faut-il le rappeler ?, d'ailleurs, des nouveaux stocks ont été faits semblerait-il depuis l'annonce des résultats du TEVATRON).


Lire aussi : 
Le boson de Higgs à découvert ?
Qu'est-ce qu'un résultat siginifcatif pour le Higgs ?

26/02/12

Jupiter, Lune, Vénus

Un trio éclatant au dessus de Pertuis : Jupiter, Lune et Vénus, autant de lumière du soleil reflétée à différentes distances de nous, les trois astres les plus brillants du ciel d'hiver...


Canon EOS 1000 D 20 mm, F/5.8, 30 s



Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

24/02/12

Les Premiers Résultats de Planck (2/2) : Effet Sunyaev–Zeldovich et Amas Lointains

Mais Planck ne permet pas seulement d'étudier de près les nuages de poussière. Il se trouve que lorsque la lumière traverse du gaz chaud cette fois-ci, les photons peuvent être diffusés par les électrons du gaz, produisant un signal décelable : les grandes longueurs d'ondes sont shiftées vers des longueurs d'ondes plus courtes. Cet effet physique s'appelle l'effet Sunyaev–Zeldovich, du nom des deux physiciens Russes qui l'ont découvert.
Carte des amas de galaxies par l'effet S-Z.
Ainsi, lorsqu'on regarde le fond diffus cosmologique, ce dernier est affecté par la présence de gaz chaud via l'effet Sunyaev–Zeldovich et il va apparaître dans la cartographie à grande longueur d'onde comme des trous là où se trouvent les nuages de gaz chaud. Inversement, en produisant la cartographie pour les longueurs d'onde plus courtes, il apparaît au même endroit un pic de lumière.

Avec la spécificité multibandes de Planck, cet effet Sunyaev–Zeldovich peut être observé avec précision. Les sources les mieux à même de produire cet effet sont les amas de galaxies les plus massifs, qui contiennent d'énormes quantités de nuages de gaz les plus chauds que l'on connaisse.
Les équipes de Planck ont trouvé environ 200 amas candidats avec cette technique, dont une bonne vingtaine était auparavant inconnue.
La plupart de ces candidats ont par la suite été confirmés comme étant de véritables amas de galaxies.
Ces mesures permettent ainsi de mieux comprendre comment se forment les amas de galaxies, en connaissant mieux la distribution de température et la densité du gaz.
Ces nouveaux résultats indiquent également qu'il est possible de trouver des amas de galaxies grâce à l'effet Sunyaev–Zeldovich même pour des cartographies observant le ciel entier, contrairement à ce qui se faisait classiquement (par exemple avec l'Atacama Telescope) où seule une petite zone du ciel était scrutée.
La technique exploitant l'effet Sunyaev–Zeldovich permet d'observer des amas situés à des distances bien plus éloignées que ce qu'il est possible d'atteindre avec d'autres méthodes, notamment les émissions en rayons X. On peut d'ores et déjà imaginer pouvoir observer comment ont grossi les plus grandes structures aux époques les plus anciennes. Le but étant de mesurer les différentes composantes de l'Univers à cette époque, jusqu'aux fluctuations de densité initiales qui en grossissant sont potentiellement devenues des amas de galaxies.
Les premiers résultats de Planck démontrent qu'il fonctionne à merveille et fournit les premiers éléments de son très gros potentiel.
Le meilleur reste cependant à venir, puisque Planck est principalement destiné à cartographier le fond diffus cosmologique à 2.7 K (en intensité et polarisation) avec une précision encore jamais atteinte.
Ces mesures doivent fournir une fenêtre sur le très jeune Univers et donner des indications sur l’origine des premières graines ayant produit les grandes structures. 
Ces premiers résultats en infra-rouge montrent brillamment que la technique de la séparation des composantes est très efficace et permettra d'obtenir un signal très propre sur le fond cosmologique.

Les premiers résultats sur le fond cosmologique micro-onde sont attendus avec impatience pour début 2013.


Source :
Nature Vol 482, 475–477 (23 February 2012)

Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

Les Premiers Résultats de Planck (1/2) : Des Galaxies Poussiéreuses

Les astrophysiciens savent depuis assez longtemps que les étoiles naissent au sein d'environnements pleins de nuages de poussières, Les jeunes étoiles y sont difficilement accessible, voire pas du tout, aux télescopes optiques.
C'est ainsi qu'ils utilisent des longueurs d'ondes différentes pour les étudier, depuis les ondes radio jusqu'aux rayons X. Mais alors que c'est assez aisé concernant notre galaxie, ça devient plus difficile pour les galaxies lointaines, notamment les galaxies les plus lointaines, donc les plus jeunes. Pour ces galaxies, aucune longueur d'onde n'est vraiment utilisable, excepté une bande : l'infrarouge lointain aux frontières des micro-ondes.
Ces ondes électromagnétiques sont environ 1000 fois plus longues que celles de la lumière visible (domaine optique).
Les étoiles réchauffent les enveloppes de poussière qui les entourent jusqu'à environ 20 degrés Kelvin. Oh, ce n'est pas très chaud, on peut même dire que c'est très froid (-250°C)… mais suffisant pour émettre de la lumière micro-onde et infra rouge.
Cette signature de poussière chaude, qui est appelée le fond cosmologique infra rouge, vient d'être observée avec précision par une équipe d'astrophysiciens avec les données toutes fraîches de l'observatoire spatial Planck.
Ces données de Planck améliorent grandement de précédentes mesures du fond infra-rouge effectuées notamment par le satellite Herschel.
Le satellite Planck a été envoyé, en orbite autour de la Terre, mais à une position très particulière qu'on appelle le point de Lagrange L2, qui est un endroit situé sur l'axe Soleil-Terre où le satellite reste constamment à la même position vis-à-vis de la Terre et du Soleil, dans l'ombre que la Terre produit (il est donc derrière), de manière à minimiser l'impact thermique du rayonnement solaire sur ces instruments qui sont refroidis à très très basse température.

Cartographie par Planck de nuages moléculaires (CO) sur l'ensemble du ciel (ESA).
Planck peut détecter les micro-ondes et les infra-rouges dans plusieurs bandes de longueurs d'ondes différentes. Et comme l'expansion de l'Univers produit une extension de la longueur d'onde de la lumière, regarder dans différentes longueurs d'ondes signifie regarder à différentes époques de l'Univers (si la poussière détectée a la même température bien sûr).
Donc Planck permet d'observer les galaxies en train de former des étoiles (pleines de poussières) en fonction du temps cosmologique.
Les premières observations suggèrent ainsi la plupart des émissions dans les plus grandes longueurs d'onde proviennent de galaxies qui se sont formées à une époque où l'Univers avait moins de 2 milliards d'années.
Les images produites montrent des anisotropies à trois longueurs d'ondes différentes : 217 GHz, 353 GHz et 857 GHz) sur un champ de vue de 26°x26°, elles correspondent à des galaxies poussiéreuses entremêlées sur de grandes échelles.
Pour accomplir de telles mesures, les équipes de Planck ont crée un algorithme informatique sophistiqué appelé la séparation de composantes. C'était rendu nécessaire du fait de la présence de nombreuses sources parasites, qu'elles soient originaires de notre galaxie ou du fond diffus cosmologique à 2.7 K. Comme l'intensité de ces sources parasites varie différemment d'une bande spectrale à l'autre, en combinant les 9 canaux spectraux de Planck avec d'autres sources de données externe, il devient possible de séparer et ne garder que le signal infra-rouge intéressant.
Les émissions provenant de la voie lactée ne forment pas juste un signal parasite, elles peuvent également apporter quelques surprises fort intéressantes.
L'une d'elle concerne ce qu'on appelle "l'émission micro-onde anormale". C'est un phénomène que l'on connait depuis quelques années mais dont l'origine reste controversée... Bien qu'apparemment corrélée avec l'émission de petits grains de poussière de notre Galaxie, les modèles ne permettent pas de décrire l'évolution en fonction de la fréquence telle qu'observée. En revanche, un nouveau modèle impliquant des grain s en rotation rapide prédit des longueurs d'onde dépendant à la fois de la masse des grains de poussière et de leur vitesse de rotation, et ces prédictions théoriques collent de manière excellente avec les observations de Planck.

(à suivre…)

Source :
Nature Vol 482, 475–477 (23 February 2012)

Lire aussi : 
Les premiers Résultats de Planck (2/2) : Effet SZ et Amas Lointains

22/02/12

BREAKING NEWS : Neutrinos supraluminiques : une erreur de câble !!!

Ca y est, on a trouvé l'erreur !!! Les neutrinos ne sont pas supraluminiques !!!

D'après le site en ligne de la revue Science, il semblerait que les 60 ns d'avance observés soient dues à un mauvais contact de fibre optique entre un récepteur GPS et une carte électronique d'un ordinateur...

Après avoir resserré la connexion et mesuré la différence que ça donnait pour le temps de trajet du signal, les techniciens de OPERA auraient obtenu un écart de 60 ns, ce qui était mesuré pour les neutrinos... Comme ce temps de transfert de signal était soustrait de l'ensemble du temps de vol, ça peut expliquer très simplement l'aspect "supraluminique" des neutrinos, qui ne sont donc que des particules tout à fait normales...
Détecteur de OPERA au labo souterrain du Gran Sasso

Il paraît que cette hypothèse doit encore être confirmée...

source de la BREAKING NEWS :



11/02/12

Supra-luminique

~~~~~~~~~~~~~~~~~~~~~~
Du haut de ton immortalité,
Tu t’évanouis plus vite que l'éclair;
Fugace, tu plonges vers l'infinité
Des courbures planes et glaciaires.
 ~
Nos yeux ne suffiront pas
A te percevoir, et pourtant
Tu oses défier le maître Temps
De ta célérité d'apparat.
~~~~~~~~~~~~~~~~~~~~~~

10/02/12

Kepler-20, deux nouvelles exoTerres, so what ?

Nature en fait sa Une cette semaine. Les exoplanètes. Encore et toujours les exoplanètes… On a de cesse de s'émerveiller des découvertes faites chaque semaine, presque chaque jour, par des satellites comme ce Kepler très prolifique... Cette semaine on parle donc du système Kepler-20. Il a ceci de particulier qu'il contient cinq planètes, trois ayant la taille de Neptune, et notamment deux qui ont la taille de notre Terre à nous… La belle affaire !
On le sait maintenant, les exoplanètes sont en nombre quasi illimité, il y en a des milliards. Il va falloir intégrer cette donnée et peut-être cesser de s'extasier à chaque découverte, car ça risque d'être un petit peu lassant. Alors, oui, bien sûr, les techniques de détection s'affinant, on découvre des planètes de plus en plus petites… avant-hier des Jupiter géantes, hier encore des petites Jupiter et aujourd'hui des Terres.

Et demain ? Il est fort probable que la qualité des instruments et des méthodes utilisés (ainsi que des cerveaux qui les utilisent !) nous permettront dans peu de temps de descendre encore en dimension jusqu'à trouver des ceintures d'astéroïdes extrasolaires, puis des lunes extrasolaires, évidemment, puisqu'une planète est une planète. On ne peut pas imaginer que les 750 et quelques planètes extrasolaires qu'on a déjà cataloguées soient dépourvues de satellites, bien sûr… Et parmi ces dizaines de milliards de petits corps (et je reste modestement dans notre galaxie !), combien possèdent de l'eau liquide ? Des milliers ou des millions … Personne ne peut décemment ou modestement penser le contraire...
 
Le système Kepler-20 se trouve à 1000 années-lumière de nous, ce qui est assez éloigné. Si il nous prenait l'envie de communiquer avec d'éventuels habitants intelligents peuplant ces mondes, ce serait de toute façon chose vaine. Il se passerait en effet 2000 ans entre l'émission de la question et la réception de la réponse. Imaginez le niveau de la question qu'aurait posée Jules César et à laquelle nous aurions une réponse aujourd'hui. Sans intérêt aucun, outre le fait de savoir qu'ils savent communiquer.

La vraie extase à venir n'est même plus dans la découverte d'eau liquide ou dans la mise en évidence d'une vie aérobie ou anaérobie, non.., tout ça n'est qu'une affaire de mois ou d'années. La vraie question extatique est : qu'en fait-on ? Ou encore, « so what ? »

05/02/12

Symétrie Matière/Anti-Matière et masse négative, une clé pour l'élégance ?

Et si le retour à la symétrie matière-antimatière était une clé du puzzle incompris de l'Univers actuel ?

Quels sont ces problèmes ?
- L'Univers semble peuplé presque exclusivement de matière, alors que l'antimatière (particules de charges opposées) existe bel et bien; pourquoi cette asymétrie ? Est-elle naturelle ?
- Quelle est la nature de cette hypothétique Énergie Noire (qui devrait représenter 73% de l'Univers si son expansion est bien accélérée) ?
- Quelle est la nature du phénomène physique à l'origine de la phase d'inflation dans l'Univers jeune, concept introduit pour permettre de coller aux observations d'homogénéité du fond cosmologique ?
- Quelle est la nature de la Matière Noire non baryonique, représentant 23% du contenu de l'Univers et 85% de la matière ?

Ces quatre questions sont des éléments totalement incompris actuellement. 
Découverte de l'anti-électron (positron) en 1932.

Pour essayer de littéralement se débarasser de ces questions et retrouver une vision beaucoup plus élégante de l'Univers, les physiciens français Aurélien Benoit-Lévy et Gabriel Chardin, proposent de changer d'Univers!

Pour cela, ils font seulement deux hypothèses qui peuvent paraitre à la fois simples et élégantes : 

1) matière et antimatière sont symétriques : il en existe autant l'une que l'autre dans l'Univers
2) l'antimatière possède une masse gravitationnelle active négative : il y a répulsion entre matière et antimatière et aussi entre antimatière et antimatière, comme il y a attraction gravitationnelle entre matière et matière.

Le deuxième point est certainement le point le plus audacieux, mais il peut être fondé simplement par des concepts de symétrie. Et il faut savoir que c'est quelque chose qui n'a encore jamais été  testé expérimentalement (une expérience est actuellement en cours au CERN pour regarder ça, l'expérience AEGIS).

Quelles sont les conséquences de ces deux hypothèses ? Elles sont énormes car le modèle d'Univers s'en trouve complètement changé. 

Introduire autant de masse "positive" que de masse "négative" dans l'Univers au sens de la force de gravitation revient à créer (à grande échelle) un Univers vide de masse (les deux composantes s'annulent). Et ce type d'Univers à déjà été inventé il y a bien longtemps par un cosmologiste anglais du nom de Edward Arthur Milne en 1933, comme une alternative à vision de la Relativité Générale einsteinienne.

Il se trouve que cet univers de Milne (ou de Dirac-Milne comme l'appellent les auteurs) reste régit par une métrique de type Friedman-Lemaître-Robertson-Walker comme le modèle standard actuel, mais avec des paramètres différents.
Le fait essentiel de cette cosmologie est que le facteur d'échelle (que l'on note a(t)) est linéaire et cette linéarité reste identique tout au long de l'évolution de l'expansion. 

Car il s'agit toujours d'un univers en expansion, dont on peut calculer l'âge (le calcul donne 13.9 milliards au lieu de 13.8 milliard dans le modèle "standard"), mais cette expansion est constante : elle n'est ni accélérée, ni ralentie.
Pas d'expansion accélérée, vous avez bien lu. Ce qui implique tout de suite la non-nécessité de recourir à une hypothétique énergie noire.

Comment expliquer alors les observations de luminosité des supernovae Ia de 1998 qui ont conduit au concept d'expansion accélérée ? 
Et bien Benoit-Lévy et Chardin ont réanalysé les données des supernovae Ia avec leur modèle d'Univers et ils trouvent un accord pas trop mauvais, en tout cas bien plus proche du modèle "standard" avec ajout de constante cosmologique que de celui d'avant 1998 sans énergie noire (constante cosmologique)...

En d'autres termes, les observations des supernovae (moyennant quelques ajustements) pourraient très bien être compatibles avec un univers en expansion non accélérée de type Milne.

Une autre énorme implication de ce facteur d'échelle linéaire apparaissant dans l'univers de Dirac-Milne est qu'il n'y a plus de problème d'horizon : chaque point de l'espace a pu être en relation causale avec un autre point de l'espace dans les temps anciens, il n'y a donc plus aucun besoin de recourir à l'Inflation!. L'inflation, introduite au début des années 1980 permettait de résoudre de manière ad hoc l'apparente impossibilité que des directions opposées de l'espace aient pu être en contact causal dans le passé, ce qui est observé.

Et où serait cette antimatière ? Et bien tout simplement là où n'est pas la matière! Il faut se rappeler que lorsqu'une particule rencontre son antiparticule, ça se passe mal : elle s'annihile en produisant deux photons dont l'énergie est égale à la somme des masses (valeurs absolues ?) desdites particules.

Vous allez dire : il devrait donc exister des galaxies entières d'antimatière! Et bien non, puisque nous avons dit que l'antimatière repousse l'antimatière. Elle ne peut donc pas s'agglomérer comme le fait la matière : point de concentration d'anti-hydrogène, point d'anti-étoiles, point d'anti-galaxies, point d'anti-amas... Les anti-électrons, anti-protons, anti-neutrons sont voués à errer seuls dans les interstices matériels de l'Univers de Dirac-Milne, formant peut-être des halos diffus de (anti-)matière bien sombre...


Introducing the Dirac-Milne Universe
A. Benoît-Lévy, G. Chardin
Astronomy&Astrophysics Vol 537, 11 janvier 2012

version preprint en libre accès :
http://arxiv.org/pdf/1110.3054.pdf

 

04/02/12

Nada Surf : the Stars are indifferent to Astronomy

Un peu de promo pour ce groupe américain attachant que j'apprécie tout particulièrement, et qui vient de sortir son 7ème album depuis 1996, il s'intitule The Stars are indifferent to Astronomy, un programme de choix pour allier deux passions...

Ils sont en tournée en France et en Belgique du 11 au 16 février.



03/02/12

Formalhaut b, l’exoplanète qui n’existe pas ?

Il ne se passe pas une semaine sans qu'une nouvelle exoplanète ne soit découverte. Leur nombre approche maintenant 730. Mais il se peut que la liste puisse aussi diminuer.
En 2008, alors que leur nombre était encore beaucoup plus faible, avait eu lieu une belle découverte d'exoplanète, la dénommée Fomalhaut b. Une belle découverte car c'était la première fois qu'on en trouvait une directement en imagerie directe, par sa lumière visible (et non par des effets gravitationnels ou de transit), grâce au télescope spatial Hubble.
Cette découverte de Paul Kalas et al., de l'Université de Berkeley (Californie) avait été publiés dans la revue Science à grands renforts de publicité.

Mais voilà, aujourd'hui, de nombreux astronomes doutent de la réalité de cette exoplanète, qui risque bien maintenant de disparaître de la liste…
Situé à 25 années-lumière, Fomalhaut b possède un disque de poussière en rotation, il avait été observé attentivement dans les longueurs d'ondes visibles et Kalas et al. avaient distingué un point lumineux dont ils avaient suivi le mouvement pour en déduire qu'il était gravitationnellement lié à l'étoile Fomalhaut dans une orbite planétaire.
Credit : Science
La publication de ces résultats dans Science avaient contribué à donner un coup de fouet considérable à la détection directe de planètes extrasolaires et fut un événement scientifique remarquable de l'année 2008.

Oui, mais très tôt, un astronome de l'Université de Princeton, Markus Janson, s'étonna de ces résultats. Selon lui, il aurait dû exister également une forte émission infra-rouge en même temps que de la lumière visible, car une telle planète si brillante devrait être relativement chaude.
Une autre source d'étonnement de Janson était que la luminosité de cette exoplanète avait diminué de moitié entre 2004 et 2006.
Comme tout bon scientifique, Janson décida de faire de nouvelles observations de ce système stellaire pour confirmer ses doutes ou bien conforter la première observation. Il demanda du temps d'observation sur le satellite infrarouge Spitzer et malheureusement (ou heureusement ?) il ne trouva aucun signal infrarouge correspondant à cette « exoplanète ».

Janson montra ses résultats négatifs au « découvreur » initial en septembre dernier lors d'une conférence aux Etats-Unis consacrée aux exoplanètes, mais Kalas n'en démordit pas. Selon Kalas, cette exoplanète n'émet pas dans l'infrarouge parce qu'elle n'est tout simplement pas assez grosse, d'une masse inférieure à Jupiter… Et le fait qu'elle soit tout de même visible serait dû au fait qu'elle possède un gros anneau de poussière à la manière de notre Saturne…
Mais Janson ne fut pas du tout convaincu par les explications spéculatives de Kalas. Selon lui, les observations infrarouges de Spitzer, plusieurs fois plus sensibles que les observations infrarouges qu'avaient fait Kalas et al. auraient dû montrer un signal. Janson explique que pour être visible comme ce qui a été observé, l'anneau en question devrait être de très grande dimension (plusieurs fois le diamètre de la planète) et de plus orienté avec la bonne inclinaison pour réfléchir vers nous la lumière de l'étoile, combinaison très improbable.

Janson et al. viennent de publier leurs résultats complets dans the Astrophysical Journal. Janson n'y conteste pas que Kalas a vu quelque chose dans le système Formalhaut, mais il estime que c'est plus complexe qu'une planète. Il propose notamment que ce soit par exemple un  nuage de poussière résultant d'une collision récente d'astéroïdes. Le nuage se dispersant, il s'affaiblirait ce qui expliquerait la réduction de moitié de sa luminosité entre 2004 et 2006.

Kalas rejette quant à lui cette explication, arguant du fait que dans ce cas, il s'agirait d'une observation fortuite d'un événement rare et de courte durée, peu compatible avec ses observations.
Kalas estime que Janson et al. ont tort de rejeter la possibilité d'un grand anneau autour de la planète. Il prend en exemple la découverte récente d'un très grand anneau autour de Saturne, Phoebe, qui est de fait environ 5 fois plus grand que celui proposé autour de Formalhaut b… Et d'appuyer encore sur sa découverte en mentionnant que ça serait le premier anneau planétaire extrasolaire découvert, du coup…

Mais Janson et ses collègues ne sont pas les seuls à mettre en doute les interprétations de Kalas. Alice Quillen, une astronome à l'Université de Rochester à New York l'Etat qui avait prédit en 2005 qu'une planète devait se cacher dans le disque circumstellaire de Fomalhaut, soupçonne elle aussi fortement que ce que Kalas et ses collègues ont observé n'est pas une planète. «À mon avis, c'est une mauvaise interprétation de variations de signal dans des données bruitées, dit-elle. La planète réelle est encore à découvrir dans le système de Fomalhaut. »

Peut-être qu'une troisième campagne d'observation permettra de trancher définitivement le cas Formalhaut, même si cette controverse ne remet pas en cause la méthode de détection directe d'exoplanètes par imagerie, dont plusieurs ont pu être reconnues et validées depuis 2008.


Source :
Science  Vol. 335 no. 6068  (3 February 2012)