samedi 31 décembre 2011

Bonne année 2012 !

Que cette année 2012 soit pour vous une source d'émerveillements, de découvertes petites ou grandes, une année pleine de curiosité, les pieds sur terre et la tête en l'air, loin du fracas des hommes...

B O N N E   A N N E E

Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

vendredi 30 décembre 2011

Une nuit noire pour penser l'Univers

Imaginons un instant la situation suivante : nous sommes en orbite autour du Soleil, mais ce dernier possède une ou deux étoiles compagnons très proches, nous sommes en périphérie d'un amas globulaire. Nous avons des journées comme celles que nous connaissons. En revanche, nos nuits ne sont jamais noires, toujours éclairées par une lueur crépusculaire produite par ces étoiles proches très brillantes.

Résultat : nous ne pouvons pas voir les étoiles lointaines ni les objets du ciel profond, évidemment, nous ne connaissons que les deux ou trois étoiles très brillantes qui peuplent notre ciel...

Nous ne nous sommes donc jamais intéressés à ce qui se passe là-haut. Outre que nos mythologies sont très pauvres, nous ne connaissons absolument pas l'existence de planètes, ni de comètes, et encore moins des galaxies, ni des nébuleuses, évidemment. Ne connaissant pas les galaxies, nous ne savons rien sur la dynamique, donc l'évolution de l'Univers, nous pensons l'Univers comme quelque chose d'immuable, peuplé de quelques étoiles que nous voyons jour et nuit. Nous ne pouvons même pas imaginer ce que peut être une galaxie, n'en ayant jamais vu. Nous ne savons rien sur les trous noirs, peut-être pas grand chose sur les pulsars...

Le big bang n'existe pas pour nous, nous n'avons jamais échafaudé des modèles cosmologiques, nous n'avons jamais eu besoin d'imaginer une chose aussi singulière qu'une phase inflationnaire, nous n'avons jamais pensé l'Univers...

Cette situation est certainement très probable, des civilisations lointaines doivent être confrontées à un tel environnement.  Faut-il conclure que c'est notre environnement qui a façonné notre représentation de l'Univers tel qu'on le conçoit aujourd'hui ? Faut-il en conclure également que nous avons une chance inouïe de vivre autour d'une petite étoile dont la plus proche voisine est assez éloignée pour ne pas nous aveugler et nous cacher toutes ces splendeurs qui nous permettent de comprendre certaines parties du tout ?

La nuit noire a offert à nos ancêtres une ouverture inestimable vers le ciel, c'est bien à la noirceur du ciel que l'on doit notre intérêt pour cette multitude de petits points scintillants et qui a fini par engendrer la conceptualisation puis la modélisation mathématique de l'Univers que nous connaissons aujourd'hui...



Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

mercredi 28 décembre 2011

Un espace sphérique dodécaédrique de Poincaré ...


Jean-Pierre Luminet est un astrophysicien un peu hors normes, il a travaillé de longues années sur les trous noirs puis sur la topologie de l'Univers et notamment sur les géométries dites chiffonnées de l'Univers, il expose ici quel infini pourrait revêtir notre Univers, à voir absolument !



Luminet, partie 3 par ast2007





Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

dimanche 25 décembre 2011

Ca sent le sapin pour les neutrinos supraluminiques...

On revient un instant sur l'annonce phare de 2011, avec un article venant de paraître dans le numéro du 24 décembre de Physical Review Letters, qui indique l'existence d'une forte incompatibilité avec une vitesse des neutrinos supérieure à la vitesse de la lumière.
Ramanath Cowsik et al. se sont penchés sur la réaction qui produit les fameux neutrinos de OPERA au CERN, à savoir la désintégration des pions en muons et neutrinos.

Pour mémo, les neutrinos sont produits au CERN par des interactions de protons accélérés sur une cible de carbone, les protons interagissent avec les neutrons et protons des noyaux d'atomes de carbone et produisent alors des mésons pi, appelés aussi pions. Ces pions étant naturellement instables, ils se désintègrent au bout de leur durée de vie en d'autres particules : des muons et des neutrinos. Les muons sont ensuite stoppés et il ne reste plus que les neutrinos, qui peuvent alors traverser tranquillement la croute terrestre pour arriver quelques millisecondes plus tard dans le labo souterrain du Gran Sasso en Italie.


Cowsik et ses collaborateurs ont calculé si la désintégration des pions produits pouvait produire de tels neutrinos supraluminiques en prenant en considération les lois les plus fondamentales de la physique qui sont la conservation de l'énergie et de la quantité de mouvement.

Et ce qu'ils ont trouvé, c'est que pour que des neutrinos supraluminiques puissent être créés à partir de la désintégration de pions, il faudrait que d'une part la durée de vie des pions soit plus grande et d'autre part que le neutrino emporte une part plus faible de l'énergie dans le système muon-neutrino.

Ces conclusions disent qu'il paraît très difficile, dans le paradigme de la physique actuelle, de produire des neutrinos supraluminiques par la réaction qui est celle du CERN pour l'expérience OPERA...

Et les auteurs indiquent également qu'il existe une contrepartie expérimentale à leur démonstration théorique. En effet, la même production de neutrinos est étudiée par l'expérience IceCube qui détecte les neutrinos atmosphériques produits par des désintégrations de pions, issus de gerbes de rayonnement cosmique dans l'atmosphère.

Or, IceCube ne détecte aucun neutrino supraluminique, alors que les pions à l'origine des neutrinos détectés dans la glace de l'Antarctique ont une énergie plusieurs milliers de fois plus grande que celle des pions du CERN, ce qui devrait exacerber le phénomène supraluminique, si il existait.... Les pions énergétiques observés par IceCube se désintègrent exactement comme prévu par la physique pour donner des neutrinos ayant une vitesse très proche de la vitesse de la lumière (mais inférieure!).

Il s'agit donc d'une nouvelle démonstration assez solide qui vient après celle de Glashow et Cohen s'appuyant elle sur l'expérience ICARUS.

J'ai comme idée que les neutrinos supraluminiques commencent à sentir un peu le sapin...

source : 
Cowsik et al.  
Superluminal Neutrinos at OPERA Confront Pion Decay Kinematics
Phys. Rev. Lett. 107, 251801 (2011)

Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

mardi 20 décembre 2011

L'oscillométrie des neutrinos, nouvelle branche de la physique

Vous n'avez peut-être encore jamais entendu parler de l'oscillométrie. Mais vous risquez d'en entendre parler dans les mois et années qui viennent. L'oscillométrie est une nouvelle branche de la physique des particules qui est juste en train d'éclore...

Comme le nom l'indique, l'oscillométrie consiste à mesurer une oscillation. Une oscillation ? Oui, l'oscillation des particules qui oscillent. Mais quelles sont les particules qui oscillent ? Et bien.. Les neutrinos!

Les neutrinos existent sous trois saveurs différentes assez bien connues (encore que...) : le neutrino électronique, le neutrino muonique et le neutrino tauique, et peut être aussi une quatrième voire une cinquième saveur, ces deux dernières étant un peu spéciales car elles correspondraient à des neutrinos "stériles", c'est à dire qu'ils n'interagiraient avec rien (sauf la gravitation, quand même, et c'est crucial)...

Une découverte fondamentale des années 1990 a été l'existence d'une oscillation des neutrinos : un neutrino de l'une des trois saveurs (celles qu'on connait) peut se transformer en l'une des deux autres saveurs. Cette oscillation intervient dans le temps et l'espace au cours du trajet du neutrino.

Probabilité d'oscillation pour un neutrino électronique.
Si nous avons au départ un neutrino électronique, il se transformera en neutrino muonique puis redeviendra neutrino électronique, avec une certaine période spatiale. Le nombre de neutrinos électroniques variera donc en passant par des minima et des maxima dans l'espace.

C'est la mesure précise de cette période d'oscillation que l'on appelle désormais l'oscillométrie.

Et il se trouve que la période d'oscillation dépend des propriétés fondamentales des neutrinos, mais aussi de leur énergie cinétique, qui peut être très variable. Tout le problème de l'oscillométrie est de pouvoir mesurer avec précision ce qui se passe (les maxima et minima) sur plusieurs périodes. Et pour ça, pour travailler sur des distances raisonnables (quelques mètres à quelques dizaines de mètres), c'est à dire utiliser des détecteurs de cette taille, il faut absolument des neutrinos de faible énergie.

Il faut donc les fabriquer spécifiquement, et pas uniquement étudier ceux que nous produisent le soleil ou les réacteurs nucléaires par exemple.
La deuxième spécificité nécessaire pour une bonne oscillométrie de précision c'est de travailler avec des neutrinos qui ont une et une seule énergie cinétique (on parle alors de neutrinos monoénergétiques).

Comment faire ?

Et bien c'est possible et même relativement simple! Le salut de l'oscillométrie passe par la physique nucléaire et la radioactivité. Il existe plusieurs modes de radioactivité, certains sont bien connus comme la radioactivité alpha, béta ou gamma. Mais il existe un mode de décroissance radioactive un peu moins connu du grand public qu'on appelle la capture électronique. Elle consiste pour un noyau instable à absorber un électron de son cortège électronique; un proton du noyau devient alors un neutron et un neutrino électronique - monoénergétique - est émis simultanément...

D'autre part, les noyaux radioactifs de ce type ont le plus souvent le bon goût de produire des neutrinos dont l'énergie est de quelques centaines de keV "seulement", ce qui est bien en adéquation avec une période d'oscillation de quelques mètres...

Projet de détecteur LENA (Low Energy Neutrino Astronomy).
L'élément radioactif de choix pour l'oscillométrie s'appelle le Chrome-51, qui est un isotope du Chrome ayant une période radioactive de 28 jours et qui produit des neutrinos de 757 keV. Le chrome-51 ne se trouve malheureusement pas au coin de la rue, mais en revanche, nous avons suffisamment de réacteurs nucléaires qui peuvent être utilisés pour fabriquer ce type de sources radioactives, il suffit de plonger du Chrome-50 dans le flux neutronique du réacteur pour en ressortir du Chrome-51 par des réactions de capture neutronique.

Il s'agit donc d'une histoire subtile de captures... capture neutronique pour produire l’élément radioactif qui va ensuite faire des captures électroniques et produire ces neutrinos électroniques monoénergétiques à mesurer par oscillométrie.

Et le détecteur me direz-vous ? Comment mesure-t-on le nombre de neutrinos qui se baladent ? Le principe envisagé (pour le moment) est de détecter le nombre de neutrinos électroniques sur plusieurs mètres ou dizaines de mètres par les interactions de diffusion qu'ils produisent sur les électrons de la matière du détecteur.
Tels des boules de billards, les neutrinos produisent des chocs élastiques avec les électrons du milieu et ces derniers subissent alors un léger recul. Ce sont ces reculs d'électrons qui sont détectés via l'ionisation ou la scintillation qu'ils produisent dans le milieu détecteur, et ce tout le long de la trajectoire des neutrinos qui oscillent d'une saveur à l'autre. Et comme seuls les neutrinos électroniques jouent au billard avec les électrons, on peut mesurer assez facilement les creux et les bosses de la population des neutrinos électroniques, une belle mesure oscillométrique...

Ces détecteurs sont soit gazeux soit liquides, imaginés pour le moment soit sous forme d'une sphère de quelques mètres de diamètre (projet NOSTOS notamment), ou soit sous forme d'un cylindre de plusieurs dizaines de mètres de longueur (on peut citer par exemple le projet allemand LENA avec son cylindre de 100 m de longueur...). Il peuvent être des détecteurs polyvalents dont l'objectif principal est de détecter des neutrinos de diverses sources : astrophysiques, solaire, faisceaux venant du Cern, etc... mais aussi de pouvoir accueillir une source radioactive de neutrinos monoénergétiques bien spécifique comme celle mentionnée ci-dessus.

Là où l'oscillométrie devient extrêmement importante, c'est dans son pouvoir (sur le papier pour l'instant) de mettre en évidence la ou les deux autres saveurs potentiellement stériles de neutrinos. Si ces neutrinos stériles existent, l'oscillométrie sur des neutrinos de faible énergie comme ceux du Chrome-51 pourrait en révéler l'existence expérimentalement (non pas en les détectant directement mais en mesurant une oscillation anormale des neutrinos "classiques", car évidemment, ils oscilleraient entre eux).

Et ces neutrinos stériles, étant plus massifs que les trois classiques, peuvent être une solution très intéressante pour expliquer une partie (peut-être grande) de cette matière noire qui peuple majoritairement l'Univers et que nous n'arrivons toujours pas à éclaircir...




Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

lundi 19 décembre 2011

Le GRB de Noël n'a pas dit son dernier mot

GRB, trois lettres entourées de mystère. Gamma Ray Burst, que l'on doit traduire chez Molière par Bouffée de Rayons Gamma. Ce sont de brusques émissions de rayonnement qui peuvent être très très énergétiques, et qui nous arrivent d'un peu partout sur notre petite planète, à raison de 2 par jour en moyenne.
Ces rayons cosmiques de haute énergie sont connus depuis quelques décénnies, mais ce n'est que depuis 1997 que l'on a pu déterminer à peu près leur origine, puisqu'on a pu observer une lente décroissance de lumière associée à la courte émission gamma. Ils nous viennent de galaxies distantes.
Même si chaque bouffée de rayons gamma (GRB) est unique en soi, on arrive tout de même à les diviser en deux grandes familles : ceux qui sont très courts, et ceux qui durent un peu plus longtemps. Oh, ça ne va jamais très loin, au maximum quelques petites minutes...

Le 25 décembre 2010, il y a presque un an, un GRB exceptionnel a été détecté par le satellite Swift, dont c'est la spécialité. Ce GRB, devenu depuis célèbre sous le patronyme de Christmas GRB, le GRB de Noël, a duré pendant 28 minutes ! Un cas absolument hors norme.

Magnétar (vue d'artiste), NASA
De quoi laisser fort perplexe plus d'un astrophysicien. Généralement, les GRB "longs" sont attribués à un phénomène d'explosion d'hypernova (une supernova très massive) qui, en s'effondrant en trou noir, produit deux jets de matière de très grande vitesse qui serait à l'origine du rayonnement gamma observé ici bas, pourvu que nous nous trouvions exactement dans l'axe du jet... Le signal de décroissance qui suit peut durer plusieurs mois et serait dû à l'impact des jets sur le milieu interstellaire.

Les GRB "courts", eux, ne durent en général que 2 secondes au plus, et auraient pour origine la fusion de deux étoiles à neutrons formant un système binaire s'effondrant en un trou noir, qui produit des jets de matière sources de rayons gamma.

Dans le cas de notre GRB de Noël, de son vrai nom GRB 101225A, non seulement son émission gamma a duré beaucoup trop longtemps, mais il a aussi montré une décroissance bien plus rapide que l'habitude.
Ce comportement est tout à fait incompatible avec les modèles existants. Est-ce réellement un GRB, ou bien est-ce un autre phénomène qui y ressemble sans en être un ?
Beaucoup d'équipes de recherche se sont emparées de ces données pour proposer des modèles permettant d'expliquer les observations.
La fameuse revue Nature fait dans son édition d'aujourd'hui un bel exercice de "science en train de se faire". Elle propose à la suite l'un de l'autre deux articles expliquant l'origine du GRB de Noël, mais donnant des visions complètement différentes de son origine. Les données initiales sont les mêmes, mais les conclusions, issues de quelques hypothèses introduites, aboutissent à des résultats aux antipodes.

A partir de l'évolution spectrométrique de la lumière de décroissance, Thöne et al. partent sur la piste d'une supernova; En comparant avec d'autres GRB issus de supernovae, ils en déduisent la distance de cet événement (1.6 GPc), et donc l'énergie libérée. De là, ils infèrent qu'il s'agirait d'un couple étoile à neutron - étoile supergéante à Hélium, cette dernière transférant une grosse partie de sa masse à son compagnon, jusqu'à former une grosse enveloppe gazeuse autour du système, qui finit par s'effondrer en trou noir (fin classique si ce n'est tragique comme à chaque fois), ledit trou noir produisant des jets de matière à travers l'enveloppe gazeuse devenue assez vaste pour permettre une émission gamma dans la durée...

C'est un beau résultat. Mais la science n'est faite que de modèles.

Car l'autre équipe, Campana et al., partent évidemment des mêmes données observationnelles, mais , eux, utilisent un ancien modèle des années 1970 qui propose l'interaction d'un petit (?) corps solide - astéroide ou comète - qui viendrait se désintégrer en une multitude de morceaux en passant à proximité immédiate (quelques milliers de kilomètres) de l'étoile à neutrons (on remarquera que le seul point commun de ces deux analyses est l'étoile à neutrons), produisant par la suite après avoir formé un disque, par leur interaction avec la surface, de multiples petits pics d'émission gamma... Ils en dérivent quelle devrait être la masse de ce petit corps solide si ce phénomène a lieu dans notre Galaxie, et trouvent 5 10^20 grammes. Cette masse est relativement importante pour un objet de type "système solaire".

Pour départager ces deux approches, on a besoin d'une donnée manquante : la distance réelle du phénomène originel.
Les deux modèles ont chacun leurs faiblesses. Les phénomènes avancés ont des probabilités qui paraissent relativement faibles. Tout comme Enrico Costa, le commentateur de Nature, il est tentant d'en appeler aux statistiques pour faire pencher la balance, mais comme il le dit si bien, ce type de calcul ferait intervenir trop de conjectures. Et au final, on ne peut rien dire d'autre que cette phrase définitive : le GRB de Noël est un phénomène rare qui ressemble à un GRB mais n'en est peut-être pas un...


Sources : 
Costa, E Nature 480, 47–48 (2011).
Campana, S. et al. Nature 480, 69–71 (2011).
Thöne, C. C. et al. Nature 480, 72–74 (2011).


Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

dimanche 18 décembre 2011

En orbite autour d'un trou noir

Que verrait-on si nous étions en orbite autour d'un trou noir ? Cette simulation réaliste (et commentée) nous fournit une très belle réponse. Le trou noir, par son champ gravitationnel, déforme complètement le trajet de la lumière des étoiles situées derrière lui tel un miroir déformant (ou plutôt une lentille), énigmatique et beau en même temps :


(source Ciel &Espace)



Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

samedi 17 décembre 2011

Les maladies incurables de l'astram

Je ne résiste pas un seul instant pour rapporter ici une liste amusante qui a été établie par une bande de doux dingues astrams de fort bonne compagnie que l'on retrouve notamment sur les forums de webastro, ayant moi-même participé à son élaboration...
Il s'agit de la liste des graves maladies dont nous autres pauvres astronomes amateurs (astrams) sommes généralement atteints à des degrés plus ou moins avancés :

Famille des Instrumites:
Jumellite: La moins dangereuse des maladies de la famille des Instrumites dans sa forme simple mais des complications peuvent survenir (Jumellite Stabilitis aïgue).
Petiteluluïte (ou Grandchampite): Maladie semblable à la jumellite à impact soit modéré (Achroïte), soit fort (Apoïte) sur le porte-feuille.
Mégaloluluïte: Virus très dangereux car mortel pour le porte-feuille. À soigner dès les premiers signes d'infection!
Diamétrite: Évolution de la Dobsonite qui consiste en l'achat irrémédiable d'instruments de diamètres à chaque fois supérieurs.
Longueurite ou Focalite: Semblable à la diamétrite mais consistant en l'achat de lunettes (ou parfois de télescopes) de longueur focale de plus-en-plus élevée.
Binodobite: Evolution fatale de la Diamétrite.
Takahashite : dérivée sévère d'une apoïte japonite .

Maladies survenant généralement pendant la période de convalenscence après une maladie de la famille des Instrumites:
Accessoirite: Maladie peu génante à cours terme mais pouvant s'avérer fatale à long terme pour le porte-feuille.
Occulite: Maladie pouvant se manifester de différentes manières, resurvenant souvent quelques mois après avoir été soignée une première fois.
Bacillus Nagleri Viridis: Évolution (presque) irrémédiable de l'occulite, apparaissant parfois sur une forme moins grave: la Panopticose.
Panopticose: Forme bénigne du Bacillus Nagleri Viridis
Pentaxite: Forme voisine du*Bacillus Nagleri Viridis.
Collimatite pinailleuse : Syndrome se manifestant dans l'idée souvent vaine d'exploiter au mieux ses oculaires.

Un "binodobson" italien 2x 600 mm (http://acrossoneuniverse.blogspot.com)

Formes apparaissant (presque) uniquement chez les personnes atteintes de l'Astrophotographite:
CCDite: Évolution de la Webcamite et de l'APNite.
Microfocuserite: Survient généralement après ou en même temps que la Crayfordite et curieusement destinée à la ralentir.
Dallkirkhamite :  plus connue sous le nom plus vulgaire de mewlonite, survient en parallèle d'une Takahashite.

Autres maladies:
Coupolite: Pousse la personne infectée à couvrir le fruit de sa Petiteluluïte, de sa diamétrite...
Colonnose + cabanite: Forme bénigne de la coupolite.

Maladies opportunistes : 
Forumose aigüe : Maladie neurodégénérative accompagnée de son syndrome classique l'astroquizzite



Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

vendredi 16 décembre 2011

Et la naine blanche devint Supernova...

 Les supernovae de type Ia sont des explosions d'étoiles qui ont la particularité de ne pas contenir d'hydrogène, l'élément chimique le plus abondant dans l'Univers. La grande majorité des astrophysiciens s'accorde à expliquer leur origine par des naines blanches dans des systèmes à deux étoiles (systèmes binaires).

Mais le type de l'étoile compagnon de la naine blanche reste une question ouverte. À ce jour, aucun progéniteur d'une supernova de type Ia n'a encore pu être directement observé avant son explosion. La récente supernova SN 2011fe découverte cette année dans la galaxie M101 qui est à une distance de "seulement" 6,4 millions de parsecs (20,9 millions d'années lumière) de la Terre, est la plus proche et l'une des plus brillantes que l'on a pu observer dans les derniers 25 ans.

Du coup, elle a offert une occasion unique pour la recherche dans les données d'archives sur la présence d'un système binaire progéniteur à l'emplacement de cette supernova. Deux articles sont consacrés à
cette recherche dans le numéro de Nature de cette semaine (Nugent et al. et Li et alNature 480, 344–347 et 348-350 (15 December 2011)).
Il faut savoir qu'une supernova de type Ia est si lumineuse qu'elle peut complètement éblouir une galaxie comme la nôtre pourtant remplie de 200 milliards d'étoiles, et ce durant plusieurs semaines, avant de s'éteindre inexorablement en quelques mois...
M101 avec SN 2011fe

Les naines blanches sont l'état final de l'évolution d'une étoile comme notre Soleil (il lui reste environ 5 milliards d'années avant ce stade, rassurez-vous).

Ces étoiles sont extrêment petites (d'où leur nom de naines) : de taille de la Terre et sont constituées essentiellement de carbone et d'oxygène, ayant fusionné (consommé) tout leur hydrogène et tout leur hélium.
En fait, pour être plus exact, la pression dans le coeur y est telle que le carbone s'y trouve probablement sous forme de diamant... Pour imaginer la densité de ces objets, on peut considérer qu'une cuillère à soupe de naine blanche pèse 10 tonnes...

Dans des circonstances normales, les naines blanches ne peuvent pas exploser. Elles vont se reforoidir lentement en libérant leur chaleur interne sur des milliards d'années. Cependant un  résultat radicalement différent peut se produire si jamais la naine blanche "prend du poids" en volant de la matière à une étoile compagnon proche.

C'est alors que la naine blanche se met à se réchauffer, en grossissant d'avantage. Mais il existe pour ce type d'étoile une limite à ne pas dépasser... On appelle cette masse la masse critique, et elle vaut 1.4 fois la masse du soleil exactement. Lorsque cette masse critique est atteinte, de nouvelles réactions nucléaires commencent à apparaître, favorisées par l'augmentation de la température, et ces réactions s'amplifient  à une vitesse exponentielle. Il ne suffit alors que d'une seule seconde pour que toute l'étoile explose littéralement en transformant brutalement son oxygène et son carbone, en nickel, en cobalt puis en fer. Une telle explosion libère autant d'énergie que 1028 mégatonnes de TNT, difficilement imaginable.

Selon les modèles théoriques, il existe trois types possibles pour l'étoile compagnon d'une naine blanche :
  1. une géante rouge, qui est environ 100 fois plus lumineuse que le Soleil;
  2. une étoile sous-géante ou une étoile de la séquence principale, qui sont quelques fois plus lumineuses que le Soleil,
  3. une autre naine blanche, qui est 10.000 fois moins lumineuse que le Soleil.
Vues d'artiste des trois hypothèses (ESO, NASA)
Comme ces étoiles-compagnon possibles couvrent un éventail de luminosité très large, l'examen du lieu de l'explosion sur les images d'archives de supernovae de type Ia devrait, en principe, permettre aux chercheurs de distinguer entre ces différentes possibilités et pouvoir déterminer la nature exacte de l'ancêtre.

Dans leur étude, Li et al. ont examiné des images antérieures à l'explosion de SN 2011fe, obtenues par le télescope spatial Hubble et n'ont trouvé aucune preuve d'un objet vu avant l'explosion.

Si une géante rouge avait été l'étoile compagnon, elle aurait dû être détectée. Cette observation a permis aux auteurs d'exclure un ancêtre de type géante rouge - du moins dans ce cas. Malheureusement, la finesse des images n'a pas été suffisante pour leur permettre d'exclure une sous-géante, une étoile de la séquence principale, ou une naine blanche compagnon.
Néanmoins, ce résultat représente une avancée importante dans la compréhension des étoiles progénitrices des supernovae de type Ia.

La supernova 2011fe a été découverte le 24 août 2011 avec le télescope de 1,2 mètre Samuel Oschin à l'observatoire de Palomar, en Californie (collaboration FTC).
Les membres de l'équipe du FTC ont repéré cette supernova seulement un peu plus de 11 heures après l'explosion - la détection la plus précoce jamais obtenue pour une supernova de type Ia. Leur réaction rapide à la découverte leur a permis d'analyser la lumière de l'objet en utilisant un spectrographe monté sur le télescope robotisé de Liverpool (îles Canaries) à peine 16 heures après la détection, une vraie prouesse.
Le spectre de SN 2011fe fut ainsi révélé seulement environ 28 heures après l'explosion, comme le relatent Nugent et al. dans Nature révélant le spectacle insaisissable des couches ultrapériphériques de l'étoile qui explose avant qu'elles ne deviennent invisibles à cause de la dilution causée par leur expansion très rapide (à 7% de la vitesse de la lumière, excusez du peu!).
L'analyse du spectre révèle la lumière émergeant de nuages d'oxygène et de carbone de la surface de la supernova. Ce résultat confirme la conviction  théorique que l'étoile qui explose est bien une naine blanche carbone-oxygène. A partir de ces données, on parvient également à déterminer qu'une petite quantité de matériau ultrapériphérique de la naine blanche a réussi à s'échapper de la combustion phénoménale provenant du centre.

Bien que des traces de carbone avaient été déjà observées dans d'autres supernovae de type Ia, la détection de l'oxygène est ici sans précédent. En outre, l'étude de la luminosité croissante dans la première phase de la supernova indique que l'étoile secondaire est très certainement une étoile "normale" (de la séquence principale).

Les supernovae de type Ia sont non seulement des objets astrophysiques importants en tant que tels, mais ils fournissent aussi le moyen le plus précis de mesurer les distances des galaxies éloignées au sein desquelles elles se trouvent.

Le calibrage de leurs luminosités au début des années 1990 à travers le projet Calán / Tololo a permis à deux groupes d'astronomes, dirigés par Brian Schmidt et Saul Perlmutter, de découvrir en 1998-99 que, contrairement aux attentes, l'Univers est l'objet d'une expansion accélérée.

Cette découverte étonnante a été reconnue par le prix Nobel de physique en 2011. Mais il s'avère quelque peu embarrassant de ne pas connaître la nature exacte de ces objets qui prennent maintenant une place si importante en cosmologie, non ?

Bien que les études de Nugent et al. et Li et al. sur SN 2011fe ne fournissent pas encore de réponse définitive à cette question, elles permettent de se rassurer en confortant certaines idées sur la nature des supernovae de type Ia .

Bien sûr, pour répondre de façon concluante, il nous faut une autre supernova Ia proche, et si possible plus proche que M101... Et pourquoi pas dans notre propre galaxie, ça, ça serait idoine! Le problème, c'est que ces événements violents sont aussi des événement rares. On estime qu'il s'en produit un tous les 200 ans dans une galaxie typique comme la nôtre. Et comme il n'y a qu'une poignée de galaxies plus proches que M101, cela signifie qu'il faudrait statistiquement attendre une trentaine d'années pour voir une autre supernova comme cette SN 2011fe !...

Soyons patients et laissons la chance nous sourire.


Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

mardi 13 décembre 2011

Le boson de Higgs à découvert ?

Le séminaire du CERN tant attendu vient de se clore à Genève. Les physiciens du CERN ont-ils enfin levé l'un des derniers coins du voile posé sur le modèle standard de la physique des particules ? Voilà en résumé ce qui a été annoncé par les expériences ATLAS et CMS au sujet de notre beau boson de Higgs :

Deux ans de prise de données ont permis d'exclure une grande partie des possibilités de masse pour le Higgs. Le dernier semestre 2011 ne laissait ouverte qu'une fenêtre située entre 114 GeV et 141 GeV.


Cette plage d'énergie a pu être entièrement étudiée et les résultats indiquent ceci :

Pour CMS, un excès d'événements apparaît entre 115 GeV et 127 GeV dans tous les canaux de désintégration étudiés avec une probabilité un peu plus forte vers 124 GeV ou en dessous.

Pour ATLAS, un excès d'événements apparaît entre 116 et 130 GeV également dans les différents canaux, avec un singulier excédent vers 125 GeV.
Je cite :

Fabiola Gianotti, porte-parole de la collaboration ATLAS :
« Nous avons circonscrit la gamme de masse la plus probable pour le boson de Higgs dans un créneau de 116-130 GeV, et, ces dernières semaines, nous avons commencé à observer un singulier excédent d'événements autour de 125 GeV. Cet excédent pourrait s'expliquer par une fluctuation, mais il pourrait aussi s'agir de quelque chose de plus intéressant. Nous ne pouvons tirer aucune conclusion pour l'instant. Nous avons besoin de plus d'études et de plus de données. Compte tenu de l'excellente performance du LHC cette année, nous n'aurons certainement pas besoin d'attendre longtemps pour obtenir suffisamment de données et nous pouvons espérer résoudre l'énigme en 2012. »

Guido Tonelli, porte-parole de la collaboration CMS : 
« Nous ne pouvons pas exclure la présence du Higgs du Modèle standard entre 115 et 127 GeV, en raison d'un modeste excédent d'événements dans cette région de masse qui s'est manifesté, de façon assez cohérente, dans cinq voies indépendantes. Cet excédent est compatible avec la présence d'un Higgs du Modèle standard dans le voisinage de 124 GeV ou au-dessous, mais la signifiance statistique n'est pas suffisante pour permettre de conclure. À ce stade, ce que nous voyons correspond soit à une fluctuation du bruit de fond, soit à la présence du boson. Des analyses plus fines et les données supplémentaires que nous fournira cette magnifique machine en 2012 nous donneront assurément la réponse. »

Le fait que les deux expériences fournissent un signal situé environ à la même énergie est très encourageant pour la mise en évidence du boson de Higgs à cette énergie. Cependant, des données supplémentaires sont nécessaires pour affiner le niveau de confiance que l'on peut accorder à cet excès de signal qui pourrait être un Higgs avec une masse de 125 GeV, et donc pour pouvoir en annoncer officiellement la découverte.
candidat Higgs dans CMS (canal gamma-gamma)

Un élément très intéressant est la relative faiblesse de la masse observée qui serait celle de ce boson de Higgs. Elle pourrait avoir des implications importantes en favorisant l'existence d'une physique non-standard (supersymétrie), dont une signature pourrait être de nouvelles particules lourdes, qui seraient potentiellement accessibles au LHC à plus haute énergie. La supersymétrie est également à la base d'une solution très investiguée actuellement pour expliquer la matière noire de l'Univers.

D'après ces résultats, le boson de Higgs semble donc se découvrir légèrement, mais sans se montrer encore pleinement dans la lumière des faisceaux du CERN; Il ne peut donc pas encore être reconnu comme tel, par manque de signifiance (quantité de données trop faibles).

En une phrase, l'annonce d'aujourd'hui permet de sortir les coupes de Champagne et les petits fours du congélateur, et le rendez-vous est prévu en 2012 pour sabler les bouteilles, ou bien pour tout remballer et sombrer dans des réflexions existentielles !..

Lire aussi cette analyse des résultats annoncés :  http://sortirdediaspar.blogspot.com/2011/12/crouching-physicists-hidden-higgs.html


samedi 10 décembre 2011

Qu'est-ce qu'un résultat significatif pour le Higgs ?

Suite à ce que je disais ici, il me paraît important d'apporter quelques précisions pour bien comprendre ce qui sera annoncé au CERN mardi prochain le 13 décembre.

Je vais expliquer (ou tenter, du moins) ce qu'est un résultat significatif en physique des particules, c'est à dire une découverte. On peut déjà affirmer sans crainte qu'aucun résultat significatif ne sera annoncé le 13 décembre, hélas. Mais ça ne veut pas pour autant dire que le Higgs n'est pas très proche d'être officiellement découvert.

Voilà pourquoi :

La mise en évidence du boson de Higgs repose sur la production au LHC de milliards de collisions de protons. Chaque collision produit une quantité d'énergie très importante qui est suivie par la création de très nombreuses particules secondaires, qui vont ensuite se désintégrer, produisant d'autres particules, intéragir dans les divers composants des structures ou des détecteurs rencontrés ou pas interagir du tout et disparaître au loin.

A partir de la détection des tous ces événements de particules secondaires, les physiciens les analysent pour reconstruire ce qui pourrait être les bosons de Higgs à leur origine et surtout quelle serait leur masse.

Ils peuvent ainsi tracer sur un histogramme le nombre d’événements en fonction de la masse reconstruite.

Ça serait simple si c'était binaire (signal de Higgs ou pas signal de Higgs). mais comme vous l'avez compris, c'est bien plus complexe. La quantité de particules détectées est phénoménale, et déterminer qu'un photon gamma détecté en particulier est bien celui qui est issu d'un boson de Higgs et n'est pas issu d'un autre phénomène d'une interaction parasite, c'est chercher une aiguille dans une énorme botte de foin, voire une grange.

Les physiciens doivent pouvoir séparer ce qu'on appelle le Signal et ce qu'on appelle le Bruit (le signal parasite, pour faire simple). Lorsque le bruit est du même ordre ou presque que le Signal, il faut alors utiliser des méthodes statistiques pour montrer qu'un signal "sort" du bruit.


Alors comment font-ils, au final, ces physiciens des particules ? Et bien ils mesurent un signal, un bruit et affectent au signal ce qu'on appelle un intervalle de confiance. L'intervalle de confiance, c'est la plage sur laquelle on peut être sûr avec une certaine probabilité que le résultat annoncé se trouve dedans.

La largeur de l'intervalle de confiance dépend du niveau de confiance que l'on souhaite imposer pour le résultat (la probabilité de vraisemblance du résultat), et surtout de l'écart type associé à la distribution statistique du signal mesuré.

On cherche bien évidemment à obtenir l'intervalle de confiance le plus étroit possible, avec le niveau de confiance, lui, le plus élevé possible.

Je le dis tout de suite, un résultat significatif (une découverte) en physique des particules n'est affirmé que si un niveau de confiance de plus de 99.9999% est obtenu !

Un tel niveau de confiance correspond à un intervalle de confiance défini à plus ou moins 5 sigmas.

Un intervalle dit "à 1 sigma" correspond à un niveau de confiance de 68% : très mauvais.
Un intervalle à 2 sigmas correspond à un niveau de confiance de 95% : on peut se tromper dans 5% des cas; intolérable.
Un intervalle à 3 sigmas correspond lui à un niveau de confiance de 99.7%, ça reste insuffisant pour annoncer une telle découverte...

Tout l'enjeu des annonces faites au CERN la semaine prochaine résidera dans la longueur de l'intervalle de confiance qui sera annoncé.
Un résultat qui est annoncé avec un intervalle de confiance entre 2 et 3 sigmas n'est pas très intéressant, on en a déjà vu qui se sont révélés faux, mais si il est supérieur à 3 sigmas, on peut dire que ça commence à sentir bon, même si il faut rester prudent et que la découverte ne peut pas rigoureusement être proclamée.

La seule façon de réduire la largeur de l'intervalle de confiance (obtenir une meilleure précision sur le résultat) en augmentant le niveau de confiance, c'est de réduire l'écart type sigma. Et que faut-il faire pour réduire cet écart-type ? C'est très simple : Il faut augmenter la population de l'échantillon : faire plus de collisions de protons, détecter plus de particules!

Les expériences CMS et ATLAS n'ont pas encore suffisamment d'événements enregistrés, il faudra probablement attendre 2012 pour atteindre des niveaux de confiance à 5 sigmas. Et c'est seulement à ce moment-là qu'une vraie découverte pourra être annoncée. La patience s'impose.


Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

jeudi 8 décembre 2011

Découverte des deux plus gros trous noirs de l'Univers

Décidément, l'année 2011 aura été une année riche en découvertes jusqu'au bout. Dans le numéro de cette semaine de Nature, McConnell et al. présentent la détection des deux trous noirs les plus massifs jamais trouvés : plus de 10 milliards de masses solaires chacun! Ils affirment que leur découverte fournit une pièce essentielle à notre compréhension de la formation des galaxies et des trous noirs.

Les trous noirs géants, qui peuvent avoir des masses de quelques milliards de fois celle du Soleil, ont fasciné depuis longtemps les scientifiques, les écrivains de science-fiction et le public en général, ils ont été proposés théoriquement il y a une quarantaine d'années, mais ce ne sont pas que des curiosités théoriques puisque leur existence a été démontrée il y a maintenant 15 ans, et les astrophysiciens ont réalisé assez vite que ces trous noirs peuvent avoir des effets profonds sur la façon dont les galaxies se forment. Cette prise de conscience a suscité une vague d'études visant à comprendre l'évolution conjointe des galaxies et des trous noirs. L'existence de trous noirs monstrueux avait été initialement invoquée pour expliquer l'intense énergie libérée par les galaxies actives connues sous le doux nom de quasars (voir aussi ici).

Ces galaxies sont particulièrement nombreuses à des distances très grandes de nous, correspondant à une époque où l'Univers avait moins de la moitié de son âge actuel. Leur luminosité extraordinaire est estimée être dûe à du gaz accéléré à une vitesse extrême avant d'être avalé par un trou noir géant situé dans le noyau de la galaxie.
S'il n'y a plus de quasar à proximité de nous, c'est parce qu'il y a aujourd'hui dans l'Univers proche beaucoup moins de gaz qu'il n'y en avait au début (parce que la plupart de celui-ci a été utilisé pour fabriquer des étoiles). Cependant, si les trous noirs supermassifs sont responsables de la production d'énergie des quasars dans les temps anciens (une dizaine de milliards d'années), ils devraient encore subsister (quelque peu en sommeil) dans le centre des galaxies les plus massives à proximité de nous.

Abell 1367
Les recherches systématiques de trous noirs supermassifs ont montré qu'on en trouvait au centre de toutes les galaxies massives. Les galaxies idéales pour accueillir ces plus grands trous noirs sont des galaxies elliptiques massives se trouvant au centre des amas de galaxies.
Comme des araignées géantes au centre d'une toile, ces galaxies se trouvent au fond du potentiel gravitationnel d'un amas et peuvent facilement nourrir leur trou noir en accrétant le gaz des étoiles et des galaxies voisines.
Toutefois, les gros amas de galaxies les plus proches de la Terre se trouvent à environ 100 mégaparsecs, et cette distance rend la détermination de la masse de leurs trous noirs -putatifs- un véritable défi. McConnell et al. ont relevé ce défi en pointant leurs télescopes (Hubble, ainsi que Gemini North et Keck 2 à Hawaii) vers les galaxies elliptiques massives centrales de deux amas (NGC 3842 et NGC 4889, respectivement les galaxies les plus brillantes des amas Abell 1367 et Abell 1656) pour enregistrer à la fois les distributions photométriques et spectrométriques d'étoiles au centre des ces galaxies.

Et dans les noyaux de ces deux galaxies, ils ont ainsi calculé la masse de deux trous noirs centraux, chacun ayant une masse de plus de 10 milliards de masses solaires. Ces objets représentent probablement les reliques de trous noirs géants qui ont dû alimenter de brillants quasars tels qu'on peut en voir dans l'Univers primordial.
Il faut essayer de se représenter ce que représente 10 milliards de masses solaires... notre galaxie à nous ne "pèse" que 100 milliards de masses solaires. Un seul "objet" de ce type peut faire 10% de toute notre galaxie, il y a là quelque chose de fascinant. Plus fascinant encore et la dimension de tels objets. On parle d'horizon, qui est la limite à partir de laquelle la lumière ne peut plus s'échapper du puits gravitationnel. Le rayon de cet horizon dépend de la masse du trou noir et vaut dans le cas découvert ici environ 30 milliards de kilomètres, soit près de 200 fois la distance séparant la Terre du Soleil. Un tel trou noir est donc bien plus grand que tout notre système solaire...

Pour essayer de comprendre comment peuvent se former de tels monstres, on étudie la distribution des vitesses des étoiles au sein de la galaxie hôte. La masse du trou noir est étroitement liée à la dispersion de vitesse des étoiles dans la partie centrale de la galaxie "araignée". Il existe bien sûr plusieurs hypothèses en concurrence, sans quoi ce serait moins passionnant.

La première propose que le Trou Noir (TN) subisse un grossissement par une accrétion énorme de gaz au sein d'une galaxie au départ spirale et riche en gaz, et qui peut également se faire par accrétion du gaz d'une galaxie voisine. Ce processus se termine lorsque le trou noir devient actif c'est à dire lorsque l'accretion échauffe tellement le milieu que des jets de particules sont produits et provoquent une dispersion du gaz proche empéchant en outre la formation d'étoiles à proximité du TN. Le résultat est une galaxie lenticulaire qui a la particularité d'avoir une dispersion de la vitesse de ses étoiles plus grande que la galaxie spirale initiale.
Abell 1656

La seconde hypothèse, qui a plus la faveur des astrophysiciens qui se sont spécialisés dans l'étude des ces objets hors norme est la possibilité de fusion de plusieurs TN déjà gros pris individuellement. Dans ce scénario, deux galaxies lenticulaires pauvres en gaz, toutes deux contenant un trou noir central, fusionnent. Leurs trous noirs spiralent vers le centre de la nouvelle entité galactique jusqu'à literalement s'agglomérer et ne faire plus qu'un. Et bien évidemment, cette étape peut être répétées plusierus fois, rien ne l'interdit, jusqu'à mener aux masses extraordinaires que l'on a découvert aujourd'hui. Le résultat de cette fusion est une galaxie sphéroïdale qui a une taille plus grande que les deux galaxies parentes. Le trou noir résultant et lui aussi plus gros que la somme des deux trous noirs initiaux. La caractéristique sur la dispersion des vitesses est que celle-ci est pratiquement inchangée, observation qui fait pencher la balance plutôt vers cette hypothèse.

C'est ce qu'ont observé McConnell et al sur ces deux TN géants, qui ont une masse trop grande vis à vis de la relation masse - dispersion de vitesse qui serait celle d'une évolution par accrétion.

Avec les nouvelles générations de télescopes comme l'EELT, la chasse aux trous noirs va s'intensifier, en augmentant considérablement le nombre de galaxies pouvant être étudiées finement et pouvant accéder par exemple à une cartographie précise des mouvements stellaires en 3D à proximité des centres galactiques.

Source :
Two ten-billion-solar-mass black holes at the centres of giant elliptical galaxies 
McConnell et al. 
Nature 480, Pages 215–218 (08 December 2011) 

A lire aussi : http://drericsimon.blogspot.com/2011/06/30-millions-de-trous-noirs-supermassifs.html

Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

lundi 5 décembre 2011

Un quart d'heure de bonheur avec André Brahic

Je vous offre un quart d'heure de bonheur avec André Brahic, intarissable sur les anneaux de Saturne. Cet homme a un pouvoir de vulgarisation hors norme. "Les anneaux de Saturne, c'est le parfum d'une femme...".



André Brahic - Promenade sur les anneaux de... par les_ernest
Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

dimanche 4 décembre 2011

Quand les neutrinos d'ICARUS défient ceux d'OPERA sous l'oeil du Higgs

Ça se passe en Italie, dans le même laboratoire souterrain, cette grande cave creusée au milieu d'un tunnel routier du Gan Sasso.
L'expérience OPERA mesure l'oscillation des neutrinos produits au CERN en Suisse, et elle peut aussi mesurer leur vitesse apparente, en mesurant le temps qu'ils mettent pour arriver et en mesurant la distance qui sépare la source et le détecteur.
On connaît maintenant tous l'annonce qui a été faite en septembre dernier sur la mesure d'une vitesse supraluminique pour ces neutrinos muoniques.

Et ce laboratoire souterrain est un endroit vraiment propice pour l'étude des neutrinos, notamment ceux venant du ciel, et surtout du soleil, qui en est un très gros producteur. Les neutrinos ont le bon goût de pouvoir facilement traverser l'écorce terrestre, que ce soit "horizontalement" entre la Suisse et l'Italie mais aussi "verticalement" à travers l'atmosphère et une haute montagne. L'expérience nommée ICARUS (du mythologique Icare qui voulait s'approcher du soleil...) est située tout juste à côté de OPERA dans le laboratoire du Gran Sasso. Cette manip, initiée par un ancien prix Nobel (Carlo Rubbia, physique 1983) a pour but d'étudier les neutrinos "cosmiques".
Et les physiciens de ICARUS ont eu l'idée de mesurer non seulement leurs neutrinos solaires comme prévu, mais aussi ceux qu'étudient leurs copains d'à côté, ceux venant du CERN et qui apparaissent faire quelques excès de vitesse.
ICARUS est formé de détecteurs qu'on appelle des chambres à projection temporelle à l'Argon liquide.

ICARUS mesure non pas le temps de vol des neutrinos du CERN comme OPERA, mais il les détecte assez bien, comme toute autre particule, et mesure également leur énergie (cinétique+masse), ce que ne fait pas OPERA. Et c'est là que ça devient intéressant...

En effet, lorsque ICARUS mesure au Gran Sasso l'énergie de ces neutrinos suisses, et bien il trouve exactement la même énergie que celle qu'ils avaient au départ 730 km plus loin (l’énergie initiale n'est pas directement mesurée mais calculée par simulation).

So what ? vous entends-je dire.... Voilà qu'entre en scène un prix Nobel (Physique 1979) en la personne de Seldon Glashow, accompagné d'un collègue de l’université de Boston, Andrew Cohen. Ces deux théoriciens ont fait des calculs assez pointus (on n'est pas Nobel par hasard quand même), et selon ces calculs, si les neutrinos suisses étaient bien supraluminiques au départ de leur voyage, et bien ils ne le resteraient pas longtemps, ils perdraient énormément d'énergie par création de paires électron-positrons...
Les neutrinos, d'après ces calculs, s'ils étaient supraluminiques dans la proportion mesurée par OPERA, ne devraient pas du tout avoir les énergies qui ont été mesurées (avec précision) par ICARUS.
De plus ICARUS ne détecte que des neutrinos, et aucun électron ou positron additionnels.

Les résultats de l'expérience ICARUS, associés à l'interprétation théorique d'un effet Cherenkov d'interaction faible donnent ainsi une robuste contre preuve à l'existence de neutrinos supraluminiques, peut-être la plus robuste de toutes les solutions parfois farfelues émises depuis le 22 septembre.

Les données de ICARUS sont très robustes, la théorie de Glashow et Cohen repose elle sur le modèle standard de la physique des particules (théorie électrofaible).

Pour faire court, on pourrait dire ceci : si le boson de Higgs est découvert (dans les jours ou semaines qui viennent), le modèle standard est conforté, Glashow et Cohen ont donc raison et donc.., ICARUS apporte la preuve de l'erreur expérimentale de OPERA!

Le boson de Higgs pourrait tuer les neutrinos supraluminiques !!


Autant dire que si l'expérience MINOS montre un résultat similaire à OPERA dans 1 an (ou un peu moins espérons le), la physique aura vraiment de très très gros problèmes à résoudre...

- A. Cohen, S. Glashow, New Constraints on Neutrino Velocities       http://arxiv.org/abs/1109.6562

- ICARUS Collaboration, A search for the analogue to Cherenkov radiation by high energy neutrinos at superluminal speeds in ICARUS http://arxiv.org/abs/1110.3763v2


A lire sur le même sujet : http://drericsimon.blogspot.com/2011/12/ca-sent-le-sapin-pour-les-neutrinos.html


Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telra

samedi 3 décembre 2011

Accessoirite après diamétrite.

Le corollaire de la diamétrite est sans conteste la Naglerite, ou plus généralement l'accessoirite... Quoi, moi, atteint ? Oh ? Si vous regardez bien, il manque encore un Panoptic 24 mm (ou 27 mm) pour être parfait, mais j'épargne...



Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad

vendredi 2 décembre 2011

Annonce au CERN au sujet du Higgs le 13 décembre ! 125 GeV ?

MISE A JOUR au 8 mars 2012 : résultats annoncés au TEVATRON qui vont dans le même sens que ceux du LHC, voir ici : Nouvelles traces de Higgs à 125 GeV au TEVATRON

MISE A JOUR au 13 décembre : résultats annoncés au séminaire du CERN, voir ici : Le Boson de Higgs à découvert

 -------------------------------------------------------------------------------------------------------------------------------------

Le DG du CERN, Rolf Heuer, a annoncé qu'un séminaire spécial serait donné le 13 décembre au CERN pour présenter tous les résultats de ATLAS et CMS :
"Les résultats qui seront communiqués s’appuieront sur l’analyse d’un beaucoup plus grand volume de données que ceux qui ont été présentés lors des conférences d’été. Cette analyse devrait suffire à marquer un progrès sensible dans la quête du boson de Higgs, mais pas encore à trancher sur l’existence ou la non-existence du Higgs. Le séminaire sera retransmis sur le web."
Simulation de la désintégration d'un boson de Higgs dans le détecteur CMS (CERN)

Les rumeurs vont bon train... voilà qu'on trouve déjà quelques grosses rumeurs qui vont peut-être grossir d'ici au 13 décembre... comme par exemple là, mentionnant un Higgs à 125 GeV environ :
ou encore là :


Si vous vous posez des questions sur le rôle du boson de Higgs en physique, regardez ce qu'en explique Etienne Klein, physicien au CEA, avec une clarté majestueuse  :



Dobson Sky Watcher 254 mm F/4.7 TV Nagler 13 mm, TV Nagler 3.5 mm, HR planetary 5 mm, Plössl 10 mm, Plössl 25 mm, Barlow TV x2 filtres Moon et OIII, Guided by Telrad