ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Élucidation du mystère de l’origine
des disques de gaz massifs autour des étoiles

 

 

 

 

 

 

 

Communiqué de presse

Élucidation du mystère de l’origine
 des disques de gaz massifs autour des étoiles

Pourquoi des disques de gaz massifs subsistent-ils dans les systèmes planétaires pendant plusieurs dizaines de millions d’années, bien après que les planètes se soit formées ? Et ce, alors même que les modèles de formation planétaire prédisent le contraire. Une nouvelle étude menée par un astronome de l’Observatoire de Paris - PSL au Laboratoire d’études spatiales et d’instrumentation en astrophysique (Observatoire de Paris – PSL / CNRS / Sorbonne Université / Université Paris Diderot) vient de faire la lumière sur ce mystère. Elle parait dans la revue Monthly notices of the Royal Astronomical Society, le 22 novembre 2018.

Près de 4 000 exoplanètes ont déjà été découvertes. Pour répondre aux problématiques de quête de vie extraterrestre dans l’Univers, caractériser précisément les systèmes planétaires dans notre Galaxie représente un enjeu crucial, avant même d’imaginer pouvoir les observer directement. Une des voies pour y parvenir est l’étude des très jeunes systèmes planétaires en formation (la phase protoplanétaire), à travers l’analyse de leur teneur en gaz et en poussière, un milieu dans lequel orbitent les protoplanètes naissantes.
Avec l’avènement de la nouvelle génération d'observatoires dans le domaine du millimétrique (comme le radiotélescope ALMA), l’étude de systèmes planétaires plus matures et de leur composante gazeuse devient possible. Si ce stade d’évolution, qui suit la phase protoplanétaire, retient l’attention des astronomes, c’est que les planètes ont fini de se former. Là, les observations sont formelles : ces systèmes planétaires plus évolués, dont l’âge oscille entre 10 et 100 millions d'années, ont eux aussi des disques de gaz, alors même que les modèles de formation planétaire prédisaient le contraire.

Cette présence de gaz a intrigué les astronomes. Deux hypothèses ont longtemps été mises en avant :
- Soit, ces disques de gaz sont les restes de la phase protoplanétaire jeune ;
- Soit, ils ont une origine secondaire : ils sont créés plus tard et le gaz serait évaporé de planétésimaux, corps rocheux issus de la coalescence de grains de poussière en corps compacts, qui orbitent dans ces systèmes à l’instar de notre Système solaire, dans les ceintures d'astéroïdes ou de Kuiper.

La recherche de monoxyde de carbone (CO) est l’un des moyens pour les astronomes d’accéder à la composition des planétésimaux dans les systèmes planétaires évolués. La découverte de disques de CO massif est
Observatoire de Paris - PSL • 61 avenue de l’Observatoire • 75014 Paris • France www.observatoiredeparis.psl.eu
Recherche Formation
Culture scientifique     Vue d’artiste d’une étoile jeune entourée de son disque protoplanétaire.
© ESO/L. Calçada
Contact chercheur     Observatoire de Paris - PSL     Quentin Kral Astronome
LESIA
+33 (0) 1 45 07 76 01 quentin.kral@obspm.fr
Contact presse     Observatoire de Paris - PSL     Frédérique Auffret
+33 (0) 1 40 51 20 29
+33 (0) 6 22 70 16 44 presse.communication@obspm.fr

en nombre croissant, avec une dizaine connue pour l’heure. La quantité de gaz présente et sa distribution suggèrent que ces disques ne sont pas les restes de la phase protoplanétaire jeune, mais sont dus à un dégazage plus tardif (origine secondaire).
Cependant, la molécule de CO étant fragile, même tardive, elle devrait être détruite sous l’effet du rayonnement UV continu qui provient de l'espace. Comment expliquer ce paradoxe ?
Un nouveau modèle : le bouclier
La nouvelle étude fournit une explication : le monoxyde de carbone peut se protéger lui-même. Le CO qui s'évapore des planétésimaux est initialement détruit par les photons UV (comme attendu). Après la destruction des molécules de CO, les fragments qui subsistent -- des atomes de carbone et d'oxygène -- créent leur propre bouclier de protection. Une fois le CO détruit en quantité, le bouclier devient assez puissant pour protéger le CO ; le disque de CO se met ainsi à grossir et à s’étaler.

Les auteurs de l’étude ont testé leur nouveau modèle en observant avec ALMA le système situé autour de l'étoile HD 131835. Le CO avait déjà été observé dans ce système. Ainsi pour tester leur théorie, ils ont analysé les atomes de carbone censés servir de bouclier au CO.
La théorie corroborée par des observations
Les observations corroborent la théorie: Premièrement, la masse d'atomes de carbone dans le système est effectivement assez grande pour servir de bouclier au CO. Et enfin, la quantité de CO observée est compatible avec l'hypothèse que le gaz a bien une 'origine secondaire' et que le gaz observé est donc bien relâché par les planétésimaux du système.
La publication fait aussi des prédictions quant à la quantité de carbone présente dans les autres systèmes où des disques massifs sont observés, ce qui pourra être testé dans le futur proche.

"C'est une découverte très importante qui résout un des grands mystères de la théorie de la formation planétaire. Grâce à notre travail, on comprend maintenant l'origine de ces disques de gaz massifs observés autour de systèmes planétaires matures. Ceci donne accès, pour la première fois, à la composition des exoplanétésimaux qui relâchent le gaz dans ces systèmes, que l'on comparera très bientôt avec la composition des planétésimaux de notre Système solaire », indique Quentin Kral, astronome de l'Observatoire de Paris et premier auteur de l'étude.

Référence :
Ce travail de recherche a fait l'objet d'un article intitulé « Imaging [CI] around HD 131835: reinterpreting young debris discs with protoplanetary disc levels of CO gas as shielded secondary discs » par Q. Kral, et.al. paraissant le 22 novembre 2018 dans la revue Monthly notices of the Royal Astronomical Society.

 

  DOCUMENT         CNRS         LIEN 
 

 
 
 
 

Et pourtant il accélère !

 

 

 

 

 

 

 

Et pourtant il accélère !

Jacques-Olivier Baruch dans mensuel 361
daté février 2003 -

L'expansion de l'Univers, loin de ralentir comme on le pensait depuis soixante-dix ans, est en train de s'accélérer sous la pression d'une mystérieuse énergie noire. Les astrophysiciens tentent de comprendre la nature de ce constituant majeur de l'Univers.

Au début juillet s'est tenu à l'Institut d'astrophysique de Paris un colloque au titre bien mystérieux : « Sur la nature de l'énergie noire ». Cette irruption sur la scène scientifique d'un concept tenant plus de l'alchimie et de la mystique que de la science dure n'était pas ano-dine. L'énergie noire était devenue « le » sujet de l'année 2002, réunissant cosmologistes et physiciens théoriciens. La raison : quelque cinq mois auparavant, un article paru en Grande-Bretagne, dans les Monthly Notices of the Royal Academy of Science [1], avait convaincu la communauté scientifique qu'un phénomène étourdissant pour la pensée humaine était à l'oeuvre : l'accélération de l'expansion de l'Univers. Quelques mois plus tard, les chercheurs de l'expérience Archéops le confirmaient. D'après leurs analyses très précises du rayonnement de bruit de fond cosmologique, vestige du Big Bang, ils déduisaient que l'Univers connaissait effectivement une expansion accélérée sous la pression négative d'une mystérieuse énergie noire. C'était là un renversement complet de pensée puisque, selon les vues traditionnelles des cosmologistes, si l'Univers était en expansion depuis le Big Bang, celle-ci, loin d'accélérer, devait ralentir depuis quinze milliards d'années.

Ce n'était pas la première fois qu'une telle idée surgissait sur le devant de la scène. Il y a quatre ans, deux équipes internationales, la High-z Supernova Search Team [2] et le Supernova Cosmology Project SCP [3], annonçaient cette révolution conceptuelle. Ces deux groupes de chercheurs s'étaient attelés à mesurer précisément la lumière émise lors de l'explosion de certaines étoiles, les supernovae de type Ia voir l'encadré p. 36. De fait, jusqu'à l'observation de ces explosions d'étoiles aux confins de l'Univers, tout paraissait normal : plus une supernova était loin- taine, plus sa luminosité apparente était faible suivant une courbe grossièrement linéaire. Bien sûr, dans le cas d'un ralentissement de l'expansion, on aurait dû constater que les supernovae les plus lointaines étaient un peu plus lumineuses que leurs consoeurs proches, mais il était encore impossible d'observer cet écart : aucune supernova n'avait encore été détectée à des distances se chiffrant en milliards d'années-lumière, où cet effet se fait sentir. Les 16 supernovae du High-z Supernova Search Team, ajoutées aux 42 de SCP, allaient bousculer ce schéma trop simple [fig. 1]. Leur luminosité n'était pas plus forte mais, au contraire, 25 % plus faible que celle de leurs consoeurs proches ! Pour expliquer ce phénomène, les scientifiques avaient deux choix : ou un processus physique affaiblissait le rayonnement des supernovae, ou bien leur distance était à revoir à la hausse. Si c'était une question de distance, la vitesse d'expansion de l'Univers n'était pas en train de diminuer, comme on le pensait jusque-là, mais, au contraire, augmentait : l'expansion de l'Univers était en train d'accélérer.

Le mystère des supernovae
Les astrophysiciens se sont montrés sceptiques devant cette hypothèse. Soucieux de ne pas modifier la structure de l'Univers à la légère, ils ont préféré regarder d'abord du côté des supernovae elles-mêmes. Il était possible, en effet, que leur lumière soit absorbée par des poussières ou des nuages intergalactiques. Mais aussi que leur compo- sition chimique influe sur la courbe de luminosité lors de leur explosion. Effectivement, les supernovae de type Ia ne sont pas toutes exactement identiques, sans que les astrophysiciens ne sachent vraiment pourquoi. Mais ils ont néanmoins remarqué que, pour les explosions les plus proches de nous, le maximum de la luminosité était d'autant plus élevé que son augmentation était rapide. Il devint alors possible d'homogénéiser les courbes de lumière [fig.2] et d'appliquer des corrections aux supernovae lointaines, « sous réserve que leurs propriétés soient identiques à celles des supernovae proches », écrivait en 1999 Reynald Pain, directeur de recherche au Laboratoire de physique nuclé-aire et des hautes énergies, et collaborateur du SCP [4].
Quatre ans plus tard, aucune faille n'est apparue dans l'édifice théorique des supernovae. Elles explosent toujours au rythme lent de trois fois par millénaire et par galaxie, aucun effet d'évolution chimique n'est pressenti, mais celles qui sont détectées persistent dans leur faiblesse lumineuse. La solution était donc à rechercher du côté de leur distance. Pas si facile ! Seule la lumière des astres proches à moins de 300 années-lumière est mesurable directement par calcul de parallaxe*. Les distances extragalactiques dites cosmologiques sont, elles, calculées depuis Edwin Hubble, en 1929, en fonction de différents paramètres, comme le décalage spectral* de la lumière de leur source, mais aussi de paramètres plus globaux : tout d'abord la densité de matière présente dans l'Univers, puis la constante de Hubble qui caractérise la vitesse d'expansion, mais aussi, et surtout, la mystérieuse constante cosmologique d'Einstein. Cette dernière connaît aujourd'hui un regain d'intérêt, alors qu'elle était tombée en désuétude depuis soixante-dix ans. Einstein avait rajouté ce terme négatif à ses équations de relativité générale afin que le résultat décrive un Univers statique conforme aux idées de l'époque. Quelques années plus tard, les cosmologistes attribuèrent à ce terme une valeur nulle, lorsque Edwin Hubble découvrit que l'Univers n'était pas statique, mais en expansion. Depuis quatre ans, cette constante est réapparue dans les équations, mais avec un signe positif, opposé à celui donné par Einstein. La constante cosmologique correspond alors à un milieu répulsif, une sorte d'antigravité qui, semblant dominer depuis sept milliards d'années, accélère l'expansion de l'Univers.
Cela semble bel et bien être le cas. Car, l'an dernier, deux équipes étudiant des phénomènes complètement indépendants des supernovae sont parvenues aux mêmes conclusions. Chacune juge cette accélération nécessaire pour expliquer leurs résultats. La première à proposer ses résultats en 2002 fut l'équipe du 2dFGS two-degree Field Galaxy Redshift Survey. Le professeur George Efstathiou, de l'université de Cambridge Massachusetts, États-Unis, et son équipe avaient alors localisé et analysé la lumière émise par 221 283 galaxies grâce au télescope anglo- australien 3,9 mètres de diamètre de Siding Spring Australie. Sauf à faire appel à une accélération de l'expansion de l'Univers, les chercheurs n'arrivaient pas à relier la répartition des galaxies qu'ils avaient observées aux structures détectées dans le rayonnement de bruit de fond, ce rayonnement émis 300 000 ans après le Big Bang, quand lumière et matière purent se découpler.
D'autres études confirment
« Nous confirmons l'accélération », ont clamé cet automne les physiciens français de l'expérience Archéops [5], qui vola en ballon pendant dix-neuf heures le 7 février 2002 à partir de la base suédoise de Kiruna. Leur sondage du bruit de fond cosmologique à grande échelle angulaire a, entre autres, permis d'affiner la composition énergétique de l'Univers. Sa densité de matière ne représente que 27 % ± 6 % de l'énergie totale. Une valeur en accord avec les mesures des études précédentes, qui évaluaient cette densité à 30 %, dont la plus grande part 25 % provient de la matière noire, encore inconnue mais qui exerce une influence gravitationnelle observable sur les galaxies et leurs amas [6]. L'équipe dirigée par Alain Benoit, du centre de recherche sur les très basses températures de Grenoble, conclut elle aussi que l'Univers est dominé à 70 % par un milieu répulsif, appelé énergie noire et représenté dans les équations par la constante cosmologique.

D'autres études [7] étayent cette vision d'un Univers de densité de matière faible, dominé par une énergie noire qui accélère son expansion. Elles utilisent le phénomène de lentille gravitationnelle, dans lequel la lumière d'une source est déviée et amplifiée par la présence, sur la ligne de visée, d'un astre très massif comme une galaxie ou un amas de galaxies. Certains chercheurs qui analysent la lumière des quasars les noyaux actifs des galaxies primordiales [8] se sont rendu compte que leur luminosité intrinsèque avait été surestimée. D'autres évaluent la densité de matière de l'Univers en effectuant une étude statistique sur la déformation des images des galaxies lointaines : ce qu'ils appellent le phénomène de lentille gravitationnelle faible. S'ils observent des orientations privilégiées, ils peuvent en déduire la quantité de matière présente entre les galaxies et la Terre, puis la densité de matière visible et noire de l'Univers. Pour les quelques équipes qui publient leurs résultats, ce très faible effet est difficile à observer. Il n'empêche : la densité de matière ainsi déduite, même largement entachée d'incertitude, va, elle aussi, dans le sens d'une densité de matière très faible et d'une constante cosmologique positive, signe d'une accélération de l'expansion [fig. 3].
La concordance de toutes ces expériences a fait sursauter plus d'un cosmologiste. À l'aube du XXIe siècle, il devient clair que 95 % de l'Univers nous est totalement étranger ! Les astrophysiciens s'aperçoivent que toutes leurs théories ne se fondent que sur l'observation des cinq petits pour cent visibles de l'énergie totale [fig. 4]. De quoi rendre sceptique le commun des mortels, mais pas les scientifiques, qui continuent à bâtir leur édifice théorique contre vents et marées. Leur plus grand défi est aujourd'hui de dévoiler la nature de cette énergie noire, caractérisée par la cons- tante cosmologique. « En lui donnant ce nom d'énergie noire, on a déjà fait la moitié du chemin », plaisante Reynald Pain. L'énergie du vide* est un bon candidat mais, si c'est le cas, les physiciens quantiques la trouvent étonnamment petite. Ils préféreraient la voir multipliée par un facteur énorme : au moins 1060 ! Pour baliser ce chemin, les chercheurs ont une piste. Ils tentent de caractériser ce milieu bizarre en évaluant le rapport de sa pression sur sa densité. Si ce rapport est égal à – 1, l'énergie ainsi caractérisée serait identifiée à l'énergie du vide. Devant les difficultés liées à son ordre de grandeur, les physiciens étudient d'autres cas, en particulier ceux où cette constante est... variable. Elle pourrait être alors associée à des défauts topologiques de l'espace liés aux différentes brisures de symétrie que l'Univers a connues dans le passé. D'autres encore imaginent une nouvelle forme de « matière », un nouveau champ appelé par certains « quintessence », sans que personne ne sache exactement que mettre derrière ce mot emprunté aux alchimistes.
Les cosmologistes et les physiciens théoriciens ont donc encore du pain sur la planche. En premier lieu, ils veulent mesurer le rapport entre la pression et la densité de ce milieu inhabituel. Mais, pour cela, il leur faut d'abord homogénéiser les données recueillies sur les supernovae de type Ia. Ce n'est aujourd'hui pas le cas, car la centaine de supernovae répertoriées n'a pas été observée selon les mêmes protocoles. Les spécificités de chaque télescope et de leurs spectrographes, la multiplicité des lieux d'observation introduisent des incertitudes quand il s'agit de comparer les courbes de lumière. De plus, même si, depuis 1999, plusieurs supernovae ont été observées à des distan-ces moyennes, il reste de nombreux trous dans l'échelle de distance [fig.1]. L'année 2003 marque à cet égard le passage à une vitesse supérieure. Le mois prochain sera mis en route le programme franco-canadien Supernova Legacy Project. Il utilisera le Very Large Telescope européen installé au Chili, ainsi que Megacam, la nouvelle caméra électronique construite par le service d'astrophysique du Commissariat à l'énergie atomique CEA et installée sur le télescope franco-canadien d'Hawaii CFHT. Toutes les deux ou trois nuits, la caméra, munie de cinq filtres différents, sera braquée sur deux zones présélectionnées, et ce pendant six mois de l'année. Ainsi, quatre zones de 1 degré carré seront surveillées pendant cinq ans.
Des usines à supernovae

Ce seul instrument permettra d'obtenir des données homogènes et des courbes de lumière complètes. « Sur cinq ans, nous nous attendons à détecter et à décrypter la lumière de plus d'un millier de supernovae de type Ia », déclarait en octobre dernier Stéphane Basa, du laboratoire d'astrophysique de Marseille, lors de la journée du Programme national de cosmologie. Un autre projet, une « usine à supernovae », selon Saul Perlmutter, responsable du SCP et promoteur du projet franco-américain SN Factory, est dans les starting-blocks. L'équipe a pu obtenir 20 % du temps d'observation du télescope de 2,2 mètres de l'université d'Hawaii sur le volcan Mauna Kea. Y sera connecté le SNIFS, un spectrographe de nouvelle génération étudié et fabriqué en France, dont la seule tache sera de sonder le ciel quotidiennement et d'analyser les spectres des étoiles. La mise en place de cet instrument devrait se dérouler l'été prochain, pour de premières détections de super-novae à l'automne. Toutes ces expériences permettront de mieux appréhender le déroulement de l'explosion des supernovae jusqu'à des distances approchant les quelques milliards d'années-lumière. Mais remonter plus loin dans le passé et en distance demande d'observer des astres de luminosité encore plus faible. Il faudra alors s'affranchir de l'atmosphère terrestre et observer depuis l'espace. Les astrophysiciens comptent beaucoup sur le satellite SNAP SuperNovae/Acceleration Probe, qui détecterait aussi bien les supernovae 2 000 par an que les effets de lentilles gravitationnelles faibles. Lors de la réunion qui s'est tenue en juillet dernier à Berkeley Californie, le département de l'Énergie américain DoE s'est dit intéressé par ce projet, dont le lancement est prévu vers 2010, mais n'a encore rien décidé. De son côté, son partenaire, le CNES, auquel les scientifiques français ont demandé de prendre en charge le spectrographe, connaît actuellement quelques problèmes de financement et doit faire des choix. « La participation française n'est aujourd'hui pas assurée », confirme Yannick Copin, physicien à l'Institut de physique nucléaire de Lyon. Pourtant, aussi bien l'étude des supernovae de type Ia que les effets de lentilles gravitationnelles faibles peuvent apporter des indications sur la valeur du rapport pression-densité, sur son éventuelle variabilité et, in fine, sur la nature de l'énergie noire [9]. L'enjeu est d'importance : c'est elle qui, aujourd'hui, semble commander notre avenir à long terme. en deux mots Déjà mise en évidence il y a quatre ans à partir de l'étude de supernovae, l'accélération de l'expansion de l'Univers a été confirmée cette année par deux expériences indépendantes. Pour déduire ce résultat, la première a analysé plus de 220 000 galaxies, l'autre s'est penchée sur les inhomogénéités du bruit de fond cosmologique. Convaincus, les cosmologistes revoient leurs scénarios et tentent d'en comprendre la cause. Ils en appellent à une mystérieuse énergie noire, qu'ils tentent de caractériser en évaluant le rapport pression/densité de ce milieu encore inconnu.
[1] G. Efstathiou et al., MNRAS, 330-2, L29, 2002.
[2] A.G. Riess et al., AJ, 116, 1009, 1998.
[3] S. Perlmutter et al., ApJ, 517, 565, 1999.
[4] R. Pain, La Recherche, 320, 28, 1999.
[5] A. Benoit et al., A A Lett., astro-ph/0210305 et 0210306.
[6] Dossier « Matière noire », La Recherche, 338, 28, 2001.
[9] W. Hu, Phys. Rev. D, 66, 083515, 2002.
NOTES
* La parallaxe d'une étoile est l'angle sous lequel on voit l'ellipse que semble décrire cette étoile par suite du mouvement orbital de la Terre autour du Soleil.
* Décalage spectral redshift :
comme le son d'une ambulance que l'on entend plus grave ou plus aigu selon qu'elle s'éloigne ou se rapproche, la lumière d'une source qui s'éloigne sera décalée vers les parties rouges du spectre électromagnétique, alors qu'un observateur la verra bleuie si la source
se rapproche de lui.
* L'énergie du vide :
dans la théorie quantique, même en l'absence de toute particule ou de tout rayonnement,
l'Univers est plein... de particules virtuelles. Le vide est l'état d'énergie minimal, mais non nul, de l'Univers.

LES SUPERNOVAE PROCHES ET LOINTAINES
LE MAXIMUM DE LUMINOSITé des supernovae proches est corrélé à l'échelle des distances suivant une courbe linéaire. Ce n'est plus le cas des supernovae lointaines. Trouver des astres intermédiaires, ou encore plus lointains, permettra de distinguer les différents scénarios et de vérifier que l'expansion de l'Univers accélère d'après le Supernovae Cosmology Project.

QUELQUES DIFFÉRENCES
TOUTES LES SUPERNOVAE DE TYPE IA ne se comportent pas de la mÊme façon. Hormis leur distance, certaines se caractérisent par un maximum de lumière moins élevé et une diminution plus rapide. En y apportant une « correction », un stretch-factor, les courbes de lumière se superposent parfaitement. © INFOGRAPHIES : C. CHALIER
OÙ SOMMES-NOUS ?
dans ce diagramme énergie du vide versus densité de matière sont représentés les résultats des différentes expériences et les zones qu'elles excluent. L'analyse du bruit de fond cosmique CMB, les supernovae SN, les lentilles gravitationnelles faibles WL, celles observées sur les quasars QSO, ainsi que les études sur la nucléosynthèse primordiale BBN convergent vers un couple L = 0,7, *M = 0,3 : l'Univers est en expansion accélérée.

L'ÉNERGIE DE L'UNIVERS
les différentes expériences concluent à la domination d'une entité inconnue qui possède un effet répulsif sur la structure de l'espace. Les astres qui émettent de la lumière planètes, étoiles et nuages de gaz représentent moins de 5 % de l'ensemble.

SAVOIR
R. Kishner, The Extravagant Universe, Princeton University Press, 2002.
H. Reeves, Dernières
Nouvelles du Cosmos, Seuil, 2002.
E. Klein, Les Tactiques
de Chronos, Flammarion, 2003.
http://snap.lbl.gov
SNAP, la future mission spatiale de recherche de supernovae.

 

  DOCUMENT      larecherche        LIEN  

 
 
 
 

À la rencontre des rayons cosmiques

 

 

 

 

 

 

 

À la rencontre des rayons cosmiques

Marie-Christine de La Souchère dans mensuel 455
daté septembre 2011 -

Avant d'investir le champ de l'astrophysique, le rayonnement cosmique a suscité d'intenses polémiques au sein de la communauté scientifique. Au coeur des débats : la nature de cet étrange phénomène découvert il y a un siècle à peine.

E n gravissant les escaliers de la tour Eiffel par une froide journée de mars 1910, le prêtre jésuite Theodor Wulf n'imaginait pas qu'il inciterait des générations de physiciens à se tourner vers le ciel. Wulf, qui enseignait la physique à l'université de Valkenburg, aux Pays-Bas, était simplement venu mesurer la conductivité électrique de l'air à l'aide d'un électroscope de sa fabrication. Plus précisément, il voulait vérifier que l'air était moins ionisé, donc moins conducteur, au sommet de la tour qu'au niveau du sol.
La mesure de la conductivité de l'air était à cette époque la méthode d'étude privilégiée de la radioactivité, dont la découverte et l'étude avaient valu le prix Nobel de physique en 1903 à Henri Becquerel, Marie et Pierre Curie. Les rayonnements émis par les substances radioactives ionisent en effet l'air, augmentant ainsi sa conductivité. Mais diverses expériences, pourtant menées loin de toute source radioactive et en atmosphère non orageuse, avaient mis en évidence l'existence d'une ionisation résiduelle de l'air. Les scientifiques l'avaient attribuée à une radioactivité issue de l'intérieur du globe.
Les effets de ce rayonnement d'origine tellurique devaient donc s'atténuer rapidement avec l'altitude. Or, contre toute attente, l'électromètre que Wulf emporta au sommet de la tour, à 300 mètres d'altitude, indiqua que l'air y était à peine moins conducteur qu'au niveau du sol. Le rayonnement incriminé gardait donc sensiblement la même intensité.
Intrigué, le physicien autrichien Victor Hess n'y alla pas par quatre chemins. Pour vérifier les dires de son collègue, il se lança dans une série de neuf ascensions en ballon, de 1911 à 1913. Vers 2 000 mètres d'altitude, l'ionisation était du même ordre qu'au sol. Elle augmentait ensuite de manière régulière, jusqu'à doubler vers 5 000 mètres, altitude maximale atteinte par l'aéronef. Hess en conclut que la seule manière d'interpréter de tels résultats était d'admettre l'existence d'un rayonnement « très pénétrant, de nature inconnue, venant principalement du haut et très probablement d'origine extraterrestre ».

Mobilisation internationale
La Première Guerre mondiale arrêta ces recherches. Mais dans les années qui suivirent, les physiciens traquèrent ce rayonnement d'altitude, que le physicien américain Robert Millikan, directeur à l'Institut technologique de Californie, à Pasadena, avait qualifié de « cosmique ». Les sites haut perchés, tels l'observatoire du pic du Midi, dans les Pyrénées, ou celui du Jungfraujoch, dans les Alpes suisses, avaient la faveur des expérimentateurs et drainaient des chercheurs de toutes nationalités.
Quant à la nature des rayons cosmiques, deux thèses s'affrontaient. Millikan, vétéran de la physique des particules, célèbre pour sa mesure de la charge de l'électron, soutenait qu'il s'agissait d'ondes électromagnétiques de très haute fréquence, mille fois supérieure à celle des rayons X. Ces ondes étaient associées à des grains de lumière de forte énergie : les photons gamma. Arthur Compton, de l'université de Chicago, penchait lui pour des particules chargées, protons ou électrons.
Comment trancher entre les deux hypothèses ? Des particules chargées sont déviées en présence d'un champ magnétique, contrairement aux photons. Si les rayons cosmiques possédaient une charge électrique, ils devaient subir l'action du champ magnétique terrestre, propre à les piéger et à les drainer vers les hautes latitudes selon les calculs de l'abbé belge Georges Lemaître.
En 1928, le physicien néerlandais Jacob Clay avait sillonné les mers entre Amsterdam et Java, effectuant une série de mesures qui, toutes, montraient une diminution du flux cosmique près de l'équateur. Compton lui emboîta le pas en 1930, recueillant les indications de 69 stations, situées entre 68° de latitude Nord et 46° de latitude Sud. Ses résultats confortaient ceux de Clay et accréditaient l'hypothèse de particules chargées.
Cette hypothèse ne satisfaisait guère Millikan, qui avait fait des photons gamma le fer de lance de sa théorie de la création continue, complaisamment étalée dans les colonnes du New York Times. À l'en croire, les photons gamma étaient les « cris d'atomes nouveau-nés », émis chaque fois que des atomes d'hydrogène s'assemblaient dans les nuages interstellaires pour former des noyaux plus lourds : hélium, azote, oxygène... Et Millikan d'effectuer ses propres mesures. Mais, trop sûr de lui, persuadé de l'inexistence de l'« effet latitude », le physicien mit systématiquement sur le compte de la pollution ambiante ou de défaillances expérimentales les résultats contraires à son intuition.

Lutte de Nobel
Le ton commença à monter entre Millikan et Compton, tous deux lauréats du prix Nobel de physique et également soucieux de leur image. Millikan voulait bien admettre que les rayons cosmiques renfermaient quelques particules chargées. Mais celles-ci, affirmait-il, n'étaient que le fruit de l'interaction des photons gamma avec la matière environnante.
La querelle atteignit son paroxysme lors de la réunion de l'Association américaine pour l'avancement des sciences, à Atlantic City, dans le New Jersey, fin décembre 1932. À l'issue du séminaire, désavoué par ses pairs pour sa mauvaise foi et son arrogance, Millikan refusa de serrer la main du correspondant du New York Times, qui, le 31 décembre, fit sa une des discussions.

Compton sortait vainqueur de la confrontation, mais le plus dur restait à faire : identifier les fameuses particules. Les calculs du Norvégien Carl Störmer, dont s'était inspiré Lemaître pour expliquer l'effet de latitude, prévoyaient une asymétrie Est-Ouest dans le flux cosmique. Ne pouvaient atteindre certains points du globe que les particules arrivant à l'intérieur d'un cône, ouvert vers l'ouest pour les charges positives et vers l'est pour les charges négatives.
Persuadé qu'il s'agissait d'électrons, le physicien italien Bruno Rossi essayait, dès 1930, de détecter une éventuelle anisotropie du rayonnement, depuis l'observatoire de Florence. Sans grand succès, la latitude y étant trop élevée, et l'altitude trop faible. Rossi s'apprêtait à poursuivre ses recherches dans les montagnes d'Afrique lorsque d'autres tâches le forcèrent à surseoir à l'expédition. Quand enfin il fut disponible, ce fut pour découvrir que deux équipes l'avaient devancé, dont celle de Compton. Les mesures, effectuées à Mexico, montraient une augmentation du flux de particules en direction de l'ouest, plaidant en faveur d'une majorité de charges positives. Des protons vraisemblablement.
Mais pas exclusivement. Vers la même époque, Millikan avait confié à l'un de ses anciens élèves, Carl Anderson, le soin d'étudier les rayons cosmiques à l'aide d'un dispositif nouveau : la chambre à brouillard, enceinte magnétique remplie d'air humide. Les particules chargées y laissaient des traces analogues aux traînées de condensation des avions. Les premiers clichés, réalisés fin 1931, montrèrent la trace d'une particule positive qui ne pouvait être un proton car sa masse était trop faible.

On aurait dit un électron, mais celui-ci, de charge négative, aurait été dévié dans l'autre sens. À moins que, la force magnétique s'inversant avec le sens du mouvement, l'électron n'ait traversé l'enceinte de bas en haut et non de haut en bas. Millikan rejeta l'hypothèse au motif que les rayons cosmiques venaient du ciel.

Pour trancher, Anderson introduisit un écran de plomb au milieu de la chambre. Il distinguait ainsi les particules selon qu'elles venaient du haut ou du bas. Les clichés confirmèrent que l'on avait affaire à des électrons positifs, les futurs positons, antiparticules des électrons. Cette expérience signait la première mise en évidence d'antimatière, dont l'existence avait été prédite par les calculs du physicien britannique Paul Dirac. En récompense, Anderson, âgé de 31 ans seulement, partagea le prix Nobel de physique de 1936 avec Victor Hess, pionnier du rayonnement cosmique.

Quatre ans après la découverte du positon, Anderson récidivait. Avec l'un de ses étudiants, Seth Neddermeyer, il constatait l'existence d'une nouvelle composante cosmique, dite dure, capable de traverser plusieurs centimètres de plomb. Anderson et Neddermeyer baptisèrent les particules observées « mésotrons » car leur masse était intermédiaire entre celle de l'électron et du proton. On les connaît à présent sous le nom de muons, et ils constituent de l'ordre de 75 % du rayonnement cosmique au niveau de la mer.
En 1947, à leur tour, deux chercheurs de l'université de Bristol, Cecil Powell et Giuseppe Occhialini, mettaient en évidence, au pic du Midi, les mésons pi ou « pions ». Leur désintégration en vol produit des muons et des neutrinos, minuscules entités neutres capables de traverser la Terre de part en part sans être interceptées. Les mésons K ou « kaons » et les hypérons suivirent en 1949.

Pluie de particules
Comment expliquer l'existence d'une telle diversité de particules ? Les observations par ballon stratosphérique au début des années 1950 ont confirmé la formation à haute altitude de grandes gerbes de rayons cosmiques, dont les retombées avaient été détectées au sol par Rossi dès 1933, puis par le Français Pierre Auger en 1938, grâce à des compteurs Geiger écartés de plusieurs dizaines de mètres. Ces pluies de particules sont créées par un rayonnement primaire fait majoritairement de protons de haute énergie. Les protons percutent les atomes d'azote et d'oxygène de l'air, donnant naissance à de nouvelles particules. Par collisions et désintégrations en cascade, celles-ci en engendrent des nuées d'autres : mésons et muons, électrons et positons, neutrons et neutrinos...
Avec le développement des accélérateurs et des collisionneurs de particules, les physiciens ont déserté les observatoires, laissant aux astronomes le soin de découvrir l'origine du rayonnement primaire et les mécanismes qui président à son émission et à l'accélération des charges électriques. Ondes de choc de supernovae, champs magnétiques d'étoiles à neutrons, noyaux actifs de galaxies, les pistes sont multiples... En attendant, plus d'un siècle après sa découverte, le rayonnement cosmique conserve toujours une part d'ombre.

SAVOIR
F. Vannucci, Le Vrai Roman des particules élémentaires, Dunod, 2010.

 

   DOCUMENT   larecherche.fr    LIEN

 
 
 
 

Simulations numériques des chocs de galaxies

 

 

 

 

 

 

 

Simulations numériques des chocs de galaxies

Julien Bourdet dans mensuel 507
daté janvier 2016 -

Grâce à des simulations numériques à haute résolution, des astronomes expliquent pour la première fois pourquoi les collisions entre galaxies donnent lieu à des flambées d'étoiles.
Ce sont des événements violents et extrêmement prolifiques. Dans l'Univers, lorsque deux galaxies entrent en collision, elles se mettent à produire des étoiles à un rythme effréné : à partir du gaz qu'elles contiennent, elles créent l'équivalent de 100 soleils par an pendant plusieurs dizaines de millions d'années - notre galaxie, la Voie lactée, en produit 100 fois moins. Jusqu'à aujourd'hui, l'origine de ces soudaines flambées d'étoiles observées par les télescopes restait mystérieuse. Grâce à des simulations informatiques d'une résolution sans précédent, une équipe d'astrophysiciens français a enfin expliqué le phénomène : durant les collisions, le gaz est fortement comprimé, ce qui favorise la formation brutale de nombreuses étoiles (1).
Au sein d'une galaxie, les étoiles naissent à partir d'immenses nuages de gaz composés essentiellement d'hydrogène, qui se concentrent sous l'effet de la gravitation. Lorsque la densité du gaz devient suffisamment élevée au centre du nuage, des réactions de fusion thermonucléaire démarrent et donnent naissance à un soleil. Mais lors d'une collision entre deux galaxies, le phénomène est tellement violent qu'il agite le gaz en tous sens, le rendant turbulent. On s'attendrait donc à ce que cette turbulence du gaz, qui gêne sa condensation, freine la formation de nouvelles étoiles. Or, c'est l'inverse qui est observé.
Pour tenter de résoudre ce paradoxe, les astronomes ont commencé, dès les années 1970, à simuler sur ordinateur les chocs entre galaxies. De la sorte, ils cherchaient à reproduire toute la complexité des processus physiques en jeu.

PREMIÈRES TENTATIVES LACUNAIRES
Ces simulations ont pointé du doigt un premier mécanisme responsable des flambées d'étoiles : au moment où les deux galaxies se percutent, leur gaz se met à s'écouler vers leur centre respectif où il s'accumule, et forme ainsi plus d'étoiles. Mais restait un problème de taille. « Contrairement aux simulations, les observations montrent que la flambée stellaire ne se déroule pas uniquement au centre, mais dans l'ensemble de la galaxie. Cela signifie qu'il existe un phénomène plus global et beaucoup plus efficace pour former des étoiles au cours d'une collision galactique », note Florent Renaud, à la tête de l'équipe à l'origine de la découverte, aujourd'hui à l'université de Surrey en Angleterre.

LES EFFETS INATTENDUS DU GAZ
Pour identifier la clé des flambées d'étoiles, le chercheur français, à l'époque de ce travail au service d'astrophysique du CEA, à Saclay, et ses collègues du CEA (Frédéric Bournaud, Katarina Kraljic et Pierre-Alain Duc) décident de réaliser de nouvelles simulations numériques avec une résolution inédite. Objectif de l'équipe : prendre en compte simultanément toutes les échelles en jeu, de la galaxie dans son ensemble jusqu'à des structures ne mesurant que quelques années-lumière - la distance caractéristique entre deux étoiles dans une galaxie. Cette échelle minimale est dix fois plus petite que celle atteinte lors des précédentes modélisations. En gagnant en précision, les astrophysiciens espèrent suivre le mouvement du gaz dans ses moindres détails et ainsi comprendre pourquoi la formation stellaire s'emballe.
Mais la tâche est ardue. Pour parvenir à modéliser des galaxies avec toute la matière qu'elles contiennent - le gaz, les étoiles mais aussi la matière noire, une composante énigmatique qui constituerait l'essentiel de la masse des galaxies -, l'équipe doit faire appel aux supercalculateurs les plus puissants d'Europe.
D'autant que les chercheurs ne veulent pas se contenter de simuler une collision entre deux galaxies. Ils souhaitent également modéliser l'évolution d'une galaxie isolée comme la Voie lactée. « C'est une sorte d'échantillon témoin qui nous permet de bien décrire comment la formation stellaire a lieu en temps normal et comment elle est perturbée par une collision », explique Florent Renaud. Une première simulation est ainsi lancée sur le supercalculateur français Curie. Au total, 12 millions d'heures de calcul réparties sur un an seront nécessaires pour reproduire les conditions régnant sur les 300 000 années-lumière sur lesquelles s'étend la Voie lactée, et ce avec une résolution atteignant un dixième d'année-lumière. La simulation permet de reproduire 1 milliard d'années d'évolution, mais les périodes « intéressantes » sont plus courtes (quelques centaines de millions d'années).
Une seconde simulation est ensuite menée sur le supercalculateur SuperMuc installé en Allemagne. Objectif : modéliser, sur 600 000 années-lumière et pendant 1 milliard d'années, une collision galactique similaire à celle qui a donné naissance à la paire de galaxies baptisée Les Antennes. Située à 45 millions d'années-lumière de la Terre, c'est la rencontre galactique la plus proche de nous et la plus étudiée par les astronomes. Cette fois, la simulation, dotée d'une résolution de 3 années-lumière, nécessite 8 millions d'heures de calcul réparties sur huit mois. Cette simulation s'est terminée au printemps 2014.
En comparant les deux simulations, les astronomes mettent alors en évidence un comportement inattendu du gaz dans le cas de la collision des deux galaxies. « Dans la Voie lactée, la
rotation du disque engendre de la turbulence dans le gaz, explique David Elbaz, lui aussi au service d'astrophysique du CEA. Les tourbillons ainsi créés éparpillent la matière, ce qui ralentit fortement la formation stellaire. Dans les Antennes, cet effet existe toujours mais un autre prend rapidement le pas : au lieu d'être éparpillé, le gaz est fortement comprimé. C'est cet effet de compression qui produit un excès de gaz dense et donc une flambée de formation stellaire dans des régions couvrant un important volume des galaxies, et non pas seulement dans leurs régions centrales. »
Mais comment naissent ces compressions dans le gaz ? Pour bien comprendre le phénomène, il faut se placer à l'échelle d'une galaxie tout entière. De par sa masse, celle-ci crée un intense champ de gravitation. Lorsque deux mastodontes de la taille de la Voie lactée commencent à se rapprocher, ils s'attirent alors très fortement, au point de se déformer (lire ci-dessus). Exactement comme la Lune déforme les océans sur Terre créant les marées. Dans le cas des galaxies, l'étirement est tellement intense qu'il finit par arracher des étoiles et du gaz aux deux protagonistes. De spectaculaires extensions de matière se forment au fil du temps entre les deux galaxies et à l'arrière de chacune d'elles.

QUANTIFIER L'IMPACT DES COLLISIONS
Mais cet étirement de la matière n'est pas le seul effet provoqué par la gravitation. « Lorsque les deux galaxies commencent à pénétrer l'une dans l'autre, l'effet s'inverse, précise Florent Renaud. Au lieu d'étirer la matière, le champ gravitationnel la comprime dans certaines zones. Et cette compression se propage ensuite dans le gaz jusqu'aux plus petites échelles, créant ainsi les flambées d'étoiles au sein des galaxies. » Comme l'attestent les simulations, qui prennent à la fois en compte le champ gravitationnel à grande échelle et les mouvements du gaz à petite échelle, ce mécanisme apparaît désormais comme essentiel pour déclencher la formation des étoiles.
Pour s'en convaincre totalement, le groupe d'astrophysiciens a même introduit dans ses simulations des processus physiques extrêmement subtils : l'effet sur le gaz interstellaire des explosions d'étoiles et des vents stellaires - une première à une telle résolution. On sait en effet que parmi les étoiles formées au cours d'une flambée, les plus grosses d'entre elles explosent en supernovae en quelques millions d'années. Au cours de cette courte vie - à l'échelle des étoiles -, elles émettent d'intenses vents stellaires (des émissions de particules). Or, ces deux phénomènes violents peuvent balayer le gaz environnant et ainsi stopper la formation stellaire. « Mais ce que montrent les simulations, note David Elbaz, c'est que la compression du gaz est suffisamment forte pour s'opposer à ces effets antagonistes et ainsi préserver les flambées d'étoiles. »
Avec ces travaux, les astronomes disposent désormais d'une représentation réaliste des flambées d'étoiles au sein des galaxies en collision. Ils peuvent ainsi mieux évaluer l'influence de ces événements violents sur l'histoire de la formation stellaire dans ces galaxies. Dans le cas des Antennes, les simulations numériques permettent d'estimer qu'en 200 millions
d'années - depuis leur premier contact qui a eu lieu il y a 150 millions d'années jusqu'à leur fusion en une seule galaxie qui se produira dans 40 millions d'années -, le couple de galaxies devrait avoir engendré 20 fois plus d'étoiles que si elles étaient restées isolées pendant toute cette période.
Reste que les collisions galactiques ne sont pas toutes aussi efficaces. « Les observations montrent que les flambées sont beaucoup moins intenses quand les deux galaxies n'ont pas des masses voisines ou qu'elles ne tournent pas toutes les deux dans le même sens, note Françoise Combes, de l'Observatoire de Paris et titulaire de la chaire « Galaxies et cosmologie » au Collège de France. Pour bien quantifier l'impact des collisions sur le taux de formation stellaire, il ne faudra pas se contenter de simuler le cas particulier des Antennes, mais encore bien d'autres collisions galactiques. »
C'est précisément à cette tâche que s'attellent actuellement Florent Renaud et ses collègues. Sur leurs supercalculateurs, ils multiplient les scénarios de collisions en changeant la vitesse relative des galaxies, leur masse, leur angle d'approche et d'autres paramètres encore. Ils tentent de déterminer dans quels cas les flambées d'étoiles sont à leur apogée ou au contraire sont quasiment à l'arrêt.

UNE NOUVELLE QUESTION SE POSE
Un travail de fourmi d'une importance cruciale, car il devrait faire avancer un débat qui fait rage actuellement dans la communauté scientifique : quel rôle ont joué les collisions de galaxies pour former des étoiles dans toute l'histoire de l'Univers ? Si aujourd'hui les collisions sont des événements rares, elles devaient être beaucoup plus fréquentes dans un passé reculé. En effet, l'Univers étant en expansion, les galaxies étaient autrefois plus proches les unes des autres et avaient donc plus de chance de se rencontrer. C'est ce qui fait dire à certains que la majorité des étoiles seraient nées à l'occasion d'un choc cosmique.
Mais des observations récentes ont remis en question cette idée. En 2011, les satellites Spitzer et Herschel montrent en effet que dans l'Univers lointain, les flambées d'étoiles dues à des collisions galactiques étaient plus l'exception que la règle (2). Au contraire, l'immense majorité des galaxies forme des étoiles de manière tranquille et régulière. « Ces observations tendent à dire qu'on a surestimé l'effet des collisions sur la création de nouvelles étoiles, juge David Elbaz. Par le passé, ces chocs étaient moins efficaces que ce qu'on imaginait. »
Pourquoi ? C'est à cette question que tentent aujourd'hui de répondre les astronomes. Dans cette quête, les nouvelles simulations mises au point par l'équipe française permettront sûrement de lever un grand coin du voile.

REPÈRES
- Jusqu'à présent, on ne comprenait pas le regain de formation d'étoiles résultant d'une collision entre deux galaxies.
- Une simulation détaillée a mis en avant le mécanisme déclencheur des flambées stellaires : la compression turbulente du gaz.
- De nouvelles simulations sont en cours pour déterminer dans quelles conditions de collision cette formation stellaire est la plus efficace.

DES GALAXIES MÉTAMORPHOSÉES
Lorsque deux galaxies de même gabarit se rencontrent, non seulement elles forment plus d'étoiles, mais c'est toute leur structure qui est transformée. Si les étoiles elles-mêmes n'entrent pas en collision, les distances entre elles étant trop grandes, leur position est chamboulée. Pourquoi ? Parce que de la même façon que la Lune déforme les océans sur Terre, l'attraction gravitationnelle d'une galaxie déforme sa voisine. Dans les régions externes, cet étirement est tellement intense qu'il finit par arracher les étoiles et le gaz : des ponts de matière se créent entre les deux galaxies et de longues traînées apparaissent à l'arrière. Et lorsque les deux galaxies se percutent de plein fouet, de la matière est même éjectée tout autour d'elles, formant des structures en anneaux. Au bout de quelques centaines de millions d'années, toutes ces traces de la collision ont disparu et les deux galaxies ont fusionné : à la place de deux galaxies spirales se trouve désormais une galaxie elliptique.

3 RAISONS DE RÉCOMPENSER CETTE PUBLICATION
Pour la rédaction
- Ces travaux permettent d'identifier pour la première fois le mécanisme à l'origine des flambées d'étoiles. Ce regain de formation stellaire, qu'on observe dans l'Univers proche comme dans l'Univers lointain, se déclenche lorsque deux galaxies entrent en collision.
- Avec une résolution de 3 années-lumière, c'est la simulation numérique la plus précise d'une collision entre deux galaxies : les détails sont dix fois plus fins que dans les simulations précédentes.
- Les auteurs de cette simulation ont pris en compte la physique du milieu interstellaire. De nombreux ingrédients ont été modélisés, y compris le rayonnement émis par les étoiles et leur explosion en supernovae.

 

   DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google