ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

ONDES GRAVITATIONNELLES

 

Paris, 11 février 2016
Les ondes gravitationnelles détectées 100 ans après la prédiction d'Einstein

LIGO ouvre une nouvelle fenêtre sur l'Univers avec l'observation d'ondes gravitationnelles provenant d'une collision de deux trous noirs. Pour la première fois, des scientifiques ont observé des ondulations de l'espace-temps, appelées ondes gravitationnelles, produites par un événement cataclysmique dans l'Univers lointain atteignant la Terre après un long voyage. Cette découverte confirme une prédiction majeure de la théorie de la relativité générale énoncée par Albert Einstein en 1915 et ouvre une toute nouvelle fenêtre sur le cosmos. Les ondes gravitationnelles portent en elles des informations qui ne peuvent pas être obtenues autrement, concernant à la fois leurs origines extraordinaires (des phénomènes violents dans l'Univers) et la nature de la gravitation. La conclusion des physiciens est que les ondes gravitationnelles détectées ont été produites pendant la dernière fraction de seconde précédant la fusion de deux trous noirs en un trou noir unique, plus massif et en rotation sur lui-même. La possibilité d'une telle collision de deux trous noirs avait été prédite, mais ce phénomène n'avait jamais été observé. Ces ondes gravitationnelles ont été détectées le 14 septembre 2015, à 11h51, heure de Paris (9h51 GMT), par les deux détecteurs jumeaux de LIGO (Laser Interferometer Gravitational-wave Observatory) situés aux Etats-Unis – à Livingston, en Louisiane, et Hanford, dans l'Etat de Washington. Les observatoires LIGO sont financés par la National Science Foundation (NSF) ; ils ont été conçus et construits par Caltech et le MIT, qui assurent leur fonctionnement. La découverte, qui fait l'objet d'une publication acceptée par la revue Physical Review Letters, a été réalisée par la collaboration scientifique LIGO (qui inclut la collaboration GEO et l'Australian Consortium for Interferometric Gravitational Astronomy) et la collaboration Virgo, à partir de données provenant des deux détecteurs LIGO. Une centaine de scientifiques travaillant dans six laboratoires associés au CNRS ont contribué à cette découverte, au sein de la collaboration Virgo.
Clin d'œil de l'histoire : c'est 100 ans tout juste après la publication de la théorie de la relativité générale d'Einstein, qu'une équipe internationale vient d'en confirmer l'une des prédictions majeures, en réalisant la première détection directe d'ondes gravitationnelles. Cette découverte se double de la première observation de la « valse » finale de deux trous noirs qui finissent par fusionner.

L'analyse des données a permis aux scientifiques des collaborations LIGO et Virgo d'estimer que les deux trous noirs ont fusionné il y a 1.3 milliard  d'années, et avaient des masses d'environ 29 et 36 fois celle du Soleil. La comparaison des temps d'arrivée des ondes gravitationnelles dans les deux détecteurs (7 millisecondes d'écart) et l'étude des caractéristiques des signaux mesurés par les collaborations LIGO et Virgo ont montré que la source de ces ondes gravitationnelles était probablement située dans l'hémisphère sud. Une localisation plus précise aurait nécessité des détecteurs supplémentaires. L'entrée en service d'Advanced Virgo fin 2016 permettra justement cela.

Selon la théorie de la relativité générale, un couple de trous noirs en orbite l'un autour de l'autre perd de l'énergie sous forme d'ondes gravitationnelles. Les deux astres se rapprochent lentement, un phénomène qui peut durer des milliards d'années avant de s'accélérer brusquement. En une fraction de seconde, les deux trous noirs entrent alors en collision à une vitesse de l'ordre de la moitié de celle de la lumière et fusionnent en un trou noir unique. Celui-ci est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (ici, l'équivalent de 3 soleils, soit une énergie colossale) s'est convertie en ondes gravitationnelles selon la célèbre formule d'Einstein E=mc2. C'est cette bouffée d'ondes gravitationnelles que les collaborations LIGO et Virgo ont observée.

Une preuve indirecte de l'existence des ondes gravitationnelles avait été fournie par l'étude de l'objet PSR 1913+16, découvert en 1974 par Russel Hulse et Joseph Taylor – lauréats du prix Nobel de physique 1993. PSR 1913+16 est un système binaire composé d'un pulsar en orbite autour d'une étoile à neutrons. En étudiant sur trois décennies l'orbite du pulsar, Joseph Taylor et Joel Weisberg ont montré qu'elle diminuait très lentement et que cette évolution correspondait exactement à celle attendue dans le cas où le système perdait de l'énergie sous la forme d'ondes gravitationnelles. La collision entre les deux astres composants le système PSR 1913+16 est attendue dans environ… 300 millions d'années ! Grâce à leur découverte, les collaborations LIGO et Virgo ont pu observer directement le signal émis à la toute fin de l'évolution d'un autre système binaire, formé de deux trous noirs, lorsqu'ils ont fusionné en un trou noir unique.

Détecter un phénomène aussi insaisissable1 que les ondes gravitationnelles aura demandé plus de 50 ans d'efforts de par le monde dans la conception de détecteurs de plus en plus sensibles. Aujourd'hui, par cette première détection directe, les collaborations LIGO et Virgo ouvrent une nouvelle ère pour l'astronomie : les ondes gravitationnelles sont un nouveau messager du cosmos, et le seul qu'émettent certains objets astrophysiques, comme les trous noirs.

Autour de LIGO s'est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. La collaboration inclut environ 250 étudiants qui apportent une contribution significative. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600. L'équipe GEO comprend des chercheurs du Max Planck Institute for Gravitational Physics (Albert Einstein Institute, AEI), de Leibniz Universität Hannover (en Allemagne), ainsi que des partenaires dans les universités de Glasgow, Cardiff,  Birmingham, et d'autres universités du Royaume-Uni, et à l'Université des îles Baléares en Espagne.

Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l'Istituto Nazionale di Fisica Nucleare (INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l'interféromètre Virgo.

A l'origine, LIGO a été proposé comme un moyen de détecter ces ondes gravitationnelles dans les années 1980 par Rainer Weiss, professeur émérite de physique au MIT, Kip Thorne, professeur de physique théorique émérite à Caltech (chaire Richard P. Feynman) et Ronald Drever, professeur de physique émérite à Caltech. Virgo est né grâce aux idées visionnaires d'Alain Brillet et d'Adalberto Giazotto. Le détecteur a été conçu grâce à des technologies innovantes, étendant sa sensibilité dans la gamme des basses fréquences. La construction a commencé en 1994 et a été financée par le CNRS et l'INFN ; depuis 2007, Virgo et LIGO ont partagé et analysé en commun les données collectées par tous les interféromètres du réseau international. Après le début des travaux de mise à niveau de LIGO, Virgo a continué à fonctionner jusqu'en 2011.

Le projet Advanced Virgo, financé par le CNRS, l'INFN et Nikhef, a ensuite été lancé. Le nouveau détecteur sera opérationnel d'ici la fin de l'année. En outre, d'autres organismes et universités des 5 pays européens de la collaboration Virgo contribuent à la fois à Advanced Virgo et à la découverte annoncée aujourd'hui.

En s'engageant depuis plus de vingt ans dans la réalisation de Virgo puis d'Advanced Virgo, la France s'est placée en première ligne pour la recherche des ondes gravitationnelles. Le partenariat noué avec LIGO pour l'exploitation des instruments LIGO et Virgo, qui se traduit par la participation directe de laboratoires français aussi bien à l'analyse des données qu'à la rédaction et à la validation des publications scientifiques, est le prolongement de collaborations techniques très anciennes avec LIGO, ayant conduit par exemple à la réalisation du traitement des surfaces des miroirs de LIGO à Villeurbanne. La publication scientifique des collaborations LIGO et Virgo annonçant leur découverte est cosignée par 75 scientifiques français provenant de six équipes du CNRS et des universités associées :
-    le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris ;
-    le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d'Azur/Université Nice Sophia Antipolis), à Nice ;
-    le Laboratoire de l'accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay ;
-    le Laboratoire d'Annecy-le-Vieux de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy-le-Vieux ;
-    le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris ;
-    le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.

La découverte a été rendue possible par les capacités accrues d'Advanced LIGO, une version grandement améliorée qui accroit la sensibilité des instruments par rapport à la première génération des détecteurs LIGO. Elle a permis une augmentation notable du volume d'Univers sondé – et la découverte des ondes gravitationnelles dès sa première campagne d'observations. La National Science Foundation des Etats-Unis a financé la plus grande partie d'Advanced LIGO. Des agences de financement allemande (Max Planck Society), britannique (Science and Technology Facilities Council, STFC) et australienne (Australian Research Council) ont aussi contribué de manière significative au projet. Plusieurs des technologies clés qui ont permis d'améliorer très nettement la sensibilité d'Advanced LIGO ont été développées et testées par la collaboration germano-britannique GEO. Des ressources de calcul significatives ont été allouées au projet par le groupe de calcul Atlas de l'AEI à Hanovre, le laboratoire LIGO, l'université de Syracuse et l'Université du Wisconsin à Milwaukee. Plusieurs universités ont conçu, construit et testé des composants clés d'Advanced LIGO : l'université nationale australienne, l'université d'Adélaïde, l'université de Floride, l'université Stanford, l'université Columbia de New York et l'université d'Etat de Louisiane.


 DOCUMENT         cnrs        LIEN

 
 
 
 

LES TERRES RARES

 

«La course aux terres rares est stimulée par de nouveaux usages »


entretien - par Propos recueillis par Muriel de Véricourt dans mensuel n°457 daté novembre 2011 à la page 92 (1989 mots) | Gratuit
C'est l'histoire d'un groupe de 17 métaux, les terres rares, enjeu géopolitique tout autant qu'industriel. À quoi servent-elles ? Quelles sont leurs promesses ? Risque-t-on d'en manquer ? Georges Pichon décrypte pour La Recherche les jeux du marché.

LA RECHERCHE : Pourquoi les terres rares intéressent-elles tant de monde ?

GEORGES PICHON : À cause des propriétés chimiques, optiques et magnétiques très intéressantes de ces quinze métaux dont le noyau atomique est constitué d'un nombre de protons compris entre 57 et 71 ils sont regroupés sous le vocable de lanthanides, auxquels il faut ajouter l'yttrium et le scandium, situés dans la même colonne du tableau périodique des éléments. Ces terres dites rares ne le sont pourtant pas : elles sont plutôt bien réparties dans l'écorce terrestre. Par exemple, le cérium, le plus commun d'entre ces métaux, est plus répandu que le cuivre. L'institut d'études géologiques des États-Unis estime que l'écorce terrestre contient 100 millions de tonnes de terres rares, plus de 700 fois la demande actuelle !

Ce sont donc leurs possibles applications qui sont à l'origine de leur popularité...

G.P. Tout à fait, ces éléments chimiques font parler d'eux d'abord parce qu'ils entrent dans la composition de produits de notre quotidien : téléphones portables, téléviseurs, ordinateurs. Mais ils font aussi figure de possibles substituts à l'énergie issue du pétrole. Ils entrent d'ores et déjà dans la fabrication des éoliennes ou des véhicules hybrides. D'autres utilisations, enfin, n'existent pas encore mais pourraient être gourmandes en terres rares si certaines technologies décollaient. C'est par exemple le cas des réfrigérateurs ou des climatiseurs sans fluides frigorigènes. Au total, compte tenu de ce que l'on fabrique actuellement, la demande en terres rares est environ de 136 000 tonnes par an.

Ce niveau élevé est-il en augmentation ?

G.P. Oui, le nombre d'applications ne cesse de croître, à tel point que certains spécialistes n'hésitent pas à parler d'« addiction » aux terres rares. En 2000, la production mondiale n'excédait pas 80 000 tonnes par an. En 2014, on estime qu'elle pourrait être de plus de 203 000 tonnes ! Cette tendance à la hausse n'est pas nouvelle. Ces métaux, découverts entre la fin du XIXe siècle et le début du XXe siècle, ont en effet toujours intéressé les industriels. Les premières applications remontent à la fin du XIXe siècle : il s'agissait d'utiliser le cérium pour fabriquer des becs de gaz destinés à l'éclairage public. Puis on s'est mis à fabriquer des pierres à briquet, utilisant la capacité des terres rares à s'enflammer au contact de l'air. Ces métaux ont ensuite été utilisés pour polir et décolorer le verre par oxydation : c'est une application qui continue encore aujourd'hui à tirer la demande à la hausse, du fait de l'augmentation des surfaces vitrées dans le monde. Les terres rares se sont également imposées dans les opérations de traitement de la fonte et de l'acier, une pratique qui consomme encore aujourd'hui plus d'un quart de la production mondiale.

Qu'en est-il des nouveaux usages ?

G.P. À partir des années 1990, l'industrie électronique est devenue utilisatrice, propulsant le Japon au premier rang des consommateurs de ces métaux. Dix ans plus tard, le secteur de l'énergie s'est à son tour emparé de ces éléments chimiques. Notamment de l'un d'entre eux, le néodyme, qui entre dans la composition des aimants très puissants utilisés dans les éoliennes et les moteurs de véhicules hybrides. Aujourd'hui, l'amélioration du niveau de vie partout dans le monde stimule à la fois l'augmentation des usages traditionnels et la multiplication des applications de haute technologie. La hausse de la demande est, on l'a compris, un phénomène de longue date. Ce qui est nouveau, donc, c'est plutôt l'impression, au vu des positions chinoises, que cette demande pourrait un jour devenir difficile à satisfaire.

Quel est le problème avec la Chine ?

G.P. La Chine, qui produit et commercialise 95 % des terres rares dans le monde, limite ses exportations depuis 2004. À mon avis, l'objectif est d'inciter les nombreux industriels utilisateurs de ces matières premières à venir s'installer sur place. Quoi qu'il en soit, l'Organisation mondiale du commerce vient de condamner le protectionnisme chinois. Officiellement, pas pour les terres rares. Mais, selon les analystes, il s'agit bel et bien d'un avertissement. En effet, le motif de condamnation concerne l'adoption récente d'une politique agressive de restriction des exportations sous prétexte de protection de l'environnement. Cela s'applique, entre autres, aux terres rares.

Comment s'explique la position hégémonique de la Chine ?

G.P. Plusieurs pays disposent d'importantes ressources en terres rares, mais la Chine est quasi la seule à les exploiter aujourd'hui. Cette situation est très récente, et personne n'a su la prévoir. Dans les années 1970, les États-Unis étaient le premier producteur mondial, grâce à une mine située à Mountain Pass, en Californie. La Chine a commencé à produire en 1984, dans l'indifférence générale, car les terres rares étaient à l'époque une ressource peu coûteuse et largement disponible. Du fait du faible niveau de salaires et de l'absence de réglementation environnementale contraignante, génératrice de surcoûts dans les pays industrialisés, la production chinoise a progressivement supplanté toute concurrence. La mine californienne a fini par fermer en 2002. Depuis, la plus grande partie des volumes échangés provient d'un seul centre de traitement situé à Baotou, en Mongolie-Intérieure, à côté de la mine de Bayan Obo, qui renferme 600 millions de tonnes de minerais contenant 5 % d'oxydes de terres rares. Les industriels du monde entier s'accommodaient parfaitement de cette situation tant que les prix étaient bas. D'autant plus que l'extraction des terres rares est une industrie polluante, car les minerais qui en contiennent renferment aussi des éléments radioactifs, à savoir du thorium-232, de l'uranium-238 et leurs produits de filiation.

La tension géostratégique actuelle conduit-elle les industriels à réfléchir à une diversification de leurs approvisionnements ?

G.P. C'est certain, plusieurs sociétés minières ont remis en service des gisements délaissés quelques années auparavant. C'est le cas de la mine de Mountain Pass, remise en exploitation en 2010, qui a déjà produit 1 000 tonnes. La société Molycorp, qui exploite ce gisement, indique vouloir produire 20 000 tonnes par an à partir de 2012. De son côté, la compagnie minière Lynas a ouvert une mine en Australie. Celle-ci devrait commencer à produire d'ici à la fin de l'année et fournir 22 000 tonnes par an fin 2012. Mais ces projets se heurtent à de nombreux obstacles. Ainsi, la société Lynas espérait envoyer ses produits d'extraction en Malaisie pour qu'ils y soient raffinés. Mais la population malaise menace de se mobiliser contre la perspective de rejets radioactifs sur son territoire... Face à ces difficultés, l'accent est également mis sur la recherche de nouveaux gisements prometteurs. De nombreuses sociétés minières, épaulées par des géologues, en recherchent en ce moment, notamment en Finlande, aux États-Unis et sur le continent africain. Je n'ai encore vu passer aucune annonce qui fasse état de découvertes en Afrique susceptibles de bouleverser l'économie des terres rares, mais je parierais volontiers que cela arrivera.

Un moyen d'apaiser le marché est d'économiser le matériau. Peut-on recycler les terres rares ?

G.P. Beaucoup de chercheurs y travaillent. Le groupe de chimie Rhodia, qui exploite et transforme des terres rares importées de Chine dans son usine de La Rochelle, est particulièrement actif. L'enjeu est de mettre au point des procédés métallurgiques d'extraction des terres rares à partir d'un produit de recyclage, et ce à un prix acceptable. Ces efforts aboutiront sans doute au cours des prochaines années. Les chimistes travaillent aussi à la mise au point de procédés plus économes, pour exploiter au mieux une ressource dont le prix flambe.

La substitution par d'autres composés est-elle possible ?

G.P. Des recherches intensives sont menées sur le sujet, notamment au Japon et en Allemagne, mais les résultats sont pour l'instant décevants. Certaines caractéristiques des terres rares, comme leurs propriétés magnétiques liées à leur structure électronique particulière, les rendent difficilement remplaçables. De plus, la volonté de s'affranchir de ces matières premières se heurterait dans bien des cas à la rigidité des filières industrielles. Les producteurs de verre, par exemple, sont peu enclins à modifier leur équipement. Pour l'instant, ils préfèrent payer davantage, car ce surcoût reste marginal dans le produit final. En revanche, les secteurs qui ne sont pas encore rentables, comme la production d'énergie sans pétrole, pourraient abandonner les recherches autour de technologies utilisatrices de terres rares si celles-ci ne sont pas disponibles à un coût acceptable.

C'est donc un problème de prix...

G.P. Absolument, les acteurs de ce marché ne croient pas au risque de pénurie. Le battage autour de la situation commerciale actuelle donne au grand public l'impression que la ressource en terres rares est sur le point de s'épuiser. En fait, ce n'est pas le cas. On connaît d'ailleurs de nombreux gisements de terres rares répartis dans le monde, entre autres en Finlande, au Vietnam, aux États-Unis, au Canada et en Allemagne.

De plus, les efforts de prospection devraient conduire à en identifier de nouveaux et à évaluer si leur exploitation est envisageable et peut être rentable.

Mais peut-on au moins connaître le montant des réserves disponibles ?

G.P. Cette information est gardée comme un secret d'État par les Chinois. Et ils ont intérêt à mentir ! Ailleurs dans le monde, ces renseignements seraient plus facilement disponibles... s'ils n'étaient pas couverts par le secret industriel. Toutefois, les exploitants sont obligés de communiquer lorsqu'ils recherchent des financements pour exploiter un nouveau gisement. Cotés en Bourse, ils ne peuvent pas se permettre de distiller des données fantaisistes. Quoi qu'il en soit, la principale raison pour laquelle l'information est aujourd'hui lacunaire, c'est que jusqu'ici personne ne s'intéressait à ces matières premières peu coûteuses. En raison de la tension actuelle sur ce marché, les industriels et les États aimeraient aujourd'hui y voir plus clair et disposer d'une cartographie détaillée des ressources.

Quelle est l'importance de l'expertise scientifique dans ce travail de recension ?

G.P. L'apport des géologues est capital non seulement pour identifier les gisements mais aussi pour déterminer la teneur des minerais en telle ou telle espèce chimique. En effet, la composition exacte des produits d'extraction varie d'une mine à l'autre. Cela importe peu pour certains usages, liés aux propriétés chimiques voisines des dix-sept terres rares, qui peuvent donc être utilisées sous forme de mélange. Mais c'est au contraire très important pour les applications qui misent sur les propriétés magnétiques ou optiques propres à l'un ou l'autre de ces dix-sept éléments. La composition exacte du minerai d'un gisement est donc une information sensible, qui reste secrète. L'expertise des géologues permet de décrypter les données qui sont rendues publiques.

On a récemment découvert d'importants gisements sous-marins dans l'océan Pacifique. Cela change-t-il la donne ?

G.P. La mise en évidence par une équipe de scientifiques japonais de terres rares dans des boues prélevées à plusieurs milliers de mètres au fond dans l'océan Pacifique n'est pas véritablement une surprise : l'existence de ressources sous-marines était déjà connue. C'est avant tout un effet d'annonce, à replacer dans le contexte de la tension diplomatique entre la Chine et le Japon. L'industrie électronique japonaise, qui exporte ses productions dans le monde entier, consomme les deux tiers des terres rares exportées par les Chinois, sans disposer d'aucune ressource productive et se trouve donc en état de totale dépendance. Cette « découverte » est à classer parmi les arguments avancés pendant une négociation commerciale...

Apprendre à extraire une telle ressource sous-marine n'est donc pas envisageable ?

G.P. Personne ne peut répondre à cette question aujourd'hui. Pour trancher, il faudrait y consacrer beaucoup de temps et de moyens. Cette affaire rappelle l'engouement, depuis la fin des années 1970, pour les nodules polymétalliques, ces concrétions rocheuses présentes à plusieurs milliers de mètres de profondeur sous les océans, dont on pensait pouvoir extraire des métaux. Leur exploitation n'a pas, depuis, fait la preuve de sa rentabilité. Ce précédent devrait inciter à la prudence. Pour ma part, je ne crois pas que ces « gisements » de terres rares seront exploités dans les cinquante prochaines années, s'ils le sont jamais.

Par Propos recueillis par Muriel de Véricourt

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES HORLOGES ATOMIQUES ...

 

Les horloges atomiques montent en fréquence


palmarès - par Antoine Cappelle dans mensuel n°483 daté décembre 2013 à la page 50 (2032 mots) | Gratuit
Le temps va-t-il changer ? Il semble en tout cas compté désormais pour la référence actuelle de la seconde, fondée depuis 1967 sur des mesures réalisées avec une horloge atomique au césium. Cette année des physiciens ont en effet montré qu'un autre type d'horloges atomiques, les horloges atomiques optiques à atomes neutres, sont plus performantes.

En juillet, Rodolphe Le Targat, Jérôme Lodewyck et leurs collègues du laboratoire Systèmes de référence temps-espace (LNE-Syrte) de l'Observatoire de Paris, ont établi que leurs horloges atomiques au strontium délivrent une fréquence définie avec une marge d'erreur de seulement une unité sur le seizième chiffre significatif, soit une incertitude de 10-16 [1]. C'est mieux que les meilleures horloges au césium, dont l'incertitude est de 2 x 10-16. Puis, en septembre, une équipe américano-italienne a présenté ses résultats sur la stabilité de ses deux horloges atomiques à l'ytterbium : en sept heures de fonctionnement, leurs fréquences ne diffèrent que de 1,6 x 10-18 [2].

Toutes les horloges atomiques reposent sur le même principe, qui est l'un des fondements de la mécanique quantique : l'énergie d'un atome est quantifiée. Elle ne varie pas de façon continue, mais par paliers. Les physiciens parlent des états d'énergie de l'atome. Ils sont bien définis et propres à chaque élément chimique.

Atomes et photons
Le passage d'un atome d'un état à un autre est associé à l'absorption ou à l'émission d'un photon, dont l'énergie correspond à la différence entre celle des deux états. Les différents éléments possédant des états répartis de façon spécifique, ils absorbent et émettent des photons chacun à des énergies, donc à des fréquences*, particulières.

Les horloges atomiques au césium, mises au point au milieu des années 1950, ont ainsi pour référence un changement d'état énergétique correspondant à un rayonnement électromagnétique à 9,2 gigahertz, dans le domaine des micro-ondes. La seconde est définie aujourd'hui par le Bureau international des poids et mesures comme la durée de 9,2 milliards d'oscillations de l'onde correspondante. Les horloges atomiques optiques, elles, se fondent sur des changements d'états correspondant à des fréquences environ 100 000 fois plus élevées, dans le domaine de la lumière visible.

En pratique, comment procède-t-on ? Prenons l'exemple de l'horloge au strontium. Un four vaporise cet élément, dont environ 10 000 atomes sont injectés dans une enceinte sous vide, ralentis puis confinés dans un « piège optique », réalisé à l'aide d'un laser. Pour les amener tous au niveau d'énergie interne choisi, le niveau « fondamental », on envoie une première impulsion lumineuse avec un laser de lumière rouge, à une longueur d'onde de 689 nanomètres. C'est ce que l'on appelle le « pompage optique » [fig. 1].

Un second laser, le « laser d'horloge », émet alors vers les atomes de strontium une impulsion lumineuse d'une longueur d'onde de 698 nanomètres. Cette longueur d'onde correspond à la fréquence caractéristique de la transition, environ 4,3 x 1014 hertz. Les atomes sont ainsi placés dans une superposition de l'état fondamental et de l'état d'énergie supérieur, l'« état excité ».

La superposition est une autre caractéristique du monde quantique. Tant que l'on ne mesure pas l'état de chaque atome, celui-ci est une combinaison des deux états possibles. On ne peut connaître cet état que statistiquement, en mesurant un grand nombre d'atomes, ou un grand nombre de fois un seul atome.

C'est l'étape de comptage qui fait basculer les atomes dans un état ou dans l'autre. On la réalise en envoyant sur le nuage atomique une impulsion laser d'une longueur d'onde de 461 nanomètres (une lumière bleue). Celle-ci induit en outre un phénomène de fluorescence des atomes qui sont revenus dans l'état fondamental : ils absorbent et réémettent chacun des photons, ce qui les éjecte du piège optique. Un détecteur mesure la lumière de fluorescence, dont l'intensité est proportionnelle au nombre d'atomes impliqués.

Ajustement progressif
Les atomes qui ont basculé dans l'état excité sont ramenés à l'état fondamental par les impulsions couplées de deux lasers rouges, à 679 et 707 nanomètres de longueur d'onde. Et, à leur tour, ils sont comptés par fluorescence. Au départ, la fréquence du laser d'horloge n'est jamais centrée exactement sur la fréquence de transition des atomes. Mais la proportion d'atomes passant dans l'état excité est d'autant plus grande que la fréquence s'approche de la bonne valeur. Un dispositif informatique calcule donc cette proportion à partir des deux mesures et en déduit la correction à apporter à la fréquence du laser d'horloge.

Cet ajustement est effectué par un modulateur acousto-optique, système mélangeant la fréquence d'une onde sonore à celle du signal lumineux. Un nouveau cycle de mesure est alors entamé, avec une fréquence du laser d'horloge légèrement différente. L'opération est reproduite toutes les 0,7 seconde, afin, en excitant de plus en plus d'atomes, de rapprocher par ajustements successifs la fréquence du laser de celle de la transition du strontium.

La pureté du spectre de fréquence du laser d'horloge est décisive. « Un laser émet généralement sur une bande de fréquence large d'une centaine de kilohertz, indique Rodolphe Le Targat. Ce n'est pas assez bon pour sonder la transition atomique d'une horloge optique. Pour limiter cet étalement en fréquence, le bruit, nous utilisons donc une cavité de référence ultra-stable. » Ce système, constitué de deux miroirs, engendre un phénomène de résonance afin de privilégier une fréquence particulière. La bande de fréquence du laser est ainsi réduite à une fraction de hertz. « Malgré cela, nous devons renouveler sans cesse les cycles de détection, afin d'éviter que la fréquence du laser ne dérive, explique le physicien. Sans cela, il sortirait en quelques secondes de la bande de fréquence de transition atomique, en raison de sa largeur spectrale et des variations de la cavité ultra-stable. »

En fonctionnement stabilisé, on obtient donc pour le laser d'horloge une fréquence bien définie. Avec les horloges atomiques optiques, cette fréquence est, on l'a vu, environ 100 000 fois plus élevée qu'avec une horloge au césium. Ces oscillations plus rapides permettent de subdiviser la seconde en plus petites fractions, et donc de la caractériser avec une meilleure précision.

Toutefois, la valeur de la fréquence n'est pas le seul paramètre important. Car la fréquence entraînant le changement d'énergie des atomes a, elle aussi, une largeur spectrale. « Certaines transitions peuvent être déclenchées dans des bandes de fréquence de quelques mégahertz de large, précise Rodolphe Le Targat. Ce qui correspond à l'incertitude avec laquelle l'horloge pourrait se caler sur cette fréquence. C'est pourquoi nous travaillons, comme d'autres groupes de recherche, sur une transition du strontium dont la largeur spectrale est de 1 millihertz. »

Par ailleurs, la sensibilité des atomes au rayonnement du laser d'horloge peut être altérée par de nombreux paramètres. Notamment, leurs mouvements dans la direction du faisceau du laser d'horloge modifient la façon dont ils le perçoivent. C'est l'effet Doppler : lorsqu'un atome s'éloigne de la source de lumière, la fréquence de celle-ci lui apparaît plus petite ; s'il s'en rapproche elle lui paraît plus grande. Ce phénomène peut donc être une source d'erreur.

Atomes immobilisés
Pour la réduire, les physiciens restreignent les mouvements des atomes à l'aide d'un « réseau optique ». Ils utilisent l'interaction entre les atomes et la lumière d'un laser infra-rouge produisant une onde stationnaire : ses minimas et maximas d'intensité lumineuse ne se propagent pas. Cette onde agit comme un piège pour les atomes, qui sont attirés par les maximas, répartis tous les 400 nanomètres environ.

Pour évaluer les performances réelles d'une telle horloge, il faut les comparer à celles d'une autre horloge aux performances équivalentes. C'est pourquoi les physiciens du LNE-Syrte ont construit deux horloges au strontium indépendantes. Ils ont ainsi montré que les fréquences produites par ces deux horloges sont en accord avec une incertitude de 1,5 x 10-16 [fig. 2]. « C'est mieux que l'incertitude sur la définition actuelle de la seconde, se réjouit Rodolphe Le Targat. Nous n'étions pas encore certains que des horloges optiques à atomes neutres pourraient dépasser les horloges au césium, mais nos travaux l'ont confirmé. » Même si cette performance n'égale pas le record absolu (lire « L'horloge la plus exacte »)

Le principal facteur empêchant les horloges du LNE-Syrte d'être encore plus précises est connu. « Le rayonnement thermique de l'appareillage entraîne un léger déplacement des états d'énergie des atomes, et donc de la fréquence de transition au sein du nuage de gaz. Mais ce phénomène n'est pas homogène dans l'espace autour des atomes, il est donc difficile de connaître exactement son influence », détaille Rodolphe Le Targat. Pour contourner cette limite, les chercheurs travaillent à réduire la puissance thermique dissipée, et à isoler leur enceinte du four produisant la vapeur de strontium. Ils visent la division par 10 des fluctuations de température ressenties par les atomes de strontium.

De façon générale, plus les horloges gagnent en exactitude, plus elles révèlent de nouveaux phénomènes qui influencent leur précision. Ainsi, le potentiel gravitationnel de la Terre doit maintenant être pris en compte. Lui aussi modifie la fréquence de transition : une différence de hauteur de 1 mètre change le seizième chiffre significatif de la fréquence de l'horloge.

En parallèle, les physiciens essaient aussi d'améliorer un autre critère de qualité : la stabilité de l'horloge au cours du temps, qui définit la régularité de la fréquence du laser d'horloge. Plusieurs sources de bruit viennent perturber la mesure de cette fréquence, mais elles peuvent être minimisées en moyennant la fréquence sur une longue durée. En une seconde de fonctionnement, les horloges au strontium du LNE-Syrte affichent une stabilité de 2 x 10-15 : c'est-à-dire que la fréquence ne varie que de 2 x 10-15 entre deux intervalles successifs d'une seconde.

Stabilité du temps
Les meilleures horloges au césium, elles, parviennent à une instabilité de l'ordre de 10-14 sur une seconde, et atteignent 10-16 après plusieurs jours de fonctionnement. Mais une équipe de physiciens américains et italiens a dépassé ce record, en obtenant une stabilité de 1,6 x 10-18 en seulement 7 heures, avec une horloge atomique optique à l'ytterbium. Celle-ci, avec une fréquence de référence de 5,2 x 1014 hertz, soit 578 nanomètres, est aussi une excellente candidate comme étalon de fréquence.

Mais dans ce domaine, la lumière jaune, les lasers disponibles aujourd'hui sont moins performants que dans le rouge. La qualité de celui qu'ont utilisé les physiciens a donc joué un rôle important dans leur réussite. « Pour obtenir un rayonnement à la bonne longueur d'onde, nous avons mélangé les fréquences de deux lasers », raconte Andrew Ludlow, de l'Institut américain des normes et des technologies, qui a participé à l'étude. « La fréquence obtenue est très stable, avec peu de bruit, ce qui nous a permis d'interagir avec les atomes sans compromettre la stabilité de l'horloge. »

Le bruit du laser, c'est-à-dire la présence de fréquences non souhaitées, est la principale limite à la stabilité. L'une des solutions pour le minimiser est d'allonger le temps d'utilisation du laser d'horloge tout en minimisant la durée des autres étapes. « Des mesures plus longues pourraient améliorer la stabilité, mais ce n'est pas certain », prévient Andrew Ludlow. « Car d'autres effets systématiques pourraient avoir une influence à long terme. »

La limite fondamentale à la stabilité des horloges atomiques devrait être le « bruit de projection quantique », phénomène intrinsèque aux atomes. Il découle de la superposition de deux états d'énergie dans laquelle les place l'impulsion du laser d'horloge. La mesure de l'état d'énergie des atomes, lors de l'étape de comptage, les « projette » dans un état donné. Cela produit une incertitude sur la mesure, auquel les chercheurs seront confrontés lorsqu'ils auront encore progressé. Son influence pourrait être minimisée par la mesure des états d'un grand nombre d'atomes simultanément, comme le font les horloges à atomes neutres.

Les horloges atomiques ont donc encore une marge de progression pour les prochaines années. « L'exactitude devrait progresser d'un ordre de grandeur d'ici à un ou deux ans », prévoit Rodolphe Le Targat. Pour la stabilité, selon Andrew Ludlow, « il est possible d'atteindre les 10-18 sur une mesure d'une seconde. Mais ce ne sera pas facile. » Ces améliorations devraient permettre de définir quelle technologie d'horloge optique serait à la fois la plus exacte et la plus stable, et donc le meilleur choix pour une nouvelle référence internationale aussi durable que celle qui a court aujourd'hui.

Par Antoine Cappelle

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
 

FAIRE DE LA LUMIÈRE AVEC DU SON ...

 


Comment faire de la lumière avec du son


sonoluminescence et fusion nucléaire - par Sascha Hilgenfeldt, Detlef Lohse dans mensuel n°354 daté juin 2002 à la page 22 (3384 mots) | Gratuit
Curiosité de laboratoire, la sonoluminescence, production de lumière dans une bulle de gaz comprimée par des ultrasons, a suscité depuis une douzaine d'années les théories les plus exotiques. Des expériences très précises et la conjugaison de connaissances provenant de différents domaines de la physique ont toutefois permis de dissiper la plus grande partie du mystère.

Nous avons tous, un jour ou l'autre, assisté à un orage. Nous avons vu, de plus ou moins près, tomber la foudre, en même temps que nous l'entendions. Un phénomène unique, la circulation dans l'air d'un courant électrique, produit simultanément de la lumière l'éclair et du son le tonnerre. Tout un chacun peut d'ailleurs se prendre, à petite échelle, pour Jupiter, et reproduire l'expérience dans sa cuisine à l'aide d'un allume-gaz, qui crépite en même temps qu'il produit des étincelles.

Pourtant, le son et la lumière sont de nature complètement différente. Ils sont tous deux transportés par des ondes, mais l'éclair nous arrive un million de fois plus vite que le tonnerre. En outre, la longueur d'onde de la lumière visible environ 0,5 micromètre est au moins mille fois plus petite que celle du son. Et, surtout, la densité d'énergie transportée par une onde lumineuse est 1 000 milliards de fois supérieure à celle d'une onde sonore ou ultrasonore* ordinaire.

Eclair lumineux. Comment imaginer alors qu'une onde sonore puisse fournir assez d'énergie pour produire de la lumière ? C'est pourtant ce qu'ont observé, au début des années 1930, des physiciens de l'université de Cologne, en Allemagne. Lorsqu'ils envoyaient des ultrasons dans de l'eau, des bulles se formaient, ce qui n'était pas très surprenant : ce phénomène, nommé « cavitation », était bien connu depuis longtemps. Mais les bulles émettaient de la lumière ! Cette « sonoluminescence » était toutefois difficile à détecter, car la lumière était peu intense. Elle resta donc une curiosité de laboratoire. D'autant que les bulles se formaient à des positions aléatoires, produisaient une impulsion lumineuse et disparaissaient. Impossible de concentrer les observations sur une seule bulle pour étudier en détail le mécanisme d'émission !

La plupart des physiciens refusaient même de croire à la réalité de la sonoluminescence. L'énorme concentration d'énergie nécessaire pour engendrer de la lumière à partir d'ultrasons était obtenue par des moyens si simples que cela semblait suspect. La suite montra qu'ils avaient tort : l'implosion rapide d'une petite bulle de gaz peut produire des températures et des pressions suffisantes pour engendrer un bref éclair lumineux.

Monobulle. Est-ce à cause de ce scepticisme ? L'étude de la sonoluminescence ne commença véritablement qu'en 1989. Felipe Gaitan, qui préparait sa thèse sous la direction de Lawrence Crum, à l'université du Mississippi, réussit en effet cette année-là à observer et à contrôler la sonoluminescence avec une seule bulle. A l'aide d'une onde ultrasonore stationnaire, il piégeait une bulle d'air micrométrique au centre d'une petite bouteille d'eau, et il la faisait imploser en produisant un éclair lumineux. En outre, contrairement à ce qui se passait pour la sonoluminescence « multibulle », cette sonoluminescence « monobulle » était stable : l'implosion ne détruisait pas la bulle et se répétait à chaque cycle de l'onde ultrasonore, c'est-à-dire environ 20 000 fois par seconde1.

La lueur bleuâtre émise par ces implosions, semblable à une étoile dans le ciel nocturne, était visible à l'oeil nu. En étudiant la diffusion d'un faisceau laser sur la bulle*, F. Gaitan et ses collègues déterminèrent les variations du rayon de celle-ci en fonction du temps. Au cours de chaque période d'excitation par les ultrasons, la bulle gonflait d'abord assez longuement, puis elle se contractait très rapidement. Le cycle se terminait par une succession de rebonds fig. 1.

Peu après la découverte de F. Gaitan, de nombreuses équipes s'intéressèrent à ce phénomène fascinant. Notamment, dans les cinq années qui suivirent, des expériences très minutieuses de l'équipe de Seth Putterman, de l'université de Californie à Los Angeles, apportèrent quelques surprises2. D'abord, la stabilité de l'émission lumineuse dépend très étroitement de la quantité de gaz dissous dans le liquide et du mélange de gaz utilisé. En particulier, l'émission n'est stable que si ce mélange contient un gaz rare*. Ensuite, contrairement à ce que l'on observe dans la sonoluminescence « multibulle », la lumière est émise sur une plage continue de longueurs d'onde, et pas sous forme de raies à des longueurs d'onde précises. L'intensité de cette émission est d'ailleurs maximale dans l'ultraviolet, d'où sa teinte bleuâtre. Enfin, en 1992, S. Putterman et ses collègues affirmèrent que la durée de chaque éclair lumineux était bien inférieure à 50 picosecondes* !

Deux catégories d'explications. Cet ensemble de résultats étranges engendra pléthore de théories explicatives. En 1996, lors du congrès annuel de la Société d'acoustique des Etats-Unis, à Honolulu, une conférence consacrée à la sonoluminescence se déroula dans le désordre le plus complet. Les propositions étaient si diverses qu'on ne trouvait pas deux théoriciens qui réussissaient à se mettre d'accord. Quant aux expérimentateurs, aucune théorie ne leur convenait ! Robert Apfel, de l'université Yale, qui présidait cette session, somma alors les théoriciens de rassembler dans un tableau les points fondamentaux de leurs théories et leurs principales prédictions, afin que l'on puisse s'y retrouver et faire des comparaisons sensées.

Ce travail fait, on s'aperçut que la plupart des explications tombaient dans deux grandes catégories3 : celles qui faisaient appel à une décharge électrique et celles qui attribuaient une origine thermique à l'énergie lumineuse. La brièveté des éclairs, suggérée par S. Putterman, avait aussi suscité d'autres explications plus exotiques, de la « fractoluminescence » à la « flexoélectricité », en passant par le « rayonnement du vide quantique ». Certains évoquaient même, déjà, la fusion nucléaire !

Quelle était la bonne théorie ? Cette même année 1996, nous avons justement commencé à nous intéresser à la sonoluminescence. Nous avons repris le problème à sa base, en étudiant d'abord la stabilité remarquable de la bulle. Pourquoi ne disparaît-elle pas lorsqu'elle implose, comme celles de la sonoluminescence « multibulle » ?

Fort heureusement, nous ne partions pas de zéro : la dynamique des bulles dans l'eau avait déjà fait l'objet de nombreux travaux. Dès 1917, Lord Rayleigh* avait décrit les contractions des bulles de cavitation qui se forment dans les zones de basse pression derrière les hélices des bateaux : leur comportement était proche de celui décrit par F. Gaitan. La dynamique de Rayleigh avait ensuite été reprise et étendue pour toutes sortes de bulles oscillantes, notamment en 1977, par Andrea Prosperetti, de l'université Johns Hopkins, à Baltimore4.

Ces travaux fournissaient un premier niveau de réponse à notre question : comme l'onde stationnaire autour de la bulle a une géométrie quasi sphérique, et n'excite que des vibrations radiales, une bulle sphérique ne peut pas se briser en plusieurs petites bulles. En revanche, si la forme de la bulle s'écarte trop de la sphère, en d'autres termes si les petites instabilités, inévitables, sont trop amplifiées, alors la bulle est détruite. Cela se produit, à une fréquence d'excitation donnée, si l'intensité des ultrasons ou la taille de la bulle au repos dépassent certains seuils. En deçà, la bulle reste sphérique, implosion après implosion5.

Toutefois, même si l'on choisit correctement l'amplitude des ultrasons et la taille de la bulle, deux autres phénomènes contribuent à faire disparaître cette dernière. D'abord, la tension de surface* d'une bulle au repos ou faiblement excitée est responsable de la dissolution progressive de son contenu gazeux dans le liquide qui l'entoure. La pression du côté convexe de la surface à l'intérieur de la bulle est en effet plus grande que du côté concave dans l'eau : le gaz a donc tendance à sortir de la bulle, qui rétrécit jusqu'à disparaître. A l'opposé, une bulle fortement excitée bénéficie d'une « diffusion rectifiée » : chaque fois qu'elle se dilate, la pression baisse fortement à l'intérieur, et une petite quantité de gaz dissous dans le liquide y pénètre, augmentant ainsi sa taille au repos.

Recherche de stabilité. La bulle ne conserve donc sa taille initiale que si ces mécanismes s'équilibrent mutuellement : elle ne se dissout pas et ne grossit pas non plus jusqu'à une taille où les instabilités seraient trop grandes et la briseraient lors de son implosion. En tenant compte des deux phénomènes de diffusion antagonistes, nous avons calculé un diagramme indiquant, en fonction de l'amplitude des ultrasons, à quelles concentrations de gaz dissous et à quelles amplitudes de pression on devrait observer une bulle stable fig. 2.

Ce diagramme montre que la stabilité est impossible à atteindre si le gaz présent dans la bulle est aussi dissous dans l'eau en trop grande quantité : on ne doit pas en laisser plus de 1 % de sa concentration de saturation, faute de quoi la bulle disparaît assez vite. Après avoir fait ce constat, nous nous sommes demandé comment F. Gaitan avait pu observer une sonoluminescence stable avec une bulle d'air. En effet, il avait bien dégazé son eau au préalable, mais jusqu'à 20 % ou 40 % de la concentration de saturation seulement. Selon nos calculs, l'eau contenait donc environ cent fois trop d'air : la bulle aurait dû se désintégrer en quelques fractions de seconde !

D'ailleurs, heureusement que F. Gaitan n'avait pas calculé ce diagramme avant d'entreprendre ses expériences : le dégazage de l'eau à moins de 1% d'air nécessite des techniques perfectionnées dont il ne disposait pas. S'il avait étudié scrupuleusement la théorie, il n'aurait sans doute pas découvert la sonoluminescence monobulle !

En 1997, nous avons résolu cette énigme, en même temps que nous avons expliqué des résultats obtenus avec différents gaz par S. Putterman et ses collègues. En 1994, ces derniers avaient en effet tenté d'obtenir la sonoluminescence avec des bulles contenant séparément les différents constituants de l'air. Mais le phénomène n'était pas stable avec de l'oxygène ou de l'azote purs, ni avec un mélange des deux dans les mêmes proportions que dans l'air. Seules les bulles contenant des gaz rares émettaient durablement de la lumière. Ils en avaient conclu, mais sans aller plus loin, que c'était la petite proportion d'argon dans l'air environ 1 % qui stabilisait la sonoluminescence.

L'explication qui nous vint naturellement à l'esprit pourquoi personne n'y avait pensé avant nous ? était que, pendant l'implosion, la température s'élève tellement dans la bulle que les molécules d'oxygène et d'azote se dissocient. Les atomes ainsi formés réagissent chimiquement avec la vapeur d'eau présente dans la bulle, et les gaz correspondants sont progressivement évacués de celle-ci. Dans tous les cas, si une bulle renferme au départ un mélange de gaz, après plusieurs cycles d'oscillation elle ne contient plus que ceux qui ne se dissocient pas, même à très haute température, autrement dit les gaz rares. Cette hypothèse de dissociation a été confirmée depuis par un grand nombre d'expériences, notamment celles de Thomas Matula et Lawrence Crum, de l'université de Washington, en 19986.

La bulle d'air initiale est donc rapidement transformée en bulle d'argon pur. En ne laissant dans l'eau que 20 à 40 % d'air par rapport à la concentration de saturation de gaz, F. Gaitan avait donc en fait réduit la concentration de l'argon, qui entre à hauteur de 1 % dans la composition de l'air, entre 0,2 % et 0,4 % de la concentration de saturation. Coup de chance : c'était précisément dans la plage de concentration où la bulle est stable.

Coup de chance supplémentaire : la stabilité de la bulle, condition nécessaire à l'existence de la sonoluminescence, est aussi une condition suffisante. Des expériences menées par Glynn Holt et F. Gaitan7, alors à Caltech, ont permis de vérifier que la plage de stabilité de la sonoluminescence correspond assez bien à la plage de stabilité de la bulle sur notre diagramme théorique8. Seules des amplitudes des ultrasons comprises entre 1,2 et 1,5 fois la pression ambiante permettent la stabilité. Si la pression est plus faible, la bulle n'implose pas assez vite ; elle est détruite si la pression est plus grande.

La compréhension de la dynamique des parois de la bulle n'éclaircissait toutefois pas la physique qui se déroulait à l'intérieur : le problème le plus compliqué restait entier. Heureusement, une nouvelle expérience vint nous indiquer la direction dans laquelle nous devions chercher.

Durée de l'éclair. En 1997, Bruno Gompf et son équipe de l'université de Stuttgart mesurèrent pour la première fois précisément la durée de l'éclair lumineux9. A la surprise générale, ces expériences montraient sans ambiguïté que la durée des éclairs était de 100 à 300 picosecondes, beaucoup plus que ce que l'on pensait jusque-là. Cette durée n'était pas si différente de celle de l'implosion de la bulle, de l'ordre de la nanoseconde. Cela laissa espérer que l'on pourrait expliquer l'émission lumineuse par un mécanisme physique classique, un échauffement lié à la compression de la bulle. L'élaboration de théories exotiques, destinées à expliquer des éclairs beaucoup plus courts que l'implosion elle-même, devenait du même coup inutile.

En outre, nos résultats sur la dynamique de la bulle disqualifiaient les théories faisant appel à des décharges électriques. Nous l'avons vu, seules les bulles parfaitement sphériques sont stables et produisent la sonoluminescence pendant de longues durées. Or, des décharges électriques ne peuvent produire de la lumière que dans des systèmes dissymétriques. Il devint alors évident pour nous qu'une émission thermique était à l'origine de la sonoluminescence.

Tous les problèmes n'étaient pas réglés pour autant. En particulier, l'équipe de B. Gompf avait mesuré que l'éclair durait aussi longtemps à toutes les longueurs d'onde, du rouge à l'ultraviolet fig. 4. La source de lumière n'était donc pas un « corps noir », l'émetteur de rayonnement le plus simple. Le spectre lumineux d'un corps noir est une courbe en cloche, et la longueur d'onde du maximum ne dépend que de la température. Au fur et à mesure que l'on chauffe, ce maximum se déplace du rouge vers le bleu et l'ultraviolet. Les températures auxquelles se produit une émission rouge étant maintenues plus longtemps dans la bulle, l'impulsion dans le rouge aurait été au moins deux fois plus longue que dans l'ultraviolet.

Willy Moss et ses collègues, du laboratoire de Los Alamos, suggérèrent alors, en se fondant sur une simulation numérique, que nous avions affaire à un émetteur volumique plutôt qu'à un corps noir10. Ils soulignèrent qu'un émetteur thermique n'est un corps noir que s'il est effectivement noir, c'est-à-dire s'il absorbe efficacement les photons à toutes les longueurs d'onde. Les seuls photons observés sont alors émis par la surface de l'objet. Toutefois, si la bulle est trop petite, ou le gaz trop transparent vis-à-vis des photons, ceux qui sont émis à l'intérieur de la bulle ne sont pas tous réabsorbés : le spectre observé résulte en partie d'une émission volumique. Bien que l'on ait aussi affaire à une émission thermique, le spectre, l'intensité et la durée de l'émission lumineuse sont différents de ceux d'un corps noir.

Spectre continu. Pour vérifier cette hypothèse, nous devions calculer les caractéristiques de l'émission et de l'absorption du petit volume de gaz fortement comprimé dans la bulle lire l'encadré : « Emission et absorption ». Mais il y avait encore un préalable : un paramètre essentiel de ce calcul est la température, pour laquelle l'obtention d'une valeur fiable n'était pas si simple.

Dans le cas de la sonoluminescence multibulles, le spectre lumineux est formé de raies, caractéristiques du liquide environnant et dont les intensités relatives permettent de calculer la température. Ainsi, dans les années 1990, Ken Suslick et ses collègues de l'université d'Urbana-Champaign, qui étudiaient des réactions chimiques dans des bulles qui implosent, avaient calculé des températures de 3 000 à 6 000 kelvins.

Dans la sonoluminescence monobulle, le spectre est continu : impossible de déterminer directement la température. En 2000 et 2001, K. Suslick et ses collègues, ainsi que Woowon Kang, de l'université de Chicago, et ses collègues, ont toutefois détecté, indépendamment, des raies spectrales dans une bulle unique excitée par des ultrasons de faible amplitude11. Ces raies sont de moins en moins marquées et recouvertes par un spectre continu de plus en plus intense à mesure que l'amplitude des ultrasons donc la violence de l'implosion est augmentée : plus la bulle chauffe, moins on voit les raies. Ces dernières étant bien visibles dans la sonoluminescence multibulle, les physiciens en ont conclu que, dans la plupart des cas de sonoluminescence monobulle, la température atteint des valeurs bien supérieures.

A l'heure actuelle, seuls des modèles numériques permettent des prédictions quant à la hauteur effective des pics de température. Ils se présentent sous des formes très diverses, de simulations numériques complètes à de simples extensions de la dynamique classique des bulles. Leurs éléments les plus importants sont un modèle d'échange thermique entre la bulle et le liquide environnant, et un modèle des réactions chimiques dans la bulle. Ce dernier est important non seulement pour établir l'équilibre de diffusion du gaz de la bulle, mais aussi parce que la chimie contribue à l'équilibre énergétique. Comme le montre un travail remarquable de Brian Storey et Andrew Szeri, de l'université de Berkeley, les réactions chimiques peuvent réduire de façon significative la température maximale de la bulle12. Les principales réactions, telles que la dissociation de la vapeur d'eau, consomment en effet de l'énergie : c'est autant de chaleur en moins pour chauffer la bulle. Aucun de ces modèles ne peut prétendre reproduire directement les chiffres expérimentaux pour l'intensité lumineuse, mais ils semblent tous pointer vers un maximum de température aux environs de 10 000 kelvins.

En nous fondant sur la dynamique classique de la bulle, et en considérant que l'intérieur de celle-ci est uniforme, nous avons obtenu une estimation de température légèrement supérieure, en négligeant la chimie13. Ce schéma très simple peut alors être incorporé dans un modèle complet de la stabilité de la bulle et de l'émission lumineuse par un émetteur thermique volumique.

Ce modèle permet de retrouver assez précisément des données expérimentales pour la sonoluminescence monobulle avec de l'argon et du xénon. Nos calculs portant sur la durée de l'éclair en fonction de l'amplitude des ultrasons, pour une concentration fixe de gaz dans l'eau, reproduisent ainsi assez bien les données mesurées par l'équipe de S. Putterman14 fig. 5.

En outre, notre modèle permet de calculer la durée de l'éclair à différentes longueurs d'onde : en accord avec les expériences, les impulsions rouge et ultraviolette durent à peu près aussi longtemps. Ainsi, la différence la plus étonnante avec le comportement du corps noir peut être expliquée : pour un émetteur thermique volumique, le mécanisme d'émission lumineuse dépend étroitement du petit nombre d'électrons libres dans le gaz, qui lui-même augmente de façon exponentielle avec la température. Si la température chute de seulement 10 % au- dessous de sa valeur maximale, la production de photons est fortement réduite pour toutes les longueurs d'onde, ce qui conduit à des durées d'impulsion identiques.

Pas de « nouvelle physique ». De nombreux détails de ce modèle sont encore à améliorer. Par exemple, une prise en compte satisfaisante des réactions chimiques nécessiterait plus de données sur leurs vitesses aux densités extrêmes qui règnent dans la bulle contractée. Le paramètre essentiel du calcul est la température, et seule une modélisation plus perfectionnée ou une autre avancée expérimentale pourront déterminer cette quantité avec une précision raisonnable. Par ailleurs, si la température était un peu plus faible que ce que nous pensons, une partie de l'émission pourrait aussi provenir des processus moléculaires observés dans la sonoluminescence multibulle.

Malgré ces incertitudes, la sonoluminescence n'a aujourd'hui plus grand-chose de mystérieux : c'est simplement un processus d'émission thermique par une source inhabituelle, un petit volume de gaz qui a été comprimé jusqu'à des densités proches de celles de l'état solide et chauffé à environ 10 000 kelvins, et dont la petite taille fait qu'il reste transparent pour les photons. L'explication a nécessité l'alliance de savoirs provenant d'une grande diversité de champs. Les oscillations de la bulle et sa stabilité ont été expliquées par la dynamique des fluides et par l'acoustique ; sa température par la dynamique des fluides et la chimie ; l'émission lumineuse elle-même par la physique des plasmas...

Aucune « nouvelle physique » n'a été inventée, les températures obtenues ne sont pas assez élevées pour déclencher la fusion nucléaire lire « La "sonofusion" a fait long feu », page 32 et nous n'avons utilisé que des faits bien connus dans différents champs de la physique. Mais c'est la synthèse de ces faits et la façon dont ils sont conjugués qui font de la sonoluminescence un objet d'étude fascinant et excitant. La description complète et cohérente que nous avons aujourd'hui du phénomène n'a été obtenue que grâce à un travail expérimental qui a tracé la voie, permettant d'éliminer des théories et d'en confirmer d'autres.

Par Sascha Hilgenfeldt, Detlef Lohse


DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google