ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

SUPRACONDUCTEURS

 

Physique l'héritage de Lev Landau
Alexandre Bouzdine dans mensuel 371
daté janvier 2004 -  Réservé aux abonnés du site


Le prix Nobel de physique 2003 a été décerné conjointement à Alexeï Abrikosov, Vitaly Ginzburg et Anthony Leggett pour « des travaux pionniers dans le domaine théorique des supraconducteurs et des superfluides ». Avec les deux premiers lauréats, c'est l'École russe qui est distinguée, et à travers elle l'emblématique Lev Landau qui a marqué de son empreinte la physique du XXe siècle.
Supraconductivité et superfluidité : ce n'est pas la première fois que l'Académie royale des sciences de Suède distingue ces domaines de recherche. Une douzaine de physiciens avaient déjà été récompensés pour l'élucidation de ces étranges comportements de la matière à très basse température. Il se dégage d'ailleurs de ce choix comme un parfum de réparation par le comité Nobel de ses oublis passés.

La supraconductivité a été observée pour la première fois en 1911 à l'université de Leyde, aux Pays-Bas, dans le laboratoire de Heike Kamerlingh Onnes : la résistance électrique du mercure plongé dans l'hélium liquide, à 4 kelvins ­ 269 °C, s'annulait complètement. Cette découverte suscite immédiatement l'intérêt et l'enthousiasme de la communauté scientifique. Kamerlingh Onnes est nobélisé dès 1913. Parallèlement, de nombreux physiciens, tout au moins ceux qui maîtrisent les techniques de refroidissement à des températures aussi basses, s'efforcent d'identifier d'autres matériaux supraconducteurs et de donner corps aux premières applications.

Plus facile à dire qu'à faire. Car si d'autres métaux supraconducteurs sont rapidement découverts, la température « critique », au-dessus de laquelle le phénomène disparaît, demeure toujours très basse, autour de 20 kelvins. En outre, et peut-être plus problématique, la supraconductivité a une fâcheuse tendance à l'autodestruction. En effet, la circulation d'un courant dans un supraconducteur fait apparaître un champ magnétique. Mais, en retour, au-dessus d'une certaine intensité de ce champ, la supraconductivité disparaît. Ce phénomène limite fortement l'intensité des courants que peuvent transporter les supraconducteurs connus à l'époque.

Tourbillons magnétiques

Ce n'est qu'une quarantaine d'années plus tard, en 1951, en association avec Lev Landau, l'un des plus importants physiciens du XXe siècle, que Vitaly Ginzburg propose une théorie phénoménologique globale de la supraconductivité. Bien que très intuitive, elle permet de rendre compte des phénomènes expérimentaux tels que la transition de phase entre les états normaux et supraconducteurs. Elle est proposée avant l'élaboration, en 1957, de la théorie microscopique de la supraconductivité par Bardeen, Cooper et Schrieffer, récompensés par le Nobel en 1972. Cette théorie, nommée BCS, qui montre que la supraconductivité est liée à l'apparition de paires d'électrons, justifiera a posteriori nombre d'intuitions formulées dans celle de Ginzburg et de Landau.

Est-ce à cause de la stature exceptionnelle de Landau qu'il a été récompensé seul par le prix Nobel en 1962 ? Ou parce que le comité Nobel a préféré le distinguer pour ses contributions à la théorie de la superfluidité plutôt qu'à celle de la supraconductivité lire « Leggett, un oubli réparé », ci-dessous ? Toujours est-il que Ginzburg a dû patienter encore quarante et un ans pour être récompensé à son tour.

Alors que s'élabore la théorie Ginzburg-Landau, Abrikosov achève son doctorat en physique des plasmas sous la direction du second. Il s'intéresse aussi au comportement de certains supraconducteurs, dits de « type II », qui résistent mieux que les autres à la présence d'un champ magnétique. En 1953, il applique les équations de la théorie de Ginzburg-Landau à l'analyse de ce problème, et il trouve des solutions surprenantes : le champ magnétique pénétrerait à l'intérieur du supraconducteur sous forme de tubes de flux magnétique quantifié et de courant supraconducteur circulaire. Le comportement des lignes de courant dans ces zones est similaire à celles de l'eau dans un tourbillon, ce qui vaudra plus tard à ces structures le nom de « vortex d'Abrikosov ».

Il est aujourd'hui reconnu que le comportement de la majorité des supraconducteurs est lié à ces vortex, qui peuvent former une grille, disparaître, apparaître ou se déplacer dans le supraconducteur. Cependant, quand Abrikosov présente à Landau son travail sur les vortex, celui-ci lui explique de manière fort expressive, comme à son habitude, que tout cela ne tient pas debout, que la nature ne peut supporter des solutions aussi singulières et que, par conséquent, il n'est guère envisageable de publier ces résultats. Quelques années plus tard, Landau, à l'occasion d'un séminaire, entend parler des travaux que l'Américain Richard Feynman a consacrés aux vortex dans l'hélium 4 superfluide. Un air de déjà-vu qui lui rappelle l'article non publié d'Abrikosov. Le travail de Feynman ne lui paraît pas très convaincant, mais tout de même suffisamment intéressant pour qu'il en parle à son ancien élève et lui recommande d'envoyer son article pour publication. C'est donc finalement en 1957 que sont publiées les théories d'Abrikosov qui prédisent l'existence de vortex et en décrivent les caractéristiques. Là encore, le comité Nobel a pris son temps pour récompenser la découverte.

Les supra, mais pas seulement

Heureusement, Ginzburg et Abrikosov n'ont pas passé tout ce temps à attendre leur bonne fortune. Outre la supraconductivité, Ginzburg a exercé ses talents de théoricien dans des domaines aussi variés que les rayons cosmiques, le rayonnement Cherenkov*, la propagation des ondes dans les plasmas ou les transitions de phase. En collaboration avec Andreï Sakharov, il a également participé au développement de la bombe à hydrogène en URSS. L'enthousiasme, la passion et l'énergie remarquable de Ginzburg lui ont permis de créer plusieurs écoles scientifiques, de diriger le séminaire de physique de Moscou jusqu'à 85 ans et d'écrire de nombreux ouvrages fondamentaux.

Abrikosov, l'un des élèves les plus talentueux de Landau, a hérité des intérêts scientifiques très larges qui caractérisaient si bien son professeur. Outre celui des supraconducteurs, il a contribué de manière importante au développement des théories de l'électrodynamique quantique, des métaux, des alliages et semiconducteurs, de la matière compressée et des plasmas. Il est l'auteur d'un ouvrage sur l'application des méthodes de la théorie quantique en physique statistique, devenu un grand classique et qui a servi à plusieurs générations de théoriciens. La première édition russe fut appelée par les étudiants « le monstre vert », en raison de sa couleur vert foncé, mais surtout et aussi en raison de la grande concentration de thèmes et d'idées qu'elle renfermait. Abrikosov professe qu'il n'a jamais connu de véritable échec dans la résolution de problèmes scientifiques. La chose, précise-t-il, n'a été question que de temps et d'acharnement.

Il sut également mettre à profit son imagination et sa ténacité pour résoudre des problèmes d'un genre différent, comme l'anecdote suivante en témoigne. Amateur d'alpinisme, Abrikosov a gravi nombre de sommets prestigieux de l'ex-Union soviétique. Il rêvait de monter le Kilimandjaro, le plus haut sommet d'Afrique. Mais, à l'époque, les voyages touristiques à l'étranger étaient inimaginables. Il propose alors d'organiser une expédition consacrée au Cinquantenaire de la révolution d'Octobre, dans le but de planter le drapeau rouge au sommet du Kilimandjaro. Cette entreprise réussit sans encombre, au grand étonnement de ses proches, et d'Abrikosov lui-même. A. B.
NOTES
* Le rayonnement Cherenkov est une émission de lumière qui accompagne le passage rapide d'une particule chargée dans un milieu.
LEGGETT, UN OUBLI RÉPARÉ
La règle veut qu'un maximum de trois personnes partagent un prix Nobel. Est-ce pour réparer l'une des nombreuses injustices qui en découle qu'Anthony Leggett a été récompensé cette année ? En 1996, le prix Nobel de physique avait en effet été attribué à David Lee, Douglas Osheroff et Robert Richardson pour leur découverte de la superfluidité de l'hélium 3 : au-dessous d'une température critique, de quelques millikelvins, sa viscosité devient nulle. L'explication théorique du phénomène, qui requiert l'association des atomes d'hélium par paires, avait été apportée par Leggett dans les années soixante-dix. Mais c'est Lev Landau qui avait reçu en 1962 le premier prix Nobel en rapport avec la superfluidité. Là encore, l'héritage de ce dernier n'est pas donc étranger au Nobel de physique attribué cette année.

 

  DOCUMENT       la recherche.fr      LIEN

 
 
 
 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

 

 

 

 

 

 

 

Transcription de la 580e conférence de l'Université de tous les savoirs prononcée le 23 juin 2005

De l'atome au cristal : Les propriétés électroniques de la matière

Par Antoine Georges

Les ordres de grandeur entre l'atome et le matériau :

1. Il existe entre l'atome et le matériau macroscopique un très grand nombre d'ordres de grandeur, d'échelles de longueur. Prenons l'exemple d'un lingot d'or : quelqu'un muni d'une loupe très puissante pourrait observer la structure de ce matériau à l'échelle de l'atome : il verrait des atomes d'or régulièrement disposés aux nSuds d'un réseau périodique. La distance entre deux de ces atomes est de l'ordre de l'Angstrom, soit 10-10m. Ainsi, dans un lingot cubique de un millimètre de côté, il y a 10 millions (107) d'atomes dans chaque direction soit 1021 atomes au total ! Les échelles spatiales comprises entre la dimension atomique et macroscopique couvrent donc 7 ordres de grandeur. Il s'agit alors de comprendre le fonctionnement d'un système composé de 1021 atomes dont les interactions sont régies par les lois de la mécanique quantique.

2. Malheureusement, une telle loupe n'existe évidemment pas. Cependant, il est possible de voir les atomes un par un grâce à des techniques très modernes, notamment celle du microscope électronique à effet tunnel. Il s'agit d'une sorte de « gramophone atomique », une pointe très fine se déplace le long d'une surface atomique et peut détecter d'infimes changements de relief par variation du courant tunnel (voir plus loin). Cette découverte a valu à ses inventeurs le prix Nobel de physique de 1986 à Gerd Karl Binnig et Heinrich Rohrer (Allemagne).

3. Nous pouvons ainsi visualiser les atomes mais aussi les manipuler un par un au point de pouvoir « dessiner » des caractères dont la taille ne dépasse pas quelques atomes ! (Le site Internet www.almaden.ibm.com/vis/stm/gallery.html offre de très belles images de microscopie à effet tunnel). Cette capacité signe la naissance du domaine des nanotechnologies où la matière est structurée à l'échelle atomique.

4. Les physiciens disposent d'autres « loupes » pour aller regarder la matière à l'échelle atomique. Parmi elles, le synchrotron est un grand anneau qui produit un rayonnement lumineux très énergétique et qui permet de sonder la structure des matériaux, des molécules ou des objets biologiques, de manière statique ou dynamique. Les applications de ce genre de loupe sont innombrables en physique des matériaux, chimie, biologie et même géologie (par pour l'étude des changements structuraux des matériaux soumis à de hautes pressions).

5. Il existe encore bien d'autres « loupes » comme par exemple la diffusion de neutrons, la spectroscopie de photo-émission, la résonance magnétique... Dans la diffusion de neutrons, un neutron pénètre un cristal pour sonder la structure magnétique du matériau étudié.

La grande diversité des matériaux :

6. Ces différentes techniques révèlent la diversité structurale des matériaux, qu'ils soient naturels ou artificiels. Le sel de cuisine, par exemple, a une structure cristalline très simple. En effet, il est composé d'atomes de sodium et de chlore régulièrement alternés. Il existe également des structures plus complexes, comme par exemple les nanotubes de carbone obtenus en repliant des feuilles de graphite sur elles-mêmes ou la célèbre molécule C60 en forme de ballon de football composée de 60 atomes de carbone (fullerènes)

7. Tous ces matériaux peuvent être soit présents à l'état naturel soit élaborés de manière artificielle. Cette élaboration peut être faite plan atomique par plan atomique en utilisant une technique appelée « épitaxie par jet moléculaire » dans laquelle un substrat est bombardé par des jets moléculaires. Les atomes diffusent pour former des couches monoatomiques. Cette technique permet alors de fabriquer des matériaux contrôlés avec une précision qui est celle de l'atome.

8. La diversité des matériaux se traduit donc pas une grande diversité des structures, mais aussi de leurs propriétés électroniques. Par exemple, la résistivité (c'est-à-dire la capacité d'un matériau à s'opposer au passage d'un courant : R=U/I) varie sur 24 ordres de grandeurs entre de très bons conducteurs et un très bon isolant, ce qui est encore bien plus que les 7 ordres de grandeurs des dimensions spatiales. Il existe donc des métaux (qui sont parfois de très bons conducteurs), des isolants (de très mauvais conducteurs), des semi-conducteurs et même des supraconducteurs. Ces derniers sont des métaux, qui en dessous d'une certaine température, n'exercent aucune forme de résistance et ne dissipent aucune énergie. D'autres matériaux encore voient leur gradient thermique évoluer en fonction du courant qui les traverse, ceci permet par exemple de fabriquer du « froid » avec de l'électricité ou fabriquer de l'électricité avec de la chaleur, ce sont des thermoélectriques. Enfin, la résistivité de certains matériaux est fonction du champ magnétique dans lequel ils sont placés.

9. Ces diversités, autant structurales qu'électroniques, sont et seront de plus en plus mises à profit dans d'innombrables applications. Nous pouvons citer parmi elles, le transistor, le circuit intégré, le lecteur CD, l'imagerie par résonance magnétique etc. Derrière ces applications pratiques, il y a des problèmes de physique et de chimie fondamentales, et pour parfaitement comprendre l'origine de cette diversité, il faut remonter aux lois de la mécanique quantique. Il s'agit donc de jeter un pont entre l'échelle macroscopique et le monde quantique, à travers ces fameux 7 ordres de grandeurs. Particulièrement dans ce domaine, les sciences théoriques et expérimentales interagissent énormément. Nous allons donc partir de l'échelle atomique pour essayer de comprendre le comportement macroscopique d'un matériau.

De l'atome au matériau :

10. Commençons donc par la structure atomique. Un atome est composé d'un noyau, autour duquel gravitent des électrons. L'électron est environ 2000 fois plus léger que les protons et neutrons, constituants de base du noyau. La taille de cet ensemble est d'environ 10-10m (un Angstrom).

11. Le système {noyau+électron} semble comparable au système {Terre+soleil}, dans ce cas, l'électron tournerait sur une orbite bien régulière autour du noyau. Il n'en n'est rien. Même si les physiciens ont, pour un temps, cru au modèle planétaire de l'atome, nous savons depuis les débuts de la mécanique quantique que le mouvement de l'électron est bien différent de celui d'une planète !

12. La première différence notable est que l'électron ne suit pas une trajectoire unique. En fait, nous ne pouvons trouver l'électron qu'avec une certaine probabilité dans une région de l'espace. Cette région est appelée orbitale atomique. La forme de ce nuage de probabilités dépend de l'énergie de l'électron et de son moment cinétique. Si cette région est sphérique, on parle d'orbitale « s », (cas de l'atome d'hydrogène où seul un électron tourne autour du noyau). On parle d'orbitale « p » lorsque le nuage de probabilités est en forme de 8, (atome d'oxygène). Enfin, lorsque ce nuage prend une forme de trèfle à quatre feuilles, on parle d'orbitale « d » (atome de fer). Ainsi, il n'existe pas de trajectoires à l'échelle quantique, mais uniquement des probabilités de présence.

13. De plus, l'énergie d'un électron ne peut prendre que certaines valeurs bien déterminées, l'énergie est quantifiée (origine du terme quantique). La localisation de ces différents niveaux d'énergies et la transition entre ces niveaux par émission ou par absorption a été à l'origine de la mécanique quantique. Ces travaux ont valu à Niels Bohr le prix Nobel de physique de 1922. L'état d'énergie le plus bas est appelé état fondamental de l'atome. Il est par ailleurs possible d'exciter l'électron (avec de la lumière, par exemple) vers des niveaux d'énergie de plus en plus élevés. Ceci est connu grâce aux spectres d'émission et d'absorption de l'atome, qui reflètent les différents niveaux d'énergie possibles.

14. La troisième particularité du mouvement de l'électron est son Spin, celui-ci peut être représenté par une représentation imagée : l'électron peut tourner sur lui-même vers la gauche ou vers la droite, en plus de sa rotation autour du noyau. On parle de moment cinétique intrinsèque ou de deux états de Spin possibles. Pauli, physicien autrichien du XXéme siècle, formula le principe d'exclusion, à savoir qu'un même état d'énergie ne peut être occupé par plus de deux électrons de Spin opposé. Nous verrons plus loin qu'il est impossible de connaître l'état macroscopique d'un matériau sans tenir compte du principe d'exclusion de Pauli. Pour l'atome d'hélium par exemple, la première (et seule) couche contient deux atomes et deux seulement, il serait impossible de rajouter un atome dans cette couche, elle est dite complète.

15. On peut considérer grâce à ces trois principes (description probabiliste, niveaux d'énergies quantifiés et principe d'exclusion) que l'on remplit les couches électroniques d'un atome avec les électrons qui le constituent. Les éléments purs, dans la nature, s'organisent alors de manière périodique, selon la classification de Mendeleïev. Cette classification a été postulée de manière empirique bien avant le début de la mécanique quantique, mais cette organisation reflète le remplissage des couches atomiques, en respectant le principe d'exclusion de Pauli.

16. Un autre aspect du monde quantique est l'effet tunnel. Dans le microscope du même nom, cet effet est mis à profit pour mesurer une variation de relief. L'effet tunnel est une sorte de « passe-muraille quantique ». En mécanique classique, un personnage qui veut franchir un obstacle doit augmenter son niveau d'énergie au dessus d'un certain niveau. En mécanique quantique, en revanche, il est possible de franchir cet obstacle avec une certaine probabilité même si notre énergie est inférieure au potentiel de l'obstacle. Bien sûr, cette probabilité diminue à mesure que cette différence d'énergie augmente.

17. Cet effet tunnel assure la cohésion des solides, et permet aussi à un électron de se délocaliser sur l'ensemble d'un solide. Cet effet tunnel est possible grâce à la dualité de l'électron : il est à la fois une particule et une onde. On peut mettre en évidence cette dualité grâce à l'expérience suivante : une source émet des électrons un par un, ceux-ci ont le choix de passer entre deux fentes possibles. La figure d'interférence obtenue montre que, bien que les électrons soient émis un par un, ils se comportent de manière ondulatoire.

18. Les électrons des couches externes de l'atome (donc les moins fortement liés au noyau) vont pouvoir se délocaliser d'un atome à l'autre par effet tunnel. Ces « sauts », sont à l'origine de la cohésion d'un solide et permettent également la conduction d'un courant électronique à travers tout le solide.

19. Une autre conséquence de cet effet tunnel est que l'énergie d'un solide n'est pas une simple répétition n fois des niveaux d'énergie de chaque atome isolé. En réalité, il apparaît une série d'énergies admissibles qui se répartissent dans une certaine gamme d'énergie, cette gamme est appelée bande d'énergie permise. D'autres gammes restent interdites. Ainsi, si les atomes restent éloignés les uns des autres, les bandes d'énergies admises sont très étroites, mais à mesure que la distance inter-atomique diminue, ces bandes s'élargissent et le solide peut alors admettre une plus large gamme de niveaux d'énergie.

20. Nous pouvons penser, comme dans la classification périodique, que les électrons remplissent ces bandes d'énergies, toujours en respectant le principe d'exclusion de Pauli. L'énergie du dernier niveau rempli est appelée énergie du niveau de Fermi. La manière dont se place ce dernier niveau rempli va déterminer la nature du matériau (métal ou isolant). Si le niveau de Fermi se place dans une bande d'énergie admise, il sera très facile d'exciter les électrons, le matériau sera donc un métal. Si au contraire le niveau de Fermi se place dans une bande d'énergie interdite, il n'est pas possible d'exciter les électrons en appliquant une petite différence de potentiel, nous avons donc affaire à un isolant. Enfin, un semi-conducteur est un isolant dont la bande d'énergie interdite (« gap », en anglais), est suffisamment petite pour que l'on puisse exciter un nombre significatif de porteurs de charge simplement avec la température ambiante.
Nous voyons donc que l'explication de propriétés aussi courantes des matériaux repose sur les principes généraux de la mécanique quantique.

21. Ainsi, dans un solide constitué d'atomes dont la couche électronique externe est complète, les électrons ne peuvent sauter d'un atome à l'autre sans violer le principe d'exclusion de Pauli. Ce solide sera alors un isolant.

22-23. En réalité, les semi-conducteurs intrinsèques (les matériaux qui sont des semi-conducteurs à l'état brut) ne sont pas les plus utiles. On cherche en fait à contrôler le nombre de porteurs de charge que l'on va induire dans le matériau. Pour cela, il faut créer des états d'énergies très proches des bandes permises (bande de conduction ou bande de Valence). On introduit à ces fins des impuretés dans le semi-conducteur (du bore dans du silicium, par exemple) pour fournir ces porteurs de charges. Si on fournit des électrons qui sont des porteurs de charges négatifs, on parlera de dopage N. Si les porteurs de charges sont des trous créés dans la bande de Valence, on parlera de dopage P.

24. L'assemblage de deux semi-conducteurs P et N est la brique de base de toute l'électronique moderne, celle qui permet de construire des transistors (aux innombrables applications : amplificateurs, interrupteurs, portes logiques, etc.). Le bond technologique dû à l'invention du transistor dans les années 1950 repose donc sur tout l'édifice théorique et expérimental de la mécanique quantique. L'invention du transistor a valu le prix Nobel en 1956 à Brattain, Shockley et Bardeen. Le premier transistor mesurait quelques centimètres, désormais la concentration dans un circuit intégré atteint plusieurs millions de transistors au cm². Il existe même une célèbre loi empirique, proposée par Moore, qui observe que le nombre de transistors que l'on peut placer sur un microprocesseur de surface donnée double tous les 18 mois. Cette loi est assez bien vérifiée en pratique depuis 50 ans !

25. En mécanique quantique, il existe un balancier permanent entre théorie et expérience. La technologie peut induire de nouvelles découvertes fondamentales, et réciproquement.
Ainsi, le transistor à effet de champ permet de créer à l'interface entre un oxyde et un semi-conducteur un gaz d'électrons bidimensionnel, qui a conduit à la découverte de « l'effet Hall quantifié ».

26. Cette nappe d'électron présente une propriété remarquable : lorsqu'on applique un champ magnétique perpendiculaire à sa surface, la chute de potentiel dans la direction transverse au courant se trouve quantifiée de manière très précise. Ce phénomène est appelé effet Hall entier (Klaus von Klitzing, prix Nobel 1985) ou effet Hall fractionnaire (Robert Laughlin, Horst Stormer et Daniel Tsui, prix Nobel 1998).

27. L'explication de ces phénomènes fait appel à des concepts fondamentaux de la physique moderne comme le phénomène de localisation d'Anderson, qui explique l'effet des impuretés sur la propagation des électrons dans un solide. Nous voyons donc encore une fois cette interaction permanente entre technologie et science fondamentale.

La supraconductivité :

28. Il existe donc des métaux, des isolants, des semi-conducteurs. Il existe un phénomène encore plus extraordinaire : la supraconductivité. Il s'agit de la manifestation d'un phénomène quantique à l'échelle macroscopique : dans un métal « normal », la résistance tend vers une valeur finie non nulle lorsque la température tend vers 0 alors que dans un métal supraconducteur, la résistance s'annule en dessous d'une certaine température dite critique. Les perspectives technologiques offertes par la supraconductivité paraissent donc évidentes car il serait alors possible de transporter un courant sans aucune dissipation d'énergie. Le problème est de contrôler la qualité des matériaux utilisés, et il serait évidemment merveilleux de pouvoir réaliser ce phénomène à température ambiante...

29. La supraconductivité a été découverte par Kammerlingh Onnes en 1911 quand il refroidit des métaux avec de l'hélium liquide à une température d'environ 4 degrés Kelvin.

30. Ce phénomène ne fut expliqué que 46 ans plus tard, car il fallait tout l'édifice de la mécanique quantique pour réellement le comprendre. Nous devons cette explication théorique à Bardeen, Cooper et Schieffer à la fin des années 1950.

31. Dans un métal, il y a une source naturelle d'attraction entre les électrons. On peut imaginer que chaque électron déforme légèrement le réseau cristallin et y attire un autre électron pour former ce que l'on nomme une paire de Cooper. Ces paires peuvent échapper au principe d'exclusion de Pauli car elles ont un Spin 0. Elles se comportent alors comme des bosons et non plus comme des fermions, et s'écroulent dans un même état d'énergie pour former un état collectif. Le matériau a un comportement analogue à l'état de superfluide de l'hélium 4. Toutes ces paires de Cooper sont donc décrites par une unique fonction d'onde, c'est un état quantique macroscopique. Il existe donc de nombreuses propriétés qui révèlent cet état quantique à l'échelle du matériau.

32. A la fin des années 1950, la théorie de la supraconductivité est enfin comprise et le but est maintenant d'augmenter la température critique. Une véritable course est alors lancée, mais celle-ci n'eut pas que des succès. Alors que en 1911 Kammerlingh Onnes observait la supraconductivité du mercure à une température de 4K, à la fin des années 80, nous en étions encore à environ 30K. En 1986, cette température critique fait un bond considérable et se trouve aujourd'hui aux alentours des 140K. La température de l'azote liquide étant bien inférieure à ces 140K, il est désormais moins coûteux d'obtenir des supraconducteurs.

33. Ces supraconducteurs possèdent des propriétés étonnantes. Par exemple, un champ magnétique ne peut pénétrer à l'intérieur d'un matériau supraconducteur. Ceci permet de faire léviter un morceau de supraconducteur en présence d'un champ magnétique !

34. Cette « lévitation magnétique » offre de nouvelles perspectives : il est par exemple possible de faire léviter un train au dessus de ses rails, il faut alors très peu d'énergie pour propulser ce train à de grandes vitesses. Un prototype japonais a ainsi atteint des vitesses de plus de 500km/h.
Les supraconducteurs permettent de créer des champs magnétiques à la fois très intenses et contrôlés, et servent donc pour l'imagerie par résonance magnétique (IRM). Ceci offre bien sûr de nouvelles possibilités en imagerie médicale.
Les supraconducteurs peuvent être également utilisés pour créer de nouveaux outils pour les physiciens : dans le nouvel accélérateur de particules au CERN à Genève, les aimants sont des supraconducteurs.

35. L'année 1986 voit une véritable révolution dans le domaine de la supraconductivité. Bednorz et Muller découvrent en effet une nouvelle famille de matériaux supraconducteurs qui sont des oxydes de cuivre dopés. En l'absence de dopage, ces matériaux sont des isolants non-conventionnels, dans lesquels le niveau de Fermi semble être dans une bande permise (isolants de Mott). La température critique de ces supraconducteurs est bien plus élevée que dans les supraconducteurs conventionnels : le record est aujourd'hui de 138 degrés Kelvin pour un composé à base de mercure. C'est une très grande surprise scientifique que la découverte de ces nouveaux matériaux, il y a près de vingt ans.

Des matériaux aux propriétés étonnantes :

36. Ces sont donc des isolants d'un nouveau type, dits de Mott. Ces matériaux sont isolants non pas parce que leur couche extérieure est pleine mais parce que les électrons voulant sauter d'un atome à l'autre par effet tunnel se repoussent mutuellement.

37. La compréhension de la physique de ces matériaux étonnants est un grand enjeu pour les physiciens depuis une vingtaine d'années. En particulier, leur état métallique demeure très mystérieux et ne fait à ce jour pas le consensus de la communauté scientifique.

38. Il est également possible de fabriquer des métaux à partir de molécules organiques, nous obtenons alors des « plastiques métalliques » pouvant également devenir supraconducteurs en dessous d'une certaine température (découverte par Denis Jérome et son équipe à Orsay en 1981). Le diagramme de phase des supraconducteurs organiques est au moins voire plus compliqué que celui des oxydes métalliques.

39. Actuellement, des recherches sont menées sur des alliages ternaire, et quaternaires qui semblent offrir encore de nouvelles propriétés. Par exemple, les oxydes de manganèse ont une magnétorésistance colossale, c'est-à-dire que leur résistance varie beaucoup en présence d'un champ magnétique. Cette particularité pourrait être utilisée dans le domaine de l'électronique de Spin, où on utilise le Spin des électrons, en plus de leur charge pour contrôler les courants électriques. Les oxydes de Cobalt, quant à eux, présentent la propriété intéressante d'être des thermoélectriques (i.e capables de produire un courant électrique sous l'action d'un gradient de température).
Il existe donc de très nombreux défis dans ce domaine, ils sont de plusieurs types. D'abord, l'élaboration de structures peut permettre de découvrir de nouveaux matériaux aux nouvelles propriétés qui soulèvent l'espoir de nouvelles applications.
Mais il existe aussi des défis théoriques : est il possible de prédire les propriétés d'un matériau à partir des lois fondamentales ? Des progrès importants ont été réalisés durant la seconde partie du XXème siècle et ont valu à Walter Kohn le prix Nobel de chimie. Cependant, ces méthodes ne sont pas suffisantes pour prédire la physique de tous les matériaux, en particulier de ceux présentant de fortes corrélations entre électrons. Les puissances conjuguées de la physique fondamentale et calculatoire des ordinateurs doivent être mise à service de ce défi. Par ailleurs, de nouveaux phénomènes apparaissent dans ces matériaux qui amèneront certainement des progrès en physique fondamentale.
La chimie, la physique et l'ingénierie des matériaux et de leurs propriétés électroniques semblent donc avoir de beaux jours devant eux !

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
 

LA TRIBOLOGIE

 

 

 

 

 

 

 

Texte de la 597 e conférence de l'Université de tous les savoirs prononcée le 19 juillet 2005

Par Lydéric Bocquet: « Approche physique du frottement »

La tribologie est la science des frottements. Un « frottement » intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est de fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement de craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., etc. On pourrait multiplier les exemples connus de tous. Le frottement est ainsi intimement associé à la perception de notre environnement immédiat. Au cours de l'histoire humaine, les efforts pour s'en affranchir ont d'ailleurs été un facteur de progrès considérable, depuis l'invention de la roue plus de 3000 ans avant Jésus-Christ, jusqu'aux développements technologiques les plus récents dans la recherche de nouveaux matériaux (par exemple les composites céramiques pour la réalisation de prothèses artificielles). L'augmentation des performances techniques passe souvent par le développement de matériaux spécifiques qui permettent de diminuer les efforts de frottement : on limite ainsi l'usure, tout en réduisant la consommation énergétique, et en limitant le vieillissement des pièces. Dans d'autres domaines, l'effort est inversement plutôt concentré sur une augmentation du frottement, par exemple dans les dispositifs de freinage, ou les composites constituants les freins.

Les sciences du frottement sont donc intimement liées au développement technologique, tournées vers l'application. Pourtant c'est un domaine qui continue de soulever de nombreuses questions au niveau le plus fondamental. L'origine même du frottement reste largement incomprise et suscite de nombreuses études au niveau mondial, avec des découvertes récentes très prometteuses.

Des lois simples pour des phénomènes complexes -

La plupart des phénomènes associés au frottement peuvent se comprendre sur la base des lois phénoménologiques du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant). Ces lois empiriques font intervenir une quantité clef : le coefficient de frottement, coefficient sans dimension que l'on note en général m. Plaçons un objet sur une surface plane : par exemple un kilo de sucre sur une table. Pour déplacer cet objet, de poids P (la masse multipliée par la constante de gravité, g=9.8 m/s2), il faut exercer une force FT parallèlement à la surface de la table. Mais l'expérience montre que cet objet ne se déplacera pas tant que la force FT est inférieure à une force minimale. De plus Amontons et Coulomb ont montré que cette force minimale est directement proportionnelle à la force normale, donc ici au poids : autrement dit, l'objet ne se déplace pas tant que

|FT |S |P|,

mS définissant le « coefficient de frottement statique ». D'autre part, si l'objet se déplace maintenant à vitesse constante sur la surface, l'expérience montre dans ce cas que la force de frottement tangentielle subie par l'objet est également proportionnelle à la force normale et (quasiment) indépendante de la vitesse :

|FT | = mD |P|,

mD définissant le « coefficient de frottement dynamique ». De façon générale on mesure que mD est plus petit que mS. De plus, Amontons et Coulomb, mais également Léonard de Vinci, ont mis en évidence que ces coefficients mS et mD ne dépendent pas de l'aire de contact de l'objet frottant (voir figure 3) : que l'on pose le kilo de sucre bien à plat ou sur la tranche, la force de frottement est la même, ce qui est assez peu conforme à l'intuition ! Nous reviendrons plus loin sur ce « mystère des surfaces », qui n'a été élucidé qu'assez récemment.

Un autre fait étonnant concerne la valeur typique de ces coefficients de frottement, qui s'écarte assez peu de m~0.3, pour des surfaces très différentes les unes des autres. La technologie permet toutefois de concevoir des surfaces avec des coefficients de frottement soit bien plus petits (m~0.001) soit plus grand (m > 1).

Le stick-slip, du violon aux tremblements de terre -

Ces lois simples permettent de rationaliser beaucoup des phénomènes observés pour les objets frottants. Nous nous attardons en particulier sur l'une des manifestations les plus marquantes du frottement, le stick-slip. Cette expression anglophone traduit parfaitement le phénomène, le stick-slip caractérisant un mouvement saccadé. Ce type de mouvement est observé lorsque l'on tire sur un objet frottant par l'intermédiaire d'un ressort : par exemple un paquet de sucre tiré par un élastique. Le mouvement de l'objet qui en résulte n'est en général pas uniforme mais saccadé : avec des périodes où l'objet résiste et ne bouge pas (« stick ») ; puis des périodes plus courtes où le seuil de résistance est dépassé et l'objet glisse sur une distance importante (« slip »). Les lois de Amontons-Coulomb permettent d'en comprendre les mécanismes élémentaires, et montrent que l'origine du « stick-slip » dans ce système mécanique simple {objet-ressort} est liée à l'inégalité des coefficients de frottement soulignée précédemment mD S. Les deux phases du mouvement reflètent ainsi deux états distincts du système : la phase statique (« stick ») est sous contrôle du frottement statique entre l'objet et la surface, tandis que la phase de glissement (« slip ») correspond au mouvement presque libre de l'objet sous l'action du ressort.

Cette dynamique saccadée se retrouve de façon générique dans des phénomènes pourtant très différents : du grincement des portes aux tremblements de terre, en passant par la mise en vibration d'une corde de violoncelle sous le frottement d'un archer. Même si ils se produisent à des échelles spatiales très différentes, ces phénomènes sont tous associés à une dynamique intrinsèque de type « stick-slip », associant les deux éléments mécaniques clefs : un corps frottant et un « ressort ». Dans le cas des instruments à cordes frottés, ces deux éléments sont aisés à identifier : le frottement se déroule à l'interface entre les crins de l'archer et la corde de l'instrument (via la colophane, résine qui augmente le frottement), tandis que la corde joue le rôle du « ressort ». Le mouvement continu de l'archer provoque une suite de petits déplacements de la corde, telle une multitude de pizzicati, qui produit in fine ce son velouté caractéristique des cordes frottées. Dans le cas des tremblements de terre, le frottement a lieu à l'interface entre plaques continentales qui jouent donc à la fois le rôle d'objet frottant (à leurs interfaces) et de ressort (dans leur globalité). Le déplacement des plaques continentales les unes par rapport aux autres pendant la phase stick conduit à l'accumulation de contraintes gigantesques à l'interface entre plaques. Le relâchement brutal de ces contraintes lorsque le seuil de résistance est atteint libère une énergie considérable et destructrice pendant la phase slip. Ici encore, le caractère saccadé du phénomène conduit à la production de vibrations, sous la forme d'ondes sismiques qui sont enregistrées par les sismographes. Si les mécanismes de base sont simples, la prédiction des tremblements de terre s'avère extrêmement complexe et continue à susciter des recherches poussées.

De l'origine des lois de Amontons-Coulomb -

Les lois du frottement énoncées précédemment sont très simples dans leur formulation, qui ne nécessite que l'introduction de coefficients sans dimension (mS et mD). Pourtant l'évidence apparente de ces lois cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, et cette liste n'est pas exhaustive. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes mis en jeu, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans.

Les premières tentatives d'explication des lois du frottement ont été proposées par Belidor et Coulomb au 18ème siècle, qui ont associé l'existence du frottement à la rugosité des surfaces. L'idée originale se base sur l'emboîtement des rugosités de surface qui conduit à l'existence d'un coefficient de frottement (voir Figure 1). Une schématisation simple de cette idée est représentée sur la figure 1 (droite), avec deux surfaces présentant des rugosités en dents de scie. Si l'on applique une force normale N sur la surface supérieure et une force horizontale T, un bilan des forces horizontales permet de montrer que l'équilibre des forces est rompu lorsque la force tangentielle est supérieure à une valeur de rupture : Tmax=mS |N|, définissant ainsi un coefficient de frottement statique mS=tan(a). L'angle a est ici la pente de la rugosité par rapport à l'horizontale. Aussi simpliste qu'il soit, cet argument permet de lier le frottement (statique) aux caractéristiques de la rugosité. De plus les valeurs expérimentales typiques des coefficients de frottement statique, de l'ordre de 0.3, correspondent à des pentes de la rugosité de surface de l'ordre de 15-20 degrés, ce qui est tout à fait compatible avec les caractéristiques typiques que l'on peut mesurer pour les rugosités de surfaces.

Cet argument repose cependant sur une hypothèse implicite : l'emboîtement parfait entre les rugosités des deux surfaces, tel que cela est illustré de façon schématique sur la figure 1, et sur la figure 2 (gauche) pour une surface schématique à l'échelle « atomique ». On parle dans ce cas de surfaces commensurables. Ca n'est bien sûr pas le cas en général dans la nature : même à l'échelle atomique, deux surfaces idéales, telles que celles qui sont représentés à l'échelle atomique sur la figure 2, présentent des légères différences de distance interatomique. Une légère disparité suffit à rendre très irrégulière la répartition des points de contact entre les deux surfaces (voir figure 2 droite), contrairement au cas commensurable (figure 2 gauche). On parle alors de surfaces incommensurables. On peut montrer par un raisonnement similaire à celui mené précédemment que la répartition irrégulière des contacts entre surfaces incommensurables conduit à l'annulation des

Figure 2 : Contact schématique entre deux surfaces (les disques esquissant les atomes de chaque surface en contact. (gauche) Deux surfaces commensurables en contact. Les points de contact entre surfaces (étoiles) sont répartis régulièrement. (droite) Deux surfaces incommensurables en contact. Les contacts entre surfaces (étoiles) se répartissent de façon irrégulière.
forces de frottement tangentielles : la force de frottement statique est identiquement nulle entre surfaces incommensurables !

Autrement dit, on aboutit à la conclusion que le frottement entre deux surfaces commensurables est non-nul, tandis qu'il s'annule exactement si ces deux surfaces sont incommensurables.

Ce résultat très étonnant a été confirmé pour la première fois dans des expériences très récentes par le groupe de M. Hirano et collaborateurs au japon [Hirano1997], puis confirmé par d'autre groupes de recherche, notamment pour des surfaces de graphite [Dienwiebel 2004].

Ce phénomène est désormais connu sous le nom de « supra friction » et a ouvert une voie de recherche très prometteuse pour le développement de surfaces avec des frottements très faibles, le graal des tribologues.

Cependant, la suprafriction est pour l'instant observée dans des conditions drastiques, assez éloignées des conditions de la vie réelle. Ces mesures sont notamment réalisées en plaçant ces surfaces dans une enceinte où un vide très poussé est réalisé. On supprime ainsi tout contaminant présent dans l'atmosphère (poussière, molécule organique, ...) qui, comme on va le voir, supprimerait cet état de suprafriction et conduirait à une force de frottement non-nulle. Il reste donc encore du chemin à parcourir pour obtenir des surfaces « supra-frottantes » dans des conditions d'utilisations technologiques, où il est difficile de supprimer la présence de polluants.

Le « troisième corps »- le grain de sable dans les rouages

La remarque précédente pointe le rôle joué dans le frottement par les contaminants et plus généralement les corps intersticiels. Ce rôle a été reconnu assez récemment dans l'histoire de la tribologie. Pourtant les corps intersticiels constituent un ingrédient incontournable du frottement. En effet, les surfaces laissées à l'air libre se polluent très rapidement sous l'effet de poussières, molécules organiques, de l'humidité, etc. présentes dans l'air. De plus le contact frottant entre deux surfaces génère lui-même des débris d'usure, grains de matière de tailles variées qui vont se retrouver dans les interstices à l'interface entre les deux surfaces. Une illustration simple est la trace laissée par une craie sur un tableau, ou d'un pneu lors du freinage.

Or la présence de contaminants modifie profondément le frottement, et notamment le scénario discuté précédemment en ce qui concerne la commensurabilité des surfaces frottantes. Des travaux récents utilisant des simulations numériques de ces processus à l'échelle moléculaire ont montré que la présence de quelques contaminants dans l'interstice entre les deux surfaces suffit à rétablir systématiquement un coefficient de frottement non-nul, même dans le cas où les deux surfaces sont incommensurables [Robbins]. Les contaminants mobiles viennent se placer dans les interstices laissés libres entre les surfaces et contribuent à rétablir une « commensurabilité effective » des surfaces, sous la forme d'un emboîtement partiel. Le coefficient de frottement prend alors une valeur non nulle, même pour des surfaces incommensurables. Les contaminants viennent jouer le rôle du « grain de sable » dans les rouages.

A cause de ces corps intersticiels, le contact entre deux surfaces dans des conditions de la vie quotidienne a donc assez peu à voir avec l'idée d'une assemblée d'atomes telle qu'elle est représentée sur la figure 2. Le « frottement idéal » qui y est représenté n'existe que dans des conditions très particulières. Ce résultat donne donc une perspective différente concernant l'origine du frottement entre surfaces, en pointant la contribution essentielle des impuretés.

Pour prendre en compte ces impuretés, les tribologues ont introduit la notion de « 3ème corps », qui regroupe l'ensemble des corps situés entre les deux surfaces en contacts (les deux premiers corps). Un problème de frottement doit donc en principe prendre en compte ces trois corps et les échanges (de matière, chaleur, etc.) qui peuvent exister entre eux. On voit ici poindre la complexité du problème de frottement. Les lois de Coulomb et l'origine même du frottement prennent leur origine non pas dans un seul phénomène bien identifié à l'échelle atomique, mais résulte d'un ensemble de phénomènes couplés.

Le mystère des surfaces -


Figure 3 : dessins de Léonard de Vinci, illustrant ses expériences démontrant l'indépendance du coefficient de frottement vis-à-vis de l'aire de contact entre le corps frottant et la surface (tiré de [Dowson]).
Cette complexité sous-jacente se retrouve dans une autre manifestation des lois de Amontons-Coulomb : l'indépendance des coefficients de frottement vis-à-vis de l'aire de contact. Léonard de Vinci avait déja observé ce phénomène, comme le montre l'une de ses planches (figure 3). Quelque soit la surface de contact de l'objet frottant, la force de frottement est identique. Ce résultat très contre-intuitif a défié l'imagination des scientifiques plusieurs siècles avant que Bowden et Tabor au Cavendish à Cambridge n'en proposent une explication dans les années 1950.

La clef de ce phénomène est une nouvelle fois la rugosité de surface. Comme on le montre schématiquement sur la figure 4, à cause de la rugosité, les zones de contact réel entre les surfaces sont bien plus petites que l'aire de contact apparente entre les surfaces, telle qu'elle nous apparait de visu.


Aréelle
Figure 4 : Illustration de deux surfaces rugueuses en contact. L'aire de contact réelle (Aréelle) entre les surfaces est bien plus petite que l'aire apparente (Aapp).
Aapp
Cette distinction entre surface réelle et surface apparente a été démontré par visualisation optique directe de la surface de contact, notamment par Dieterich et Kilgore et plus récemment par Ronsin et Baumberger. Cette observation donne une image de zones de contact réel très clairsemées, avec une taille typique pour chaque zone de l'ordre du micron. Ainsi l'aire de contact réelle entre deux objets macroscopiques ne représente typiquement que 0.1 % de l'aire de contact totale : Aréelle /Aapp~0.001.

Une conséquence immédiate est que la force normale (FN) à laquelle on soumet l'objet ne se répartit que sur les aspérités en contact et non sur l'ensemble de la surface de l'objet. En conséquence la pression au sein de ces contacts, c'est-à-dire la force par unité de surface, Pcontact=FN/Aréelle , est bien plus grande que celle que l'on attendrait a priori si la force FN se répartissait sur l'ensemble de la surface, Papp=FN/Aapp. Or aux très grandes pressions, un matériau devient en général plastique, c'est à dire qu'il s'écrase sans que sa pression ne varie. La valeur de la pression à laquelle se déroule ce phénomène est appelée dureté du matériau, que l'on notera H. La pression au sein des contacts étant fixée à H, on en déduit alors que l'aire réelle du contact est directement proportionnelle à la force appliquée : Aréelle = FN/H. Autrement dit, plus la force appliquée est grande, plus le contact réel est grand, ce qui est finalement assez intuitif.

Ce mécanisme permet de retrouver les lois de Coulomb. En effet, l'aire frottante étant l'aire réelle, on s'attend à ce que la force de frottement tangentielle soit proportionnelle à cette aire : Ffrottement = g Aréelle. Le coefficient de proportionalité g a les dimensions d'une force par unité de surface (donc d'une pression). On note plus généralement ce coefficient sY, « contrainte de cisaillement ». En utilisant l'expression précédente pour l'aire de contact réelle, Aréelle = FN/H, on aboutit à une force de frottement qui prend la forme d'une loi de Amontons-Coulomb : Ffrottement = m FN, avec m=sY/H qui est bien une caractéristique du matériau à la surface.

Cette explication de Bowden et Tabor au phénomène de frottement permet donc de comprendre la proportionalité de la force de frottement vis-à-vis de la force normale, mais également l'indépendance du coefficient de frottement vis-à-vis de la surface apparente de contact.

Cette explication repose cependant sur l'hypothèse de déformation plastique des aspérités, qui, si elle est pertinente pour des métaux, pose question pour d'autres matériaux (comme par exemple les élastomères). De fait, Greenwood et Williamson ont montré dans les années 1960 que le point clef du raisonnement précédent, c'est à dire la proportionalité entre aire de contact réelle et force normale FN, est maintenu même dans le cadre d'aspérités qui se déforment élastiquement, par un effet de moyenne statistique sur l'ensemble des aspérités en contact.

Une autre hypothèse implicite du raisonnement précédent est que la contrainte de cisaillement que nous avons introduit, sY, est une caractéristique des matériaux, indépendante des conditions du frottement, notamment de la vitesse. Ce point mérite de s'y attarder un peu plus longuement. La contrainte de cisaillement sY est associée aux propriétés mécaniques du contact à l'interface entre aspérités de tailles micrométriques. Des expériences récentes ont pu sonder indirectement les propriétés mécaniques de ces jonctions [Bureau]. Ces expériences suggèrent qu'à la jonction entre deux aspérités en contact, le matériaux se comporte comme un milieu « vitreux » et que la contrainte seuil est intimement associée à ces propriétés vitreuses. Qu'est-ce qu'on appelle un « milieux vitreux » ? Ce sont des milieux dont la structure microscopique est désordonnée (comme un liquide), mais figée (comme un solide). Leur propriétés sont intermédiaires entre celles d'un liquide et celles d'un solide : entre autres, ils ne coulent pas au repos (comme des solides), mais au delà d'une contrainte minimale appliquée, ils s'écoulent (comme des liquides). De tels matériaux sont omniprésents dans notre vie quotidienne : verre, mousses alimentaires, émulsions (mayonnaise), gels, milieux granulaires, etc. Ce sont justement ces propriétés mi-liquide, mi-solide qui constituent leur intérêt industriel (et notamment agro-alimentaire). Au delà des intérêts industriels évidents, ces milieux vitreux font actuellement l'objet d'une recherche fondamentale très intense, avec des progrès récents dans la compréhension des mécanismes élémentaires associés à leur façon très particulière de couler.

La question du frottement se trouve précisement liée à la compréhension des processus d'écoulement de tels milieux, pourtant à une tout autre échelle spatiale. Comprendre l'origine de la contrainte de cisaillement à l'échelle (quasi-nanométrique) des jonctions entre aspérités en contact rejoint ainsi la compréhension des propriétés d'écoulement de la mayonnaise ! Au delà de l'anecdote, cette compréhension soulève dans les deux cas des problèmes fondamentaux très délicats.

La lubrification -

Jusqu'à présent, nous avons concentré notre discussion sur le frottement dit « sec », qui correspond à la situation où les deux surfaces frottantes sont en contact direct. Mais du point de vue technologique et pratique, cette situation est à proscrire si l'on veut un frottement faible. Cela apparaît comme une évidence pratique qu'il faut lubrifier les pièces mécaniques et « mettre de l'huile dans les rouages ». Un moteur à explosion qui « tourne » sans huile va chauffer, jusqu'à subir des dommages définitifs. La diminution du frottement par l'ajout de lubrifiants est connu depuis des milliers d'années, comme le démontre ce bas-relief égyptien représenté sur la figure 5, datant de 1880 avant Jésus-Christ (document tiré de [Dowson]). Parmi les centaines d'hommes occupés à déplacer le traîneau sur lequel repose la statue, un personnage a un rôle bien particulier puisqu'on le voit verser du liquide devant le traîneau déplacé afin de lubrifier le contact entre le traîneau et le sol.


Figure 5 : Bas-relief égyptien montrant une statue tirée par 170 hommes. Le personnage encerclé verse du liquide pour lubrifier le frottement entre le support de la statue et le sol (tiré de [Dowson]).
Un autre exemple est la lubrification des articulations du corps humain. Par exemple, au niveau du genou, ce rôle du lubrifiant est tenu par le liquide synovial, liquide rendu très visqueux par la présence de molécules organiques très longues (l'acide hyaluronique). A l'inverse certaines pathologies, comme l'arthrose, sont associées à la baisse du pouvoir lubrifiant de ce liquide, notamment par la baisse de la viscosité.

Il apparaît donc naturel d'utiliser des liquides très visqueux comme lubrifiants (huiles, ou graisses). Ainsi, l'eau, liquide très peu visqueux, est en général un très mauvais lubrifiant. On peut s'en convaincre par une expérience très simple : des mains mouillées par de l'eau et frottées l'une contre l'autre maintiennent un fort frottement lors du mouvement, tandis que quelques gouttes d'huile suffisent à rendre les mains complètement glissantes. Si ce phénomène paraît intuitivement évident, il est toutefois étonnant de réaliser que c'est le liquide le moins fluide qui conduit au frottement le plus réduit.

Attardons-nous sur le rôle du lubrifiant dans le frottement. L'action du lubrifiant est double : d'une part le frottement entre les deux objets se réalise via un liquide et non plus directement sous la forme d'un frottement « sec » entre solides, ce qui conduit à un frottement fluide beaucoup plus faible ; et d'autre part, et c'est le point crucial, il permet d'éviter le contact solide direct. Autrement dit, l'un des rôles du lubrifiant est de maintenir la présence d'un film liquide entre les deux parois solides, empêchant ainsi les aspérités solides d'entrer en contact direct.

C'est justement là où va intervenir la viscosité. Un liquide visqueux coule « difficilement ». Lorsque l'on va presser les deux surfaces l'une contre l'autre (par exemple les mains dans l'exemple précédent), le liquide le plus visqueux sera le plus difficile à déplacer. Il se maintiendra donc sous la forme d'un film liquide entre les deux surfaces et c'est ce film liquide maintenu qui assurera le frottement fluide, donc la lubrification. A l'inverse, l'eau, fluide peu visqueux, va disparaître du contact lorsque les deux surfaces seront pressées l'une contre l'autre : un contact solide direct sera rétabli et l'on retrouve ainsi un frottement « sec » avec un coefficient de frottement élevé.

D'autres propriétés du lubrifiant vont également jouer un rôle dans ce mécanisme, notamment la « mouillabilité », c'est à dire l'affinité du liquide vis-à-vis de la surface, qui va influer sur la capacité du lubrifiant à recouvrir la surface et ses anfractuosités.

Le lubrifiant doit donc assurer des fonctions relativement antagonistes : l'une est d'être suffisamment fluide pour assurer un faible frottement, l'autre d'être suffisamment visqueux pour éviter le contact direct. Une huile de type moteur est donc un mélange complexe, contenant des dizaines d'additifs dont l'assemblage permet au final d'atteindre ces deux objectifs de façon optimale.

Conclusions :

Dans ce texte, nous avons présenté quelques points intervenant dans le problème du frottement entre solide. En aucun cas, il ne s'agit ici d'un panorama exhaustif et nous n'avons pas parlé ici de nombre de phénomènes également présent dans les problèmes de frottement, comme la physico-chimie des surfaces, la thermique, le vieillissement, l'usure, l'abrasion, etc...qui auraient tout aussi bien nécessités une discussion approfondie.

La tribologie est ainsi une science par essence pluridisciplinaire. Le phénomène de frottement résulte non pas d'un mécanisme unique, mais d'une multitude de phénomènes complexe et souvent couplés, qui aboutissent in fine aux lois pourtant simples d'Amontons-Coulomb.

C'est également vrai dans l'approche scientifique de ces problèmes. La science des frottements associe ingénieurs et scientifiques, recherche appliquée et fondamentale. Ces deux approches sont par nature couplées. Ainsi, si les questions soulevées sont anciennes, c'est un domaine dans lequel les derniers développements fondamentaux ont permis de mettre en évidence des phénomènes complètement inattendus, laissant augurer de progrès technologiques important dans un avenir proche.

Références :

[Bowden-Tabor] F.P. Bowden and D. Tabor, « The friction and lubrication of solids » (Clarendon Press, London, 1950).

[Bureau] L. Bureau, T. Baumberger, C. Caroli, « Jamming creep at a frictional interface », Physical Review E, 64, 031502 (2001).

[Dowson] D. Dowson « History of Tribology » (Longman, New York, 1979).

[Dienwiebel] M. Dienwiebel et al., « Superlubricity of Graphite », Physical Review Letters, 92, (2004).

[Hirano1997] M. Hirano, K. Shinjo, R. Kaneko and Y. Murata, « Observation of superlubricity by scanning tunneling microscopy », Physical Review Letters, 78, pp.1448-1451 (1997)

[Robbins] G. He, M. Müser, M. Robbins « Adsorbed Layer and the origin of static friction », Science 284 1650-1652 (1999).

 

DOCUMENT       canal-u.tv     LIEN 

 
 
 
 

LES LIMITES DE LA CONNAISSANCE PHYSIQUE

 

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 26 juillet 2000.


La connaissance physique a-t-elle des limites ?
par Jean-Marc Lévy-Leblond
Il n’est pas indifférent que dans ce cycle de conférences sur “tous les savoirs”, la question des limites de la connaissance n’ait été posée qu’à la physique. C’est sans doute son statut implicite de science modèle qui lui vaut cet honneur. C’est aussi que, depuis le début du XXe siècle, la physique s’est à elle-même posé la question. « L’homme devrait garder son humilité devant la nature puisque la précision avec laquelle il peut l’observer rencontre des limitations intrinsèques. » Ainsi l’Encyclopædia Britannica conclut-elle son article sur le “principe d’incertitude” de Heisenberg. De fait, la révolution quantique a donné lieu à d’abondantes exégèses sur ce thème : l’impossibilité de mesurer à la fois la position et la vitesse des corpuscules signalerait une limite absolue de nos connaissances. La Nature elle-même refuserait de se laisser dévoiler, et notre science la plus avancée buterait ainsi sur des frontières infranchissables. L’impossibilité de dépasser la vitesse de la lumière, mise en évidence par Einstein, a été interprétée dans la même veine : nous ne pouvons savoir ce qui s’est passé sur le Soleil durant les huit dernières minutes, faute qu’aucun signal ne puisse nous en prévenir. Mais avec un recul de quelques décennies, cette conception résignée, traduite par des vocables qui paraissent aujourd’hui pour le moins inadaptés (relativité, incertitudes), a perdu sa pertinence. Loin d’imposer des bornes à notre savoir, ces découvertes ont au contraire permis à notre compréhension de considérables progrès, en réorientant nos conceptualisations et nos interrogations. Elles ont montré l’inadéquation au réel de nos formulations antérieures. Si certaines questions (« Que se passait-il sur le Soleil il y a deux minutes ? », « Où est l’électron et à quelle vitesse va-t-il ? ») n’admettent pas de réponses, c’est qu’elles sont dépourvues de pertinence. De même, la question « Qu’y a-t-il sur la Terre à 30 000 kilomètres au Sud de Paris ? » est-elle rendue caduque par la rotondité de la Terre et la connaissance de sa circonférence (40 000 kilomètres) ; dira-t-on pour autant que cette découverte impose une limitation à la géographie ? Les mutations théoriques de la physique du XXe siècle n’ont nullement découvert des limites intrinsèques à notre connaissance scientifique, mais, bien au contraire, lui ont ouvert de nouveaux espaces. En témoigne l’approfondissement considérable de notre maîtrise, intellectuelle mais aussi matérielle, du monde quantique. Reste que la persistance des interprétations négatives et des métaphores abusives (voir un récent article du Monde sur la « politique quantique de Jacques Chirac » !) montre bien cependant une limitation effective de nos connaissances – nous y reviendrons.
Au cours des dernières décennies, le défaitisme a plutôt cédé la place à un triomphalisme naïf, selon lequel la physique ne rencontrerait aucun obstacle et serait en mesure d’accéder à une connaissance complète de l’univers : le réel obéirait à un petit nombre de lois fondamentales, que nous serions sur le point de découvrir ; c’est le fantasme de la “théorie ultime” ou d’une “théorie du Tout”. La connaissance physique rencontrerait alors, effectivement, ses limites : finie par essence, elle toucherait bientôt à ses bornes, et s’épuiserait dans son succès. Une première réserve devant cette perspective, pourtant entretenue par des physiciens réputés, est suscitée par sa répétitivité : déjà Newton pensait avoir découvert une théorie universelle de la gravitation, capable d’expliquer l’ensemble des phénomènes physiques ; le développement de l’électromagnétisme a fait litière de cette prétention. À la fin du XIXe siècle, un aussi grand esprit que Lord Kelvin considérait que la physique était (presque) terminée – juste avant que l’on ne découvre les interactions nucléaires… Que la physique depuis plus d’un demi-siècle n’ait mis en évidence aucune nouveauté radicale, ne l’autorise en rien à proclamer la clôture du registre des forces essentielles à l’œuvre dans la nature. Mais surtout, l’autosatisfaction des physiciens fondamentalistes repose sur une vision bien pauvre de la réalité : la multiplicité des formes concrètes d’organisation de la matière, la richesse de comportement des innombrables objets de la nature, rend toujours plus large le hiatus entre les explications générales et la compréhension détaillée des faits. Un nombre croissant de phénomènes matériels, récemment découverts (la supraconductivité à haute température) ou connus depuis longtemps (la flottabilité de la glace) restent mal compris, bien que la théorie quantique abstraite qui les sous-tend soit connue. S’il y a une leçon à retenir du XXe siècle, c’est bien la faillite de tout réductionnisme naïf, selon lequel la connaissance théorique remonte nécessairement des principes à leurs manifestations. Une (très éventuelle) “théorie du Tout” ne serait certainement pas une théorie de tout… Le programme qui consiste à « remplacer du visible compliqué par de l’invisible simple » (selon les mots de Francis Perrin) ne saurait prétendre à l’universalité : l’invisible aussi peut être compliqué et, tel le vivant, ne guère se plier aux méthodes éprouvées de la physique – expérimentations dûment reproductibles, formalisation mathématique sophistiquée. C’est dire a fortiori que la physique rencontre effectivement des limites : celles des domaines où elle doit céder la place aux autres sciences. La scientificité ne peut se figer en critères généraux. Malgré ses prétentions à régir l’ensemble de nos connaissances scientifiques, ni son ancienneté, ni sa précision n’évitent à la physique de devoir reconnaître l’autonomie et la souveraineté des autres disciplines.
Mais on ne peut s’en tenir à un point de vue exclusivement épistémologique qui considèrerait la question des limites de la connaissance sous l’angle d’une confrontation abstraite entre la nature et l’esprit. Cet esprit est celui d’humains vivant en des sociétés particulières qui fournissent le cadre où se déroule le processus de connaissance, détermination qui à la fois permet et contraint la recherche de savoir. Il y eut des temps où ce conditionnement était essentiellement idéologique, comme le montre le rôle du christianisme dans la révolution scientifique du XVIIe siècle, rôle à la fois négatif (le procès de Galilée !) et positif (l’idée même du “Grand livre de la Nature”, liée au poids culturel des Écritures). Aujourd’hui prime l’économie. Le succès pratique de la physique au XXe siècle (électronique, nucléaire, etc.) tend à l’assujettir à des programmes à court terme, au détriment de projets plus spéculatifs. En même temps, l’industrie fécondée par la science reflue en son propre sein, conduisant à la “Big Science” dont le gigantisme semble atteindre ses bornes. La proportion des ressources sociales consacrées à la recherche fondamentale plafonne depuis quelques années, pour la première fois en quatre siècles de science moderne. L’abandon par les États-Unis, voici dix ans, de la construction d’un accélérateur de particules géant (SSC), signale ce changement d’ère. Les hésitations du politique devant les projets d’instrumentation scientifique à grande échelle (voir le récent conflit autour du projet de synchrotron “Soleil”) sont désormais la règle, ce qui ne saurait surprendre au vu de leurs budgets, couramment chiffrés en milliards de francs. Autant dire que la connaissance physique, dans certains de ses secteurs traditionnellement les plus prestigieux atteint les limites du socialement acceptable : la recherche du boson de Higgs, aussi excitante soit-elle pour l’esprit (de qui ?), présente un rapport coût/intérêt assez élevé pour que soit justifié son examen critique par la collectivité. Comme pour d’autres projets scientifiques, un ajournement de quelques décennies ne constituerait peut-être pas un retard majeur dans le développement de l’humanité. Après tout, d’autres entreprises humaines atteintes de gigantisme ont connu un coup d’arrêt au plus fort de leur développement. Les pyramides du Haut-empire égyptien et les cathédrales de l’Europe gothique ont laissé la place à des projets plus modestes – mais non moins féconds. Le redéploiement, historiquement bien tardif d’ailleurs, d’une physique à notre échelle (turbulence, matière molle) pointe dans cette direction. Mais on peut comprendre l’amertume des chercheurs devant les difficultés de leurs desseins désintéressés les plus ambitieux, alors que, en même temps, c’est un développement débridé que connaît la poursuite du savoir lorsqu’elle se confond avec celle du profit. Les mêmes phénomènes affectent (plus rapidement et plus vivement encore) les autres sciences, celles de la vie tout particulièrement. Mais la relative ancienneté de la physique permet d’étudier son cas avec quelque lucidité – privilège d’une ancienne aristocratie sur une jeune bourgeoisie.
Pour autant, cette domination et cette limitation de la science par l’économie et la politique n’est pas sans rapports avec ses problèmes épistémiques. Car, s’il est légitime de s’interroger sur les limites de la connaissance, encore faut-il savoir quel sens attribuer au mot “connaissance”. La polysémie de ce terme l’écartèle entre une signification réduite, celle d’un savoir factuel et particulier (la connaissance de la valeur de la vitesse de la lumière, ou la connaissance des éléments du tableau de Mendeleïev), et une signification large, celle d’une compréhension profonde et générique (la connaissance du rôle structurel de la vitesse-limite pour l’espace-temps, ou le rapport entre le tableau de Mendeleïev et la théorie quantique de l’atome). Force est de reconnaître que la physique moderne a accumulé un retard considérable quant à la maîtrise intellectuelle de ses propres découvertes. Bien des pseudo-paradoxes et des formulations insatisfaisantes continuent à la hanter, faute d’une refonte conceptuelle menée à bien ; le plus difficile à comprendre quant aux remarquables développements récents sur la notion de “non-séparabilité” quantique, par exemple, est encore leur considérable délai historique. La sophistication de nos formalismes a grandement crû beaucoup plus vite que notre capacité à en maîtriser le sens non ; déjà Maxwell s’écriait, il y a plus d’un siècle, que « nos équations semblent plus intelligentes que nous ! ». C’est là le contrecoup de la technicisation de la science, et de la division du travail qui s’y accentue, sans parler de la pression productiviste de son organisation sociale. Il est probable que ce déficit de notre connaissance – au sens le plus noble et le plus ambitieux du terme – handicape fortement les possibilités pour la science physique de dépasser certaines de ses difficultés actuelles. Mais si cette limitation a de sérieux effets au sein de la communauté scientifique, elle en a de bien plus graves encore dans la société en général. Comment développer une véritable acculturation de la science si ses praticiens eux-mêmes sont en manque aigu à cet égard ? Et, faute d’une reconquête intellectuelle, peut-on espérer que la science puisse devenir l’objet du débat démocratique dont la nécessité se fait chaque jour plus vive ? Ainsi, l’analyse des limites de la connaissance scientifique exige-t-elle d’abord la reconnaissance des limites de la science.
Bibliographie : Jean-Marc Lévy-Leblond, Aux contraires (l’exercice de la pensée et la pratique de la science), Gallimard, 1996 ; Impasciences, Bayard, 2000.

 

 DOCUMENT       canal-u.tv     LIEN

 

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google