ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA CHIMIE QUANTIQUE

 

 

 

 

 

 

 

Texte de la 233e conférence de l'Université de tous les savoirs donnée le 20 août 2000.

Entre physique et chimie, une discipline métisse : la chimie quantique

par Jean-Paul Malrieu

La Chimie Quantique est installée entre deux sciences majeures, à la charnière entre la Physique, plus particulièrement la Physique Moléculaire et la Physique du Solide, et la Chimie. Elle fait partie de ce qu'en France on appelle la Chimie-Physique, où le tiret signifie le rapprochement de deux substantifs, tandis que les Anglo-saxons distinguent Chemical Physics et Physical Chemistry, selon la pondération des intérêts et les outils mis en oeuvre. La Chimie quantique n'est qu'une partie de la Chimie-Physique. Il existe en effet une Chimie-Physique qui s'intéresse aux propriétés macroscopiques de la matière, et qui mobilise essentiellement des représentations classiques. La Chimie quantique peut être vue comme une discipline qui s'intéresse d'abord à des propriétés et des phénomènes qui concernent l'univers des molécules, à des échelles microscopiques, celles de la molécule ou de l'atome, et qui ne peuvent être compris qu'à l'aide de la Physique Quantique. Il s'agit des propriétés des assemblées d'électrons que les atomes partagent pour construire les édifices moléculaires, et des propriétés caractérisant le mouvement des noyaux dans la molécule.

Quelques questions élémentaires caractérisent ce domaine :

- Comment, par quelles forces, tiennent ces édifices à longue durée de vie que sont les molécules ? Quels sont les différents types de liaisons chimiques entre les atomes, quelle est leur nature, leur solidité ?

- Comment les molécules répondent-elles à la lumière, à quelles longueurs d'onde répondent-elles, que se passe-t-il quand elles absorbent un ou plusieurs photons ?

- Quelles interactions existe-t-il entre des molécules, quels compromis passent-elles, quels édifices d'édifices peuvent-elles construire dans les liquides, les membranes, les organisations supra-moléculaires dont vous parlait J. M. Lehn ?

- En quoi consiste la réaction chimique qui, de la rencontre de A avec B, construit la molécule AB, ou de celle entre AB et CD nous donne les molécules AC et BD ? Par quels chemins, à quelles conditions, doit passer le super-système des deux molécules qui entrent en collision ou s'approchent pour que se négocie le nouvel assemblage, produit de la réaction chimique ?

Mais à ces questions il peut être apporté deux types de réponses, les unes théoriques, par la Chimie quantique, et d'autres expérimentales, qui mobilisent les ressources très diversifiées des spectroscopies. La Chimie-Physique microscopique expérimentale est difficilement discernable de la Physique moléculaire, si ce n'est par des frontières qui tiennent plus de la tradition que de la raison. Elle interpelle très subtilement, en augmentant sans cesse la résolution temporelle ou énergétique de ses interpellations, ou en croisant ces interpellations, les objets sur lesquels travaillent les Chimistes Quanticiens. Ceux-là mobilisent les postulats et les théorèmes de la Physique Quantique, énoncés dès les années vingt du vingtième siècle, pour interpréter et/ou prédire, par des voies purement abstraites ou numériques, les propriétés des molécules. La Chimie Quantique est donc une discipline théorique, bien qu'on puisse la dire, j'y reviendrai, plus calculatoire que théorique.

Une scansion temporelle

D'abord un peu d'histoire sur les étapes par lesquelles est passée cette discipline, qui nous permettra d'en mieux cerner les enjeux.

Au début se trouvent d'une part un corpus théorique, celui de la Mécanique Quantique, avec ses concepts fondamentaux, ses équations maîtresses, ses théorèmes, ses méthodes rigoureuses et ses approximations raisonnées, et d'autre part un legs, la somme des informations préliminaires et des expériences préalables apportées par la Physique Atomique, qui a joué un rôle essentiel dans la naissance de la Mécanique Quantique, et qui concerne les entités à partir desquelles se construisent les molécules.

Je n'écrirai pas d'équation, pas même l'équation maîtresse qui fixe les états stationnaires d'un système quantique, l'équation de Schrödinger, je procéderai par images et par métaphores abusives, forcément abusives. Je dois par exemple dire que les électrons sont des particules chargées indiscernables, mais qu'ils ont une caractéristique, leur spin, qui ne peut prendre que deux valeurs et qu'on peut voir comme un sexe, si on veut une analogie facile.

Le legs de la Physique Atomique

La Physique Atomique lègue d'abord une bonne simplification, en nous disant, avec Born et Oppenheimer, que les noyaux, qui sont aussi des particules quantiques, ont une masse tellement plus lourde que les électrons qu'on peut considérer leurs mouvements comme lents par rapport à ceux des électrons, ceux-ci adaptant instantanément leur répartition à la position des noyaux. Cette approximation, dans laquelle se placent 99,9 % des travaux, découple les problèmes électronique et nucléaire et nous laisse avec une population homogène d'électrons, se déplaçant dans le champ électrique attractif exercé sur eux par les noyaux. Autre leçon, qualitative, l'idée que l'état du système résulte d'une sorte de compromis entre trois composantes de l'énergie, l'attraction nucléaire d'une part, qui est négative (stabilisante), et grande quand les électrons orbitent très près des noyaux, ensuite la répulsion entre électrons, particules de même charge, qui les fait se fuir, et enfin l'énergie cinétique, positive, qui n'est faible que si les électrons se promènent tranquillement dans de vastes espaces. Le compromis se joue donc entre des forces qui confinent les électrons près des noyaux et d'autres qui tendent à les éloigner, à les faire se mouvoir sur de plus vastes orbites.

La Physique Atomique introduit très tôt une vision hiérarchisée des populations d'électrons dans l'atome, un modèle en couches et sous-couches. Ces couches caractérisent des niveaux d'énergie et des extensions spatiales, il y a des couches internes d'énergie très profonde, dont les électrons orbitent près du noyau, et des couches externes, dites de valence, d'énergies plus hautes et dont les électrons orbitent plus loin du noyau. Alors que les premières ne participeront pas aux liaisons chimiques, se contenteront en quelque sorte de s'y adapter par de petites modifications, ce seront les secondes qui participeront à la construction des liaisons entre atomes.

Les sous-couches peuvent être vues comme caractérisant des formes d'orbites des électrons, dans une image classique. C'est pourquoi on les appelle orbitales. Je les appellerai boîtes, ici atomiques. Disons qu'elles ont une forme et une extension spatiale, qui caractérisent par leur volume le domaine où l'électron qui l'occupe aime à se promener et par leur forme, le type de trajectoire qu'il y adopte. On a donc des boîtes sphériques, les orbitales e type « s », des boîtes allongées selon un axe avec deux lobes, de signes différents, les orbitales « p », etc.

Bref une petite zoologie de base que la Chimie quantique va manipuler. Cette construction du modèle atomique, dans laquelle les électrons vont remplir gentiment, deux par deux de spins opposés, les couches et sous-couches d'énergies les plus basses, rationalise le tableau périodique de Mendeleïev, proposé cinquante ans plus tôt. C'est aussi à la Physique Atomique que la Chimie Quantique devra un certain nombre de ses outils, par exemple l'approximation dite de « champ moyen », et la conscience des difficultés du problème à N-corps, dont je reparlerai plus en détail.

Premier temps, comprendre la liaison chimique (les années trente)

Dès les années trente les quanticiens cherchent à comprendre la nature des différentes liaisons chimiques que postulaient les chimistes depuis presque cent ans. Ils appliquent donc, moyennant force simplifications, leurs outils à la compréhension des molécules les plus élémentaires, la molécule H2+, à un seul électron, et la molécule H2, à deux électrons. L'idée clef est la suivante : à ne pas rester dans la boîte de l'atome dans lequel il est arrivé, et à se mouvoir près de l'autre noyau, un électron peut gagner en énergie cinétique puisqu'il orbite dans un volume plus large sans perdre en énergie potentielle, la liaison est liée à une délocalisation des électrons dans la liaison chimique. Cela va sans problème s'il n'y a qu'un électron dans la liaison ; s'ils sont deux, il faut qu'ils soient de sexes opposés, pour que l'électron de spin « up » apporté par l'atome A puisse aller se promener dans la boîte apportée par l'atome B, occupée par un électron de spin « down » et réciproquement.

On a donc un modèle, dit de la Liaison de Valence (Valence-Bond), qui manipule les boîtes atomiques de valence des atomes et construit des liaisons à 2 électrons de spins opposés, se déplaçant entre les deux boîtes apportées à la liaison par les deux atomes partenaires.

Une solution alternative consiste à déchirer la frontière entre les deux boîtes atomiques, à faire une seule boîte plus grande sur la liaison et à y mettre les deux électrons, c'est une orbitale moléculaire de liaison. Les électrons qui n'entrent pas dans des paires de liaison restent dans des boîtes atoniques, un peu déformées par les liaisons engagées, qu'on appelle « paires libres ».

Si les deux atomes sont de nature différente, les électrons peuvent préférer orbiter plutôt, voire seulement près de l'un d'eux, on aura alors une liaison partiellement ionique, comme dans LiH, ou très ionique comme dans NaCl.

En tout cas la théorie quantique naissante vient rationaliser d'emblée le jeu de Lego moléculaire avec lequel les chimistes jouaient et pensaient depuis plus d'un demi-siècle, en écrivant leurs formules chimiques avec des lettres, les atomes, et des traits, les liaisons, supposées porter deux électrons. Cette conciliation de la Chimie constructiviste intuitive avec la théorie abstraite qui venait de naître est un événement épistémologique majeur trop occulté dans l'enseignement.

Un autre domaine de la chimie, la chimie organométallique, va bénéficier très vite de la Physique atomique ; on comprendra en effet comment les ions métalliques, qui sont entourés de ligands moléculaires ou d'ions non métalliques, sont perturbés par cet environnement, des sous couches cessent d'avoir la même énergie, les plus basses acceptent les électrons qui sont sur le métal, et la spectroscopie de celui-ci est très différente de ce qu'elle était sans les ligands. C'est la théorie du Champ Cristallin, complétée ensuite par la prise en compte des délocalisations qui peuvent intervenir entre les orbitales et les électrons des ligands et du métal, pour devenir théorie du Champ des Ligands, un instrument conceptuel de base incontournable dans ce domaine, dépassant le modèle classique intuitif des paires électroniques de liaison.

Cette période voit aussi s'établir la compréhension du mouvement des noyaux, mouvements de rotation et de vibration, donnant lieu à des spectroscopies spécifiques, riches d'informations.

Dernier apport de cette époque pionnière, la compréhension de ce qui se passe entre les molécules quand elles s'approchent sans faire une réaction chimique, les forces qui les attirent, dont certaines sont d'ordre électrostatique mais d'autres, les forces dites de dispersion, ne peuvent être comprises que dans le cadre de la théorie quantique, et les forces qui les repoussent, elles aussi d'origine quantique.

Ainsi s'est immédiatement construite une théorisation qualitative, interprétative, qui a mis de l'ordre dans des variétés d'édifices d'apparence disparate et fourni de nouveaux concepts, ce qui était énorme. Jusque là pas d'ordinateur, des simplifications drastiques mais raisonnées permettant la rationalisation.

L'ère de la délocalisation électronique (les années 45-60)

Tout ne pouvait coller aussi simplement avec le petit Lego des chimistes. S'il en avait été ainsi, la Mécanique Quantique n'aurait servi qu'à justifier une vision classique dans laquelle des noyaux sont liés par des ressorts de longueurs et rigidités différentes. Une Mécanique Moléculaire de type classique sera de fait développée après les années soixante-dix pour l'étude des conformations de grosses molécules, en particulier les biomolécules.

Deux types de problèmes vont donner à l'approche quantique un rôle irremplaçable. Le premier concerne les molécules où certains électrons ne forment pas des paires assignables à un couple d'atomes, ce sont les hydrocarbures conjugués, les polyènes le benzène, le naphtalène, leurs innombrables analogues, molécules dont les atomes sont dans un plan, dans lequel s'engagent des liaisons bien locales, porteuses de deux électrons, mais dont une partie des électrons se déplace dans des bottes atomiques orientées perpendiculairement au plan de la molécule. Le second problème concernait la réponse de toutes les molécules, même les plus compatibles avec le Lego moléculaire, à la lumière, en particulier l'émission d'électrons (spectroscopie photo-électronique). Si vous considérez par exemple la famille des hydrocarbures saturés, méthane, éthane, propane, etc. vous avez la série la plus compatible avec le jeu de Lego moléculaire, l'énergie est très bien donnée par des additions d'énergies de liaisons, caractéristiques de la liaison CC et de la liaison CH respectivement. Et pourtant vous ne comprendrez rien à l'évolution des potentiels d'ionisation (énergie nécessaire à l'arrachement d'un électron) dans cette série, ni à leur dépendance à la structure moléculaire, à ses branchements.

Là s'ouvre le règne de la délocalisation électronique et s'installe une représentation en terme d'orbitales moléculaires délocalisées, aujourd'hui largement enseignée aux chimistes. Dans cette représentation les atomes apportent à l'édifice moléculaire leurs électrons de valence et les boîtes correspondantes, sans préjugé de partenariat, et les électrons vont se promener dans l'ensemble de ces boîtes atomiques. Mais plutôt que de considérer une théorie Valence-Bond généralisée, ce qui est possible mais ne conduit qu'à un traitement numérique, difficile et sans concept, on va construire à partir des boîtes atoniques des boîtes ou orbitales moléculaires, qui s'étendent sur l'ensemble du squelette moléculaire mais qui jouent sur les signes qu'on affecte aux bottes atomiques dans les boîtes moléculaires. Par exemple si on considère un ensemble de quatre atomes alignés apportant chacun un électron et une boîte, on peut prendre quatre combinaisons totalement distinctes (on dit orthogonales), qui seront respectivement ++++, ++--, +--+ et +-+-. Si l'on calcule l'énergie d'un électron posé dans une de ces orbitales moléculaires on verra qu'elle dépend fortement de ces jeux sur les signes, plus il y a de changements de signes, plus l'énergie est élevée. Si on veut donc affecter la population électronique à cet ensemble d'orbitales moléculaires, on mettra deux électrons, toujours de spins opposés, dans les orbitales d'énergie les plus basses. Nous avons ainsi une vision de la population électronique selon laquelle les électrons vont encore par paires mais occupent des sortes d'appartements étendus sur l'ensemble de l'espace moléculaire, d'altitude énergétique différente, qui présentent de plus en plus de changements de signes, de cloisons si vous restez dans cette image immobilière, quand on monte dans les étages (en énergie). Quand on a mis tous les électrons ainsi dans les étages les plus bas, restent des appartements vides de haute énergie. Ioniser une molécule c'est arracher un électron d'un des niveaux occupés, ce qui coûte une énergie donnée, quantifiée, caractérisant ce niveau, et exciter une molécule c'est envoyer un électron d'un niveau occupé à un niveau vide, ce qui implique à nouveau une énergie déterminée.

En fait le jeu selon lequel on combine les orbitales atomiques pour construire les orbitales moléculaires ne manipule pas que les signes, il est plus quantitatif, réglé par l'opérateur quantique associé à l'énergie, le Hamiltonien. Une forme très simplifiée de celui-ci, pratiquement topologique (l'Hamiltonien de Hückel), a permis à la fois des calculs numériques sur les calculateurs mécaniques de l'époque, et de très jolies analyses algébriques. De 1945 à 1960 ce modèle, populaire aussi en Physique du Solide, multiplie les succès. La Chimie Quantique aura néanmoins ses martyrs dans l'URSS de Staline, où les chimistes quanticiens sont envoyés au Goulag comme apôtres d'une idéologie bourgeoise indéterministe. Si l'on songe que les Physiciens soviétiques donnent à cette même période et à ce même pouvoir, à partir des mêmes outils conceptuels, les armes de la fission et de la fusion nucléaires, on mesurera que la Chimie Quantique n'est pas encore une technique très prédictive.

L'ère du comput (1960-75)

L'informatique va permettre à la discipline de se prendre au sérieux, elle va revenir de formes très simplifiées de l'Hamiltonien à son expression exacte. Certes on n'obtiendra pas les solutions exactes de l'équation maîtresse, on travaillera dans le cadre de deux approximations :

- La première, encore indépassée aujourd'hui sauf cas exceptionnels, consiste à travailler dans un espace vectoriel fini, c'est-à-dire avec un nombre fini de boîtes atomiques. Mais on en prendra un nombre de plus en plus grand, afin de donner plus de degrés de liberté dans la distribution spatiale et la forme des orbitales moléculaires.

- La seconde, provisoire, consiste à remplir les niveaux électroniques les plus bas avec deux électrons et à minimiser l'énergie totale. Dans cette approximation les électrons se meuvent dans un champ moyen, créé par les noyaux et les autres électrons.

Cette étape de la discipline bouleverse son visage, sa pratique et son impact. On veut reproduire l'expérience de façon quantitative, la dimension technique explose, il faut calculer, stocker et gérer des dizaines de milliers d'intégrales, penser stratégie computationnelle, taille-mémoire, rapidité des algorithmes. Un autre profil de compétence apparaît, passablement technique, proche de l'informatique dont il faut connaître les outils en rapide évolution. La discipline se fait numériste, elle perd en charme ce qu'elle gagne en précision. Mais elle vit avec exaltation la course à la prédictivité quantitative.

L'ère de la rigueur : le défi de la corrélation électronique (1975-90)

Heureusement pour l'intelligence de la discipline, la recherche de la solution exacte de l'équation maîtresse est une tâche plus que difficile, impossible. L'approximation qui consiste à poser les paires d'électrons dans des orbitales optimisées est grossière. Dans la réalité, ou dans la solution exacte, les électrons ne se déplacent pas dans un champ moyen fixe. Si deux électrons vont à la rencontre l'un de l'autre ils infléchiront leur trajectoire pour diminuer leur répulsion, leurs mouvements seront corrélés et non plus indépendants. Ce problème de la corrélation entre électrons s'appelle « problème à N-corps quantique », il a exigé dans diverses disciplines de beaux efforts conceptuels et méthodologiques. Notons que sur ce terrain la Chimie Quantique s'est trouvée plus proche de la Physique Nucléaire que de la Physique du Solide, qui manipule pourtant elle aussi des électrons dans le champ de noyaux.

Ce problème de la corrélation a deux aspects, formel et physique. L'aspect formel concerne la distribution des électrons dans les boîtes mises à leur disposition, qu'elles soient locales (atomiques) ou étalées sur l'espace moléculaire. U nombre possible de ces distributions de n électrons dans p boîtes, même sous contrainte de ne pas mettre plus de deux électrons par boîte, est trop grand et certaines distributions sont très défavorables. De très jolis formalismes ont été conçus, qui essayent de combiner rigueur formelle et praticabilité. Certains outils, très généraux, peuvent être exportés de la Chimie Quantique vers d'autres champs.

L'aspect physique concerne l'évitement des électrons dans l'espace. Si 2 électrons ont même spin, la probabilité de les trouver dans un même point de l'espace est nulle, c'est une autre version de l'homophobie à l'Suvre dans la constitution des couples d'électrons, qu'on visualise par le « trou de Fermi ». Les électrons de spins opposés font meilleur ménage, on peut en trouver deux au même endroit, mais ils préfèrent garder quelque distance, du fait de leur répulsion électrostatique, et c'est une propriété très subtile de la fonction d'onde exacte que de présenter en tout point cette singularité qu'on appelle « trou de Coulomb ». Il est impossible de rendre compte de cette propriété en tout point de l'espace physique à l'aide d'un ensemble fini d'orbitales. Heureusement cet effet d'évitement à courte portée ou de dernière seconde n'a pas des effets énergétiques cruciaux et les calculs effectués avec un nombre fini d'orbitales, par exemple en donnant 10 orbitales, judicieusement choisies, par électron, donnent des énergies suffisamment correctes pour la précision souhaitée par les chimistes. Néanmoins les méthodologistes s'efforcent de calculer l'effet du trou de Coulomb, avec un succès convaincant.

L'ère de l'efficience simulatrice (1990- ?)

Aujourd'hui donc les chimistes quanticiens sont capables de calculer de façon très précise les énergies et les géométries de molécules de moins de dix atomes dans leur état fondamental, sans introduire d'autre information empirique que la forme analytique des orbitales atomiques utilisées. C'est ce qu'on appelle la méthodologie ab initio, pour l'opposer aux simplifications semi-empiriques utilisées auparavant. Cette approche est aujourd'hui battue en brèche, parce qu'une alternative beaucoup moins coûteuse a été proposée.

Les calculs ab initié nécessitent en effet un temps de calcul qui croît comme une puissance du nombre N d'électrons, la puissance quatrième dans la méthode de champ moyen, une puissance sixième ou septième si on traite la corrélation entre électrons. L'étude de grosses molécules qui intéressent les expérimentateurs, les biochimistes, les inventeurs de matériaux nouveaux, les spécialistes de la catalyse, semblait impossible. Ce coût prohibitif tient en principe à ce que la fonction d'onde manipule les trois coordonnées des N électrons et travaille dans un espace de dimension 3N.

Or un théorème, dû à Hohenberg et Kohn, établit qu'il doit exister une correspondance biunivoque entre la densité électronique dans l'espace physique, de dimension 3, et la fonction d'onde, donc l'énergie. Correspondance qu'on ne connaît que dans le cas idéal du gaz homogène d'électrons. D'où le rêve d'un formalisme qui travaillerait avec la seule densité électronique. Partant donc du cas idéal et de quelques sophistications destinées à tenir compte de l'inhomogénéité de densité, une « théorie fonctionnelle de la densité » (DFT) a été proposée, beaucoup plus économique que les méthodes principielles que j'ai décrites plus haut. Les fonctionnelles utilisées aujourd'hui ont des formes complexes, elles introduisent de nombreux paramètres, et donnent des résultats comparables à ceux des meilleurs calculs ab initio, à bien moindre coût. Bien sûr les valeurs données à ces paramètres ne découlent pas des principes, elles ont été ajustées par essais et erreurs sur un ensemble d'expériences numériques. Si bien que la méthode DFT est encore à ce jour une méthode semi-empirique. J'ai même soutenu qu'on pouvait à la limite lui donner le statut de réseau neuronal, c'est-à-dire d'une machine apprentissante. Si un réseau neuronal, câblé à partir d'un ensemble d'expériences, ne donne pas une réponse satisfaisante dans un cas nouveau, on doit incorporer ce cas à l'ensemble d'apprentissage et réviser les câblages. C'est un peu ce que font les praticiens de la DFT à ce jour, bien que des recherches théoriques fondamentales soient aussi menées pour produire des fonctionnelles formellement fondées. Le rapport qualité des résultats obtenus/coût des calculs est en tout cas très attractif et balaie les scrupules éventuels d'une majorité d'utilisateurs. Et il n'y a pas lieu de faire la fine bouche si ce que l'on demande c'est une réponse très probable à une question précise concernant un système particulier.

Quelques beaux succès d'une discipline austère

Les succès de la Chimie Quantique sont d'ordres différents.

Elle donne d'abord une représentation qualitative de la population électronique. Elle est à la fois un traité des passions, une anthropologie et une sociologie. Elle dit les attirances et les exclusions, elle catégorise les liens, leur nature, elle pense les hiérarchies énergétiques, les partages, les complicités, les lois de la parenté et les compromis économiques. La théorie des orbitales moléculaires est désormais largement enseignée aux chimistes, ce qui leur a demandé de louables efforts, car on n'entre pas facilement dans le paradigme quantique. A ce stade, et dans la mesure où elle est manipulable analytiquement, ou avec les mains, la chimie quantique est parfois très esthétique. En particulier quand elle traite des électrons délocalisés des molécules conjuguées, le culmen dans ce domaine étant sans doute atteint par la formulation des règles qui gouvernent la stéréo-spécificité des réactions électrocycliques, question qu'on peut formuler ainsi : quand une molécule en forme de ruban se referme par ses deux extrémités, se ferme-t-elle en cylindre ou comme un ruban de Moebius ? Ces règles rationalisées par une démonstration simple ont valu à Woodward et Hoffmann un prix Nobel mérité. Ce qu'on peut par contre regretter c'est que l'approche des orbitales moléculaires délocalisées soit aussi hégémonique dans l'enseignement et que les approches alternatives en termes d'orbitales de liaisons, parfaitement équivalentes aux précédentes pour la description de l'état fondamental de la quasi-totalité des molécules, ne soient pas enseignées, alors qu'elles valident la représentation intuitive qu'utilisent les chimistes dans la vie quotidienne.

Un usage qualitatif spectaculaire concerne les édifices magnétiques, ceux où quelques électrons restent seuls dans leur boîte, la question étant de savoir si les électrons célibataires préfèrent avoir le même sexe ou des sexes opposés. Là les effets quantiques sont déterminants. Je voudrais saluer ici la façon dont des chimistes extrêmement créatifs, comme Olivier Kahn, mort prématurément cet hiver, ou Michel Verdaguer, savent mobiliser une vision théorique simple dans leur design de composés nouveaux aux propriétés remarquables. Ceux là font mentir la fatalité qui divise expérimentateurs et théoriciens. Pour les théoriciens « purs » comme moi la rencontre de ces partenaires et des beaux problèmes qu'ils nous soumettent est un plaisir stimulant.

Semi-quantitatives sont les informations qui concernent la spectroscopie. La symétrie des états impliqués dans les excitations, l'intensité des absorptions de photons, l'ordre énergétique des états de la molécule, leurs natures parfois qualitativement différentes, autant de questions dont les réponses exigent la maîtrise de concepts quantiques et la manipulation des fonctions d'onde.

Puis viennent les succès quantitatifs, la spectaculaire précision des calculs les plus rigoureux, effectués sur des molécules de taille moyenne, vérifiables par confrontation avec les informations expérimentales. Les géométries d'équilibre, les longueurs des liaisons, les angles qu'elles forment entre elles, les énergies de dissociation, nécessaires à la rupture des liaisons, sont, sauf rares exceptions, reproduits au pour cent près. Longtemps les théoriciens ne se donnaient pour objectif que de reproduire aussi bien que possible les résultats de l'expérience, et à une époque ils prêtaient le flanc à l'ironie, quand par exemple ils s'échinaient à reproduire avec un ou deux ans de retard l'orientation du moment dipolaire de la misérable molécule CO, que les expérimentateurs révisaient périodiquement. Cette époque est bien révolue. La Chimie Quantique affirme et prédit. Elle a permis d'identifier des composés instables, présents dans l'espace interstellaire, responsables de raies en spectroscopie hertzienne, apparaissant dans des forêts de raies. Ces composés y existent du fait de l'extrême vide qui y règne, qui rend très rares les collisions qui les détruiraient, comme elles le font en laboratoire. Nous sommes capables de déterminer des architectures élusives, de calculer les intermédiaires très instables de réactions chimiques. Tout composé stable correspond à une conformation du squelette moléculaire, et s'en écarter, déplacer les noyaux, coûte de l'énergie. Une configuration d'équilibre est comme un lac entre des montagnes. Passer d'une configuration d'équilibre à une autre, donc faire une réaction chimique, c'est passer d'un lac à un autre, ou d'un lac à une vallée. La route doit franchir une crête, au mieux passer par un col. Et les chimistes quanticiens sont capables de dire la position du col, c'est-à-dire la position relative des noyaux, et son altitude. Ils peuvent même dire si la route qui y mène est directe ou tortueuse.

Ils peuvent aussi désormais explorer, avant les expérimentateurs et à bien moindre coût, des chimies utopiques susceptibles d'être réalisées. Par exemple : la Chimie la plus pratiquée est celle des atomes légers, l'hydrogène, le carbone, l'azote et l'oxygène, et leurs analogues de la seconde ligne longue du tableau périodique. Que se passe-t-il si l'on remplace le carbone par un atome lourd, ayant le même nombre d'électrons externes, comme le germanium ou l'étain ? Conséquence indirecte de la relativité, ces atomes sont plus réticents que le carbone à engager leurs 4 électrons externes dans des liaisons, ils hésitent à se comporter comme le plomb, qui préfère n'en engager que deux, et ils construisent une chimie très versatile, avec des liaisons d'un type nouveau, à un seul ou à trois électrons, ce que l'expérience confirme peu à peu.

Autre utopie : des édifices assez stables mais qui pourraient stocker beaucoup d'énergie, libérable par dissociation. Par exemple le cube N8 peut exister, il serait stable à température ordinaire, mais sa dissociation en quatre molécules N2 dégagerait une énergie considérable. Les chemins de sa synthèse sont par contre ardus, car c'est un lac de montagne encore inaccessible, pour reprendre ma métaphore géographique.

Autre domaine où la Chimie Quantique s'est avérée utile, celui des petits agrégats d'atomes. Si vous considérez par exemple l'élément Sodium, vous trouverez à un extrême le cristal de sodium, métal où les électrons sont très délocalisés, et à l'autre extrême la molécule diatomique Na2, avec une liaison plutôt covalente. Entre ces deux extrêmes, dans des édifices à 4, 10 ou 100 atomes, que se passe-t-il ? Comment se passe la transition vers le métal et son organisation ? Pour les petits agrégats au moins la Chimie Quantique apporte des réponses sûres ; pour les plus gros d'autres modèles, plus proches du gaz d'électrons, apportent les informations les plus pertinentes.

Autre forme de la matière, les liquides moléculaires. Là, les molécules glissent, tournent et vibrent les unes par rapport aux autres. On est ici dans un univers dynamique. Comprendre les propriétés d'un liquide exige de bien connaître les interactions entre deux molécules, dont on peut ensuite faire un potentiel à deux corps, à utiliser dans une mécanique statistique classique pour déterminer les propriétés macroscopiques du liquide. Parfois les termes à deux corps ne suffisent pas, des effets non additifs à trois, quatre ou six corps sont non négligeables. À cet égard l'eau est particulièrement difficile à traiter. Mais on en sait désormais assez par les simulations temporelles sur la dynamique de l'eau pour savoir la labilité extrême des associations intermoléculaires locales et vous ne trouverez pas un chimiste quanticien pour parier un kopek sur la supposée « mémoire de l'eau » de Benvéniste.

Perspectives et paris

P. G. de Gennes disait récemment de la Chimie Quantique qu'il faudrait, je cite, « en hâter l'agonie ». On doit ajouter qu'il la jetait dans une fosse commune en bonne compagnie, avec la Physique du Solide et la Physique Nucléaire. Mort du Quantique ? Non, notre discipline, comme, et je dirai avec, la Physique du Solide, a du pain sur la planche et de belles ambitions.

Sur le plan conceptuel et méthodologique, le traitement des états excités est l'enjeu de gros efforts, parce que la définition d'une description d'ordre zéro, sur laquelle s'appuyer pour élaborer la fonction d'onde est difficile.

Sur le plan de la puissance et de la capacité à s'attaquer au traitement de grandes molécules une percée remarquable est en cours. Elle consiste à concevoir des algorithmes dont le temps d'exécution croisse linéairement avec la taille du système traité. Cette offensive s'appuie sur une remarque de bon sens : pour la quasi-totalité des molécules, et pour autant qu'on s'intéresse à leur état fondamental, il n'y pas d'effet physique à longue portée, il est toujours possible de construire soit la densité soit la fonction d'onde à partir de briques locales d'extension finie, en interaction avec un nombre fini de briques voisines. Il s'agit là d'un retour aux descriptions localisées que les visions mettant l'accent sur la délocalisation avaient refoulées. L'idée s'applique à tous les Hamiltoniens et Scuselia dans un article récent rapportait un calcul concernant un footballène géant de 8 640 atomes de carbone, dont la géométrie avait été optimisée. Mais l'idée est pertinente aussi dans le cadre des méthodes ab initio dont certains pensaient il y a 5 ans que la révolution pragmatique de la DFT allait les envoyer au Musée des Arts et Métiers sinon aux poubelles de l'Histoire. Mais la corrélation électronique, si difficile à traiter correctement, est à courte portée. Il est possible de déterminer directement des orbitales moléculaires locales et d'effectuer dans cette base des calculs élaborés de la corrélation électronique avec des temps de calcul qui ne croissent que proportionnellement au nombre des atomes. Le match qui oppose rigueur et efficacité pragmatique n'est pas définitivement joué. Ces approches ouvrent d'ailleurs la voie au traitement des solides périodiques par les techniques ab initié.

Autre perspective d'avenir, apporter à la physique des matériaux des connaissances cruciales sur la nature et l'amplitude des interactions locales, qui commandent les propriétés collectives de ces matériaux. Pour comprendre quand un empilement d'unités composées de deux donneurs plus un accepteur devient conducteur, il faut connaître les interactions entre les donneurs, leur dépendance aux changements de géométrie, la structure chimique est cruciale, ainsi que ces données que sont les énergies et les formes des orbitales moléculaires en jeu, leur position spatiale relative. De même pour les édifices magnétiques, les composés à magnétorésistance colossale ou les supraconducteurs à haute température critique, leurs propriétés spectaculaires ne peuvent être comprises qu'à l'aide non du Hamiltonien exact, trop compliqué, mais d'Hamiltoniens modèles réduisant le nombre des électrons impliqués et simplifiant leurs interactions. Mais telle ou telle simplification n'est elle pas abusive ? Et quelle est la valeur de telle interaction ? Comment change-t-elle dans les déformations du réseau ? Autant de questions auxquelles l'expérience ne peut en général pas apporter de réponse univoque, et qui relèvent potentiellement des compétences de la Chimie Quantique. Je suis persuadé qu'il y a là un avenir très fructueux pour notre discipline. Lorsqu'il en est ainsi, lorsque nous apportons de telles informations à la Physique, la Chimie Quantique, science de transfert, science hybride, n'est plus seulement la passerelle par laquelle une science plus scientifique, la Physique, déverse sur une science moins noble, inférieure, le bienfait de ses connaissances. Par cette passerelle passent en sens inverse des connaissances indispensables à la Physique.

Encore faut-il savoir ce dont on est capable. Dès le début des années 80 les Chimistes quanticiens se sont engouffrés en masse vers un problème d'envergure et d'une grande importance économique, la catalyse hétérogène, processus par lequel une réaction chimique impossible en phase gazeuse ou liquide devient possible à la surface d'un métal. Mais cette question est celle de toutes les difficultés, car il s'agit d'un métal de transition, déjà difficile à traiter théoriquement, de sa surface, encore plus difficile, voire d'un défaut sur cette surface, et d'une réaction chimique sur celle-ci ! Les années hommes et les années computers englouties dans ce problème prématuré n'ont pas apporté de lumières convaincantes.

Par contre l'assistance théorique au design moléculaire, à la conception de nouvelles architectures, doit prendre son essor. Il faut des théoriciens imaginatifs qui conçoivent et mettent à l'épreuve de leurs calculs des composés doués par exemple de bistabilité, donc susceptibles de stocker de l'information à l'échelle de la molécule, ce qui représenterait un bond prodigieux dans la compacité du stockage. Et l'utopie d'une électronique moléculaire, avec ses fils, ses diodes, ses commutateurs, est déjà en marche, sous l'impulsion d'esprits hardis.

Questions impertinentes

Pour terminer et prendre un peu de champ je voudrais poser quelques questions qui débordent le cadre d'un exposé scientifique usuel, fut-il adressé à des non-spécialistes.

D'abord pourquoi des Chimistes Quanticiens ? La division Expérience/Théorie ne prend pas en Physique la forme institutionnelle qu'elle a prise en Chimie, où existent des laboratoires de Chimie Quantique. La réponse à cette question est à la fois pratique et culturelle. La distance est plus grande entre l'inactivité du chimiste de synthèse et celle du chimiste quanticien qu'entre celle du physicien expérimentateur, qui manipule des spectroscopies compliquées, déjà prises dans le paradigme quantique, et son collègue théoricien. A quoi s'ajoute le fait que la plupart des chimistes n'ont ni le goût ni les bases qui leur permettent de s'approprier des concepts abstraits et des outils formels non-intuitifs. Mais ce fossé est peut-être imputable en partie au faible effort de transmission de leur savoir par les théoriciens.

Quelque chose est cependant en train de changer. Des logiciels sont désormais disponibles, moyennant finances, que des chimistes non-spécialistes peuvent utiliser comme des bottes noires ou un autre type de spectromètre. Ils n'ont besoin que de recettes simples concernant la saisie de leur problème et la lecture des résultats. Cette révolution changera peut-être les rapports théorie/expérience. Elle pourrait en tout cas amener à reconsidérer le mode d'enseignement de la Chimie Quantique, qui suit jusqu'à ce jour les voies ardues de la déduction et laisse dans les premiers lacets de la route, entre formalismes obscurs et exercices dérisoires, des étudiants démotivés. Peut-être faudrait-il mettre cet enseignement cul par dessus tête, et convaincre d'abord les étudiants, grâce à l'usage de ces boîtes noires performantes, de la pertinence et de l'efficience de la Chimie Quantique, pour accrocher leur curiosité et les faire remonter, par les chemins du doute, vers le contenu des formalismes utilisés.

La théorie est-elle dirigée par une logique interne ou par une demande, une sorte d'effet de marché ? J'ai en effet mentionné ces codes boîtes noires, produits et vendus par des sociétés privées réunissant théoriciens et informaticiens. La Chimie quantique, complexée de sa longue inutilité, a voulu faire ses preuves et certains ont cru nécessaire ou rentable de créer ces petites sociétés privées de quelques dizaines de personnes. Il s'agissait moins d'un marché déjà là que d'une anticipation sur une demande potentielle, celle des compagnies industrielles chimiques, pharmaceutiques et biochimiques. Il est certain que la cible escomptée, celle des « grosses molécules », a infléchi la pratique de la discipline, accentué la conversion rapide de l'approche ab initio à la DFT. J. Pople fut un des participants actifs à la conception de la méthodologie ab initio en même temps qu'il fondait la première de ces sociétés privées. En Juillet 91 il ferraillait durement contre W. Kohn et la DFT, avant de se convertir en six mois à cette nouvelle approche, évidemment plus prometteuse pour le marché. Bien lui en a pris puisqu'il a partagé avec Kohn voici deux ans le prix Nobel de Chimie.

La Chimie Quantique est-elle une science ou une technique ? Il est certain que cette discipline mobilise beaucoup de technologie. Dans la mesure où elle fonctionne largement, certains diraient exclusivement, à l'aide d'ordinateurs, l'attention aux ressources informatiques et leur évolution est essentielle. Je vois effectivement deux périls à une technicisation excessive de la discipline.

Le premier péril, c'est le culte du nombre, qui à la limite peut devenir dangereux pour la théorie elle-même. Lévy-Leblond a dit avec raison que la simulation numérique n'est pas de la théorie. La simulation peut être basée sur la mise en comput de la théorie, laquelle est faite de concepts, de lois et de déductions. Le calcul ne déduit pas, il s'effectue sans la participation de notre logique. Si elle dérive vers le réseau neuronal efficace, la simulation peut perdre le contact avec la théorie. Ne pourrait-elle alors tuer la théorie ?

L'autre péril est celui de la perte de séduction. À n'exalter que l'efficience, la puissance, on pose un idéal très besogneux, un profil d'informaticien appliqué, figure dont on peut craindre qu'elle n'attire pas les esprits les plus créatifs. Et de fait l'informatique capte, c'est une esclave asservissante. Mes jeunes collègues passent l'essentiel de leur temps devant leur écran, où ils lisent le verdict de leurs dernière tentative et lancent la suivante. Ils n'ont plus le temps, ou le laissent à des privilégiés-négriers de mon genre, de ces batailles logiques avec la structure d'un problème formel, ou de ces longues recherches du « passage du Nord-Ouest » qui caractérisent la théorie.

Même l'exploitation des résultats numériques souffre du numérisme. Vous travaillez sur un composé bizarre, hypothétique, et vos calculs confirment son existence donnent son énergie, sa structure, ses fréquences vibrationnelles. Mais ces résultats appelleraient d'autres analyses plus qualitatives : où sont les électrons, quelles liaisons chimiques tiennent cet édifice, s'agit-il d'un prototype nouveau, d'une pièce nouvelle à ajouter au Lego moléculaire des chimistes ? En campant dans le pré étroit du positivisme numérique, en affichant une telle répugnance au qualitatif, à la traduction imagée, en s'enfermant dans le puritanisme du fait, non seulement on manque à une des fonctions du théoricien, sa fonction langagière, de fournisseuse d'une représentation du monde, mais on se prive du plaisir esthétique.

Quelle place tient en effet l'esthétique dans cette science ?

Présentée souvent comme austère, cette discipline réserve pourtant de grands plaisirs. D'abord par le jeu de ses trois langages, la jonglerie des traductions entre le langage Valence-Bond (en terme de bottes atomiques), celui des orbitales moléculaires de liaison, et celui des orbitales moléculaires délocalisées. Un effet physique peut être obscur dans une représentation et devenir limpide dans une autre.

Le plaisir du dévoilement ensuite. La Chimie, à la différence de la Physique, ne fonctionne pas par formulation de lois, elle est connaissance du spécifique. Mais elle connaît des « effets » assez universels, qu'on prend plaisir à identifier et comprendre.

Pour le théoricien formaliste, le plaisir est celui des défis logiques, qui sont branchés sur des problèmes universaux, dépassant le cadre étroit de la discipline. Il est aussi un plaisir d'ingénieur de concevoir une approche nouvelle, plus élégante et/ou plus rigoureuse que celles déjà disponibles.

Pour l'imaginatif c'est le bonheur des inventions d'architectures, le double plaisir de concevoir des utopies chimiques et de pouvoir en vérifier très vite la cohérence.

La Chimie quantique, science hybride entre Physique et Chimie, science inconfortable qui fait des siens des chauves-souris, physiciens abscons aux yeux des chimistes, pauvres chimistes aux yeux des physiciens ? Elle est autre chose qu'une passerelle ou une science de transfert,' elle a produit une culture spécifique dans la tension où elle vit entre les trois pôles qui la stimulent et la déchirent :

- La fonction interprétative, de compréhension, de fournisseuse de représentations,

- le souci de grande rigueur formelle, en particulier de manipuler l'Hamiltonien exact,

- et le souci acharné de la précision de ses prédictions.

Je suis persuadé que cette science, métisse donc, mais originale, a un bel avenir et dispose de suffisamment de ressources et d'assez d'énigmes devant elle pour attirer de jeunes esprits exigeants.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
 

CINÉTIQUE - CHIMIE

 

 

 

 

 

 

cinétique
(grec kinêtikos)


Étude des lois qui régissent la vitesse des réactions chimiques.
CHIMIE
Les réactions chimiques, que les lois de la thermodynamique permettent de prévoir, se font à des vitesses très variables : si certaines sont explosives, comme le « coup de grisou » dans les mines de charbon, et d'autres très rapides, comme la combustion du magnésium dans les lampes flash des photographes, elles peuvent aussi être longues ; c'est le cas de la cuisson des aliments, par exemple, et plus encore de leur digestion, dans laquelle interviennent des réactifs naturels contenus dans les sucs digestifs.
Objectifs de la cinétique chimique
Les réactions chimiques ne sont pas toujours rapides et immédiates. Par exemple, la combustion d'une allumette, qui est simplement le résultat de la réaction du bois avec l'oxygène contenu dans l'air, demande un certain temps ; une bûche dans la cheminée va mettre également un certain temps pour se consumer. D'une manière générale, les réactions d'oxydation sont relativement lentes.


Notion de vitesse de réaction chimique
Certaines réactions d'oxydation peuvent néanmoins être très rapides : l'essence brûle presque instantanément dans le cylindre d'une voiture ; de même une accumulation de gaz de ville dans une pièce mal ventilée peut provoquer de très graves accidents. Mais, dans ces deux cas, il a fallu provoquer une explosion ; en effet, la présence d'air au-dessus de l'essence, dans le réservoir d'une voiture, n'est pas suffisante : il faut l'action d'une étincelle électrique, provoquée dans le cylindre par une bougie, pour que l'explosion se produise.
Les réactions d'oxydation ne sont pas les seules qui peuvent se faire à des vitesses plus ou moins grandes : le plâtre met un certain temps pour prendre, et le ciment, pour durcir, en demande encore plus.
Pourquoi étudier la vitesse des réactions chimiques
L'étude des vitesses auxquelles se font les réactions chimiques est importante pour des raisons pratiques aussi bien que théoriques. Un cuisinier a besoin, par exemple, de connaître le temps de cuisson du plat qu'il veut préparer ; de même, un industriel qui veut fabriquer un produit chimique a besoin de connaître la durée des différentes réactions à la base du procédé qu'il envisage d'utiliser pour mieux calculer le prix de revient du produit et s'assurer une vente à un prix compétitif.
La transformation des espèces, au cours d'une réaction chimique, est généralement un processus très complexe à l'échelle atomique, dont la connaissance est l'aboutissement des recherches du spécialiste de cinétique chimique. L'étude détaillée du mécanisme d'une réaction permet de comprendre quelles en sont les étapes les plus rapides. Pour accélérer une réaction, il est nécessaire d'accélérer l'étape la plus lente (qui constitue le point d'engorgement du processus total) ; en revanche, pour ralentir une réaction (une corrosion, par exemple), il suffit de ralentir le plus possible une des étapes du processus.
Ainsi, la cinétique chimique, qui étudie les vitesses de réaction, a deux buts distincts : mesurer à l'échelle macroscopique le temps nécessaire à la réalisation d'une réaction chimique et obtenir des informations afin de connaître les mécanismes réactionnels à l'échelle microscopique.
Définition de la vitesse de réaction
Pour étudier les vitesses de réaction, il est nécessaire d'en donner une définition précise.
Dans un système dont la transformation relève d'une réaction chimique unique, et dont l'équation stœchiométrique est indépendante du temps, une vitesse de conversion est définie par la dérivée de l'avancement de réaction par rapport au temps : dx/dt.
Dans le cas où tous les constituants font partie d'une seule phase de composition identique, dans tout le volume réactionnel de valeur V, on définit une vitesse volumique de réaction, dite le plus souvent vitesse de réaction, à l'instant t, et on a :
image: http://www.larousse.fr/encyclopedie/data/formules/CINETIQUE10.gif
n(B) est la quantité de B à l'instant t, [B] la concentration de B à cet instant, et v(B) le coefficient stœchiométrique de B dans l'expression choisie pour écrire le bilan de la réaction chimique (on rappelle que par définition [B] = n(B)/V).
Comme le rapport d[B]/v(B) a la même valeur quel que soit le constituant B envisagé d'une réaction donnée, par suite de la définition même des coefficients stœchiométriques, cette vitesse peut être déterminée à partir de l'évolution de la concentration d'un constituant B quelconque participant à cette réaction ; dans la pratique, on choisit le constituant dont la concentration est la plus facile à suivre.
Influence de la température et des concentrations sur la vitesse de réaction
Dans la plupart des réactions chimiques, la vitesse augmente rapidement avec la température et selon la concentration des constituants.


L'influence de la température
Parmi les facteurs qui conditionnent la vitesse d'une réaction, il en est au moins un qui est évident, même pour un non-chimiste : la température. Ainsi, la cuisson d'un aliment est d'autant plus rapide que la température à laquelle elle est effectuée est plus élevée (la réalisation des Cocotte-Minute est basée sur cette constatation : l'augmentation de la pression accroît la température d'ébullition de l'eau). Il faut, à 100 °C, environ trois minutes pour cuire un œuf (on peut schématiser cette cuisson en disant qu'il s'agit de la réaction de coagulation du blanc d'œuf). Mais l'alpiniste sait qu'en altitude, là où la pression atmosphérique est plus basse que dans la vallée, l'eau bout à une température moins élevée et que le temps nécessaire pour cuire un œuf à la coque est plus important.
Le coefficient de vitesse
La vitesse d'une réaction chimique double lorsqu'on augmente la température de 10 °C : cette règle est approximative, mais elle est d'un usage très pratique. Plus précisément, le Suédois Svante Arrhenius a établi expérimentalement, en 1889, une loi exponentielle, applicable à toutes les réactions : la vitesse est proportionnelle à un facteur, appelé coefficient de vitesse, qui s'écrit :
k = A e-E/RT
où A est une valeur caractéristique de chaque réaction (mais ne dépend pas de la température), R est la constante molaire des gaz parfaits, T est la température thermodynamique et E, énergie molaire d'activation ou plus simplement énergie d'activation, a une valeur pratiquement toujours comprise entre 80 et 250 kJ . mol−1, dépendant de la réaction envisagée.
L'énergie d'activation
Cette loi est interprétée en s'appuyant sur la théorie cinétique des gaz : l'énergie cinétique des molécules d'un ensemble donné, supérieure à une valeur donnée, croît exponentiellement avec la température.En effet, les molécules pouvant réagir sont celles qui ont une énergie supérieure à la valeur de l'énergie d'activation, et les molécules dont l'énergie est plus faible que l'énergie d'activation de la réaction ne peuvent réagir, mais il est possible d'en activer un certain nombre en augmentant la température ; c'est une activation thermique. Ce type d'activation est possible pour toutes les réactions chimiques ; elle est mise en jeu pour initier, par exemple, la combustion du magnésium d'une lampe flash en photographie grâce au courant de décharge d'un condensateur, qui apporte l'énergie thermique nécessaire par effet Joule.


Lorsqu'une réaction est exothermique
Dans le cas d’une réaction exothermique (qui produit de la chaleur), celle-ci provoque une augmentation de la température du milieu réactionnel, de sorte que la vitesse de réaction augmente et qu'à force de s'accroître elle peut aboutir à une réaction explosive. Dans la pratique, on comprend qu'il puisse y avoir un intérêt capital à refroidir le réacteur où se déroule la réaction pour évacuer la chaleur produite et éviter ainsi une telle explosion.
Lorsque la réaction est endothermique
Dans le cas d’une réaction endothermique (qui consomme de la chaleur), l'abaissement de la température du milieu réactionnel provoque une diminution de la proportion de molécules actives : la réaction peut même pratiquement s'arrêter ; il y aura intérêt, alors, à chauffer le réacteur pour que la réaction se poursuive.
L'influence des concentrations
L'expérience montre que la vitesse d'une réaction, à un moment donné, dépend généralement des concentrations des constituants de cette réaction à cet instant, et qu'elle est, de plus, proportionnelle à un facteur k, lequel est tributaire d'un certain nombre d'autres paramètres, comme la température, la pression, les concentrations initiales, etc. :
vitesse = kg(e[B]),
où e[B] désigne tout ou partie de l'ensemble des concentrations des substances présentes dans le milieu réactionnel (réactifs, produits, mais aussi éventuellement catalyseur, solvant) et g une fonction plus ou moins compliquée de cet ensemble, selon les cas.
L'ordre global de réaction
Il arrive que la vitesse d'une réaction
v(A) A + v(B) B +… → v(P) P + v(Q) Q +…,
prenne une forme simple du type :
(1) vitesse = k . [A]a . [B]b…,
où les exposants a, b… sont indépendants du temps et des concentrations, et généralement différents des coefficients stœchiométriques correspondants.
Dans le cas où la vitesse peut se mettre sous la forme (1), on dit que la réaction a un ordre global n défini par la relation :
n = a + b + …,
somme des exposants des concentrations dans l'expression de la vitesse.
Par exemple, pour la réaction des ions Br− sur les ions BrO3− en milieu acide :
5Br− + BrO3− + 6 H3O+ → 3Br2 + 9 H2O,
on trouve expérimentalement une vitesse telle que :
vitesse = k . [Br−]1 [BrO3−]1 [H3O+]2.
Les ordres partiels
Les exposants (a, b, etc.) sont appelés ordres partiels : dans l'exemple précédent, 1 est l'ordre partiel relatif aux ions Br− et aux ions BrO3−, 2 est l'ordre partiel relatif aux ions H3O+.
Les ordres partiels sont souvent égaux à 1 ou 2, mais, à la place des exposants entiers (tels que 1 ou 2 comme dans l'exemple précédent), on peut avoir des exposants fractionnaires et/ou négatifs : 1/2, −1.
Il peut aussi arriver que la concentration d'une espèce présente n'entre pas dans l'expression de la vitesse d'une réaction, c'est-à-dire que la vitesse soit indépendante de cette concentration : l'ordre partiel est nul dans ce cas.
Dans la pratique, on constate qu'il est rare de pouvoir exprimer la vitesse sous la forme simple (1). Tel est le cas de la réaction du brome avec l'hydrogène, étudiée par l'Allemand Max Ernst August Bodenstein en 1906 :
Br2 (g) + H2 (g) → 2HBr (g),
dont la vitesse, mesurée expérimentalement, s'écrit :


En présence d'une telle situation, on dit que la réaction n'a pas d'ordre, puisque la vitesse ne peut pas se mettre sous la forme (1) et qu'on ne peut définir de grandeur n.
Ordre de réaction
À une température fixée, un grand nombre de réactions se déroulent à des vitesses qui sont proportionnelles à la concentration d'un ou de deux réactifs.
Réactions d'ordre 1
Si une réaction
aA + bB = pP + qQ
a par exemple une vitesse de la forme vitesse = k [A], on peut écrire :
image: http://www.larousse.fr/encyclopedie/data/formules/CINETIQUE30.gif

L'expression d[A]/[A] s'intègre facilement :
ln[A]/C0[A] = −k [A] t,
où [A] = C0 exp−k [A] t.
En posant ka = k [A] et en appelant C0[A] la concentration en A au temps t = 0. Il est possible de calculer la valeur de la concentration [A] au temps t en connaissant la concentration initiale et la valeur de k donnée par l'expérience.
Toutes les désintégrations radioactives obéissent à une telle loi exponentielle :
N(B) = N0(B)e−λt,
où N(B) est le nombre d'atomes B radioactifs au temps t et N0(B) correspond au nombre d'atomes B au temps initial et λ est appelé constante de désintégration radioactive.
Cette loi permet de prévoir qu'au bout d'un temps
t1/2 = (ln2)/λ
la moitié des atomes radioactifs se sont désintégrés.
Cette quantité, t1/2, s'appelle la période de demi-vie de B, ou période radioactive de l'atome B.
Application à la datation d'objets préhistoriques par le carbone 14
Williard Frank Libby a proposé une méthode de datation de résidus de végétaux ou d'animaux en se fondant sur la décroissance de leur concentration en carbone 14, isotope radioactif naturel du carbone dont la période est d'environ 5 640 ans.
L'isotope radioactif du carbone 14
Cet isotope radioactif provient du bombardement, par les neutrons produits par les rayons cosmiques, de l'azote des hautes couches de l'atmosphère s


Ce carbone 14, et avec lui le carbone 12 stable, se combine avec l'oxygène de l'air, en proportions immuables depuis les temps préhistoriques, pour donner du dioxyde de carbone 14CO2, qui participe avec le dioxyde 12CO2 non radioactif à l'assimilation chlorophyllienne. Ainsi, les plantes et les organismes vivants ont une proportion toujours identique de 12C et de 14C.

La réaction de désintégration
Un gramme de carbone 14 se trouvant dans un tissu vivant émet environ 15 particules b par minute (une particule b n'est autre qu'un électron).
À la mort de l'organisme, les échanges avec l'atmosphère s'arrêtent et la quantité de carbone 14 diminue exponentiellement à cause de la réaction de désintégration qui produit un rayonnement b :


Le rapport de la mesure de la radioactivité du vestige à dater à celle d'un tissu vivant permet de connaître la date de mort de l'organisme.
Cette méthode devient imprécise avec la décroissance de la radioactivité du carbone 14 dans l'échantillon analysé : au-delà de 37 000 à 42 000 ans, on ne peut plus dater avec une précision suffisante. La datation sur des objets plus anciens nécessite un indicateur radioactif ayant une période plus grande. Les géologues ont ainsi pu estimer l'âge de la Terre (4,5 milliards d'années) en utilisant l'uranium 238.


Réactions d'ordre 2
Dans le cas n = 2, la vitesse est décrite par une loi d'un type tel que :
vitesse = k[A] [B] ou vitesse = k [A]2.
Ici, la variation de la concentration d'un réactif au cours du temps n'est plus exponentielle. Par exemple, dans le second cas, où la réaction est d'ordre 2 par rapport à l'un des réactifs, la décroissance de [A] est une fonction hyperbolique du temps. Le temps de demi-vie dépend cette fois de la concentration initiale C0[A] du réactif A :
t1/2[A] = 1/k[A]C0[A].


Les théories
Différentes théories ont été élaborées pour rendre compte de ces résultats. La plus simple est la théorie des collisions, qui repose sur le fait qu'il est nécessaire que les molécules se rencontrent (collision) pour qu'une réaction se fasse  : plus leur concentration est grande, plus il y a de chances que la réaction se produise, d'où une loi de vitesse proportionnelle aux concentrations. Mais tous les chocs ne sont pas suivis d'une réaction, car il faut qu'au moment du choc les molécules soient orientées convenablement l'une par rapport à l'autre et qu'elles aient une énergie suffisante, d'où la notion d'énergie d'activation, seuil au-dessous duquel il ne peut rien se passer.


Les réactions composées
Les réactions isolées sont peu nombreuses. En général, les transformations chimiques résultent de la superposition ou de la succession de plusieurs réactions isolées.
Par exemple, la synthèse directe de l'ammoniac :
[N2 (g) + 3 H2 (g) ⇄ 2NH3 (g)].
Cette synthèse s'arrête avant que tous les réactifs soient totalement consommés : on peut l'expliquer en admettant que la réaction opposée entre en compétition avec la synthèse. Dans d'autres cas, plusieurs réactions compétitives ont lieu simultanément.
On peut également obtenir à l'issue d'une réaction des produits qui se transforment à leur tour (réactions successives).
On conçoit qu'on puisse obtenir des informations fondamentales sur le mécanisme des réactions chimiques à partir de l'observation des concentrations des espèces mises en présence, en fonction du temps.


Mécanismes réactionnels
L'équation d'une réaction chimique ne donne qu'un bilan : d'un côté s'écrivent les réactifs et de l'autre les produits de la réaction.
Quel est le processus qui permet la transformation au niveau moléculaire ? Quels sont les produits intermédiaires ?
Ce sont les questions que se pose effectivement le chimiste, car ce n'est que lorsqu'il connaîtra les détails de ce processus qu'il pourra agir : si une réaction est lente, il cherchera dans ces détails l'étape qui limite la vitesse ; en contournant l'étape lente, il pourra chercher le moyen d'accélérer la réaction globale en provoquant le passage par une autre voie. L'alpiniste ne fait pas autrement lorsqu'il cherche une voie vers le sommet, en contournant les difficultés trop grandes qu'il rencontre.


Réaction élémentaire
La réaction élémentaire est un acte chimique qui se produit, au niveau microscopique, entre particules spécifiées. Par exemple, la rencontre d'un ion H+ et d'un ion OH− conduit directement à une molécule d'eau.
On écrit :


La flèche arrondie spécifie qu'un doublet électronique, non engagé dans une liaison avec l'ion OH−, va assurer une liaison avec l'ion H+ auquel il manque, justement, un doublet pour être stable, donnant ainsi directement une molécule d'eau ; une telle réaction est dite élémentaire.
D'une manière générale, le chimiste cherche la suite des réactions élémentaires que choisit la nature et qui conduisent des réactifs aux produits.


La molécularité d'une réaction élémentaire est, par définition, le nombre de particules impliquées comme réactifs dans celle-ci ; ce nombre est évidemment un nombre entier. C'est ainsi que, dans la réaction élémentaire précédente, la molécularité est égale à deux : on dit que la réaction est bimoléculaire.
On peut parfois supposer des réactions trimoléculaires, mais celles-ci sont nécessairement beaucoup plus rares que les réactions bimoléculaires, parce que peu probables, exigeant la rencontre en même temps de trois particules. Les réactions peuvent être aussi monomoléculaires, si l'on admet qu'une particule peut se détruire spontanément, sans intervention d'une collision avec une autre.


Le mécanisme d'une réaction chimique
Pour établir le mécanisme d'une réaction chimique, il faut rechercher l'ensemble des réactions élémentaires dont la somme est effectivement cette réaction. Ensuite, c'est le calcul de la vitesse de chaque réaction élémentaire, puis celle de la vitesse globale, qui doit évidemment être en accord avec la vitesse expérimentalement observée. L'expérience montre que très peu de réactions se produisent en une seule étape. Lorsque c'est le cas, on parle d'une réaction simple. Telles sont les désintégrations radioactives, les réactions de dimérisation (par exemple: 2NO2 → N2O4), les réactions d'isomérisation et quelques autres.


L'établissement d'un mécanisme réactionnel repose sur :
– une simplicité des réactions élémentaires, qui conduise à des étapes dont la molécularité soit la plus faible possible ;
– le minimum de changement de structure à chaque étape, car la probabilité de rupture de plusieurs liaisons en même temps est faible ;
– la réversibilité macroscopique (l'expérience enseigne que le chemin suivi par une réaction élémentaire dans un sens est le même que celui qui est suivi dans le sens opposé).
Par exemple, la synthèse de l'ammoniac :
N2 + 3 H2 → 2NH3,
doit se faire en plusieurs étapes élémentaires, dont chacune ne réalise que le minimum de modifications :
N2 → 2N,
N + H2 → NH + H,
H + N → NH,
NH + H2 → NH3.
Pour s'assurer de la possibilité d'un tel mécanisme, il est nécessaire de chercher, et de trouver, la trace des espèces intermédiaires N, H, NH dans le milieu réactionnel.
Principales réactions élémentaires
Les réactions élémentaires peuvent être classées d'après leur nature, ce qui donne un nombre restreint de catégories.


La rupture de la liaison
La rupture d'une liaison peut se faire de deux façons. Dans la première, les deux électrons constituant cette liaison se séparent; chaque électron va avec un atome, c'est le cas de la molécule de brome, qui peut ainsi se séparer en deux atomes :
Br:Br → Br. + .Br.
Il s'agit d'une rupture homolytique, c'est une réaction radicalaire.
Dans la seconde, les deux électrons restent ensemble et partent avec un des atomes, le plus électronégatif, ainsi :
Cl:CH3 → Cl−: + CH3+.
Cette rupture hétérolytique est une réaction monomoléculaire, ionique.
La formation d'une liaison
La liaison peut se faire, également, de deux façons :
Br. + . CH3 → Br:CH3, réaction radicalaire,
H+ + OH– → H:OH, réaction ionique.
Ce sont, dans les deux cas, des réactions bimoléculaires.
On peut avoir aussi un transfert d’électrons d'une espèce sur une autre ; c'est donc une réaction bimoléculaire, par exemple :
Cl. + H2 → HCl + H., réaction radicalaire.
La réaction est dite de substitution dans le cas :
C2H5I + Br. → C2H5Br + I., réaction radicalaire.

 

 DOCUMENT   larousse.fr    LIEN

 

 
 
 
 

LA CHIMIE QUANTIQUE

 

Texte de la 233e conférence de l'Université de tous les savoirs donnée le 20 août 2000.


Entre physique et chimie, une discipline métisse : la chimie quantique
par Jean-Paul Malrieu


La Chimie Quantique est installée entre deux sciences majeures, à la charnière entre la Physique, plus particulièrement la Physique Moléculaire et la Physique du Solide, et la Chimie. Elle fait partie de ce qu'en France on appelle la Chimie-Physique, où le tiret signifie le rapprochement de deux substantifs, tandis que les Anglo-saxons distinguent Chemical Physics et Physical Chemistry, selon la pondération des intérêts et les outils mis en oeuvre. La Chimie quantique n'est qu'une partie de la Chimie-Physique. Il existe en effet une Chimie-Physique qui s'intéresse aux propriétés macroscopiques de la matière, et qui mobilise essentiellement des représentations classiques. La Chimie quantique peut être vue comme une discipline qui s'intéresse d'abord à des propriétés et des phénomènes qui concernent l'univers des molécules, à des échelles microscopiques, celles de la molécule ou de l'atome, et qui ne peuvent être compris qu'à l'aide de la Physique Quantique. Il s'agit des propriétés des assemblées d'électrons que les atomes partagent pour construire les édifices moléculaires, et des propriétés caractérisant le mouvement des noyaux dans la molécule.
Quelques questions élémentaires caractérisent ce domaine :
- Comment, par quelles forces, tiennent ces édifices à longue durée de vie que sont les molécules ? Quels sont les différents types de liaisons chimiques entre les atomes, quelle est leur nature, leur solidité ?
- Comment les molécules répondent-elles à la lumière, à quelles longueurs d'onde répondent-elles, que se passe-t-il quand elles absorbent un ou plusieurs photons ?
- Quelles interactions existe-t-il entre des molécules, quels compromis passent-elles, quels édifices d'édifices peuvent-elles construire dans les liquides, les membranes, les organisations supra-moléculaires dont vous parlait J. M. Lehn ?
- En quoi consiste la réaction chimique qui, de la rencontre de A avec B, construit la molécule AB, ou de celle entre AB et CD nous donne les molécules AC et BD ? Par quels chemins, à quelles conditions, doit passer le super-système des deux molécules qui entrent en collision ou s'approchent pour que se négocie le nouvel assemblage, produit de la réaction chimique ?
Mais à ces questions il peut être apporté deux types de réponses, les unes théoriques, par la Chimie quantique, et d'autres expérimentales, qui mobilisent les ressources très diversifiées des spectroscopies. La Chimie-Physique microscopique expérimentale est difficilement discernable de la Physique moléculaire, si ce n'est par des frontières qui tiennent plus de la tradition que de la raison. Elle interpelle très subtilement, en augmentant sans cesse la résolution temporelle ou énergétique de ses interpellations, ou en croisant ces interpellations, les objets sur lesquels travaillent les Chimistes Quanticiens. Ceux-là mobilisent les postulats et les théorèmes de la Physique Quantique, énoncés dès les années vingt du vingtième siècle, pour interpréter et/ou prédire, par des voies purement abstraites ou numériques, les propriétés des molécules. La Chimie Quantique est donc une discipline théorique, bien qu'on puisse la dire, j'y reviendrai, plus calculatoire que théorique.
Une scansion temporelle
D'abord un peu d'histoire sur les étapes par lesquelles est passée cette discipline, qui nous permettra d'en mieux cerner les enjeux.
Au début se trouvent d'une part un corpus théorique, celui de la Mécanique Quantique, avec ses concepts fondamentaux, ses équations maîtresses, ses théorèmes, ses méthodes rigoureuses et ses approximations raisonnées, et d'autre part un legs, la somme des informations préliminaires et des expériences préalables apportées par la Physique Atomique, qui a joué un rôle essentiel dans la naissance de la Mécanique Quantique, et qui concerne les entités à partir desquelles se construisent les molécules.
Je n'écrirai pas d'équation, pas même l'équation maîtresse qui fixe les états stationnaires d'un système quantique, l'équation de Schrödinger, je procéderai par images et par métaphores abusives, forcément abusives. Je dois par exemple dire que les électrons sont des particules chargées indiscernables, mais qu'ils ont une caractéristique, leur spin, qui ne peut prendre que deux valeurs et qu'on peut voir comme un sexe, si on veut une analogie facile.
Le legs de la Physique Atomique
La Physique Atomique lègue d'abord une bonne simplification, en nous disant, avec Born et Oppenheimer, que les noyaux, qui sont aussi des particules quantiques, ont une masse tellement plus lourde que les électrons qu'on peut considérer leurs mouvements comme lents par rapport à ceux des électrons, ceux-ci adaptant instantanément leur répartition à la position des noyaux. Cette approximation, dans laquelle se placent 99,9 % des travaux, découple les problèmes électronique et nucléaire et nous laisse avec une population homogène d'électrons, se déplaçant dans le champ électrique attractif exercé sur eux par les noyaux. Autre leçon, qualitative, l'idée que l'état du système résulte d'une sorte de compromis entre trois composantes de l'énergie, l'attraction nucléaire d'une part, qui est négative (stabilisante), et grande quand les électrons orbitent très près des noyaux, ensuite la répulsion entre électrons, particules de même charge, qui les fait se fuir, et enfin l'énergie cinétique, positive, qui n'est faible que si les électrons se promènent tranquillement dans de vastes espaces. Le compromis se joue donc entre des forces qui confinent les électrons près des noyaux et d'autres qui tendent à les éloigner, à les faire se mouvoir sur de plus vastes orbites.
La Physique Atomique introduit très tôt une vision hiérarchisée des populations d'électrons dans l'atome, un modèle en couches et sous-couches. Ces couches caractérisent des niveaux d'énergie et des extensions spatiales, il y a des couches internes d'énergie très profonde, dont les électrons orbitent près du noyau, et des couches externes, dites de valence, d'énergies plus hautes et dont les électrons orbitent plus loin du noyau. Alors que les premières ne participeront pas aux liaisons chimiques, se contenteront en quelque sorte de s'y adapter par de petites modifications, ce seront les secondes qui participeront à la construction des liaisons entre atomes.
Les sous-couches peuvent être vues comme caractérisant des formes d'orbites des électrons, dans une image classique. C'est pourquoi on les appelle orbitales. Je les appellerai boîtes, ici atomiques. Disons qu'elles ont une forme et une extension spatiale, qui caractérisent par leur volume le domaine où l'électron qui l'occupe aime à se promener et par leur forme, le type de trajectoire qu'il y adopte. On a donc des boîtes sphériques, les orbitales e type « s », des boîtes allongées selon un axe avec deux lobes, de signes différents, les orbitales « p », etc.
Bref une petite zoologie de base que la Chimie quantique va manipuler. Cette construction du modèle atomique, dans laquelle les électrons vont remplir gentiment, deux par deux de spins opposés, les couches et sous-couches d'énergies les plus basses, rationalise le tableau périodique de Mendeleïev, proposé cinquante ans plus tôt. C'est aussi à la Physique Atomique que la Chimie Quantique devra un certain nombre de ses outils, par exemple l'approximation dite de « champ moyen », et la conscience des difficultés du problème à N-corps, dont je reparlerai plus en détail.
Premier temps, comprendre la liaison chimique (les années trente)
Dès les années trente les quanticiens cherchent à comprendre la nature des différentes liaisons chimiques que postulaient les chimistes depuis presque cent ans. Ils appliquent donc, moyennant force simplifications, leurs outils à la compréhension des molécules les plus élémentaires, la molécule H2+, à un seul électron, et la molécule H2, à deux électrons. L'idée clef est la suivante : à ne pas rester dans la boîte de l'atome dans lequel il est arrivé, et à se mouvoir près de l'autre noyau, un électron peut gagner en énergie cinétique puisqu'il orbite dans un volume plus large sans perdre en énergie potentielle, la liaison est liée à une délocalisation des électrons dans la liaison chimique. Cela va sans problème s'il n'y a qu'un électron dans la liaison ; s'ils sont deux, il faut qu'ils soient de sexes opposés, pour que l'électron de spin « up » apporté par l'atome A puisse aller se promener dans la boîte apportée par l'atome B, occupée par un électron de spin « down » et réciproquement.
On a donc un modèle, dit de la Liaison de Valence (Valence-Bond), qui manipule les boîtes atomiques de valence des atomes et construit des liaisons à 2 électrons de spins opposés, se déplaçant entre les deux boîtes apportées à la liaison par les deux atomes partenaires.
Une solution alternative consiste à déchirer la frontière entre les deux boîtes atomiques, à faire une seule boîte plus grande sur la liaison et à y mettre les deux électrons, c'est une orbitale moléculaire de liaison. Les électrons qui n'entrent pas dans des paires de liaison restent dans des boîtes atoniques, un peu déformées par les liaisons engagées, qu'on appelle « paires libres ».
Si les deux atomes sont de nature différente, les électrons peuvent préférer orbiter plutôt, voire seulement près de l'un d'eux, on aura alors une liaison partiellement ionique, comme dans LiH, ou très ionique comme dans NaCl.
En tout cas la théorie quantique naissante vient rationaliser d'emblée le jeu de Lego moléculaire avec lequel les chimistes jouaient et pensaient depuis plus d'un demi-siècle, en écrivant leurs formules chimiques avec des lettres, les atomes, et des traits, les liaisons, supposées porter deux électrons. Cette conciliation de la Chimie constructiviste intuitive avec la théorie abstraite qui venait de naître est un événement épistémologique majeur trop occulté dans l'enseignement.
Un autre domaine de la chimie, la chimie organométallique, va bénéficier très vite de la Physique atomique ; on comprendra en effet comment les ions métalliques, qui sont entourés de ligands moléculaires ou d'ions non métalliques, sont perturbés par cet environnement, des sous couches cessent d'avoir la même énergie, les plus basses acceptent les électrons qui sont sur le métal, et la spectroscopie de celui-ci est très différente de ce qu'elle était sans les ligands. C'est la théorie du Champ Cristallin, complétée ensuite par la prise en compte des délocalisations qui peuvent intervenir entre les orbitales et les électrons des ligands et du métal, pour devenir théorie du Champ des Ligands, un instrument conceptuel de base incontournable dans ce domaine, dépassant le modèle classique intuitif des paires électroniques de liaison.
Cette période voit aussi s'établir la compréhension du mouvement des noyaux, mouvements de rotation et de vibration, donnant lieu à des spectroscopies spécifiques, riches d'informations.
Dernier apport de cette époque pionnière, la compréhension de ce qui se passe entre les molécules quand elles s'approchent sans faire une réaction chimique, les forces qui les attirent, dont certaines sont d'ordre électrostatique mais d'autres, les forces dites de dispersion, ne peuvent être comprises que dans le cadre de la théorie quantique, et les forces qui les repoussent, elles aussi d'origine quantique.
Ainsi s'est immédiatement construite une théorisation qualitative, interprétative, qui a mis de l'ordre dans des variétés d'édifices d'apparence disparate et fourni de nouveaux concepts, ce qui était énorme. Jusque là pas d'ordinateur, des simplifications drastiques mais raisonnées permettant la rationalisation.
L'ère de la délocalisation électronique (les années 45-60)
Tout ne pouvait coller aussi simplement avec le petit Lego des chimistes. S'il en avait été ainsi, la Mécanique Quantique n'aurait servi qu'à justifier une vision classique dans laquelle des noyaux sont liés par des ressorts de longueurs et rigidités différentes. Une Mécanique Moléculaire de type classique sera de fait développée après les années soixante-dix pour l'étude des conformations de grosses molécules, en particulier les biomolécules.
Deux types de problèmes vont donner à l'approche quantique un rôle irremplaçable. Le premier concerne les molécules où certains électrons ne forment pas des paires assignables à un couple d'atomes, ce sont les hydrocarbures conjugués, les polyènes le benzène, le naphtalène, leurs innombrables analogues, molécules dont les atomes sont dans un plan, dans lequel s'engagent des liaisons bien locales, porteuses de deux électrons, mais dont une partie des électrons se déplace dans des bottes atomiques orientées perpendiculairement au plan de la molécule. Le second problème concernait la réponse de toutes les molécules, même les plus compatibles avec le Lego moléculaire, à la lumière, en particulier l'émission d'électrons (spectroscopie photo-électronique). Si vous considérez par exemple la famille des hydrocarbures saturés, méthane, éthane, propane, etc. vous avez la série la plus compatible avec le jeu de Lego moléculaire, l'énergie est très bien donnée par des additions d'énergies de liaisons, caractéristiques de la liaison CC et de la liaison CH respectivement. Et pourtant vous ne comprendrez rien à l'évolution des potentiels d'ionisation (énergie nécessaire à l'arrachement d'un électron) dans cette série, ni à leur dépendance à la structure moléculaire, à ses branchements.
Là s'ouvre le règne de la délocalisation électronique et s'installe une représentation en terme d'orbitales moléculaires délocalisées, aujourd'hui largement enseignée aux chimistes. Dans cette représentation les atomes apportent à l'édifice moléculaire leurs électrons de valence et les boîtes correspondantes, sans préjugé de partenariat, et les électrons vont se promener dans l'ensemble de ces boîtes atomiques. Mais plutôt que de considérer une théorie Valence-Bond généralisée, ce qui est possible mais ne conduit qu'à un traitement numérique, difficile et sans concept, on va construire à partir des boîtes atoniques des boîtes ou orbitales moléculaires, qui s'étendent sur l'ensemble du squelette moléculaire mais qui jouent sur les signes qu'on affecte aux bottes atomiques dans les boîtes moléculaires. Par exemple si on considère un ensemble de quatre atomes alignés apportant chacun un électron et une boîte, on peut prendre quatre combinaisons totalement distinctes (on dit orthogonales), qui seront respectivement ++++, ++--, +--+ et +-+-. Si l'on calcule l'énergie d'un électron posé dans une de ces orbitales moléculaires on verra qu'elle dépend fortement de ces jeux sur les signes, plus il y a de changements de signes, plus l'énergie est élevée. Si on veut donc affecter la population électronique à cet ensemble d'orbitales moléculaires, on mettra deux électrons, toujours de spins opposés, dans les orbitales d'énergie les plus basses. Nous avons ainsi une vision de la population électronique selon laquelle les électrons vont encore par paires mais occupent des sortes d'appartements étendus sur l'ensemble de l'espace moléculaire, d'altitude énergétique différente, qui présentent de plus en plus de changements de signes, de cloisons si vous restez dans cette image immobilière, quand on monte dans les étages (en énergie). Quand on a mis tous les électrons ainsi dans les étages les plus bas, restent des appartements vides de haute énergie. Ioniser une molécule c'est arracher un électron d'un des niveaux occupés, ce qui coûte une énergie donnée, quantifiée, caractérisant ce niveau, et exciter une molécule c'est envoyer un électron d'un niveau occupé à un niveau vide, ce qui implique à nouveau une énergie déterminée.
En fait le jeu selon lequel on combine les orbitales atomiques pour construire les orbitales moléculaires ne manipule pas que les signes, il est plus quantitatif, réglé par l'opérateur quantique associé à l'énergie, le Hamiltonien. Une forme très simplifiée de celui-ci, pratiquement topologique (l'Hamiltonien de Hückel), a permis à la fois des calculs numériques sur les calculateurs mécaniques de l'époque, et de très jolies analyses algébriques. De 1945 à 1960 ce modèle, populaire aussi en Physique du Solide, multiplie les succès. La Chimie Quantique aura néanmoins ses martyrs dans l'URSS de Staline, où les chimistes quanticiens sont envoyés au Goulag comme apôtres d'une idéologie bourgeoise indéterministe. Si l'on songe que les Physiciens soviétiques donnent à cette même période et à ce même pouvoir, à partir des mêmes outils conceptuels, les armes de la fission et de la fusion nucléaires, on mesurera que la Chimie Quantique n'est pas encore une technique très prédictive.
L'ère du comput (1960-75)
L'informatique va permettre à la discipline de se prendre au sérieux, elle va revenir de formes très simplifiées de l'Hamiltonien à son expression exacte. Certes on n'obtiendra pas les solutions exactes de l'équation maîtresse, on travaillera dans le cadre de deux approximations :
- La première, encore indépassée aujourd'hui sauf cas exceptionnels, consiste à travailler dans un espace vectoriel fini, c'est-à-dire avec un nombre fini de boîtes atomiques. Mais on en prendra un nombre de plus en plus grand, afin de donner plus de degrés de liberté dans la distribution spatiale et la forme des orbitales moléculaires.
- La seconde, provisoire, consiste à remplir les niveaux électroniques les plus bas avec deux électrons et à minimiser l'énergie totale. Dans cette approximation les électrons se meuvent dans un champ moyen, créé par les noyaux et les autres électrons.
Cette étape de la discipline bouleverse son visage, sa pratique et son impact. On veut reproduire l'expérience de façon quantitative, la dimension technique explose, il faut calculer, stocker et gérer des dizaines de milliers d'intégrales, penser stratégie computationnelle, taille-mémoire, rapidité des algorithmes. Un autre profil de compétence apparaît, passablement technique, proche de l'informatique dont il faut connaître les outils en rapide évolution. La discipline se fait numériste, elle perd en charme ce qu'elle gagne en précision. Mais elle vit avec exaltation la course à la prédictivité quantitative.
L'ère de la rigueur : le défi de la corrélation électronique (1975-90)
Heureusement pour l'intelligence de la discipline, la recherche de la solution exacte de l'équation maîtresse est une tâche plus que difficile, impossible. L'approximation qui consiste à poser les paires d'électrons dans des orbitales optimisées est grossière. Dans la réalité, ou dans la solution exacte, les électrons ne se déplacent pas dans un champ moyen fixe. Si deux électrons vont à la rencontre l'un de l'autre ils infléchiront leur trajectoire pour diminuer leur répulsion, leurs mouvements seront corrélés et non plus indépendants. Ce problème de la corrélation entre électrons s'appelle « problème à N-corps quantique », il a exigé dans diverses disciplines de beaux efforts conceptuels et méthodologiques. Notons que sur ce terrain la Chimie Quantique s'est trouvée plus proche de la Physique Nucléaire que de la Physique du Solide, qui manipule pourtant elle aussi des électrons dans le champ de noyaux.
Ce problème de la corrélation a deux aspects, formel et physique. L'aspect formel concerne la distribution des électrons dans les boîtes mises à leur disposition, qu'elles soient locales (atomiques) ou étalées sur l'espace moléculaire. U nombre possible de ces distributions de n électrons dans p boîtes, même sous contrainte de ne pas mettre plus de deux électrons par boîte, est trop grand et certaines distributions sont très défavorables. De très jolis formalismes ont été conçus, qui essayent de combiner rigueur formelle et praticabilité. Certains outils, très généraux, peuvent être exportés de la Chimie Quantique vers d'autres champs.
L'aspect physique concerne l'évitement des électrons dans l'espace. Si 2 électrons ont même spin, la probabilité de les trouver dans un même point de l'espace est nulle, c'est une autre version de l'homophobie à l'Suvre dans la constitution des couples d'électrons, qu'on visualise par le « trou de Fermi ». Les électrons de spins opposés font meilleur ménage, on peut en trouver deux au même endroit, mais ils préfèrent garder quelque distance, du fait de leur répulsion électrostatique, et c'est une propriété très subtile de la fonction d'onde exacte que de présenter en tout point cette singularité qu'on appelle « trou de Coulomb ». Il est impossible de rendre compte de cette propriété en tout point de l'espace physique à l'aide d'un ensemble fini d'orbitales. Heureusement cet effet d'évitement à courte portée ou de dernière seconde n'a pas des effets énergétiques cruciaux et les calculs effectués avec un nombre fini d'orbitales, par exemple en donnant 10 orbitales, judicieusement choisies, par électron, donnent des énergies suffisamment correctes pour la précision souhaitée par les chimistes. Néanmoins les méthodologistes s'efforcent de calculer l'effet du trou de Coulomb, avec un succès convaincant.
L'ère de l'efficience simulatrice (1990- ?)
Aujourd'hui donc les chimistes quanticiens sont capables de calculer de façon très précise les énergies et les géométries de molécules de moins de dix atomes dans leur état fondamental, sans introduire d'autre information empirique que la forme analytique des orbitales atomiques utilisées. C'est ce qu'on appelle la méthodologie ab initio, pour l'opposer aux simplifications semi-empiriques utilisées auparavant. Cette approche est aujourd'hui battue en brèche, parce qu'une alternative beaucoup moins coûteuse a été proposée.
Les calculs ab initié nécessitent en effet un temps de calcul qui croît comme une puissance du nombre N d'électrons, la puissance quatrième dans la méthode de champ moyen, une puissance sixième ou septième si on traite la corrélation entre électrons. L'étude de grosses molécules qui intéressent les expérimentateurs, les biochimistes, les inventeurs de matériaux nouveaux, les spécialistes de la catalyse, semblait impossible. Ce coût prohibitif tient en principe à ce que la fonction d'onde manipule les trois coordonnées des N électrons et travaille dans un espace de dimension 3N.
Or un théorème, dû à Hohenberg et Kohn, établit qu'il doit exister une correspondance biunivoque entre la densité électronique dans l'espace physique, de dimension 3, et la fonction d'onde, donc l'énergie. Correspondance qu'on ne connaît que dans le cas idéal du gaz homogène d'électrons. D'où le rêve d'un formalisme qui travaillerait avec la seule densité électronique. Partant donc du cas idéal et de quelques sophistications destinées à tenir compte de l'inhomogénéité de densité, une « théorie fonctionnelle de la densité » (DFT) a été proposée, beaucoup plus économique que les méthodes principielles que j'ai décrites plus haut. Les fonctionnelles utilisées aujourd'hui ont des formes complexes, elles introduisent de nombreux paramètres, et donnent des résultats comparables à ceux des meilleurs calculs ab initio, à bien moindre coût. Bien sûr les valeurs données à ces paramètres ne découlent pas des principes, elles ont été ajustées par essais et erreurs sur un ensemble d'expériences numériques. Si bien que la méthode DFT est encore à ce jour une méthode semi-empirique. J'ai même soutenu qu'on pouvait à la limite lui donner le statut de réseau neuronal, c'est-à-dire d'une machine apprentissante. Si un réseau neuronal, câblé à partir d'un ensemble d'expériences, ne donne pas une réponse satisfaisante dans un cas nouveau, on doit incorporer ce cas à l'ensemble d'apprentissage et réviser les câblages. C'est un peu ce que font les praticiens de la DFT à ce jour, bien que des recherches théoriques fondamentales soient aussi menées pour produire des fonctionnelles formellement fondées. Le rapport qualité des résultats obtenus/coût des calculs est en tout cas très attractif et balaie les scrupules éventuels d'une majorité d'utilisateurs. Et il n'y a pas lieu de faire la fine bouche si ce que l'on demande c'est une réponse très probable à une question précise concernant un système particulier.
Quelques beaux succès d'une discipline austère
Les succès de la Chimie Quantique sont d'ordres différents.
Elle donne d'abord une représentation qualitative de la population électronique. Elle est à la fois un traité des passions, une anthropologie et une sociologie. Elle dit les attirances et les exclusions, elle catégorise les liens, leur nature, elle pense les hiérarchies énergétiques, les partages, les complicités, les lois de la parenté et les compromis économiques. La théorie des orbitales moléculaires est désormais largement enseignée aux chimistes, ce qui leur a demandé de louables efforts, car on n'entre pas facilement dans le paradigme quantique. A ce stade, et dans la mesure où elle est manipulable analytiquement, ou avec les mains, la chimie quantique est parfois très esthétique. En particulier quand elle traite des électrons délocalisés des molécules conjuguées, le culmen dans ce domaine étant sans doute atteint par la formulation des règles qui gouvernent la stéréo-spécificité des réactions électrocycliques, question qu'on peut formuler ainsi : quand une molécule en forme de ruban se referme par ses deux extrémités, se ferme-t-elle en cylindre ou comme un ruban de Moebius ? Ces règles rationalisées par une démonstration simple ont valu à Woodward et Hoffmann un prix Nobel mérité. Ce qu'on peut par contre regretter c'est que l'approche des orbitales moléculaires délocalisées soit aussi hégémonique dans l'enseignement et que les approches alternatives en termes d'orbitales de liaisons, parfaitement équivalentes aux précédentes pour la description de l'état fondamental de la quasi-totalité des molécules, ne soient pas enseignées, alors qu'elles valident la représentation intuitive qu'utilisent les chimistes dans la vie quotidienne.
Un usage qualitatif spectaculaire concerne les édifices magnétiques, ceux où quelques électrons restent seuls dans leur boîte, la question étant de savoir si les électrons célibataires préfèrent avoir le même sexe ou des sexes opposés. Là les effets quantiques sont déterminants. Je voudrais saluer ici la façon dont des chimistes extrêmement créatifs, comme Olivier Kahn, mort prématurément cet hiver, ou Michel Verdaguer, savent mobiliser une vision théorique simple dans leur design de composés nouveaux aux propriétés remarquables. Ceux là font mentir la fatalité qui divise expérimentateurs et théoriciens. Pour les théoriciens « purs » comme moi la rencontre de ces partenaires et des beaux problèmes qu'ils nous soumettent est un plaisir stimulant.
Semi-quantitatives sont les informations qui concernent la spectroscopie. La symétrie des états impliqués dans les excitations, l'intensité des absorptions de photons, l'ordre énergétique des états de la molécule, leurs natures parfois qualitativement différentes, autant de questions dont les réponses exigent la maîtrise de concepts quantiques et la manipulation des fonctions d'onde.
Puis viennent les succès quantitatifs, la spectaculaire précision des calculs les plus rigoureux, effectués sur des molécules de taille moyenne, vérifiables par confrontation avec les informations expérimentales. Les géométries d'équilibre, les longueurs des liaisons, les angles qu'elles forment entre elles, les énergies de dissociation, nécessaires à la rupture des liaisons, sont, sauf rares exceptions, reproduits au pour cent près. Longtemps les théoriciens ne se donnaient pour objectif que de reproduire aussi bien que possible les résultats de l'expérience, et à une époque ils prêtaient le flanc à l'ironie, quand par exemple ils s'échinaient à reproduire avec un ou deux ans de retard l'orientation du moment dipolaire de la misérable molécule CO, que les expérimentateurs révisaient périodiquement. Cette époque est bien révolue. La Chimie Quantique affirme et prédit. Elle a permis d'identifier des composés instables, présents dans l'espace interstellaire, responsables de raies en spectroscopie hertzienne, apparaissant dans des forêts de raies. Ces composés y existent du fait de l'extrême vide qui y règne, qui rend très rares les collisions qui les détruiraient, comme elles le font en laboratoire. Nous sommes capables de déterminer des architectures élusives, de calculer les intermédiaires très instables de réactions chimiques. Tout composé stable correspond à une conformation du squelette moléculaire, et s'en écarter, déplacer les noyaux, coûte de l'énergie. Une configuration d'équilibre est comme un lac entre des montagnes. Passer d'une configuration d'équilibre à une autre, donc faire une réaction chimique, c'est passer d'un lac à un autre, ou d'un lac à une vallée. La route doit franchir une crête, au mieux passer par un col. Et les chimistes quanticiens sont capables de dire la position du col, c'est-à-dire la position relative des noyaux, et son altitude. Ils peuvent même dire si la route qui y mène est directe ou tortueuse.
Ils peuvent aussi désormais explorer, avant les expérimentateurs et à bien moindre coût, des chimies utopiques susceptibles d'être réalisées. Par exemple : la Chimie la plus pratiquée est celle des atomes légers, l'hydrogène, le carbone, l'azote et l'oxygène, et leurs analogues de la seconde ligne longue du tableau périodique. Que se passe-t-il si l'on remplace le carbone par un atome lourd, ayant le même nombre d'électrons externes, comme le germanium ou l'étain ? Conséquence indirecte de la relativité, ces atomes sont plus réticents que le carbone à engager leurs 4 électrons externes dans des liaisons, ils hésitent à se comporter comme le plomb, qui préfère n'en engager que deux, et ils construisent une chimie très versatile, avec des liaisons d'un type nouveau, à un seul ou à trois électrons, ce que l'expérience confirme peu à peu.
Autre utopie : des édifices assez stables mais qui pourraient stocker beaucoup d'énergie, libérable par dissociation. Par exemple le cube N8 peut exister, il serait stable à température ordinaire, mais sa dissociation en quatre molécules N2 dégagerait une énergie considérable. Les chemins de sa synthèse sont par contre ardus, car c'est un lac de montagne encore inaccessible, pour reprendre ma métaphore géographique.
Autre domaine où la Chimie Quantique s'est avérée utile, celui des petits agrégats d'atomes. Si vous considérez par exemple l'élément Sodium, vous trouverez à un extrême le cristal de sodium, métal où les électrons sont très délocalisés, et à l'autre extrême la molécule diatomique Na2, avec une liaison plutôt covalente. Entre ces deux extrêmes, dans des édifices à 4, 10 ou 100 atomes, que se passe-t-il ? Comment se passe la transition vers le métal et son organisation ? Pour les petits agrégats au moins la Chimie Quantique apporte des réponses sûres ; pour les plus gros d'autres modèles, plus proches du gaz d'électrons, apportent les informations les plus pertinentes.
Autre forme de la matière, les liquides moléculaires. Là, les molécules glissent, tournent et vibrent les unes par rapport aux autres. On est ici dans un univers dynamique. Comprendre les propriétés d'un liquide exige de bien connaître les interactions entre deux molécules, dont on peut ensuite faire un potentiel à deux corps, à utiliser dans une mécanique statistique classique pour déterminer les propriétés macroscopiques du liquide. Parfois les termes à deux corps ne suffisent pas, des effets non additifs à trois, quatre ou six corps sont non négligeables. À cet égard l'eau est particulièrement difficile à traiter. Mais on en sait désormais assez par les simulations temporelles sur la dynamique de l'eau pour savoir la labilité extrême des associations intermoléculaires locales et vous ne trouverez pas un chimiste quanticien pour parier un kopek sur la supposée « mémoire de l'eau » de Benvéniste.
Perspectives et paris
P. G. de Gennes disait récemment de la Chimie Quantique qu'il faudrait, je cite, « en hâter l'agonie ». On doit ajouter qu'il la jetait dans une fosse commune en bonne compagnie, avec la Physique du Solide et la Physique Nucléaire. Mort du Quantique ? Non, notre discipline, comme, et je dirai avec, la Physique du Solide, a du pain sur la planche et de belles ambitions.
Sur le plan conceptuel et méthodologique, le traitement des états excités est l'enjeu de gros efforts, parce que la définition d'une description d'ordre zéro, sur laquelle s'appuyer pour élaborer la fonction d'onde est difficile.
Sur le plan de la puissance et de la capacité à s'attaquer au traitement de grandes molécules une percée remarquable est en cours. Elle consiste à concevoir des algorithmes dont le temps d'exécution croisse linéairement avec la taille du système traité. Cette offensive s'appuie sur une remarque de bon sens : pour la quasi-totalité des molécules, et pour autant qu'on s'intéresse à leur état fondamental, il n'y pas d'effet physique à longue portée, il est toujours possible de construire soit la densité soit la fonction d'onde à partir de briques locales d'extension finie, en interaction avec un nombre fini de briques voisines. Il s'agit là d'un retour aux descriptions localisées que les visions mettant l'accent sur la délocalisation avaient refoulées. L'idée s'applique à tous les Hamiltoniens et Scuselia dans un article récent rapportait un calcul concernant un footballène géant de 8 640 atomes de carbone, dont la géométrie avait été optimisée. Mais l'idée est pertinente aussi dans le cadre des méthodes ab initio dont certains pensaient il y a 5 ans que la révolution pragmatique de la DFT allait les envoyer au Musée des Arts et Métiers sinon aux poubelles de l'Histoire. Mais la corrélation électronique, si difficile à traiter correctement, est à courte portée. Il est possible de déterminer directement des orbitales moléculaires locales et d'effectuer dans cette base des calculs élaborés de la corrélation électronique avec des temps de calcul qui ne croissent que proportionnellement au nombre des atomes. Le match qui oppose rigueur et efficacité pragmatique n'est pas définitivement joué. Ces approches ouvrent d'ailleurs la voie au traitement des solides périodiques par les techniques ab initié.
Autre perspective d'avenir, apporter à la physique des matériaux des connaissances cruciales sur la nature et l'amplitude des interactions locales, qui commandent les propriétés collectives de ces matériaux. Pour comprendre quand un empilement d'unités composées de deux donneurs plus un accepteur devient conducteur, il faut connaître les interactions entre les donneurs, leur dépendance aux changements de géométrie, la structure chimique est cruciale, ainsi que ces données que sont les énergies et les formes des orbitales moléculaires en jeu, leur position spatiale relative. De même pour les édifices magnétiques, les composés à magnétorésistance colossale ou les supraconducteurs à haute température critique, leurs propriétés spectaculaires ne peuvent être comprises qu'à l'aide non du Hamiltonien exact, trop compliqué, mais d'Hamiltoniens modèles réduisant le nombre des électrons impliqués et simplifiant leurs interactions. Mais telle ou telle simplification n'est elle pas abusive ? Et quelle est la valeur de telle interaction ? Comment change-t-elle dans les déformations du réseau ? Autant de questions auxquelles l'expérience ne peut en général pas apporter de réponse univoque, et qui relèvent potentiellement des compétences de la Chimie Quantique. Je suis persuadé qu'il y a là un avenir très fructueux pour notre discipline. Lorsqu'il en est ainsi, lorsque nous apportons de telles informations à la Physique, la Chimie Quantique, science de transfert, science hybride, n'est plus seulement la passerelle par laquelle une science plus scientifique, la Physique, déverse sur une science moins noble, inférieure, le bienfait de ses connaissances. Par cette passerelle passent en sens inverse des connaissances indispensables à la Physique.
Encore faut-il savoir ce dont on est capable. Dès le début des années 80 les Chimistes quanticiens se sont engouffrés en masse vers un problème d'envergure et d'une grande importance économique, la catalyse hétérogène, processus par lequel une réaction chimique impossible en phase gazeuse ou liquide devient possible à la surface d'un métal. Mais cette question est celle de toutes les difficultés, car il s'agit d'un métal de transition, déjà difficile à traiter théoriquement, de sa surface, encore plus difficile, voire d'un défaut sur cette surface, et d'une réaction chimique sur celle-ci ! Les années hommes et les années computers englouties dans ce problème prématuré n'ont pas apporté de lumières convaincantes.
Par contre l'assistance théorique au design moléculaire, à la conception de nouvelles architectures, doit prendre son essor. Il faut des théoriciens imaginatifs qui conçoivent et mettent à l'épreuve de leurs calculs des composés doués par exemple de bistabilité, donc susceptibles de stocker de l'information à l'échelle de la molécule, ce qui représenterait un bond prodigieux dans la compacité du stockage. Et l'utopie d'une électronique moléculaire, avec ses fils, ses diodes, ses commutateurs, est déjà en marche, sous l'impulsion d'esprits hardis.
Questions impertinentes
Pour terminer et prendre un peu de champ je voudrais poser quelques questions qui débordent le cadre d'un exposé scientifique usuel, fut-il adressé à des non-spécialistes.
D'abord pourquoi des Chimistes Quanticiens ? La division Expérience/Théorie ne prend pas en Physique la forme institutionnelle qu'elle a prise en Chimie, où existent des laboratoires de Chimie Quantique. La réponse à cette question est à la fois pratique et culturelle. La distance est plus grande entre l'inactivité du chimiste de synthèse et celle du chimiste quanticien qu'entre celle du physicien expérimentateur, qui manipule des spectroscopies compliquées, déjà prises dans le paradigme quantique, et son collègue théoricien. A quoi s'ajoute le fait que la plupart des chimistes n'ont ni le goût ni les bases qui leur permettent de s'approprier des concepts abstraits et des outils formels non-intuitifs. Mais ce fossé est peut-être imputable en partie au faible effort de transmission de leur savoir par les théoriciens.
Quelque chose est cependant en train de changer. Des logiciels sont désormais disponibles, moyennant finances, que des chimistes non-spécialistes peuvent utiliser comme des bottes noires ou un autre type de spectromètre. Ils n'ont besoin que de recettes simples concernant la saisie de leur problème et la lecture des résultats. Cette révolution changera peut-être les rapports théorie/expérience. Elle pourrait en tout cas amener à reconsidérer le mode d'enseignement de la Chimie Quantique, qui suit jusqu'à ce jour les voies ardues de la déduction et laisse dans les premiers lacets de la route, entre formalismes obscurs et exercices dérisoires, des étudiants démotivés. Peut-être faudrait-il mettre cet enseignement cul par dessus tête, et convaincre d'abord les étudiants, grâce à l'usage de ces boîtes noires performantes, de la pertinence et de l'efficience de la Chimie Quantique, pour accrocher leur curiosité et les faire remonter, par les chemins du doute, vers le contenu des formalismes utilisés.
La théorie est-elle dirigée par une logique interne ou par une demande, une sorte d'effet de marché ? J'ai en effet mentionné ces codes boîtes noires, produits et vendus par des sociétés privées réunissant théoriciens et informaticiens. La Chimie quantique, complexée de sa longue inutilité, a voulu faire ses preuves et certains ont cru nécessaire ou rentable de créer ces petites sociétés privées de quelques dizaines de personnes. Il s'agissait moins d'un marché déjà là que d'une anticipation sur une demande potentielle, celle des compagnies industrielles chimiques, pharmaceutiques et biochimiques. Il est certain que la cible escomptée, celle des « grosses molécules », a infléchi la pratique de la discipline, accentué la conversion rapide de l'approche ab initio à la DFT. J. Pople fut un des participants actifs à la conception de la méthodologie ab initio en même temps qu'il fondait la première de ces sociétés privées. En Juillet 91 il ferraillait durement contre W. Kohn et la DFT, avant de se convertir en six mois à cette nouvelle approche, évidemment plus prometteuse pour le marché. Bien lui en a pris puisqu'il a partagé avec Kohn voici deux ans le prix Nobel de Chimie.
La Chimie Quantique est-elle une science ou une technique ? Il est certain que cette discipline mobilise beaucoup de technologie. Dans la mesure où elle fonctionne largement, certains diraient exclusivement, à l'aide d'ordinateurs, l'attention aux ressources informatiques et leur évolution est essentielle. Je vois effectivement deux périls à une technicisation excessive de la discipline.
Le premier péril, c'est le culte du nombre, qui à la limite peut devenir dangereux pour la théorie elle-même. Lévy-Leblond a dit avec raison que la simulation numérique n'est pas de la théorie. La simulation peut être basée sur la mise en comput de la théorie, laquelle est faite de concepts, de lois et de déductions. Le calcul ne déduit pas, il s'effectue sans la participation de notre logique. Si elle dérive vers le réseau neuronal efficace, la simulation peut perdre le contact avec la théorie. Ne pourrait-elle alors tuer la théorie ?
L'autre péril est celui de la perte de séduction. À n'exalter que l'efficience, la puissance, on pose un idéal très besogneux, un profil d'informaticien appliqué, figure dont on peut craindre qu'elle n'attire pas les esprits les plus créatifs. Et de fait l'informatique capte, c'est une esclave asservissante. Mes jeunes collègues passent l'essentiel de leur temps devant leur écran, où ils lisent le verdict de leurs dernière tentative et lancent la suivante. Ils n'ont plus le temps, ou le laissent à des privilégiés-négriers de mon genre, de ces batailles logiques avec la structure d'un problème formel, ou de ces longues recherches du « passage du Nord-Ouest » qui caractérisent la théorie.
Même l'exploitation des résultats numériques souffre du numérisme. Vous travaillez sur un composé bizarre, hypothétique, et vos calculs confirment son existence donnent son énergie, sa structure, ses fréquences vibrationnelles. Mais ces résultats appelleraient d'autres analyses plus qualitatives : où sont les électrons, quelles liaisons chimiques tiennent cet édifice, s'agit-il d'un prototype nouveau, d'une pièce nouvelle à ajouter au Lego moléculaire des chimistes ? En campant dans le pré étroit du positivisme numérique, en affichant une telle répugnance au qualitatif, à la traduction imagée, en s'enfermant dans le puritanisme du fait, non seulement on manque à une des fonctions du théoricien, sa fonction langagière, de fournisseuse d'une représentation du monde, mais on se prive du plaisir esthétique.
Quelle place tient en effet l'esthétique dans cette science ?
Présentée souvent comme austère, cette discipline réserve pourtant de grands plaisirs. D'abord par le jeu de ses trois langages, la jonglerie des traductions entre le langage Valence-Bond (en terme de bottes atomiques), celui des orbitales moléculaires de liaison, et celui des orbitales moléculaires délocalisées. Un effet physique peut être obscur dans une représentation et devenir limpide dans une autre.
Le plaisir du dévoilement ensuite. La Chimie, à la différence de la Physique, ne fonctionne pas par formulation de lois, elle est connaissance du spécifique. Mais elle connaît des « effets » assez universels, qu'on prend plaisir à identifier et comprendre.
Pour le théoricien formaliste, le plaisir est celui des défis logiques, qui sont branchés sur des problèmes universaux, dépassant le cadre étroit de la discipline. Il est aussi un plaisir d'ingénieur de concevoir une approche nouvelle, plus élégante et/ou plus rigoureuse que celles déjà disponibles.
Pour l'imaginatif c'est le bonheur des inventions d'architectures, le double plaisir de concevoir des utopies chimiques et de pouvoir en vérifier très vite la cohérence.
La Chimie quantique, science hybride entre Physique et Chimie, science inconfortable qui fait des siens des chauves-souris, physiciens abscons aux yeux des chimistes, pauvres chimistes aux yeux des physiciens ? Elle est autre chose qu'une passerelle ou une science de transfert,' elle a produit une culture spécifique dans la tension où elle vit entre les trois pôles qui la stimulent et la déchirent :
- La fonction interprétative, de compréhension, de fournisseuse de représentations,
- le souci de grande rigueur formelle, en particulier de manipuler l'Hamiltonien exact,
- et le souci acharné de la précision de ses prédictions.
Je suis persuadé que cette science, métisse donc, mais originale, a un bel avenir et dispose de suffisamment de ressources et d'assez d'énigmes devant elle pour attirer de jeunes esprits exigeants.

 

 VIDEO       CANAL  U         LIEN

 

( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
 

METHANE

 

Paris, 12 août 2014


Le bullage domine les émissions de méthane dans les jeunes barrages tropicaux


Pour la première fois, les émissions de méthane par bullage des barrages tropicaux ont été précisément quantifiées, ce qui a permis de découvrir que ce mode d'émission dépend à la fois du niveau d'eau dans le barrage, sous contrôle de la mousson, et des variations de pression atmosphérique journalières. Les barrages tropicaux émettraient plus de 10 % du méthane d'origine anthropique, mais leurs émissions restent encore très mal quantifiées. Dans cette étude, un nouveau système automatisé de mesure en continu des flux de méthane a été déployé sur le lac de retenue du plus grand barrage d'Asie du Sud-Est. Les résultats de ces travaux, menés par des chercheurs du Laboratoire d'aérologie (CNRS/Université Toulouse III Paul Sabatier) et du laboratoire Géosciences Environnement Toulouse (CNRS/Université Toulouse III Paul Sabatier/IRD), sont publiés dans la revue Biogeosciences le 13 août 2014.
Depuis une dizaine d'années, on sait que les barrages hydroélectriques des régions tropicales constituent une source significative de méthane (CH4), un gaz à effet de serre bien plus puissant que le dioxyde de carbone1. Le méthane est produit par des bactéries qui décomposent la matière organique des sols et de la végétation inondée lors de la mise en eau. Les barrages des régions tropicales relâcheraient dans l'atmosphère entre 1 et 18% du méthane lié aux activités humaines2.

Mais ces émissions sont encore mal quantifiées car seul un faible nombre de barrages a été étudié, et toutes les voies d'émission n'ont pas été prises en compte. En effet, le méthane peut s'échapper du réservoir dans l'atmosphère par diffusion (lorsque du gaz dissous dans l'eau atteint l'atmosphère), ou par bullage (quand de grosses bulles de gaz remontent du fond et éclatent à la surface de l'eau), mais aussi à l'aval des turbines, par dégazage (les remous accélère le transfert du méthane dissous vers l'atmosphère). Or actuellement, seule la diffusion est étudiée systématiquement, les autres voies l'étant rarement.

Le barrage de Nam Theun 2 (le plus grand du Sud-est asiatique), au Laos, a été étudié par le groupe de chercheurs avant même sa mise en eau, en mai 2008, et depuis lors. En plus des méthodes classiques (chambres flottantes qui capturent les émanations gazeuses causées par la diffusion ; entonnoirs submergés qui piègent les bulles), ils ont pour la première fois mis en œuvre une méthode innovante de mesure des émissions totales de méthane. Concrètement, une station micrométéorologique déployée sur le lac de retenue de 450 km² capte en continu la vitesse verticale du vent et la concentration de CH4, ce qui permet de calculer le flux de méthane3 en provenance du lac. Contrairement aux méthodes classiques, qui nécessitent une présence humaine, ces stations sont automatisées et assurent des mesures à intervalles de 30 minutes 24h sur 24.

En réalisant ces mesures sur le barrage de Nam Theun 2, les scientifiques ont montré que le bullage a représenté 60 à 80 % des émissions totales de la retenue d'eau dans les premières années qui ont suivi la mise en eau du barrage.

Par ailleurs, l'intensité du bullage varie à la fois à l'échelle de la journée et de manière saisonnière. C'est au cours des quatre mois de la saison sèche chaude (de mi-février à mi-juin) que les émissions sont maximales, car le niveau d'eau est alors bas. Le rythme journalier, quant à lui, est contrôlé par la pression atmosphérique : lors des deux chutes de pression quotidiennes (en milieu de journée et en milieu de nuit), le bullage de CH4 augmente. Des données journalières de pression atmosphérique et de niveau d'eau ont donc permis de reconstruire, grâce à un modèle statistique, les émissions par bullage sur une période continue de quatre années (2009-2013) pour laquelle on ne disposait pas nécessairement de mesures d'émission directe.

Les résultats obtenus soulignent l'importance de mesures très fréquentes des flux de méthane. Ils montrent aussi que le processus de bullage, et donc la quantité de méthane émise par les barrages tropicaux pendant leurs premières années de fonctionnement, ont très certainement été sous-estimés jusqu'à présent. Prochaine étape pour les chercheurs : parvenir à quantifier tout aussi précisément la diffusion à la surface du réservoir et les émissions en aval du barrage pour compléter le bilan des émissions de méthane par ce barrage, et mieux évaluer leur contribution à l'effet de serre à l'échelle de la planète.

 

DOCUMENT             CNRS            LIEN

 

 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google