ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA DYNAMIQUE DU GLOBE CONTRÔLE-T-ELLE L'ÉVOLUTION DES ESPÈCES ?

 

 

 

 

 

 

 

LA DYNAMIQUE DU GLOBE CONTRÔLE-T-ELLE L'ÉVOLUTION DES ESPÈCES ?

La Terre est une planète vivante, aussi bien d'un point de vue biologique que géologique. La dynamique interne du globe est à l'origine de bouleversements gigantesques à la surface. Ainsi, la vie eut-elle à subir de nombreuses agressions provoquées par la tectonique, la séparations des continents et les éruptions volcaniques de plusieurs milliers d'années. L'existence de ses gigantesques éruptions permet de fournir une hypothèse aux extinctions de masse qui ponctuèrent l'évolution des espèces.

Texte de la 12ème conférence de l'Université de tous les savoirs réalisée le 12 janvier 2000 par Vincent Courtillot
La dynamique du globe contrôle-t-elle l’évolution des espèces ?
Il y a soixante-cinq millions d’années, les dinosaures occupaient toutes les niches
écologiques : l’air, les mers, les terres ; il y en avait des petits, des gros, des végétariens, des carnivores, ils étaient merveilleusement adaptés à ce monde de l’ère secondaire. Et un beau jour, il y a environ soixante-cinq millions d’années, ils ont disparu. Les théories proposées par les chercheurs depuis une centaine d’années pour expliquer ces disparitions sont extrêmement nombreuses et la plus populaire d’entre elles, qui a fait florès depuis 1980, veut qu’un jour (instantanément à l’échelle des temps géologiques), un essaim de comètes ou une grosse météorite soit tombé sur la Terre, cet impact envoyant dans l’atmosphère des quantités extraordinaires de poussières et d’aérosols qui auraient modifié le climat : une longue nuit, un hiver planétaire, suivis d’une période d’effet de serre encore plus longue. De ce passage froid/chaud, de nombreuses espèces ne seraient pas relevées. L’impact aurait interrompu les chaînes alimentaires et aurait fait disparaître de la surface de la Terre, non seulement la totalité des dinosaures, mais aussi de nombreuses autres espèces de plus petite taille .
Tout ce que les paléontologues reconstituent de la vie passée du globe est basé sur l’analyse des restes fossiles que l’on retrouve dans les roches. Pour une espèce donnée, rares sont les individus qui sont bien préservés ; l’enregistrement que nous avons de la vie sur Terre à travers ces fossiles est très incomplet. Toute théorie que l’on va construire en se basant sur ces observations est fonction du degré de complétude de cet enregistrement.
La pensée des évolutionnistes et des géologues a été dominée au XIXème et au début du XXème siècles par l’idéologie de l’uniformitarisme : au cours des temps géologiques, il ne se serait jamais passé d’événement fondamentalement différent de ce qui se passe aujourd’hui ; les transformations, les évolutions que l’on observe dans les roches ne seraient dues qu’à l‘extraordinaire longueur des temps géologiques. Les uniformitaristes refusent que l’on invoque une quelconque catastrophe pour expliquer les observations des géologues. Encore faut-il savoir ce que l’on entend par le terme de catastrophe.

Sur Terre, à cause de l’eau, de l’érosion, des climats, de la tectonique des plaques, la surface est sans cesse rajeunie et les impacts anciens de météorites, les cratères, ont très peu de chance d’être préservés. La Lune en revanche a enregistré l’histoire du début du système solaire ; astre inactif, elle a conservé, figé, l’état des lieux d’il y a trois à trois à quatre milliards d’années, et on y observe grand nombre de gigantesques cratères. Il n’y a aucune raison de penser qu’à cette époque la Terre n’ait pas subi d’impacts de même importance. La question est de savoir de quand datent les derniers très grands impacts.
Depuis 1980, l’hypothèse de la disparition des dinosaures par un grand impact de météorite domine la scène. De nombreuses autres hypothèses ont été formulées. L’une d’entre elles, dont j’ai été, avec d’autres collègues, l’un des auteurs, propose une catastrophe climatique, mais d’origine interne, qui trouverait sa source dans le volcanisme. Un volcanisme qui naturellement devrait avoir été beaucoup plus intense et volumineux que tout ce que l’on a observé de mémoire humaine. Imaginez une très longue fissure de plusieurs centaines de kilomètres de longueur, d’immenses fontaines de lave injectant dans l’atmosphère des poussières, des aérosols, des gaz (chlorhydrique, carbonique, sulfureux) qui ont la possibilité de modifier durablement le climat. Nous savons, depuis une quinzaine d’années environ,
1
depuis l’éruption d’El-Chichon, et plus récemment du Pinatubo, que le soufre injecté par un volcan dans l’atmosphère peut être responsable d’une évolution climatique significative. La température moyenne de l’hémisphère nord a ainsi chuté de façon mesurable pendant quelques années à la suite de l’éruption du Pinatubo, de quelques fractions de degrés Celsius, ce qui, à l’échelle de la température moyenne d’un hémisphère, est loin d’être négligeable. Ce n’est pas pour autant que dans les 15 dernières années, les espèces se soient éteintes en
masse ! Si le volcanisme doit expliquer l’extinction des espèces, c’est à une autre échelle qu’il a dû se manifester : encore faut-il le démontrer.
Qu’il faille invoquer un impact de météorite, qui ne dure qu’une fraction de seconde, ou une éruption volcanique qui s’étagerait sur quelques dizaines à quelques centaines de milliers d’années, on a là des événements très brefs en regard des temps géologiques, qui se chiffrent, eux, en millions, en dizaines de millions, voire en milliards d’années.

Il faut noter que quelques scientifiques ont fait l’hypothèse qu’il ne s’était en fait rien passé de brutal au moment de la disparition des dinosaures ; la mauvaise qualité de l’enregistrement de ces événements par les fossiles donnerait cette impression de brutalité, mais en fait, les choses se seraient passées de façon calme et régulière, sur des dizaines de millions d’années : on constate, il y a 65 millions d’années, , un vaste mouvement de régression et de retour des mers étagé sur une quinzaine de millions d’années, qui a entraîné un vaste changement de la géographie du monde.
Pour faire justice à toutes les théories existantes, une autre école pense que les extinctions ont certes été rapides, mais que c’est la dynamique interne des relations entre les espèces qui aurait conduit à une disparition en masse d’espèces. Des relations non linéaires entre les paramètres d’un système dynamique peuvent on le sait conduire à des évolutions extrêmement brutales : c’est la théorie du chaos déterministe.
A côté de ces quatre familles de théories sur la disparition des dinosaures, il en existe bien une centaine qui ont été proposées depuis un siècle. On a ainsi suggéré que leur régime alimentaire ayant changé, ils pondaient des œufs dont la coquille était fragile et qu’ils les écrasaient quand ils les couvaient...

Des données rassemblées depuis vingt ans par les géologues, les géophysiciens, les géochimistes, des spécialistes de plus d’une vingtaine de spécialités et de sous-spécialités différentes ont renouvelé l’approche de ce problème. La figure 1 montre un affleurement de calcaires au nord de la ville de Gubbio, en Ombrie, en Italie. Les calcaires en bas à droite, gris-bleu, se sont déposés dans un milieu semi-tropical à quelques centaines de mètres de fond, dans une mer assez chaude. Quand on en observe un petit morceau au microscope, on trouve des fossiles d’animaux petits et nombreux, des foraminifères. Ces animaux caractérisent l’âge des couches dans lesquelles ils sont enfermés, le Crétacé, la dernière partie de l’ère secondaire. En bas à droite de la séquence, nous sommes aux environs de moins soixante-six millions d’années. En biais au milieu de la photographie, une petite couche de deux ou trois centimètres d’épaisseur, marron foncé, faite d’argile sombre, sépare les bancs calcaires clairs de bancs calcaires plus rosâtres ; manifestement le contenu en oxyde de fer y est différent. Ce sont des calcaires qui témoignent à peu près du même milieu de dépôt ; lorsqu’on regarde au microscope une lame mince de cette roche, on s’aperçoit que, dans les premiers centimètres, elle ne contient plus de fossiles. On a l’impression que le monde s’est vidé. Puis, quand on remonte de quelques centimètres vers le haut, on observe des foraminifères pour la plupart assez différents des espèces que l’on trouvait en dessous : plus
2
petites, moins fines et moins décorées, ces premières espèces marines datent du début de l’ère tertiaire, il y a moins 65 millions d’années : on a traversé la fameuse limite entre ère secondaire et ère tertiaire, la limite Crétacé-Tertiaire. Depuis une vingtaine d’années les chercheurs se demandent ce qui a bien pu se passer. Quelle est la durée, la portion de mémoire de la Terre renfermée dans ce centimètre et demi d’argile noirâtre ? Un certain nombre de chercheurs américains et italiens, en particulier Walter Alvarez, ont prélevé des échantillons de ces argiles et de ces calcaires de part et d’autre de l’argile et ont analysé leur composition chimique. Surprise ! L’argile est très enrichie en iridium, un métal très rare dans la croûte terrestre. mais relativement abondant dans certains types de météorites : une telle météorite se serait vaporisée au moment de l’impact et ses produits se seraient redéposés à la surface du globe entraînant partout cette concentration anormale d’iridium. Nous sommes en 1980, l’hypothèse de la météorite est née.
Dans les années qui suivirent, les chercheurs se précipitèrent sur les coupes de la limite Crétacé-Tertiaire, partout là où elles affleuraient. La figure 2 montre ainsi un objet trouvé dans l’une de ces coupes, un tout petit grain de quartz, de un millimètre de diamètre, regardé à travers un microscope, en lumière polarisée analysée. Ce grain est traversé de familles de petits traits noirs, parallèles les uns aux autres, qui forment deux familles avec des angles très caractéristiques. Les spécialistes sont capables, en orientant ce cristal, de dire exactement à quel plan cristallin correspondent ses défauts. On ne peut produire ce type de structure qu’en faisant passer à travers un cristal de quartz une onde de choc phénoménale. Cette onde de choc désorganise le réseau cristallin et laisse derrière elle ces dislocations, ces limites entre domaines cristallographiques différents. Les grès à proximité de l’impact de la météorite de Canon Diablo en Arizona, ou les échantillons de roches provenant des sites d’explosion atomique présentent les mêmes structures. C’est un argument très fort en faveur de la météorite. Ces grains de quartz choqués ne se trouvent que dans la couche d’argile riche en iridium, mais ni au-dessus ni au-dessous.

3
4
Enfin, on a découvert la présence d’un énorme impact de météorite dans le Yucatan (au Mexique), en utilisant des mesures indirectes faites en déplaçant à la surface du sol un gravimètre (qui mesure la pesanteur). Au début des années 1970, les pétroliers ont trouvé au fond de forages effectués dans cette même région des roches qui pourraient être des restes de croûte fondue par la chaleur dégagée au moment de l’impact. Ces échantillons ont exactement soixante-cinq millions d’années, c’est-à-dire l’âge de la limite Crétacé-Tertiaire. Le cratère de Chicxulub semble bien correspondre au point d’impact de la météorite d’Alvarez.
L’iridium, les quartz choqués, la trace de l’impact au Mexique, un énorme impact qui a à peu près la bonne taille (pour une météorite qui devait faire dix kilomètres de diamètre à peu près). Le scénario en faveur de l’impact de l’astéroïde, développé entre 1980 et 1990, doit aujourd’hui être accepté.
Au début des années 1980, je me trouvais, avec mon équipe, à ramasser des cailloux quelque part entre le Tibet et l’Inde. Nous mesurions la dérive des continents. Nous avons ainsi décidé d’étudier une énorme formation volcanique, pas très loin de Bombay. On appelle cette formation géologique "les trapps du Deccan" : deux milles mètres d’épaisseur de lave affleurant sur cinq cent milles kilomètres carrés de surface. C’est donc un objet de plus d’un million de kilomètres cubes de laves empilées couche après couche, dont certaines font cent mètres d’épaisseur. On n’a jamais vu de mémoire d’homme d’éruption de cette dimension. Le travail que nous avons mené a consisté à essayer de caractériser ces roches, de les dater, en utilisant diverses techniques.
Nous avons rapporté au laboratoire des échantillons de ces basaltes du Deccan, et nous en avons mesuré l’aimantation. La plupart des roches naturelles renferment une très petite quantité d’oxydes de fer magnétiques, en général de la magnétite ou l’hématite. Nous sommes capables de mesurer la direction de cette aimantation, qui a été figée au moment où la roche s’est formée. Nous obtenons ainsi une photographie de la direction du champ magnétique terrestre ancien. Les roches naturelles se comportent donc, en gros, comme des boussoles qui ont gardé la mémoire de la direction du champ magnétique terrestre, à la fois dans le plan horizontal et dans le plan vertical, parfois depuis des centaines de millions d’années.
Nous avons par ailleurs mis en oeuvre des techniques de datation qui utilisent la décroissance naturelle des isotopes radioactifs, dont la plus connue est la méthode du carbone 14. Il existe d’autres couples d’atomes exploitables, le potassium et l’argon, le rubidium et le strontium, l’uranium, le thorium et le plomb. La géochronologie permet ainsi de dater les roches très loin dans le passé, jusqu’à l’origine du système solaire, pour peu qu’elles contiennent une quantité suffisante de ces isotopes. En utilisant l’une de ces méthodes, la méthode des isotopes de l’argon 39 et 40, nous avons montré que, du bas au haut de la falaise, les laves indiennes se sont mises en place en très peu de temps, il y a 65 à 66 millions d’années. Nous sommes capables de dire, grâce au magnétisme que cette durée n’a sans doute pas en fait excédé un demi million d’années.

Aucune des techniques que je viens de décrire ne permet à elle seule d’apporter la réponse au problème. Le magnétisme dit : « très court ». La méthode argon-argon, dit : « vers soixante- cinq millions d’années », mais même avec ces deux informations plusieurs scénarios restent envisageables. Nous avons heureusement retrouvé, « sandwichés » entre les coulées de lave, des sédiments accumulés dans un lac qui avait dû se mettre en place pendant une accalmie des éruptions. Dans ces sédiments, de tout petits restes de fossiles témoins de la toute dernière époque de l’ère secondaire. Avec l’ensemble des résultats de la géochronologie, du paléomagnétisme et de la paléontologie, il ne reste plus qu’un seul scénario possible : les gigantesques éruptions du Deccan datent bien précisément de la fameuse limite entre les ères secondaire et tertiaire.
La courbe de la figure 3 montre l’évolution dans le temps du nombre d’espèces marines fossiles découvertes par les paléontologues. On y voit la dernière et célèbre grande extinction qui, il y a soixante-cinq millions d’années, marque cette limite entre ère secondaire (ou Mésozoïque) et ère tertiaire (ou Cénozoïque). Le nombre des espèces, la diversité de la Vie sur Terre, a énormément augmenté au cours des temps géologiques, mais pas de manière uniforme. A l’ère primaire (ou Paléozoïque), après un début foudroyant (« l’explosion cambrienne »), la diversité se fixe à une valeur relativement constante, pendant des centaines de millions d’années. Et puis, il y a quelque deux cent cinquante millions d’années, s’est produite une énorme extinction en masse d’espèces. Puis la Vie a repris, a connu quelques rechutes, a repris à nouveau. Le dernier grand accident, c’est la fameuse limite Crétacé- Tertiaire.

5
6
Lors d’une pareille catastrophe, non seulement des espèces disparaissent entièrement, c’est-à- dire que tous les individus de ces espèces meurent, mais les espèces qui survivent peuvent perdre de très nombreux individus. A la limite entre les ères primaire et secondaire, il y a deux cent cinquante millions d’années, 99 % au moins de tous les individus de toutes les
espèces qui vivaient sur Terre ont disparu. C’est à peine imaginable, en termes de disparition de biomasse et en termes de catastrophe planétaire.
Retrouvons-nous pour les autres catastrophes, et en particulier, pour la grande d’il y a deux cent cinquante millions d’années, les mêmes scénarii que pour la crise Crétacé-Tertiaire ? Retrouvons-nous des traces d’impact d’astéroïde, des volcans, de grandes régressions marines ?

À travers le monde entier, plusieurs équipes se sont attachées non seulement à regarder, plus en détail, la période de la disparition des dinosaures, mais aussi toutes les autres extinctions. En même temps, les géophysiciens se sont intéressés à chercher s’il y avait d’autres endroits que l’Inde où l’on observait ces épanchements volcaniques extraordinaires. Il y a en fait une dizaine de grands « pâtés » volcaniques qui font au moins 1 million de km3 en volume, répartis à la surface de la Terre. Pour chacun d’entre eux, les chercheurs se sont livrés aux mêmes analyses que nous avions faites en Inde ; le résultat est que la quasi-totalité des formations volcaniques coïncide avec la quasi-totalité des grandes extinctions. En particulier, la grande catastrophe d’il y a deux cent cinquante millions d’années, à la fin du primaire, correspond à une énorme formation volcanique, les «trapps de Sibérie », bien connue des géologues et des économistes, parce que l’on y trouve des richesses minérales considérables, d’ailleurs liées au volcanisme.
À la question posée dans le titre de cette contribution, « La dynamique du globe contrôle-t- elle l’évolution des espèces ? », j’ai surtout tenté de répondre en parlant de l’expression du volcanisme à la surface de la Terre. Le travail du géologue et du géophysicien, c’est d’essayer de comprendre ce qui est à l’origine de ces énormes objets que sont les grandes trapps. Que s’est-il passé à l’intérieur de la Terre, sous la croûte, dans le manteau terrestre, qui a conduit à de pareils événements ? La dernière fois que s’est produite pareille monstruosité à la surface de la Terre, c’était il y a trente millions d’années. Le volcanisme correspondant forme le haut plateau éthiopien. Ce plateau volcanique, sur lequel est construit Adis Abeba, à deux mille mètres d’altitude (et dont on retrouve un fragment détaché au sud de l’Arabie, au Yémen) est un énorme volcan, formé il y a trente millions d’années, non pas au moment d’une grande disparition d’espèces, mais au moment d’une des principales crises climatiques de l’ère tertiaire. Cela correspond, en particulier, à la véritable apparition des glaciations dans l’Antarctique. Il semble qu’il y ait une relation entre le volcanisme des « trapps d’Ethiopie » et l’établissement de ce régime froid, glaciaire particulier, dans lequel nous sommes encore (même si ce moment de notre histoire est plutôt une confortable phase interglaciaire qu’une phase glaciaire à proprement parler).
Peu après la mise en place des « trapps d’Ethiopie », une déchirure est venue les traverser. Il y a donc manifestement une relation entre l’arrivée de ces bulles magmatiques à la surface et les grands moments où se déchirent les continents à la surface du globe, où s’ouvrent les bassins océaniques. Ainsi, la naissance des trois grands bassins (nord, central et sud) de l’océan Atlantique correspond-elle à l’apparition de trois points chauds et à la mise en place concomitante de trois grands trapps (Groëland-Nord des îles anglo-irlandaises, côtes est- américaine et marocaine, bassin du Parana en Amérique du Sud et d’Etendeka en Afrique).
Géophysicien, j’applique les méthodes de la physique à l’étude de la Terre pour tenter d’en comprendre la dynamique interne. Je voudrais donc vous entraîner dans un voyage difficile à imaginer : produire des images réalistes de l’intérieur de la Terre, où règnent des températures élevées, des densités fortes, une obscurité totale, n’est pas facile. D’ailleurs, les films qui ont tenté d’évoquer un voyage à l’intérieur de la Terre sont la plupart du temps assez décevants.
7
Nous allons cependant par la pensée nous enfoncer jusqu’à six mille quatre cent kilomètres sous le sol, jusqu’au centre de la terre.
Le champ magnétique oriente les boussoles à la surface de la Terre. Une petite masselotte empêche l’aiguille de la boussole de piquer du nez : le champ magnétique terrestre tend en effet non seulement à l’orienter vers le nord, mais aussi à la faire plonger – à Paris par exemple de 64° en dessous de l’horizontale. Or il existe une relation mathématique simple entre le plongement du champ magnétique et la latitude où l’on se trouve. C’est cette propriété qui permet de mesurer la dérive des continents. Quand le champ fossilisé par une roche provenant d’Inde est typique de ce qui se passe à 30° de latitude sud, alors qu’aujourd’hui cette roche est à 30° de latitude nord, je déduis que le sous-continent a parcouru 60° de latitude, c’est-à-dire près de sept mille kilomètres de dérive du Sud vers le Nord. Voilà comment on utilise l’aimantation fossilisée dans les roches.
Au milieu des océans arrive en permanence, par les déchirures que l’on appelle les dorsales, de la lave qui se refroidit et qui elle aussi fige la direction du champ magnétique terrestre. Si on déplace au fond des océans un magnétomètre, celui-ci révèle des alternances magnétiques, dans un sens et dans l’autre, qui témoignent que le champ magnétique de la Terre n’a pas toujours pointé vers le Nord. Le champ magnétique de la Terre s’est inversé des centaines de fois au cours de l’histoire de la Terre. La dernière fois, c’était il y a sept cent quatre-vingt milles ans. L’intensité du champ magnétique, depuis l’époque des Romains, s’est affaissée en Europe d’un facteur 2. Certains se demandent si le champ magnétique de la Terre ne va pas s’inverser dans deux milles ans. Or, c’est lui qui nous protège des rayons cosmiques. Est-ce quand le champ s’inverse que les espèces s’éteignent ?
Ces inversions successives sont peintes sur le plancher océanique, il est possible de les dater. Aujourd’hui, le champ s’inverse assez fréquemment, avec quelques inversions par million d’années. Mais, le champ ne s’est pas inversé pendant près de trente millions d’années, au cours du Crétacé.

La variation de la fréquence des inversions est très irrégulière et de longues périodes sans inversion alternent avec des périodes plus instables. Cette alternance semble se répéter au bout de deux cents millions d’années. La dernière période « immobile » a duré de moins de cent vingt à moins quatre-vingt millions d’années ; la précédente de moins trois cent vingt à moins deux cent soixante millions d’années. Il est frappant de voir que deux très gros trapps (Inde et Sibérie) et les deux plus grandes extinctions d’espèce ont suivi de peu ces périodes de grand calme magnétique. Le noyau de la Terre participerait-il au déclenchement de ces gigantesques catastrophes qui conduisent aux extinctions en masse ?
Le noyau de fer liquide de la Terre, qui fabrique le champ magnétique, a sa dynamique propre ; est-il couplé d’une certaine façon, à travers le manteau, avec la surface de la Terre ? Comment un tel couplage est-il possible?
Les sismologues, qui enregistrent en permanence les tremblements à la surface de la Terre et qui utilisent les ondes de ces tremblements de terre pour scruter, comme avec des rayons X, l’intérieur, sont capables de réaliser une tomographie du manteau. Ce manteau n’est pas homogène, comme on le croyait, mais formé de grandes masses un peu informes, plus lourdes et plus froides, qui sont sans doute des morceaux de plaques lithosphériques réinjectées à l’intérieur de la Terre. On savait depuis longtemps que ces plaques pouvaient descendre jusqu’à 700 km de profondeur ; on s’aperçoit qu’elles peuvent en fait parfois plonger jusqu’à
8
la base du manteau, s’empiler sous forme de véritables cimetières : des cimetières de plaques océaniques à 2900km sous nos pieds. Cette énorme masse froide et lourde vient se poser à la surface du noyau, dans lequel se fabrique le champ magnétique.

La Terre est un objet en train de se refroidir ; sa façon normale de se refroidir, c’est la convection d’ensemble du manteau, qu’accompagne la dérive des continents : la formation de la croûte, le flux de chaleur, les tremblements de terre, les éruptions volcaniques sont l’expression de ce refroidissement. Apparemment, ce système ne parvient pas ainsi à se débarrasser de la chaleur de manière suffisamment efficace. De temps en temps, un autre mode de convection de la matière conduit à la formation de ces énormes instabilités qui très rapidement vont emmener une part importante de matière et avec elle, une quantité importante de chaleur, jusqu’à la surface.
Le noyau essaie de se débarrasser de sa chaleur et un isolant vient l’en empêcher. Les hétérogénéités du manteau inférieur se réchauffent alors, s’allègent et peuvent de temps en temps devenir instables et remonter. Malheureusement, la sismologie ne nous permet pas encore de voir ces instabilités. La figure 4 représente une coupe de l’intérieur de la Terre. On y voit, à la base du manteau, ces instabilités formées de matériaux légers qui, peut-être, peuvent atteindre la surface, déclencher les éruptions des trapps et provoquer nos fameuses extinctions. Tout le système « Terre » (manteau, descentes de plaques froides, remontées d’instabilités chaudes, volcanisme catastrophique, évolution des espèces biologiques) formerait alors un grand ensemble couplé.
9
10
À défaut de pouvoir voir l’intérieur de la Terre, nous sommes capables, aujourd’hui, de le modéliser soit numériquement, sur les ordinateurs, soit dans des expériences analogiques en laboratoire. On mélange ainsi des fluides qui permettent de reproduire, en modèle réduit, ce qui se passe à l’intérieur de la Terre. On observe, sous certaines conditions, qu’un liquide
léger, donc instable, placé à la base d’un liquide dense donne naissance à des instabilités en forme de champignon, avec une tête volumineuse et une tige longue et mince [figure 4].
Si l’on imagine qu’une plaque, l’Inde par exemple, dérive au-dessus d’une telle instabilité, au moment où la bulle arrive en surface, elle va former des « trapps ». Mais, quand la bulle se sera vidée, la plaque qui a dérivé se trouvera au-dessus de la tige du « champignon » qui pourra continuer, comme un chalumeau, à percer sa surface, mais avec un volume et une intensité beaucoup plus faibles. C’est bien ce qu’on observe dans l’Océan Indien [figure 5] : l’Inde, les « trapps du Deccan » en noir, vieux de soixante cinq millions d’années, puis en gris des archipels d’îles qui parfois émergent, parfois sont sous marines, les îles Chagos, Laccadives, Maldives. En allant du nord vers le sud elles sont datées de soixante millions à cinquante-cinq millions d’années, puis quarante-huit, trente-cinq, sept millions d’années à l’île Maurice ; l’île de la Réunion, elle, se forme depuis deux millions d’années. Ces archipels constituent tout simplement la trace de la brûlure laissée par la queue du panache qui, en démarrant, a créé les « trapps du Deccan ». On retrouve donc, à la surface de la Terre, l’histoire d’une ascension qui vient probablement près de trois milles kilomètres de profondeur à l’intérieur du manteau. Partis des observations du terrain pour construire un modèle, nous avons tiré de ce modèle des prédictions que le retour à l’observation valide.
11
12
En quoi la connaissance du passé peut-elle servir à une meilleure compréhension des futurs possibles? On enseigne souvent aux jeunes géologues à se servir du présent pour comprendre le passé ; ce guide est utilisé depuis plus de cent cinquante ans. Mais, nous n’avons pas, pendant l’histoire de l’humanité, échantillonné toutes les possibilités de l’histoire de la Terre, sous toutes leurs formes et sous toutes leurs amplitudes. Notre espèce n’existe pas depuis assez longtemps pour que nous soyons certains d’avoir « échantillonné » (ou subi) l’ensemble des phénomènes naturels au maximum de leur intensité. Lors de la dernière grande éruption d’un trapp, il y a trente millions d’années, l’espèce humaine n’existait pas encore. Depuis trente millions d’années la Terre n’a pas connu d’événement d’ampleur semblable. Et nous ne
savons pas quand se produira le prochain, dans quelques millions ou quelques dizaines de millions d’années, bien qu’il soit presque certain. On dit d’autre part que l’espèce humaine est en train de préparer la prochaine grande catastrophe écologique, que peut-être la sixième grande extinction a commencé, que (et peut-être n’est-ce pas depuis seulement le siècle de l’industrie, mais depuis le dernier cycle glaciaire) les hommes, en chassant les grands mammifères, les ont fait disparaître, qu’aujourd’hui, ils font disparaître, de nombreuses espèces avant même qu’on ait eu le temps de les identifier, qu’ ils exploitent trop rapidement la forêt tropicale... Comment modéliser le devenir de notre planète face à ces « agressions » ? Les géologues fournissent les scenarii passés de catastrophes au cours desquelles la nature a engendré des évènements qui, peut-être, sont de la même ampleur que ce que l’homme est en train de faire subir à sa planète. Ils fournissent aussi aux climatologues des moyens de tester leurs modèles, naturellement très incertains, en s’appuyant, de façon rétroprédictive, sur des situations qui se sont réellement produites, à ces quelques moments pendant lesquels l’évolution de la Vie sur Terre a été entièrement et définitivement réorientée par les grands soubresauts des rythmes internes de la planète.

 

   VIDEO       CANAL  U         LIEN

 

 
 
 
 

La thérapie génique inverse durablement une surdité congénitale chez la souris

 

 

 

 

 

 

 

La thérapie génique inverse durablement une surdité congénitale chez la souris


| 18 FÉVR. 2019 - 21H00 | PAR INSERM (SALLE DE PRESSE)

GÉNÉTIQUE, GÉNOMIQUE ET BIO-INFORMATIQUE | NEUROSCIENCES, SCIENCES COGNITIVES, NEUROLOGIE, PSYCHIATRIE


Des chercheurs de l’Institut Pasteur, de l’Inserm, du CNRS, du Collège de France, de Sorbonne Université et de l’Université Clermont Auvergne, et en collaboration avec les universités de Miami, de Columbia et de San Francisco, viennent de parvenir à restaurer l’audition au stade adulte chez un modèle murin de la surdité DFNB9, un trouble auditif représentant l’un des cas les plus fréquents de surdité congénitale d’origine génétique. Les sujets atteints de surdité DFNB9 sont sourds profonds, étant dépourvus du gène codant pour l’otoferline, protéine essentielle à la transmission de l’information sonore au niveau des synapses des cellules sensorielles auditives. Grâce à l’injection intracochléaire de ce gène chez un modèle murin de cette surdité, les chercheurs sont parvenus à rétablir la fonction de la synapse auditive et les seuils auditifs des souris à un niveau quasi-normal. Ces résultats, publiés dans la revue PNAS, ouvrent la voie à de futurs essais de thérapie génique chez des patients atteints de DFNB9.

Plus de la moitié des cas de surdité congénitale profonde non syndromique ont une cause génétique, et la plupart (~ 80%) de ces cas sont dus à des formes autosomiques récessives de surdité (DFNB). Les implants cochléaires sont actuellement la seule option permettant une récupération auditive chez ces patients.

Les virus adéno-associés (AAV) sont parmi les vecteurs les plus prometteurs pour le transfert de gènes dans le but de traiter des maladies humaines. La thérapie génique basée sur les AAV est une option thérapeutique prometteuse pour le traitement des surdités, mais son application est limitée par une fenêtre thérapeutique potentiellement courte. En effet, chez l’humain, le développement de l’oreille interne s’achève in utero et l’audition débute à environ 20 semaines de gestation. En outre, les formes génétiques de surdité congénitale sont généralement diagnostiquées au cours de la période néonatale. Les approches de thérapie génique dans les modèles animaux doivent donc en tenir compte et l’efficacité du gène thérapeutique doit être démontrée pour une injection du gène effectuée après la mise en place de l’audition. La thérapie doit alors conduire à la réversion de la surdité déjà installée. Dans ce but, l’équipe dirigée par Saaïd Safieddine, chercheur CNRS au sein de l’unité de Génétique et de physiologie de l’audition  (Institut Pasteur/ Inserm),  et coordinateur du projet, a utilisé un modèle murin de DFNB9, une forme de surdité humaine représentant 2 à 8 % de l’ensemble des cas de surdité génétique congénitale.
La surdité DFNB9 est due à des mutations dans le gène qui code pour l’otoferline, une protéine jouant un rôle majeur dans la transmission de l’information sonore au niveau des synapses des cellules ciliées internes[1]. Les souris mutantes dépourvues d’otoferline sont sourdes profondes en raison d’une défaillance complète de la libération de neurotransmetteur par ces synapses en réponse à la stimulation sonore, et ce malgré l’absence d’anomalie décelable de l’épithélium sensoriel. Les souris DFNB9 constituent donc un modèle approprié pour tester l’efficacité de la thérapie génique virale lorsqu’elle est administrée à un stade mature. Cependant, la capacité limitée d’empaquetage de l’ADN par les AAV (environ 4,7 kilo-bases (kb)), rend difficile l’utilisation de cette technique pour des gènes dont la séquence codante (ADNc) dépasse 5 kb, tel que le gène Otof codant pour l’otoferline, dont la séquence  codante est de 6 kb. Les chercheurs ont surmonté cette limitation en adaptant une approche d’AAV, dite duale, parce qu’elle utilise deux vecteurs recombinants différents, l’un contenant la partie 5’ et l’autre la partie 3’ de l’ADNc de l’otoferline.
Une seule injection de la paire de vecteurs dans la cochlée de souris mutantes à des stades adultes a permis de reconstituer la séquence codante de l’otoferline par recombinaison des segments d’ADN 5′ et 3′, conduisant à la restauration durable de l’expression de l’otoferline dans les cellules ciliées internes, puis à une restauration de l’audition.

Les chercheurs ont ainsi obtenu une première preuve de concept du transfert viral d’un ADNc fragmenté dans la cochlée en utilisant deux vecteurs, en montrant que cette approche permet d’obtenir la production de l’otoferline et de corriger durablement le phénotype de surdité profonde chez la souris.

Les résultats obtenus par les chercheurs suggèrent que la fenêtre thérapeutique pour le transfert de gène local chez les patients atteints de surdité congénitale DFNB9 pourrait être plus large que prévu, et donnent l’espoir de pouvoir étendre ces résultats à d’autres formes de surdité. Ces résultats font l’objet d’une demande de brevet.
En plus des institutions citées dans le premier paragraphe, ce travail a été financé par la Fondation pour la recherche médicale, l’Union européenne (TREAT RUSH) et par l’Agence nationale de la recherche (EargenCure et LabEx Lifesenses).
 

La figure de gauche est une représentation schématique de l’oreille humaine : les vibrations sonores sont collectées par l’oreille externe composée du pavillon et du conduit auditif. L’oreille moyenne, composée du tympan et des osselets, transmet les vibrations sonores à l’oreille interne où se trouve la cochlée, organe de l’audition responsable de la transmission du message auditif au système nerveux central. La figure de droite montre une image par immunofluorescence de l’épithélium sensoriel d’une cochlée de souris traitée, où les cellules ciliées internes ont été marquées en vert pour révéler l’otoferline. L’otoferline est détectée dans la quasi-totalité de ces cellules. La zone à fort grossissement dans l’encadré montre une cellule ciliée interne qui n’a pas été transduite. © Institut Pasteur

[1] Travaux publiés par l’unité de Génétique et de physiologie de l’audition de l’Institut Pasteur et de l’Inserm (UMRS1120) : ” Otoferlin, defective in DFNB9 deafness, is essential for synaptic vesicle exocytosis at the auditory ribbon synapse ” Cell, 20 octobre 2006

 

 DOCUMENT      inserm     LIEN 

 
 
 
 

LE MÉCANISME DE REPLIEMENT DES MOLÉCULES

 

 

 

 

 

 

 

LE MÉCANISME DE REPLIEMENT DES MOLÉCULES


Ce terme désigne le mécanisme par lequel une macromolécule linéaire (par macromolécule on entend un enchaînement linéaire de motifs moléculaires) acquiert une structure tridimensionnelle. Un tel mécanisme est particulièrement important dans le domaine du vivant car une fois synthétisées c'est par ce processus que les protéines acquièrent la structure qui va leur permettre de remplir une fonction précise au sein de la cellule. Ce mécanisme a attiré l'attention de nombreux chercheurs du fait de son importance cruciale en biologie mais aussi du fait du formidable problème computationnelle que représente la prédiction de la structure tridimensionnelle de ces objets à partir de leur structure chimique linéaire. Nous rappellerons les notions essentielles nécessaires à la compréhension de ce mécanisme (atomes, liaisons chimiques, molécules, macromolécules) ainsi que les principaux mécanismes biologiques mis en jeu lors de la synthèse d'une protéine. Nous passerons ensuite en revue les principales forces mises en jeu lors du repliement (essentiellement les forces électrostatiques, l'effet hydrophobe, la liaison hydrogène) puis nous décrirons les principaux outils expérimentaux permettant d'aborder l'étude de ce phénomène. Quelques expériences seront présentées ainsi que la situation actuelle du problème.

Textede la 595ème conférencede l'Universitéde tous les savoirs prononcée le 17 juillet 2005
ParDidier Chatenay: « Le mécanisme de repliement des molécules »

Le thème de cette conférence vous fera voyager aux confins de plusieurs sciences : physique, chimie et biologie bien évidemment puisque les macromolécules dont nous parlerons sont des objets biologiques : des protéines.
Le plan de cet exposé sera le suivant :
- Quelques rappels sur la structure de la matière (atomes, liaisons chimiques, molécules, macromolécules).
- Qu'est-ce qu'une protéine (la nature chimique de ces macromolécules, leur mode de synthèse, leurs structures et leurs fonctions biologiques) ?
- Le problème du repliement (d'où vient le problème, paradoxe de Levinthal).
- Résolution du paradoxe et interactions inter intra moléculaires (échelles des énergies mises en jeu)

Rappels sur la structure de la matière.
La matière est constituée d'atomes eux-mêmes étant constitués d'un noyau (composé de particules lourdes : protons, chargés positivement, et neutrons non chargé) entouré d'un nuage de particules légères : les électrons chargés négativement. La taille caractéristique d'un atome est de 1 Angström (1 Angström est la dix milliardième partie d'un mètre ; pour comparaison si je prends un objet de 1 millimètre au centre d'une pièce, une distance dix milliards de fois plus grande représente 10 fois la distance Brest-Strasbourg).
Dans les objets (les molécules biologiques) que nous discuterons par la suite quelques atomes sont particulièrement importants.
Par ordre de taille croissante on trouve tout d'abord l'atome d'hydrogène (le plus petit des atomes) qui est le constituant le plus abondant de l'univers (on le trouve par exemple dans le combustible des fusées). L'atome suivant est le carbone ; cet atome est très abondant dans l'univers (on le trouve dans le soleil, les étoiles, l'atmosphère de la plupart des planètes. Il s'agit d'un élément essentiel comme source d'énergie des organismes vivants sous forme de carbohydrates). On trouve ensuite l'azote, constituant essentiel de l'air que nous respirons. L'atome suivant est l'oxygène, également constituant essentiel de l'air que nous respirons, élément le plus abondant du soleil et essentiel au phénomène de combustion. Le dernier atome que nous rencontrerons est le souffre que l'on trouve dans de nombreux minéraux, météorites et très abondants dans les volcans.
Les atomes peuvent interagir entre eux pour former des objets plus complexes. Ces interactions sont de nature diverse et donnent naissance à divers types de liaisons entre les atomes. Nous trouverons ainsi :
- La liaison ionique qui résulte d'interactions électrostatiques entre atomes de charges opposées (c'est par exemple ce type de liaison, qu'on rencontre dans le chlorure de sodium, le sel de table). Il s'agit d'une liaison essentielle pour la plupart des minéraux sur terre, comme par exemple dans le cas des silicates, famille à laquelle appartient le quartz.
- Un autre type de liaison est la liaison covalente. Cette liaison résulte de la mise en commun entre 2 atomes d'un électron ou d'une paire d'électrons. Cette liaison est extrêmement solide. Ce type de liaison est à l'origine de toute la chimie et permet de former des molécules (l'eau, le glucose, les acides aminés). Ces acides aminés sont constitués de carbone, d'azote, d'hydrogène et d'oxygène. Dans ces molécules on retrouve un squelette qu'on retrouve dans tous les acides aminés constitué d'un groupement NH2 d'un côté et COOH de l'autre ; la partie variable est un groupement latéral appelé résidu. Un exemple d'acide aminé est constitué par la méthionine qui d'ailleurs contient dans son résidu un atome de soufre. La taille caractéristique des distances mises en jeu dans ce type de liaison n'est pas très différente de la taille des atomes eux-mêmes et est de l'ordre de l'angström (1.5 Angström pour la liaison C-C, 1 Angström pour une liaison C-H).


Ces liaisons ne sont pas figées et présentent une dynamique ; cette dynamique est associée aux degrés de libertés de ces liaisons tels que par exemple un degré de liberté de rotation autour de l'axe d'une liaison C-C. Ces liaisons chimiques ont donc une certaine flexibilité et aux mouvements possibles de ces liaisons sont associés des temps caractéristiques de l'ordre de la picoseconde (mille milliardième partie de seconde) ; il s'agit de temps très rapides associés aux mouvements moléculaires.
A ce stade nous avons 2 échelles caractéristiques importantes :
- 1 échelle de taille : l'angström
- 1 échelle de temps : la picoseconde.
C'est à partir de cette liaison covalente et de petites molécules que nous fabriquerons des macromolécules. Un motif moléculaire, le monomère, peut être associé par liaison covalente à un autre motif moléculaire ; en répétant cette opération on obtiendra une chaîne constituée de multiples monomères, cette chaîne est une macromolécule. Ce type d'objets est courant dans la vie quotidienne, ce sont les polymères tels que par exemple :
- le polychlorure de vinyle (matériau des disques d'antan)
- le polytétrafluoroéthylène (le téflon des poêles)
- le polyméthacrylate de méthyl (le plexiglas)
- les polyamides (les nylons)
Quelle est la forme d'un objet de ce type ? Elle résulte des mouvements associés aux degrés de libertés discutés plus haut ; une chaîne peut adopter un grand nombre de conformations résultant de ces degrés de liberté et aucune conformation n'est privilégiée. On parle d'une marche aléatoire ou pelote statistique.

Les protéines
Quelles sont ces macromolécules qui nous intéressent particulièrement ici ? Ce sont les protéines qui ne sont rien d'autre qu'une macromolécule (ou polymère) particulière car fabriquée à partir d'acides aminés. Rappelons que ces acides aminés présentent 2 groupes présents dans toute cette famille : un groupe amine (NH2) et un groupe carboxyle (COOH) ; les acides aminés diffèrent les uns des autres par la présence d'un groupe latéral (le résidu). A partir de ces acides aminés on peut former un polymère grâce à une réaction chimique donnant naissance à la liaison peptidique : le groupement carboxyle d'un premier acide aminé réagit sur le groupement amine d'un deuxième acide aminé pour former cette liaison peptidique. En répétant cette réaction il est possible de former une longue chaîne linéaire.

Comme nous l'avons dit les acides amines diffèrent par leurs groupes latéraux (les résidus) qui sont au nombre de 20. On verra par la suite que ces 20 résidus peuvent être regroupés en familles. Pour l'instant il suffit de considérer ces 20 résidus comme un alphabet qui peut donner naissance à une extraordinaire variété de chaînes linéaires. On peut considérer un exemple particulier : le lysozyme constitué d'un enchaînement spécifique de 129 acides aminés. Une telle chaîne comporte toujours 2 extrémités précises : une extrémité amine et une extrémité carboxyle, qui résultent de la réaction chimique qui a donné naissance à cet enchaînement d'acides aminés. Il y a donc une directionnalité associée à une telle chaîne. La succession des acides aminés constituant cette chaîne est appelée la structure primaire. La structure primaire d'une protéine n'est rien d'autre que la liste des acides aminés la constituant. Pour revenir au lysozyme il s'agit d'une protéine présente dans de nombreux organismes vivants en particulier chez l'homme où on trouve cette protéine dans les larmes, les sécrétions. C'est une protéine qui agit contre les bactéries en dégradant les parois bactériennes. Pour la petite histoire, Fleming qui a découvert les antibiotiques, qui sont des antibactériens, avait dans un premier temps découvert l'action antibactérienne du lysozyme ; mais il y a une grosse différence entre un antibiotique et le lysozyme. Cette molécule est une protéine qu'il est difficile de transformer en médicament du fait de sa fragilité alors que les antibiotiques sont de petites molécules beaucoup plus aptes à être utilisées comme médicament.
Pour en revenir au lysozyme, présent donc dans les organismes vivants, on peut se poser la question de savoir comment un tel objet peut être fabriqué par ces organismes. En fait, l'information à la fabrication d'un tel objet est contenue dans le génome des organismes sous la forme d'une séquence d'acide désoxyribonucléique (ADN) constituant le gène codant pour cette protéine. Pour fabriquer une protéine on commence par lire l'information contenue dans la séquence d'ADN pour fabriquer une molécule intermédiaire : l'ARN messager, lui-même traduit par la suite en une protéine. Il s'agit donc d'un processus en 2 étapes :
- Une étape de transcription, qui fait passer de l'ADN à l'ARN messager,
- Une étape de traduction, qui fait passer de l'ARN messager à la protéine.
Ces objets, ADN et ARN, sont, d'un point de vue chimique, très différents des protéines. Ce sont eux-mêmes des macromolécules mais dont les briques de base sont des nucléotides au lieu d'acides aminés.
Ces 2 étapes font intervenir des protéines ; l'ARN polymérase pour la transcription et le ribosome pour la traduction. En ce qui concerne la transcription l'ARN polymérase se fixe sur l'ADN, se déplace le long de celui-ci tout en synthétisant l'ARN messager. Une fois cet ARN messager fabriqué un autre système protéique, le ribosome, se fixe sur cet ARN messager, se déplace le long de cet ARN tout en fabriquant une chaîne polypeptidique qui formera la protéine. Il s'agit d'un ensemble de mécanismes complexes se produisant en permanence dans les organismes vivants pour produire les protéines.
Ces protéines sont produites pour assurer un certain nombre de fonctions. Parmi ces fonctions, certaines sont essentielles pour la duplication de l'ADN et permettre la reproduction (assure la transmission à la descendance du patrimoine génétique). Par ailleurs ce sont des protéines (polymérases, ribosomes) qui assurent la production de l'ensemble des protéines. Mais les protéines assurent bien d'autres fonctions telles que :
- Des fonctions de structure (la kératine dans les poils, les cheveux ; le collagène pour former des tissus),
- Des fonctions de moteurs moléculaires (telles que celles assurées par la myosine dans les muscles) ; de telles protéines sont des usines de conversion d'énergie chimique en énergie mécanique.
- Des fonctions enzymatiques. Les protéines de ce type sont des enzymes et elles interviennent dans toutes les réactions chimiques se déroulant dans un organisme et qui participent au métabolisme ; c'est par exemple le cas du mécanisme de digestion permettant de transformer des éléments ingérés pour les transformer en molécules utilisables par l'organisme.
Pour faire bref toutes les fonctions essentielles des organismes vivants (la respiration, la digestion, le déplacement) sont assurés par des protéines.
A ce stade nous avons donc introduit les objets essentiels de cet exposé que sont les protéines. Pour être complet signalons que la taille de ces protéines est très variable ; nous avons vu le lysozyme constitué d'une centaine d'acides aminés mais certaines protéines sont plus petites et certaines peuvent être beaucoup plus grosses.
Nous allons maintenant pouvoir aborder le problème de la structure et du repliement de ces objets.

La structured'une protéine
Tout d'abord quels sont les outils disponibles pour étudier la structure de ces objets. Un des outils essentiels est la diffraction des rayons X. L'utilisation de cet outil repose sur 2 étapes. La première (pas toujours la plus facile) consiste à obtenir des cristaux de protéines. Ces protéines, souvent solubles dans l'eau, doivent être mises dans des conditions qui vont leur permettre de s'arranger sous la forme d'un arrangement régulier : un cristal. C'est ce cristal qui sera utilisé pour analyser la structure des protéines qui le composent par diffraction des rayons X. A partir du diagramme de diffraction (composé de multiples tâches) il sera possible de remonter à la position des atomes qui constituent les protéines. Un des outils essentiels à l'heure actuelle pour ce type d'expérience est le rayonnement synchrotron (SOLEIL, ESRF).
Il existe d'autres outils telle que la résonance magnétique nucléaire qui présente l'avantage de ne pas nécessiter l'obtention de cristaux mais qui reste limitée à l'heure actuelle à des protéines de petite taille.
Finalement à quoi ressemble une protéine ? Dans le cas du lysozyme on obtient une image de cette protéine où tous les atomes sont positionnés dans l'espace de taille typique environ 50 Angströms. Il s'agit d'un cas idéal car souvent on n'obtient qu'une image de basse résolution de la protéine dans laquelle on n'arrive pas à localiser précisément tous les atomes qui la constituent. Très souvent cette mauvaise résolution est liée à la mauvaise qualité des cristaux. C'est l'exemple donné ici d'une polymérase à ARN. Néanmoins on peut obtenir des structures très précises même dans de le cas de gros objets.

Repliement,dénaturation et paradoxede Levinthal
Très clairement on voit sur ces structures que les protéines sont beaucoup plus compactes que les chaînes désordonnées mentionnées au début. Cette structure résulte du repliement vers un état compact replié sur lui-même et c'est cet état qui est l'état fonctionnel. C'est ce qui fait que le repliement est un mécanisme extrêmement important puisque c'est ce mécanisme qui fait passer de l'état de chaîne linéaire déplié à un état replié fonctionnel. L'importance de ce repliement peut être illustrée dans le cas d'un enzyme qui permet d'accélérer une réaction chimique entre 2 objets A et B ; ces 2 objets peuvent se lier à l'enzyme, ce qui permet de les approcher l'un de l'autre dans une disposition où une liaison chimique entre A et B peut être formée grâce à l'environnement créé par l'enzyme. Tout ceci ne peut se produire que si les sites de fixation de A et B sont correctement formés par le repliement de la longue chaîne peptidique. C'est la conformation tridimensionnelle de la chaîne linéaire qui produit ces sites de fixation.


Il y a une notion associée au repliement qui est la dénaturation. Nous venons de voir que le repliement est le mécanisme qui fait passer de la forme dépliée inactive à la forme repliée active ; la dénaturation consiste à passer de cette forme active repliée à la forme inactive dépliée sous l'influence de facteurs aussi variés que la température, le pH, la présence d'agents dénaturants tels que l'urée.

La grande question du repliement c'est la cinétique de ce phénomène. Pour la plupart des protéines où des expériences de repliement-dénaturation ont été effectuées le temps caractéristique de ces phénomènes est de l'ordre de la seconde. Comment donc une protéine peut trouver sa conformation active en un temps de l'ordre de la seconde ?
Une approche simple consiste à développer une approche simplifiée sur réseau ce qui permet de limiter le nombre de degrés de liberté à traiter ; on peut par exemple considérer une protéine (hypothétique) placée sur un réseau cubique. On peut considérer le cas d'une protéine à 27 acides aminés. On peut alors compter le nombre de conformations possibles de telles protéines ; à chaque acide aminé on compte le nombre de directions pour positionner le suivant. Sur un réseau cubique à chaque étape nous avons 6 possibilités ce qui fera pour une chaîne de 27 acides aminés 627 possibilités. Cela n'est vrai qu'à condition d'accepter de pouvoir occuper 2 fois le même site du réseau ce qui, bien sur, n'est pas vrai dans la réalité ; si on tient compte de cela on arrive en fait à diminuer quelque peu ce nombre qui sera en fait 4,727. Plus généralement pour une chaîne de N acides aminés on obtiendra 4,7N possibilités. Si on part d'une chaîne dépliée on peut alors se dire que pour trouver le « bon état replié » il suffit d'essayer toutes les conformations possibles. Cela va s'arrêter lorsqu'on aura trouvé une conformation stable, c'est-à-dire une conformation énergétiquement favorable. Pour passer d'une conformation à une autre il faut au moins un mouvement moléculaire élémentaire dont nous avons vu que l'échelle de temps caractéristique est la picoseconde (10-12 seconde). I faut donc un temps total (afin d'explorer toutes les conformations) :
Trepliement= 4,7N * Tmoléculaire.
Si on prend N=100, Tmoléculaire= 1picoseconde=10-12seconde, alors :

Trepliement= 1055 secondes !!!
C'est beaucoup car on cherche 1 seconde et on trouve quelque chose de beaucoup plus grand que l'âge de l'univers (de l'ordre de 1027 secondes). Avec cette approche il faut plus de temps à une protéine pour se replier et met plus de temps que l'âge de l'univers.
C'est le paradoxe de Levinthal.
Comment s'en sortir ?
Il faut revenir aux acides aminés et en particulier aux résidus qui permettent de différencier les 20 acides aminés. Ces 20 acides aminés peuvent se regrouper en famille selon la nature de ce résidu.


Une première famille est constituée par les acides aminés hydrophobes. Qu'est ce qu'un acide aminé hydrophobe ou l'effet hydrophobe ? Il s'agit de l'effet qui fait que l'eau et l'huile ne se mélangent pas. Si sur une chaîne on dispose des acides aminés hydrophobes alors ceux-ci vont faire « collapser » la chaîne afin de se regrouper et de se « protéger » de l'eau, tout comme l'eau et l'huile ont tendance à ne pas se mélanger. Ce mécanisme tend à créer ainsi une poche hydrophobe qui permet à ces acides aminés d'éviter l'eau. On commence ainsi à avoir une amorce de solution au paradoxe de Levinthal : la protéine ne va essayer que toutes les conformations, elle va commencer à utiliser dans un premier temps ce mécanisme qui à lui seul va éliminer un grand nombre de conformations possibles.

Mais il y a d'autres familles d'acides aminés et parmi celles-ci celle des acides aminés chargés (+ ou -) qui vont être soumis aux interactions électrostatiques classiques (les charges de même signe se repoussent, les charges de signe contraire s'attirent). Ainsi, si le long de la chaîne nous avons 2 acides aminés de signe opposé ils vont avoir tendance à s'attirer ; cet effet a là encore tendance à diminuer le nombre de conformations possibles pour la chaîne.
Dernière famille, un peu plus complexe mais au sein de laquelle les interactions sont de même nature que pour les acides aminés chargés, à savoir des interactions de type électrostatique. Cette famille est constituée par les acides aminés polaires qui ne portent pas de charge globale mais au sein desquels la distribution des électrons est telle qu'il apparaît une distribution non uniforme de charges ; cette asymétrie dans la répartition des charges va permettre par exemple de créer des liaisons hydrogènes entre molécules d'eau (interactions qui donnent à l'eau des propriétés particulières par rapport à la plupart des autres liquides).
Au total l'image initiale que nous avions des chaînes polypeptidiques doit être un peu repensée et l'on doit abandonner l'idée d'une marche au hasard permettant d'explorer toutes les conformations possibles puisque les briques de base de ces chaînes interagissent fortement les unes avec les autres. On peut ainsi récapituler l'ensemble des interactions au sein d'une chaîne (effet hydrophobe, liaison ionique, liaison hydrogène, sans oublier un mécanisme un peu particulier faisant intervenir des acides aminés soufrés qui peuvent former un pont disulfure ; il s'agit néanmoins d'une liaison un peu moins générale que les précédentes et qui par ailleurs est beaucoup plus solide).
La structure globale de nos protéines résulte de la présence de toutes ces interactions entre les acides aminés présents le long de la chaîne. Lorsque l'on regarde attentivement de telles structures on observe la présence d'éléments répétitifs assez réguliers : hélices, feuillets. Ces feuillets sont des structures locales au sein desquelles la chaîne est organisée dans un plan au sein duquel la chaîne s'organise. Ces éléments de régularité résultent des interactions entre acides aminés et pour la plupart il s'agit des fameuses liaisons hydrogènes entre atomes spécifiques. Bien évidemment certaines régions sont moins organisées et on retrouve localement des structures de type marche au hasard.


Si on récapitule ce que nous avons vu concernant la structure des protéines, nous avons introduit la notion de structure primaire qui n'est rien d'autre que l'enchaînement linéaire des acides aminés. Nous venons de voir qu'il existait des éléments de structure locale (hélices, feuillets) que nous appellerons structure secondaire. Et ces éléments associés aux uns aux autres forment la structure globale tridimensionnelle de la protéine que nous appellerons structure tertiaire.

Il faut noter que cette structure des protéines résulte d'interactions entre acides aminés et il est intéressant de connaître les ordres de grandeur des énergies d'interactions mises en jeu. Ces énergies sont en fait faibles et sont de l'ordre de grandeur de l'énergie thermique (kBT). C'est le même ordre de grandeur que les énergies d'interaction entre molécules au sein d'un liquide comme l'eau ; on peut s'attendre donc à ce que de tels objets ne soient pas rigides ou totalement fixes. Ces mouvements demeurent faibles car il y a une forme de coopérativité (au sens ou plusieurs acides aminés coopèrent pour assurer une stabilité des structures observées) qui permet néanmoins d'observer une vraie structure tridimensionnelle. Ainsi, au sein d'un feuillet ou d'une hélice, plusieurs liaisons sont mises en jeu et à partir de plusieurs éléments interagissant faiblement, on peut obtenir une structure relativement stable de type feuillet ou hélice ; il suffit néanmoins de peu de chose pour détruire ces structures, par exemple chauffer un peu.
Si on revient au mécanisme de repliement on doit abandonner notre idée initiale de recherche au hasard de la bonne conformation. Si on part d'un état initial déplié, un premier phénomène a lieu (essentiellement lié à l'effet hydrophobe, qui vise à regrouper les acides aminés hydrophobes) qui fait rapidement collapser la chaîne sur elle-même. D'autres phénomènes vont alors se mettre en route comme la nucléation locale de structures secondaires de type hélices ou feuillets qui vont s'étendre rapidement le long de la chaîne. Le processus de Levinthal est donc complètement faux et l'image correcte est beaucoup plus celle donnée ici de collapse essentiellement lié à l'effet hydrophobe et de nucléation locale de structures secondaires.

Les protéines n'essaient donc pas d'explorer l'ensemble des conformations possibles pour trouver la bonne solution mais plutôt utiliser les interactions entre acides aminés pour piloter le mécanisme de repliement.
En fait la composition chimique de la chaîne contient une forme de programme qui lui permet de se replier correctement et rapidement.
Au sein des organismes vivants il y a donc plusieurs programmes ; un programme au sein du génome qui permet la synthèse chimique des protéines et un programme de dynamique intramoléculaire interne à la chaîne protéique qui lui permet d'adopter rapidement la bonne conformation lui permettant d'assurer sa fonction.
Il faut noter qu'il existe d'autres façons de s'assurer que les protéines se replient correctement qui font intervenir d'autres protéines (les chaperons).
Notons enfin les tentatives effectuées à l'heure actuelle de modélisation réaliste sur ordinateurs.

 

VIDEO       CANAL  U         LIEN

 
 
 
 

Les neurones communiquent grâce à la lumière

 

 

 

 

 

 

 

Les neurones communiquent grâce à la lumière

Alexandre Specht, Thomas Grutter dans mensuel 504
daté octobre 2015 -

Une méthode mélangeant génétique, optique et chimie mime l'effet des neuromédiateurs, molécules clés du cerveau, sans les utiliser. Un travail qui a reçu le prix La Recherche en 2014.
Le cerveau, certainement l'organe le plus complexe et le plus mystérieux de notre corps, est constitué d'environ 80 milliards de neurones, qui échangent au niveau des synapses, connexions qui les relient entre eux, de petites molécules appelées neuromédiateurs. Ces messagers chimiques véhiculent aux neurones voisins des informations indispensables au bon fonctionnement du cerveau. Mais parfois certains jouent un rôle dans le développement de maladies neurologiques graves, comme la maladie d'Alzheimer, l'épilepsie ou les douleurs neuropathiques - qui surviennent lors de maladies comme le cancer ou le diabète et dont souffrirait une personne sur treize en France.
Des développements technologiques récents, à la croisée de l'optique, de la génétique et de la chimie, rendent possible une étude plus approfondie du rôle de ces neuromédiateurs. Au sein de notre laboratoire de l'université de Strasbourg, nous avons ainsi mis au point très récemment une nouvelle méthode. Grâce à elle, nous donnons l'ordre aux neurones de s'activer ou de s'inactiver à volonté sans recourir aux neuromédiateurs, mais en utilisant un petit interrupteur moléculaire commandé à distance par une simple irradiation lumineuse.
D'ordinaire, les neuromédiateurs sont stockés dans les neurones, à l'intérieur de petites poches baptisées vésicules présynaptiques. C'est à la suite d'impulsions électriques qui se propagent le long d'un neurone donné qu'ils sont libérés dans la fente synaptique, espace microscopique séparant les deux neurones. Ils se diffusent alors très rapidement pour se fixer, comme une clé dans une serrure, à des récepteurs localisés sur le neurone postsynaptique, situé en aval de la synapse. La fixation de ces neuromédiateurs modifie la structure des récepteurs. Cela conduit, chez certains d'entre eux, à l'ouverture d'une porte qui contrôle le passage des ions, molécules chargées positivement ou négativement, au travers d'un conduit appelé canal ionique. Le flux d'ions déclenche une série de réactions en chaîne dans le neurone postsynaptique, qui assurent la propagation de l'influx nerveux du neurone au suivant. Lorsque les neuromédiateurs se détachent de leur récepteur, le canal se referme, le flux d'ions s'arrête et le signal s'interrompt (Fig. 1).

PROTÉINE D'ALGUE
C'est en tentant de mieux comprendre le rôle spécifique de certains neurones responsables d'un comportement donné que l'équipe de Karl Deisseroth, à l'université de Stanford, aux États-Unis, en collaboration avec celle d'Ernst Bamberg, de l'institut Max-Planck à Francfort, en Allemagne, a réussi en 2005 un tour de force : ils ont inventé une nouvelle technique rendant possible l'activation à distance de neurones précis sans recourir aux neuromédiateurs (1).
Le principe ? Ils ont inséré dans le génome d'une souris le gène d'une algue unicellulaire, Chlamydomonas reinhardtii, qui code une protéine naturellement sensible à la lumière, la channelrhodopsine. Au coeur de la protéine se loge une petite molécule, le rétinal, qui a la possibilité de changer de forme sous l'action de la lumière, ce qui bouleverse la structure de la channelrhodopsine. Elle se transforme momentanément en canal ionique, laissant passer le flux d'ions nécessaire à la vie de l'algue. Ainsi, le neurone qui exprime cette protéine devient lui-même sensible à la lumière.
Puis les chercheurs ont illuminé les neurones modifiés par une lumière bleue, d'une longueur d'onde de 450 nanomètres, grâce à une fibre optique implantée dans le cerveau des rongeurs. Ils ont réussi à activer uniquement les quelques neurones ayant fabriqué cette protéine et ont étudié quelle fonction comportementale de la souris était associée à l'activation de ces neurones.
Cette technique est nommée optogénétique car elle allie la génétique et l'utilisation de la lumière (du grec optikós pour « vision »). Elle a fait ses preuves en neurosciences : on a notamment pu identifier les groupes de neurones responsables de la mémoire dans le cerveau. Mais elle repose sur l'utilisation d'une protéine d'algue qui n'a rien à voir avec le fonctionnement du cerveau des mammifères. Bien qu'elle puisse identifier les neurones à l'origine d'un comportement donné, elle ne permet pas d'étudier la contribution d'une protéine spécifique, propre à la souris, à une fonction donnée.

COMMANDE À DISTANCE
Un nouveau développement était donc nécessaire. Il prend sa source au même moment à l'université de Californie, à Berkeley. Trois chercheurs, Dirk Trauner, Richard Kramer et Ehud Isacoff, élaborent une technique dérivée qui combine chimie, génétique et lumière : l'optogénétique pharmacologique (2). L'idée : rendre artificiellement sensibles à la lumière les récepteurs canaux par le biais de leurs neuromédiateurs. Les chercheurs ont modifié la structure chimique d'un neuromédiateur, le glutamate. Ils lui ont pour cela greffé deux accroches. La première est un maléimide, une accroche moléculaire capable de créer une liaison chimique irréversible avec son récepteur, afin d'empêcher que le glutamate ne diffuse loin de son site. La seconde est un dérivé d'azobenzène, une molécule connue des chimistes organiciens depuis plus de soixante-quinze ans et dont la géométrie varie en fonction de la lumière, comme le rétinal.
Grâce à des excitations lumineuses, les azobenzènes peuvent en effet se plier et se déplier. La structure dépliée (forme trans) est obtenue grâce à une irradiation par de la lumière verte de 500 nanomètres de longueur d'onde. La structure pliée (forme cis) nécessite, elle, une irradiation dans le proche ultraviolet, à une longueur d'onde de 360 nanomètres environ. Cette propriété remarquable permet de contrôler précisément la position dans l'espace du neuromédiateur. Quand on éclaire l'accroche d'azobenzène avec de la lumière verte, celle-ci se déplie et provoque l'entrée du neuromédiateur de glutamate - sur lequel elle est greffée - dans son site récepteur, et l'ouverture du canal ionique. À l'inverse, quand on éclaire l'accroche avec de la lumière violette, elle se replie, le glutamate sort de son site récepteur et le canal ionique se ferme.
Mais encore fallait-il trouver où attacher chimiquement la sonde azobenzène-glutamate sur le récepteur, car l'accroche azobenzène-maléimide sort du site de liaison un peu comme un bras qui explore la surface de la protéine. Les chercheurs ont utilisé la diffraction aux rayons X pour déterminer les structures cristallographiques d'un fragment du récepteur. Cette technique dévoile à l'échelle atomique la structure tridimensionnelle d'une molécule, ce qui leur a permis de déterminer le bon site.
L'équipe a aussi déterminé que, pour que la sonde azobenzène-glutamate s'attache, il faut que ce site contienne un acide aminé particulier : la cystéine. Afin de l'obtenir, les chercheurs ont délaissé la chimie pour la génétique. Ils ont modifié la séquence d'ADN du gène qui permet de produire le récepteur du glutamate. Lors de la fabrication de la protéine par les neurones, l'acide aminé identifié sur la structure tridimensionnelle du récepteur est ainsi remplacé par une cystéine, capable de créer la liaison chimique avec le maléimide de la molécule azobenzène-glutamate.
Ainsi, en fonction de la longueur d'onde lumineuse, l'azobenzène-glutamate lié au récepteur agit comme un interrupteur moléculaire, qui active ou inactive le récepteur. Il est alors possible de cibler les récepteurs au glutamate avec une très grande résolution spatiale et temporelle.
Après ce premier succès, la technologie de l'optogénétique pharmacologique a été étendue à d'autres récepteurs aux neuromédiateurs, comme les récepteurs nicotiniques. Mais une famille de récepteurs canaux appelés récepteurs purinergiques de type P2X, constituée de sept membres (P2X1 à P2X7) chez les mammifères, n'avait pas encore été testée. Ces récepteurs sont activés par un neuromédiateur particulier, l'ATP, connu pour fournir l'énergie nécessaire aux réactions biochimiques des cellules vivantes.

DOULEURS NEUROPATHIQUES
Au sein de notre équipe, à Strasbourg, nous travaillons depuis plusieurs années sur les aspects moléculaires des récepteurs P2X. Sur le plan de la physiologie, de nombreuses études internationales ont récemment montré leur implication dans le développement de processus inflammatoires qui conduisent, dans certains cas, à des pathologies invalidantes, comme les douleurs neuropathiques (3). Mais aucun traitement n'existe. Pour mieux comprendre le rôle fondamental des récepteurs P2X dans l'organisme, et notamment dans la communication neuronale, nous avons voulu les rendre artificiellement sensibles à la lumière (4). Ce travail a été l'objet d'une thèse défendue par Damien Lemoine en 2013, épaulé par une autre doctorante du laboratoire, Chloé Habermacher.
Dans un premier temps, nous avons cherché à utiliser l'approche d'optogénétique pharmacologique. Mais malgré plus d'un an et demi de travail intensif, nous n'avons pas réussi à fabriquer une molécule d'ATP greffée à l'azobenzène munie d'une accroche moléculaire. Visiblement, la création de cette clé spéciale allait demander encore de long mois d'effort de synthèse chimique. Nous avons alors décidé de changer de stratégie, en délaissant le système clé/serrure pour focaliser nos recherches sur la porte qui contrôle le passage des ions au travers du canal P2X. L'idée était de fixer une molécule d'azobenzène à proximité de cette porte, de sorte que le changement de forme induit par la lumière mime la modification de structure qu'induit naturellement l'ATP.
Nous avons d'abord modifié génétiquement le récepteur P2X2 de rat, l'un des récepteurs P2X les plus étudiés par la communauté scientifique. Nous y avons remplacé un par un certains acides aminés de la protéine situés à proximité de la porte du canal par des cystéines. Ce choix a de nouveau été guidé par des travaux récents. Nous avons ensuite montré que la modification génétique du récepteur n'entraîne pas de bouleversements de la fonction de celui-ci, condition indispensable pour créer notre outil. Puis nous avons fabriqué des molécules d'azobenzène simples, possédant un maléimide nécessaire pour créer la liaison chimique avec les cystéines introduites.
Enfin, pour tester l'effet de ces molécules, nous avons utilisé une méthode qui mesure en direct le flux d'ions au travers de cette porte. Cette technique, appelée électrophysiologie patch-clamp, enregistre des courants ioniques jusqu'au millième de milliardième d'ampère (soit 10 -12 ampère) grâce à une électrode - ou pipette - de verre dont l'extrémité ultrafine, d'environ un micromètre de diamètre, est en contact direct avec la membrane de la cellule.
Cette opération ne peut pas se faire à la main, ni à l'oeil nu : il faut utiliser un appareil de haute précision qui permet de guider sous un microscope la « pointe » de la pipette au micromètre près. Pour synchroniser l'ouverture des canaux avec les enregistrements de courants ioniques, nous avons adapté notre appareil de patch-clamp à un système d'irradiation par LED, dont les faisceaux lumineux émettent soit à 365, soit à 525 nanomètres de longueur d'onde.
Nous avons identifié plusieurs endroits sur le récepteur qui, après modification chimique, ouvrent ou ferment la porte du canal en fonction de la longueur d'onde d'irradiation. Pour l'un d'entre eux, les résultats ont été spectaculaires : une irradiation lumineuse à 525 nanomètres, pendant quelques secondes, permet d'ouvrir la porte du canal ionique et, en éteignant la lumière, la porte reste ouverte. Alors qu'une impulsion courte de lumière à 365 nanomètres la referme aussitôt, jusqu'à ce qu'on lui donne l'ordre de se rouvrir (Fig. 2).
Un examen précis des caractéristiques biophysiques du canal ionique nous a permis de conclure qu'il laissait passer le même type d'ions que le récepteur P2X2 non modifié : nous avions inventé un nouveau système qui mime l'effet de l'ATP sans y recourir. Mieux, nous avons montré que la porte s'ouvre et se ferme à distance grâce à notre dispositif, même si la serrure, le site de fixation de l'ATP, a été « détruite » génétiquement.

En collaboration avec François Rassendren et Pierre-François Méry, de l'Institut de génomique fonctionnelle à Montpellier, nous avons finalement appliqué notre technique à des neurones de rat en culture. François Rassendren a produit dans ces neurones le récepteur P2X2 sensible à la lumière et Pierre-François Méry a enregistré les courants ioniques consécutifs aux irradiations à 365 et 525 nanomètres. Nous avons ainsi fait la preuve que nous pouvions contrôler l'activité de ces neurones in vitro grâce à notre interrupteur moléculaire commandé à distance.
Le développement d'un récepteur P2X sensible à la lumière ouvre des perspectives. L'objectif ? Le tester sur une souris dont les récepteurs P2X impliqués dans les voies de la douleur chronique - les récepteurs P2X4 - seront remplacés par ceux rendus artificiellement sensibles à la lumière. Il sera ainsi possible de mimer l'action de l'ATP en activant sélectivement, par une impulsion lumineuse, à l'endroit et à l'instant voulus, les neurones qui vont déclencher la transmission de l'influx douloureux. C'est un travail lourd et fastidieux, mais les retombées scientifiques peuvent être nombreuses. Comme il existe différentes formes de récepteurs P2X dans le cerveau, notre outil permettra de savoir lesquels sont activés dans le cas de douleurs neuropathiques, et nous pourrons alors décortiquer la cascade biochimique qu'ils ont déclenchée. À terme, nous espérons que ces recherches permettront d'identifier de futurs médicaments contre les douleurs neuropathiques.

REPÈRES
- Les neurones utilisent les neuromédiateurs pour transférer l'influx nerveux entre eux.
- Les neuromédiateurs peuvent jouer un rôle dans le développement de maladies neurologiques graves ou de douleurs chroniques.
- Grâce à un interrupteur moléculaire commandé à distance par irradiation lumineuse, la communication entre les neurones est établie sans passer par les neuromédiateurs.

UNE PREMIÈRE ÉTAPE DANS LA RESTAURATION DE LA VUE
L'optogénétique est aussi envisagée pour traiter des maladies héréditaires de dégénérescence de la rétine, comme les rétinites pigmentaires, qui se manifestent par une perte de la vision nocturne suivie d'un rétrécissement du champ visuel. L'avancement des recherches ne permet pas encore de faire des tests sur l'homme, mais certaines expériences sur des animaux commencent, semble-t-il, à produire des résultats intéressants. Fin 2014, l'équipe d'Ehud Isacoff, de l'université de Californie à Berkeley, a permis à des souris et à des chiens atteints de ce type de maladie de recouvrer leur capacité à distinguer les stimuli lumineux pendant plusieurs jours - neuf au maximum (1). Les chercheurs ont utilisé un virus pour transporter un gène sur des cellules rétiniennes abîmées de ces animaux. Ils ont modifié ce gène pour provoquer la création de récepteurs lumineux sur les cellules endommagées. Puis ils ont injecté un composé chimique qu'ils ont mis au point, MAG 460, qui a permis de réactiver les récepteurs lumineux des cellules rétiniennes abîmées et de leur rendre la capacité de distinguer entre des flashs lumineux et une lumière continue.
(1) B. M. Gaub et al., P.N.A.S., 111, E5574, 2014.

 

DOCUMENT      larecherche        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google