ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

FUKUSHIMA

 

Accident nucléaire à Fukushima


et aussi - par Denis Delbecq dans mensuel n°460 daté février 2012 à la page 6 (3045 mots)
Pour la première fois, trois réacteurs nucléaires ont simultanément échappé à tout contrôle. Cette catastrophe a durablement pollué des dizaines de milliers d'hectares au Japon, et ses rejets font aussi peser une lourde menace sur la pêche dans la région. Elle remet en question l'avenir de l'énergie nucléaire civil dans le monde.

1. Un enchaînement de catastrophes
V endredi 11 mars 2011. En ce début d'après-midi, la population japonaise est au travail, à quelques heures d'un week-end qui s'annonce ordinaire. Mais à 14 h 46, tout bascule. Un violent séisme survient à 24 kilomètres sous le plancher de l'océan Pacifique, à environ 72 kilomètres de la côte nord-est de l'île principale d'Honshu, à 373 kilomètres de Tokyo. Sa magnitude * est de 9.

Depuis les premières mesures de ces phénomènes, au début du XXe siècle, c'est le plus puissant séisme qui ait jamais frappé le Japon et le cinquième plus important enregistré sur la planète. Comprimée par l'enfoncement de la plaque tectonique Pacifique, à l'est du pays, la plaque d'Okhotsk, qui porte la partie septentrionale du Japon, s'est brutalement détendue lire « Un séisme et un tsunami », p. 10

Fort heureusement, accoutumé aux séismes, le Japon dispose d'un système d'alerte. Trente et une secondes après la secousse, celle-ci est donnée dans la région de Tokyo. Les trains s'arrêtent ; les vannes des gazoducs sont fermées ; les opérations chirurgicales sont interrompues. La population est prévenue quelques dizaines de secondes avant l'arrivée de l'onde sismique la plus puissante.

Plus près de l'épicentre, le nord-est du pays n'a pas eu le temps de réagir. Il est transformé en un immense champ de ruines. Et le pire est encore à venir. Trois minutes plus tard, l'Agence japonaise de météorologie prévient de l'imminence d'un tsunami qualifié de « majeur ». La population côtière se précipite dans les abris désignés.

Cinquante minutes plus tard, les vagues déferlent, dépassant parfois 15 mètres de haut, et de nombreux abris sont submergés. L'impact du tsunami a été amplifié sur des centaines de kilomètres de côte Pacifique par un effondrement du sol de 60 centimètres, consécutif au mouvement de la plaque tectonique.

Trois réacteurs à l'arrêt. Aussi tragique qu'il soit, le bilan de ces catastrophes naturelles, près de 20 000 morts et disparus, va être relégué au second plan par la catastrophe nucléaire qu'elles ont également déclenché. Dans les quatre centrales nucléaires situées dans la zone touchée par le séisme, onze réacteurs se sont mis en arrêt automatique d'urgence dès les premières secousses. Mais des nouvelles inquiétantes parviennent de l'une d'entre elles, celle de Fukushima Daiichi, exploitée par l'industriel Tepco.

3 des 6 réacteurs de la centrale - numérotés 1, 2 et 3 - étaient en service le 11 mars. Ils sont passés en phase d'arrêt, comme le prévoient les systèmes de sécurité. La centrale restait alimentée en électricité par les batteries de secours et les groupes électrogènes qui ont pris le relais de l'alimentation réseau pour faire fonctionner notamment les pompes à eau.

Tant qu'il y a du combustible dans un réacteur, même arrêté, les réactions de fission spontanées du combustible, qui continuent de se produire, dégagent en effet de la chaleur. Il faut donc continuer à faire circuler de l'eau pour éviter que le réacteur ne s'échauffe trop et devienne incontrôlable. De même, il faut refroidir les piscines où les combustibles usagés sont entreposés le temps que diminue leur radioactivité, productrice de chaleur.

Immédiatement après le séisme, tout semble donc sous contrôle à la centrale de Fukushima, mais elle est construite à une centaine de mètres du bord de mer seulement, et à 15 h 45 des vagues atteignant probablement 14 mètres submergent les digues et dévastent le site. Le tsunami est arrivé. Pompes à eau de mer et groupes électriques de secours sont emportés. Pour la première fois de l'histoire de l'industrie nucléaire, un réacteur est privé durablement de refroidissement et d'électricité. Et pour la première fois aussi, un accident touche simultanément 3 réacteurs.

Après le passage du tsunami, la température s'envole dans ceux-ci : l'eau bout, et la pression grimpe en flèche. Vers 18 heures, le niveau d'eau baisse dans le réacteur 1. La gaine en alliage de zirconium qui enrobe les barres d'uranium - et qui enferme les produits de fission - réagit avec la vapeur d'eau, et se désagrège, libérant l'uranium et les produits de fission. L'eau se décompose en hydrogène et en oxygène. Ce mélange très explosif s'accumule dans le réacteur.

Explosions. Dans la soirée, les autorités japonaises décrètent l'état d'urgence et ordonnent l'évacuation d'un périmètre de 3 kilomètres autour de la centrale. Le lendemain matin, les responsables de Tepco constatent que de l'hydrogène s'est accumulé dans l'enceinte de confinement du réacteur 1 et décident de purger les gaz pour faire baisser la pression figure ci-contre. L'hydrogène et l'oxygène s'accumulent alors dans le bâtiment qui l'entoure, et explosent dans l'après-midi. Le soir, le périmètre d'évacuation est porté à 20 kilomètres.

Le même scénario se reproduit dans le réacteur 3, dont le bâtiment explose le 14 mars. Une autre explosion survient dans un équipement situé sous le réacteur 2, tandis que les piscines du réacteur 4 semblent endommagées. Leur assèchement pourrait être catastrophique, car ces piscines se trouvent hors de toute enceinte de confinement. Le 16 mars, les réacteurs 5 et 6 - qui contiennent du combustible usagé en attente d'être remplacé - et leurs piscines, jusque-là indemnes, commencent à se réchauffer.

Le 17 mars débute un étrange ballet dont les images sidèrent l'opinion publique : privées d'information sur l'état des réacteurs 1, 2, 3, les autorités ont envoyé des hélicoptères de l'armée pour les asperger d'eau. Un ballet absurde pour le physicien nucléaire Mamoru Fujiwara, de l'université d'Osaka. « Les autorités n'avaient pas compris l'enjeu : les réacteurs dégageaient encore 5 mégawatts, une puissance capable de vaporiser 8 tonnes d'eau par heure. Les hélicoptères ne pouvaient rien contre cela. »

Liquidateurs. Le lendemain, 30 camions-pompes prennent le relais, avec plus d'efficacité cette fois. Peu à peu, des « liquidateurs » vont se relayer pour regagner du terrain, pied à pied, sans toujours disposer de dosimètres : il leur faut rebrancher la lumière dans les salles de contrôle, tirer des câbles électriques, installer des instruments de mesure, déblayer les gravats en pataugeant dans une eau radioactive et par une chaleur étouffante, et réinstaller des pompes. Le travail est constamment interrompu par de nouvelles secousses et des bouffées de radioactivité si fortes qu'elles sont capables de tuer en quelques minutes.

Fin mars, le niveau de contamination de l'océan au pied de la centrale indique que de grandes quantités d'eau très radioactive s'échappent des sous-sols. La fuite est découverte le 2 avril près du réacteur 2 et colmatée après quatre jours d'efforts. Le 15 avril, les autorités nucléaires japonaises reconnaissent ce qui est une quasi-certitude aujourd'hui : le combustible des 3 réacteurs a fondu pour former un corium - mélange de combustible et de métal fondu - au fond des cuves, voire au fond des enceintes de confinement, augmentant considérablement le risque de rejets de radioéléments dans l'environnement.

Le 3 juillet, après deux semaines d'essais, Tepco met en service un système de décontamination de l'eau des sous-sols. Désormais, le refroidissement des réacteurs est assuré par un circuit faussement fermé : l'eau des sous-sols est décontaminée puis injectée dans les réacteurs, avant de s'échapper à nouveau vers les sous-sols. Les substances radioactives solubles sont ainsi progressivement retirées.

Quatre mois s'écoulent sans incident notable jusqu'à l'annonce, le 2 novembre, de la découverte de xénon 135 sur un filtre à radioéléments du bâtiment 2. Pendant deux jours, les spéculations vont bon train : cet élément est-il produit par le redémarrage d'une réaction en chaîne dans le réacteur ? Cela sonnerait le glas des espoirs de reprise en main de la situation. « Ces valeurs de xénon semblent très faibles, et les paramètres du réacteur pression et température, notamment n'ont pas grimpé, analyse Thierry Charles, directeur de la sûreté à l'Institut français de radioprotection et de sûreté nucléaire IRSN. Il est probable que cet élément soit issu seulement de réactions spontanées. » Le lendemain, Tepco confirme cette seconde hypothèse, le Japon peut respirer.

Enceintes étanches. Huit mois après l'accident, où en est la centrale ? « Après l'accident, Tepco a mis en oeuvre un plan de sortie de crise qui apparaît cohérent, analyse Thierry Charles. Dans un premier temps, il s'agissait de sécuriser les combustibles des réacteurs et des piscines. » Autrement dit, mettre en place un refroidissement en circuit fermé pour abaisser la température et la pression dans les réacteurs, et garantir le refroidissement des piscines. Dans les réacteurs, la température est désormais inférieure à 100 °C, et il n'y a donc plus d'émission de vapeur et de radioactivité vers l'extérieur. Dans les piscines, elle avoisine 35 °C, signe d'un refroidissement normal.

Ensuite, Tepco s'est attaché à limiter les rejets en recouvrant de résine sols et bâtiments pour fixer les poussières en érigeant un mur souterrain pour empêcher l'eau des sous-sols de gagner la mer et en couvrant les bâtiments. C'est désormais chose faite pour le numéro 1, qui est enfermé dans une enceinte étanche, équipée de filtres, au cas où il y aurait des surpressions. Des travaux identiques vont démarrer pour les réacteurs 2 et 3.

Quant à l'eau accumulée dans les bâtiments, son niveau a baissé grâce au pompage mis en place. Selon Tepco, il ne peut plus y avoir de débordement. Mi-octobre, environ 130 000 tonnes d'eau avaient été traitées, laissant des boues radioactives à stocker pour des décennies, voire des siècles. « Désormais, la situation se stabilisant pour les réacteurs, l'urgence va être de retirer le combustible des piscines et de le stocker de manière fiable, prévient Thierry Charles. Ce n'est pas simple, il faut évacuer les gravats sans abîmer les combustibles, et installer des ponts capables de soulever des dizaines de tonnes. » Cela prendra des années. Pour le démantèlement des réacteurs, on parle de décennies. Tepco parle de trente ans. C'est optimiste : à la centrale de Three Miles Island, où un accident grave s'est produit en 1979, le démantèlement n'a pas commencé.

2. Des dizaines de milliers d'hectares à décontaminer
L es réacteurs de la centrale de Fukushima Daiichi semblent en équilibre, même si celui-ci est précaire, et à la merci par exemple d'une nouvelle secousse sismique. Le Japon doit désormais gérer la contamination de son territoire et de ses eaux côtières par les produits de fission radioactifs dispersés lors de l'accident.

Le plus dangereux pendant les premières semaines, l'iode 131, fort émetteur de rayons gamma susceptibles de provoquer des cancers de la thyroïde, a totalement disparu. La moitié des atomes de cet élément disparaissent en effet tous les huit jours, que ce soit à terre, et même dans l'eau et les organismes marins qui l'avaient absorbé.

« C'est important de le dire, affirme Nicolas Foray, radiobiologiste à l'Inserm. Il y aura peut-être des cas de cancer chez des enfants qui vivaient près de la centrale. On en compte 6 848 à Tchernobyl. L'iode avait principalement été absorbé par le lait. À Fukushima, la population est éduquée, et il y a eu beaucoup d'informations, il est probable qu'elle aura peu consommé de lait et d'autres produits susceptibles d'être contaminés à l'iode. » Les autorités japonaises ont entrepris un suivi à long terme de 350 000 enfants.

Pour le radiobiologiste, comme pour Didier Champion, directeur de l'environnement et de l'intervention à l'IRSN : « Le problème aujourd'hui est le césium 137, dont la demi-vie * est de 30 ans. » Il faut donc plus d'un siècle pour que sa radioactivité devienne négligeable. Le césium contamine les sols, puis est absorbé par les plantes, et de là passe dans la chaîne alimentaire.

La radioactivité cartographiée. Selon une étude norvégienne publiée fin octobre, l'accident aurait rejeté 36 000 terabecquerels * de césium-137 dans l'atmosphère - trois fois plus que les estimations officielles. Toujours selon cette étude, environ 20 % de ce césium se serait déposé sur le sol japonais, principalement dans une zone de plusieurs centaines de kilomètres carrés. Celle-ci sort du périmètre d'évacuation circulaire de 20 kilomètres de rayon décrété par le gouvernement.

Ce sont bien évidemment le vent, la pluie et la géométrie du sol qui dessinent la carte des retombées radioactives au sol. Mais « dans l'urgence de la situation, on n'est jamais sûr de la direction que va prendre le vent dans les heures à venir, explique Didier Champion. C'est pour cela que l'on définit une zone de protection circulaire ». De fait, la zone terrestre la plus contaminée est une bande de 15 kilomètres de large pour 50 kilomètres de long qui s'étend au nord-ouest de Fukushima, bien au-delà du périmètre d'évacuation. Dans cette région, le niveau d'exposition est aujourd'hui supérieur à 5 microsieverts * par heure près de vingt fois la radioactivité naturelle. Dans la partie centrale, il dépasse les 20 microsieverts par heure, avec des pointes plus élevées. Ainsi, à Iidate, à 40 kilomètres de Fukushima, 100 microsieverts par heure ont été relevés, comme le confirme Mamoru Fujiwara.

Le Japon a engagé une vaste opération pour cartographier la radioactivité, préalable au choix d'une stratégie de gestion à long terme. Les autorités considèrent qu'un lieu reste vivable jusqu'à un niveau d'exposition de 2,3 microsieverts par heure en continu la norme française est deux fois plus faible. Peu d'options sont offertes : laisser des zones fermées en attendant que le césium cesse de présenter une menace ; décaper les sols et les constructions ; ou cultiver des plantes capables de pomper les radioéléments.

Cette dernière technique a prouvé son efficacité avec d'autres éléments, tel le technétium. Mais il sera difficile de la mettre en oeuvre pour le césium. « Cet élément se lie au sol, explique Jean-Louis Morel, du laboratoire sols et environnement de l'université de Lorraine. Les plantes ne peuvent en extraire que quelques pour-cent à chaque culture. » Cette solution pourrait quand même être tentée dans des territoires peu contaminés. Les plantes sont ensuite stockées, ou incinérées dans des installations équipées de filtres à césium. D'autres plantes, choisies pour leur faible capacité à diffuser le césium dans leur partie aérienne, pourraient produire des aliments consommables sans risque.

Pas de retour. Pour Didier Champion : « Il n'est pas envisageable de laisser des gens revenir rapidement dans la zone la plus contaminée car l'exposition au rayonnement émis par le dépôt radioactif est difficilement évitable, à moins d'abattre la végétation et retirer les 20 ou 30 premiers centimètres de sol. » Une option complexe, car la quantité de déchets serait immense : 30 centimètres de terre représentent 300 000 mètres cubes par kilomètre carré... Quant à la traiter avant de la réintroduire dans le milieu naturel, « en général, cela ne vaut pas la peine, prévient Bruno Cahen, directeur industriel de l'Andra, organisme français en charge du stockage des déchets radioactifs, qui intervient aussi dans la réhabilitation des sites contaminés par des pollutions radioactives. Cela nécessite de l'énergie, du temps, de l'argent, des substances chimiques, et peut altérer la fertilité de la terre retraitée ».

La situation sera presque plus gérable dans les zones urbaines. Le césium a imprégné les matériaux de construction et les sols artificialisés. « Un nettoyage à l'eau sous pression est très peu efficace et peut diffuser le césium dans le sol, note Didier Champion. Mais on peut retirer les revêtements de surface, remplacer les toits, le bitume et les trottoirs. » Les déchets ainsi produits sont en volume limité et stockables de façon sécurisée.

Avant de décider des mesures à prendre, « il faudra de toute façon prendre le temps de dresser une cartographie très détaillée de la contamination, mettre en place les infrastructures nécessaires, et surtout prendre les décisions en concertation avec la population concernée », avertit Bruno Cahen. Laquelle devrait, en parallèle, faire l'objet d'un suivi épidémiologique : selon le gouvernement, 2 millions de personnes, qui ont pu être exposées, seront suivies sur le long terme.

La population, elle, s'est ruée sur les détecteurs. La méfiance est en effet de mise vis-à-vis des données officielles, et il n'existe pas d'organisme de mesure indépendant. « Les gens veulent savoir si leurs enfants sont en danger » , souligne Mamoru Fujiwara.

Une telle vigilance est d'autant plus impérative que la pollution radioactive touche aussi l'océan. Et qu'elle pourrait se propager dans la chaîne trophique, un problème pour une population japonaise très friande de poisson et d'algues.

Surveiller la mer. À ce jour, c'est l'IRSN qui a produit l'étude la plus complète sur les rejets en mer de l'accident de Fukushima. Selon ses calculs, les rejets liquides représentent - sur la période de mars à juillet- 27 000 terabecquerels de césium, pour l'essentiel avant le 8 avril : une brutalité jamais vue puisque les rejets de radioéléments dans les océans ont toujours été répartis dans la durée. Quant aux retombées de césium atmosphérique sur l'eau, elles ne représentent que 0,3 % de ce volume.

« Depuis avril, la quantité de césium dans l'eau de mer baisse de moitié tous les sept jours près des côtes, sous l'effet de la dilution liée aux apports, par les courants, d'eau de mer non contaminée, se félicite Didier Champion. Les niveaux de contamination mesurés dans les sédiments sont pour le moment plus faibles que ce à quoi nous nous attendions. Mais on ne peut pas exclure que les transports naturels de particules sédimentaires venant des terrains contaminés concentrent le césium dans certains lieux du littoral proche de la centrale. »

Faute de pouvoir agir, les pouvoirs publics en sont donc réduits à surveiller. Aujourd'hui, ils surveillent surtout l'eau. « Les mesures de la radioactivité de l'eau servent essentiellement à détecter rapidement d'éventuels nouveaux rejets, explique Didier Champion. Pour mesurer l'impact de la pollution résiduelle, il est plus efficace d'utiliser des bio-indicateurs, autrement dit de surveiller les espèces de poissons et d'algues qui concentrent le plus la contamination, en mettant l'accent aussi sur celles qui sont consommées par la population. »

Aujourd'hui, alors que la pêche est encore rare sur la côte touchée, ces mesures sporadiques se font sur les lieux de débarquement des prises. « Il faudra que le Japon mette sur pied des campagnes scientifiques en mer, en ciblant notamment les poissons sédentaires qui concentrent le plus la pollution. Mais on ne peut exclure que certaines espèces appartenant aux niveaux plus élevés de la chaîne trophique qui ne sont pas contaminées aujourd'hui le deviennent plus tard. »

Par Denis Delbecq

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

ROBOTS ET NEUROSCIENCES

 

A l'heure des neurosciences


spécial robots - par Jean-Jacques Slotine dans mensuel n°350 daté février 2002 à la page 16 (3027 mots)
Connaît-on l'ascidie, ce petit animal marin qui, après s'en être servi pour se mouvoir, digère tranquillement son cerveau, car il n'en a plus besoin ? Plus que jamais à l'école du vivant, la robotique s'aventure aujourd'hui vers la prise en compte de phénomènes qui vont bien au-delà de la conception classique du « cerveau dans la boîte ».

« Alors la babouine demande timidement au babouin, les yeux chastement baissés : Aimez-vous Bach ? » Albert Cohen .


L'heure est au dialogue entre robotique et neurosciences, et, au-delà des analogies les plus évidentes, à l'élaboration de problématiques communes. Partout dans le monde se créent des centres regroupant neurosciences, biologie, modélisation mathématique et robotique. Témoin de l'ampleur du phénomène : le nouveau McGovern Institute, au MIT, qui va y consacrer pas moins de 350 millions de dollars - à peu près autant que le synchrotron Soleil ! Nous sommes sans doute à l'aube d'une véritable approche « système » de la compréhension du cerveau, réalisant le vieux rêve de la cybernétique.

Cette fertilisation croisée, cette coévolution, pourrait-on dire, n'est certes pas nouvelle. La nature inspirait déjà la robotique du temps des tortues de Grey Walter, en 1950. Mais l'accélération considérable au cours des vingt dernières années des découvertes sur le cerveau, la physiologie de l'action, ou encore l'acquisition de la parole et du langage, a changé la donne. Jim Watson, le codécouvreur de la structure de l'ADN et le promoteur du programme « Génome humain », fait avec raison de la compréhension du cerveau le grand défi scientifique du XXIe siècle. Compréhension susceptible de remettre en question notre conception de la science elle-même : c'est avec notre cerveau que nous créons des théories !

Mais à l'inverse, la robotique peut éclairer la physiologie, l'artificiel illuminer le vivant. Comme le remarque le biologiste Edward O. Wilson, dans son classique Consilience : the Unity of Knowledge 1998 « Le moyen le plus sûr d'appréhender la complexité du cerveau, comme de tout autre système biologique, est de le penser comme problème d'ingénierie . »I 1 L'ambition de la robotique est de comprendre de quelles capacités on peut doter une machine en interaction physique avec son environnement, et comment cette machine peut par elle-même s'adapter et apprendre.

En neurosciences, on associe de plus en plus l'évolution et le développement des processus cognitifs au raffinement des fonctions sensori-motrices2. Le neurologue Rodolfo Llinas3, à l'université de New York, cite l'exemple de l'ascidie, petit animal marin qui, après avoir nagé vers le rocher où il s'installera, digère son cerveau, devenu inutile dès lors qu'il n'a plus à se déplacer ! De même, l'interaction physique et dynamique avec l'environnement, le contrôle du mouvement, poussent la robotique au-delà du domaine conceptuel classique de l'intelligence artificielle, du brain in a box cerveau dans une boîte.

Mémoire parfaite. En règle générale, la robotique est très loin d'égaler la nature, mais ses contraintes ne sont pas les mêmes et, pour certaines tâches, elle fait même mieux que la nature. Malgré la grande flexibilité de positionnement des actionneurs moteurs, muscles artificiels, etc. et des capteurs caméras, encodeurs, etc., le hardware mécanique est très à la traîne, tant en complexité qu'en robustesse et en adaptabilité. En revanche, la robotique bénéficie de la possibilité de coder explicitement des relations mathématiques complexes les équations de la mécanique, par exemple, permettant souvent soit des raccourcis à travers les calculs de la nature, soit des techniques fondamentalement différentes. Les robots possèdent également une mémoire parfaite et une capacité de répétition exacte. Si l'on veut qu'un robot apprenne à marquer des paniers au basket-ball, il lui suffit de déterminer une fois pour toutes la relation entre son mouvement et l'endroit où la balle tombe : problème mathématique simple qui conduira à un apprentissage rapide. Le robot dispose également de possibilités de simulation en temps très accéléré, alors qu'il faut à l'homme à peu près autant de temps pour imaginer un mouvement que pour l'effectuer. Un robot peut « penser » en 5 ou 10 dimensions aussi facilement qu'en 3. Enfin la robotique tire profit de l'accélération constante des moyens de calcul4, au point de pouvoir calculer plus vite que la nature elle-même.

Un autre avantage des robots sur les systèmes biologiques est la rapidité de la transmission de l'information. La vitesse de transmission des impulsions nerveuses est bien inférieure à la vitesse du son. Elle est donc environ un million de fois plus petite que celle de l'information dans un câble électrique. De plus, à chaque connexion synapse entre neurones le signal électrique est transformé d'abord en signal chimique, puis de nouveau en signal électrique à l'arrivée, perdant chaque fois environ 1 ms : un peu comme un train qui prend un ferry-boat. Ce rôle central des délais conditionne certains aspects de l'architecture des systèmes biologiques, par exemple l'organisation massivement parallèle des calculs dans les cent milliards de neurones du cerveau et leurs millions de milliards de synapses. Laquelle architecture parallèle, il faut le reconnaître, se prête particulièrement bien aux problèmes d'approximation distribuée, c'est-à-dire d'apprentissage.

Cette question du temps est aussi au coeur de bien des aspects importants de la robotique, qu'il s'agisse de la téléprésence - comment commander un robot à l'autre bout de la planète ou au fond de l'océan, « comme si vous y étiez » -, pour coordonner la vision par ordinateur et la manipulation, et, comme chez les êtres vivants, pour tous les mécanismes permettant l'unité de la perception binding.

Notre laboratoire a beaucoup étudié l'adaptation et la coordination vision-manipulation5,6, et leur illustration expérimentale sur des robots rapides. Comment un robot attrape-t-il un objet qu'on lui lance ? Il doit anticiper la trajectoire de l'objet, sur la base d'informations visuelles - obtenir ces informations avec une précision suffisante peut nécessiter d'utiliser des caméras mobiles, comme le fait l'oeil quand il suit un objet en mouvement. Il doit planifier une trajectoire pour intercepter l'objet et l'attraper - il peut être judicieux, par exemple, d'attraper l'objet tangentiellement à sa trajectoire, de façon à nécessiter moins de précision du timing de la fermeture de la main, et aussi à attraper l'objet plus délicatement. Une fois l'objet attrapé, il faut le décélérer progressivement et ne pas le laisser tomber, en s'adaptant très vite à ses propriétés dynamiques inconnues masse, position du centre de masse, moments d'inertie. Ces travaux nous ont conduits à rechercher des méthodes et des concepts généraux pour aborder systématiquement des questions de plus en plus complexes, impliquant une réflexion plus directe sur ce que nous apprend le monde du vivant.

Primitives motrices. La solution de la nature à la construction progressive de tels systèmes est, bien sûr, l'évolution. Tout objet biologique, et le cerveau en particulier, résulte de l'évolution. Celle-ci procède par accumulation et combinaisons d'éléments intermédiaires stables, créant ainsi des structures fonctionnelles de plus en plus complexes7,8. Selon la formule de François Jacob, « De la bactérie à la drosophile, quel bricolage depuis trois milliards d'années ! » La réponse émotionnelle humaine, par exemple, combine deux éléments intermédiaires stables, une boucle archaïque rapide ne passant pas par le cortex, et une boucle corticale plus lente9. Le système immunitaire humain se compose d'une série de couches fonctionnelles, où se combinent notamment des mécanismes rapides et archaïques d'immunité innée, et des mécanismes plus lents d'immunité acquise ou adaptative, dont le temps de réponse dépend de l'exposition antérieure au pathogène.

De même, l'architecture de contrôle du mouvement chez les vertébrés utilise des combinaisons de primitives motrices. Emilio Bizzi et ses collègues, au MIT, ont fait, sous divers protocoles expérimentaux, l'expérience suivante. On excite la moelle épinière d'une grenouille anesthésiée, et un capteur placé sur la cheville de l'animal mesure le champ de forces ainsi créé. Deux conclusions. Tout d'abord, si l'on déplace l'excitation le long de la moelle épinière, on n'obtient que quatre champs de forces, correspondant à quatre régions de la moelle. De plus, si l'on excite deux régions en même temps, on obtient essentiellement la somme vectorielle des champs de forces. Ces résultats et des expériences plus récentes suggèrent que les mouvements de la grenouille, par exemple quand elle saute pour attraper un insecte, sont obtenus par simples combinaisons de primitives motrices élémentaires, modulées temporellement dans la moelle épinière sur la base d'informations provenant du cerveau.

Les accumulations progressives de configurations stables sont un thème récurrent dans l'histoire de la cybernétique et de l'intelligence artificielle, depuis les tortues de Grey Walter à la « Society of Mind10 » de Marvin Minsky 1986, en passant par les architectures hiérarchiques de Herbert Simon11 1962, les véhicules de Valentino Braitenberg12 1984, et autres insectes de Rodney Brooks13 1986, 1999.

Ces accumulations progressives forment aussi la base de théories récentes sur le fonctionnement du cerveau, qui privilégient l'interaction massive entre structures spécialisées pour expliquer la pensée et la conscience14,15,16.

Un des thèmes centraux des neurosciences est de comprendre comment des informations provenant de diverses modalités sensorielles, traitées par des centaines de régions spécialisées dans le cerveau, aboutissent à une perception unifiée. Dans le seul système visuel, par exemple, certaines aires corticales traitent les contours, d'autres les formes, le mouvement, les distances, la couleur... Mais ces processus sont inconscients. Vous ne voyez qu'un enfant en train de jouer au ballon sur la plage. Des recherches récentes suggèrent que cette unité de la perception, sans système centralisé de coordination « Il n'y a pas d'aire en chef » , comme le dit Gerald Edelman, pourrait essentiellement être le résultat de milliers de connexions réciproques entre aires spécialisées, particulièrement dans le système thalamo-cortical. Le thalamus est une formation qui a évolué avec le cortex. Toutes les informations sensorielles qui arrivent au cortex passent par le thalamus, où elles sont sélectionnées. De plus, beaucoup des connexions entre les différentes aires du cortex passent également par le thalamus17.

Boucles lentes. Il s'agit là de boucles rapides. La description se complique si on intègre l'existence de milliers d'autres boucles, « lentes » et inconscientes, qui partent du cortex, passent par les ganglions de la base ou le cervelet deux structures intervenant notamment dans la planification et dans le contrôle des mouvements, puis par le thalamus, avant de revenir au cortex. D'autres boucles encore passent par l'hippocampe une autre structure, liée à la mémoire à long terme. L'un des rôles de ces boucles pourrait être de permettre une sorte de « jeu des vingt questions » sélectionnant les informations les plus pertinentes pour une tâche donnée. Le délai de transmission de l'information à travers chacune de ces boucles est de l'ordre de 150 ms. Comment le système converge-t-il malgré ces délais ?

Intrinsèquement, accumulations et combinaisons d'éléments stables n'ont aucune raison d'être stables, et donc d'être retenues à l'étape suivante de l'évolution ou du développement. D'où notre hypothèse que l'évolution favorise une forme particulière de stabilité, automatiquement préservée en combinaison. Une telle forme de stabilité peut être caractérisée mathématiquement. Cette propriété, dite de contraction, fournit également un mécanisme très simple de construction progressive de systèmes robotiques arbitrairement complexes à partir d'un grand nombre de sous-systèmes eux-mêmes contractants, en sachant que la stabilité et la convergence des combinaisons seront automatiquement garanties18.

Plus spécifiquement, un système dynamique non linéaire est contractant s'il « oublie » exponentiellement ses conditions initiales. Autrement dit, si l'on perturbe temporairement un tel système, il reviendra à son comportement nominal - il reprendra ce qu'il était en train de faire - en un temps donné. On peut montrer que ce type de système peut être caractérisé par des conditions mathématiques relativement simples. Mais surtout que la propriété de contraction est automatiquement préservée par toute combinaison parallèle, en série ou hiérarchique, et certains types de rétroaction ou recombinaison dynamique de sous-systèmes eux-mêmes contractants. Permettant du coup de jouer au Lego avec des systèmes dynamiques19.

Remarquons qu'au moins pour des petites perturbations, un tel type de robustesse est en fait une condition nécessaire à tout apprentissage : un système dont les réponses seraient fondamentalement différentes à chaque essai serait incompréhensible.

Revenons à la grenouille d'Emilio Bizzi. L'architecture simplifiée mise à jour est intéressante intuitivement, car elle réduit considérablement la dimension et donc la complexité des problèmes d'apprentissage et de planification. Mathématiquement, ce type d'architecture est proche du concept - très classique en robotique - de champs de potentiels, où l'on utilise les moteurs du robot pour créer des « ressorts » virtuels dans des problèmes de navigation et de contrôle. Mais il en est aussi différent, de par la modulation temporelle des primitives, elle-même le résultat de processus dynamiques en amont. On peut montrer que chacune des primitives motrices de la grenouille vérifie la propriété de contraction, et donc que toutes ces combinaisons, parallèles et hiérarchisées, sont automatiquement stables.

Les signaux mesurés dans le système nerveux, par exemple ceux impliqués dans le contrôle du mouvement, correspondent rarement à des quantités physiques « pures », mais plutôt à des mélanges2, par exemple de positions et de vitesses. Alors qu' a priori ces signaux composites pourraient paraître mystérieux ou même être des imperfections, ils relèvent sans doute de bonnes raisons mathématiques. En effet, on peut montrer que l'utilisation de combinaisons judicieuses de variables peut réduire très sensiblement la complexité des problèmes d'estimation et de contrôle, et même réduire l'effet des retards de transmission de l'information.

En théorie du contrôle, par exemple, on utilise souvent des variables dites « de glissement » sliding variables , combinaisons linéaires d'une quantité et de ses dérivées temporelles. Ces combinaisons peuvent être facilement choisies de façon à réduire un problème d'ordre quelconque à un problème du premier ordre, beaucoup plus simple à résoudre. Elles correspondent à créer mathématiquement des séries de modules contractants.

D'autres problèmes que le système nerveux doit résoudre sont essentiellement identiques à des problèmes résolus par les ingénieurs. Dans le système vestibulaire humain l'oreille interne, par exemple, les « otolithes » mesurent l'accélération linéaire, et les « canaux semi-circulaires » mesurent la vitesse angulaire au moyen d'une mesure tres filtrée de l'accélération angulaire. Cette configuration est essentiellement la même que dans les systèmes dits strapdown de navigation inertielle sur les avions modernes, où un algorithme classique utilise ces mêmes mesures pour estimer la position et l'orientation de l'avion.

Faculté de prédire. Une notion essentielle à prendre en compte est la faculté de prédire2,3. Prédire est l'une des principales activités du cerveau. On la retrouve dans l'anticipation de la trajectoire d'une balle à attraper20, l'évitement d'obstacles mobiles, la préparation du corps à l'éveil dans les dernières heures de la nuit, voire dans l'aberrante efficacité de l'effet placebo plus de 30 % dans la plupart des maladies bénignes.

Prédire joue également un rôle fondamental dans la perception active orienter le regard, par exemple et l'attention. Dans le système nerveux, l'information est sélectionnée, filtrée, ou simplifiée à chaque relais sensoriel. Si l'on considère par exemple la partie du thalamus correspondant à la vision, moins de 10 % des synapses amènent des informations provenant des yeux et déjà préfiltrées au passage, et toutes les autres synapses servent à moduler ces informations17 !

Du point de vue mathématique, toutes ces questions relèvent de la théorie des observateurs, qui sont des algorithmes utilisés pour calculer ou pour prédire l'état interne d'un système en général non linéaire à partir de mesures partielles, souvent externes et bruitées. Typiquement, un observateur se compose d'une simulation du système utilisant un « modèle interne » peut-être approximatif, guidée et corrigée par les mesures prises sur le système. Dans les problèmes de perception active et sous certaines conditions, l'observateur permet aussi de sélectionner, a priori , la mesure ou la combinaison fusion de mesures à effectuer qui seront les plus utiles pour améliorer l'estimation de l'état du système à un instant donné, une idée inspirée du système nerveux et utilisée aujourd'hui dans les systèmes de navigation automobile automatique.

Parce qu'ils se fondent sur des mesures partielles, les observateurs permettent aussi de généraliser à des processus dynamiques la notion de mémoire adressable par le contenu content-addressable memory , chère aux amateurs de réseaux de neurones artificiels. Par exemple, une personne peut être reconnue à partir seulement d'une image de ses yeux, un concerto de Ravel à partir des premières mesures. Et, dans un processus physiologique minutieusement décrit, élaboré sur le plus archaïque de nos sens, la madeleine de Proust conduit automatiquement aux huit volumes de la Recherche .

Pour le problème de l'unité de la perception, la notion de contraction suggère un modèle possible pour expliquer la convergence globale des interactions rapides dans le système thalamo-cortical et la variation régulière de la perception au fur et à mesure que les données sensorielles changent : il suffirait que la dynamique de chacune des aires impliquées soit contractante. Inversement, le principe d'un vaste réseau de systèmes contractants spécialisés, totalement décentralisé mais globalement convergent, peut être utilisé dans un système artificiel pour intégrer diverses informations sensorielles et algorithmes de traitement. De plus, on peut montrer que ces boucles d'interaction sont un moyen particulièrement efficace et rapide de partager le traitement de l'information entre divers systèmes, puisque le temps de réponse de l'ensemble ne dépasse pas celui du système le plus lent. Cette rapidité contraste fortement avec celle d'une architecture centralisée ou hiérarchisée, où les temps de réponse s'accumulent et deviennent totalement prohibitifs pour de grands systèmes.

Téléprésence. Petite note historique : en Union soviétique, les discours fleuve annuels sur le socialisme scientifique ont suivi, littéralement, l'évolution de la cybernétique interprétée au sens large comme science du « gouvernement » et ont donc vu apparaître au début des années 1980 les ancêtres des systèmes décentralisés que nous venons de décrire. On connaît la suite.

Un problème similaire à celui des boucles lentes se rencontre en téléprésence, où des délais de transmission non négligeables entre robot-maître et robot-esclave créent d'importants problèmes de stabilité. L'une des façons de le résoudre est d'utiliser pour les transmissions un type particulier de variable composite, qui revient à ce que chaque transmission simule une onde dans une poutre mécanique virtuelle. En effet, une poutre transmet des ondes dans deux directions avec des délais, mais est naturellement stable. Le cerveau utilise-t-il de telles combinaisons dans ses boucles lentes14,18,21 ?

Ce type d'architecture et de telles « variables d'onde » pourraient également être exploités dans d'autres systèmes artificiels. Par exemple, dans les problèmes de calcul asynchrone distribué, où des milliers d'ordinateurs, communiquant entre eux par Internet, doivent être coordonnés pour résoudre un problème commun.

Par Jean-Jacques Slotine

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
 

SOLEIL ET CLIMAT ...

 

Les humeurs du Soleil changent notre climat


terre - par Édouard Bard dans mensuel n°352 daté avril 2002 à la page 16 (1096 mots) | Gratuit
Si personne ne pouvait l'affirmer avec certitude il y a vingt ans, il ne fait plus guère de doute aujourd'hui que les variations de l'activité du Soleil influent sur notre climat. L'ampleur de cette influence reste cependant l'objet de vives controverses.

Le Soleil a-t-il une influence sur le climat ? Cette question peut sembler saugrenue car notre étoile est à l'origine de pratiquement tous les phénomènes affectant l'atmosphère et l'océan. Pourtant, la relation entre Soleil et climat est restée un « sujet tabou » jusqu'au début des années 1980. La raison ? Un manque cruel de connaissances sur le lien entre l'activité du Soleil et son éclairement l'irradiance .

Controverses. Pendant de nombreuses années, l'énergie rayonnée par le Soleil était supposée invariable. D'où l'utilisation du terme de « constante solaire* ». Néanmoins, certains doutaient de cette stabilité. Leurs arguments : des corrélations troublantes entre des fluctuations de l'activité solaire et des phénomènes atmosphériques mal expliqués.

Les recherches sur les mécanismes de l'influence solaire sur le climat bénéficient d'un formidable regain d'attention1-5, non sans controverses. On en trouve l'illustration dans deux articles parus dans le même numéro du journal Science. Selon Gerard Bond, de l'université Columbia à New York, des baisses d'activité solaire durant les derniers dix mille ans seraient responsables d'augmentations périodiques de l'abondance d'icebergs en Atlantique Nord2. A contrario, une équipe de la NASA, grâce à une modélisation du climat lors d'une baisse d'activité solaire, suggère que l'atmosphère se refroidit partout à la surface du Globe... sauf là où se forment ces icebergs3.

Echelles de temps. Une certitude : l'activité solaire varie selon différentes échelles de temps. Un témoin de ces fluctuations est la variation du nombre de taches solaires* selon des cycles de onze ans.

Grâce aux mesures réalisées par les sondes spatiales, il est maintenant clair que la « constante solaire » fluctue elle aussi à court terme et que le cycle de onze ans se caractérise par une variation de l'éclairement total d'environ 0,1 % figure du haut. Paradoxalement, l'éclairement augmente avec le nombre de taches solaires : les taches assombrissent le Soleil, mais leur effet est masqué par celui des taches brillantes qui leur sont associées.

Plusieurs équipes d'astrophysiciens ont développé des modèles pour traduire les observations de l'activité solaire en termes d'éclairement. Leurs travaux ont permis d'estimer que l'éclairement solaire varie également à long terme, avec des périodes de faible éclairement qui correspondent à des baisses d'activité du Soleil.

Hélas, nous ne disposons de données que pour les quatre derniers siècles, et aucune observation astronomique fiable ne permet de quantifier l'éclairement solaire avant l'invention de la lunette astronomique. Il est cependant possible de reconstituer l'activité magnétique solaire liée à l'éclairement en étudiant l'abondance sur Terre de certains isotopes*, les cosmonucléides. Ils se forment par interaction du rayonnement cosmique surtout des protons avec les molécules de l'atmosphère, et leur production est modulée par l'intensité du champ magnétique solaire. Les géochimistes mesurent l'abondance des cosmonucléides dans des « archives naturelles » : les glaces polaires pour le béryllium 10 et le chlore 36, les anneaux d'arbre ou les coraux pour le carbone 14. Les fluctuations de l'éclairement ainsi reconstituées sont en bon accord avec celles établies en observant des taches solaires figure centrale.

Changements climatiques. Le principal enseignement de ces études est que les minima d'éclairement sont nombreux et que le Soleil a passé une partie importante des derniers millénaires en phase calme, avec probablement un éclairement plus faible.

Pour le dernier millénaire, il semble que les fluctuations solaires soient à l'origine de changements climatiques importants, tels l'optimum médiéval* ou le petit âge glaciaire* qui lui a succédé. Gerard Bond émet même l'hypothèse que ces variations d'activité solaire sont responsables de fluctuations climatiques et océanographiques quasi périodiques, avec un cycle d'environ mille cinq cents ans. La succession optimum médiéval-petit âge glaciaire constituerait le dernier cycle.

Selon cette hypothèse, notre climat serait actuellement en phase ascendante, en passe d'atteindre un nouvel optimum chaud dans quelques siècles. Les climatologues restent prudents car ces hypothèses sont uniquement fondées sur des correspondances approximatives entre des enregistrements paléoclimatiques et les variations de l'activité solaire.

Les modèles mathématiques de la circulation globale de l'atmosphère et de l'océan suggèrent qu'un minimum solaire entraîne un refroidissement du climat de l'ordre de 0,5 à 1 °C. Par ailleurs, ce refroidissement ne serait pas réparti de façon homogène, mais les baisses de température se concentreraient sur l'Europe et l'Amérique du Nord3.

A long terme, les fluctuations solaires pourraient être aussi la cause de changements hydrologiques qui affecteraient la circulation océanique en Atlantique Nord5. Le système océan-atmosphère serait donc susceptible de puissamment amplifier ces petites variations solaires.

Quelle est l'importance de la variabilité solaire dans le réchauffement global ? Plusieurs scientifiques pensent qu'une partie du réchauffement d'environ 0,7 °C depuis le milieu du XIXe siècle est lié à la lente augmentation de l'éclairement solaire à partir de 1750. Le consensus actuel reste que l'augmentation rapide de 0,4 °C pendant les trente dernières années est essentiellement due aux gaz à effet de serre rejetés par l'industrie. La contribution solaire n'excéderait pas le quart, voire le tiers de ce réchauffement.

Cependant, des climatologues danois pensent que l'effet du Soleil a été considérablement sous-estimé et que le réchauffement global serait une conséquence indirecte des fluctuations solaires. Ces chercheurs ont en fait « ressuscité » une théorie ancienne sur une possible influence du rayonnement cosmique sur le climat.

L'équipe danoise propose qu'un minimum solaire, qui va de pair avec une augmentation du rayonnement cosmique sur Terre, provoque une augmentation de la nébulosité globale. Mais cette corrélation, observée pour la période 1984-1991 n'a pas été confirmée par la suite. Des données régionales pour les Etats-Unis suggèrent même une corrélation opposée6.

Hypothèse paradoxale. Les chercheurs danois ont depuis affiné leurs analyses et supposent désormais que l'influence solaire se limite aux nuages de basse altitude4. Cette nouvelle hypothèse semble paradoxale car la plupart des spécialistes s'attendent à un effet solaire maximal dans la partie haute de l'atmosphère, et non dans sa partie la plus basse. Seules les données sur le prochain cycle solaire nous diront si l'équipe danoise est sur une piste sérieuse, car, pour l'instant, les mécanismes physico-chimiques d'un éventuel effet du rayonnement cosmique sur la formation des nuages sont très mal compris.

Les opinions divergentes sur le réchauffement global pourraient être départagées dans un futur proche car nous entrons actuellement dans la phase descendante du cycle solaire. D'ici à 2006, l'influence des gaz à effet de serre dominera, si l'on en croit la plupart des spécialistes1,7. Si l'équipe danoise a raison, alors la baisse d'activité solaire pourrait ralentir un peu le réchauffement.

Par Édouard Bard

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

NEURONE FORMEL

 

neurone formel

Un réseau de neurones formels est un dispositif constitué d'un grand nombre de processeurs simples, fonctionnant en parallèle selon des architectures diverses et fortement interconnectés, à l'instar des neurones du cerveau.
DU SYSTÈME NERVEUX HUMAIN AUX RÉSEAUX DE NEURONES ARTIFICIELS

Comment concevoir qu'un être vivant soit capable de lire ? Calcule-t-il plus vite qu'un ordinateur ? A-t-il une plus grande mémoire ? Est-il mieux « programmé » ? Et, finalement, est-il comparable à une machine ? Ces questions sont au cœur d'une nouvelle technique du traitement de l'information dénommée « réseaux de neurones artificiels », ou « réseaux neuronaux ». Elle cherche à comprendre le fonctionnement intime du système clé des êtres vivants : le système nerveux.
Les mots que vous lisez s'adressent à un être vivant, fruit de plusieurs millions d'années d'évolution, et capable de les comprendre. Il est doté de la vision et peut ainsi recevoir l'image des mots. Dans le noir, malgré toute son intelligence, il ne recevrait pas ce message. De cette image projetée sur sa rétine, il conçoit un sens : quelqu'un s'adresse à lui. Le texte que moi, l'auteur, j'ai écrit s'adresse à vous, le lecteur.
Tout cela n'a pris que quelques secondes. Quelques secondes pour voir, pour analyser, pour prendre conscience de l'existence de deux personnes qui ne se connaissent pas mais qui, sans doute possible, existent ou ont existé. Quelques secondes durant lesquelles, dans votre cerveau, des milliards de cellules nerveuses ont émis des signaux en cadence.
Ce petit événement, si banal pour un être vivant, est parfaitement inaccessible au plus performant des instruments contemporains de traitement de l'information : l'ordinateur. Cet objet, pourtant capable d'assurer des millions de réservations d'avion, de contrôler la trajectoire d'une navette spatiale ou de construire des mondes virtuels, reste muet devant ce simple exercice de lecture. Il est incapable de dégager un sens de ce qui est écrit ; il n'a pas conscience de lui-même, pas d'identité, pas de connaissance d'autrui. En somme, c'est un assemblage inerte très compliqué, qui est et qui reste une machine.
Les fonctions du système nerveux

Le traitement de l'information

En général, un être vivant traite des informations de nature variable. Un virus, par exemple, lorsqu'il attaque un organisme, déclenche la réponse du système immunitaire. La chasse au virus qui s'engage alors fait appel à la mémoire du système immunitaire pour produire les anticorps les plus adaptés à la destruction du virus : c'est un traitement d'informations. Le cerveau n'a pas grand-chose à faire dans cette lutte vitale, en tout état de cause rien qui fasse intervenir la volonté. En revanche, pour voir un fruit dans un arbre, pour entendre le bruit d'un moteur de voiture ou ressentir la douceur de la soie, il faut à la fois des organes sensoriels qui captent les signaux émis par les objets et un dispositif capable de les interpréter. C'est le rôle du cerveau et du système nerveux.
Deux axes de recherche : observation ou reproduction

Le cerveau reçoit en permanence, par le biais des cinq sens, une prodigieuse quantité d'informations. La difficulté est de parvenir à comprendre comment il extrait de cette masse d'informations celles qui vont lui sembler pertinentes. Deux points de vue de spécialistes s'affrontent : certains estiment qu'il faut observer longtemps les réactions du cerveau dans des situations variables, et s'appuient sur des groupes de règles et sur une logique pour les combiner, afin de reproduire les comportements observés. Par exemple, une mouche qui veut se poser tend ses pattes lorsqu'elle arrive près du sol afin que le choc soit absorbé. On peut donc établir des règles logiques qui régissent le comportement de la mouche dans cette situation : si elle voit le sol qui se rapproche vite, alors elle envoie aux muscles les informations nécessaires pour qu'ils se mettent en extension. D'autres spécialistes pensent que c'est en comprenant la structure du système nerveux que l'on comprendra son fonctionnement. En reprenant l'exemple précédent, il s'agit de savoir comment la vitesse et le rapprochement apparent du sol sont perçus par le système visuel de la mouche et quelles sont les structures du système nerveux qui analysent ces informations et qui élaborent l'ordre donné aux muscles des pattes.
La seconde approche est ici préférée : en imitant des parties du système nerveux et en analysant leur fonctionnement, on devrait comprendre comment notre propre image du monde s'élabore à partir des signaux reçus par les yeux, par les oreilles ou par tout autre organe sensoriel.
L'idée de base consiste d'abord à reproduire la forme du système nerveux. On dit alors qu'on procède par mimétisme de la structure. Et c'est à l'échelle de la cellule nerveuse, ou neurone, que les chercheurs en neuro-mimétisme ont décidé de se placer pour réaliser la copie. Ils auraient tout aussi bien pu choisir l'échelle moléculaire ou l'échelle du cerveau tout entier, chaque échelle ayant un intérêt : elles donnent un accès différent à une même question et permettent d'y répondre de manière différente.
L'ordinateur, outil de modélisation

Imiter le système nerveux n'est pas une idée nouvelle, mais ce projet connaît aujourd'hui un fort développement grâce à l'ordinateur lui-même qui permet de tester, de simuler les hypothèses émises par les chercheurs. En particulier, l'ordinateur sert à faire fonctionner les modèles construits par les mathématiciens à partir des observations et des réflexions fournies par les physiologistes. Par exemple, une cellule nerveuse est analysée en détail, et son fonctionnement est transcrit en équations. Celles-ci rendent compte de la forme de la cellule, de la circulation des signaux électriques, de l'échange des signaux avec d'autres cellules nerveuses. Ces dizaines d'équations sont simulées par un ordinateur. Ce modèle mathématique du neurone, que l'on appelle le « neurone formel », est dupliqué pour constituer un réseau. À cet effet, les multiples neurones formels ainsi créés sont reliés entre eux selon un schéma choisi, qui pourrait ressembler à un réseau téléphonique. C'est ce que l'on appelle un « réseau de neurones formels », ou un « réseau neuronal ». Le réseau dans son ensemble est simulé, encore grâce à la puissance de l'ordinateur. Son comportement global est analysé afin d'en étudier les propriétés. À cette étape de la recherche, des milliers d'équations et des centaines de milliers d'opérations ont été prises en compte pour simuler un réseau de quelques dizaines de neurones formels.
Un paramètre fondamental : la faculté d'apprentissage

Mais mimer uniquement la structure et le comportement de la cellule nerveuse restreint considérablement l'intérêt de ces recherches. Si l'on s'en tient là, ce n'est qu'un simple modèle du système nerveux qui a été ajouté au catalogue des connaissances scientifiques. Tout au plus aurons-nous un dispositif qui ne remplit qu'une tâche répétitive, qui ne se modifie jamais et qui ne manifeste donc aucune capacité d'adaptation au changement. Il lui manque l'essentiel : la possibilité d'apprendre, c'est-à-dire de produire un comportement qui réponde aux situations rencontrées.
La dernière étape de la recherche consistera à doter le réseau neuronal de cette capacité d'apprentissage. Cette fonction sera effectuée à partir d'une règle d'apprentissage qui pourra agir sur les différentes parties du neurone formel et du réseau. Avant d'en arriver là, il faut tout d'abord présenter les phases de construction d'un modèle de neurone formel, et de sa mise en réseau ; ensuite, il s'agira de rentrer dans le détail de la constitution d'une règle d'apprentissage afin de voir comment celle-ci agit sur le réseau ; enfin, nous illustrerons le fonctionnement de tels réseaux à travers deux exemples concrets tirés du domaine médical et du traitement du son.
Le modèle du neurone

Description du neurone

Le neurone biologique est une cellule nerveuse. On ne connaît pas tous les détails de son fonctionnement. Comme l'indique très clairement J. M. Robert : « le neurone est une cellule […], un ensemble de molécules […], qui vit, meurt dans un environnement […]. Il est, de ce fait, indissociable du monde qui l'entoure ». Étudier sa nature et son fonctionnement est l'affaire des biologistes, des neuropharmacologistes et des neurochimistes. L'étudier dans son contexte requiert des outils de traitement de l'information, car le neurone reçoit et émet des signaux, et prend des décisions : c'est sa fonction principale.
Schématiquement, un neurone est une entité composée d'un corps cellulaire, d'un axone et d'une arborisation dendritique qui peut entrer en contact avec des milliers d'autres neurones. Le neurone peut émettre un influx nerveux, un signal électrique qui parcourt l'axone et qui se diffuse par le canal d'un réseau dont la forme rappelle les ramures d'un arbre. C'est ce qu'on appelle l'« arbre dendritique ».
Fonctionnement du neurone

Lorsque le signal atteint l'extrémité d'un neurone, les synapses qui assurent le contact entre les neurones diffusent une substance chimique, le neuromédiateur, qui est captée par les neurones proches. Un simple signal nerveux peut donc être transmis par ce mécanisme à un grand ensemble de neurones, mais cette transmission dépendra de la quantité de neuromédiateur déversée par les synapses. La nature nous pose là une première question : il serait si simple de connecter les neurones directement, comme on branche une prise téléphonique pour être relié au central. Mais pour un neurone biologique, ce n'est pas le cas : c'est comme si le signal téléphonique pouvait ouvrir un robinet d'eau, que l'eau s'écoulait dans un récipient et que la transmission du signal téléphonique reprenait en fonction de la quantité d'eau recueillie.
Malgré son apparente bizarrerie, ce mécanisme est très astucieux : il permet de garder des traces de ce que le système nerveux a vécu. En un mot, c'est probablement dans ce mécanisme de transmission de l'information que réside le secret de l'apprentissage. C'est ce qu'ont compris des spécialistes en neurophysiologie depuis cinquante ans, et en particulier Donald Hebb qui, le premier, a fourni une explication de l'intérêt de cette transmission.
Sans entrer dans les détails de la chimie ou de la structure du neurone, il est toutefois possible de se pencher sur sa fonction, telle qu'elle est comprise par les physiologistes et par les mathématiciens. Le concept de « neurone formel » encore utilisé date de 1943. Il a été proposé par deux chercheurs américains, Warren McCulloch et Walter Pitts. Le neurone reçoit des entrées, en provenance du monde extérieur, ou en provenance d'autres neurones, il les additionne, et prend une décision. Comme les liaisons ne sont pas directes, on dit que la transmission est modulée, ou « pondérée », par les liaisons. Plus précisément, si le signal transmis d'un neurone à un autre est renforcé, gonflé par la liaison synaptique, on dira que la synapse est excitatrice. À l'opposé, si le signal est affaibli, on parlera de synapse inhibitrice. C'est d'ailleurs ce type de synapse que l'on rencontre en plus grand nombre dans le système nerveux. Un neurone formel reçoit donc des entrées qui sont pondérées par des liaisons synaptiques, et la valeur de ces pondérations dépend de ce que le réseau a vécu. En résumé, un réseau neuronal est un assemblage de multiples neurones qui essaye de garder une trace de ses états successifs, en transformant les liaisons entre ses éléments.
C'est un processus assez naturel, si on se rappelle qu'un système vivant passe son temps à établir des relations : si un parfum me rappelle de doux souvenirs, c'est que j'ai établi une relation entre le parfum qui flottait dans l'air et l'état de bien-être dans lequel je me trouvais à cet instant. Cette situation a changé des liaisons entre mes neurones, qui ont gravé cette relation dans mon système nerveux.
Apprendre, ou comment modifier son réseau

Imaginons un sculpteur qui, éclat par éclat, fait émerger du marbre une forme. Si celle-ci nous émeut, c'est que l'expression de cette forme nous « parle », qu'elle nous plaît, qu'elle suscite en nous une émotion. C'est ce que produit en nous notre propre système nerveux. Il se forme au gré de nos expériences. Chaque perception est un éclat, mais chaque éclat transforme notre perception. Il n'existe pas de spectateur de notre « sculpture » cérébrale. Nous sommes simultanément la sculpture et le spectateur, mais c'est notre propre sensation du monde que nous sculptons. Il est assez difficile d'imaginer comment cela se passe, mais nous disposons de quelques hypothèses, dont une a été formulée par Hebb en 1942. Ce chercheur s'est intéressé à l'apprentissage sous l'angle de la modification des connexions synaptiques. Il existe bien évidemment de multiples façons de voir l'apprentissage, mais, à l'échelle du neurone, c'est la manière dont cette modification s'opère qui importe. Hebb considère deux neurones seulement, reliés par une seule liaison.
La modification de la liaison entre neurones en fonction de leur état

Lorsqu'il reçoit des signaux en provenance de l'extérieur, le réseau de deux neurones artificiels peut se trouver dans quatre états différents. Le premier neurone (neurone 1) peut être actif, et le second neurone (neurone 2) également. Il se peut aussi que le neurone 1 soit actif, et le neurone 2 inactif. Réciproquement, le neurone 1 peut être inactif, et le neurone 2 actif. Enfin, les deux neurones peuvent être simultanément inactifs. Si l'on ne considère pas d'autre état pour ces neurones, nous avons passé en revue l'ensemble des états possibles pour le réseau. Pour chacun de ces quatre états, Hebb a imaginé comment la liaison entre les deux neurones pouvait être modifiée. Il a considéré que celle-ci était en relation avec l'activité conjointe des deux neurones. On dit aussi que la liaison évolue en fonction de la corrélation observée des activités des neurones. En d'autres termes, la liaison augmentera si les deux neurones sont actifs ou inactifs simultanément, et elle diminuera dans les autres cas.
Le réseau de Hérault-Jutten : la parole est aux indépendants

Comme il est agréable d'écouter de la musique pendant que l'on « refait le monde » avec ses amis. Mais quel exercice pour le cerveau! À tout moment, les oreilles reçoivent les sons de la pièce bruyante, et le cerveau doit faire le tri. Il ne nous est d'ailleurs pas difficile de fixer notre attention sur la musique, ou sur le discours de notre voisin de table. Pourtant, les sons sont mélangés, se répercutent sur les murs, sont absorbés par le tapis, et c'est une abominable mixture de fréquences qui parvient à nos oreilles. Comment imaginer que le cerveau puisse distinguer, faire la différence, entre tous ces signaux?
Des recherches récentes apportent une ébauche de réponse à cette question. D'abord, comme pour la vision, le cerveau reçoit de chaque oreille des images sonores différentes d'un même environnement. Il possède donc un moyen de comparer et de mettre en relief ce qu'il reçoit. Mais ce n'est pas tout. Les fibres nerveuses véhiculent un mélange de signaux, et de petites structures neuronales semblent capables de faire la différence. Elles peuvent, sous certaines conditions, séparer les sons sans les connaître.
Revenons à notre réunion amicale. Le cerveau reçoit deux images sonores de cette cacophonie : le signal capté par l'oreille gauche et celui capté par l'oreille droite. Dans ces conditions, un petit réseau de deux neurones artificiels pourrait séparer cet affreux mélange, permettant de discerner les propos et la musique de fond.
Un modèle de séparation des signaux a été proposé par deux chercheurs français, Christian Jutten et Jeanny Hérault. Pour que ce réseau fonctionne, il faut néanmoins satisfaire à une contrainte : que les signaux d'origine soient indépendants, c'est-à-dire que la valeur d'un signal ne dépende en aucune façon de la valeur de l'autre signal. Cela est certainement vrai dans le cas de notre ami et de la musique d'ambiance, mais dans la nature l'indépendance n'est parfois qu'apparente. Observons, par exemple, un pont qui enjambe une rivière : avec un peu d'attention, on peut voir qu'il présente des ruptures destinées à lui permettre de « bouger », de se dilater ou de se contracter. Cela vient de ce que la longueur du pont dépend de la température : en hiver le pont sera plus court, et en été, il sera plus long!
Le modèle de réseau neuronal proposé ici sert, en général, à tester cette indépendance, et il peut ainsi s'appliquer à de nombreux domaines : le traitement d'images, l'analyse de signaux radars ou subaquatiques. En s'inspirant d'un mécanisme biologique, ces chercheurs ont ainsi imaginé un système utile dans le domaine technique.
Apprendre à voir : les bases de l'auto-organisation

Les images tridimensionnelles fleurissent au détour de tous les magazines : dragons effrayants, tour Eiffel ou voitures de rêve. Toutes donnent une illusion saisissante de profondeur. Elles semblent vraiment sortir de la feuille. Mais, pour accéder à cette vision, il faut un petit temps d'apprentissage, tout juste guidé par quelques explications bien souvent imprécises. Apprendre à voir ? Cela semble bien curieux. Mais c'est pourtant ce qui se déroule dans le cerveau. Depuis la naissance, le système visuel s'affine en permanence. Chaque sensation visuelle venant donner forme à la perception. En un mot, le système visuel s'organise par lui-même à partir des informations qu'il reçoit.
Un tel principe ne pouvait pas laisser les scientifiques indifférents. C'est pourquoi un Finlandais, Teuvo Kohonen, inspiré par les travaux de physiologistes, en particulier les prix Nobel de physiologie David Hubel, Torsten Wiesel et Roger Sperry, propose en 1982 un modèle dit d'auto-organisation. Dans ce modèle, des centaines de neurones formels adaptent leurs connexions en vue de faire apparaître des caractéristiques contenues dans les signaux perçus. Ils détectent des régularités, ils regroupent les signaux similaires. En termes plus techniques, ils font une analyse des données locales, mais dans un sens global. Comme un peintre, par petites touches, ils font apparaître une image globale qui a un sens pour celui qui l'observe.
Cette propriété est également très riche, et peut être appliquée à de nombreux problèmes pour lesquels les relations entre les parties révèlent une forme cachée. Par exemple, analyser l'état d'un moteur, étudier le comportement d'un réseau de distribution électrique ou encore révéler des similarités économiques entre pays sont des tâches qui relèvent de ce moyen d'analyse.
Perspectives

Cet immense champ d'investigation est encore à explorer. Il est excessivement difficile d'avancer, car la connaissance physiologique du système nerveux, qui progresse pourtant à pas de géant, est encore balbutiante. D'autre part, les outils mathématiques utilisés pour analyser les modèles formels sont également complexes. Enfin, les ordinateurs actuels, malgré leur puissance de calcul colossale, sont très loin d'être assez puissants pour simuler des réseaux de neurones de grandeur respectable. N'oublions pas cependant que le but de ces recherches n'est pas de refaire un cerveau. Il y a des moyens bien « naturels » pour cela, et qui ne requièrent pas des dizaines d'années de recherche… Comme nous l'avons vu en préambule, c'est un accès à un savoir nouveau, qui passe par une observation particulière de la nature, qui intéresse les chercheurs. C'est également une des plus extraordinaires aventures de la science : les étoiles pour ceux qui lèvent les yeux, la matière pour ceux qui regardent la terre et les mécanismes de la conscience pour ceux qui veulent ouvrir « l'œil du dedans ».

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google