ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Le boson de Higgs, une particule très spéciale

 

 

 

 

 

 

 

Le boson de Higgs, une particule très spéciale
Par : Achintya Rao
4 MAI, 2020 · View in English

Notre deuxième épisode de la série Dix ans de physique au LHC : la grande découverte

En tant que non-spécialiste je dirais maintenant : « ça y est, on l’a ! »
On l’avait enfin, le boson de Higgs, l’entité quasi-mythique qui a mis la physique des particules sous le feu des projecteurs dans le monde entier. Et celui qui parle, le « non-spécialiste », c’est tout simplement Rolf Heuer, directeur général du CERN à l’époque. Tout cela se passait dans l’amphithéâtre principal du Laboratoire, le 4 juillet 2012, quelques instants après l’annonce, par les collaborations CMS et ATLAS auprès du Grand collisionneur de hadrons, de la découverte d’une nouvelle particule élémentaire, dont nous savons aujourd’hui qu’il s’agissait d’un boson de Higgs. Les applaudissements qui retentirent à Genève se firent entendre jusqu’à Melbourne, en Australie, où les participants à la conférence internationale de la physique des hautes énergies assistaient à la scène par visioconférence.

Qu’a-t-elle donc de spécial, cette particule ?
« Tout simplement, que c’est la seule et unique particule élémentaire scalaire observée à ce jour », répond avec un grand sourire Rebeca Gonzalez Suarez, qui, en tant que doctorante, a participé aux recherches de CMS sur le boson de Higgs. « Tout simplement », façon de parler...
 
Élégance et symétries
À l’échelle subatomique, l’univers est une chorégraphie complexe de particules élémentaires interagissant les unes avec les autres via des forces fondamentales, pour laquelle on utilise souvent, dans le monde de la physique, le terme d’« élégance ».
« Dans les années 1960, les physiciens théoriciens travaillaient à une formulation élégante des lois fondamentales de la nature au moyen de la théorie quantique des champs », explique Pier Monni, du département Théorie du CERN. Dans cette théorie, les deux grandes catégories de particules, à savoir les particules de matière, ou fermions (électrons, quarks, etc.) et les particules porteuses de forces, ou bosons, (par exemple les photons, ou les gluons) sont des manifestations de champs quantiques fondamentaux sous-jacents. Aujourd’hui nous appelons cette description élégante le Modèle standard de la physique des particules.

Le Modèle standard de la physique des particules, représenté dans une seule équation (Image : CERN)
Le Modèle standard est fondé sur la notion de symétries dans la nature, c’est-à-dire de l’idée que les propriétés physiques restent inchangées lorsque l’objet décrit subit certaines transformations, par exemple une rotation dans l’espace. S’appuyant sur cette notion, les scientifiques ont pu proposer un ensemble unifié d’équations rendant compte à la fois de l’électromagnétisme (électricité, magnétisme, lumière) que de la force nucléaire faible (radioactivité). La force ainsi unifiée est appelée force électrofaible.

Mais ces symétries souffraient d’un défaut criant : « Les symétries expliquaient la force électrofaible, mais, pour qu’elles restent valides, il fallait que les particules porteuses de force n’aient pas de masse », explique Fabio Cerutti, qui a co-dirigé à deux reprises des groupes travaillant sur le Higgs à ATLAS. « Nous savions que le photon, qui est la particule porteuse de la force électromagnétique, était dépourvu de masse ; les bosons W et Z, porteurs de la force faible, ne pouvaient pas être sans masse. » Même si les W et les Z n’avaient pas été observés directement à l’époque, on savait que, si leur masse était nulle, cela impliquait un taux de désintégration bêta infini, ce qui était impossible physiquement, et cela signifiait que d’autres processus, à de hautes énergies, avaient une probabilité supérieure à un.

En 1964, deux articles, l’un signé de Robert Brout et François Englert, et l’autre de Peter Higgs, proposaient une solution : un nouveau mécanisme brisant la symétrie électrofaible. Le mécanisme Brout-Englert-Higgs supposait un nouveau champ quantique, que nous appelons aujourd’hui champs de Higgs, et dont la manifestation quantique est le boson dit de Higgs. Seules les particules qui interagissent avec le champ de Higgs acquièrent une masse. « C’est ce mécanisme-là qui crée toute la complexité du Modèle standard », ajoute Fabio Cerutti.
Conçu à l’origine pour expliquer les masses des bosons W et Z exclusivement, le mécanisme Brout-Englert-Higgs put bientôt être utilisé également pour expliquer la masse de toutes les particules élémentaires massives. « Pour rendre compte de la masse des bosons W et Z, il n’est pas nécessaire que le mécanisme de Higgs donne une masse à d’autres particules, par exemple aux électrons ou aux quarks, souligne Kerstin Tackmann, co-coordinatrice du groupe Higgs d’ATLAS. Mais c’est quand même bien pratique... »
Le problème mathématique avait ainsi été résolu il y a plusieurs décennies, mais il restait à savoir si l’équation décrivait bien la réalité physique.

Y a-t-il quelque chose dans le vide ?
Le champ de Higgs est particulier pour deux raisons.
Imaginons une région de l’espace parfaitement vide, entièrement dépourvue de matière. D’après la théorie quantique des champs, cette région hypothétique n’est pas vraiment vide : des paires particule-antiparticule, associées aux différents champs quantiques, surgissent brièvement avant de s’annihiler, en se transformant en énergie. Toutefois, l’« espérance quantique» de ces champs est de zéro ; autrement dit, en moyenne, on peut s’attendre à ce qu’il n’y ait aucune particule dans ce vide parfait. En revanche, l’espérance quantique du champs de Higgs dans le vide est élevée. « Cette espérance quantique non nulle signifie que le champ de Higgs est partout », explique K. Tackmann. C’est grâce à son omniprésence que le champ de Higgs a un effet sur toutes les particules élémentaires massives connues.

Quand l’Univers venait tout juste de commencer, et qu’il était encore extrêmement chaud, la densité d’énergie était plus élevée que l’énergie associée à l’espérance quantique dans le vide du champ de Higgs. Dans ces conditions, les symétries du Modèle standard restaient possibles, si bien que des particules telles que les W et les Z pouvaient être dépourvues de masse. Au moment où l’Univers commençait à refroidir, la densité d’énergie a diminué, jusqu’au moment (quelques fractions de seconde après le Big Bang) où elle est devenue inférieure à celle du champ de Higgs. Ce phénomène a brisé les symétries et certaines particules ont acquis une masse.

L’autre propriété du champ de Higgs est ce qui le rend impossible à observer directement. Il y a en effet plusieurs sortes de champs quantiques, qu’ils soient observés ou hypothétiques. Les champs vecteurs sont comme le vent : ils ont une intensité et une direction. Par conséquent, les bosons vecteurs ont un moment cinétique intrinsèque, le « spin ». Les champs scalaires s’apparentent plutôt à une température : ils ont une intensité, mais pas de direction, et pas de spin. Avant 2012, n’avaient été observés au niveau quantique que des champs vecteurs , par exemple le champ électromagnétique.
« Un champ peut être observé directement, par l’observation d’une particule qui interagit avec lui ; c’est le cas par exemple des électrons, dont la trajectoire est incurvée par la présence d’un champ magnétique, explique F. Monni. Il peut aussi être observé indirectement, par la production de la particule quantique qui lui est associée, en l’occurrence le photon. » L’ennui, c’est que le champ de Higgs, dont la valeur est constamment non nulle, ne peut pas être créé ou supprimé à volonté comme le champ électromagnétique. Pour prouver son existence, la seule possibilité est de créer, et d’observer, le boson de Higgs.
 
 
La bosse de la physique
Pour produire un boson de Higgs, il fallait des collisions de particules à des énergies suffisamment élevées, mais les scientifiques ne savaient pas quelle était la gamme d’énergie à viser.
Ils avaient cherché des signes de l’existence du boson de Higgs dans les collisions effectuées au Grand collisionneur électrons (LEP), prédécesseur immédiat du LHC, ainsi qu’au Tevatron du Fermilab, aux États-Unis. Le LHC avait la capacité d’explorer toute la gamme d’énergies où pouvait se trouver le boson de Higgs d’après la théorie, et on attendait d’ATLAS et de CMS, les deux détecteurs polyvalents auprès du LHC, une réponse définitive à la question de l’existence du Higgs. Pour certains, comme Pier Monni, l’appel du LHC s’est avéré irrésistible, ce qui l’a amené à abandonner une carrière dans l’ingénierie aéronautique pour se consacrer à la physique théorique.

Des collègues et amis de Rebeca Gonzalez Suarez se trouvaient dans les salles de contrôle de CMS et d’ATLAS lorsque le LHC a commencé son exploration des hautes énergies le 30 mars 2010. Elle-même se trouvait dans son bureau, sur le site principal du CERN à Meyrin. « J’étais en train d’écrire ma thèse sur un écran, mais je regardais la retransmission des collisions sur un autre. Je voulais savoir si le code que j’avais écrit pour identifier les particules produites dans les collisions fonctionnait ! »
Quand deux protons entrent en collision au LHC, ce sont les quarks qui les constituent qui interagissent les uns avec les autres. Ces interactions à des énergies élevées peuvent, par des effets quantiques bien théorisés, produire un boson de Higgs, lequel va immédiatement se transformer (« se désintégrer ») en des particules plus légères, susceptibles d’être observées par ATLAS et CMS. Les scientifiques devaient par conséquent accumuler suffisamment d’indices suggérant que les particules repérées pouvaient provenir d’un processus de Higgs et que la désintégration observée en était le résultat.

« Lorsque le programme LHC a commencé, le sentiment général était que le boson de Higgs ne pouvait être trouvé qu’après plusieurs années de collecte de données », raconte Vivek Sharma, qui a co-dirigé la recherche du Higgs à CMS au début de l’exploitation du LHC. Vivek Sharma et ses collègues ont présenté à CMS en septembre 2010 un dispositif permettant d’arriver au résultat avec moitié moins de données. Il fallait pour cela une compréhension fine du détecteur, de ses capacités et de ses limites, mais aussi une équipe comprenant des experts de différents domaines. « Au moment où ATLAS et CMS ont présenté une conférence commune au Comité des directives scientifiques en mars 2011, l’idée que le boson de Higgs pouvait être trouvé avec des ensembles de données plus réduits commençait à faire son chemin », ajoute Vivek Sharma.

En décembre 2011, lors d’un séminaire de fin d’année tenu par ATLAS et CMS, les serveurs web du CERN ont été submergés par les milliers d’internautes avides d’entendre les dernières nouvelles des deux collaborations. Les premiers indices du boson de Higgs étaient là : les deux détecteurs avaient observé dans leurs courbes de données des bosses qui semblaient être autre chose que du bruit ou des fluctuations statistiques. Cependant, ces résultats n’avaient pas atteints le niveau de certitude statistique qui permettaient de revendiquer une découverte. Il faudrait attendre encore près de sept mois avant que Joe Incandela, de CMS, et Fabiola Gianotti, d’ATLAS, puissent faire cette annonce, en juillet 2012. Les collaborations avaient réussi au-delà des espérances et découvert le boson de Higgs sur la base de deux années de données du LHC à peine.
Dans l’amphithéâtre du CERN, Peter Higgs essuyait des larmes de joie, et François Englert rendait hommage à son collègue et collaborateur, Robert Brout, qui n’était plus là pour voir confirmer expérimentalement le mécanisme qui porte son nom.
Rebeca Gonzalez Suarez a vécu l’événement avec des émotions mitigées. Sa recherche post-doctorale l’avait écartée de la recherche du Higgs avant la découverte, puis elle était passé de CMS à ATLAS. « La découverte du boson de Higgs était un événement historique, mais nous n’en sommes qu’au début ; il reste beaucoup à faire pour comprendre cette nouvelle particule ».

 

   DOCUMENT  cern   LIEN

 
 
 
 

L'intelligence artificielle

 


 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017

L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…


A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?
L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.

COMMENT FONCTIONNE LE DEEP LEARNING ?
Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.
Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.

Le test de Turing
Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

 DOCUMENT     cea         LIEN

 
 
 
 

L’impact du climat sur le secteur de l’énergie

 


 

 

 

 

 

L’impact du climat sur le secteur de l’énergie

Le secteur de l’énergie peut être impacté par le climat. Bien maîtriser les données climatiques permet d’estimer les ressources en énergies renouvelables et gérer les conséquences liées à la variabilité météorologique (assurer l’équilibre offre-demande, planifier les opérations de maintenance, …). Ces données permettent également d’anticiper les risques liés à des extrêmes météorologiques. La dépendance du secteur de l’énergie au climat risque d’augmenter dans le contexte actuel de réchauffement climatique.

ESTIMER LES RESSOURCES EN ÉNERGIES RENOUVELABLES


La transition énergétique prévoit une augmentation des énergies renouvelables, peu émettrices de CO2, mais leur production dépend fortement de la météo (sur le court terme) et du climat (sur le long terme).  

Mesurer et prédire les paramètres climatiques tels que la température, le vent, les précipitations est essentiel pour la gestion des ressources en énergie renouvelables.


L'énergie éolienne

Le vent varie fortement dans l’espace et dans le temps. Avant d’investir dans l’installation d’un parc éolien, les producteurs ont besoin de connaître son rendement moyen et sa variabilité selon les jours ou les saisons.  
Lorsque l’installation est opérationnelle, les prévisions de cette vitesse permettent d’anticiper la production.


L'énergie solaire

Le rendement des panneaux photovoltaïques et thermiques dépend principalement du rayonnement solaire qui atteint le sol. Pour obtenir cette valeur, il faut estimer l’atténuation du rayonnement incident par la couverture nuageuse et par les aérosols (petites particules fines en suspension dans l’atmosphère). Evaluer le potentiel solaire nécessite une bonne connaissance de la circulation atmosphérique, de l’humidité de l’air et des particules présentes dans l’atmosphère.  

Par ailleurs, la température constitue un autre paramètre climatique à prendre en compte car le rendement des cellules photovoltaïques diminue avec la température.  


L’énergie hydraulique

Pour déterminer le potentiel énergétique d’un barrage hydroélectrique, il faut connaître la climatologie des précipitations et de l’évaporation à l’échelle du bassin versant et de la rivière car ces deux paramètres climatiques modulent le débit de l’eau et le stock du réservoir.


Les bioénergies
Les précipitations, le rayonnement solaire, l'évaporation et la température influent sur la croissance de la végétation et donc le rendement des biocarburants. Les cultures ont elles-même un impact sur les cycles du carbone, de l’azote et de l’eau, c’est pourquoi une modélisation précise de ces interactions est essentielle pour estimer l’efficacité et le rendement économique de ces sources d’énergie.


Le changement climatique en cours induit des modifications des régimes de pluie, de vent, de la couverture nuageuse et de la température. Ces paramètres climatiques modifiés vont impacter la disponibilité des ressources en énergies renouvelables.


GÉRER LES CONSÉQUENCES
DE LA VARIABILITÉ DU CLIMAT

Le climat connaît des variations sur différentes échelles spatiales et temporelles (variations jour/nuit, été-hiver, d’une année sur l’autre….). Ces variations doivent être gérées par le secteur de l’énergie à plusieurs niveaux.
 
1. Gérer l’équilibre offre-demande
L’offre électrique est impactée directement par la variabilité climatique dès lors qu’elle repose sur des énergies renouvelables dont la production n’est pas pilotable. Elle peut dépendre indirectement du climat pour les autres sources d’énergie.

La demande des consommateurs varie en fonction de la météo. Un pic de consommation est constaté lors des vagues de froid (chauffage) ou de chaleur (climatisation).

Pour éviter les situations de black-out (coupures importantes du courant électrique), les réseaux de transport d’électricité doivent assurer en permanence l’équilibre offre/demande. L’augmentation de la part des énergies renouvelables variables représente donc un défi pour l’équilibrage des réseaux à une échelle qui dépasse souvent celle d’un seul pays. Les périodes de faible production demanderont d’autres ressources pilotables, ou bien l’utilisation d’énergie stockée. Les périodes de forte production associées à une faible demande devront être utilisées pour le stockage ou l’export.


2. Anticiper les prix du marché
Le prix de l’électricité, et de l’énergie en général dépend de l’offre et de la demande. L’estimation des prix et de la gestion du parc de production est un exercice quotidien auquel se livrent les producteurs et les gestionnaires de réseaux. Ils doivent pour cela disposer de prévisions météorologiques précises leur permettant d’estimer les prix. La demande de précision pour ces prévisions sera croissante avec l’augmentation de la part des renouvelables. Essentielles pour le court terme (quelques heures à quelques jours), les prévisions météorologiques sont également intéressantes à une échelle saisonnière, où elles peuvent donner de grandes tendances de l’évolution des prix et des ressources à mettre en œuvre.

3. Planifier les opérations
Les conditions de fonctionnement et de maintenance peuvent dépendre des prévisions météorologiques et climatiques. Quelques exemples :

*         Si les vitesses de vent ne sont pas assez élevées, il peut être intéressant de planifier les travaux de maintenance du parc éolien. En revanche, ces opérations sont à éviter pendant les tempêtes.
*        
*         Couper et transporter les arbres dans certaines régions des pays scandinaves ne peut s’effectuer que sur un sol gelé en hiver ou un sol sec en été. Les véhicules utilisés ne peuvent pas circuler sur les sols marécageux. Il est donc important de prédire avec précision les périodes de dégel selon les zones pour optimiser le déploiement des équipes.  
*        
*         L’installation, la maintenance et le démantèlement des infrastructures off-shore ou côtières, comme des plateformes gaz et pétrolière offshore demandent des prévisions du niveau marin et des probabilités de vagues extrêmes sur des périodes assez longues.


ESTIMER LES RISQUES INDUITS PAR LES EXTRÊMES MÉTÉOROLOGIQUES

Si les événements météorologiques extrêmes sont aujourd’hui peu fréquents, ils peuvent générer de très lourds dégâts économiques et matériels. Le secteur de l’énergie a besoin d’estimer les risques afin de dimensionner correctement les infrastructures ou à défaut anticiper les frais associés.
Quels risques associés aux extrêmes météorologiques ?

*         Extrême météorologique : inondation
*         Risques de submersion des centrales thermiques et des postes électriques
*        
*         Extrême météorologique :  vagues de chaleur 
*         Risque : les circuits de refroidissement des centrales thermiques peuvent être arrêtés et induire un arrêt ou ralentissement de la production de la centrale alors que la demande en électricité pour la climatisation augmente.
*        
*         Extrême météorologique :  vagues de sécheresse 
*         Risque : étiage des rivières impactant le refroidissement des centrales et la production hydraulique
*        
*         Extrême météorologique : fortes intempéries (rafales de vent, pluies verglaçantes…)
*         Risque : dégâts matériels sur les pylônes, les éoliennes
*        
*         Extrême météorologique : vagues de froid
*         Risque : augmentation de la consommation entraînant un risque de rupture du réseau
 

ET DEMAIN ?
Les experts du GIEC sont formels : le climat se réchauffe. Si nous ne souhaitons pas dépasser un réchauffement global supérieur à 2°C d’ici
2 100 (seuil au-delà duquel plusieurs dégâts seraient irréversibles notamment la remontée du niveau marin), il est nécessaire que les énergies bas carbone (énergies renouvelables et nucléaire) atteignent 90% du mix global énergétique d’ici la fin du siècle.

Le secteur de l’énergie doit donc faire face à un double défi, réduire les émissions de gaz à effet de serre en augmentant la part d’énergie bas carbone et gérer la dépendance accrue au climat liée à une part plus importante de renouvelables dans le mix énergétique.


CAS DE LA FRANCE : MIX ÉNERGÉTIQUE ET PART DES ÉNERGIES BAS-CARBONE

Comme dans d’autres pays, la France s’est engagée dans une transition énergétique à moyen terme pour atteindre un objectif de réduction de ses émissions de gaz à effet de serre. Elle a prévu notamment d’orienter son mix énergétique pour le rendre moins carboné, tout en diminuant en parallèle sa consommation énergétique finale. Dans le cadre de cette transition, le mix énergétique de la France conserve un socle nucléaire, qui permet à la France, avec l'énergie hydraulique, de produire massivement une énergie bas carbone.

Pour réduire les gaz à effet de serre, la loi relative à la transition énergétique pour la croissance verte (LTECV), votée en 2015, prévoit notamment :

*         Une baisse importante de la consommation des énergies fossiles (-30% en 2030 par rapport à 2012)
*        
*         Une augmentation de la part des énergies renouvelables dans la consommation finale (23% en 2020,  32% en 2030 dont 40% pour  la  production électrique)
*        
*         D’ici 2050, la diminution de moitié de la consommation énergétique finale de 2012. Cela sous-entend d’agir dans différents secteurs comme celui des bâtiments, de l’industrie, des transports, de l’agriculture.

 

 DOCUMENT     cea         LIEN
 

 
 
 
 

L'ESSENTIEL SUR... Les 4 interactions fondamentales

 


 

 

 

 

 

L'ESSENTIEL SUR...
Les 4 interactions fondamentales


Publié le 19 juillet 2018
 
Quatre interactions fondamentales régissent l’Univers : l’interaction électromagnétique, l’interaction faible, l’interaction nucléaire forte et l’interaction gravitationnelle. Les interactions électromagnétique, forte et faible sont décrites par le modèle standard de la physique des particules, qui est en cohérence avec la physique quantique, tandis que l’interaction gravitationnelle est actuellement décrite par la théorie de la relativité générale. Quelles sont les propriétés de chacune de ces interactions ? Quel est leur impact sur notre quotidien ? Quels sont les enjeux de la recherche sur les interactions fondamentales ?
L’INTERACTION ÉLECTROMAGNÉTIQUE (FORCE ÉLECTROMAGNÉTIQUE)

L’interaction électromagnétique régit tous les phénomènes électriques et magnétiques. Elle peut être attractive ou répulsive : par exemple, deux pôles d’aimants de même signe (« nord » ou « sud ») vont se repousser alors que deux pôles d’aimants de signe opposé vont s’attirer.

Cette interaction est liée à l’existence de charges électriques et est notamment responsable de la cohésion des atomes en liant les électrons (charge électrique négative) attirés par le noyau de l’atome (charge électrique positive).

Le photon est la particule élémentaire associée à l’interaction électromagnétique.

Il est de charge électrique nulle et sans masse, ce qui fait que cette interaction a une portée infinie.

J.C. Maxwell écrit, vers 1864, la théorie de l’électromagnétisme qui explique l’existence d’ondes électromagnétiques (ondes radio, infra-rouge, lumière, ultra-violet, rayons X et gamma). Leur importance n’est plus à démontrer.
Dans la seconde moitié du XXe siècle, cette théorie a été reformulée grâce notamment aux travaux du physicien Feynman sous la forme de l’électrodynamique quantique pour y introduire les concepts quantiques de façon cohérente et qui décrit l’interaction comme un échange de photons.

L’INTERACTION FAIBLE (FORCE FAIBLE)
L’interaction faible est la seule qui agit sur toutes les particules, excepté sur les bosons. Elle est responsable de la radioactivité Bêta, elle est donc à l’origine de la désintégration de certains noyaux radioactifs.

Le rayonnement Bêta est un rayonnement émis par certains noyaux radioactifs qui se désintègrent par l'interaction faible. Le rayonnement β+ (β-) est constitué de positons (électrons) et se manifeste lorsqu’un proton (neutron) se transforme en neutron (proton). Un neutrino (antineutrino) électronique est également émis. Ce rayonnement est peu pénétrant : un écran de quelques mètres d'air ou une simple feuille d'aluminium suffisent pour l’arrêter.

Les particules élémentaires associées à l’interaction faible sont le boson neutre (le Z0) et les deux bosons chargés (les W+ et W−). Ils ont tous une masse non nulle (plus de 80 fois plus massifs qu’un proton), ce qui fait que l’interaction faible agit à courte portée (portée subatomique de l’ordre de 10-17 m).


La datation au carbone 14 est possible grâce à l’interaction faible. Le carbone 14 est un isotope radioactif du carbone qui se transforme en azote 14 par désintégration Bêta moins. Sa période radioactive, temps au bout duquel la moitié de ses atomes s’est désintégrée, est de 5 730 ans.

La technique du carbone 14 permet de dater des objets de quelques centaines d’années à 50 000 ans environ.

LE NEUTRINO


Le neutrino, particule élémentaire du modèle standard, n’est sensible qu’à l’interaction faible.
Le neutrino est un lepton du modèle standard de la physique pouvant prendre trois formes (ou saveurs) : le neutrino électronique, muonique et tauique. Les neutrinos n'ont pas de charge électrique et ont une masse très faible dont on connaît seulement une borne supérieure. Ils se transforment périodiquement les uns en les autres selon un processus appelé "oscillation des neutrinos". N'étant sensibles qu'à l'interaction faible, les neutrinos n'interagissent que très peu avec la matière si bien que pour absorber 50 % d'un flux de neutrinos, il faudrait lui opposer un mur de plomb d'une année-lumière d'épaisseur.


L’INTERACTION NUCLÉAIRE FORTE OU INTERACTION FORTE (FORCE FORTE)
L’interaction forte permet la cohésion du noyau de l’atome. Elle agit à courte portée au sein du proton et du neutron. Elle confine les quarks, particules élémentaires qui composent les protons et neutrons, en couples "quark−antiquark" (mésons), ou dans des triplets de quarks (un ou deux autres (anti) quarks) (baryons). Cette interaction se fait par l'échange de bosons appelés "gluons".

Le gluon est la particule élémentaire liée à l’interaction forte. La charge associée à cette interaction est la "charge de couleur". Lors de l'échange d'un gluon entre deux quarks, ils intervertissent leurs couleurs. L’interaction entre deux quarks est attractive et d’autant plus intense que ceux-ci sont distants l’un de l’autre, et est quasi nulle à très courte distance.

La réaction primordiale de fusion de deux protons en deutéron (un isotope naturel de l’hydrogène dont le noyau contient un proton et un neutron) est un processus dû à l’interaction faible dont le taux gouverne la lente combustion des étoiles. C’est ensuite l’interaction forte qui est à l’œuvre dans les chaînes de réactions nucléaires qui suivent et qui produisent d’autres noyaux.

Cette interaction est notamment responsable des réactions nucléaires qui ont lieu au sein du Soleil.

La réaction de fusion nucléaire

Les quarks portent une charge de couleur qui est à l’interaction forte ce que la charge électrique est pour la force électromagnétique. Un quark peut avoir trois couleurs, appelées par convention rouge, bleu et vert. Un antiquark a l’une des « anticouleurs » correspondantes : antirouge, antibleu et antivert.

Les quarks forment des particules composites « blanches », c’est-à-dire sans charge de couleur. Il y a deux manières de former ces hadrons : soit en combinant un quark et un antiquark dont la couleur et l’anticouleur s’annulent (par exemple rouge et antirouge) ; on parle alors de « méson ». Soit en associant trois quarks porteurs chacun d’une couleur différente ; de telles particules sont appelées « baryons » – par exemple le proton et le neutron.


L'INTERACTION GRAVITATIONNELLE (FORCE GRAVITATIONNELLE)
Dans la vision de la loi de la gravitation universelle de Newton, l’interaction gravitationnelle est celle qui agit entre des corps massifs. La force est attractive. La pesanteur et les mouvements des astres sont dus à la gravitation.

    
Dans le cadre de la relativité générale, la gravitation n’est pas une force mais une manifestation de la courbure de l’espace-temps. La gravitation ne fait pas partie du modèle standard, elle est décrite par la relativité générale. Elle se définit par la déformation de l’espace-temps.


La gravitation est la plus faible des quatre interactions fondamentales. Elle s'exerce à distance et de façon attractive entre les différentes masses. Sa portée est infinie.

La première théorie la décrivant efficacement est celle de Newton en 1687. Pesanteur, mouvements planétaires, structure des galaxies sont expliqués par la gravitation. En 1915, elle est remplacée par la théorie de la relativité générale d’Einstein qui sert de cadre à la description de l’Univers entier et où les masses déforment l’espace-temps au lieu d’y exercer des forces à distance.

A ce jour, on ne sait pas décrire l’interaction gravitationnelle par la mécanique quantique, et on ne lui connaît aucun boson médiateur.

Au niveau théorique, la gravitation pose problème car on ne sait pas la décrire à l’aide du formalisme de la «  théorie quantique des champs  », utilisé avec succès pour les trois autres interactions. L’hypothétique graviton serait la particule médiatrice de la gravitation dans une description quantique de cette interaction.


PORTÉE DE L'INTERACTION ENTRE DEUX CORPS
La masse du boson vecteur (ou médiateur) va définir la portée de l’interaction. Imaginez deux particules en interaction comme deux personnes se lançant une balle, représentant le boson vecteur : plus la balle est légère, plus ils peuvent la lancer loin. Par analogie, plus le boson vecteur est léger, plus la portée de l’interaction est grande.

Type    Particules médiatrices (bosons vecteurs)     Domine dans :
Force forte    Gluons     Noyau atomique
Force électromagnétique    Photon    Électrons entourant le noyau
Force faible     Boson Z0, W+, W-     Désintégration radioactive bêta
Gravitation    Graviton ? (pas encore observé)    Astres


LA THÉORIE DU TOUT : VERS L'UNIFICATION DES INTERACTIONS FONDAMENTALES ?
L’objectif des recherches est de trouver une théorie qui expliquerait simultanément les quatre interactions fondamentales.

L’unification des quatre interactions fondamentales fait partie des axes de recherche principaux de la physique des particules. Une première étape a été franchie il y a une trentaine d’années avec l’unification de l’interaction faible et de la force électromagnétique dans un même cadre : l’interaction électrofaible. Celle-ci se manifeste à haute énergie – environ 100 GeV. La suite logique de ce processus est d’y ajouter l’interaction forte. Mais, si convergence il y a, elle ne devrait se manifester qu’à des échelles d’énergie encore bien plus élevées (1015 ou 1016 GeV), totalement hors de portée des expériences actuelles. L’étape ultime, l’ajout de la gravité à ce formalisme, est encore plus éloignée et se heurte à des problèmes mathématiques non résolus pour le moment.

La théorie des cordes et la théorie de la gravitation quantique à boucles sont les deux cadres théoriques les plus étudiés aujourd’hui.

Les théories de dimensions supplémentaires, dont la théorie des cordes, ont été initialement proposées pour résoudre le problème de l’extrême faiblesse de la gravité. L’une des réponses serait que seule une petite fraction de la force gravitationnelle n’est perceptible, le reste agissant dans une ou plusieurs autres dimensions. Ces dimensions, imperceptibles, seraient courbées et non plates comme les quatre connues de l’espace et du temps.

Les cordes seraient des petits brins d’énergie en vibration qui seraient reliées dans plusieurs « branes » (des cordes qui se seraient étirées et transformées en grandes surfaces).  Les branes seraient comme des barrières entre plusieurs dimensions, jusqu’à 10, mais ces dimensions supplémentaires nous sont invisibles.

Toute la physique fondamentale serait unifiée, c’est-à-dire la mécanique quantique avec la relativité générale.

La gravité quantique à boucles a pour but de quantifier la gravitation. Elle a notamment pour conséquences que le temps et l’espace ne sont plus continus, mais deviennent eux-mêmes quantifiés (il existe des intervalles de temps et d’espace indivisibles). La gravité quantique à boucles cherche à combiner la relativité générale et la mécanique quantique directement, sans rien y ajouter.

Cependant, à ce jour, aucune théorie unique ne peut expliquer de façon cohérente toutes les interactions.

 

     DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solf�ge - Harmonie - Instruments - Vidéos - Nous contacter - Liens - Mentions légales /confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google