Accueil > 02 - SCIENCES - SCIENCE > Atome : La rétroaction de la matière/lumière et du vide (de la (...) > Qu’est-ce que la quantification en physique ?

Qu’est-ce que la quantification en physique ?

samedi 22 octobre 2016, par Robert Paris

Qu’est-ce que la quantification en physique ?

Nous verrons ainsi quelles sont les diverses étapes de la quantification de la physique car celle-ci s’est produite par couches successives (lumière, puis matière, puis interactions, puis vide, par exemple) ?

La quantification de la physique, c’est un peu une manière de dire que les grandeurs physiques ne sont pas vraiment des quantités continues même si elles le semblent, c’est-à-dire mesurables à l’aide des nombres dits réels, mais reposent, au contraire, plutôt sur les nombres entiers ! On imagine bien qu’une telle idée ait été un choc important, y compris pour ses découvreurs… On est en effet habitués à mesurer par des nombres réels des longueurs, des vitesses, des énergies qui nous apparaissent comme des quantités continues. La physique quantique nous dit en somme que ce sont des illusions dues notamment à la petitesse de la quantité fondamentale dont les autres seraient des multiples entiers.

« L’hypothèse des quanta voulait dire cette chose étrange que le mouvement des atomes n’évolue pas continûment mais par bonds discontinus : comme si une fusée ne pouvait s’élever progressivement au-dessus de la Terre (…) Einstein avait émis (en 1905), à partir des travaux de Planck, une hypothèse encore plus paradoxale que la sienne : il supposa que si les atomes absorbent et émettent de l’énergie lumineuse par paquets, par quanta, c’est que ces quanta se trouvent déjà dans la lumière : autrement dit, les ondes lumineuses continues transportent leur énergie sous forme discontinue, concentrée dans des corpuscules de lumière, qu’on appela photons. » rapportent les physiciens Lochak, Diner et Farge dans « L’objet quantique ».

D’une manière générale, on dira qu’une grandeur physique est quantifiée si l’ensemble de ses valeurs caractéristiques forme un spectre discontinu de valeurs discrètes. C’est donc une propriété de discontinuité qui empêche une telle grandeur physique de prendre continûment toutes les valeurs intermédiaires entre des multiples entier d’un quantum.

Tout est désormais quantifié en physique : énergie, matière, lumière, interactions, vide. Cela signifié que tout existe en nombre entier de quanta, chaque quantum prenant toujours la même valeur d’une quantité qui n’est ni de l’énergie, ni de la puissance, ni de la masse, ni de la charge mais d’une grandeur que l’on appelle de l’action et dont la valeur unitaire s’appelle le quanta de Planck, en hommage au fondateur des débuts de la physique quantique.

Voilà un premier paradoxe d’une science qui n’en manque pas, et qui ne manque pas de contradictions dialectiques, sans avoir jamais été prise en défaut de contradiction diamétrale pourtant.

En effet, on nous dit là que la matière (d’ailleurs inerte comme vivante) est fondée sur les quanta, et les mêmes quanta que la lumière, l’énergie, les interactions, l’électromagnétisme, le nucléaire, tout en somme ! Même le vide est quantique !

Tout est quantique et pourtant, ce « tout » n’est pas une seule et même chose : la lumière n’est pas la matière, la matière n’est pas l’interaction, la matière n’est pas le vide, la matière vivante n’est pas identique à la matière inerte.

Pire même, si l’on peut dire, l’unité de la grandeur « quantum » n’est pas une grandeur commune, ce n’est ni de l’énergie, ni de la masse, ni de la charge électrique, du moment mécanique, ni du moment magnétique, ni de la puissance, ni de la force, ni de l’accélération, ni de la vitesse, ni aucune des grandeurs couramment évoquées.

Mais alors un quanta de Planck, cela se mesure dans quelle unité, c’est quel type de grandeur ?

Eh bien, c’est le produit d’une énergie et d’un temps ! En physique, ce type de grandeur s’appelle une « action ». Que connaissons-nous comme paramètres qui sont mesurables en « action » ? Eh bien, le moment cinétique de rotation est une action. D’ailleurs le moment cinétique est quantifié (par exemple le moment cinétique orbital de l’électron) ! L’action est aussi homogène au produit d’une masse, du carré d’une longueur divisé par un temps. L’action est ainsi une mesure du moment angulaire des particules. Pour donner une idée de ce moment angulaire qu’est l’unité de Planck notée h, disons que la rotation de la Terre correspond à 1068 unités de Planck !!! (dix multiplié par lui-même soixante huit fois…)

Cohen-Tannoudji expose dans « Matière-Espace-Temps », ce qu’est le quantum d’action :

« C’est sous la forme du quantum d’action h qu’apparaît le discontinu dans la physique de l’élémentarité. S’il est vrai qu’il fallait bien s’attendre à une telle apparition (puisque l’hypothèse atomiste implique l’existence d’entités irréductibles, insécables), il faut bien reconnaître que le discontinu n’apparaît pas là où on l’attendait. L’existence du quantum d’action marque une limite à la divisibilité de la matière, mais ce qui est insécable, ce n’est pas une chose, c’est une action… L’existence d’une perturbation minimum introduite par la mesure se traduit par le fait que c’est l’action dA = dExdT qui ne peut pas être rendue arbitrairement petite. S’il en est ainsi, dE peut être rendue arbitrairement petite mais à condition que dT soit augmentée en proportion inverse. Réciproquement, dT peut être rendue arbitrairement petite mais alors dE doit être accrue. Mais si l’action dA ne peut être rendue arbitrairement petite, c’est qu’il existe une quantité d’action, un quantum d’action, qui est la nouvelle constante universelle, qui représente le minimum absolu de toute action. Telle est la signification fondamentale de la constantes découverte par Planck, h… »

Comment passe-t-on de l’action aux autres grandeurs, à la matière, à la lumière, à l’énergie, à l’interaction et au vide quantique ?

L’énergie est égale au produit de la fréquence par l’élément d’action.

Bien d’autres grandeurs sont, du coup, quantifiées. On a parlé du moment cinétique de rotation. Mais c’est vrai aussi de l’énergie d’interaction du système avec le champ magnétique.

Une grandeur quantifiée qui aura une importance considérable est le moment cinétique intrinsèque de la particule ou spin qui sera directement relié à la constante de Planck h par un facteur entier ou demi entier.

Première quantification

1- La découverte des quanta

Dans « Mécanique quantique » de Jean-Louis Basdevant et Jean Dalibard, on peut lire :

La naissance de la physique quantique s’est produite le 14 décembre 1900, lorsque Planck, devant la Société Allemande de Physique, proposa une formule simple en parfait accord avec les expériences sur le spectre du rayonnement du corps noir. Planck avait d’abord obtenu son résultat à partir d’arguments empiriques, mais s’était aperçu qu’on pouvait déduire le point central de son argumentation à partir de la thermodynamique statistique en faisant l’hypothèse curieuse que des oscillateurs mécaniques chargés, de fréquence ν, ne pouvaient émettre ou absorber de l’énergie lumineuse que par quantités discrètes (des « quanta » d’énergie nhν). Planck comprit que le quantum d’action h, est une constante fondamentale : h = 6, 6261 10−34 J s .

Henri Poincaré écrit dans « Leçons sur le rayonnement thermique » : « L’hypothèse des quanta d’action consiste à supposer que ces domaines, tous égaux entre eux ne sont plus infiniment petits, mais finis et égaux à h, h étant une constante. »

Le premier domaine où on a évoqué les quanta est donc la lumière et c’est Einstein qui a été au bout de cette démarche de Planck en fondant le photon, cette particule qui, pour une lumière de fréquence ν ou de pulsation ω, a une énergie :

E = hν = hω/2pi = 1, 0546 10−34 J s..

Comme on le voit, l’énergie n’est pas un quanta mais un quanta multiplié par une fréquence ν.

Comme une fréquence est l’inverse d’un temps, on retrouve bien qu’énergie fois temps est homogène à l’action h.

Les résultats obtenus à la fin du XIXe et au début du XXe siècle sur le rayonnement du corps noir sont reproduits théoriquement par Max Planck en 1900 en supposant que la matière interagissant avec une onde électromagnétique de fréquence ν ne peut recevoir ou émettre de l’énergie électromagnétique que par paquets de valeur bien déterminée égale à hν – ces paquets étant appelés des quanta.

Puisque les équations de Maxwell autorisent n’importe quelle valeur de l’énergie électromagnétique, la plupart des physiciens pensaient initialement que cette quantification de l’énergie échangée était due à des contraintes encore inconnues sur la matière qui absorbe ou émet la lumière. En 1905, Einstein fut le premier à proposer que la quantification de l’énergie soit une propriété de la lumière elle-même. Bien qu’il ne remette pas en cause la validité de la théorie de Maxwell, Einstein montre que la loi de Planck et l’effet photoélectrique pourraient être expliqués si l’énergie de l’onde électromagnétique était localisée dans des quanta ponctuels qui se déplaçaient indépendamment les uns des autres, même si l’onde elle-même était étendue continument dans l’espace. Dans son article, Einstein prédit que l’énergie des électrons émis lors de l’effet photoélectrique dépend linéairement de la fréquence de l’onde. Cette prédiction forte sera confirmée expérimentalement par Robert Millikan en 1916, ce qui lui vaudra – parallèlement à ses expériences sur les gouttes chargées – le prix Nobel de 1923. En 1909 et en 1916, Einstein montre que, si la loi de Planck du rayonnement du corps noir est exacte, les quanta d’énergie doivent également transporter une impulsion p = h / λ, ce qui en fait des particules à part entière. L’impulsion du photon a été mise en évidence expérimentalement par Arthur Compton, ce qui lui valut le prix Nobel de 1927.

« Mr Einstein a eu, en 1905, l’idée très remarquable que les lois de l’effet photoélectrique indiquent l’existence pour la lumière d’une structure discontinue où les quanta interviennent. ( …) La nature essentiellement discontinue de la quantification, exprimée par l’apparition dans les formules de nombre entiers, les nombres quantiques, présentait un étrange contraste avec la nature continue des mouvements envisagés par la dynamique ancienne, newtonienne ou einsteinienne. » écrit Louis de Broglie dans « La physique nouvelle et les quanta ».

« S’il fallait caractériser l’idée principale de la théorie des quanta, nous dirions : il est nécessaire de supposer que certaines quantités physiques, regardées jusqu’à présent comme continues, sont composées de quanta élémentaires » rapporte Einstein dans « L’évolution des idées en physique ».

Einstein déclarait également au premier conseil de physique Solvay de 1911 : « Ces discontinuités qui rendent la théorie de Planck si difficile à accepter semblent vraiment exister dans la nature. »

« L’onde continue (…) ne comportant aucune région singulière (…) ne décrit pas vraiment la réalité physique. » explique Louis de Broglie dans « Nouvelles perspectives en Microphysique.

« La portée vraiment universelle de la découverte de Planck et Einstein (celle des quanta) lui vient de ce que le caractère discontinu n’affecte pas seulement le rayonnement le rayonnement électromagnétique mais encore l’ensemble des interactions : dans tout l’univers, il n’y a pas d’interaction qui ne mette en jeu une action au moins égale à la constante de Planck h. (…) L’irruption du discontinu dans l’action nous contraint à renoncer définitivement à une description causale et déterministe des processus mettant en jeu des actions du même ordre de grandeur que le quantum d’action. L’absorption ou l’émission d’un photon par un atome qui change de niveau d’énergie, la désintégration spontanée d’un noyau radioactif ou d’une particule instable, une réaction particulaire provoquée dans une expérience auprès d’un accélérateur sont des processus que nous devons renoncer à décrire individuellement de manière déterministe. Il nous faut les intégrer à des ensembles statistiques descriptibles en termes de probabilités. (…) Comme l’a dit Léon Rosenfeld, « probabilité ne veut pas dire hasard sans règle, mais juste l’inverse : ce qu’il y a de réglé dans le hasard. Une loi statistique est avant tout une loi, l’expression d’une régularité, un instrument de prévision. » explique Gilles Cohen-Tannoudji dans son article « Le réel, à l’horizon de la dialectique » de « Sciences et dialectiques de la nature » (ouvrage collectif – La Dispute).

C’est Louis de Broglie qui devait d’abord dévoiler un pan du mystère en découvrant, de même que l’on avait découvert un comportement corpusculaire de la lumière, que les particules de matière avaient un comportement ondulatoire.

L’expérience fondamentale qui prouve le comportement ondulatoire des particules, prévu par Louis de Broglie en 1923, date de 1927. Elle est due à Davisson et Germer, qui mirent en évidence la diffraction d’un faisceau d’électrons par un cristal de nickel.

L’expérience des fentes de Young, en permettant de vérifier que les interférences concernent aussi bien matière que lumière, prouvait également que des particules de matière ou de lumière arrivant indépendamment, une par une, produisent également des franges d’interférences. Cela devait démontrer le caractère commun de la lumière et la matière, à la fois ondulatoire et corpusculaire : arrivant par grains discrets sur les écrans et formant cependant ces franges tantôt lumineuses tantôt pâles, caractéristiques des ondes.

Une troisième expérience fut déterminante pour la physique quantique : celle de Davisson et Germer…

On irradie un cristal avec un faisceau (quasi-) monochromatique de rayons X, c’est-à-dire une onde électromagnétique de longueur d’onde λ entre 0,01 nm et 1 nm. Plaçant au-delà du cristal une plaque photographique, on observe, en plus d’une tache centrale correspondant à des rayons X non déviés après traversée du cristal, des taches séparées, intersections de la plaque par des faisceaux diffractés.

L’expérience de Davisson-Germer a fourni une preuve critique qui confirme l’hypothèse de De Broglie postulant que les particules, comme les électrons, pouvaient se comporter comme des ondes (dualité onde-corpuscule). De manière plus générale, elle a aidé à étayer l’acceptation de la mécanique quantique et de l’équation de Schrödinger.

Dans cette expérience, la dépendance angulaire de l’intensité électronique réfléchie a été mesurée, et sa figure de diffraction a été identifiée comme identique à celle prédite par William Henry Bragg et William Lawrence Bragg pour les rayons X. Cette expérience, comme celle d’Arthur Compton prouvant la nature particulaire de la lumière, appuya l’hypothèse de De Broglie sur la nature ondulatoire de la matière, et compléta l’hypothèse de dualité onde-particule, qui fut une étape fondamentale dans la construction de la théorie quantique.

2- Première quantification

Il convient tout d’abord de parler du modèle de l’atome de Bohr puis de l’équation de Schrödinger.

La seconde étape se situe pendant les années 1912–1914. Niels Bohr, en cherchant un modèle cohérent de la structure des atomes, effectue la synthèse entre le principe de combinaison des raies spectrales de Ritz, le modèle atomique de Rutherford (qui venait, en 1911, de découvrir l’existence du noyau), et les quanta de Planck et Einstein. Bohr postule que les énergies des édifices atomiques et moléculaires n’adoptent que des valeurs discrètes, et que l’émission ou l’absorption de lumière par ces édifices ne se fait que pour certaines fréquences lumineuses bien précises :

νif = |Ei − Ef |/h

où Ei et Ef sont les énergies du systeme avant et aprés l’émission (ou l’absorption). Ayant eu fortuitement connaissance de la formule empirique de Balmer, Bohr devine une regle de quantification des énergies et développe en quelques semaines son célèbre modèle de l’atome d’hydrogène. Le mécanisme de l’émission et de l’absorption de la lumière restait obscur dans la théorie de Bohr.

Cela commence la quantification des niveaux d’énergie de la matière, niveaux d’excitation et de désexcitation de l’atome par exemple. voir ici

Dans le modèle de Bohr, l’électron suit un mouvement de type planétaire (trajectoire circulaire plane) autour du noyau. Cet électron est soumis à la force électrostatique Fe générée par le noyau.

Dans l’équation de Bohr, l’énergie est une fonction continue de r (à chaque r correspond une énergie E). Or les spectres sont discontinus : nécessité de nouvelles hypothèses mécaniques.

Le modèle de Bohr est vite limité puisqu’il ne peut tenir compte de la répulsion inter-électronique au sein de l’atome.

Et surtout, cette théorie ne peut expliquer le spectre d’éléments à plusieurs électrons (comme celui de l’hélium), ni la nature des liaisons chimiques.

https://fr.wikipedia.org/wiki/Quantification_(physique)

Seconde quantification

C’est en 1927 que Dirac introduit la quantification des champs qui remplace le principe de complémentarité de Bohr. L’énergie du champ est désormais quantifiée, l’état du champ cessant d’évoluer continûment. Chaque quantum du champ représente dès lors une particule.

La seconde quantification consiste à quantifier les interactions entre particules et plus seulement les particules elles-mêmes. Comme les interactions se déplacent à la vitesse de la lumière, cela revient à considérer que la quantification doit être relativiste. On en arrive ainsi à considérer que tout se passe dans un espace où le nombre de bosons n’est pas fixe. Cet espace permet des créations et annihilations de bosons qui sont des couples particule/antiparticule virtuels du vide, mais aussi des créations et annihilations de fermions, dans la mesure où, en relativité, matière et énergie s’échangent.

C’est donc la première introduction de la relativité d’Einstein en physique quantique qui allait mener à la seconde quantification.

Pour étudier de manière plus poussée :

La seconde quantification

Encore la seconde quantification

Toujours la seconde quantification

Enfin sur la seconde quantification

Cohen-Tannoudji explique dans « Matière-Espace-Temps » :

« Déjà en première quantification, la théorie quantique du moment cinétique est à l’origine de nombreux effets nouveaux. Le moment cinétique a le contenu dimensionnel d’une action. On s’attend donc que chaque composante du moment cinétique ne puisse prendre comme valeur qu’un multiple entier du quantum d’action h. Cela signifie que les opérateurs associés aux composantes du moment cinétique ont des valeurs propres qui sont des multiples entiers de h. En fait, lorsqu’on établit de manière précise la théorie quantique du moment cinétique, on trouve que ces valeurs propres peuvent être des multiples demi entiers de h. Ce fait peut paraître paradoxal car il suggère l’existence d’un demi quantum d’action. Mais ce paradoxe est levé grâce à l’introduction du concept de « spin » ou moment cinétique intrinsèque. Il est possible en effet d’étendre à la relativité quantique la loi de conservation du moment cinétique, à condition d’attribuer à chaque particule un moment cinétique intrinsèque (aussi appelé spin). Mais, alors que le moment cinétique orbital (il s’agit du moment angulaire relatif pour un système d’au moins deux particules) est toujours entier, le spin peut être demi entier (dans les unités où h = 1). Le spin (qu’il soit entier ou demi entier) est un concept purement quantique : classiquement, le moment angulaire intrinsèque d’une particule ne peut être que nul. (…) Grâce à la loi de conservation du moment cinétique, il n’y a pas de problème de « demi-quantum d’action » : si, dans une transition, le moment cinétique est demi entier dans l’état initial, il l’est dans l’état final et, donc, toute interaction implique un multiple nécessairement entier du quantum d’action. Cette loi de conservation du caractère demi entier du moment cinétique suggère que les particules de spin demi entier renferment une propriété en quelque sorte indestructible. De fait, les particules de matière, les fermions, sont toutes de spin demi entier, alors que les quanta des champs d’interaction, les bosons, sont des particules de spin nul ou entier. »

Lire ici sur le spin

Troisième étape : théorie quantique des champs, intégrale de chemin, diagrammes de Feynman, vide quantique, renormalisation, électrodynamique quantique (QED) et chromodynamique quantique (QCD)

La théorie quantique des champs est utilisée dans plusieurs contextes ; la physique des particules élémentaires est l’exemple le plus typique, dans les situations où le nombre de particules entrantes fluctue et diffère du nombre sortant, mais elle permet aussi la description quantique des phénomènes critiques et des transitions de phase, et intervient également dans la théorie de la supraconductivité. La théorie quantique des champs est considérée généralement comme la seule façon correcte de combiner les règles de la mécanique quantique avec celles de la relativité restreinte.

L’utilisation de la théorie de la perturbation amène à considérer les forces entre les particules comme provenant en fait d’échanges d’autres particules, appelées médiateurs. Ainsi, la force électromagnétique entre deux électrons est causée par un échange de photons, les bosons W et Z sont les médiateurs de l’interaction faible, et les gluons ceux de l’interaction forte. Il n’y a pas actuellement de théorie quantique complète de la dernière des forces fondamentales, la gravité, mais beaucoup de théories revendiquent l’existence d’une particule appelée graviton qui en serait le médiateur. Ces médiateurs sont des particules virtuelles et, par définition, ne peuvent pas être détectées lors de la manifestation de la force.

Les photons QFT ne sont pas considérés comme des « petites boules de billard » ils sont considérés comme des champs quantiques – nécessairement coupés en ondulations dans un champ, ou des « excitations », qui ’ressemblent’ à des particules. Le fermion, comme l’électron, peut seulement être décrit comme des ondulations/excitations dans un champ, quand chaque sorte de fermion a son propre champ. En résumé, la visualisation classique de « tout est particules et champ », dans la théorie quantique des champs, se transforme en « tout est particules », puis « tout est champs ». à la fin, les particules sont considérées comme des états excités d’un champ (champ quantique).

Les débuts de la théorie quantique des champs

Le premier succès de la théorie quantique des champs fut la QED ou électrodynamique quantique de Feynman.

L’électrodynamique quantique est une théorie quantique des champs de l’électromagnétisme. Elle décrit l’interaction électromagnétique des particules chargées et a été appelée le « bijou de la physique » pour ses prédictions extraordinairement précises dans la détermination théorique de quantités (mesurées par ailleurs) telles que l’anomalie de moment magnétique des leptons, ou encore le décalage de Lamb des niveaux d’énergie de l’hydrogène.

Physiquement, cela signifie que les particules chargées interagissent par l’échange de photons.

L’électrodynamique quantique fut la première théorie quantique des champs dans laquelle les difficultés pour élaborer un formalisme purement quantique permettant la création et l’annihilation de particules ont été résolus de façon satisfaisante

Richard Feynman allait développer l’électrodynamique quantique relativiste, à savoir l’étude des interactions électromagnétiques entre particules (chargées) relativistes. Paul Dirac en avait jeté les premières bases, en donnant une description exacte des particules de spin 1/2 (fermions) et en proposant une équation qui prédisait leur comportement, ainsi que celui de leurs antiparticules. On doit à Feynman une formulation lagrangienne de l’électrodynamique quantique, ainsi qu’une technique perturbative, permettant de calculer les sections efficaces d’interaction entre particules. Pour calculer sans se tromper chaque terme du développement perturbatif, Feynman proposa une technique diagrammatique (les diagrammes de Feynman) utilisée de nos jours dans de nombreux domaines.

À partir des diagrammes d’un petit système de particules interagissant dans l’espace-temps, Feynman pouvait maintenant modéliser toute la physique en termes de spins de ces particules et de valeurs de couplages des forces fondamentales.

Cohen-Tannoudji expose ainsi dans « Matière-Espace-Temps » :
« A l’aide du boson d’interaction, il devient possible d’étudier les niveaux d’élémentarité plus profonds que le niveau atomique. L’échange du boson virtuel entre deux fermions peut être considéré comme le processus élémentaire, le quantum d’interaction entre deux quanta de matière. Le boson virtuel échangé dans l’interaction électromagnétique est le photon. Le diagramme de Feynman permet de visualiser les caractéristiques de ce processus…. »

Un diagramme de Feynman est un outil inventé pour réaliser les calculs de diffusion en théorie quantique des champs. Les particules sont représentées par des lignes, qui peuvent être dessinées de plusieurs façons en fonction du type de particule représenté. Un point où des lignes se connectent est appelé sommet d’interaction, ou simplement sommet, ou encore vertex. Les lignes peuvent être de trois catégories : les lignes internes (qui connectent deux sommets), les lignes entrantes (qui s’étendent depuis « le passé » vers un sommet et représentent un état initial non interactif) et les lignes sortantes (qui s’étendent depuis un sommet vers « le futur » et représentent un état final non interactif). Habituellement le bas du diagramme représente le passé et le haut du diagramme représente le futur.

Les diagrammes de Feynman sont une représentation graphique d’un terme dans la décomposition perturbative d’une amplitude de diffusion pour l’expérience définie par les lignes entrantes et sortantes. Dans certaines théories quantique des champs (notamment l’électrodynamique quantique), on peut obtenir une excellente approximation de l’amplitude de diffusion à partir de quelques termes de la décomposition en perturbations, correspondant à quelques diagrammes de Feynman simples avec les mêmes lignes entrantes et sortantes connectées par différents sommet et lignes internes.

Une intégrale de chemin (« path integral » en anglais) est une intégrale fonctionnelle, c’est-à-dire que l’intégrant est une fonctionnelle et que la somme est prise sur des fonctions, et non sur des nombres réels (ou complexes) comme pour les intégrales ordinaires. On a donc ici affaire à une intégrale en dimension infinie. Ainsi, on distinguera soigneusement l’intégrale de chemin (intégrale fonctionnelle) d’une intégrale ordinaire calculée sur un chemin de l’espace physique, que les mathématiciens appellent intégrale curviligne.

C’est Richard Feynman qui a introduit les intégrales de chemin en physique dans sa thèse, soutenue en mai 1942, portant sur la formulation de la mécanique quantique basée sur le lagrangien. La motivation originale provient du désir d’obtenir une formulation quantique de la théorie de l’absorbeur de Wheeler et Feynman à partir d’un lagrangien (plutôt que d’un hamiltonien) comme point de départ. Cet outil mathématique s’est rapidement imposé en physique théorique avec sa généralisation à la théorie quantique des champs, permettant notamment une quantification des théories de jauge non-abéliennes plus simple que la procédure de quantification canonique.

Le problème de l’indépendance de l’énergie de l’électron était déjà un problème sérieux dans la théorie classique du champ électromagnétique, la tentative d’attribuer une taille finie ou étendue à l’électron (le rayon classique de l’électron) a mené immédiatement à la question en quoi les contraintes du non électromagnétisme devait être invoquées, qui porterait sans doute l’électron ensemble pour contrecarrer la répulsion de Coulomb dû à sa taille finie. La situation était désastreuse, et a rappelé certains traits de la « difficulté de Rayleigh-Jeans ». Ce qui a fait que la situation des années 1940 soit si désespérée et sombre, cependant, le fait était que les ingrédients (la seconde équation du champ quantisé de Maxwell-Dirac) pour la description théorique des photons et des électrons en interaction était bien en place, et aucun changement conceptuel majeur n’était nécessaire pour celle-ci, qui a nécessité un comptage physiquement minutieux du comportement radioactif des objets chauds, comme prévu par la loi de radiation de Planck. Ce « problème de divergence » a été résolu dans le cas de l’électrodynamique quantique durant la fin des années 1940 et le début des années 1950 par Hans Bethe, Tomonaga, Schwinger, Feynman et Dyson, à travers la procédure connue sous le nom de « renormalisation ».

Un grand progrès a été réalisé après avoir remarqué que tous les infinis dans l’électrodynamique quantique sont liés par deux effets : l’énergie propre de l’électron/positron et la polarisation du vide. La renormalisation est l’affaire de faire très attention à ce que l’on veut dire par, par exemple, les concepts de « charge » et de « masse » en apparaissant tels quels, dans les champs d’équations « non-interagissant ». Le « vide » est lui-même polarisable et, d’où, peuplé de paires de particules virtuelles (sur le cosse et dedans), et, d’où, est un système dynamique bouillonnant et chargé. Ceci était une étape cruciale dans l’identification de la source des « infini » et des « divergences ». La « masse nette » et la « charge nette » d’une particule, les valeurs qui apparaissent dans le champ libre d’équations (non interagissant dans ce cas), sont des abstractions qui sont simplement non détectées dans l’expérimentation (dans l’interaction). Ce que nous mesurons, et donc, ce que nous devons prendre en compte de nos équations, et quelles solutions nous devons prendre en compte, sont la masse « renormalisée » et la « charge renormalisée » de la particule. C’est-à-dire, les valeurs, ces quantités doivent inclure, quand les précautions sont prises tous les écarts par rapport à leur « valeurs nettes » dictée par la nature même des champs quantiques.

Michel Paty dans « Nouveaux voyages au pays des quanta » :

« L’électron interagit avec les « paires virtuelles » de son propre champ électromagnétique. (…) Le vide quantique contient de telles paires virtuelles et cet effet a été observé sous le nom de « polarisation du vide ». L’électron se trouve interagir avec la charge d’un des éléments de la paire virtuelle, en sorte qu’un électron quantique n’est jamais « nu » mais « habillé » d’un essaim ou nuage de paires virtuelles qui polarisent son environnement immédiat et modifient, par voie de conséquence, ses niveaux d’énergie. (…) La procédure dite de renormalisation considère que la masse et la charge physique de l’électron sont celles de l’électron « habillé » et non celles de l’électron « nu ». Ce dernier n’existe pas réellement, puisqu’il est toujours impensable sans son champ. »

Victor Weisskopf dans « La révolution des quanta » :

« En 1927, Dirac, en cherchant l’équation qui serait capable de rendre compte du comportement de l’électron et satisferait tout à la fois à la théorie quantique et à la théorie de la relativité einsteinienne, (…) s’aperçut qu’il y avait une autre solution (que l’électron) de charge positive. (…) Chaque fois qu’on construit une théorie quantique relativiste pour décrire une particule, la théorie fait apparaître la nécessité de postuler une « antiparticule » symétrique, de charge opposée. Ces antiparticules forment ce qu’on appelle l’antimatière, dénuée de tout le mystère dont on entoure parfois son nom : ce n’est en fait rien qu’une autre forme de la matière, composée d’antiparticules ayant des charges opposées à celles des particules ordinaires. (…) Dirac, tirant les conclusions de la découverte du positron (antiparticule de l’électron), put proposer une description toute nouvelle du vide. Jusqu’alors, on s’était représenté le vide comme réellement vide, on aurait extrait toute forme de matière et de rayonnement, ne contenait strictement rien, et, en particulier, aucune énergie. C’est à Dirac que l’on doit d’avoir, en deux étapes, repeuplé le vide et fait en sorte que le vide ne soit plus vide. »

Werner Heisenberg dans « La partie et le tout, Le monde de la physique atomique » :

« Un quantum de lumière qui passe à côté d’un noyau atomique peut se transformer en une paire de particules : un électron et positron. Est-ce que cela signifie, en fait, que le quantum de lumière se compose d’un électron et d’un positron ? (…) On peut dire, peut-être, que le quantum de lumière se compose « virtuellement » d’un électron et d’un positron. Le mot « virtuellement » indique qu’il s’agit là d’une possibilité. (…) Le quantum de lumière se compose aussi virtuellement de quatre particules (deux électrons et deux positrons) et ainsi de suite. (… ) On pourrait dire, dans ce cas, que chaque particule élémentaire se compose virtuellement d’un nombre quelconque d’autres particules élémentaires. Car, si l’on envisage des collisions extrêmement énergétiques, un nombre arbitraire de particules (en fait autant de particules et d’antiparticules) pourra être créé dans ces collisions. (…) Peut-être existe-t-il encore de très nombreuses particules élémentaires que nous ne connaissons pas encore parce que leur durée de vie est trop courte. (…) On peut alors faire comme si la particule élémentaire se composait d’un grand nombre d’autres particules élémentaires, éventuellement diverses. (…) La particule élémentaire n’est en fait plus élémentaire ; elle constitue, au moins virtuellement, une structure très compliquée. (…) Etant donné que la durée de vie de ces nouvelles structures paraît plus brève que celle de toutes les particules élémentaires connues jusque-là, il peut exister encore de nombreuses autres particules de cette sorte, particules qui ont échappé jusque-là à l’observation grâce à une durée de vie encore plus courte que celle du méson pi. »

Maurice Jacob dans « Au cœur de la matière » :

« Le vide est animé par la création continuelle et la disparition rapide de paires électron-positron. Ce sont des paires virtuelles mais cela va compliquer notre processus d’absorption qui ne demande qu’un temps très bref durant lequel ces paires virtuelles ont bien le temps de se manifester. L’électron, de charge négative, va ainsi attirer les positrons de ces paires virtuelles en repoussant leurs électrons. « Approchant » de l’électron, le photon va ainsi le « voir » entouré d’un « nuage » de charge positive dû aux positrons virtuels attirés. Il aura l’impression que la charge de l’électron est plus faible que celle annoncée. C’est une version quantique de l’effet d’écran. (…) Revenons à notre électron absorbant un photon tout en s’entourant d’un nuage virtuel contenant plus de positrons que d’électrons. Si le transfert augmente, le photon peut « voir » avec plus détail. Il « attrapera » l’électron avec une partie plus faible de ce nuage positif qui l’entoure. Le photon aura l’impression que la charge de l’électron augmente avec le transfert qu’il apporte. (…) L’effet principal peut être conçu comme la transformation de photon en une paire électron-positron, qu’il réabsorbe avant l’interaction. (…) La diversité sort de la structure du vide. (…) Le vide du modèle standard a une structure. Il se comporte d’une façon analogue à un corps supraconducteur. (…) Si le temps d’observation est de dix puissance moins 21 secondes (…) des paires électron-positron peuvent spontanément apparaître. Si le temps d’observation tombe à dix puissance moins 24 secondes, (…) le vide peut bouillonner de pions. Sur un temps de dix puissance moins 26 secondes, une particule Z peut se manifester. (…) Quand on atteint un temps de dix puissance moins 44 secondes, la gravitation devient quantique. »

La chromodynamique quantique (ou QCD), découverte en 1973, utilise la théorie quantique des champs pour rendre compte de l’interaction entre quarks et gluons.

D’après cette théorie, les quarks (et les antiquarks correspondants) sont confinés dans les particules qu’ils constituent, c’est-à-dire qu’il est impossible d’en observer à l’état libre. Ils possèdent une propriété nommée « couleur » : bleue, verte ou rouge pour une particule ; antibleue, antiverte ou antirouge pour une antiparticule. Il s’agit d’un nombre quantique, analogue à la charge électrique de la force électrostatique. Un autre principe fondamental de la théorie est qu’une particule constituée de quarks doit toujours avoir une couleur résultante blanche, c’est-à-dire que sa charge de couleur doit être nulle. Cela peut être obtenu en combinant trois quarks de couleurs différentes : bleu, vert et rouge. Le baryon résultant est ainsi de couleur blanche. De la même façon, en combinant un quark et un antiquark de couleurs opposées (par exemple, bleu et antibleu), nous obtenons un méson de couleur blanche.

Cohen-Tannoudji explique ainsi dans « Matière-Espace-Temps » :

« En QED, le vide est assimilé à un milieu diélectrique, polarisable par les fluctuations quantiques, capable d’écranter la charge électrique. La charge renormalisée décroît quand la distance croît. Comme QCD est aussi une théorie renormalisable, on peut lui appliquer un raisonnement analogue… mais on aboutit à une situation totalement inversée. A cause de l’autocouplage des gluons, les diagrammes de polarisation du vide comportent en QCD des boucles de gluons. La contribution de tels diagrammes (absents en QED) est de signe opposé à celle des diagrammes avec boucles de quarks (analogues à ceux présents en QED), et elle est si importante qu’elle inverse l’effet de polarisation du vide. Au total, en QCD, la polarisation du vide provoque un anti-effet d’écran. La « charge de couleur » (qui caractérise le couplage dans l’interaction forte) est renormalisée en sens inverse de la charge électrique : elle croît, au lieu de décroître, avec la distance. Cette propriété a emporté la décision de faire de QCD la théorie de l’interaction forte. »

Le couplage de la relativité et de la quantique, produit de la rétroaction de l’expansion de l’espace et de la création-annihilation de matière au sein du vide quantique et relativiste

Lire encore sur le vide quantique

Pour étudier plus avant la physique quantique :

Mécanique quantique relativiste

Lire sur la mécanique quantique

Lire encore que la physique quantique

Conclusion : il est plus que probable qu’il nous manque au moins une troisième quantification pour unifier quantique et relativité. Einstein s’y est cassé les dents. la théorie des cordes aussi... La gravitation n’est pas encore prête à rentrer dans un cadre commun ni le continu à se marier avec le discontinu ni la grande échelle avec la petite et la quantique n’explique pas encore matière noire ni énergie noire. Il y a encore du travail pour ceux qui cela intéresse...

Messages

  • Il me semble que tout ne se ramène pas aux quatre forces fondamentales de la Physique puisque certains sites de physique notent d’autres types de forces comme les « forces de contact » (frottement, forces de pression, chocs, vibrations, forces inter-moléculaires, chaleur, etc.), la pression qu’exerce la lumière sur la matière, ou encore les forces centrifuges et centripètes, et la force de Coriolis notamment…

  • C’est vrai que cela est parfois présenté ainsi, mais c’est à tort. Les quatre forces fondamentales sont, dans l’état actuel de nos connaissances, les seules forces de l’univers matériel et lumineux. Ce que l’on appelle des « forces de contact » sont des dérivés plus ou moins complexes des interactions électromagnétiques. La chaleur, par exemple, a encore comme origine et comme moyen de propagation les forces électromagnétiques qui agitent l’ordre des structures matérielles. La pression de la lumière est également d’origine électromagnétique. Quant aux forces centrifuge et centripète ou encore la force de Coriolis, ce ne sont que des artifices mathématiques commodes appelés « pseudo-forces » servant à représenter des projections de l’accélération et à effectuer les calculs mais qui n’ont pas de réalité physique. Ces pseudo-forces ne sont pas des origines du mouvement mais seulement des images pratiques de celui-ci.

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.