Accueil > 02 - SCIENCES - SCIENCE > Atome : La rétroaction de la matière/lumière et du vide (de la (...) > Qu’est-ce que l’indiscernabilité quantique ?

Qu’est-ce que l’indiscernabilité quantique ?

jeudi 21 septembre 2017, par Robert Paris

Qu’est-ce que l’indiscernabilité quantique ?

En physique quantique, deux électrons sur des orbites autour de deux atomes proches n’appartiennent pas chacun à un atome différent. On ne peut pas dire lequel est lié à quel atome. Tout se passe comme s’ils étaient mis en commun, et qu’on ne pouvait pas les distinguer.

La notion de particules identiques, indiscernables ne provient pourtant pas de la mécanique quantique mais de la thermodynamique, en cinétique des gaz. Dans un gaz, il n’est pas question de suivre individualité les trop nombreuses particules ni de les suivre sur des trajectoires individuelles d’où une science statistique qui ne reconnaît plus les particules comme des individus. Dans les calculs de la cinétique des gaz, Gibbs et Boltzmann ont considéré des môles de gaz dans lesquelles ont pouvait intervertir les individus sans rien changer aux lois physiques.

Il n’existe pas deux objets macroscopiques strictement identiques, indiscernables mais, à plus petite échelle, au niveau microscopique, c’est le cas pour des particules de matière du même type qui sont suffisamment proches pour échanger des photons et interagir et aussi pour deux photons…

L’indiscernabilité apparaît lorsque la distance entre les particules matérielles est inférieure à leur longueur d’onde de de Broglie. Les bosons (particules de spin entier) ont tendance à s’agglutiner car un état quantique peut accueillir un nombre illimité de bosons alors que les fermions (dont les électrons) se repoussent et ne peuvent accueillir que deux particules par état quantique.

Que nous dit l’invariance par permutation ? Simplement ceci : si vous prenez la description physique de n’importe quel système à plusieurs particules, et que vous permutez, dans cette description, deux particules du même type (par exemple deux électrons), vous devez obtenir exactement les mêmes prédictions. Les deux descriptions doivent être indiscernables. Il s’agit d’une contrainte sur les descriptions qui sont acceptables ou non : les descriptions physiques qui ne respectent pas cette contrainte sont purement et simplement rejetées par les physiciens : ce ne sont pas des descriptions valides.

L’invariance par permutation a des conséquences observables importantes. Imaginez que vous avez deux boites fermées, dans lesquelles se trouvent deux objets. Vous ignorez la répartition de ces objets dans les boites : peut-être que les deux se trouvent dans la boite de gauche, ou dans celle de droite, ou bien l’un dans chaque boite.

Si vous pensez en terme "classique", vous aurez tendance à penser qu’il existe 4 configurations possibles : les deux objets à gauches, le premier à gauche et le second à droite, ou l’inverse, ou les deux à droite. Et si vous voulez attribuer des probabilités à ces arrangements, vous donnerez volontiers une probabilité de 1/4 à chacun.

En physique quantique ce n’est pas le cas : il existe seulement trois arrangements possibles, chacun ayant une probabilité de 1/3. Les arrangements sont : deux objets à gauche, deux à droite, ou un dans chaque boite (du moins dans le cas des bosons : pour les fermions, les arrangements où les deux sont dans une même boite sont exclus). Or ces probabilités correspondent en effet aux statistiques qui sont observées en laboratoire.

Cohen-Tannoudji dans « Matière-espace-temps » (chapitre Penser concrètement l’élémentarité) :

« Le concept d’indiscernabilité est de nature spécifiquement quantique : l’indiscernabilité dans un phénomène ne peut être levée qu’au prix d’une perturbation qui détruit le phénomène. Il s’agit d’une propriété fondamentale. Selon la conception atomiste classique, les atomes, ou particules, existent en un petit nombre de types différents ; mais les particules d’un même type sont partout rigoureusement identiques : rien, en principe, ne permet de distinguer un proton sur terre d’un proton dans une galaxie à un milliard d’années-lumière. Une telle identité, tout le monde est prêt à l’admettre. Mais l’indiscernabilité quantique est beaucoup plus subtile. Classiquement, dans la théorie cinétique des gaz par exemple, on peut (même si c’est seulement par la pensée) numéroter, étiqueter chaque molécule et suivre sa trajectoire. Ce n’est pas le cas quantiquement : si on considère la collision élastique de deux particules identiques, il est impossible de décider à laquelle des particules initiales correspond chacune des particules finales, tout simplement parce qu’il est impossible de suivre la trajectoire de chacune des particules (nous avons vu d’ailleurs qu’il n’y a pas de trajectoire quantique). En théorie quantique, même par la pensée, les particules identiques ne sont pas étiquetables. Mathématiquement, cette propriété s’exprime dans une propriété de symétrie des amplitudes d’état des états à plusieurs particules, par permutation des particules identiques : les amplitudes d’état sont invariantes, à un signe près, par permutation de particules identiques. Si le signe est plus, l’amplitude d’état est symétrique par permutation, les particules identiques sont appelées bosons (on dit aussi qu’elles obéissent à la « statistique » de Bose-Einstein) ; si le signe est moins l’amplitude d’état est antisymétrique par permutation, les particules identiques sont appelées fermions (on dit aussi qu’elles obéissent à la « statistique » de Fermi-Dirac). La différenciation matière/interaction réside dans le fait que les particules de matière sont des fermions et que les particules d’interaction sont des bosons. L’antisymétrie de permutation de fermions qui annule l’amplitude d’état lorsque deux fermions sont dans lee même état quantique est à l’origine du principe d’exclusion de Pauli : deux fermions ne peuvent coexister dans le même état, au même lieu, au même instant. Ce caractère impénétrable des fermions, particules de matière, garantit l’existence macroscopique de la matière : en fait, on a pu montrer qu’en l’absence du principe d’exclusion de Pauli, les noyaux et les atomes se ratatineraient pour atteindre des tailles si petites que la gravitation deviendrait importante et que la matière imploserait. La symétrie par permutation de bosons traduit par contre le caractère superposable des forces d’interaction. De plus, on peut montrer que pour un état à plusieurs bosons, plus nombreux sont les bosons dans le même état et plus grand est le module de l’amplitude d’état et donc plus grande la probabilité de l’état. Cet effet, purement quantique, a de spectaculaires conséquences macroscopiques : le rayonnement du corps noir, la superfluidité de l’hélium 4 et l’effet laser, entre autres. »

« La notion de corpuscules et d’atomes », Paul Langevin :

« La notion d’individu me semble n’avoir pas de limite inférieure nette et se dégager de plus en plus clairement à mesure que la structure se complique. Divers arguments peuvent être invoqués en faveur de cette idée. Le plus important, à mon sens, est tiré du succès de ce que nous appelons les nouvelles statistiques. En effet, lorsque, de l’hypothèse atomique ou moléculaire, on a voulu tirer des conséquences, ç’a été tout d’abord, du côté de la Physique, par l’intermédiaire de la théorie cinétique dans laquelle on envisage des systèmes composés chacun d’un grand nombre de particules. Suivant la manière dont ces particules se distribuent entre les divers états possibles comme position et comme mouvement, le système qu’elles constituent peut prendre diverses configurations. La manière dont il nous apparaît macroscopiquement représente en général une moyenne entre ces configurations. Ou bien, au contraire, si on l’observe plus finement, on peut voir tantôt l’une, tantôt l’autre et constater, dans l’aspect du système, des fluctuations comme celles qui donnent lieu au mouvement brownien. Nous pourrons prévoir le comportement du système complexe et les fluctuations auxquelles il donne lieu, par application du calcul des probabilités aux diverses configurations possibles. La probabilité de chacune de ces configurations, c’est-à-dire la fraction du temps pendant laquelle elle est réalisée, s’évalue en tenant compte des éléments particulaires nombreux dont le système est composé. C’est de cette évaluation de la probabilité relative des configurations qu’on pourra tirer la prévision, soit des effets de moyennes comme la pression d’un gaz par exemple, soit des écarts à partir des propriétés moyennes, c’est-à-dire des fluctuations. Une même configuration d’ensemble du système, caractérisée par certaines valeurs déterminées des paramètres macroscopiques, géométriques ou mécaniques servant à la définir peut, au point de vue microscopique, être réalisée d’un plus ou moins grand nombre de manières par des distributions convenables des particules constitutives. Si on considère chacune de ces manières, chaque complexion, comme également probable a priori, la probabilité d’une configuration doit être considérée comme proportionnelle au nombre de manières dont cette configuration peut être réalisée, au nombre de complexions qui lui correspondent. Cela permet de calculer la probabilité de chaque configuration et d’en déduire la configuration moyenne ainsi que les écarts ou fluctuations à partir de celle-ci. Ces considérations sont à la base même de la mécanique statistique. Les fondateurs de cette mécanique statistique, Boltzmann et Gibbs, tout en considérant comme indiscernables les particules semblables dont le système était composé, ont attribué une individualité à ces particules puisqu’ils ont considéré comme différentes des complexions telles qu’on passe de l’une à l’autre par la simple permutation de deux particules semblables. On calcule ainsi, dans cette statistique, par la considération de permutations, ce qu’on appelle « le nombre de complexions » et, par conséquent, la probabilité de chaque configuration pour l’ensemble du système. Un fait remarquable est que l’expérience ne confirme pas les prévisions de cette statistique. Au contraire, de nouvelles statistiques se sont développées, celle de Bose-Einstein et celle de Pauli-Fermi, qui diffèrent de la précédente en ce qu’on n’y attribue pas de personnalité ou d’individualité aux particules. On y considère que les distributions des particules entre les différents états possibles ne peuvent être caractérisées que par le nombre et non par l’individualité des particules qui -se trouvent dans chacun de ces états. Deux complexions qui ne diffèrent l’une de l’autre que par la permutation de deux particules considérées d’ailleurs comme indiscernables, ne sont plus considérées comme différentes. Cela change la statistique, puisque cela change le nombre de complexions correspondant à une configuration macroscopique quelconque de l’ensemble et par conséquent la probabilité attribuée à cette configuration. Dans ces nouvelles statistiques, on n’attribue d’individualité qu’aux états dans lesquels peuvent se trouver les particules et non aux particules elles-mêmes. La particule, dont le nom devrait d’ailleurs être changé, cesse d’être un objet pour devenir un simple degré d’excitation de l’état qui lui est attribué, et seul compte, naturellement, pour définir une complexion, le nombre des degrés d’excitation attribués à chacun des états possibles. Je veux donner, sur un exemple simple, une idée de la différence profonde entre ces statistiques, qui se traduit par une différence dans les probabilités attribuées aux diverses configurations macroscopiques et par conséquent dans les prévisions qui peuvent être soumises au contrôle de l’expérience. Imaginons un récipient contenant deux molécules du même gaz. Je suppose qu’il soit partagé en deux compartiments égaux, soit par une cloison effective avec un trou, ce qui fait qu’une molécule, de temps en temps, pourra passer d’un compartiment dans l’autre ; soit simplement par une cloison idéale, chaque molécule passant alors plus fréquemment d’un côté à l’autre ; considérons la probabilité des configurations que peut prendre un semblable système : Soit un compartiment à gauche et un compartiment à droite. Cela a un sens expérimental d’attribuer à chacun de ces compartiments une individualité. Pour ce qui concerne les molécules, si je les considère comme des objets, comme des particules individualisables, je les désignerai, l’une par A, l’autre par B. Il y a pour chacune d’elles deux possibilités équivalentes : qu’elle soit à droite ou qu’elle soit à gauche. Si je considère les deux molécules comme indépendantes, cela fait pour leur ensemble quatre complexions possibles : 1) j’aurai à la fois A et B à gauche et rien à droite ; 2) j’aurai A du côté gauche, B du côté droit ; 3) ou bien, au contraire, A du côté droit et B du côté gauche ; 4) ou bien enfin, rien du côté gauche et A comme B du coté droit. Ces quatre possibilités, qui sont les seules, doivent être considérées comme également probables a priori. Par conséquent, il y aura deux possibilités pour la répartition égale des molécules entre les deux compartiments, une possibilité pour qu’elles soient toutes les deux à gauche, et une possibilité pour qu’elles soient toutes les deux à droite. Cela se traduira physiquement par ceci : pendant la moitié du temps le gaz sera également réparti entre les deux compartiments ; pendant un quart du temps, il sera tout entier dans le compartiment de gauche, et pendant le dernier quart du temps, il sera tout entier dans le compartiment de droite. La première configuration se présente dans cette statistique comme deux fois plus probable que chacune des deux autres parce qu’il lui correspond deux complexions différant l’une de l’autre par permutation des deux molécules A et B. On pourra se servir de ces résultats pour étudier ce qu’on appellera les fluctuations autour de la configuration moyenne, qui correspondra à des densités égales dans les deux compartiments. On trouve facilement que l’écart quadratique moyen (racine carrée du carré moyen des écarts) est égal pour chaque compartiment à (1/sqrt(2)).molécule. J’avoue que j’avais été gêné, quand j’ai fait, au Collège de France, autrefois, un enseignement de cette mécanique statistique, par l’inconséquence qu’il y a à affirmer, d’une part, que les molécules sont identiques et par conséquent indiscernables et d’autre part, à leur attribuer une individualité pour évaluer le nombre des complexions ; ce qui conduit à considérer comme différentes les complexions 2) et 3) tout en reconnaissant, comme conséquence de la première affirmation, que rien ne permet de les distinguer, que la différence faite entre elles n’a aucun sens expérimental. La saine doctrine en physique, qui a si bien servi Einstein en particulier dans le développement de la relativité, dit que la théorie, autant que possible, ne doit rien introduire qui n’ait une signification expérimentale, qui ne corresponde au moins à une expérience imaginable sinon facile. C’est précisément le cas pour les nouvelles statistiques qui se présentent, à ce point de vue, de manière plus raisonnable que l’ancienne. Du moment que nous sommes incapables de distinguer entre la molécule A et la molécule B, nous devons considérer que les complexions 2 et 3 n’en font qu’une, qu’il n’y a qu’une seule manière de répartir également le gaz entre les deux compartiments.. A ce nouveau point de vue, nous ne devons considérer que le :, nombres de molécules présentes dans chaque compartiment et cela donne trois possibilités également probables a priori : 1) deux molécules à gauche et zéro à droite ; 2) une molécule à gauche et une à droite ; 3) rien à gauche et deux molécules à droite. Remarquons bien qu’en raisonnant ainsi nous cessons de considérer les molécules comme des objets pour ne porter notre attention que sur les compartiments et sur le nombre de molécules que chacun d’eux contient. Les molécules ne figurent ici que comme des degrés dans la manière dont les compartiments sont occupés, des degrés dans la manière dont l’état que chacun de ces compartiments représente est excité. Dans la nouvelle conception, chacune des trois possibilités doit être réalisée pendant un tiers du temps et, par conséquent, la répartition égale du gaz entre les deux compartiments n’aura que la probabilité un tiers au lieu d’avoir la probabilité un demi. Cette nouvelle statistique avantage les distributions qui s’écartent de la moyenne ; elle doit donc conduire à prévoir des fluctuations plus importantes que la statistique ancienne. Si, en effet, on calcule, avec les nouvelles valeurs des probabilités, l’écart quadratique moyen dans chaque compartiment, on le trouve égal à sqrt(2/3) au lieu de sqrt(1/2) molécule. C’est à l’expérience de dire si la nature se comporte comme le prévoit la doctrine qui individualise les corpuscules ou si elle se comporte, au contraire, conformément à la doctrine qui n’individualise que les compartiments, les états où peuvent se trouver les particules. Il est à peine besoin de dire qu’elle donne raison à la seconde conception, à celle qui est logique avec elle-même et qui, affirmant que les particules sont indiscernables, ne tient pas en même temps compte de leurs permutations. Il est assez curieux de suivre les conséquences expérimentales de cette nouvelle statistique, celle de Bose-Einstein, qui substitue des combinaisons aux permutations. Elle a été appliquée, par Bose, aux photons. Ce qu’on appelle la théorie de Debye pour le rayonnement du corps noir n’est pas autre chose qu’une forme d’application de ce raisonnement. Dans l’exemple examiné plus haut, j’ai supposé seulement, pour simplifier, deux compartiments. On peut en supposer un plus grand nombre, et tenir compte, pour caractériser les états possibles d’une particule, non seulement des changements de position d’un compartiment à un autre, mais encore des changements de vitesse ou de quantité de mouvement de la particule. On est ainsi conduit à la notion d’une « extension en phase », divisée en compartiments, en cellules ayant chacune une étendue finie déterminée par la constante h de Planck et correspondant chacune à un état également probable a priori pour la particule. La statistique de Bose-Einstein ne fait intervenir, pour caractériser une complexion, que le nombre des particules occupant chaque cellule, la particule jouant le rôle d’un degré d’excitation de l’état correspondant à la cellule et non pas celui d’un objet. Par exemple, en appliquant ces raisonnements au rayonnement électromagnétique en équilibre thermique dans un récipient, on peut retrouver la composition expérimentale du rayonnement noir. Avec Jeans, on peut décomposer ce rayonnement en un certain nombre de modes stationnaires d’oscillations électromagnétiques qui correspondent chacun à une des cellules d’extension en phase, à un des états possibles pour les photons intérieurs au récipient. En supposant que ces différents états peuvent recevoir des degrés d’excitation discontinus correspondant à la présence de nombres entiers de photons dans chaque état, tout en n’attribuant pas d’individualité aux photons, l’application de la nouvelle statistique conduit exactement, pour le rayonnement, à la formule de Planck, vérifiée par l’expérience ; tandis que si on attribue une individualité au photon, et si on lui applique la statistique de Boltzmann-Gibbs, on est conduit pour le rayonnement noir à la formule de Wien, contredite par l’expérience. Il semble bien que, pour les gaz, il doive en être de même. L’application de la statistique de Bose-Einstein aux molécules d’un gaz conduit à prévoir une dégénérescence, c’est-à-dire des écarts à la loi des gaz parfaits, qui se trouvent, pour les gaz ordinaires, en dehors des possibilités de vérification expérimentale. Si on s’adresse aux électrons, au lieu de s’adresser aux photons, ou aux atomes, ou aux molécules neutres, on se trouvera obligé d’introduire une troisième statistique qui, elle aussi, renonce à l’individualité des électrons, mais introduit en plus ce qu’on appelle « le principe d’exclusion de Pauli » en vertu duquel chacun des états possibles pour les électrons, chacun des modes stationnaires des ondes électroniques de de Broglie ou de Dirac, ne peut être occupé que par zéro ou un électron. Dans la cellule électronique d’extension en phase, dans le compartiment qui correspond à chacun de ces états ou modes ondulatoires stationnaires possibles, il n’y a place au plus que pour un électron, il ne peut y avoir que zéro ou un degré d’excitation. Ce principe d’exclusion de Pauli revient à affirmer l’impénétrabilité réciproque des électrons dans l’extension en phase qui leur correspond, alors que rien d’analogue n’existe pour les photons. Celles de ces cellules qui correspondent aux états d’énergie négative de Dirac dont j’ai parlé tout à l’heure seraient toutes normalement occupées, et pour tout l’espace, par des électrons ; quand l’un de ces états cesserait d’être occupé, son degré d’excitation devenant zéro au lieu de un, cela ferait une lacune, cela ferait un positron. On peut interpréter la conductibilité des métaux par la présence à leur intérieur d’électrons libres. D’autres propriétés en résultent aussi, en particulier leur diamagnétisme, et le paramagnétisme indépendant de la température de certains métaux. En appliquant aux électrons libres la statistique de Pauli, on obtient de manière remarquable l’interprétation de ce paramagnétisme indépendant de la température, qui avait longtemps intrigué les physiciens ; il y a là un autre succès expérimental de la nouvelle statistique, qui fournit un argument très fort en faveur de l’idée que ni les photons, ni les électrons, ni les protons ne peuvent être considérés ni traités comme des objets ; et ceci vient confirmer entièrement les conclusions que je crois nécessaire de tirer du principe d’indétermination. Un autre argument me paraît également avoir de l’importance : lorsqu’on interprète la constante h de Planck comme fixant les limites du domaine corpusculaire dans lequel règne l’indétermination et devant lequel s’arrête la loi purement statistique de causalité, j’ai l’impression que cette indétermination est singulièrement déterminée, puisque la constante h est connue au millième près. Devant l’apparition de cet h, qui semble jouer un rôle si fondamental dans les lois profondes de la nature et auquel se relient avec tant de précision tant de phénomènes importants, on aimerait savoir un peu mieux d’où il vient et ne pas renoncer à l’attitude scientifique au moment où elle n’a jamais été plus nécessaire ni probablement plus féconde. Il ne me parait pas suffisant de dire : « h détermine une indétermination ». Le succès même de la mécanique ondulatoire montre la nécessité de rester fidèle au guide le plus sûr de l’activité du physicien qui est d’aller toujours plus loin dans la recherche d’un déterminisme. »

Michel Paty dans « Paul Langevin, la relativité et les quanta :

« L’indiscernabilit é des « particules » quantiques identiques, qui se traduit par l’utilisation de probabilités ou de statistiques non classiques, lui paraissait être (à juste titre) l’aspect le plus central par lequel ces « objets » devaient être caractérisés. On ne doit plus les concevoir comme des corpuscules au sens ordinaire, estimait-il, en proposant de rejeter, en particulier, la notion d’« individu », que la pensée humaine a formée à partir de son expérience à son niveau, macroscopique, mais à quoi rien n’oblige a priori dans le monde microscopique.
Il demeurait, toutefois, dans sa conception, une ambiguïté sur la notion d’« individu », liée d’ailleurs à l’identification, commune à l’époque, entre probabilités et statistiques. Ce que la mécanique quantique met en cause, c’est l’idée d’entités physiques discernables d’autres qui sont en tout semblables, et spatialement localisables : pour le reste, des entités quantiques indiscernables et non localisables peuvent être singularisées en étant comptées (comme on le sait depuis deux décennies). Il reste que la conception de Langevin permettait d’admettre qu’un système quantique soit pleinement représenté par une fonction d’état pourvue d’un sens directement physique, dépassant ainsi les limitations d’un débat épistémologique marqué par le contexte de l’époque. »

« Statistique et déterminisme » de Paul Langevin :

« Si ses particules sont considérées comme identiques, et par conséquent indiscernables, il peut sembler naturel de définir entièrement une complexion ou distribution par le nombre des points représentatifs présents dans chaque domaine élémentaire, par le nombre des particules qui se trouvent dans chacun des états possibles. Deux distributions ne seraient considérées comme différentes que si une au moins des cellules renferme des nombres différents de points représentatifs dans ces deux distributions. Par une contradiction qui nous parait aujourd’hui singulière depuis que l’expérience est venue leur donner tort, les fondateurs de la mécanique statistique classique ont dé-nombré les complexions en attribuant une individualité à chaque particule, en raisonnant comme s’il était possible de distinguer les unes des autres ces particules pourtant définies comme identiques et par conséquent indiscernables, comme s’il était possible d’affecter chacune d’elles et son point représentatif d’une étiquette, d’un numéro depuis 1 jusqu’à N, permet-tant de la reconnaître au sein de la foule et de la suivre dans son comportement. Deux complexions doivent être, à ce point de vue, considérées comme différentes même lorsqu’elles correspondent au même nombre de particules dans chaque état, si ces particules ne sont pas les mêmes pour tous les états dans les deux distributions. La simple permutation de deux points représentatifs entre deux cellules est considérée comme suffisante pour changer la complexion, bien que rien, en réalité, ne permette de distinguer ces deux points ni les particules qu’ils représentent. Le contact avec l’expérience est venu pour la première fois dénoncer cette contradiction lorsque, comme vous l’a rappelé hier M. Born, on a voulu poursuivre les conséquences de la découverte des photons, en appliquant la mécanique statistique an rayonnement présent à l’intérieur d’un récipient où l’énergie rayonnante est supposée constituée par une assemblée de photons se mouvant en tous sens comme les molécules d’un gaz, avec une même vitesse égale à celle de la lumière, mais avec des énergies différentes suivant la fréquence nu qui leur est associée. La distribution la plus probable de l’énergie entre les fréquences doit donner la composition du rayonnement thermique. En utilisant la statistique classique, c’est-à-dire en attribuant une individualité à chaque photon, on trouve une loi de distribution dite loi de Wien, qui concorde bien avec la loi expérimentale aux grandes fréquences, mais s’en écarte d’autant plus que la fréquence est plus basse, ou la longueur d’onde plus grande. M. Bose a montré qu’on retrouve bien, au contraire, la loi conforme à l’expérience, dite loi de Planck, en renonçant à l’individualité du photon et en ne considérant deux complexions comme différentes, ainsi qu’il nous a paru tout d’abord raisonnable de le faire, que si les nombres de points représentatifs y sont différents, au moins dans un des domaines élémentaires. M. Einstein a montré, aussitôt après, que si l’on applique cette même méthode de dénombrement des complexions, dite statistique de Bose-Einstein, au cas d’un gaz matériel, on retrouve bien les résultats de la statistique classique, en particulier la loi des gaz parfaits, mais qu’on s’en écarte aux basses températures suivant une loi dite de dégénérescence que l’expérience semble bien confirmer, en particulier dans le cas de l’hélium. Bose, pour les photons, et Einstein, pour les molécules d’un gaz, admettaient que chaque cellule d’extension en phase peut contenir un nombre quelconque de pointa représentatifs, que chaque état possible pour les corpuscules peut être occupé par un nombre quelconque d’entre eux. M. Fermi a montré que lorsqu’il s’agit d’un gaz composé d’électrons, par exemple des électrons libres à l’intérieur d’un métal et auxquels celui-ci doit sa conductibilité électrique et thermique, il faut appliquer à ces corpuscules une statistique différente, tenant compte du principe d’exclusion si heureusement introduit par M. Pauli représenter la structure et les propriétés des atomes. Conformément à ce principe, un même état ne peut être occupé simultanément par plus d’un électron ; le nombre des points représentatifs des corpuscules qui composent le gaz électro-nique ne pourra donc prendre, à l’intérieur de chaque cellule d’extension en phase, que les valeurs zéro ou un. La nouvelle statistique retrouve bien, comme les deux autres, la loi des gaz parfaits, aux températures élevées ou aux faibles concentrations, mais prévoit à basse température ou à forte concentration, comme c’est le cas pour les électrons libres dans les métaux, une dégénérescence qui s’écarte des résultats de la statistique classique dans un sens opposé à celui do la dégénérescence Bose-Einstein, et que l’expérience vient confirmer, en particulier dans le cas de la conductibilité métallique. II est bien établi maintenant que l’expérience n’est d’accord, suivant les cas, qu’avec l’une ou l’autre des deux statistiques, Bose-Einstein ou Pauli-Fermi, qui ont ce caractère commun, conforme au postulat d’indiscernabilité, de n’attribuer aucune individualité aux corpuscules, matériels ou lumineux, et de ne distinguer entre eux que les états différents dans lesquels ces corpuscules peuvent se trouver. L’expérience ne connaît, et la théorie ne doit introduire, que les nombres de corpuscules se trouvant dans chacun de ces états. Ainsi se trouvent résolues, en accord avec l’expérience, les deux difficultés fondamentales que laissait subsister la mécanique statistique sous la forme primitive que lui avaient donnée Gibbs et Boltzmann. Le résultat le plus imprévu et le plus étranger aux notions purement mécaniques, est celui qui concerne la nécessité de donner aux domaines élémentaires caractéristiques des divers états possibles de la particule, une extension en phase finie, égale pour tous et uniquement déterminée par la constante de Planck. Cette nécessité, qui s’est imposée au cours du développement de la représentation corpusculaire, de la matière d’abord, du rayonnement ensuite, va nous apparaître sous un jour nouveau et beaucoup plus satisfaisant lorsque nous aurons compris que, dans le cas du rayonnement et des photons qui le composent, elle est une conséquence du double aspect ondulatoire et corpusculaire de l’énergie rayonnante. En effet, Lord Rayleigh avait montré, il y a quelque cinquante ans, que si l’on analyse, au point de vue ondulatoire, la structure du rayonnement à l’intérieur d’une enceinte à parois réfléchissantes, on peut la représenter, de manière analogue à la décomposition d’une fonction quelconque en série de Fourier, par la superposition d’une série discontinue d’ondes stationnaires ayant chacune sa fréquence propre et différant les unes des autres par la fréquence ou par l’orientation des plans nodaux. Chacune de ces ondes correspond à l’un des modes propres d’oscillation électromagnétique de l’espace intérieur à l’enceinte, à l’un des états que peut y prendre l’énergie rayonnante. la théorie électromagnétique classique suppose que l’amplitude de chacun de ces modes d’oscillation propre peut varier de façon continue. Lord Rayleigh, Jeans, et, de façon plus complète, Hendrik Antoon Lorentz, ont montré qu’il est légitime d’appliquer à l’ensemble do ces modes les raisonnements et les résultats généraux de la mécanique statistique, que chacun d’eux est équivalent à un degré de liberté auquel est applicable le théorème d’équipartition de l’énergie. II en résulte que, dans la distribution la plus probable, qui correspond à l’équilibre thermique, tous ces modes propres doivent être excités avec une même énergie, proportionnelle à la température absolue, et égale à k*T, k étant la constante de Boltzmann. Comme le nombre de ces modes propres est infini, quoique dénombrable, il en résulte la conséquence paradoxale signalée plus haut, que l’énergie rayonnée à l’intérieur d’une enceinte en équilibre thermique devrait être infinie à toute température. La loi de distribution de l’énergie du rayonnement thermique entre les fréquences, dite loi de Rayleigh-Jeans, ainsi obtenue en appliquant la statistique classique à l’aspect ondulatoire du rayonnement, concorde avec la loi expérimentale aux basses fréquences et s’en écarte de plus en plus aux fréquences élevées, exactement à l’inverse de ce que fait la loi de Wien, obtenue en appliquant la statistique classique à l’état corpusculaire du rayonnement. Planck d’abord, et Debye ensuite sous une forme plus précise, ont montré que, pour retrouver la loi expérimentale exacte, il faut abandonner l’hypothèse de la continuité dans les variations possibles de l’amplitude ou de l’énergie pour chacun des modes de vibration électromagnétique propres à l’enceinte et supposer que l’énergie peut varier seulement par nombre entier de quanta de grandeur h*nu, si nu est la fréquence du propre considéré. Dans le langage des photons, ceci revient à dire que chacun des modes de vibration propre, chacun des états possibles de l’énergie rayonnante à l’intérieur de l’enceinte, ne peut être occupé que par un nombre entier de photons. Ce résultat, obtenu en partant de l’aspect ondulatoire pour édifier une statistique du rayonnement conforme à l’expérience, recouvre exactement celui que nous avons obtenu d’après Bose en panant de l’aspect corpusculaire, à condition que chacun des modes de vibration propre introduite par Rayleigh corresponde à l’une des cellules d’extension en phase de grandeur introduites par Bose d’après Planck. Et l’on constate effectivement qu’il en est bien ainsi : le nombre des cellules de Bose dans un intervalle donné d’énergie du photon est exactement égal au nombre des modes de vibration propre de Rayleigh dans l’intervalle correspondant de fréquence, si l’on tient compte de la relation de Planck entre l’énergie du photon et la fréquence des ondes associées. Ainsi se manifeste, sur le plan statistique, le lien indissoluble, la complémentarité, comme dit Bohr, des deux aspects ondulatoire et corpusculaire, imposés par l’expérience, et des deux points de vue correspondants de la théorie du rayonnement. Si nous partons du point de vue ondulatoire qui introduit la discontinuité entre les modes de vibration propre ou les états correspondants de l’énergie, nous devons, avec Planck et Debye, quantifier les énergies présentes dans chaque état, et affirmer que chacun de ces états ne peut être occupé que par un nombre entier de quanta ou de photons. Si nous partons au contraire avec Bose de la conception corpusculaire, en introduisant une première discontinuité par l’hypothèse de l’existence d’un nombre entier de photons dans toute manifestation du rayonnement, il nous faut en introduire une seconde sous forme d’une série discontinue d’états, de cellules d’extension en phase dont chacune peut et doit être occupée par un nombre entier de photons, auxquels les raisonnements statistiques ne doivent d’ailleurs attribuer aucune individualité. Le flou qui subsiste dans la définition de ces états quand on part du point de vue corpusculaire, disparaît quand on les envisage du point de vue ondulatoire, comme correspondant chacun à l’un des modes propres de vibration électromagnétique, le photon étant alors représenté par l’un des degrés nécessairement égaux et discontinus dont est susceptible l’excitation du mode de vibration propre, considéré. Ainsi se révèle, pour rendre compte des faits, la nécessité d’introduire, dans un cas comme dans l’autre, mais dans des ordres différents, une double discontinuité dans la structure du rayonnement, l’une d’origine ondulatoire, celle des états, l’autre d’origine ou d’aspect corpusculaire, celle des photons. On conçoit que, selon la nature de l’expérience, l’un ou l’autre de ces aspects se montre prédominant, mais ils s’avèrent inséparables dans une représentation théorique de l’ensemble des propriétés de la lumière. C’est là le sens qu’il faut attacher à la nécessité d’une double quantification. On voit d’ailleurs, par la précision et la clarté beaucoup plus grandes avec lesquelles y apparaît la discontinuité entre les états, considérés comme modes ondulatoires propres, l’avantage que présente la voie Rayleigh-Planck-Debye pour introduire cette double discontinuité : le photon n’apparaît qu’en second lieu, comme degré discontinu d’excitation d’un état, susceptible de se manifester sous l’aspect corpusculaire d’une localisation spatiale de l’énergie rayonnante, dans les phénomènes photo-électriques par exemple. Cette façon de présenter la statistique du rayonnement est conforme à l’ordre historique du développement de nos connaissances sur les propriétés de la lumière. Noue allons voir qu’il en est autrement en ce qui concerne la matière, dont les propriétés font l’objet d’une synthèse exactement calquée sur la précédente, et connue aujourd’hui sous le nom de mécanique ondulatoire. Une circonstance a été signalée par M. Einstein où se manifeste avec une clarté particulière le lien profond entre les deux discontinuités ondulatoire et corpusculaire, celle des états et celle des photons. Elle concerne les fluctuations dans la distribution spatiale de l’énergie rayonnante à l’intérieur d’une enceinte en équilibre thermique. L’énergie rayonnante présente à l’intérieur d’un volume déterminé de l’enceinte dans un petit intervalle de fréquente autour de la fréquence nu varie d’un instant à l’autre autour de sa valeur moyenne. L’application de la théorie générale des fluctuations à la loi expérimentale ou loi de Planck qui donne la distribution de cette énergie entre les fréquences conduit, pour ces variations, à une formule à deux termes, dont l’un, dit terme ondulatoire, est le seul auquel conduirait la loi de Rayleigh-Jeans où intervient seule la discontinuité des états, et l’autre, dit terme corpusculaire, est le seul auquel conduirait la loi de Wien où intervient seule la discontinuité des photons. L’expérience impose donc bien, à ce point de vue aussi, la double discontinuité, et la loi des fluctuations a l’intérêt de faire figurer côte à côte, en les traduisant par deux termes additifs et indépendants, l’aspect ondulatoire et l’aspect corpusculaire du rayonnement. La formule montre immédiatement que les deux termes ont des importances comparables pour les fréquences du même ordre que celle qui correspond au maximum d’énergie dans le spectre du rayonnement thermique, c’est-à-dire dans la région des fréquences lumineuses ou infra-rouges pour les températures réalisables au laboratoire. Le terme ondulatoire devient le plus important aux basses fréquences, le terme corpusculaire, au contraire, aux fréquences élevées. En liaison avec ce résultat, on peut placer le fait expérimental que le caractère ondulatoire du rayonnement prédomine aux basses fréquences, celles des ondes hertziennes par exemple où le photon est extrêmement petit et toujours présent en nombres énormes dans toutes les manifestations observables ; au contraire, le caractère corpusculaire devient de plus en plus manifeste aux fréquences élevées pour s’imposer à peu près exclusivement dans le domaine des rayons cosmiques où le photon intervient en général isolément. »

Sur l’indiscernabilité des corpuscules

La suite

Un article du CNRS

Indiscernabilité quantique

Particules identiques

Particules identiques en mécanique quantique

Particules indiscernables

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.