Articles

La Théorie quantique, une approche de l’univers probablement

Posted by admin

 La Théorie quantique, une approche de l'univers probablement

La Théorie quantique est l’un des piliers fondamentaux de la physique moderne. C’est une théorie qui rassemble un formalisme mathématique et conceptuel, et rassemble un ensemble d’idées nouvelles introduites tout au long du premier tiers du XXe siècle, pour expliquer des processus dont la compréhension était en conflit avec les conceptions physiques actuelles.

Les idées qui sous-tendent la Théorie quantique sont apparues comme une alternative en essayant d’expliquer le comportement de systèmes dans lesquels l’appareil conceptuel de la physique classique était insuffisant. C’est-à-dire qu’une série d’observations empiriques dont l’explication n’a pas pu être abordée par les méthodes existantes a conduit à l’émergence de nouvelles idées.

Il faut souligner la forte confrontation qui a surgi entre les idées de la Physique Quantique, et celles valables jusque-là, disons de la Physique Classique. C’est encore plus grave si l’on prend en compte le succès expérimental remarquable que ceux-ci avaient montré tout au long du XIXe siècle, s’appuyant essentiellement sur la mécanique de Newton et la théorie électromagnétique de Maxwell (1865).

« Deux petits nuages »

Le degré de satisfaction de la communauté scientifique était tel que certains physiciens, dont l’un des plus illustres du XIXe siècle, William Thompson (Lord Kelvin), allaient jusqu’à dire :

Aujourd’hui la physique forme, essentiellement, un tout parfaitement harmonieux, un tout pratiquement fini ! … Il y a encore « deux petits nuages » qui obscurcissent la splendeur de cet ensemble. Le premier est le résultat négatif de l’expérience de Michelson-Morley. La seconde est la profonde divergence entre l’expérience et la loi Rayleigh-Jeans.

La dissipation du premier de ces « deux nuages » a conduit à la création de la Théorie spéciale de la Relativité par Einstein (1905), c’est-à-dire à l’effondrement des concepts d’espace et de temps absolus, et à posséder la mécanique de Newton, et à l’introduction du « relativisme » dans la description physique de la réalité. Le deuxième « petit nuage » a déchargé la tempête des premières idées quantiques, due au physicien allemand Max Planck (1900).

L’origine de la Théorie quantique

Que signifiait Rayleigh-Jeans (1899) pour expliquer de manière si malheureuse? Un phénomène physique appelé rayonnement du corps noir, c’est-à-dire le processus qui décrit l’interaction entre la matière et le rayonnement, la manière dont la matière échange de l’énergie, l’émettant ou l’absorbant, avec une source de rayonnement. Mais en plus de la loi Rayleigh-Jeans, il y avait une autre loi, la loi de Vienne (1893), qui prétendait également expliquer le même phénomène.

La loi de Vienne a donné une explication expérimentale correcte si la fréquence de rayonnement est élevée, mais a échoué pour les basses fréquences. Pour sa part, la loi de Rayleigh-Jeans a donné une explication expérimentale correcte si la fréquence de rayonnement est faible, mais a échoué pour les hautes fréquences.

La fréquence est l’une des caractéristiques déterminantes du rayonnement, et en général de tout phénomène impliquant des ondes. La fréquence peut être interprétée comme le nombre d’oscillations par unité de temps. Toute la gamme de fréquences possibles pour un rayonnement dans la Nature est contenue dans le spectre électromagnétique qui, en fonction de la valeur de la fréquence choisie, détermine un type ou un autre de rayonnement.

En 1900, Max Planck pose la première pierre de la construction de la Théorie quantique. Il a postulé une loi (la loi de Planck) qui expliquait de manière unifiée le rayonnement du corps noir, sur tout le spectre des fréquences.

Hypothèse de Planck

Que prévoyait la loi de Planck qui n’était pas déjà implicite dans les lois de Wien et de Rayleigh-Jeans? Un ingrédient aussi important que nouveau. À tel point qu’il est responsable de la première grande crise provoquée par la Théorie quantique sur le cadre conceptuel de la Physique classique. Cela supposait que l’échange d’énergie entre le rayonnement et la matière se produisait par un processus continu, c’est-à-dire qu’un rayonnement de fréquence f pouvait produire n’importe quelle quantité d’énergie lorsqu’il était absorbé par la matière.

Ce que Planck a postulé en introduisant sa loi, c’est que la seule façon d’obtenir une formule expérimentalement correcte nécessitait l’hypothèse nouvelle et audacieuse que cet échange d’énergie devrait se produire de manière discontinue, c’est-à-dire par l’émission et l’absorption de quantités discrètes d’énergie, que nous appelons maintenant des « quantum » de rayonnement. La quantité d’énergie E proprement dite d’un quantum de rayonnement de fréquence f est obtenue par le rapport de Planck: E = h x f, h étant la constante universelle de Planck = 6’62 x 10 (expo-34) (unités d' » action »).

La relation de Planck peut être comprise en disant que tout rayonnement de fréquence f se comporte comme un flux de particules, les quantum, portant chacune une énergie E = h x f, qui peut être émise ou absorbée par la matière.

L’hypothèse de Planck donne un caractère corpusculaire et matériel à un phénomène traditionnellement ondulatoire, tel que le rayonnement. Mais ce qui sera plus important, cela implique le passage d’une conception continue de la Nature à une conception discontinue, ce qui est particulièrement évident dans l’étude de la structure des atomes, dans laquelle les électrons ne peuvent avoir qu’un ensemble discret et discontinu de valeurs d’énergie.

L’hypothèse de Planck a été confirmée expérimentalement, non seulement dans le processus de rayonnement du corps noir, à la suite duquel il est apparu, mais aussi dans les explications de l’effet photoélectrique, dû à Einstein (1905), et de l’effet Compton, dû à Arthur Compton (1923).

Cadre d’application de la Théorie quantique

Le cadre d’application de la Théorie quantique est limité, presque exclusivement, aux niveaux atomique, subatomique et nucléaire, où il est absolument essentiel. Mais aussi dans d’autres domaines, tels que l’électronique (dans la conception de transistors, microprocesseurs, et toutes sortes de composants électroniques), dans la physique des nouveaux matériaux (semi-conducteurs et supraconducteurs), sur la physique des hautes énergies, dans la conception d’instrumentation médicale (lasers, scanners, etc.), dans la cryptographie et l’informatique quantique, et dans la théorie de la cosmologie de l’Univers primitif. La Théorie quantique s’étend donc avec succès à des contextes très différents, ce qui renforce sa validité.

Mais pourquoi la théorie classique échoue-t-elle dans sa tentative d’expliquer les phénomènes du micromonde ? N’est-ce pas, après tout, une simple différence d’échelles entre le grand et le petit, par rapport à la taille des systèmes? La réponse est non. Pensons qu’il n’est pas toujours possible de modéliser le même système à différentes échelles pour étudier ses propriétés.

Pour voir que la variation d’échelle est un processus avec certaines limitations intrinsèques, supposons que nous souhaitions effectuer des études hydrodynamiques liées au mouvement des courants marins. Sous certaines conditions, nous pourrions créer un modèle à l’échelle suffisamment complet qui ne laisse pas de côté les facteurs essentiels du phénomène. Pour des raisons pratiques, la réduction d’échelle peut être suffisamment descriptive.

Mais si nous réduisons l’échelle à plusieurs reprises, nous passerons successivement par des situations qui correspondent dans une moindre mesure au cas réel. Jusqu’à ce que nous atteignions enfin l’essence même de la matière à l’étude, la molécule d’eau, qui n’admet évidemment pas de traitement hydrodynamique, et nous devrons recourir à un autre type de théorie, une théorie moléculaire. C’est-à-dire que dans les réductions successives d’échelle, les effets et processus générés par l’agglutination des molécules ont été perdus.

De même, on peut penser que l’une des raisons pour lesquelles la Physique classique n’est pas applicable aux phénomènes atomiques est que nous avons réduit l’échelle à un domaine « trop essentiel » de la réalité et qu’il est nécessaire, comme dans l’exemple précédent, un changement de théorie. Et en fait, c’est le cas: la théorie quantique étudie les aspects ultimes de la substance, les constituants les plus essentiels de la matière (les soi-disant « particules élémentaires ») et la nature même du rayonnement.

 La Théorie quantique, une approximation de l'univers probable

Lorsque la Théorie Quantique entre en jeu

Il faut donc supposer le caractère absolu de la petitesse des systèmes auxquels s’applique la Théorie Quantique. Autrement dit, la qualité « petite » ou « quantique » cesse d’être relative à la taille du système et acquiert un caractère absolu. Et que nous dit-il si un système doit être considéré comme « petit » et étudié par la Théorie quantique? Il existe une « règle », un « modèle de mesure » qui s’en occupe, mais ce n’est pas une règle calibrée en unités de longueur, mais en unités d’une autre grandeur physique importante appelée « action ».

L’action est une grandeur physique, tout comme la longueur, le temps, la vitesse, l’énergie, la température, la puissance, le courant électrique, la force, etc., bien que moins connu. Et tout comme la température indique la qualité du froid ou du chaud du système, et accélère sa qualité de repos ou de mouvement, l’action indique la qualité du petit (quantique) ou du grand (classique) du système. Comme l’énergie, ou une longueur, chaque système a aussi une action qui le caractérise.

Cette action caractéristique, A, est obtenue à partir de la multiplication suivante des grandeurs : A = P x L, où P représente la quantité caractéristique de mouvement du système (le produit de sa masse multipliée par sa vitesse) et L sa « longueur » caractéristique. L’unité de cette « règle » que nous avons mentionnée, avec laquelle nous mesurons l’action des systèmes, est la constante de Planck, h. Si la valeur de l’action caractéristique du système est de l’ordre de la constante de Planck, nous devons nécessairement utiliser la Théorie quantique lors de son étude.

Au contraire, si h est très petit par rapport à l’action typique du système, nous pouvons l’étudier à travers les méthodes de la théorie classique. C’est-à-dire: Si A est de l’ordre de h, nous devons étudier le système selon la théorie quantique. Si A est beaucoup plus grand que h, nous pouvons l’étudier par la Physique classique.

Deux exemples: particules et planètes

Regardons deux exemples d’action caractéristique dans deux systèmes différents mais analogues:

1. L’électron orbitant autour du noyau au niveau d’énergie le plus bas de l’atome d’hydrogène.

Calculons l’ordre de grandeur du produit P x L. P représente le produit de la masse de l’électron par sa vitesse orbitale, c’est-à-dire P = 10 (exp-31) (masse) x 10 (exp 6) (vitesse) = 10 (exp-25) (quantité de mouvement). La valeur caractéristique de L correspond au rayon de l’orbite, soit L = 10 (expo-10) (longueur). Nous effectuons maintenant le produit P x L pour trouver l’ampleur de l' »action » caractéristique associée à ce processus : A1 = Px L = 10 (expo-25) x 10 (expo-10) = 10 (expo-35) (action).

2. La planète Jupiter en orbite autour du Soleil (on considère l’orbite circulaire, pour simplifier).

Pour ce deuxième exemple, nous effectuons des calculs analogues aux précédents. D’abord la quantité de mouvement P, multipliant la masse de Jupiter par sa vitesse orbitale: P = 10 (expo 26) (masse) x 10 (expo 4) (vitesse) = 10 (expo 30) (quantité de mouvement). De même, la longueur caractéristique sera la distance orbitale moyenne : L = 10 (expo 11) (longueur). L’ampleur de l’action caractéristique dans ce second cas sera : A2 = 10 (expo 30) x 10 (expo 11) = 10 (expo 41) (action).

Si l’on compare ces deux résultats avec l’ordre de grandeur de la constante de Planck, on a :

h = 10 (expo-34)
A1 = 10 (expo-35)
A2 = 10 (expo 41)

on voit que pour le cas 1 (orbite d’électrons dans un atome d’hydrogène) la proximité des ordres de grandeur suggère un traitement de la système quantique, qui doit être estimé comme « petit » dans le sens que nous avons indiqué ci-dessus, en termes de constante de Planck, qui est considérée comme mesure « standard ». Au contraire, entre le cas 2 (Jupiter en orbite autour du Soleil) et la constante de Planck, il existe une différence de 75 ordres de grandeur, indiquant que le système est manifestement « grand », mesuré en unités de h, et ne nécessite pas d’étude basée sur la théorie quantique.

La constante de Planck a une très, très petite valeur. Voyons-le explicitement:

h = 0’000000000000000000000000000000000662 (unités d’action)

Le premier chiffre non nul apparaît à la trente-quatrième décimale. L’extrême petitesse de h rend difficile la découverte des aspects quantiques de la réalité, qui sont restés cachés de la physique jusqu’au XXe siècle. Là où la Théorie quantique n’est pas nécessaire, la théorie classique offre des descriptions suffisamment précises des processus, comme dans le cas du mouvement des planètes, comme nous venons de le voir.

Brève chronologie de la Théorie quantique

1900. « L’hypothèse quantique de Planck » (Prix Nobel de physique, 1918). Caractère corpusculaire du rayonnement.

1905. Einstein (Prix Nobel de physique, 1921) explique « l’effet photoélectrique » en appliquant l’hypothèse de Planck.

1911. Les expériences de Rutherford, qui établissent l’atome modèle planétaire, avec le noyau (protons) et les orbites extérieures (électrons).

1913. Modèle atomique de Niels Bohr (Prix Nobel de physique, 1922). Il prend en compte les résultats de Rutherford, mais ajoute l’hypothèse quantique de Planck. Une caractéristique essentielle du modèle de Bohr est que les électrons ne peuvent occuper qu’un ensemble discontinu d’orbites et de niveaux d’énergie.

1923. Arthrur Comptom (Prix Nobel de physique, 1927) présente une nouvelle vérification de l’hypothèse de Planck, à travers l’explication de l’effet qui porte son nom.

1924. Hypothèse de De Broglie (Prix Nobel de physique, 1929). Il associe une onde à chaque particule matérielle, complétant ainsi la façon dont l’hypothèse de Planck confère aux rayonnements des propriétés corpusculaires.

1925. Werner Heisenberg (Prix Nobel de physique, 1932) propose un formalisme mathématique qui permet de calculer les grandeurs expérimentales associées aux états quantiques.

1926. Erwin Schrödinger (Prix Nobel de physique, 1933) propose l’équation d’onde dont les solutions sont les ondes théoriquement postulées par De Broglie en 1924.

1927. V Congrès de physique Solvay, consacré au thème « Électrons et photons ». Le débat entre Einstein et Bohr y a lieu, en tant que défenseurs de positions antagonistes, sur les problèmes d’interprétation posés par la Théorie quantique.

1928. Des expériences de diffraction de particules (électrons) qui confirment l’hypothèse de de Broglie, se référant aux propriétés ondulatoires associées aux particules. Le phénomène de diffraction est caractéristique des ondes.

1932. Apparition du travail de fondation de la Théorie quantique préparé par le mathématicien Jon von Neumann.

Aspects essentiellement nouveaux de la Théorie quantique

Les aspects essentiellement nouveaux (non classiques) dérivés de la Théorie quantique sont:

a) Caractère corpusculaire du rayonnement (Hypothèse de Planck).

b) Aspect ondulatoire des particules (hypothèse de Broglie).

c) Existence de grandeurs physiques dont le spectre de valeurs est discontinu. Par exemple, les niveaux d’énergie de l’atome d’hydrogène (modèle atomique de Bohr).

Implications de a): caractère corpusculaire du rayonnement.

Le rayonnement était traditionnellement considéré comme un phénomène d’onde. Mais l’hypothèse de Planck le considère comme un flux de particules, des « quantum ». Quelle est donc la nature du rayonnement : onde ou corpusculaire ? Double. Il manifeste un caractère nettement « dual ». Ce sont des aspects qui, dans le formalisme quantique, ne sont pas exclus et qui sont intégrés au concept de « quantique ».

Le quantum de rayonnement peut manifester à la fois des propriétés corpusculaires et ondulatoires, en fonction de la valeur de la fréquence de rayonnement. Pour les valeurs à haute fréquence (dans la région gamma du spectre), le caractère corpusculaire prédomine. Alors que pour les basses fréquences (dans la région du spectre qui décrit les ondes radio) l’aspect d’onde prédomine.

Implications de b): caractère ondulatoire des particules.

A été testé dans des expériences de diffraction d’électrons et de neutrons. Ce que ces expériences révèlent, c’est qu’une sorte d’onde accompagne le mouvement des particules comme responsable du phénomène de diffraction. Nous avons donc à nouveau un exemple de dualité entre les propriétés corpusculaires et ondulatoires, associées dans ce cas à des particules.

Mais l’apparition du phénomène d’onde ne se produit pas seulement au niveau microscopique, elle se manifeste également pour des objets macroscopiques, bien que dans ce cas l’onde associée ait une longueur d’onde si petite qu’en pratique elle est inestimable et qu’il est impossible de réaliser une expérience de diffraction qui la révèle.

Implications de c): existence de grandeurs physiques discontinues.

Révèle le caractère intrinsèquement discontinu de la Nature, qui est mis en évidence, comme exemple le plus notable, dans le spectre d’énergie des atomes. De l’existence de ces discontinuités énergétiques s’explique la stabilité de la matière.

 Théorie quantique, une approximation de l'univers probable

Un exemple concret

Analysons pour le cas de l’atome d’hydrogène, selon le modèle de Bohr, comment ces trois hypothèses quantiques précédentes, a), b) et c) sont conjuguées. L’atome d’hydrogène est compris comme un système stable constitué d’un électron et d’un proton. L’électron peut être trouvé dans un ensemble infini mais discontinu de niveaux d’énergie.

Pour passer d’un niveau à un autre, l’électron doit absorber ou émettre un quantum de rayonnement discret dont l’énergie est égale à la différence d’énergie entre ces niveaux. Les niveaux d’énergie possibles des électrons sont représentés mathématiquement par des fonctions d’onde, appelées « fonctions d’état », qui caractérisent l’état physique de l’électron au niveau d’énergie correspondant.

Pour connaître la valeur expérimentale de toute propriété se référant à la particule, vous devez « demander » sa fonction d’état associée. Autrement dit, une telle fonction constitue un type de représentation de l’état physique, de sorte que l’état de l’électron au nième niveau d’énergie est décrit par la nième fonction d’état.

La fonction d’onde

La description la plus générale de l’état électronique de l’atome d’hydrogène est donnée par la « superposition » de différentes fonctions d’état. Un tel chevauchement est connu sous le nom de « fonction d’onde ». La superposition des états possibles est typique de la Théorie quantique et n’est pas présentée dans des descriptions basées sur la physique classique.

Dans ce dernier cas, les états possibles ne sont jamais superposés, mais sont affichés directement sous forme de propriétés réelles attribuables à l’état du système. Au contraire, spécifier l’état du système en Théorie quantique implique de prendre en considération la superposition de tous ses états possibles. Les fonctions d’onde ne sont pas des ondes associées à la propagation d’un champ physique quelconque (électrique, magnétique, etc.), mais des représentations qui permettent de caractériser mathématiquement les états des particules auxquelles elles sont associées.

Le physicien allemand Max Born a proposé la première interprétation physique des fonctions d’onde, selon laquelle le carré de leur amplitude est une mesure de la probabilité de trouver la particule associée à un certain point de l’espace à un certain instant. Ici se manifeste un fait qui se répétera tout au long du développement de la Théorie quantique, et c’est l’apparition de la probabilité comme composante essentielle de la grande majorité des analyses.

Probabilité en Théorie quantique

La Théorie quantique est une théorie purement probabiliste. Il nous parle de la probabilité qu’un événement donné se produise à un moment donné, pas du moment où l’événement en question se produira certainement. L’importance de la probabilité dans son formalisme a été le principal point de conflit entre Einstein et Bohr lors du cinquième Congrès de physique de Solvay en 1927.

Einstein a soutenu que la forte présence de la probabilité dans la Théorie quantique en faisait une théorie incomplète remplaçable par une meilleure théorie hypothétique, dépourvue de prédictions probabilistes, et donc déterministe. Il a inventé cette opinion dans sa phrase désormais célèbre: « Dieu ne joue pas aux dés avec l’Univers. »

La position d’Einstein est que le rôle attribué à la probabilité en Théorie quantique est très différent de celui qu’elle joue en Physique classique. En cela, la probabilité est considérée comme une mesure de l’ignorance du sujet, en raison du manque d’informations, sur certaines propriétés du système étudié. On pourrait alors parler d’une valeur subjective de probabilité. Mais en théorie quantique, la probabilité a une valeur objective essentielle, et elle n’est pas soumise à l’état de connaissance du sujet, mais, d’une certaine manière, la détermine.

Selon Einstein, la Théorie quantique devrait être complétée en introduisant dans son formalisme un ensemble supplémentaire d’éléments de la réalité (appelés « variables cachées »), soi-disant ignorés par la théorie, qui, une fois pris en compte, fournirait les informations manquantes qui transformeraient ses prédictions probabilistes en prédictions déterministes.

Mario Toboso est titulaire d’un doctorat en Sciences physiques de l’Université de Salamanque et est membre de la Chaire de Science, Technologie et Religion de l’Université Pontificale de Comillas. Editeur du Blog Tempus de Tendencias21 et membre du Comité de rédaction de notre magazine. Cet article est le premier volet d’une série en deux parties sur la Théorie quantique. Voir ensuite : La théorie quantique interroge la nature de la réalité.

Related Post

Leave A Comment