Exposé sur la mécanique Quantique

Limites de la physique classique et hypothèses

1 – Le rayonnement du corps noir

L’expérience

L’expérience est basée sur l’observation suivante : un corps chauffé à une température T émet un rayonnement. L’expérimentation consiste à chauffer une cavité fermée (donc tout le rayonnement émis est emprisonné) et d’examiner le rayonnement émis à travers un petit trou pratiqué sur la cavité. Si l’absorption est totale, l’intensité émise ne dépend pas du matériau choisi. Il n’est pas possible expérimentalement d’obtenir cette absorption totale, mais il suffit pour cela de réaliser l’expérience avec une cavité complètement fermée dans laquelle le rayonnement peut subir des réflexions sur les parois et finir par être absorbé après plusieurs réflexions. En perçant un trou de petite taille dans la cavité, pour que l’équilibre entre émission et absorption persiste, on peut alors mesurer le faible rayonnement qui en sort. Si on regarde dans le trou, on observe un noir profond d’où l’appellation de corps noir. Ce rayonnement est émis a priori à toutes les fréquences donc à toutes les longueurs d’onde possibles. Le résultat de l’expérience est le suivant : on reporte l’intensité émise par unité de temps en fonction de la fréquence (ou de la longueur d’onde) du rayonnement détecté. On observe ainsi des courbes d’intensité qui augmentent avec la fréquence jusqu’à atteindre un maximum pour ensuite décroître et tendre vers zéro pour les grandes fréquences. Cette décroissance, appelée catastrophe ultraviolette à l’époque, est en total désaccord avec la théorie classique.

Tout d’abord, comment interpréter l’émission de ce rayonnement ? On sait à l’époque que la matière contient des électrons de charge négative. Les parois sont constituées de telles particules chargées qui vibrent en raison de la température et ainsi émettent un rayonnement électromagnétique. Nous pouvons donc considérer nos parois comme étant constituées d’un très grand nombre d’oscillateurs harmoniques qui peuvent émettre toutes les longueurs d’onde.

2 – L’effet photoélectrique

L’expérience

Un autre phénomène était observé à l’époque : l’effet photoélectrique. Du point de vue qualitatif, il ne posait pas de problème de fond aux savants de l’époque mais d’un point de vue quantitatif la situation était plutôt mystérieuse. L’expérience est la suivante : en envoyant de la lumière sur une plaque métallique, et en plaçant un collecteur sous vide près de cette plaque, on peut détecter un courant.

Que des électrons soient arrachés du métal par des photons n’est pas surprenant dans le schéma classique puisqu’on sait que la lumière est caractérisée par un champ électrique qui peut exercer une force sur les électrons. En revanche, ce qui est plus étonnant dans ce type d’expérience est que ce n’est pas l’intensité du rayonnement incident qui est le facteur prépondérant mais plutôt sa fréquence. Ainsi, en dessous d’une certaine fréquence du rayonnement incident, aucun électron n’est éjecté, même pour une forte intensité du rayonnement incident ! Dans le même ordre d’idée, si on se place au-dessus de la fréquence pour laquelle apparaît un courant, on peut alors détecter l’énergie cinétique des électrons émis. On s’attend en théorie classique à ce que cette énergie cinétique augmente lorsqu’on augmente l’intensité du rayonnement (pour une fréquence fixée). Il n’en est rien : le nombre d’électrons détectés augmente, mais leur énergie cinétique est fixe !

Le concept corpusculaire de la lumière d’Einstein

Le véritable premier pas conceptuel fut donné (encore !) par Albert Einstein en 1905 pour expliquer l’effet photoélectrique. Il propose en effet de considérer que la lumière est transmise à la matière par paquets d’amplitude  :

Ceci revient en fait à considérer un rayonnement de fréquence  comme une assemblée de particules ayant chacune l’énergie  . Cette quantité appelée plus tard quantum d’énergie peut alors être entièrement captée par un électron lui permettant ainsi de sortir du métal. Cette hypothèse explique bien la dépendance en fréquence de l’effet photoélectrique, puisque si la fréquence et donc l’énergie est en dessous d’une valeur seuil nécessaire à vaincre l’attraction du noyau des atomes constituant le métal , l’électron ne sort pas.

3 – Stabilité et spectre d’émission des atomes

L’observation

Dans le même ordre d’idée, les scientifiques de l’époque avaient élaboré un modèle de l’atome qui permettait d’expliquer un grand nombre d’expériences en physique et en chimie. Il se basait sur l’existence de l’électron (découvert par Joseph John Thomson en 1897) qui était supposé  » graviter  » (c’est un abus de langage car ceci n’a rien à voir avec la gravitation!) autour d’un noyau de charge positive. Ce modèle planétaire est a priori viable puisque rien n’empêche un électron de tourner sur une orbite circulaire stable avec un bilan des forces nulles (force d’attraction du noyau = force centrifuge). Néanmoins, on savait également à l’époque qu’une particule chargée qui subit une accélération émet un rayonnement et donc perd de l’énergie. Dans le modèle planétaire de l’atome, l’électron subit une accélération centripète et par suite devrait émettre un rayonnement et ainsi perdre de l’énergie, pour finalement venir s’écraser sur le noyau !

De même dans ce modèle, on ne prévoit pas une seule orbite mais un grand nombre de solutions. Cet aspect discret des orbites permet ainsi d’expliquer qualitativement les spectres d’émission des atomes, en supposant que lorsque l’électron passe d’une orbite à une autre il émette un rayonnement. Ces spectres représentent la longueur d’onde du rayonnement détecté pour un élément donné. Malheureusement, il est impossible de justifier les valeurs obtenues avec l’approche classique.

Spectre d’émission des atomes : le modèle de Bohr

Pour expliquer le spectre d’émission de l’atome d’hydrogène, Niels Bohr proposa en 1913 un modèle de l’atome basé sur le modèle planétaire, mais en s’inspirant des résultats sur les quanta d’énergie. Il considère en effet que les électrons  » tournent  » autour du noyau mais pas avec n’importe quelle orbite, ou plus précisément pas avec n’importe quel moment cinétique. Il proposait donc de quantifier le moment cinétique comme étant un multiple de la fameuse constante de Planck. Il aboutit alors à une quantification des niveaux d’énergie. Ensuite, il postule que lorsqu’un électron passe d’un niveau de haute énergie vers un niveau de plus basse énergie, il émet un photon. A l’inverse, il propose qu’un électron passe vers un niveau excité par absorption d’un photon ayant une énergie suffisante. En résumé, il émet 3 postulats qu’il suppose valables pour tout système à l’échelle atomique:

(i) Quantification de l’énergie : un système à l’échelle atomique ne peut exister que dans certains états stationnaires. L’énergie d’un tel système ne peut donc prendre que des valeurs discrètes, qui définissent les niveaux d’énergie

(ii) Emission d’un photon : quand le système passe d’un état stationnaire de haute énergie  vers un état stationnaire de plus basse énergie  , il émet un photon de fréquence fixée égale à

(iii) Absorption d’un photon: à l’inverse, le système dans un état stationnaire peut accéder à un autre état stationnaire par absorption d’un photon d’énergie correspondant à l’écart d’énergie entre les deux états.

Une telle structuration des  » couches  » électroniques a permis d’expliquer quantitativement le spectre de raies de l’atome d’hydrogène : ainsi lorsque les électrons sont excités d’une couche à une autre, lorsqu’ils redescendent vers un état plus stable ils libèrent de l’énergie sous forme de photons, à des fréquences bien précises. Vous vérifierez en exercice qu’une telle expression explique très bien quantitativement le spectre d’émission, ce qui fit le succès spectaculaire du modèle de Bohr. Malheureusement, les choses se compliquèrent pour des spectres d’absorption plus complexes, montrant les limites du modèle de Bohr. Mais on était sur la bonne voie.

Il manquait donc une constante universelle, à savoir la constante de Planck h, pour expliquer ce phénomène grâce à la mécanique classique.

La dualité onde-corpuscule

1 – Photon : onde ou corpuscule ?

Les fentes d’Young ou l’impuissance du raisonnement classique

Le concept révolutionnaire introduit par Einstein a permis d’expliquer de façon extrêmement simple l’effet photoélectrique, mais il plonge les scientifiques dans le doute et l’incompréhension. Jusqu’alors la lumière était une onde non localisée, ce qui permettait ainsi d’expliquer les phénomènes d’interférences optiques. Mais comment comprendre ces phénomènes si on considère maintenant la lumière faîte de corpuscules appelés photon d’énergie  ?

Pour répondre à cette question, reprenons l’expérience des fentes d’Young que vous connaissez. On envoie un rayonnement électromagnétique monochromatique sur une plaque percée de deux petites fentes (de largeur analogue à la longueur d’onde du rayonnement), et on récolte l’image sur un écran. Vous avez traité ce problème en considérant le rayonnement comme une onde diffractée par les trous, et en calculant la somme de l’amplitude des ondes en un point P de l’écran. Vous avez trouvé que la somme de l’amplitude de ces ondes donne lieu à des interférences constructives ou destructives conduisant à des franges.

Expérience des fentes d’Young. Si l’une des deux fentes est fermée, on observe l’image de diffraction d’une seule fente. Lorsque les deux fentes sont ouvertes, on observe une image d’interférence des ondes provenant des deux fentes

Maintenant essayons de raisonner avec des particules. Notre rayonnement incident est alors fait d’un grand nombre de particules qui peuvent passer par l’un ou l’autre trou et avoir des trajectoires particulières telles qu’on détectera beaucoup de photons sur les raies intenses et peu sur les zones éteintes de l’image d’interférence. Est-ce correct ? Eh bien faisons l’expérience, en amenant un flux de photons faible de telle manière qu’il est possible de voir l’impact des photons sur le détecteur. Effectivement, on voit l’impact des photons sur l’écran qui confirme bien leur aspect corpusculaire. Et on se rend compte alors d’un fait peu étonnant mais relativement nouveau : la figure d’interférence ne se forme pas immédiatement, mais petit à petit, au fur et à mesure que le nombre d’impacts grandit (figure 6). On met donc ici le doigt sur une notion importante qui n’apparaît pas si on raisonne de façon ondulatoire, à savoir que ce phénomène possède un caractère probabiliste. Ajoutons qu’ici cette expérience n’a aucune raison a priori de dépendre du flux de photons. Donc si j’envoie les photons un par un, mon image d’interférence se formera tout du même.

t1

t2

t3

Formation au cours du temps de la figure d’interférence. L’impact sur l’écran des particules prouve l’aspect corpusculaire des photons, la figure d’interférence l’aspect ondulatoire

Cette expérience montre également un aspect d’une grande importance pour la compréhension. Considérons une source ponctuelle qui émet un rayonnement isotrope dans l’espace. Vous avez eu alors l’habitude de « visualiser » ce champ rayonné en dessinant des sphères iso-champs ou iso-énergie centrées sur la source ponctuelle. Nous voyons ici que cette construction a un sens uniquement si un grand nombre de photons sont émis, mais pas si un seul photon est émis. En effet, ce photon ne peut occuper tout l’espace pour la raison suivante : s’il est détecté à un endroit donné, par un détecteur ponctuel, il ne pouvait pas être ailleurs, sinon cela voudrait dire qu’il est allé plus vite que la lumière. Ce raisonnement montre également que le photon n’est pas divisible.

Influence de la mesure

Mais cet aspect ondulatoire soulève un problème inextricable en physique classique : en effet, si on raisonne de façon ondulatoire, l’onde est passée par les deux trous en même temps. Mais d’un point de vue corpusculaire, que dire ? Le photon est-il passé par les deux trous en même temps ? Pour répondre, rien de plus simple, mettons des détecteurs qui font  » bip  » juste à la sortie des trous, et envoyons un photon. Si les deux détecteurs font bip en même temps, il est passé par les deux trous. Sinon non. Que dit l’expérience ? Les deux détecteurs ne se déclenchent jamais en même temps ! On est donc bien en accord avec l’aspect corpusculaire et non l’aspect ondulatoire ! Attention, nous n’avons pas fini de décrire complètement les observations de cette expérience. En effet, on se rend compte expérimentalement que si jamais on détecte par où est passé le photon la figure d’interférence disparaît !

On lève là un deuxième point totalement nouveau : plus on cherchera à savoir par où est passé le photon, moins on aura de chance de  » fabriquer  » l’image d’interférence. Cette idée est difficile à admettre, même Einstein n’y croyait pas et a proposé des expériences toujours plus ingénieuses pour mettre en doute cet état de fait. Jusqu’à présent, toutes les expériences sont en accord avec cet état de fait : on n’a jamais pu détecter par où passait le photon tout en conservant l’image d’interférence.

La structure de la matière à l’échelle nanométrique, première partie

1.1.    Présentation de l’atome

1.1.1. Premières évolutions

Aujourd’hui, l’atome n’est plus considéré comme un grain insécable, nous savons qu’il est constitué d’un noyau (lui-même divisible en plusieurs éléments) et d’électrons.

Contrairement aux Grecs qui imaginaient l’atome comme « une fin en soi » ou plutôt qu’il n’existait qu’un seul atome et que seul l’agencement des atomes conditionnaient la matière à notre échelle, nous savons également qu’il existe quelques 120 atomes différents, nous verrons par la suite ce qui les différencie.

1.1.2.  Ordres de grandeur

Si toutes les prémonitions des atomistes grecs n’étaient pas exactes, l’une d’entre elle est toujours d’actualité : la réalité est effectivement formée d’atomes trop petits pour être perçus, il nous faut pour les observer –et les manipuler !- utiliser des outils qui sont nés à la fin du XXe siècle. Nos seuls yeux ne peuvent réaliser ce périlleux exercice. Afin d’avoir quelques idées d’ordres de grandeur, nous allons prendre quelques exemples de taille et de masse d’atomes.

Tout d’abord, parlons de noyaux d’atomes :

  • Le plus petit noyau d’atome est, à ma connaissance, celui du protium[1], son symbole chimique est  1H : le noyau de cet atome a un diamètre de 2,4 fm[2], soit 2,4.10-15m (quelques 2,4 millionièmes de milliardièmes de mètre[3]). Le noyau du protium pèse 1,674.10-27kg (soit 1,674 milliardième de milliardième de milliardième de kilogramme, c’est vraiment très petit).
  • Le plus gros noyau d’atome est celui de l’Uranium 238, son symbole chimique est 238U : le noyau de cet atome a un diamètre de14,8 fm et pèse 3,953.10-25kg. On remarquera que ce noyau d’atome, le plus gros qui soit, est à peine 7 fois plus grand que celui du plus petit des atomes pour un poids plus de cent fois supérieur.

Si on s’intéresse à présent à la taille des atomes dans leur ensemble (noyau et électron(s) compris) :

  • L’atome d’hélium, le plus petit des atomes nous expliquerons par la suite pourquoi ce n’est pas le protium, a un diamètre de 62 pm[4], soit 6,2.10-11m (6,2 centièmes de milliardièmes de mètre).
  • L’atome de Césium, le plus gros, a quant à lui un diamètre de 596pm. On notera que le plus gros des atomes est près de cent fois plus grand que le plus petit et aussi que ce ne sont pas les atomes ayant les plus gros (ou plus petits) noyaux qui sont forcément les plus gros (ou plus petits), d’autres facteurs influent sur la taille.
  • Le noyau de l’atome d’Hydrogène est 40000 fois plus petit que l’atome d’Hydrogène.

On ne donne pas la masse des atomes car on considère que tout ce qui est significatif (tout ce qui compte) se trouve dans le noyau, et, effectivement, le noyau concentre en moyenne 99,9% de la masse de l’atome entier ! Par exemple, le noyau du Lithium 7 pèse 43000 fois plus que les trois électrons qui l’entourent.

Nota Bene : Les chiffres que nous définissons ne sont valables qu’en se tenant aux isotopes significativement abondants (il existe des noyaux plus lourds mais aussi plus instable par exemple).

Il est important à présent de se demander ce qui peut influer sur la taille ou le poids d’un atome, donc ce qui le constitue, et également ce qui différencie deux atomes.

1.1.3. La structure de l’atome

Le modèle de structure atomique le plus simple tout en illustrant le mieux la réalité est celui imaginé par le physicien Bohr : l’atome était vu analogiquement au système solaire, son noyau au centre et ses électrons gravitant autour à diverses distances. Ce modèle, comme nous le verrons par la suite est approximatif et ne décrit pas la réalité telle que nous l’observons mais nous nous en servirons tout de même pour expliquer certains phénomènes (notamment en cristallographie).

Le modèle correspondant à la réalité de l’atome est très complexe et je ne parviendrais pas à vous l’expliquer avec des mots, nous pouvons toutefois imaginer ceci ensemble : au centre de l’atome se trouve un agrégat de sphères (c’est en réalité faux mais suffit en première approximation) et autour de cet agrégat –le noyau- des sphères concentriques dans lesquelles on trouve les électrons.

Ainsi, un atome est constitué de plusieurs éléments :

  • Dans le noyau se trouvent les nucléons[5], en fait deux particules différentes :
    • Les particules électriquement neutres mais massives, appelées neutrons
    • Les particules électriquement chargées et massives, appelées protons.

Je dis les particules car il peut y en avoir plusieurs[6]. Les nucléons font partie de la catégorie de particules appelées les baryons, nous ne préciserons pas les autres particules de la catégorie, vous pouvez retenir que les protons et neutrons en sont les membres les plus représentatifs. Et c’est maintenant que tout devient intéressant, parce que les nucléons, qui sont donc de type baryon, appartiennent également à la famille des hardrons, c’est-à-dire qu’ils sont composés de quarks. Et c’est, en fait, tout ce qui nous intéresse, il n’est absolument pas nécessaire de retenir l’enchainement des types et familles ! Bien, les nucléons sont donc composés de quarks qui sont des particules élémentaires, il existe des quarks up et des quarks down, un proton est composé de deux quarks up et un down, un neutron de deux quarks down et un up, on note ainsi :

n0=udd pour le neutron et p+=uud pour le proton (le 0 indique que le neutron est électriquement neutre, le + que le proton est chargé positivement). En tant qu’hardrons, les nucléons sont liés par l’interaction nucléaire forte[7] (la liaison nucléaire). Les nucléons sont également des fermions et obéissent donc au principe d’exclusion de Pauli dont nous parlerons plus tard[8].

  • Autour du noyau gravitent donc les électrons, quand il y en a plusieurs on parle de nuage électronique. De quoi est donc fait un électron (et qu’est-ce qu’un électron ?) ? Les électrons sont des leptons (ils constituent avec les quarks, gluons, muons et autre nucléons le groupe des fermions). Ils sont constitués des bozons Z0 et W+ ou W(pour le boson de Higgs je ne sais pas) et des photons, leur cohésion propre est donc due à l’interaction faible et à elle seule[9]. Les électrons sont chargés négativement (et sont donc en nombre exactement égal à celui des protons du noyau). Leur organisation au sein de l’atome est assez complexe et nous en ferons la description par la suite mais retenez dès lors qu’ils occupent les sphères concentriques entourant le noyau appelées orbitales atomiques (sortes de strates de niveaux d’énergie quantifiés, nous abordons ici le monde de la mécanique quantique).

Les électrons et le noyau sont liés par l’interaction électromagnétique qui résulte de l’opposition des charges positives du noyau (protons) et négatives du nuage d’électrons.

On pourra retenir, en bref, qu’un atome est en réalité constitué de particules élémentaires plus et petites et peut donc être divisé. Mais il constitue bien la plus petite unité indivisible d’un élément chimique en tant que tel : en brisant un atome on obtiendra des électrons, protons et neutrons mais n’aura plus un corps simple ayant les propriétés de l’atome.

Nous pourrions à présent nous intéresser à la structure précise du noyau de l’atome mais cela s’avère très compliqué et nécessite l’usage d’outils mathématiques avancés, nous n’étudierons donc que le nuage électronique. Effectivement, cette étude nous permettra de continuer sur des notions de cristallographie (par exemple) et donc de comprendre la structure de la matière à l’échelle nanométrique.

On retiendra cependant quelques notions :

  • On néglige l’interaction gravitationnelle du fait de sa faible intensité devant celle des trois autres interactions à cette échelle.
  • Un isotope est le noyau d’un élément chimique ayant le même nombre de proton que le « noyau de base » mais au nombre de nucléons différents : un isotope a donc plus ou moins de neutrons que le noyau « de base ». L’isotope a les mêmes propriétés chimiques que l’atome « de base » mais son nombre de masse étant différent, son instabilité augmente (ou diminue dans le cas de neutrons moins nombreux). Par exemple : le carbone est pourvu de 6 électrons, donc six protons et se voit « basiquement » pourvu de six neutrons, nous connaissons tous son isotope le carbone 14 qui est lui pourvu de 8 neutrons.

[1] Le protium est un isotope de l’hydrogène, nous verrons plus loin ce que signifie isotope.

[2] fm, symbole de femtomètre

[3] Pour vous donner une idée, un adulte français fait en moyenne 1,76m.

[4] pm symbole de picomètre

[5] Nucléons, noyaux, nucléaire…

[6] Ainsi, il y a 6 protons dans le noyau d’atome de carbone, mais il n’y a aucun neutron dans le noyau du protium, nous préciserons tout cela avec la notion d’isotope.

[7] Il existe quatre interactions majeures : l’interaction gravitationnelle qui fait que les objets tombent, l’interaction électromagnétique qui explique le phénomène des aimants, l’interaction forte qui régit l’ordre au sein du noyau de l’atome et l’interaction faible qui régit l’ordre au sein de particules élémentaires. Il est à noter qu’à l’échelle de l’atome, et à de rares exceptions -que nous soulèveront- près, on néglige l’interaction gravitationnelle, son intensité étant insignifiante au vu des masses mises en jeu.

[8] Ne pleurez pas encore, tout n’est pas révélé et nous n’avons fait que frôler la mécanique quantique pour le moment !

[9] Le donc vous surprendra certainement, si vous le désirez nous pourrons en faire la démonstration mathématique, mais ne me prenez pas au dépourvu, ça se prépare !

La structure de la matière à l’échelle nanométrique, introduction

L’idée d’atome est apparue il y a très longtemps, avant de devenir la théorie sur laquelle se base tout ou partie des sciences de la matière.

Ainsi, la théorie dite atomiste est née dans la Grèce Antique, aux alentours du VIe siècle avant notre ère. Les pères de cette théorie, on parlait alors de philosophie atomiste, sont Leucippe et Démocrite.

Le premier, aîné dans l’apprentissage de l’autre, avait imaginé que la réalité pouvait être constituée d’atomes trop petits pour être perçus. Il disait que tout ce qui existe n’est fait que d’atomes et d’espace, et les différents objets ne sont que des atomes assemblés différemment dans l’espace. Cet homme était parvenu à conceptualiser cela à une époque ou la notion même d’observation scientifique n’existait pas : il ne disposait d’aucun outil que nous ayons aujourd’hui (lunettes, loupe sans parler de microscope) et les outils mathématiques à sa portée ne permettaient absolument pas une abstraction suffisante à la théorisation poussée à ce niveau. Et pourtant, de sa réflexion est née cette idée d’une matière qui, coupée, puis redécoupée, ne pourrait l’être à l’infini : au bout d’un moment on arriverait à la particule élémentaire, la brique basique : l’atome[1].

Démocrite est lui allé plus loin dans l’abstraction : il disait que l’univers[2] lui-même n’est pas continu mais constitué d’entités séparées. Il a également introduit le concept de non-causalité : pour lui la science ne devait pas s’embarrasser de notions de fin ou de but (citation : « je préfère découvrir une cause plutôt qu’obtenir le royaume de Perse »). Dans une société où le moindre phénomène naturel était mis au crédit de l’humeur des dieux, Démocrite affirmait lui qu’il n’y avait là nulle cause mais uniquement des phénomènes naturels explicables grâce à la science. Son idée d’univers non continu complète l’idée de Leucippe d’une manière formidable : les îlots d’atomes assemblés ne constitueraient pas que la matière visible mais aussi l’ensemble de l’Univers.

Si ces idées sont des plus intéressantes et ont certainement influencé les scientifiques jusqu’à nos jours, il ne faut voir là que de géniales appréhensions et non pas leur attribuer des idées qui ne viendront que beaucoup plus tard. Cela dit, leurs intuitions demeurent d’une profonde originalité !

L’idée d’une matière constituée d’atomes a été disputée jusqu’à la fin du XIXe siècle et les expériences de physique nucléaire qui ont mis en évidence l’existence de l’atome.


[1] Atome vient du grec ατομος [atomos] : « que l’on ne peut diviser » ou « qui ne peut être coupé ».

[2] Le terme univers recouvrait alors l’ensemble du monde observable : la Terre, les Cieux…