Les rayonnements optiques

(Infrarouge, Visible, Ultraviolet)

Le sous-titre de cet article suit l’ordre croissant des fréquences que nous avons adopté pour parler des rayonnements électromagnétiques ; mais je pense préférable de nous occuper d’abord de la petite tranche centrale, de très faible étendue (moins d’un octave), mais tellement importante pour nous et pour un très grand nombre d’êtres vivants : la lumière visible. La plupart des animaux sont munis d’yeux, plus ou moins performants, qui leur fournissent des informations indispensables et les plantes elles mêmes ont besoin de la lumière pour se nourrir grâce à la fonction chlorophyllienne.

Remarquons d’ailleurs que les deux domaines adjacents sont définis par rapport à la lumière visible : infra- rouge et ultra- violet. Nous n’en parlerons donc qu’après avoir parlé de la lumière visible.

La Lumière Visible

Ses limites sont définies par la courbe de réponse de l’œil humain ; en longueurs d’onde, elle va de 750 à 380 nanomètres environ (dans ces domaines optiques, on compte en longueurs d’onde et très rarement en fréquences).

Selon sa longueur d’onde, chaque radiation dans cet intervalle nous apparaît selon une couleur qui lui est propre : ce sont les couleurs de l’arc-en-ciel. Voici en gros les longueurs d’onde correspondant aux couleurs :

Bien entendu, lorsque la longueur d’onde varie de façon continue, on passe d’une couleur à l’autre de façon continue également . La tradition veut que l’on distingue sept couleurs dans l’arc-en-ciel ; pour obtenir ce nombre fatidique, on a ajouté l’indigo entre le bleu et le violet, ce qui permet aussi de mémoriser un alexandrin :

Et la lumière blanche ? me demandera-t-on. Eh bien, la lumière blanche n’existe pas en soi : notre œil a cette sensation de " lumière blanche " lorsqu’il reçoit, dans les proportions convenables, les rayonnements compris entre ces longueurs d’onde. Encore n’est il pas nécessaire que toutes ces longueurs d’onde soient présentes pour donner cette impression de blanc. Les études physiologiques sur la perception des couleurs ont montré qu’une combinaison de trois couleurs convenablement choisies et dosées permettait de reconstituer toutes les couleurs et nuances perceptibles par l’œil, y compris le blanc. Cette constatation est la base de la photographie et de la télévision en couleurs. Chaque pixel d'un écran d'ordinateur ou de téléviseur est formé d'un groupe de trois points : rouge, vert et bleu.

D’ailleurs, cette " trichromie " n’a pas été inventée par l’homme : elle existait déjà dans notre rétine, qui comprend, entre autres, trois types de récepteurs sensibles à trois couleurs de base, ce qui nous permet de voir le monde en couleurs. Tous les animaux n’ont pas cette chance ; certains d’entre eux, et les humains atteints de daltonisme, n’ont que deux types de récepteurs, d’ou une perception très appauvrie des couleurs, et un grand nombre n’ont qu’un seul type de récepteurs, ce qui ne permet qu’une vision " noir et blanc ".

Encore une remarque sur la vision : le maximum de la courbe de l’énergie émise par le Soleil se situe vers 550 nanomètres (dans le jaune-vert) et il se trouve que c’est vers cette longueur d’onde que l’œil humain présente son maximum de sensibilité. Coïncidence ? Plutôt adaptation.

Evolution des connaissances sur la lumière

Plutôt que d’essayer d’évoquer cette évolution dans son ensemble, ce que je ne me sens pas capable de faire avec clarté, je vais séparer les connaissances en domaines distincts. Commençons par la vitesse de la lumière.

Vitesse de la lumière

J’ai lu quelque part (mais je n’ai pu retrouver cette source) qu’une première tentative de mesure de la vitesse de la lumière avait été faite (est-ce par un philosophe grec, est-ce au début de la Renaissance ?) par la méthode suivante :

L’expérimentateur et un aide sont tous deux munis d’une lanterne occultée par un volet ; ils se placent à une certaine distance, puis l’expérimentateur démasque sa lanterne et l’aide doit démasquer la sienne aussitôt qu’il voit la lumière.

Ayant constaté que, quelle que soit la distance, la réponse était instantanée, l’expérimentateur en conclut que soit la propagation de la lumière était instantanée (vitesse infinie), soit la vitesse était trop grande pour être mesurée par cette méthode : conclusion qui fait honneur au sens scientifique de cet homme.

La question : vitesse infinie ou finie ? préoccupa beaucoup la communauté scientifique au 17ème siècle. Descartes croyait à une vitesse infinie et il écrivait en 1634 que si l’on démontrait la vitesse finie de la lumière, il devrait avouer ne rien comprendre à la philosophie.

Cette démonstration vint cependant quelque 40 ans plus tard (Descartes était mort en 1650), lorsque l’astronome danois Olaf Roemer, observant les occultations des satellites de Jupiter par la planète, montra que l’avance ou le retard pris par ces évènements dépendait de la variation de distance Terre-Jupiter et impliquait donc une vitesse finie pour la propagation de la lumière.

A partir de ces observations on calcula donc la vitesse de la lumière et on trouva, à l’époque (1676), 312 500 km par seconde.

En 1728, l’astronome anglais James Bradley découvrit l’aberration, déplacement apparent de la position des étoiles dû au mouvement orbital de la Terre. Ce phénomène implique une vitesse finie de la lumière et permet de la calculer. Bradley trouva 299 648 km / s, valeur étonnamment proche de la valeur actuellement admise.

Puis les physiciens prirent le relais des astronomes. En 1849, Fizeau, par la méthode de la roue dentée, put mesurer la vitesse de la lumière sur un trajet de quelques kilomètres et obtint 312 146 km / s. Par la même méthode, perfectionnée, Perrotin et Cornu ont trouvé, en 1875, 299 917 km / s.

Pour pouvoir travailler sur des distances réduites (environ 20 m), Foucault, en 1862, imagina et mit en œuvre la méthode du miroir tournant et trouva 298 000 km / s. Vingt ans plus tard, Newcomb, utilisant une base plus grande (3700 m), obtint 299 860 km / s. Enfin Michelson, celui de la fameuse expérience qui mit fin à l’hypothèse de l’éther, trouva en 1926 299 796 km / s.

La valeur actuellement admise est 299 792 km / s, soit, dans la pratique, 300 000 km / s ou si l’on préfère 300 Mm / s.

Notre expérimentateur aux lanternes n’avait vraiment aucune chance de la mesurer ; du moins lui revient-il l’honneur de l’avoir entrepris.

Optique Géométrique

C’est la discipline qui s’occupe des trajets des rayons lumineux. Pas plus que les mesures précédentes, elle ne se pose de questions sur la nature de la lumière.

Dans un milieu homogène, les rayons lumineux vont en ligne droite, du moins à notre échelle, car Einstein a démontré que les masses, en courbant l’espace, courbaient aussi les rayons lumineux ; mais, en raison de la très grande vitesse de la lumière, cette courbure ne se fait sentir que sur des distances considérables (effets de lentilles gravitationnelles observés sur certaines galaxies très éloignées).

Donc nous admettrons une propagation rectiligne des rayons lumineux, et ce postulat sera confirmé par la perfection des instruments d’optique (télescopes, microscopes, etc…) basés sur lui.

Les constatations de base de l’optique géométrique sont aussi vieilles que l’humanité : nos charmantes compagnes ont dû, dès les premiers âges, se mirer sur les mares et les pêcheurs au harpon ont constaté qu’en entrant dans l’eau leur engin semblait se couder, pour reprendre sa forme lorsqu’on l’en sortait. Et les uns et les autres ont pu contempler les couleurs des arcs-en-ciel.

Les applications pratiques suivirent : dans l’antiquité grecque, on avait des miroirs en métal poli et la légende dit qu’Archimède mit le feu à la flotte ennemie à l’aide de miroirs faisant converger les rayons du soleil.

Néron avait une émeraude taillée qu’il utilisait pour regarder les jeux du cirque. (Il semble bien que ce n’était pas pour corriger sa vue, mais seulement pour atténuer la lumière trop vive : ses lunettes de soleil, en quelque sorte).

Je n’ai pas pu trouver de date, mais il semble qu’il ait fallu attendre le 16ème siècle pour que l’art de la taille et du polissage du verre ait permis de faire des lentilles, convergentes ou divergentes, adaptées aux corrections des anomalies de convergence (myopie et hypermétropie) et de la déficience de l’accomodation (presbytie). On a dû réaliser assez vite des loupes plus ou moins puissantes. Les peintres italiens de la Renaissance ont utilisé des " chambres noires " munies d’un objectif, beaucoup plus lumineuses que celles, connues depuis longtemps, munies d’un simple petit trou.

En tout cas, les instruments fondamentaux pour examiner le très petit et le très lointain ont été imaginés à la fin du 16ème ou au début du 17ème siècle : le microscope, pour lequel on avance deux dates :1590 ou 1610, chaque fois en Hollande et la lunette de Galilée en 1609.

( Dessin d'Isabelle, 32 ko)


En réalité, cette lunette avait été inventée en 1608 par le hollandais Lippershey, mais Galilée la perfectionna et l’utilisa à explorer le ciel ; elle a l’avantage de ne pas inverser les images mais son champ est très petit et son oculaire divergent ne permet pas l’usage d’un réticule, aussi lui préféra-t-on bientôt, pour les usages astronomiques, où il importe peu que les images soient inversées, ce que l’on appelle la Lunette astronomique, avec oculaire convergent ; on dit aussi Télescope réfracteur, car l’objectif est une lentille qui fait converger les rayons lumineux par réfraction (nous définirons un peu plus loin).

La réfraction (nous le verrons bientôt) s’accompagne de dispersion de la lumière, ce qui entraîne des aberrations chromatiques, limitant la qualité des images. En 1663, James Gregory avait conçu le principe d’un télescope réflecteur, où l’objectif serait un miroir et non une lentille ; mais c’est Newton qui réalisa, en 1668, le premier appareil de ce type, qui fut ensuite beaucoup perfectionné par William Herschel à la fin du 18ème siècle. Bien que l’on construisit beaucoup de grands réfracteurs au 19ème siècle, les avantages des réflecteurs sont si évidents que l’on ne construit plus, pour les grands appareils, que des télescopes de ce type.

Laissons là ce très succinct et incomplet historique des applications de l’optique géométrique pour en énoncer les lois de base.

Lois de base de l’Optique Géométrique

Rassurez-vous, nous n’allons pas nous lancer dans les mathématiques compliquées souvent associées à cette discipline.

Il me semble nécessaire de donner les lois élémentaires de la réflexion et de la réfraction.

Nous avons vu que les rayons lumineux se propageaient en ligne droite dans un milieu homogène. Voyons ce qui se passe lorsqu’un rayon lumineux arrive à la surface de séparation de deux milieux différents ; cette surface est un dioptre.

Supposons d’abord que cette surface soit plane. Cas général : le rayon incident se divise en deux : un rayon réfléchi et un rayon réfracté ; ces deux rayons restent dans la plan d’incidence, défini par le rayon incident et la normale au dioptre au point ou le rayon incident le frappe.

Pour le rayon réfléchi, c’est très simple : l’angle de réflexion est égal à l’angle d’incidence, mais de l’autre côte de la normale.

Pour le rayon réfracté, c’est un peu plus compliqué. Il y a, bien sûr, le cas où il n’y a pas de rayon réfracté, si le second milieu est opaque. Mais revenons au cas général.

C’est Descartes qui a découvert et formulé la loi de la réfraction ; son expression générale est : n1 * sin i = n2 * sin r, i et r étant les angles des rayons incidents et réfracté par rapport à la normale et n1 et n2 étant des grandeurs caractéristiques des deux milieux, dites indices de réfraction. Cet indice a pour valeur 1 pour le vide, il est très proche de l’unité pour l’air, il vaut 1,33 pour l’eau, 1,5 environ pour le verre ordinaire, 2,41 pour le diamant, etc…

Les valeurs ci-dessus sont celles pour la lumière jaune du Sodium, car l’indice varie avec la longueur d’onde et donc la couleur de la lumière : c’est le phénomène de la dispersion. La lumière blanche étant composée d’une infinité de radiations de longueurs d’onde différentes, le passage par un dioptre réfracteur va la décomposer, chaque couleur étant déviée selon la valeur correspondante de l’indice.

Ce phénomène a été étudié par Newton, qui a démontré la complexité de la lumière blanche, par l’analyse au moyen de prismes et par la synthèse, en recomposant les couleurs du spectre pour obtenir du blanc.

Nous reviendrons sur ce phénomène de dispersion, mais il nous faut d’abord examiner quelques applications des dioptres plans.

La plus simple est le miroir plan, qui propose d’un objet une image virtuelle symétrique de l’objet par rapport au plan du miroir, et donc non superposable à l’objet (main droite, main gauche).

Un autre cas important et très courant dans la vie de tous les jours est la lame à faces parallèles : si cette lame est baignée par le même milieu des deux côtés, la déviation due au dioptre d’entrée est annulée par la déviation inverse du dioptre de sortie, si bien que le rayon qui l’a traversée conserve sa direction d’origine : ce qui nous permet de regarder sans déformation à travers les vitres de nos fenêtres.

Une troisième combinaison de dioptres plans a beaucoup d’importance pour les scientifiques : c’est le prisme, milieu réfringent limité par deux dioptres plans faisant entre eux un angle ; il a deux applications : dans les spectroscopes, il sert à disperser et donc à analyser la lumière ; et une taille spéciale en fait un prisme à réflexion totale, miroir presque parfait utilisé dans les jumelles à prismes.

Considérons maintenant le cas où le dioptre n’est pas plan.

Les lois de la réflexion et de la réfraction s’appliquent toujours par rapport à la normale à la surface du dioptre au point d’entrée ou de sortie du rayon. Bien entendu, le calcul des propriétés des dioptres non plans est beaucoup plus compliqué... Voyons d’abord le cas des miroirs.

Les rétroviseurs sont équipés de miroirs sphériques convexes ; les phares des voitures sont équipés de miroirs concaves approximativement paraboliques. Ce sont aussi des miroirs concaves paraboliques, mais cette fois d’une perfection extrême, qui servent dans les télescopes de toutes tailles.

Les dioptres sphériques limitant un milieu réfringent, le plus souvent un verre, peuvent être associés entre eux, et aussi avec le dioptre plan, pour donner une infinie variété de lentilles : biconvexes, plan-convexes, biconcaves, plan-concaves, convexes-concaves, de toutes courbures et de toutes dimensions : elles sont la base de la plupart des appareils d’optique et sont présentes quasiment dans tous. Pour ne citer que ceux qui ne comportent que des lentilles : loupes, microscopes, lunettes astronomiques, objectifs photographiques, etc… Sans compter la correction des anomalies de convergence ou le défaut d’accomodation de nos yeux.

Les objectifs et les oculaires des appareils optiques comportent généralement plusieurs lentilles, dans le but d’obtenir des images aussi parfaites que possible. Une lentille simple donne une image affectée de nombreux défauts : aberration chromatique, aberration de sphéricité, astigmatisme, distorsion " en croissant " ou " en barillet ", etc…Un bon objectif, fruit de calculs extrêmement " trapus ", est un compromis entre diverses exigences… sans parler du prix !

Je ne parlerai que de l’aberration chromatique, la plus simple à expliquer. Nous avons vu plus haut que l’indice de réfraction variait selon la couleur de la lumière ; il est plus élevé pour le violet que pour le rouge. Donc, sans qu’il soit besoin d’exposer les formules des lentilles, on sent intuitivement qu’une lentille convexe sera plus convergente pour le violet ou le bleu que pour le rouge ou l’orangé ; la mise au point faite sur une couleur ne sera plus valable pour les autres.

Il n’y a pas de remède absolu à ce défaut, néanmoins en associant une lentille convergente et une lentille divergente taillées dans deux verres à pouvoir dispersif différent, on peut faire coïncider les foyers de deux couleurs ; si celles-ci sont bien choisies, les images données par ces lentilles achromatiques sont satisfaisantes.

Dispersion de la lumière. Spectroscopie.

Ce phénomène est gênant pour faire des objectifs ou des oculaires, mais il permet d’analyser la lumière et la discipline qui l’exploite, la spectroscopie, permet des analyses chimiques d’une extraordinaire sensibilité. Mais, en outre, elle a apporté à l’esprit humain une contribution majeure dans sa tentative de comprendre l’Univers. Nous survolerons très rapidement cet apport, laissant de côté les très importantes applications " terrestres ".

Nous avons vu que Newton a étudié rationnellement la dispersion de la lumière : dirigeant un faisceau de lumière solaire sur un prisme, il observa la déviation de ce faisceau, mais aussi son étalement sur un écran en une tache allongée présentant d’un bout à l’autre les couleurs de l’arc en ciel (spectre solaire). Perçant un petit trou dans l’écran, il put sélectionner une couleur et constata que ce faisceau monochrome, envoyé sur un autre prisme, était dévié, mais conservait sa couleur : le spectre solaire était donc dû à la complexité de la lumière solaire. Comme vérification, il imagina un dispositif optique faisant converger en un même point les faisceaux colorés du spectre et obtint une tache blanche.

Le dispositif d’analyse de la lumière fut grandement amélioré par l’adjonction, de part et d’autre du prisme, d’un collimateur et d’une lunette : on aboutit ainsi au spectroscope.

Le physicien allemand Fraunhofer fut, pour le spectroscope, ce que Herschel fut pour le télescope : il le porta à un degré de précision qui lui permit, au début du 19ème siècle, de constater que le spectre solaire était interrompu par de fines raies noires ; il en compta 576 et attribua une lettre de l’alphabet aux plus importantes : par exemple la raie D dans le jaune.

Deux autres physiciens allemands, Gustav Kirchhoff et Robert Bunsen, étudièrent diverses sources lumineuses et arrivèrent à la conclusion que les solides et les liquides suffisamment chauffés émettaient un spectre continu alors que les gaz et les vapeurs émettaient un spectre de raies distinctes, plus ou moins nombreuses, et caractéristiques des éléments. Par exemple, le Sodium, en brûlant, émet une raie très brillante, située dans le jaune. Il fut vite évident que cette raie coïncidait exactement avec la raie noire D de Fraunhofer. Kirchhoff montra qu’un gaz ou une vapeur peut absorber ou émettre la même radiation.

Les raies noires de Fraunhofer furent vite attribuées, pour la plupart, à des éléments chimiques connus sur notre Terre. Des spectroscopes furent installés derrière des télescopes et l’on put constater que les étoiles donnaient des spectres analogues au spectre solaire et l’on put identifier leurs raies d’absorption ; là encore, on put les attribuer à des éléments connus : ainsi fut démontrée l’unité chimique de notre Univers.

Ma petite restriction du paragraphe précédent (" pour la plupart ") a trait au deuxième élément le plus abondant de l’Univers, l’Hélium, qui fut observé par spectroscopie dans le Soleil avant d’être trouvé sur la Terre, où il est beaucoup moins abondant.

Les télescopes et les spectroscopes se perfectionnant, on put analyser la lumière provenant des galaxies lointaines : elles donnèrent toujours les mêmes spectres. Mais on remarqua que les raies dues à un élément étaient plus ou moins décalées vers le rouge par rapport aux raies de ce même élément observées en laboratoire. Dans les années 1920, V. Slipher attribua ce phénomène à un effet Doppler-Fizeau dû à la vitesse d’éloignement des galaxies.

En 1929, Edwin Hubble analysa les vitesses d’éloignement des galaxies calculées par Slipher . Il les relia aux distances qu’on avait pu calculer par photométrie des étoiles céphéides que contiennent certaines galaxies.

Il constata que plus une galaxie était lointaine, plus son spectre était décalé vers le rouge, donc plus grande était sa vitesse d’éloignement.

Ainsi fut établie l’expansion de l’Univers, confortant la théorie du Big Bang.

(Il est amusant de noter que c’est Fred Hoyle, qui ne l’admettait pas, qui dénomma ainsi par dérision cette théorie, universellement adoptée aujourd’hui.)

Nous avons donc appris les lois de l’optique géométrique et en avons tiré des applications merveilleuses dans tous les domaines, aussi bien l’infiniment petit (le microscope a permis, entre autres, la découverte et l’étude des microbes) que l’infiniment éloigné, et cela sans faire d’hypothèse sur la nature de la lumière ; il serait temps de nous en inquiéter un peu… 

Optique Physique Nature de la lumière.

La nature de la lumière a été une des questions les plus importantes de la Physique. Deux hypothèses se sont affrontées ; l’une d’elles a triomphé d’une manière éclatante….. jusqu’à ce que l’on soit contraints de lui adjoindre sa rivale !

Cette histoire est passionnante.

Ondes ou particules ? " Les deux, mon capitaine ! "

Au 18ème siècle et au début du 19ème , s’opposent les tenants de l’émission (les rayons lumineux seraient la trajectoire de particules venant frapper les corps éclairés) et les tenants des ondulations (la lumière serait produite par une vibration d’un milieu hypothétique : l’éther).

La discussion est vive, chaque camp montre les faiblesses de la position de l’adversaire..

Théorie ondulatoire

Un médecin anglais, Thomas Young (1773 – 1829), par une expérience très simple à réaliser, découvre le phénomène des interférences lumineuses. ( Je décris cette expérience et donne des informations complémentaires dans l'appendice

Interférences et diffaction ).

Par l’expérience fameuse des miroirs qui porte son nom, beaucoup plus difficile à réaliser, mais d’interprétation plus simple, Auguste Fresnel (1788 – 1827) obtient aussi des interférences lumineuses.

D’ailleurs, longtemps avant eux, Newton avait observé des interférences de lames minces (les anneaux de Newton), mais à l’époque on n’avait pas su les interpréter.

Et même bien avant Newton, on avait pu admirer les splendides irisations des bulles de savon ou d’une pellicule d’huile sur une flaque d’eau : autres manifestation d’interférences de lames minces.

L’expérience des trous d’Young fait intervenir en outre le phénomène de la diffraction de la lumière.

La polarisation de la lumière fut découverte fortuitement par Jean-Baptiste Biot, en regardant à travers un cristal de spath d’Islande le soleil couchant se refléter sur une fenêtre du palais du Luxembourg.

Or les interférences, la diffraction et la polarisation s’expliquent facilement dans la théorie ondulatoire, qui marqua là un avantage certain. Ses adversaires se livrèrent à quelques contorsions intellectuelles pour arriver à les expliquer dans la théorie de l’émission. Le coup de grâce leur fut porté par Foucault.

Pour expliquer la réfraction de la lumière, la théorie de l’émission postulait que la lumière va d’autant plus vite que le milieu est plus réfringent ; la théorie ondulatoire posait le postulat inverse.

Nous avons vu au paragraphe Vitesse de la lumière que la méthode du miroir tournant de Foucault permettait d’opérer sur des distances réduites à quelques mètres ; il fut donc possible de comparer les vitesses dans l’air et dans l’eau.

Le résultat fut sans appel : la lumière allait plus vite dans l’air que dans l’eau ; c’était donc la théorie ondulatoire qui était la bonne.

Le couronnement de l’édifice fut apporté par la Théorie électromagnétique de la Lumière de Maxwell et ses célèbres équations (se reporter, au besoin, à l’article Ondes hertziennes). L’éther n’était plus nécessaire ; heureusement, car bientôt la fameuse expérience de Michelson allait démontrer son inexistence.

Tout s’expliquait, même le fait que les " vibrations " lumineuses soient transversales, ainsi que l’avaient montré les phénomènes de polarisation.

On comprend que devant la perfection et la cohérence de cet édifice scientifique le grand savant anglais Lord Kelvin ait déclaré tranquillement : "  A part une petite difficulté dans le rayonnement, la Physique est terminée. "

Oui, mais la " petite difficulté " ne se laissa pas résoudre si facilement qu’on l’espérait……

Elle devint même si irritante qu’on parla de " catastrophe ultraviolette ".

Les Quanta

Nous avons vu plus haut que Kirchhoff avait étudié le rayonnement des corps chauffés. Il avait démontré que, pour un corps en équilibre thermique avec le rayonnement qui l’entoure, le rapport entre le coefficient d’absorption et le coefficient d’émission est une fonction universelle, dite fonction de distribution, indépendante du corps et dépendant seulement de la fréquence du rayonnement et de la température.

Or la théorie ondulatoire, par ailleurs solidement établie, conduisait à des paradoxes inacceptables lorsqu’on s’appuyait sur elle pour déterminer cette fonction de distribution.

En octobre 1900, deux physiciens allemands, Max Planck et Heirich Rubens, examinent les mesures de ce dernier, qui confirment et complètent celles de Kirchhoff. Le même soir, Planck trouve empiriquement une loi qui exprime correctement la fonction de distribution.

C’est un progrès, mais cela n’explique rien. Il faut élaborer une théorie qui justifie cette loi. Après maintes tentatives infructueuses, Planck se résout à ce qu’il appellera " un acte de désespoir " : il fait appel à la formulation probabiliste de l’entropie, établie en 1877 par son rival intellectuel Ludwig Boltzman.

Cela le conduit à admettre que l’énergie n’est pas émise de façon continue, mais par " paquets " (les quanta), l’énergie d’un quantum étant égale à la fréquence du rayonnement multipliée par une constante, désignée maintenant " constante de Planck " et symbolisée par la lettre h .

Planck avait trouvé pour h la valeur 6,55 x 10 ^-34 joule*seconde. La valeur actuellement admise est 6,63 x 10 ^-34 joule*seconde.

Cette " théorie des quanta " est exposée le 14 décembre 1900 à la Société allemande de Physique.

Bien entendu, elle n’est pas admise par tous au début. Planck lui même la considère comme une hypothèse de travail. Il faut remarquer que c’est aussi l’époque où la matière devient également discontinue ; Boltzman est un atomiste convaincu, mais ce n’est pas le cas de Planck, qui a d’autant plus de mal à accepter sa propre théorie.

Elle fait cependant lentement son chemin dans la communauté scientifique : en 1905, Einstein l’utilise pour expliquer l’effet photoélectrique (ce qui lui vaudra le Nobel en 1922), puis en 1907 pour son étude sur les chaleurs spécifiques.

En 1913, Niels Bohr propose son modèle d’atome et la théorie des quanta s’y adapte parfaitement ; nous y reviendrons.

Enfin, la consécration finale a lieu en 1925, avec l’avènement de la mécanique quantique et de la statistique de Bose-Einstein.

Nous voici donc avec une double modélisation ; pour concilier les deux aspects, on peut penser que les ondes définissent le chemin et que les photons, particules sans masse vecteurs de l’interaction électromagnétique, transportent l’énergie.

L’atome de Bohr est conçu comme un système solaire, avec au centre un noyau positif, concentrant pratiquement toute la masse de l’atome, autour duquel gravitent des électrons négatifs, dont les orbites sont réparties en couches concentriques.

Ce modèle est resté valable, même si l’on a donné aux orbites une signification plus probabiliste.

Ces électrons ne rayonnent ou n’absorbent aucune énergie tant qu’ils restent sur leurs orbites ; mais ils peuvent en absorber en passant sur une orbite de plus haute énergie ou en émettre en passant sur une orbite de plus basse énergie.

Beaucoup de phénomènes peuvent faire passer un atome dans un état excité, c’est à dire faire passer un ou plusieurs de ses électrons sur des orbites de plus haute énergie que leur orbite normale : l’agitation thermique (incandescence), l’impact d’électrons (écrans d’ordinateurs et de télévision, tubes d’éclairage), l’impact de photons (fluorescence et phosphorescence), etc…

Généralement, l’atome excité retourne immédiatement à son état normal ; dans certains cas (phosphorescence), ce retour est différé.

Au moment de la transition de retour, il y a émission d’un photon, dont l’énergie et par conséquent la fréquence (ou la longueur d’onde) de l’onde associée, dépend de la différence d’énergie de l’électron sur l’orbite de départ et celle d’arrivée.

Les électrons périphériques étant les moins liés au noyau sont les plus faciles à exciter ; ce sont eux qui sont responsables des phénomènes lumineux, aussi les nomme-t-on " électrons optiques ". " Optique " est pris ici au sens élargi, couvrant l’ultraviolet et une partie de l’infrarouge aussi bien que le visible.

La formule de Planck nous donne l’énergie individuelle d’un photon.

Prenons, par exemple, un photon rouge correspondant à la longueur d’onde de 700 nanomètres ; la fréquence correspondante est :

300 Mégamètres / 700 nanomètres = 0,43 x 10^15 Hertz

L’énergie d’un photon rouge est donc :

6,63 x 10^-34 x 0,43 x 10^15 = 2,85 x 10^-19 joule ;

soit 2,85 dix-milliardièmes de milliardième de joule.

ou encore 285 zeptojoules

Comme le joule est une unité beaucoup trop grande pour l’énergie d’un photon, les physiciens utilisent une autre unité mieux adaptée : l’électron-volt.

C’est le travail accompli par un électron " descendant " une différence de potentiel de 1 volt. Comme 1 coulomb " descendant " 1 volt produit un travail de 1 joule et comme la charge de l’électron est 1,6 x 10^-19 coulomb, l’électron-volt vaut 1,6 x 10^-19 joule.

L’énergie de notre photon rouge est donc 2,85 / 1,6 = 1,78 électron-volt.

Un photon violet, de longueur d’onde 400 nanomètres, a une énergie de

1,78 x 700 / 400 = 3,11 électron-volt.

Les énergies des liaisons chimiques entre atomes sont de l’ordre de quelques électron-volts. Les photons lumineux véhiculant des énergies du même ordre vont pouvoir, dans certains cas, agir sur ces liaisons chimiques.

La plus importante action de ce genre, dont dépend la vie sur notre planète, est la fonction chlorophyllienne : sous l’action de la lumière, la plupart des végétaux décomposent le gaz carbonique de l’atmosphère pour en tirer le carbone dont ils ont besoin et, en même temps, libèrent l’oxygène indispensable à la majorité des êtres vivants.

Une application connue de tous est la photographie. Pendant longtemps, les plaques et pellicules au " gélatino-bromure d’argent " n’étaient sensibles qu’aux courtes longueurs d’onde du spectre. On pouvait les manipuler et les développer en cette lumière rouge qu’ont bien connue ceux qui sont assez âgés : les photons rouges n’avaient pas assez d’énergie, quelle que soit leur abondance, pour amorcer la réduction des sels d’argent. Plus tard, par adjonction de colorants assurant l’absorption et le transfert de l’énergie, on fabriqua des surfaces " panchromatiques " sensibles à tout le spectre visible.

 

Infrarouge et Ultraviolet

Ces deux domaines, beaucoup plus larges, encadrent la mince bande de lumière visible.

Remarquons d’abord que cette terminologie implique un classement en fonction de la fréquence (ou de l’énergie du photon). Un classement en fonction de la longueur d’onde conduirait à ultrarouge et infraviolet.

Ces rayonnements sont semblables à la lumière ; on peut les focaliser à l’aide de lentilles, les dévier et les disperser à l’aide de prismes, quitte à tailler ces appareils dans des matériaux transparents à ces radiations (par exemple sel gemme pour l’infrarouge et quartz pour l’ultraviolet).

On a constaté leur existence en explorant le spectre solaire à l’aide d’un thermomètre extrêmement sensible (bolomètre). En promenant le fin capteur de cet instrument dans le spectre, on s’est aperçu qu’il déviait aussi en dehors de la bande visible.

De plus, en photographiant ce spectre, on a constaté une impression au-delà du violet. Ces observations furent possibles parce que le verre des lentilles et des prismes laisse passer l’infrarouge et l’ultraviolet proches du visible. Elles donnèrent l’idée d’étudier ces rayonnements invisibles et les physiciens trouvèrent les matériaux adéquats.

Pour l’ultraviolet, le quartz fut une excellente réponse, transparent jusqu’à des fréquences élevées. Pour l’infrarouge, on utilisa le sel gemme, fragile et altérable, en attendant d’étudier des verres spéciaux, transparents pour l’infrarouge assez proche. Pour l’infrarouge plus lointain, le mieux est de se passer de lentilles et de prismes et d’analyser le rayonnement à l’aide de miroirs métalliques et de réseaux de diffraction.

Le domaine ultraviolet étant beaucoup plus étendu que le visible, la spectrographie ultraviolette est la discipline de choix pour l’analyse chimique et la recherche de traces d’éléments dans les matières les plus diverses.

L’énergie des photons UV est suffisante pour causer de graves dégâts aux cellules vivantes. L’atmosphère terrestre arrête la plus grande partie des photons UV les plus énergétiques provenant du Soleil (notamment grâce à l’ozone des hautes couches ; attention au fameux trou !). Cependant il en reste assez pour donner des " coups de soleil " ou provoquer des lésions plus graves.

Côté Infrarouge maintenant.

Tous les corps à une température supérieure au zéro absolu, donc tous les corps, émettent un rayonnement d’autant plus intense que leur température est plus élevée. La longueur d’onde à laquelle a lieu le maximum d’émission est d’autant plus courte que la température est plus élevée. Le Soleil, très chaud, a son maximum d’émission dans le visible. La surface terrestre, beaucoup moins chaude, émet dans l’infrarouge assez lointain. Or la température à la surface de notre globe résulte d’un subtil équilibre entre le rayonnement reçu et celui réémis. L’atmosphère étant transparente pour le visible et le proche infrarouge laisse arriver au sol l’énergie solaire. Beaucoup moins transparente pour l’infrarouge lointain, elle ne laisse partir vers l’espace qu’une partie du rayonnement de la surface terrestre : cet effet de serre nous assure la température permettant notre existence. Mais cet équilibre est délicat et fragile ; or la transparence partielle de l’atmosphère dans l’infrarouge lointain dépend de sa composition chimique et en particulier de sa teneur en gaz carbonique et en méthane. C’est pourquoi on commence, bien tardivement et sans grande motivation, à se préoccuper de réduire l’émission des " gaz à effet de serre ".

Nous avons dit que tout corps émet un rayonnement et qu’aux températures courantes de l’environnement ce rayonnement était infrarouge. Donc, pour qui verrait l’infrarouge, il n’y aurait jamais de nuit. C’est pourquoi, surtout à la demande des militaires, on a étudié des " lunettes infrarouges " permettant de voir dans l’obscurité. Bien entendu, ces lunettes demandent une source d’énergie, car un flot de photons infrarouges ne saurait créer un seul photon visible. La visualisation de l’infrarouge est donc complexe, alors que celle de l’ultraviolet est, en général, facile : les photons UV ont assez d’énergie pour exciter la fluorescence de nombreux corps ; la longueur d’onde émise est toujours supérieure à celle incidente et tombe souvent dans le visible.

>>>>>>>>

<<<<<<<<

Retour au Sommaire