A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 9 Ω
Das Banner der Rhetos-Website: zwei griechische Denker betrachten ein physikalisches Universum um sie herum.

Materie und klassische Physik (Vortrag)

Historisch

©




Basiswissen


Am 15. November 1927 hielt der französische Mathematiker Paul Painlevé einen Vortrag über den gedanklichen Umbruch in der Vorstellung dessen was Materie ist. Er ging dabei ausführlich auf die neuesten Erkenntnisse der entstehenden Quantenphysik ein und stellte diesen den Vorstellungen der klassischen Physik gegenüber.[1] Der Vortrag liegt hier in einer französischen Transkription vor.[2]



Bildbeschreibung und Urheberrecht
Painlevé als Politiker mit Poincare (links) und Aristide Briand (rechts): das Bild entstand im Jahr 1925. Zwei Jahre später im Jahr 1927 hielt Painlevé den hier wieder gegebenen Vortrag. Es waren die 1920 Jahre mit der noch nicht beendeten "Erbfeindschaft" zwischen Deutschland und Frankreich, der Inflation, der Weltwirtschaftskrise, aber auch einer kulturellen Neuorientierung. Die bahnrechenden Pionierarbeiten der jungen Quantenphysik fallen in genau diesen Zeitraum. © Agence de presse Meurisse ☛


Französisches Original


Titre: Les conceptions modernes de la matière et la science classique
Discours prononcé à Londres, le 15 novembre 1927 devant la « Royal Institution of Great Britain »

Le sujet que je voudrais traiter est singulièrement ambitieux, et, avant de l'aborder, je m'excuse de mon audace. Mais de tous les efforts scientifiques qui se poursuivent actuellement sur la face du monde, il n'en est pas de plus émouvant intellectuellement ni de plus riche d'avenir que le labeur obstiné d'une poignée de chercheurs qui, penchés sur des microscopes, des photographies subtiles, des franges lumineuses, des réseaux optiques, s'efforcent de pénétrer la structure intime de la matière, reculant incroyablement les limites du perceptible et de l'observable, et appelant à leur aide les procédés expérimentaux les plus merveilleux en même temps que les théories mathématiques les plus profondes et les hypothèses les plus hardies. Ignorés des autres hommes qui ne conçoivent même pas l'objet de leurs travaux, ils leur préparent pourtant une emprise sur la matière auprès de laquelle la conquête légendaire du feu apparaîtra comme un jeu d'enfant.

Cette science en gestation nous montre le génie humain en pleine lutte avec un problème mystérieux qui semble dépasser ses forces, se débattant dans les obscurités et les contradictions, trébuchant contre les obstacles et reprenant courageusement sa route vers la vérité encore invisible, mais qu'il sent proche : tel un explorateur héroïque au sein d'une forêt ténébreuse, dont nous admirons l'énergie entreprenante et aventureuse et jusqu'aux tâtonnements et aux erreurs, car c'est de ces tâtonnements et de ces erreurs que se dégagera la voie juste qui conduira au but.

Il y a peu d'années encore, la science était volontiers représentée comme une personne auguste et infaillible, marchant d'un pas assuré sur une grande et belle route qui ne comporte ni erreur ni bifurcation. Certains principes apparaissaient comme des vérités absolues, qu'aucune critique ne devait plus ébranler sous prétexte de les approfondir ; on jetait un voile sur leur pénible élaboration millénaire ou les controverses passionnées qu'ils avaient soulevées : les phénomènes qui semblaient échapper à leur empire rigoureux étaient volontiers négligés : c'étaient de mauvais phénomènes. Combien est plus belle la réalité, cette inquiétude de comprendre et de savoir « toujours plus à fond » ! Il n'est point de barrière à la curiosité scientifique, il n'est pas de principe, si fécond qu'il se soit montré, quelque service qu'il ait le droit d'invoquer, qui puisse lui faire obstacle, surtout quand les phénomènes découverts sont à une échelle toute différente des phénomènes dont ces principes ont été dégagés.

Il importe d'ailleurs que ces mots « structure intime de la matière » ne prêtent à aucun malentendu. Il ne s'agit pas de connaître, il ne s'agit pas de rechercher, au sens métaphysique du mot, ce qu'est la matière en soi. Un tel problème sort du domaine de la science, il n'est aucun homme ayant réfléchi, qui ignore que nous ne connaissons les choses extérieures que par les sensations qu'elles provoquent en nous. Les questions dont nous traitons ne sortent pas du domaine positif, et je les résumerai ainsi : en admettant que nos sens, prolongés par les instruments les plus ingénieux et les plus efficaces acquièrent une acuité incomparablement plus grande dans l'ordre de la petitesse, comment nous apparaîtraient les éléments de la matière ? Quel rapport existerait-il entre les lois qui gouverneraient cet empire infinitésimal et celles que nous avons discernées dans l'univers à notre mesure ? Quelles ankyloses de la pensée nous faudrait-il briser, quelle dislocation notre raison devra-t-elle subir pour s'adapter à ce nouvel aspect des choses ? En un mot, en prenant le mot microscopique dans son sens le plus large, qui dépasse de beaucoup dans l'infiniment petit la portée directe de nos microscopes et ultramicroscopes les plus puissants, il s'agit de pénétrer dans l'étude microscopique de l'univers et de la comparer à son étude mégascopique. J'énonce immédiatement la réponse de la Physique moderne : le phénomène mégascopique le plus élémentaire est en réalité un fourmillement de phénomènes microscopiques enchevêtrés: s'il nous paraît obéir à une loi d'ensemble, c'est que, de par leur nombre même, cette multitude de petits événements dont les caprices se détruisent se résout en un phénomène statistique de nature simple. Cette tendance mégascopique, nos mesures peuvent la constater, nos théories la prévoir, sans en approfondir les causes fines, sans analyser les phénomènes imperceptibles dont elle résulte. « Pourquoi dès lors, les analyser ? Le fait d'ensemble, le fait perceptible, seul nous intéresse », diront les réalistes. Mais une telle analyse, si nous l'entreprenons, ne satisfait pas seulement notre soif de savoir. « Savoir c'est pouvoir », disait Léonard de Vinci. Maîtres du fait élémentaire, quelle action n'aurionsnous pas sur le fait résultant ?

Cette évolution des sciences physiques et chimiques, devenue si prodigieusement rapide durant ces dernières années, je voudrais vous l'exposer synthétiquement à larges traits.

LE CONTINU ET LE DISCONTINU DANS LA SCIENCE CLASSIQUE

Les solides et les liquides (le verre, le marbre, l'eau, etc..) nous apparaissent comme des corps continus, mais ces corps changent de volume : chauffée l'eau se dilate, refroidie elle se contracte. Comment serait-ce possible s'il n'y avait pas de vides dans les corps, si la matière était pleine ?

C'est la fameuse querelle du plein et du vide, aussi vieille que les plus anciens vestiges de science que nous ait légués le passé. L'hypothèse de la discontinuité de la matière a été adoptée à travers les âges par la plupart des philosophes et des savants, par Démocrite, Epicure, Lucrèce. La matière est constituée de particules solides que leur petitesse rend imperceptibles et qui ont la propriété essentielle d'être impénétrables les unes aux autres. C'est sur cette propriété que Descartes essaie de construire son univers et d'expliquer le mouvement des astres : mais ses tourbillons restent une vue de l'esprit sans entraîner aucune conséquence vérifiable. Arrive Newton, qui écarte ces rêves d'imagination et ne veut s'appuyer que sur des faits et des lois directement contrôlables. « Non fingo hypothesïs » déclare-t-il. Son attraction universelle est un fait certain : il n'en cherche pas les causes. Liquides et gaz nous semblent continus : traitons-les comme tels. Il laisse les philosophes disserter sur les forces à distance et les forces de contact, rechercher les causes de l'attraction universelle. Qu'il y ait entre le soleil et la terre quelque chose de continu par lequel les deux astres agissent l'un sur l'autre, peu lui importe, puisque ce continu échappe à ses sens et qu'il n'en a pas besoin pour calculer les attractions des astres et les mouvements qu'elles engendrent.

La loi de la gravitation apparaît donc comme le type de la loi positive. Ses victoires sont éclatantes et innombrables ; elles permettent à Laplace d'édifier son système du monde. Deux siècles après Newton, l'illustre Stuart Mill ne déclare t-il pas que les forces à distance ne sont ni plus ni moins concevables que les forces de contact ?

Toutefois, pour expliquer la lumière, Newton doit imaginer l'émission de corpuscules matériels extrêmement subtils. Il construit ainsi une optique géométrique d'une pureté parfaite, mais qui n'explique ni les interférences, ni les franges. Et ces corpuscules, quelle expérience en a constaté l'existence ?

C'est alors que le continu entre en scène. L'ondulation supplante l'émission. Déjà, Leibnitz, Young, Huyghens et d'autres, pour expliquer les phénomènes lumineux ou l'attraction universelle, ou la conservation de l'énergie, avaient imaginé l'existence dans tout l'espace d'un milieu continu impondérable, l'éther. Mais c'est Fresnel qui impose cette conception, non sans combat, d'ailleurs. Le rayon rigoureusement rectiligne de Newton allait donc céder la place à ces ondulations, qui ne laissent plus subsister qu'un à peu près de rayon, et si péniblement expliqué ! C'est avec douleur qu'au début du XIXe siècle la science classique sacrifia la théorie de l'émission. On connaît la controverse de Poisson et de Fresnel, l'expérience de l'écran, dont l'ombre n'est pas noire sur les bords extrêmes parce que les ondes lumineuses déferlent sur les contours de l'écran et pénètrent très légèrement à l'intérieur de son image. Jamais Poisson ne voulut avouer qu'il y avait de la lumière sur les bords. Mais les conquêtes de la théorie ondulatoire emportent toutes les résistances: c'est la théorie des interférences et ses applications innombrables, c'est la mesure de la colossale vitesse de la lumière à travers le vide et les corps transparents, c'est l'analyse spectrale nous révélant la composition chimique des étoiles, un des inconnaissables d'Auguste Comte. C'est enfin l'extraordinaire et magnifique théorie électromagnétique de la lumière qui réalise la synthèse des phénomènes électriques, magnétiques et lumineux et nous montre l'éther sillonné de toutes les gammes des ondulations depuis les plus lentes, rayons de T. S. F., puis rayons calorifiques, puis rayons lumineux, puis rayons ultra-violets, jusqu'aux rayons X, dont les vibrations sont si rapides qu'elles ébranlent à peine la matière, d'où leur faculté de traverser tous les corps, même opaques.

Ce triomphe du continu retentit dans tous les domaines. Le continu ne se prête-t-il pas d'ailleurs d'une façon autrement commode que le discontinu à cette forme si puissante du raisonnement qu'est le raisonnement mathématique ? L'élasticité des solides, la mécanique des liquides et des gaz, la thermodynamique, autant de doctrines qui, loin de disperser la matière en particules, l'étaient au contraire en masse continue. Non pas que ces théories prétendent atteindre ainsi la structure de la matière. Leur thèse serait bien plutôt que cette structure entre, elle, dans l'ordre des inconnaissables, que toutes les conceptions qui prétendent la définir sont invérifiables et qu'on ne peut les donner comme base solide à la science.

Il y a quelque trente ans encore, nombreux étaient les savants qui eussent fait au sujet des atomes la même réponse que Laplace à Napoléon l'interrogeant sur le rôle de Dieu dans son système du Monde : « Je n'ai pas eu besoin de cette hypothèse. »

C'est en vain qu'il y a plus d'un siècle Avogadro énonce sa célèbre et si féconde hypothèse. C'est en vain que la chimie organique accumule, durant le XIXe siècle, ses deux cent mille formules qui définissent autant de structures moléculaires. Certes, on ne peut nier la fécondité de la méthode, mais ces atomes des organiciens, ces petites boules dont les affinités sont saturées quand les crochets dont elles sont munies ont trouvé chacun preneur, ces architectures géométriques, de la stéréochimie, qui donc peut les considérer comme autre chose qu'une représentation commode, mais ne correspondant à aucune réalité?

C'est en vain que Maxwell et Boltzmann eux-mêmes, maîtres illustres, construisent la théorie cinétique des gaz, non plus une vue de l'esprit celle-là, mais une véritable doctrine scientifique, appuyée sur la mécanique statistique, entraînant des conséquences vérifiables aussi importantes que nouvelles. Une masse gazeuse que l'insuffisante acuité de nos sens nous fait apparaître comme continue n'est en réalité qu'un ensemble de projectiles minuscules, indépendants les uns des autres, lancés en ligne droite à grande vitesse et dont le bombardement sur les parois crée la pression du gaz. Comment ne pas admirer l'incomparable ingéniosité avec laquelle la mécanique statistique, annulant les fantaisies contraires de ces innombrables phénomènes désordonnés, calcule leurs effets résultants, les seuls qu'atteint notre perception mégascopique des choses? Et pourtant, un telle doctrine, aux yeux de la science classique, apparaît longtemps comme entachée d'hérésie. Mais les faits et les faits s'accumulent, qui, en dépit de toutes les résistances, imposent la conception moléculaire de la matière.

LA RÉALITÉ MOLECULAIRE


C'est aujourd'hui une vérité incontestée que l'homogénéité (comme l'équilibre) n'est qu'une apparence illusoire qui s'évanouit quand on change le grossissement sous lequel on observe la matière. Plus exactement, cet équilibre mégascopique correspond à un certain régime permanent d'agitation désordonnée, dont l'amplitude est trop petite pour que nous la percevions directement. Mais du seul fait que cette agitation a lieu en toutes directions sans qu'aucune direction soit favorisée, la Mécanique Statistique sait calculer le phénomène résultant qui est à l'échelle de nos sens. Elle enseigne que la force vive totale des molécules d'un gaz est égale à trois fois le produit de la pression par le volume. La théorie cinétique des gaz a désormais le droit de cité dans la science classique. La loi d'Avogadro est inscrite en tête de la chimie comme de la physique : « Deux corps gazeux quelconques qui, à la même pression et à la même température, occupent des volumes égaux, comprennent le même nombre de molécules. » La pression, la température et le volume étant les mêmes pour les deux corps, l'énergie totale des molécules gazeuses est aussi la même pour l'un et pour l'autre ; l'énergie moyenne de leurs molécules, puisqu'elles sont en même nombre, est donc la même. Autrement dît, les molécules de chaque corps lui sont propres et le caractérisent ; mais aux mêmes conditions de température et de pression, l'énergie cinétique moyenne de ces molécules est la même pour tous les corps gazeux.

Ce n'est point là jeu d'imagination : le poids, le nombre, les dimensions, la vitesse moyenne de ces particules imperceptibles, nous savons les calculer ou les mesurer comme si elles étaient soumises directement à nos mètres et à nos balances. Puisque des volumes égaux des divers corps gazeux (aux mêmes conditions) renferment le même nombre de molécules, il nous suffit de connaître ce nombre pour l'un d'entre eux. Par exemple à la température et à la pression normales, un millimètre cube d'azote renferme trente millions de milliards de molécules.

Comment les physiciens, si habiles soient-ils, ont-ils pu les compter ?

LE MOUVEMENT BROWNIEN


Je ne voudrais qu'indiquer brièvement, et dans son esprit une des nombreuses méthodes, mais l'une des plus ingénieuses et des plus directes, qui ont. réalisé ce tour de force, la méthode du mouvement brownien due à Jean Perrin,

Quand des granules de dimensions ordinaires sont plongées dans un gaz ou un liquide, pourquoi ne participent-ils pas à son agitation moléculaire ? C'est qu'ils sont trop gros et que les chocs qu'ils reçoivent en tous sens des molécules se compensent et les laissent immobiles. Mais observons des grains beaucoup plus petits, perceptibles encore pourtant à nos microscopes : nous les verrons animés d'une danse désordonnée de très faible amplitude : c'est le mouvement brownien. Si nous immergeons dans un liquide pesant un très grand nombre de ces grains minuscules identiques entre eux (grains de gomme-gutte, par exemple, triés par centrifugation), il ne faut pas croire que les grains de cette émulsion finiront par tomber tous au fond ; la pesanteur les tire vers le bas, mais l'agitation thermique les disperse sans cesse, et il s'établit ainsi un régime permanent qui dure indéfiniment, et dans lequel les grains deviennent plus rares à mesure qu'on s'élève dans le liquide. Réalisons deux expériences de ce genre avec des grains de poids différents (1) et mesurons (à l'aide du microscope) la hauteur dont il faut s'élever pour que les grains deviennent deux fois plus rares qu'à la base. La théorie et l'observation s'accordent : « La hauteur dont il faut s'élever est d'autant plus grande que le globule est plus léger ; elle est doublée, quadruplée, si les globules sont deux fois, quatre fois plus légers que dans la première expérience. »

Une telle émulsion est comparable à un mélange de gaz tel que l'argon, aux moléculees très lourdes, et l'hydrogène aux molécules beaucoup plus légères. Or, à un tel mélange la théorie cinétique des gaz (loi d'Avogadro, etc.) s'applique comme à un corps gazeux pur (l'oxygène) ou à un mélange d'oxygène et d'azote dont les molécules sont à peu prête de même poids.

Les émulsions employées par M. Perrin constituent de véritables atmosphères en miniature, d'une hauteur de 1/10e de millimètre. Or, dans l'atmosphère terreste, constituée par des molécules d'azote et d'oxygène de poids peu différents, il faut s'élever de 5.540 mètres, pour que la densité diminue de moitié. Donc si dans une des émulsions il faut s'élever par exemple de 28/1000 de millimètre pour obtenir une raréfaction de moitié, le rapport 5.540 mètres à 28/1000e de millimètre donne le rapport du poids d'un granule au poids d'une molécule d'azote.

Or, avec beaucoup de patience, ces granules, on peut les compter; on peut ensuite peser leur total ; on connaît ainsi le poids moyen de l'un des granules. On trouve qu'il faut vingt-cinq molécules d'azote pour peser un milliardième de milligramme. D'autre part, puisqu'on connaît le poids d'un millimètre cube d'azote aux conditions normales de température et de pression, il suffit de diviser ce poids par le poids d'une molécule pour avoir leur nombre : c'est ainsi qu'on trouve le nombre formidable de trente millions de milliards. Et, dès maintenant, nous arrivons à une de ces surprenantes vérifications qui abondent dans la mécanique du microcosme. On peut, en effet, calculer ce nombre au moyen d'une formule due à Einstein, en étudiant non le régime permanent de l'émulsion, mais les déplacements individuels des granules. Et la coïncidence se trouve être des plus satisfaisantes.

Une telle coïncidence ne surprend plus les physiciens, Ils y sont aujourd'hui habitués. Il n'existe pas moins de seize méthodes correspondant à des ordres de phénomènes dont la différence éclate à leur seul énoncé ; le bleu du ciel, le rayonnement d'un four incandescent, la viscosité des gaz, la radioactivité, la charge électrique des poussières qui nous permettent, comme tout à l'heure le mouvement brownien, d'évaluer le nombre des molécules. Les seize nombres auxquels on arrive ainsi non seulement sont du même ordre de grandeur, mais ils ne s'écartent de leur valeur moyenne que de moins de 7 p. 100 en plus ou en moins.

Pourtant, quel contraste entre les mouvements browniens et le bleu du ciel ! Et que vient faire, dira-t-on, le bleu du ciel en cette aventure? C'est que le bleu du ciel a pour cause la diffusion de la lumière à travers l'atmosphère, et la nuance observée dépend du nombre (par millimètre cube) des centres diffuseurs, lesquels sont les molécules de l'air. Plusieurs des méthodes précédentes sont d'ailleurs susceptibles d'être poussées à un plus haut degré de précision et les recherches nouvelles en font surgir d'autres. Saluons cette victoire du génie humain.

LAMES MINCES STRATIFIÉES


Je voudrais citer encore une autre vérification simple et frappante de la discontinuité de la matière. Quand la lumière tombe sur une lame transparente très mince, les rayons qu'elle réfléchit sur ses deux faces vers notre oeil interfèrent et, suivant l'épaisseur de la lame, se renforcent ou atténuent certains rayons : les bleus, par exemple, s'atténuent ou s'éteignent. La nuance ainsi réfléchie permet de mesurer avec une extrême précision l'épaisseur de la lame mince. Or considérons la couche d'huile, la moins épaisse que nous puissions étaler sur l'eau (1), de quelque façon que nous nous y prenions. Nous sommes induits à penser que cette épaisseur minima est l'épaisseur d'une molécule d'huile. Si cela est vrai, une couche d'huile d'une épaisseur quelconque devra se composer de plusieurs couches moléculaires superposées, et son épaisseur être multiple de l'épaisseur minima que nous venons d'indiquer. Les procédés optiques nous permettent de calculer ces épaisseurs et de vérifier la conclusion. On peut donner à ces expériences une forme particulièrement saisissante à l'aide d'une bulle de savon faite d'un liquide huileux bien homogène. La bulle de savon se compose de plusieurs plages d'épaisseurs différentes, d'où les nuances qu'elle nous réfléchit, et ces plages colorées doivent être séparées par des contours extrêmement nets et non par des bandes dégradées, puisqu'on passe brusquement d'une plage ayant par exemple trois épaisseurs moléculaires à une plage en ayant cinq. Les colorations de la bulle vérifient ces conclusions (2), et la mesure optique des épaisseurs les confirme rigoureusement (Jean Perrin).

ÉLECTRONS ET PROTONS


Pourquoi parlons-nous de molécules et non point d'atomes? C'est que les molécules, si imperceptibles soientelles, sont pourtant divisibles, la chimie le prouve. La combinaison classique de deux volumes égaux d'hydrogène et de chlore donne un volume double d'acide chlorhydrique après réduction à la même température et la même pression; autrement dit, une molécule de chlore et une molécule d'hydrogène donnent deux molécules d'acide chlorbydrique. Par conséquent, une molécule d'acide chlorhydrique est formée par la combinaison d'une moitié de la molécule d'hydrogène et d'une moitié de la molécule de chlore. La molécule d'un corps peut ainsi ne comprendre qu'un atome ou, au contraire, être une architecture de plusieurs atomes. Il y a trois atomes dans une molécule d'eau, quarante-cinq dans une molécule de sucre.

Ces atomes auxquels nous parvenons ainsi constituentils le dernier stade de la divisibilité de la matière ? Sont-ils réellement, au sens rigoureux que leur assignerait l'étymologie, une particule indivisible, inséparable d'aucune de ses parties ? Non pas. Des radiations longtemps mystérieuses qui ne sauraient se confondre avec des ondulations de l'éther nous contraignent à introduire au sein de l'atome même la discontinuité ; bien plus, leur étude nous oblige à concevoir l'atome comme un véritable système solaire en miniature dont le soleil serait chargé d'électricité positive et dont les planètes toutes identiques porteraient une charge égale d'électricité négative.

Microcosme et mégacosme étaient, au moyen âge, les signes cabalistiques des chercheurs de la pierre philosophale. Simple jeu d'imagination ou, comme le supposait l'astronome Bailly, vestige incompris d'une science, disparue avec la civilisation préhistorique qui l'avait engendrée ? Quoi qu'il en soit, microcosme et mégacosme pourraient être adoptés comme symboles par nos modernes alchimistes dont l'audace transmute les corps simples, dissèque les atomes et sonde les étoiles.

Quelles sont donc ces radiations qui ont exercé sur l'évolution de la physique moderne une influence si impérieuse ? Ce sont, d'une part, les rayons cathodiques, connus depuis longtemps, mais sans qu'on en eût approfondi la nature. Ce sont surtout les émissions radioactives, qu'ont révélées les inoubliables découvertes de Becquerel, de Curie et de Madame Curie.

Les rayons cathodiques se produisent, comme on le sait, quand on interrompt un fil métallique traversé d'un courant électrique par une ampoule où l'on a fait le vide presque complet. Ce sont ces rayons qui, issus d'une extrémité de l'ampoule, frappent l'autre extrémité et la rendent fluorescente et émettrice des fameux rayons X. Nous savons aujourd'hui que ces rayons cathodiques ne sont, en réalité, qu'un torrent de particules matérielles électrisées négativement et dont la masse est presque deux mille fois plus petite que celle d'un atome d'hydrogène. Ces projectiles microscopiques, appelés électrons, se ruant hors de la cathode, vont bombarder l'autre extrémité de l'ampoule et lui impriment des vibrations ultrarapides, qui ébranlent l'éther, d'où fluorescence et rayons X. Il suit de là nécessairement que chaque atome, loin d'être indivisible, renferme des électrons de masse insignifiante par rapport à sa masse totale, et qui peuvent lui être arrachés.

J.-J. Thomson et Jean Perrin ont été les premiers à mettre hors de doute l'existence des électrons et à en élucider la nature. Jeune étudiant, préparant sa thèse, Jean Perrin était célèbre parmi ses camarades « pour ramasser des électrons à la cuillère », et, sous une forme familière, à cela près que la cuillère était un mince cylindre de Faraday, sa réputation était fondée.

Mais l'étude des phénomènes radioactifs — en premier lieu les admirables travaux de M. Rutherford, — nous fait pénétrer bien plus profondément encore dans la structure du microcosme atomique. Tout atome d'un corps simple quelconque comprend un noyau chargé positivement et un certain nombre d'électrons dont la charge totale, essentiellement négative, est égale à celle du noyau, si l'atome se trouve dans son état normal électriquement neutre. Tous les électrons appartenant aux corps les plus divers sont identiques entre eux, mais les noyaux diffèrent essentiellement. Le plus simple des atomes, celui de l'hydrogène, comprend un seul électron, et son noyau est appelé proton. Le noyau d'un atome quelconque est formé d'un certain nombre de protons et de quelques électrons incorporés, qui diminuent sa charge positive : le nombre des électrons qui circulent autour du noyau comme des planètes autour du soleil est égal au nombre des protons qu'il contient, diminué du nombre d'électrons qui lui sont incorporés.

NOMBRES ATOMIQUES


Mais la conclusion surprenante et merveilleuse, c'est que les propriétés chimiques d'un corps simple dépendent uniquement du nombre d'électrons planétaires qui circulent, dans ses atomes. Si ce nombre est le même pour deux atomes de poids cependant différents, les corps qu'ils composent sont chimiquement si semblables que nous les désignons du même nom. C'est ainsi qu'il existe deux espèces de chlore dont le poids atomique égale pour l'un trentecinq fois, pour l'autre trente-sept fois le poids de l'atome d'hydrogène : le noyau du second renferme deux protons et deux électrons de plus que le noyau du premier, mais leurs propriétés chimiques se confondent. De tels corps sont dits isotopes.

Ce nombre d'électrons planétaires d'un atome, si fondamental pour le caractériser, s'appelle son nombre atomique. Des méthodes convergentes ont permis de calculer d'abord l'ordre de grandeur, puis de fixer de façon définitive le nombre atomique de tous les éléments. C'est, en premier lieu, avec P.-J. Thomson et Barkia, l'étude de la diffusion des rayons X par la matière, qui nous permet d'évaluer le nombre de centres diffuseurs, c'est-à-dire le nombre des électrons mobiles dans les atomes, comme celle du bleu de ciel permet de définir le nombre des molécules de l'atmosphère. Puis les expériences magistrales de Rutherford sur les déviations subies par les particules lancées à travers une mince feuille métallique, qui, non seulement apportent la preuve de la structure nucléaire des atomes, mais encore déterminent la charge électrique de leurs noyaux. C'est enfin, avec Moseley, la découverte des lois reliant les fréquences des rayons X caractéristiques d'un élément à son nombre atomique.

Nous pouvons dresser ainsi, en toute sécurité scientifique, la liste des corps simples dans l'ordre du nombre des électrons mobiles qu'ils renferment.

Cette liste, dressée par Moseley, allait du n° 1, hydrogène, au n° 92, uranium, en passant par le 88, radium. Chaque corps ne différait du précédent dans cette classification que par l'addition d'un électron mobile. Cette liste reproduisait la liste célèbre dressée jadis par l'intuition de Mendelejeff, mais en l'expliquant et en justifiant rationnellement les quelques interversions que l'empirisme avait imposées.

Chaque numéro correspondait effectivement à un corps simple connu, sauf six : six places étaient vides, dont par avance Moseley annonçait qu'elles seraient un jour remplies par des corps dont il prédisait les propriétés chimiques. Une au moins des six lacunes est aujourd'hui comblée et la prédiction vérifiée. Une balle turque, aux Dardanelles, a détruit le cerveau génial qui avait osé cette prophétie, avant qu'il ait vu le couronnement de son rêve scientifique.

Toutefois, à mesure qu'on s'élève dans l'échelle des poids atomiques et qu'on se rapproche du poids le plus lourd (celui de l'uranium, égal à deux cent trente-huit fois celui de l'hydrogène), la structure de l'atome devient plus compliquée et moins stable. Les atomes les plus lourds, tels ceux du radium, sont explosifs ; ils se brisent en projetant à des vitesses énormes (se chiffrant par des milliers de kilomètres à la seconde) soit des noyaux d'atomes d'hélium (rayons a), soit des électrons (rayon b, analogues aux rayons cathodiques), enfin en ébranlant l'éther de rayons y analogues aux rayons X.

Certes, les particules que nous imaginons comme constituant ultime de la matière échappent à notre perception directe ; leur prodigieuse petitesse les rend inaccessibles à nos instruments les plus grossissants. Et cependant, la merveilleuse méthode établie par C. T. R. Wilson atteint un tel degré de subtilité qu'elle nous permet l'étude individuelle d'une particule atomique animée d'une grande vitesse. Nous ne la voyons pas, mais, à travers une atmosphère sursaturée de vapeur d'eau, nous suivons sa trace par la condensation que laisse son passage, et cette image est si fidèle que nous connaissons dans ses moindres détails l'histoire d'une particule isolée. Nous pouvons photographier ainsi la trajectoire d'un électron ou d'une particule alpha bousculant comme un boulet noyaux et électrons, et nous constatons que les chocs de ce projectile invisible répondent aux lois de la mécanique microscopique.

LES SPECTRES LUMINEUX ET LA THÉORIE DES « QUANTA »


Que de mystères pourtant à éclaircir encore ! Comment concevoir et expliquer la stabilité du microcosme atomique? Comment surtout, et c'est là le problème le plus obscur, établir la correspondance entre l'atome et les radiations lumineuses qu'il émet ?

Une flamme chargée de vapeur de sodium, par exemple, émet une lumière jaune bien connue qui se résout au spectroscope en raies fines et brillantes, caractérisant l'atome de sodium plus sûrement qu'une photographie un visage humain. Le spectre de l'atome d'hydrogène, avec ses raies formant la célèbre série de Balmer, est également classique.

Dans la gamme indéfinie des ondulations lumineuses, l'atome d'un corps simple donné choisit ainsi exclusivement un certain nombre de notes, toujours les mêmes, et dont la distribution est souvent d'une complexité extrême. Quelle conception imaginer de la structure de l'atome telle que cette structure entraîne logiquement, par une conséquence rationnelle, la répartition exacte des raies du spectre correspondant ?

Numériquement, une radiation lumineuse, correspondant à une raie précise du spectre, est caractérisée par sa fréquence, c'est-à-dire par le nombre des ondulations d'éther qui se répètent en un point par seconde. Quelles sont donc les propriétés intrinsèques de l'atome qui lui imposent invariablement ces fréquences fatidiques et les nombres caractéristiques qui les traduisent ? C'est ici qu'intervient la théorie des quanta. Quant un atome émet une radiation lumineuse, il perd de l'énergie, mais il n'en perd pas d'une façon continué ; tout se passe comme si la nature procédait là par un saut, et comme s'il perdait successivement des grains d'énergie. Tel un changeur qui ne peut donner de sa monnaie que par pièces.

Tout d'abord, se trouve écartée ainsi l'hypothèse la plus simple, celle qui consistait à faire coïncider la durée de la vibration lumineuse et celle de la révolution d'un électron sur sa minuscule orbite. Il faut donc recourir à une hypothèse plus compliquée, et celle à laquelle s'est arrêté le génie de Bohr, hypothèse d'apparence arbitraire et qui n'a point d'analogue dans les mouvements du système scolaire, est la suivante : parmi les orbites possibles d'un électron autour du noyau, il en est d'exceptionnelles qui seules sont stables, et quand, pour une cause quelconque, un électron saute d'une de ces trajectoires stables à une autre plus voisine du noyau, il émet, sous forme de rayonnement, un quantum d'énergie. La fréquence de la radiation émise est intermédiaire (de par une certaine formule) entre les durées de la révolution de l'électron sur l'une et l'autre des deux trajectoires stables considérées.

Cette théorie a permis de rendre compte des spectres les plus simples d'une façon remarquable.

LE PHOTON ET LA MÉCANIQUE ONDULATOIRE


Mais, malgré le recours à la Mécanique de la Relativité, malgré l'attribution d'un petit aimant à l'électron, les difficultés et les contradictions qui subsistent sont si grandes qu'il est arrivé à Bohr de douter que les notions d'espace et de temps élaborées en nous par la perception d'un monde à notre échelle fussent applicables au monde infinitésimal des atomes. En un mot, les notions d'espace et de temps valables pour le mégacosme le sont-elles pour le microcosme ? Mais les chercheurs ne se découragent pas, et leur imagination ne recule devant aucune hardiesse. Ils n'hésitent pas à mêler, dans l'étude de la lumière, à la conception continue ondulatoire une conception discontinue, et inversement, dans celle de la matière, à la conception atomique un élément ondulatoire. Ainsi les deux conceptions qui semblaient triompher exclusivement chacune dans son domaine se combineraient nécessairement (et sous des formes d'ailleurs différentes) dans chacun d'entre eux.

C'est l'étude de l'effet photo-électrique, arrachement d'électrons à la matière par la lumière, qui nous a d'abord obligés, comme l'a montré Einstein, à admettre que, dans une onde lumineuse émise par un seul atome, l'énergie est tout entière rassemblée dans un petit projectile immatériel auquel on a donné le nom de photon. Ainsi la lumière ne serait pas purement ondulatoire, elle serait en même temps corpusculaire. Réconciliation de Fresnel et de Newton ! Et dans ces conflits de la lumière et de la matière, les brillantes découvertes de C. T. R. Wilson et de H. A. Compton montrent que le choc d'un photon contre un électron obéit encore aux lois fondamentales de la mécanique classique (conservation de l'énergie et de la quantité de mouvement).

Une révolution analogue, mais inverse, est en train de transformer notre conception de la matière. Pour lever les contradictions que présente la théorie des quanta sous sa forme primitive il semble nécessaire d'associer aux grains matériels discontinus (électrons et protons) des ondes continues de nature encore mal définie et de remplacer la mécanique balistique par une mécanique ondulatoire comme autrefois l'optique géométrique par l'optique ondulatoire, cela sans pourtant abandonner la notion de particules matérielles individuelles. Ici Fresnel vient au secours de Newton.

C'est à Louis de Broglie que nous devons l'introduction de cette conception révolutionnaire, reprise et développée en Allemagne par Schrödinger Des ondes stationnaires stables autour du noyau d'un atome expliqueraient par leurs battements les fréquences caractéristiques des émissions lumineuses de l'atome.

Même, conclusion paradoxale, au voisinage du noyau, c'est l'aspect ondulatoire du phénomène qui paraît prédominer ; l'individualité de l'électron, que nous observons si directement quand il est libre, semble alors s'évanouir, se fondre dans un système continu d'ondes stationnaires.

Conceptions contradictoires et incompatibles, a-t-on dit : M. de Broglie répond en rappelant les résistances et les objections analogues rencontrées par la théorie des ondulations.

Il pourrait invoquer également un épisode fameux de la vie de Fresnel : lorsque, se débattant au milieu des obscurités de sa nouvelle théorie, il aboutit à une impossibilité, à une équation qui n'a pas de racine, ou plutôt dont les racines sont, au sens mathématique du mot, imaginaires, il ne se rebute pas. Contre toute logique, il interprète intuitivement cette racine imaginaire, il lui donne un sens que le succès justifie ! Plus tard la théorie corrigée, perfectionnée, lèvera la contradiction.

Mais, à l'heure actuelle, il n'est pas douteux que la liaison entre les ondes et les grains soit matériels, soit lumineux, bref entre la continuité et la discontinuité, reste mystérieuse, dans le cas de la matière comme dans celui de la lumière.

Certains novateurs en arrivent à nier que le principe de causalité s'applique intégralement à l'échelle atomique. Le hasard, comme dans la vieille philosophie de Démocrite, serait au coeur profond des choses. Mais, par le grand nombre des hasards, un déterminisme rigoureux régirait cependant l'univers à notre échelle.

LA MÉCANIQUE QUANTIQUE


Ce probabilisme, quel que soit le substratum métaphysique qu'on lui attribue (déficience de la causalité ou trop grande subtilité des causes) se retrouve particulièrement développé dans une autre tentative, la mécanique quantique, qui, indépendamment de la mécanique ondulatoire, a poursuivi des résultats analogues en remplaçant les hypothèses invérifiables sur la structure des atomes par quelques principes portant sur des grandeurs observables : telle la thermodynamique classique comparée à la théorie cinétique des gaz. Cette mécanique a été développée par une pléiade de jeunes physiciens : Heisenberg, Born, Jordan à Goettingen, Dirac à Cambridge... Ces chercheurs, frappés par certaines concordances d'une théorie arithmétique purement abstraite, jadis développée par le célèbre mathématicien Hermite, ont tenté d'appliquer systématiquement cet instrument mathématique ainsi forgé d'avance au problème physique que la nature leur posait. S'ils voulaient justifier leurs méthodes, ceux-là pourraient invoquer l'exemple de Kepler, qui, d'une part, connaissant les observations astronomiques de TychoBrahé, et d'autre part ayant en mains la théorie des sections coniques d'Apollonius, s'acharne à faire cadrer les positions quotidiennes de la terre et du soleil avec l'ellipse du géomètre grec.

Mais combien cette théorie, par son abstraction, nous éloigne des manières de raisonner qui nous sont familières!

On conçoit que des savants qui ont passé des années à chasser de leur science obscurité et contradiction et à en faire un édifice clair et harmonieux et ceux qui n'admettent de théories que si elles suivent l'expérience pas à pas éprouvent quelque étonnement et quelque méfiance devant des doctrines qui leur semblent à la fois téméraires et antinomiques, abstraites ou hétérogènes, juxtaposant des lambeaux de doctrine classique, les employant simultanément hors de leur champ naturel d'application, sans se laisser arrêter par leur incohérence. Et pourtant, dans un tel domaine, on ne peut aller de l'avant qu'à ce prix. Nous sentons que péniblement, obstinément, tous ces efforts convergent vers le but.

Encore l'exposé qui précède est-il singulièrement incomplet et a-t-il dû négliger, comme s'écartant de son objet direct, mainte découverte et mainte théorie qui apportent aux conceptions modernes d'éclatantes confirmations.

C'est ainsi que j'ai passé sous silence les expériences magistrales de M. Bragg sur. les molécules cristallisées, expériences qui nous font pénétrer si profondément dans la constitution cristalline de la matière. De même, je n'ai pas prononcé le nom du père des ions, Arrhénius, dont les découvertes sont à l'origine de tous les travaux — scientifiques ou industriels — sur les rapports de la matière et de l'électricité en mouvement. En particulier, comme je n'ai fait aucune allusion aux phénomènes biologiques, je n'ai point rappelé la célèbre hypothèse d'Arrhénius sur les germes vivants, de dimensions et de masse infinitésimales, lancés dans le vide et le froid stellaires, chassés loin des astres ardents par la répulsion de la lumière, attirés au contraire par les astres obscurs dès qu'ils passent à leur portée. Cet ensemencement des espaces obscurs n'est encore qu'une brillante imagination, mais il n'est pas douteux que, sous cette forme ou sous une autre, les conceptions les plus hardies de la Physique et de la Chimie s'attaquent aux phénomènes de la vie.

Quand j'entends certaines critiques trop faciles et trop superficielles, un passage du Faust de Goethe me revient en mémoire, un des plus profonds, celui où Faust est entraîné par Méphistophélès dans les profondeurs de la terre pour interroger les Mères. Les Mères, ce sont les causes originelles, les moules éternels des métamorphoses éphémères. « Les Mères, dit Faust, ce mot me frappe comme un coup d'épée. Quel est donc ce mot que je ne puis entendre ? » Méphistophélès le raille : « Veux-tu donc ne jamais rien entendre que tes oreilles n'aient déjà entendu ? — Non, répond Faust, ne crois pas que je cherche mon salut dans la torpeur. Si cher que l'Univers lui vende le droit de sentir, la meilleure part de l'homme est encore de s'émouvoir et de respirer profondément l'immensité. »

KI-Übersetzung ins Deutsche


Das Thema, das ich behandeln möchte, ist singular ambitioniert, und bevor ich es angehe, entschuldige ich mich für meine Kühnheit. Aber von allen wissenschaftlichen Bemühungen, die derzeit auf der Welt verfolgt werden, gibt es keine, die intellektuell bewegender oder zukunftsreicher ist als die beharrliche Arbeit einer Handvoll Forscher, die sich über Mikroskope, subtile Fotografien, Lichtfransen und optische Gitter beugen und versuchen, die innere Struktur der Materie zu durchdringen, die Grenzen des Wahrnehmbaren und Beobachtbaren unglaublich zurückdrängen und sich dabei der wunderbarsten experimentellen Verfahren sowie der tiefsten mathematischen Theorien und der kühnsten Hypothesen bedienen. Von anderen Menschen ignoriert, die sich nicht einmal den Gegenstand ihrer Arbeit vorstellen können, bereiten sie ihnen dennoch eine Herrschaft über die Materie vor, neben der die legendäre Eroberung des Feuers wie ein Kinderspiel erscheinen wird.

Diese sich entwickelnde Wissenschaft zeigt uns das menschliche Genie im vollen Kampf mit einem mysteriösen Problem, das seine Kräfte zu übersteigen scheint, das sich in Dunkelheit und Widersprüchen windet, das gegen Hindernisse stolpert und mutig seinen Weg zur noch unsichtbaren Wahrheit fortsetzt, die es jedoch als nah empfindet: wie ein heldenhafter Entdecker inmitten eines dunklen Waldes, dessen energische und abenteuerlustige Energie wir bewundern, einschließlich seiner tastenden und fehlerhaften Versuche, denn aus diesen tastenden Versuchen und Fehlern wird sich der richtige Weg ergeben, der zum Ziel führt.

Noch vor wenigen Jahren wurde die Wissenschaft gerne als eine erhabene und unfehlbare Person dargestellt, die mit sicheren Schritten auf einer großen und schönen Straße voranschreitet, die weder Fehler noch Abzweigungen kennt. Bestimmte Prinzipien erschienen als absolute Wahrheiten, die durch keine Kritik mehr erschüttert werden durften, unter dem Vorwand, sie zu vertiefen; man verschleierte ihre mühsame jahrtausendelange Entwicklung oder die leidenschaftlichen Kontroversen, die sie ausgelöst hatten: die Phänomene, die ihren strengen Prinzipien zu entgehen schienen, wurden gerne vernachlässigt: es waren schlechte Phänomene. Wie viel schöner ist die Realität, dieses Streben, immer tiefer zu verstehen und zu wissen! Es gibt keine Grenze für die wissenschaftliche Neugier, es gibt kein Prinzip, das, so fruchtbar es auch sein mag, welches Recht es auch für sich in Anspruch nehmen mag, das ihr im Wege stehen könnte, besonders wenn die entdeckten Phänomene in einem völlig anderen Maßstab liegen als die Phänomene, aus denen diese Prinzipien abgeleitet wurden.

Es ist jedoch wichtig, dass diese Worte "innere Struktur der Materie" nicht missverstanden werden. Es geht nicht darum, im metaphysischen Sinne des Wortes zu wissen oder zu erforschen, was Materie an sich ist. Ein solches Problem liegt außerhalb des Bereichs der Wissenschaft; es gibt keinen Menschen, der nachgedacht hat, der nicht weiß, dass wir die äußeren Dinge nur durch die Empfindungen kennen, die sie in uns hervorrufen. Die Fragen, die wir behandeln, liegen nicht außerhalb des positiven Bereichs, und ich fasse sie wie folgt zusammen: Angenommen, unsere Sinne, verlängert durch die klügsten und wirksamsten Instrumente, erlangen eine unvergleichlich größere Schärfe in der Ordnung der Winzigkeit, wie würden uns dann die Elemente der Materie erscheinen? Welche Beziehung würde zwischen den Gesetzen, die dieses unendlich kleine Reich regieren, und denen bestehen, die wir im Universum in unserem Maßstab erkannt haben? Welche Erstarrungen des Denkens müssten wir brechen, welche Zerrüttung müsste unsere Vernunft erleiden, um sich diesem neuen Aspekt der Dinge anzupassen? Mit anderen Worten, wenn wir das Wort mikroskopisch in seinem weitesten Sinne nehmen, der im Unendlichkleinen weit über die direkte Reichweite unserer stärksten Mikroskope und Ultramikroskope hinausgeht, geht es darum, in die mikroskopische Untersuchung des Universums einzudringen und sie mit seiner megaskopischen Untersuchung zu vergleichen. Ich gebe sofort die Antwort der modernen Physik: Das elementarste megaskopische Phänomen ist in Wirklichkeit ein Gewimmel von verschachtelten mikroskopischen Phänomenen: Wenn es uns scheint, einem Gesamgesetz zu gehorchen, dann deshalb, weil sich diese Vielzahl von kleinen Ereignissen, deren Launen sich gegenseitig aufheben, aufgrund ihrer Anzahl in ein statistisches Phänomen einfacher Natur auflöst. Diese megaskopische Tendenz können unsere Messungen feststellen, unsere Theorien können sie vorhersagen, ohne die feinen Ursachen zu vertiefen, ohne die unmerklichen Phänomene zu analysieren, aus denen sie resultiert. "Warum sie dann analysieren? Das Gesamtphänomen, das wahrnehmbare Phänomen, interessiert uns allein", werden die Realisten sagen. Aber eine solche Analyse, wenn wir sie unternehmen, befriedigt nicht nur unseren Wissensdurst. "Wissen ist Macht", sagte Leonardo da Vinci. Meister des elementaren Faktums, welche Wirkung hätten wir nicht auf das resultierende Faktum?

Diese Entwicklung der physikalischen und chemischen Wissenschaften, die in den letzten Jahren so unglaublich schnell geworden ist, möchte ich Ihnen synthetisch in großen Zügen darlegen.

KONTINUUM UND UNSTETIGKEIT IN DER KLASSISCHEN PHYSIK

Feste Stoffe und Flüssigkeiten (Glas, Marmor, Wasser usw.) erscheinen uns als kontinuierliche Körper, aber diese Körper ändern ihr Volumen: Erwärmtes Wasser dehnt sich aus, abgekühltes Wasser zieht sich zusammen. Wie wäre das möglich, wenn es keine Leerräume in den Körpern gäbe, wenn die Materie voll wäre?

Es ist der berühmte Streit zwischen Fülle und Leere, so alt wie die ältesten Überreste der Wissenschaft, die uns die Vergangenheit hinterlassen hat. Die Hypothese der Diskontinuität der Materie wurde im Laufe der Jahrhunderte von den meisten Philosophen und Wissenschaftlern angenommen, von Demokrit, Epikur, Lukrez. Die Materie besteht aus festen Teilchen, die durch ihre Winzigkeit unmerklich sind und die wesentliche Eigenschaft haben, undurchdringlich füreinander zu sein. Auf dieser Eigenschaft versucht Descartes, sein Universum aufzubauen und die Bewegung der Sterne zu erklären: aber seine Wirbel bleiben eine Vorstellung des Geistes, ohne irgendwelche überprüfbaren Konsequenzen nach sich zu ziehen. Newton kommt und verwirft diese Traumvorstellungen und will sich nur auf direkt überprüfbare Fakten und Gesetze stützen. "Non fingo hypothesïs" erklärt er. Seine universelle Anziehungskraft ist eine sichere Tatsache: er sucht nicht nach ihren Ursachen. Flüssigkeiten und Gase erscheinen uns kontinuierlich: behandeln wir sie als solche. Er überlässt es den Philosophen, über Fernkräfte und Kontaktkräfte zu diskutieren, die Ursachen der universellen Anziehungskraft zu erforschen. Ob es zwischen der Sonne und der Erde etwas Kontinuierliches gibt, durch das die beiden Sterne aufeinander wirken, ist ihm gleichgültig, da dieses Kontinuum seinen Sinnen entgeht und er es nicht braucht, um die Anziehungskräfte der Sterne und die Bewegungen, die sie erzeugen, zu berechnen.

Das Gesetz der Schwerkraft erscheint daher als der Typus des positiven Gesetzes. Seine Siege sind glänzend und unzählbar; sie ermöglichen es Laplace, sein Weltsystem zu errichten. Zwei Jahrhunderte nach Newton erklärt nicht weniger als der berühmte Stuart Mill, dass Fernkräfte nicht mehr und nicht weniger vorstellbar sind als Kontaktkräfte?

Dennoch muss Newton, um das Licht zu erklären, die Emission extrem subtiler materieller Korpuskel erfinden. Er konstruiert so eine geometrische Optik von perfekter Reinheit, die jedoch weder Interferenzen noch Fransen erklärt. Und welche Erfahrung hat die Existenz dieser Korpuskel festgestellt?

Hier kommt das Kontinuum ins Spiel. Die Wellenbewegung verdrängt die Emission. Bereits Leibniz, Young, Huyghens und andere hatten, um die Lichtphänomene oder die universelle Anziehungskraft oder die Erhaltung der Energie zu erklären, die Existenz eines kontinuierlichen, unwägbaren Mediums im gesamten Raum, des Äthers, erdacht. Aber es ist Fresnel, der diese Vorstellung durchsetzt, nicht ohne Kampf. Der streng geradlinige Strahl Newtons sollte also diesen Wellen weichen, die nur noch eine ungefähre Strahlung übrig lassen und so schwer zu erklären sind! Mit Schmerz opferte die klassische Wissenschaft zu Beginn des 19. Jahrhunderts die Emissionstheorie. Man kennt die Kontroverse zwischen Poisson und Fresnel, das Experiment mit dem Schirm, dessen Schatten an den äußersten Rändern nicht schwarz ist, weil die Lichtwellen über die Konturen des Schirms schwappen und sehr leicht in das Innere seines Bildes eindringen. Poisson wollte nie zugeben, dass es an den Rändern Licht gab. Aber die Errungenschaften der Wellentheorie überwinden alle Widerstände: Es ist die Theorie der Interferenzen und ihre unzähligen Anwendungen, es ist die Messung der kolossalen Geschwindigkeit des Lichts durch das Vakuum und durch transparente Körper, es ist die Spektralanalyse, die uns die chemische Zusammensetzung der Sterne enthüllt, eines der Unerkennbaren von Auguste Comte. Es ist schließlich die außergewöhnliche und großartige elektromagnetische Theorie des Lichts, die die Synthese der elektrischen, magnetischen und lichtbezogenen Phänomene verwirklicht und uns den Äther zeigt, der von allen Arten von Wellen durchzogen ist, von den langsamsten, den T.S.F.-Strahlen, dann den Wärmestrahlen, dann den Lichtstrahlen, dann den ultravioletten Strahlen, bis hin zu den Röntgenstrahlen, deren Schwingungen so schnell sind, dass sie die Materie kaum erschüttern, daher ihre Fähigkeit, alle Körper, auch undurchsichtige, zu durchdringen.

Dieser Triumph des Kontinuums hallt in allen Bereichen wider. Lässt sich das Kontinuum nicht auch auf eine viel bequemere Weise als das Diskontinuum für diese so mächtige Form des Denkens, das mathematische Denken, verwenden? Die Elastizität der Festkörper, die Mechanik der Flüssigkeiten und Gase, die Thermodynamik, so viele Lehren, die die Materie nicht in Teilchen zerstreuen, sondern sie im Gegenteil als kontinuierliche Masse betrachten. Nicht, dass diese Theorien behaupten, auf diese Weise die Struktur der Materie zu erreichen. Ihre These wäre vielmehr, dass diese Struktur in die Ordnung des Unerkennbaren fällt, dass alle Konzepte, die vorgeben, sie zu definieren, nicht überprüfbar sind und dass man sie nicht als solide Grundlage für die Wissenschaft heranziehen kann.

Noch vor etwa dreißig Jahren hätten zahlreiche Wissenschaftler in Bezug auf Atome dieselbe Antwort gegeben wie Laplace auf Napoleons Frage nach der Rolle Gottes in seinem Weltsystem: "Ich habe diese Hypothese nicht benötigt."

Vergeblich hat Avogadro vor mehr als einem Jahrhundert seine berühmte und so fruchtbare Hypothese aufgestellt. Vergeblich hat die organische Chemie im Laufe des 19. Jahrhunderts ihre zweihunderttausend Formeln angehäuft, die ebenso viele molekulare Strukturen definieren. Sicherlich kann man die Fruchtbarkeit der Methode nicht leugnen, aber diese Atome der Organiker, diese kleinen Kugeln, deren Affinitäten gesättigt sind, wenn die Haken, mit denen sie ausgestattet sind, jeweils einen Abnehmer gefunden haben, diese geometrischen Architekturen der Stereochemie, wer kann sie als etwas anderes betrachten als eine bequeme Darstellung, die jedoch keiner Realität entspricht?

Vergeblich haben selbst Maxwell und Boltzmann, illustre Meister, die kinetische Theorie der Gase aufgebaut, nicht nur eine Vorstellung des Geistes, sondern eine echte wissenschaftliche Lehre, gestützt auf die statistische Mechanik, die ebenso wichtige wie neue überprüfbare Konsequenzen nach sich zieht. Eine gasförmige Masse, die durch die unzureichende Schärfe unserer Sinne als kontinuierlich erscheint, ist in Wirklichkeit nur eine Ansammlung winziger, voneinander unabhängiger Geschosse, die mit hoher Geschwindigkeit in gerader Linie abgeschossen werden und deren Bombardement auf die Wände den Gasdruck erzeugt. Wie kann man die unvergleichliche Findigkeit nicht bewundern, mit der die statistische Mechanik, die die gegensätzlichen Launen dieser unzähligen ungeordneten Phänomene aufhebt, ihre resultierenden Effekte berechnet, die einzigen, die unsere megaskopische Wahrnehmung der Dinge erreicht? Und doch erscheint eine solche Lehre den Augen der klassischen Wissenschaft lange Zeit als mit Häresie behaftet. Aber die Fakten häufen sich, und trotz aller Widerstände setzt sich die molekulare Vorstellung der Materie durch.

DIE WIRKLICHKEIT DER MOLEKÜLE

Heute ist es eine unbestrittene Wahrheit, dass Homogenität (wie Gleichgewicht) nur ein trügerischer Schein ist, der verschwindet, wenn man die Vergrößerung ändert, unter der man die Materie beobachtet. Genauer gesagt, entspricht dieses megaskopische Gleichgewicht einem bestimmten permanenten Regime ungeordneten Aufruhrs, dessen Amplitude zu klein ist, als dass wir sie direkt wahrnehmen könnten. Aber allein aufgrund der Tatsache, dass diese Aufruhr in alle Richtungen stattfindet, ohne dass eine Richtung bevorzugt wird, weiß die statistische Mechanik das resultierende Phänomen zu berechnen, das im Maßstab unserer Sinne liegt. Sie lehrt, dass die gesamte lebendige Kraft der Moleküle eines Gases gleich dem Dreifachen des Produkts aus Druck und Volumen ist. Die kinetische Theorie der Gase hat nun das Bürgerrecht in der klassischen Wissenschaft. Das Avogadro-Gesetz steht an der Spitze der Chemie wie der Physik: "Zwei beliebige gasförmige Körper, die bei gleichem Druck und gleicher Temperatur gleiche Volumina einnehmen, umfassen die gleiche Anzahl von Molekülen." Da Druck, Temperatur und Volumen für die beiden Körper gleich sind, ist auch die Gesamtenergie der Gasmoleküle für beide gleich; die durchschnittliche Energie ihrer Moleküle ist daher, da sie in gleicher Anzahl vorhanden sind, gleich. Mit anderen Worten, die Moleküle jedes Körpers sind ihm eigen und charakterisieren ihn; aber unter den gleichen Bedingungen von Temperatur und Druck ist die durchschnittliche kinetische Energie dieser Moleküle für alle gasförmigen Körper gleich.

Das ist kein Spiel der Vorstellungskraft: Das Gewicht, die Anzahl, die Abmessungen, die durchschnittliche Geschwindigkeit dieser unmerklichen Teilchen, wir wissen, wie man sie berechnet oder misst, als ob sie direkt unseren Metern und Waagen unterworfen wären. Da gleiche Volumina der verschiedenen gasförmigen Körper (unter gleichen Bedingungen) die gleiche Anzahl von Molekülen enthalten, genügt es, diese Anzahl für einen von ihnen zu kennen. Zum Beispiel enthält ein Kubikmillimeter Stickstoff bei normaler Temperatur und normalem Druck dreißig Billionen Moleküle.

Wie konnten die Physiker, so geschickt sie auch sein mögen, sie zählen?

BROWNSCHE BEWEGUNG

Ich möchte kurz und in ihrem Geist eine der zahlreichen Methoden, aber eine der klügsten und direktesten, die diesen Kraftakt vollbracht haben, die Methode der Brownschen Bewegung von Jean Perrin, angeben.

Wenn Körnchen von normaler Größe in ein Gas oder eine Flüssigkeit getaucht werden, warum nehmen sie nicht an deren molekularer Bewegung teil? Das liegt daran, dass sie zu groß sind und die Stöße, die sie von allen Seiten von den Molekülen erhalten, sich ausgleichen und sie unbeweglich lassen. Aber beobachten wir viel kleinere Körnchen, die für unsere Mikroskope noch wahrnehmbar sind: wir werden sehen, dass sie einen ungeordneten Tanz von sehr geringer Amplitude ausführen: das ist die Brownsche Bewegung. Wenn wir eine sehr große Anzahl dieser winzigen, untereinander identischen Körnchen (z. B. Gummiguttkörnchen, die durch Zentrifugation sortiert wurden) in eine schwere Flüssigkeit eintauchen, darf man nicht glauben, dass die Körnchen dieser Emulsion schließlich alle auf den Boden sinken werden; die Schwerkraft zieht sie nach unten, aber die thermische Bewegung zerstreut sie ständig, und es stellt sich so ein permanenter Zustand ein, der unendlich andauert und in dem die Körnchen umso seltener werden, je höher man in der Flüssigkeit aufsteigt. Führen wir zwei Experimente dieser Art mit Körnchen unterschiedlichen Gewichts durch und messen wir (mit Hilfe des Mikroskops) die Höhe, die man erreichen muss, damit die Körnchen zweimal seltener werden als an der Basis. Theorie und Beobachtung stimmen überein: "Die Höhe, die man erreichen muss, ist umso größer, je leichter das Kügelchen ist; sie verdoppelt oder vervierfacht sich, wenn die Kügelchen zwei- oder viermal leichter sind als im ersten Experiment."

Eine solche Emulsion ist vergleichbar mit einem Gasgemisch wie Argon, mit sehr schweren Molekülen, und Wasserstoff mit viel leichteren Molekülen. Auf ein solches Gemisch ist die kinetische Theorie der Gase (Avogadro-Gesetz usw.) ebenso anwendbar wie auf einen reinen gasförmigen Körper (Sauerstoff) oder ein Gemisch aus Sauerstoff und Stickstoff, deren Moleküle ungefähr das gleiche Gewicht haben.

Die von Herrn Perrin verwendeten Emulsionen bilden wahre Miniaturatmosphären mit einer Höhe von 1/10 Millimeter. Nun, in der Erdatmosphäre, die aus Stickstoff- und Sauerstoffmolekülen mit wenig unterschiedlichem Gewicht besteht, muss man 5.540 Meter aufsteigen, damit sich die Dichte halbiert. Wenn also in einer der Emulsionen ein Aufstieg von beispielsweise 28/1000 Millimeter erforderlich ist, um eine Halbierung der Dichte zu erreichen, gibt das Verhältnis von 5.540 Metern zu 28/1000 Millimeter das Verhältnis des Gewichts eines Körnchens zum Gewicht eines Stickstoffmoleküls an.

Nun, mit viel Geduld kann man diese Körnchen zählen; man kann dann ihr Gesamtgewicht bestimmen; man kennt so das durchschnittliche Gewicht eines der Körnchen. Man findet, dass man fünfundzwanzig Stickstoffmoleküle braucht, um ein Milliardstel Milligramm zu wiegen. Andererseits, da man das Gewicht eines Kubikmillimeters Stickstoff unter normalen Temperatur- und Druckbedingungen kennt, genügt es, dieses Gewicht durch das Gewicht eines Moleküls zu teilen, um ihre Anzahl zu erhalten: so findet man die enorme Zahl von dreißig Billionen. Und schon jetzt kommen wir zu einer dieser überraschenden Überprüfungen, die in der Mechanik des Mikrokosmos reichlich vorhanden sind. Man kann nämlich diese Zahl mit Hilfe einer von Einstein stammenden Formel berechnen, indem man nicht den permanenten Zustand der Emulsion, sondern die individuellen Verschiebungen der Körnchen untersucht. Und die Übereinstimmung ist sehr zufriedenstellend.

Eine solche Übereinstimmung überrascht die Physiker nicht mehr. Sie sind heute daran gewöhnt. Es gibt nicht weniger als sechzehn Methoden, die verschiedenen Arten von Phänomenen entsprechen, deren Unterschied bereits in ihrer Aussage offensichtlich ist; die blaue Farbe des Himmels, die Strahlung eines glühenden Ofens, die Viskosität von Gasen, die Radioaktivität, die elektrische Ladung von Staub, die es uns ermöglichen, wie eben die Brownsche Bewegung, die Anzahl der Moleküle zu bewerten. Die sechzehn Zahlen, zu denen man auf diese Weise gelangt, sind nicht nur von derselben Größenordnung, sondern sie weichen von ihrem Mittelwert um weniger als 7 % nach oben oder unten ab.

Dennoch, welcher Kontrast zwischen den Brownschen Bewegungen und der blauen Farbe des Himmels! Und was hat, wird man fragen, die blaue Farbe des Himmels mit diesem Abenteuer zu tun? Das liegt daran, dass die blaue Farbe des Himmels durch die Streuung des Lichts in der Atmosphäre verursacht wird, und der beobachtete Farbton hängt von der Anzahl (pro Kubikmillimeter) der Streuzentren ab, die die Moleküle der Luft sind. Mehrere der vorherigen Methoden können übrigens zu einem höheren Grad an Präzision weiterentwickelt werden, und neue Forschungen bringen andere hervor. Lassen Sie uns diesen Sieg des menschlichen Genies begrüßen.

DÜNNE GESCHICHTE LAGEN

Ich möchte noch eine weitere einfache und eindrucksvolle Überprüfung der Diskontinuität der Materie zitieren. Wenn Licht auf eine sehr dünne transparente Schicht fällt, interferieren die Strahlen, die es auf seinen beiden Seiten zu unserem Auge reflektiert, und je nach Dicke der Schicht verstärken oder schwächen sich bestimmte Strahlen: die blauen Strahlen zum Beispiel schwächen sich ab oder erlöschen. Der so reflektierte Farbton ermöglicht es, die Dicke der dünnen Schicht mit äußerster Präzision zu messen. Betrachten wir nun die dünnste Ölschicht, die wir auf Wasser ausbreiten können, egal wie wir es anstellen. Wir sind geneigt zu denken, dass diese minimale Dicke die Dicke eines Ölmoleküls ist. Wenn dies zutrifft, muss eine Ölschicht beliebiger Dicke aus mehreren übereinander liegenden molekularen Schichten bestehen, und ihre Dicke muss ein Vielfaches der minimalen Dicke sein, die wir gerade angegeben haben. Die optischen Verfahren ermöglichen es uns, diese Dicken zu berechnen und die Schlussfolgerung zu überprüfen. Man kann diesen Experimenten eine besonders eindrucksvolle Form geben, indem man eine Seifenblase aus einer gut homogenen öligen Flüssigkeit herstellt. Die Seifenblase besteht aus mehreren Bereichen unterschiedlicher Dicke, daher die Farbtöne, die sie uns reflektiert, und diese farbigen Bereiche müssen durch extrem scharfe Konturen und nicht durch verwischte Bänder getrennt sein, da man plötzlich von einem Bereich mit beispielsweise drei molekularen Dicken zu einem Bereich mit fünf übergeht. Die Färbungen der Blase bestätigen diese Schlussfolgerungen, und die optische Messung der Dicken bestätigt sie streng (Jean Perrin).

ELEKTRONEN UND PROTONEN

Warum sprechen wir von Molekülen und nicht von Atomen? Weil Moleküle, so unmerklich sie auch sein mögen, dennoch teilbar sind, wie die Chemie beweist. Die klassische Kombination von zwei gleichen Volumina Wasserstoff und Chlor ergibt ein doppeltes Volumen Salzsäure nach der Reduktion auf dieselbe Temperatur und denselben Druck; mit anderen Worten, ein Molekül Chlor und ein Molekül Wasserstoff ergeben zwei Moleküle Salzsäure. Folglich besteht ein Molekül Salzsäure aus der Kombination einer Hälfte des Wasserstoffmoleküls und einer Hälfte des Chlormoleküls. Das Molekül eines Körpers kann somit nur ein Atom umfassen oder im Gegenteil eine Architektur aus mehreren Atomen sein. Es gibt drei Atome in einem Wassermolekül, fünfundvierzig in einem Zuckermolekül.

Sind diese Atome, zu denen wir auf diese Weise gelangen, das letzte Stadium der Teilbarkeit der Materie? Sind sie wirklich, im strengen Sinne, den ihre Etymologie ihnen zuweisen würde, ein unteilbares Teilchen, das von keinem seiner Teile trennbar ist? Nein. Strahlungen, die lange Zeit mysteriös waren und nicht mit Ätherwellen verwechselt werden können, zwingen uns, die Diskontinuität sogar innerhalb des Atoms einzuführen; mehr noch, ihre Untersuchung zwingt uns, das Atom als ein echtes Miniatursonnensystem zu betrachten, dessen Sonne positiv elektrisch geladen ist und dessen Planeten, die alle identisch sind, eine gleiche Ladung negativer Elektrizität tragen.

Mikrokosmos und Makrokosmos waren im Mittelalter die kabbalistischen Zeichen der Sucher nach dem Stein der Weisen. Einfaches Spiel der Vorstellungskraft oder, wie der Astronom Bailly vermutete, unverstandenes Überbleibsel einer Wissenschaft, die mit der prähistorischen Zivilisation, die sie hervorgebracht hatte, verschwand? Wie dem auch sei, Mikrokosmos und Makrokosmos könnten von unseren modernen Alchemisten als Symbole übernommen werden, deren Kühnheit die einfachen Körper umwandelt, Atome seziert und die Sterne erforscht.

Welches sind also diese Strahlungen, die auf die Entwicklung der modernen Physik einen so zwingenden Einfluss ausgeübt haben? Auf der einen Seite sind es die Kathodenstrahlen, die seit langem bekannt sind, ohne dass man ihre Natur vertieft hätte. Vor allem sind es die radioaktiven Emissionen, die durch die unvergesslichen Entdeckungen von Becquerel, Curie und Madame Curie enthüllt wurden.

Kathodenstrahlen entstehen, wie bekannt, wenn man einen von einem elektrischen Strom durchflossenen Metalldraht durch eine Ampulle unterbricht, in der man ein fast vollständiges Vakuum erzeugt hat. Diese Strahlen, die von einem Ende der Ampulle ausgehen, treffen auf das andere Ende und machen es fluoreszierend und zum Aussender der berühmten Röntgenstrahlen. Wir wissen heute, dass diese Kathodenstrahlen in Wirklichkeit ein Strom von materiellen Teilchen sind, die negativ elektrisch geladen sind und deren Masse fast zweitausendmal kleiner ist als die eines Wasserstoffatoms. Diese mikroskopischen Geschosse, die Elektronen genannt werden, stürzen aus der Kathode heraus und bombardieren das andere Ende der Ampulle und versetzen es in ultrarapide Schwingungen, die den Äther erschüttern, wodurch Fluoreszenz und Röntgenstrahlen entstehen. Daraus folgt notwendigerweise, dass jedes Atom, weit davon entfernt, unteilbar zu sein, Elektronen enthält, deren Masse im Vergleich zu seiner Gesamtmasse unbedeutend ist und die ihm entrissen werden können.

J.-J. Thomson und Jean Perrin waren die ersten, die die Existenz der Elektronen zweifelsfrei nachwiesen und ihre Natur aufklärten. Als junger Student, der seine Dissertation vorbereitete, war Jean Perrin unter seinen Kommilitonen berühmt dafür, "Elektronen mit dem Löffel aufzusammeln", und in einer vertrauten Form, mit der Ausnahme, dass der Löffel ein dünner Faraday-Zylinder war, war sein Ruf begründet.

Aber das Studium der radioaktiven Phänomene - vor allem die bewundernswerten Arbeiten von Herrn Rutherford - führt uns noch viel tiefer in die Struktur des atomaren Mikrokosmos ein. Jedes Atom eines beliebigen einfachen Körpers umfasst einen positiv geladenen Kern und eine bestimmte Anzahl von Elektronen, deren insgesamt negative Ladung gleich der des Kerns ist, wenn sich das Atom in seinem normalen, elektrisch neutralen Zustand befindet. Alle Elektronen, die zu den unterschiedlichsten Körpern gehören, sind untereinander identisch, aber die Kerne unterscheiden sich wesentlich. Das einfachste der Atome, das des Wasserstoffs, umfasst ein einziges Elektron, und sein Kern wird Proton genannt. Der Kern eines beliebigen Atoms besteht aus einer bestimmten Anzahl von Protonen und einigen eingebauten Elektronen, die seine positive Ladung verringern: Die Anzahl der Elektronen, die wie Planeten um den Kern kreisen, ist gleich der Anzahl der Protonen, die er enthält, verringert um die Anzahl der Elektronen, die in ihn eingebaut sind.

DIE ORDNUNGSZAHLEN

Aber die überraschende und wunderbare Schlussfolgerung ist, dass die chemischen Eigenschaften eines einfachen Körpers ausschließlich von der Anzahl der planetarischen Elektronen abhängen, die in seinen Atomen zirkulieren. Wenn diese Anzahl für zwei Atome mit unterschiedlichem Gewicht gleich ist, sind die Körper, aus denen sie bestehen, chemisch so ähnlich, dass wir sie mit demselben Namen bezeichnen. So gibt es zwei Arten von Chlor, deren Atomgewicht für das eine das Fünfunddreißig- und für das andere das Siebenunddreißigfache des Gewichts des Wasserstoffatoms beträgt: Der Kern des zweiten enthält zwei Protonen und zwei Elektronen mehr als der Kern des ersten, aber ihre chemischen Eigenschaften sind identisch. Solche Körper werden Isotope genannt.

Diese Anzahl planetarischer Elektronen eines Atoms, die so grundlegend ist, um es zu charakterisieren, wird seine Atomzahl genannt. Konvergierende Methoden haben es ermöglicht, zunächst die Größenordnung und dann endgültig die Atomzahl aller Elemente zu berechnen. Zunächst ist es mit P.-J. Thomson und Barkla die Untersuchung der Streuung von Röntgenstrahlen durch Materie, die es uns ermöglicht, die Anzahl der Streuzentren, d.h. die Anzahl der beweglichen Elektronen in den Atomen, zu bewerten, wie die des blauen Himmels es uns ermöglicht, die Anzahl der Moleküle der Atmosphäre zu definieren. Dann sind es die meisterhaften Experimente von Rutherford über die Ablenkungen, die die Teilchen erfahren, wenn sie durch eine dünne Metallfolie geschossen werden, die nicht nur den Beweis für die Kernstruktur der Atome liefern, sondern auch die elektrische Ladung ihrer Kerne bestimmen. Schließlich ist es mit Moseley die Entdeckung der Gesetze, die die Frequenzen der charakteristischen Röntgenstrahlen eines Elements mit seiner Atomzahl verbinden.

Wir können so mit voller wissenschaftlicher Sicherheit die Liste der einfachen Körper in der Reihenfolge der Anzahl der beweglichen Elektronen, die sie enthalten, aufstellen.

Diese von Moseley aufgestellte Liste reichte von Nr. 1, Wasserstoff, bis Nr. 92, Uran, über Nr. 88, Radium. Jeder Körper unterschied sich in dieser Klassifikation vom vorherigen nur durch die Hinzufügung eines beweglichen Elektrons. Diese Liste reproduzierte die berühmte Liste, die einst von der Intuition Mendelejeffs aufgestellt wurde, erklärte sie jedoch und rechtfertigte rational die wenigen Umstellungen, die der Empirismus auferlegt hatte.

Jede Nummer entsprach tatsächlich einem bekannten einfachen Körper, mit Ausnahme von sechs: sechs Plätze waren leer, von denen Moseley im Voraus ankündigte, dass sie eines Tages von Körpern gefüllt werden würden, deren chemische Eigenschaften er vorhersagte. Mindestens eine der sechs Lücken ist heute gefüllt und die Vorhersage bestätigt. Eine türkische Kugel an den Dardanellen zerstörte das geniale Gehirn, das diese Prophezeiung gewagt hatte, bevor es die Krönung seines wissenschaftlichen Traums gesehen hatte.

Allerdings wird die Struktur des Atoms umso komplizierter und weniger stabil, je höher man auf der Skala der Atomgewichte aufsteigt und je näher man dem schwersten Gewicht (dem des Urans, das gleich dem Zweihundertachtunddreißigfachen des Wasserstoffs ist) kommt. Die schwersten Atome, wie die des Radiums, sind explosiv; sie zerbrechen und schleudern mit enormen Geschwindigkeiten (die sich in Tausenden von Kilometern pro Sekunde messen lassen) entweder Heliumatomkerne (α-Strahlen) oder Elektronen (β-Strahlen, ähnlich den Kathodenstrahlen) aus, schließlich erschüttern sie den Äther mit γ-Strahlen, die den Röntgenstrahlen ähneln.

Zweifellos entziehen sich die Teilchen, die wir uns als letztes Konstitutiv der Materie vorstellen, unserer direkten Wahrnehmung; ihre unglaubliche Winzigkeit macht sie für unsere stärksten Instrumente unzugänglich. Und doch erreicht die wunderbare Methode, die von C. T. R. Wilson etabliert wurde, einen solchen Grad an Subtilität, dass sie es uns ermöglicht, ein einzelnes Atomteilchen zu studieren, das sich mit großer Geschwindigkeit bewegt. Wir sehen es nicht, aber durch eine mit Wasserdampf übersättigte Atmosphäre verfolgen wir seine Spur durch die Kondensation, die sein Durchgang hinterlässt, und dieses Bild ist so treu, dass wir die Geschichte eines isolierten Teilchens in allen Einzelheiten kennen. Wir können so die Flugbahn eines Elektrons oder eines Alpha-Teilchens fotografieren, das wie eine Kanonenkugel Kerne und Elektronen durcheinanderwirbelt, und wir stellen fest, dass die Stöße dieses unsichtbaren Geschosses den Gesetzen der mikroskopischen Mechanik entsprechen.

SPEKTRALLINIEN DES LICHTS UND QUANTENTHEORIE

Welche Geheimnisse sind noch aufzuklären! Wie kann man sich die Stabilität des atomaren Mikrokosmos vorstellen und erklären? Wie kann man vor allem, und das ist das dunkelste Problem, die Entsprechung zwischen dem Atom und den Lichtstrahlen, die es aussendet, herstellen?

Eine Flamme, die mit Natriumdampf beladen ist, sendet zum Beispiel ein bekanntes gelbes Licht aus, das sich im Spektroskop in feine und helle Linien auflöst, die das Natriumatom sicherer charakterisieren als ein Foto ein menschliches Gesicht. Das Spektrum des Wasserstoffatoms mit seinen Linien, die die berühmte Balmer-Serie bilden, ist ebenfalls klassisch.

In der unendlichen Skala der Lichtwellen wählt das Atom eines gegebenen einfachen Körpers ausschließlich eine bestimmte Anzahl von Noten, immer dieselben, und deren Verteilung ist oft von äußerster Komplexität. Welche Vorstellung von der Struktur des Atoms kann man sich machen, so dass diese Struktur logischerweise, durch eine rationale Konsequenz, die genaue Verteilung der Linien des entsprechenden Spektrums nach sich zieht?

Numerisch wird eine Lichtstrahlung, die einer bestimmten Spektrallinie entspricht, durch ihre Frequenz charakterisiert, das heißt durch die Anzahl der Ätherwellen, die sich an einem Punkt pro Sekunde wiederholen. Welches sind also die intrinsischen Eigenschaften des Atoms, die ihm unveränderlich diese schicksalhaften Frequenzen und die charakteristischen Zahlen, die sie ausdrücken, auferlegen? Hier kommt die Quantentheorie ins Spiel. Wenn ein Atom eine Lichtstrahlung aussendet, verliert es Energie, aber es verliert sie nicht kontinuierlich; alles läuft so ab, als ob die Natur hier sprunghaft vorgehen würde und als ob es nacheinander Energiequanten verlieren würde. Wie ein Wechselstubengeber, der sein Wechselgeld nur in Münzen herausgeben kann.

Zunächst wird die einfachste Hypothese ausgeschlossen, die darin bestand, die Dauer der Lichtschwingung und die Dauer der Umdrehung eines Elektrons auf seiner winzigen Umlaufbahn zur Deckung zu bringen. Man muss also auf eine kompliziertere Hypothese zurückgreifen, und die, bei der das Genie von Bohr zum Stillstand kam, eine Hypothese, die willkürlich erscheint und kein Analogon in den Bewegungen des Sonnensystems hat, ist die folgende: Unter den möglichen Umlaufbahnen eines Elektrons um den Kern gibt es außergewöhnliche, die allein stabil sind, und wenn aus irgendeinem Grund ein Elektron von einer dieser stabilen Bahnen auf eine andere, die näher am Kern liegt, springt, sendet es in Form von Strahlung ein Energiequant aus. Die Frequenz der emittierten Strahlung liegt zwischen den Umlaufzeiten des Elektrons auf der einen und der anderen der beiden betrachteten stabilen Bahnen (gemäß einer bestimmten Formel).

Diese Theorie hat es ermöglicht, die einfachsten Spektren auf bemerkenswerte Weise zu erklären.

DAS PHOTON UND DIE QUANTENMECHANIK

Aber trotz des Rückgriffs auf die Relativitätsmechanik und der Zuschreibung eines kleinen Magneten zum Elektron sind die Schwierigkeiten und Widersprüche, die bestehen bleiben, so groß, dass Bohr daran zweifelte, dass die Vorstellungen von Raum und Zeit, die in uns durch die Wahrnehmung einer Welt in unserem Maßstab ausgearbeitet wurden, auf die unendlich kleine Welt der Atome anwendbar sind. Mit anderen Worten, sind die Vorstellungen von Raum und Zeit, die für den Makrokosmos gelten, auch für den Mikrokosmos gültig? Aber die Forscher lassen sich nicht entmutigen, und ihre Vorstellungskraft schreckt vor keiner Kühnheit zurück. Sie zögern nicht, bei der Untersuchung des Lichts der kontinuierlichen Wellenvorstellung eine diskontinuierliche Vorstellung beizumischen und umgekehrt bei der Untersuchung der Materie dem atomistischen Konzept ein wellenförmiges Element hinzuzufügen. So würden sich die beiden Konzepte, die jeweils ausschließlich in ihrem Bereich zu triumphieren schienen, notwendigerweise (und in unterschiedlichen Formen) in jedem von ihnen kombinieren.

Es ist die Untersuchung des photoelektrischen Effekts, der Herauslösung von Elektronen aus der Materie durch Licht, die uns zunächst, wie Einstein gezeigt hat, gezwungen hat, anzunehmen, dass in einer Lichtwelle, die von einem einzigen Atom emittiert wird, die gesamte Energie in einem kleinen immateriellen Projektil konzentriert ist, dem man den Namen Photon gegeben hat. So wäre das Licht nicht rein wellenförmig, es wäre gleichzeitig korpuskular. Versöhnung von Fresnel und Newton! Und in diesen Konflikten zwischen Licht und Materie zeigen die glänzenden Entdeckungen von C. T. R. Wilson und H. A. Compton, dass der Stoß eines Photons gegen ein Elektron noch den grundlegenden Gesetzen der klassischen Mechanik (Erhaltung der Energie und des Impulses) gehorcht.

Eine ähnliche, aber umgekehrte Revolution verändert gerade unsere Vorstellung von Materie. Um die Widersprüche zu beseitigen, die die Quantentheorie in ihrer ursprünglichen Form aufweist, scheint es notwendig zu sein, den diskontinuierlichen materiellen Teilchen (Elektronen und Protonen) kontinuierliche Wellen von noch schlecht definierter Natur zuzuordnen und die ballistische Mechanik durch eine Wellenmechanik zu ersetzen, wie einst die geometrische Optik durch die Wellenoptik, allerdings ohne den Begriff individueller materieller Teilchen aufzugeben. Hier kommt Fresnel Newton zu Hilfe.

Es ist Louis de Broglie zu verdanken, dass er dieses revolutionäre Konzept eingeführt hat, das in Deutschland von Schrödinger wieder aufgenommen und weiterentwickelt wurde. Stabile stehende Wellen um den Kern eines Atoms würden durch ihre Schwingungen die charakteristischen Frequenzen der Lichtemissionen des Atoms erklären.

Sogar die paradoxe Schlussfolgerung, dass in der Nähe des Kerns der wellenförmige Aspekt des Phänomens zu dominieren scheint; die Individualität des Elektrons, die wir so direkt beobachten, wenn es frei ist, scheint dann zu verschwinden, sich in ein kontinuierliches System stehender Wellen aufzulösen.

Widersprüchliche und unvereinbare Konzepte, hat man gesagt: Herr de Broglie antwortet, indem er an die ähnlichen Widerstände und Einwände erinnert, auf die die Wellentheorie gestoßen ist.

Er könnte auch eine berühmte Episode aus dem Leben von Fresnel anführen: Als er, sich in den Dunkelheiten seiner neuen Theorie kämpfend, zu einer Unmöglichkeit gelangt, zu einer Gleichung, die keine Lösung hat, oder vielmehr deren Lösungen im mathematischen Sinne des Wortes imaginär sind, lässt er sich nicht entmutigen. Gegen alle Logik interpretiert er intuitiv diese imaginäre Wurzel, gibt ihr einen Sinn, den der Erfolg rechtfertigt! Später wird die korrigierte, verbesserte Theorie den Widerspruch aufheben.

Aber im Moment ist es zweifellos, dass die Verbindung zwischen den Wellen und den materiellen oder lichtbezogenen Teilchen, kurz zwischen Kontinuität und Diskontinuität, im Fall der Materie wie im Fall des Lichts mysteriös bleibt.

Einige Neuerer kommen sogar so weit, das Kausalitätsprinzip in Frage zu stellen, das auf atomarer Ebene vollständig anwendbar ist. Der Zufall, wie in der alten Philosophie Demokrits, wäre im tiefsten Kern der Dinge. Aber durch die große Anzahl von Zufällen würde ein strenger Determinismus dennoch das Universum in unserem Maßstab regieren.

DIE QUANTENMECHANIK

Dieser Probabilismus, welcher auch immer das metaphysische Substrat ist, das man ihm zuschreibt (Mangel an Kausalität oder zu große Subtilität der Ursachen), findet sich besonders entwickelt in einem anderen Versuch, der Quantenmechanik, die unabhängig von der Wellenmechanik ähnliche Ergebnisse verfolgt hat, indem sie die nicht überprüfbaren Hypothesen über die Struktur der Atome durch einige Prinzipien über beobachtbare Größen ersetzt hat: wie die klassische Thermodynamik im Vergleich zur kinetischen Theorie der Gase. Diese Mechanik wurde von einer Plejade junger Physiker entwickelt: Heisenberg, Born, Jordan in Göttingen, Dirac in Cambridge... Diese Forscher, beeindruckt von bestimmten Übereinstimmungen einer rein abstrakten arithmetischen Theorie, die einst von dem berühmten Mathematiker Hermite entwickelt wurde, versuchten, dieses im Voraus geschmiedete mathematische Instrument systematisch auf das physikalische Problem anzuwenden, das die Natur ihnen stellte. Wenn sie ihre Methoden rechtfertigen wollten, könnten diese den Beispiel von Kepler anführen, der einerseits die astronomischen Beobachtungen von Tycho Brahe kannte und andererseits die Theorie der Kegelschnitte von Apollonius in Händen hatte und sich darauf verlegte, die täglichen Positionen der Erde und der Sonne mit der Ellipse des griechischen Geometers in Einklang zu bringen.

Aber wie sehr entfernt uns diese Theorie durch ihre Abstraktion von den Denkweisen, die uns vertraut sind!

Man kann verstehen, dass Wissenschaftler, die Jahre damit verbracht haben, Dunkelheit und Widerspruch aus ihrer Wissenschaft zu verbannen und daraus ein klares und harmonisches Gebäude zu machen, und die nur Theorien akzeptieren, wenn sie der Erfahrung Schritt für Schritt folgen, einige Überraschung und einige Misstrauen gegenüber Lehren empfinden, die ihnen gleichzeitig kühn und antinomisch, abstrakt oder heterogen erscheinen, die Fragmente klassischer Lehren nebeneinanderstellen, sie gleichzeitig außerhalb ihres natürlichen Anwendungsbereichs verwenden, ohne sich von ihrer Inkohärenz aufhalten zu lassen. Und doch kann man in einem solchen Bereich nur zu diesem Preis vorankommen. Wir spüren, dass sich alle diese Bemühungen mühsam und beharrlich auf das Ziel zubewegen.

Noch ist die vorangehende Darstellung singular unvollständig und musste, als ob sie von ihrem direkten Gegenstand abwich, viele Entdeckungen und Theorien übergehen, die den modernen Konzeptionen glänzende Bestätigungen liefern.

So habe ich die meisterhaften Experimente von Herrn Bragg über die kristallisierten Moleküle verschwiegen, Experimente, die uns so tief in die kristalline Struktur der Materie eindringen lassen. Ebenso habe ich den Namen des Vaters der Ionen, Arrhenius, nicht erwähnt, dessen Entdeckungen am Ursprung aller wissenschaftlichen oder industriellen Arbeiten über die Beziehungen zwischen Materie und Elektrizität in Bewegung stehen. Insbesondere, da ich keine Anspielung auf biologische Phänomene gemacht habe, habe ich nicht die berühmte Hypothese von Arrhenius über die lebenden Keime erwähnt, die unendlich kleine Dimensionen und Massen haben, in das Vakuum und die Kälte der Sterne geschleudert werden, von den glühenden Sternen durch die Abstoßung des Lichts weggestoßen werden, aber von den dunklen Sternen angezogen werden, sobald sie in ihre Reichweite kommen. Diese Besiedlung der dunklen Räume ist noch immer eine brillante Vorstellung, aber es ist zweifellos, dass in dieser oder einer anderen Form die kühnsten Konzeptionen der Physik und Chemie die Phänomene des Lebens angreifen.

Wenn ich bestimmte allzu einfache und oberflächliche Kritik höre, kommt mir eine Passage aus Goethes Faust in den Sinn, eine der tiefgründigsten, in der Faust von Mephistopheles in die Tiefen der Erde geführt wird, um die Mütter zu befragen. Die Mütter, das sind die ursprünglichen Ursachen, die ewigen Formen der vergänglichen Metamorphosen. "Die Mütter", sagt Faust, "dieses Wort trifft mich wie ein Schwertstoß. Was ist dieses Wort, das ich nicht hören kann?" Mephistopheles verspottet ihn: "Willst du denn niemals etwas hören, was deine Ohren nicht schon gehört haben?" - "Nein", antwortet Faust, "glaube nicht, dass ich mein Heil in der Trägheit suche. So teuer das Universum das Recht zu fühlen auch verkauft, der beste Teil des Menschen ist es noch, sich zu bewegen und tief die Unermesslichkeit zu atmen."[3]

Fußnoten


  • [1] Paul Painlevé: Les conceptions modernes de la matière et la science classique. Discours prononcé à Londres, le 15 novembre 1927 devant la « Royal Institution of Great Britain. Eine kurze Zusammenfassung des Vortrages wurde 1927 in Nature veröffentlicht: [News and Views]. Nature 120, 777–781 (1927). Für eine volle Textversion siehe auch Materie und klassische Physik (Vortrag) ↗
  • [2] Die französische Transkription stammt aus: Paul Painlevé, Jean Perrin, Paul Langevin: Paroles et écrits. Paul Painlevé; Publiés par la Société des Amis de Paul Painlevé [avec la collaboration de Raymond Arasse] ; avant-propos de Pierre Appell. Erschienen im Verlag Rieder, Paris, 1936.
  • [3] Das vermeintliche Zitat aus Goethes Faust wurde von einer KI erstellt. Im Deutschen Original von Goethe weicht der Text davon wahrscheinlich ab.