Introduction à l’épistémologie génétique. La pensée physique ()

Chapitre VII.
Les enseignements épistémologiques de la microphysique a

L’interprétation probabiliste de la thermodynamique, conjuguée avec la théorie cinétique des gaz et avec la renaissance de l’atomisme, ont déjà à elles seules renouvelé les manières de penser du physicien. Que l’on songe, p. ex., à l’explication du mouvement brownien par Smoluchowski, fondée sur la probabilité des rencontres entre les molécules agitées par la chaleur et les particules en suspension dans les milieux colloïdaux, ainsi qu’à la vérification de cette hypothèse statistique par les travaux expérimentaux de J. Perrin, et l’on mesurera le chemin parcouru depuis les débuts de la mécanique classique et les « tourbillons » de la mécanique cartésienne. Mais, avec la découverte du caractère discontinu de l’énergie par Planck en 1900 et avec le prodigieux essor de la physique intra-atomique issue de la théorie des quanta, c’est la portée de presque toutes nos notions fondamentales qui est remise en question, au point qu’on a pu croire à la nécessité d’une nouvelle épistémologie pour interpréter un tel bouleversement. Comme l’a finement dit Bachelard, la métaphysique traditionnelle est aujourd’hui à remplacer par une métamicrophysique ! Seulement le danger à éviter est alors de se contenter d’une micrométaphysique, comme celle des trop nombreux auteurs qui se sont empressés de vouloir justifier une fois de plus la liberté humaine, en la fondant sur le principe d’indétermination d’Heisenberg… Mais, si l’on s’en tient au seul problème épistémologique, la microphysique verse assurément un ensemble impressionnant de faits nouveaux au dossier de l’analyse de la connaissance scientifique.

Le fait principal, à cet égard, est l’évanouissement de la notion de l’objet individuel lui-même, en dessous du seuil d’indétermination. Or, cette disparition, loin de contredire ce que nous avons vu jusqu’ici du rôle de l’action dans la connaissance, et du caractère opératoire des interprétations de la réalité physique, en paraît au contraire la meilleure des confirmations. Les concepts ordinaires de la pensée, ou, comme les a appelées P. Langevin, les notions « familières », constituent si bien, en effet, l’expression de l’action du sujet sur les objets qu’elles demeurent relatives à l’échelle de cette action même, et que, en dessous de cette échelle, c’est-à-dire lorsqu’apparaissent les limites des activités expérimentales effectives, ces notions se révèlent toutes plus ou moins inadéquates. Le déterminisme statistique et l’interprétation probabiliste des ensembles trop complexes pour être analysés ont remédié jusqu’à un certain point à ces difficultés, et c’est ce que nous venons de constater au cours du chap. VI. Mais, à vouloir descendre sous l’apparence globale, et à vouloir atteindre le détail des phénomènes à l’extrême limite de nos moyens actifs ou pratiques d’investigation, la pensée physique a fait, en fin de compte une expérience décisive, sur laquelle il nous faut insister maintenant : c’est que les limitations mêmes de l’action se traduisent nécessairement par une transformation de la pensée comme telle !

On dira que cette corrélation est bien naturelle, et il est assurément facile de le dire après coup. Mais replacée dans la perspective antérieure à celle des travaux actuels, chacun aurait admis que les obstacles rencontrés dans l’action même de l’expérimentateur sur des objets trop petits pour être modifiés à volonté par elle sont simplement de nature à empêcher une application précise des notions classiques, sans pour autant nécessiter leur refonte totale (nous venons de voir p. ex, que Planck lui-même continue de « postuler » l’existence d’un infradéterminisme, tout en le déclarant radicalement inaccessible à nos moyens d’analyse : il a fallu une génération nouvelle de chercheurs, issus de ses travaux, pour parvenir à la liberté d’esprit nécessaire et pour pouvoir s’affranchir de ce que les générations antérieures, et Planck en personne, prenaient pour des évidences). L’impossibilité où se trouve le physicien, pour rappeler un exemple aujourd’hui bien connu, de déterminer simultanément la position et la vitesse des particules (parce que l’observation de leur position exige un éclairage qui modifie leur vitesse) aurait paru une simple difficulté expérimentale ou pratique, sans conséquence quant à l’emploi de la notion d’objet. Lorsque la particule, aurait-on dit, ne se trouve pas dans la situation artificielle où la place la recherche de laboratoire d’être bombardée par les photons émanant de la source de lumière utilisée par l’expérimentateur, elle a objectivement et indépendamment de nous, une vitesse et une position simultanément déterminées, bien que non déterminable : rien n’est donc à changer, aurait-on ajouté, à nos manières de penser du seul fait de notre impuissance à agir à cette échelle trop petite, pas plus que l’éloignement d’une étoile, calculé en années lumières, n’exige que nous renoncions à la situer dans le même espace et le même temps que ceux de l’observateur et à synchroniser au moyen d’une simultanéité absolue les événements se produisant sur cette étoile avec ceux de l’univers entier. Or, de même que les mesures spatio-temporelles aux grandes vitesses, sont relatives à la vitesse des déplacements de l’observateur par rapport au mesuré, de même, mais de façon bien plus fondamentale encore, il s’est trouvé que, non seulement les notions de temps et d’espace intervenant dans la description du comportement des éléments microscopiques, mais encore l’ensemble des concepts indispensables à cette analyse ont dû être modifiés du seul fait des limitations de l’action à cette nouvelle échelle. C’est donc bien la solidarité reconnue des moyens d’action et de la structure des notions ou de la pensée, qui constitue le fait nouveau essentiel de la connaissance microphysique, et un tel fait n’a rien de naturel si on cherche à se le représenter dans la vision des choses d’un Descartes, d’un Newton, d’un Laplace, d’un Clausius (et, en partie, d’un Max Planck lui-même !).

Un fait décisif est, en outre, que cette relativité des notions par rapport à l’échelle de l’action exercée sur les micro-éléments ne signifie nullement un retour à l’anthropomorphisme, pas plus que la relativité propre à la mécanique einsteinienne n’a conduit à un affaiblissement de l’objectivité. Bien au contraire, les limites de l’action nous renseignent sur le réel autant que sur le mécanisme de la connaissance, et les découvertes de la microphysique se sont présentées aussi bien sous la forme d’une résistance des données expérimentales aux anticipations fondées sur les actions et les notions propres à l’échelle macroscopique, que sous la forme de nouvelles expressions mathématiques rendues nécessaires pour traduire l’action expérimentale à la nouvelle échelle (utilisation des « opérateurs »).

Historiquement, c’est le problème de la répartition de l’énergie dans le spectre normal de l’émission thermique qui a conduit Max Planck à découvrir le caractère discontinu de l’énergie, autrement dit l’existence de quanta dynamiques. On pourrait dire, en ce cas, que le réel a imposé de façon imprévue un irrationnel de plus à l’effort déductif du physicien, en montrant l’impossibilité d’expliquer par la théorie classique du rayonnement les répartitions observées à l’intérieur d’une enceinte impénétrable. Mais réciproquement l’introduction d’une nouvelle algèbre pour exprimer ces données imprévisibles de l’expérience a permis ensuite à L. de Broglie de déduire de nouveaux résultats (les ondes matérielles) que l’expérimentation a confirmés ultérieurement d’une manière éclatante. C’est donc une fois de plus, et sur ce terrain neuf comme dans tous les autres domaines de la physique, l’union de la déduction et de l’expérience qui a peu à peu conduit à poser le problème général dont nous parlons ici : comment ajuster les notions du sujet à une échelle où l’action sur les objets devient si grossière, eu égard, à leur petitesse, qu’elle modifie profondément les réalités sur lesquelles elle porte au lieu de permettre de les manier sans les altérer et de les observer du dehors ?

Notons, pour terminer ces remarques introductives, que cette interaction particulière du sujet et des objets, modifiant ceux-ci par le fait de leur disproportion d’échelle avec celui-là, nous ramène, mais à l’autre extrémité de la série des échelles, au problème déjà rencontré au chap. IV à propos de la relativité : que devient la connaissance quand les actions du sujet sont intégrées dans les transformations mêmes qu’il étudie ? Mais tandis qu’à l’échelle de la mécanique céleste c’est l’observateur qui est entraîné avec ses instruments de mesure, dans les systèmes objectifs qu’il ne peut ainsi étudier du dehors, mais doit reconstituer par la coordination de ses propres opérations, à l’échelle microphysique c’est la transformation objective qui est entraînée avec ses propriétés métriques dans l’action du sujet, de telle sorte que celui-ci ne peut plus non plus les étudier du dehors et doit les reconstituer à nouveau par le mode d’enchaînement de ses propres opérations.

§ 1. L’interprétation microphysique des relations spatiales

L’un des aspects les plus intéressants du système des nouvelles notions microphysiques a trait à la géométrisation du réel. Sous l’influence de la mécanique classique la physique n’a cessé dans les temps modernes de chercher à expliquer les phénomènes par les figures et les mouvements, selon l’idéal cartésien, adjoignant à cela les forces mais en tant que facteurs d’accélération (donc à nouveau des variations de mouvements) ainsi que les masses et les énergies, mais conçues à nouveau comme géométrisables. La première difficulté sérieuse rencontrée sur ce chemin a été précisément constituée par les problèmes relatifs aux phénomènes irréversibles et principalement à l’entropie, qui se présente comme un changement d’état plus que comme une transformation de caractère géométrique. Mais là encore, l’interprétation probabiliste du deuxième principe de la thermodynamique est compatible avec une représentation cinématique de la dégradation de l’énergie et l’implique même jusqu’en un certain point.

Mais avec la microphysique les choses changent et l’importance croissante de la notion d’« état » soulève la question, sinon de la valeur universelle de l’explication géométrique, du moins des transformations qu’il est nécessaire d’introduire dans les schémas spatiaux pour qu’ils demeurent adéquats à une telle échelle de phénomènes. C’est ainsi que, au début de ses travaux, Niels Bohr a donné de l’atome une image planétaire, les électrons étant censés graviter autour du noyau atomique selon un système d’interactions dans lequel l’électricité aurait joué le rôle de la gravitation. Mais il s’est trouvé que l’écueil d’une telle interprétation tenait au problème de la stabilité du système, donc à celui des états : alors que le système solaire est stable, en vertu de la seule gravitation (dont on se rappelle l’explication géométrique einsteinienne, par les courbures de l’espace déformé par les masses), la stabilité de l’atome ne saurait être assurée sans plus par les interactions électriques. Il est alors apparu comme impossible d’attribuer aux électrons une trajectoire comparable, autour du noyau de l’atome, à celle des planètes autour du soleil, et la représentation géométrique elle-même de la structure interne de l’atome a donné lieu à des révisions successives qui la rendent, non seulement radicalement différente des modèles macroscopiques, mais même à proprement parler irreprésentable. D’où le grand intérêt épistémologique d’une science obligée à un tel renversement de points de vue : la considération des états stables primant celle des mouvements, la recherche en est réduite à se passer de la représentation intuitive. « Nous n’avons aucune intuition des processus atomiques, dit ainsi Heisenberg. Heureusement le traitement mathématique des phénomènes n’exige pas une telle intuition. » Et encore : « il est manifeste que l’application simultanée, sans critique, des deux représentations ondulatoire et corpusculaire conduit à des contradictions immédiates. On peut donc en conclure que l’emploi de ces représentations doit avoir des limites fixées par la nature » 1.

Il convient à cet égard de faire deux remarques préalables. L’une est que la hardiesse des retouches apportées à la représentation des relations spatiales en microphysique a été rendue possible par les leçons que l’on doit à la théorie de la relativité. Convaincus de la relativité des grandeurs et des structures géométriques par rapport aux vitesses et par rapport aux champs à l’intérieur desquels se font les mesures, les microphysiciens n’ont pas hésité à considérer les notions spatiales de caractère macroscopique comme ne conservant pas a priori leur valeur à l’échelle microscopique. Dès lors, là où la trajectoire d’un objet microscopique est devenue irreprésentable, les microphysiciens ont préféré sacrifier la représentation géométrique et la généralité même de l’idée de trajectoire à l’expression analytique des faits observés plutôt que de rester fidèles à des notions d’une autre échelle, dont l’exemple de la théorie de la relativité leur enseignait par analogie qu’elles n’avaient rien d’intangible.

En second lieu, il faudrait insister dès maintenant sur un caractère fondamental de la pensée microphysique, sur lequel nous serons conduits à revenir souvent : c’est le primat accordé à la réalité expérimentale stricte, à ce que Dirac appellera l’« observable », par opposition aux principes généraux, qui sont toujours suspects de ne présenter qu’une signification relative aux échelles macroscopiques. Or, ce primat de l’« observable » comporte deux significations principales. En premier lieu, l’observable est loin de constituer une simple donnée sensible, passivement enregistrée : il est le résultat, observé sans présupposition, d’une action expérimentale exercée sur le réel, c’est-à-dire d’une intervention active modifiant l’objet et donnant lieu à une manifestation mesurable. Il y a donc, ici comme dans le domaine de la relativité, une sorte de délégation de pouvoir de l’observateur en faveur de la mesure, et d’une mesure impliquant une étroite solidarité entre le mesurant et le mesuré. En second lieu l’observable est directement traduit en symboles opératoires, de caractère mathématique mais entièrement libres à l’égard de la représentation géométrique. Les opérations (ou plus précisément, comme nous y insisterons plus loin, les opérateurs) mathématiques, exprimant l’observable sont donc, en quelque sorte, le prolongement, sur le plan de la pensée déductive, des actions expérimentales ayant permis de le mettre en évidence, l’action précédant parfois l’opération intellectuelle qui la prolonge, mais pouvant être également suggérée par le jeu même des combinaisons opératoires d’ordre déductif.

On peut citer, à cet égard, un passage bien suggestif de L. de Broglie. Il est certaines régions d’un champ microscopique, nous dit cet auteur, dans lesquelles on peut suivre et localiser des corpuscules individuels ; « mais si, à un certain instant, il y a superposition, même partielle, des dites régions, il devient impossible de suivre d’une façon certaine l’individualité des corpuscules, un échange de rôles pouvant alors se produire entre eux sans qu’on puisse aucunement s’en apercevoir ultérieurement » 2. La situation est donc comparable, pour deux particules, à celle de deux jumeaux indiscernables dont on peut suivre l’individualité s’ils voyagent séparément mais dont on ne saurait déterminer duquel il s’agit s’ils sont entrés ensemble dans un bâtiment et qu’un seul ressort ensuite. « Et il est bien évident cependant, ajoute L. de Broglie, que notre incapacité à suivre le fil de ces deux individualités n’empêche pas nos jumeaux d’être des individus autonomes. Toutefois il faut ici remarquer que la physique contemporaine a une tendance nette à adopter une attitude phénoméniste et à considérer comme de pseudo-problèmes les problèmes qui ne peuvent d’aucune façon être tranchés par l’expérience. Si l’on adopte ce point de vue, la question de savoir si l’individualité des particules persiste lorsqu’elle n’est pas susceptible d’être suivie doit être considérée comme un pseudo-problème » 3.

Ce que L. de Broglie appelle « phénoménisme » en cet exemple frappant constitue, on le voit, le contraire du phénoménisme traditionnel, qui est sensualiste et passif : il signifie proprement que les notions gardent leur sens pour autant seulement qu’elles accompagnent une action effective et que, quand l’action de suivre une particule individualisée n’est pas possible, la notion de l’objet individuel perd son sens. C’est à peu près ainsi que, au niveau sensori-moteur de l’intelligence, le bébé ne croit pas à la permanence de l’objet individuel tant qu’il ne peut pas le retrouver par des actions coordonnées (remplaçant la notion de permanence par des schèmes de résorption et de réapparition), et qu’il en construit au contraire la notion sitôt que les actions de retrouver peuvent être effectuées systématiquement et organisées entre elles grâce au groupe pratique des déplacements (voir chap. V § 1). Mais le caractère singulièrement surprenant de la manière de penser du microphysicien (et ce qui distingue son phénoménisme actif de celui du bébé) est que, non seulement il se refuse ainsi à admettre des notions qui dépassent l’action effective, mais encore il construit tout un système d’opérations intellectuelles et mathématiques pour traduire déductivement cette disparition de l’objet sur le plan de l’action expérimentale : le jeu des fonctions d’ondes antisymétriques ou symétriques, les symboles de l’« état » et de l’« observable » sont là pour exprimer opératoirement les évanouissements et les réapparitions de l’objet en un système de notions à la fois mathématiquement rigoureuses et ne dépassant pas le cadre de ce qui peut être réellement atteint au cours de la manipulation pratique !

Il va de soi, dès lors, qu’en un tel système de notions, l’espace et le temps ne sauraient conserver les structures qu’ils présentent à l’échelle macroscopique. La localisation dans l’espace ou l’instant temporel, les trajectoires ou les durées, les grandeurs et les mesures, bref toutes les notions usuelles subissent, du fait même des limites de l’action expérimentale sur les objets physiques, et de la volonté de ne pas dépasser ces limites par une extrapolation illégitime de la pensée, un profond remaniement.

Le problème de la localisation dans l’espace est, à cet égard, particulièrement intéressant. Comme l’a montré G. Bachelard avec son talent habituel 4, le postulat essentiel du réalisme a toujours été la croyance en une localisation possible des objets, localisation grossière de la « place » occupée ou localisation affinée et ponctuelle. Or, si la localisation « peut donner des certitudes à l’égard d’une action d’ensemble » (p. 22), elle cesse de présenter une signification précise en microphysique parce que, à cette échelle, « la structure interne de la cellule topologique est une structure de probabilité » (p. 35). Un élément microcosmique n’étant pas individualisable, il n’est pas localisable ; plus précisément, c’est parce qu’il n’est pas localisable qu’il ne constitue pas un objet individualisé : « nous ne pouvons parler d’un élément du réel qu’en tant qu’il réalise un cas de localisation. C’est moins qu’un objet, c’est seulement une expérience » (p. 33). Et il en est ainsi parce que « l’expérience de la localisation ne correspond jamais à un simple contact ; c’est toujours un choc. Ce n’est jamais une vision gratuite ; c’est toujours un échange énergétique » (p. 35-6). « On ne pourrait toucher l’infiniment petit sans lui donner une vitesse infinie… Le contact est une notion de l’expérience macroscopique qui n’a pas de sens en microphysique » (p. 55-6). Autrement dit « une chose » est « toujours solidaire d’un événement » (p. 34), et le seul événement observable en microphysique est un événement provoqué par l’action de l’expérimentateur et par une action qui, étant donnée son échelle, est à la fois transformation et déplacement : « il est désormais impossible, au niveau de l’élément, de séparer géométrie et énergétique » (p. 38). « Autrement dit encore, dans la science quantique, la notion de point matériel au repos absolu est inconcevable, non pas, comme dans la science relativiste, par l’impossibilité de fixer des axes de référence absolus, mais par un relativisme en quelque sorte plus profond, moins uniquement géométrique, puisqu’il lie la géométrie et la dynamique » (p. 48). D’où enfin la frappante formule de Bachelard : pour la microphysique « enfermer c’est agiter », tandis que pour le réalisme courant « enfermer c’est stabiliser » (p. 48).

On voit ainsi de la manière la plus instructive que, à la limite inférieure de l’action sur le réel, la localisation suppose une intervention active du sujet et se trouve, par le fait même, contradictoire sous sa forme statique et ponctuelle. Un autre exemple cité par L. de Broglie fera comprendre l’attitude du physicien à cet égard. Soit un écran percé de trous au travers desquels passe un photon dirigé vers une plaque photographique qui enregistre les franges d’interférences : « … la question de savoir… par quel trou a passé le photon n’a aucun sens, parce que le photon ne se manifeste par aucune action qui serait exercée lors de son passage à travers l’écran et n’exerce finalement une action que sur le dispositif (plaque photographique) qui enregistre les franges. On pourrait évidemment chercher à mettre en évidence le passage du photon par l’un des trous, mais alors il faudrait monter un dispositif sur lequel agirait le photon lors de son passage par le trou en question ; or si le photon agissait sur ce dispositif, il deviendrait incapable de participer au phénomène d’interférence. On ne peut donc obtenir le phénomène d’interférence que quand il est impossible de dire par quel trou le photon a passé » 5. En présence d’une manière de raisonner aussi stupéfiante pour le réalisme vulgaire, on est tenté d’arrêter le savant : dites si vous voulez, qu’il vous est impossible de déterminer par quel trou a passé l’élément, mais ne dites pas que la question n’a pas de sens, car un œil capable, par hypothèse, de discerner un photon le suivrait sans peine et localiserait son passage exact. Mais la question est plus subtile, car rien ne prouve que, au cours de son mouvement, le photon était déjà le corpuscule localisable qu’il est devenu en frappant la plaque photographique. Il n’était là qu’à titre de « présence potentielle » 6 et sa présence réelle avait la forme de l’onde qui lui est associée. « On peut donc dire que quand le photon manifeste son aspect corpusculaire en se localisant, son aspect ondulatoire disparaît tandis qu’au contraire quand son aspect ondulatoire s’affirme, toute localisation traduisant sa nature corpusculaire est impossible. C’est là un des aspects du fameux principe d’incertitude de M. Heisenberg ». Bref, « le photon associé à l’onde ne se localise qu’au moment où se produit un phénomène observable » 7. Nous retombons ainsi sur la connexion intime entre l’idée microphysique de localisation et une intervention active de l’expérimentateur, dont l’action est nécessaire pour produire un « observable ».

S’il en est ainsi, il ne saurait non plus être question de trajectoires assignables : « pendant que le photon sera en train de se propager entre la source de lumière et la plaque photographique, avant d’avoir produit aucun effet observable, on ne pourra aucunement lui attribuer une trajectoire et seule la propagation de l’onde lumineuse associée nous permettra de représenter le déplacement du photon » 8. Mais une onde ne constitue-t-elle pas elle-même une sorte de trajectoire ? Nullement, car l’onde associée à un corpuscule n’est qu’une « onde de probabilité », exprimant sans plus la probabilité de retrouver les corps, et elle ne correspond pas à un déplacement continu et simple. Il en est de même des électrons et de leurs ondes associées : « L’intensité de l’onde associée à une particule matérielle représenterait en chaque point la probabilité pour que la particule se manifeste par une action observable localisée en ce point » 9.

D’une manière générale, « les relations d’incertitude s’opposent à ce que nous puissions jamais connaître à la fois la figure et le mouvement » 10, ce qui revient à exclure le principe même de l’explication cartésienne. Plus nous déterminons la configuration d’un système atomique et moins nous connaissons son état dynamique, et réciproquement. « La localisation imparfaite des corpuscules à chaque instant ne permet plus de leur attribuer constamment une vitesse bien définie. Elle s’oppose aussi à ce que l’on puisse représenter par une trajectoire, c’est-à-dire par une courbe continue, la suite des positions d’un corpuscule au cours du temps. Le déterminisme des mouvements, tel qu’il était conçu en mécanique classique, s’en trouve diminué et les incertitudes d’Heisenberg… en marquent en quelque sorte les limites » 11.

La différence essentielle entre les représentations microphysiques et l’espace de la cinématique classique tient à la discontinuité inhérente aux phénomènes microcosmiques et à l’existence du « quantum d’action ». « La notion même de quantum d’action implique, en effet, une sorte de liaison entre le cadre de l’espace et du temps et les phénomènes dynamiques que nous cherchons à y localiser, liaison tout à fait insoupçonnée de l’ancienne physique » 12. Dès lors « si l’on pouvait imaginer (mais en réalité on ne le peut pas, car que seraient ses organes sensoriels ?) un observateur microscopique poursuivant ses investigations à l’intérieur des systèmes atomiques, les notions d’espace et de temps n’auraient peut-être pour lui aucun sens : tout au moins n’auraient-elles pas du tout le même sens que pour nous » 13. « Il est d’ailleurs bien difficile de prévoir comment on pourra, si un jour on le peut, remplacer les notions traditionnelles d’espace et de temps pour parvenir à une description plus adéquate des unités élémentaires et de leurs liens naturels, d’autant plus qu’il faudra bien toujours revenir, semble-t-il, à nos conceptions ordinaires pour exprimer les prévisions relatives aux résultats possibles des observations et des expériences » 14.

Ces réflexions du grand physicien sont hautement instructives pour une épistémologie génétique, c’est-à-dire pour une théorie de la connaissance qui cherche à expliquer la destinée des notions scientifiques fondamentales par la manière effective dont elles ont pris naissance dans le comportement du sujet. On pourrait, en effet, se demander, comme l’a suggéré R. Wavre, non pas seulement ce que penserait un observateur intra-atomique, mais ce que l’on découvrirait en étudiant un « bébé atomique », c’est-à-dire un être naissant à la pensée à l’échelle microcosmique, et ce que donneraient sur le développement de cet enfant des investigations psychologiques analogues à celles que l’on peut faire sur les sujets réels 15.

En fait, il n’est presque pas besoin d’imaginer l’observateur microscopique ou le bébé atomique pour tirer la leçon psychologique que nous donne la pensée microphysique. Le microphysicien contemporain s’impose, en effet, de lui-même à titre d’idéal scientifique une sorte de retour au primitif, mais de retour voulu et très lucide, suggéré par cette règle essentielle de la physique atomique de ne pas dépasser par la pensée les limites de l’observation. Opérant sur une réalité qui ne dévoile ses mystères que de façon toute fragmentaire, il découvre les objets et leurs propriétés par le moyen d’actions expérimentales très circonscrites, limitées sur chaque point par la force même des choses, et d’autant plus difficiles à coordonner entre elles qu’elles sont impossibles à effectuer simultanément. Il s’efforce alors de se refaire une mentalité vierge de toute notion préconçue dans la mesure où ses actions habituelles se trouvent à la limite de leur échelle opérative : il s’applique comme le tout jeune enfant, à ne croire aux objets que dans la mesure où il peut les retrouver, et ne veut connaître de l’espace et du temps que ce qu’il en peut construire, en reconstituant un à un les rapports élémentaires de position, de déplacement, de forme, etc.

Or, chose infiniment instructive, ce retour au primitif (comparable en un sens à la vision naïve que les grands peintres s’efforcent consciemment de retrouver) réussit doublement : il réussit physiquement, puisqu’il a obtenu d’éclatantes victoires théoriques et n’a que trop progressé dans ses applications techniques ; mais il réussit aussi psychologiquement, si l’on peut dire, puisqu’il rejoint effectivement certains aspects de l’espace physique génétiquement élémentaire, tout comme la topologie et la théorie des ensembles retrouvent ce qui est mentalement élémentaire sur le terrain de l’espace mathématique et de la construction du nombre. Si difficiles à saisir en leur formalisme physico-mathématique (que l’on a même, d’ailleurs, axiomatisé à la manière d’une théorie pure 16) les « espaces abstraits » et les « espaces de configuration » dont use le physicien en se donnant des dimensions en nombre égal à celui des degrés de liberté du système considéré, ne traduisent, en effet, que le résultat des coordinations les plus directes que l’action de l’expérimentateur sur la réalité parvient à établir. Ce n’est ainsi pas seulement par ce qu’ils affirment, mais surtout par les connexions habituelles dont ils sont obligés de faire le sacrifice, donc par leur aspect négatif et pas uniquement positif, qu’ils sont révélateurs.

À cet égard, l’espace microphysique présente ce double intérêt de n’être pas toujours archimédien, c’est-à-dire de donner le pas aux notions topologiques d’entourage et d’enveloppement sur les notions métriques de distance et de mouvement ; et, d’autre part, de n’être pas continu mais de procéder par relations entre ensembles de points finis et discontinus au lieu de s’installer d’emblée dans le continu mathématique. Or, de ce double point de vue, les relations topologiques élémentaires, ni métrisables ni même continues au sens géométrique du terme, auxquelles l’espace microphysique est obligé de se limiter en général, sont assurément parentes des rapports topologiques concrets que l’on trouve au point de départ de la notion d’espace, avant toute mesure et avant que l’idée du continu soit généralisée aux espaces vides et pleins (chap. II § 7) : l’espace lié aux limites de l’action sur le réel tend donc à ressembler par certains de ses aspects à l’espace des débuts de toute action.

C’est ainsi que J. L. Destouches, dans ses essais si captivants d’axiomatisation des espaces abstraits nécessaires à la microphysique, part du rapport de voisinage, déterminé physiquement par des « expériences de localisation » qui aboutissent à la constitution de « cellules expérimentales ». Les voisinages de celles-ci constituent alors un « quasi-espace » de caractère fini, c’est-à-dire n’admettant qu’un nombre limité de corpuscules dans le voisinage d’un micro-objet donné, ce qui introduit le discontinu dans l’espace abstrait lui-même 17. La distance métrique est en ce cas supplantée par le voisinage statistique. Quant aux espaces de configuration, qui permettent d’étudier la propagation d’« ondes de probabilités » en attribuant 3 N dimensions à un système de N particules données, il ne s’agit plus de modèles concrets, mais de l’expression opératoire la plus libre de toute représentation, de l’observation probabiliste des faits.

De ces espaces à caractère « abstrait-concret » comme dit G. Bachelard, c’est-à-dire dont « les thèmes d’abstraction sont propres à fournir des cadres de réalisation » 18, on peut ainsi conclure que leur caractère épistémologique essentiel n’est pas de chercher l’élémentaire dans le plus général, comme c’est le rôle de la topologie proprement géométrique ou de la « métrique générale » de caractère mathématique : il consiste au contraire à traduire en opérations de pensée aussi dépouillées que possible les opérations de l’action elle-même aux prises avec une réalité dont il s’agit de reconstruire pas à pas les rapports internes, sans la possibilité d’une vision d’ensemble autre que statistique. Ce sont donc des espaces qui expriment les actes de coordination et d’organisation du sujet agissant sur la réalité corpusculaire, autant que les rapports découverts entre les micro-objets. Comme l’espace élaboré par l’activité psychologique initiale, ces espaces situés à l’échelle-limite de notre expérimentation sont donc des espaces d’action et ne fournissent pas la représentation d’un cadre immobile, puisqu’à ce niveau de réalité il n’existe pas de cadre isolable, mais bien une double solidarité entre le contenu physique et son cadre, ainsi qu’entre celui-ci et les actions exercées sur celui-là.

§ 2. La notion microphysique du temps et les relations entre les espaces-temps d’échelles superposées

Si la notion de l’espace est à réadapter sous de nouvelles formes à l’échelle microphysique, on comprend qu’il en soit a fortiori de même du temps qui, plus encore que l’espace, dépend du contenu physique qui le meuble. Nous avons constaté, en effet (chap. IV § 2), que, génétiquement, le temps ne correspond pas à une intuition simple, comme la vitesse, mais que, avant de pouvoir être traduit métriquement, il constitue essentiellement un rapport : le rapport entre l’espace parcouru et la vitesse ou entre le travail accompli et la puissance. Il est donc clair qu’en un domaine où ni le chemin parcouru ni la vitesse ne constituent des notions générales, le temps ne saurait se présenter sous la même forme qu’à l’échelle macrophysique.

Mais, dans la mesure où l’analyse géométrique est remplacée en microphysique par celle des « états », il y intervient alors un temps plus élémentaire que celui dont la réalité macroscopique montre la liaison avec les déplacements ou changements de position : c’est le temps constitué par les changements d’état. Les changements d’état d ψ se succèdent, en effet, selon un ordre temporel et comportent une durée. Or cette durée constitue elle aussi un rapport, et est comparable en ce sens aux relations temporelles macroscopiques 19. On peut effectivement tirer de l’équation de Schrödinger le rapport élémentaire suivant 20 : dt = d ψ / ℋψ, où ℋψ est l’« énergie totale » du système.

Seulement l’existence d’un tel rapport est loin de suffire à résoudre tous les problèmes fondamentaux que soulève la notion microphysique du temps. Tout d’abord si, pour un seul et même système, on conçoit que les changements d’état et les états stationnaires situés entre ces changements, constituent une suite déterminée et par conséquent un ordre de succession temporelle, comment mettre en relation de succession ou de simultanéité les événements appartenant à plusieurs systèmes séparés ? D’autre part, en quoi consiste la durée des états stationnaires et peut-on encore les situer dans le temps ? Enfin comment suivre le détail des transitions brusques et comment concilier la discontinuité essentielle qui les caractérise avec l’idée d’une durée, même exprimée sous la forme très générale du rapport que nous venons de mentionner ?

Aussi a-t-on douté de la signification des relations temporelles là où les trajectoires ni les vitesses ne sont entièrement déterminables. C’est ainsi que selon N. Bohr, nous dit L. de Broglie « l’existence pour l’atome d’états stationnaires en quelque sorte placés en dehors du temps et l’impossibilité de décrire les transitions brusques qui font passer l’atome d’un état stationnaire à un autre lui suggéraient déjà l’idée profonde qu’une description complète des phénomènes quantiques de l’échelle atomique doit, par certains côtés au moins, transcender le cadre classique de l’espace et du temps » 21. Et de Broglie lui-même ajoute : « la notion d’un espace physique à trois dimensions formant le cadre naturel où se localisent tous les phénomènes physiques, la notion d’un temps formé par la succession des instants et constituant un continu à une dimension sont des notions extraites de l’expérience sensible… » et, à l’échelle « très fine des phénomènes atomiques, où la valeur du quantum d’action cesse d’être· négligeable, la localisation d’un phénomène dans l’espace et dans la durée ne paraît plus indépendante de ses propriétés dynamiques et en particulier de sa masse » 22. Et G. Bachelard, commentant l’axiomatique de Destouches, dit que les définitions des points « n’engagent même pas la continuité du temps. P. ex. la définition du centre de gravité d’un système de points matériels ne sera valable qu’aux instants, nécessairement séparés, où les points seront localisés c’est-à-dire aux instants où l’on connaîtra la localisation » 23.

Bref, la continuité temporelle et le temps lui-même sont mis en question, comme l’espace continu, et cela se comprend psychologiquement, sitôt ébranlées les déterminations de positions, de trajectoires et de vitesses. Ni la simultanéité, avec la sériation des relations l’ordre, ni l’égalisation de durées synchrones, avec l’emboîtement des durées en un continu unidimensionnel ne sont en effet concevables sur le modèle macroscopique sans ces déterminations cinématiques. À la notion macroscopique de la vitesse (fondement du temps lui-même si le temps est bien, comme le montre le développement psychologique, une coordination des vitesses), la microphysique substitue la « vitesse dynamique », produit de la masse par la quantité de mouvement, celle-ci étant elle-même définie de façon plus générale que dans la mécanique classique. Il ne reste donc comme principe de formation du temps que les changements d’états, ainsi que nous le rappelions au début, mais avec les limitations dues à cette règle essentielle de la pensée microphysique de s’en tenir exclusivement aux observables avec leurs lacunes et leurs discontinuités, sans les relier par le moyen d’aucun cadre dépassant l’action actuelle et effective de l’expérimentateur.

Mais si ces conclusions permettent, grâce à leur aspect négatif, une vérification de l’interprétation épistémologique selon laquelle l’espace physique et le temps résultent des actions effectuées par le sujet à notre échelle autant que des caractères globaux propres aux objets macroscopiques — « l’espace-temps, dit de Broglie, apparaît ainsi comme n’ayant plus qu’une valeur moyenne et macroscopique » 24, — elles soulèvent, d’autre part, un problème relatif à leur aspect positif : comment expliquer les rapports entre la genèse psychologique de ces notions et leur genèse physique, pour ainsi parler, à partir d’une échelle inférieure où elles ne sont que partiellement valables ? Dans la préface pleine de substance qu’il a mise en tête de son ouvrage sur « Le continu et le discontinu en physique moderne », L. de Broglie pose la question d’une manière extrêmement suggestive : « Qu’est-ce, en effet, que l’espace et le temps ? Ce sont des cadres qui nous sont suggérés par nos perceptions usuelles, c’est-à-dire des cadres où peuvent se loger les phénomènes essentiellement statistiques et macroscopiques que nos perceptions nous révèlent. Pourquoi alors être surpris de voir le grain, réalité essentiellement élémentaire et discontinue, refuser de s’insérer exactement dans ce cadre grossier bon seulement pour représenter des moyennes ? Ce n’est pas l’espace et le temps, concepts statistiques, qui peuvent nous permettre de décrire les propriétés élémentaires des grains ; c’est au contraire à partir des moyennes statistiques faites sur les manifestations des entités élémentaires qu’une théorie suffisamment habile devrait pouvoir dégager ce cadre de nos perceptions macroscopiques que forment l’espace et le temps » 25. Or, si les grains échappent à la localisation spatio-temporelle, « par contre, les probabilités de leurs localisations possibles dans ce cadre sont représentées par des fonctions généralement continues ayant le caractère de grandeurs de champ : ces « champs de probabilité » sont les ondes de la Mécanique ondulatoire ou du moins des grandeurs se calculant à partir de ces ondes »… On peut donc « considérer le cadre continu constitué par notre espace et notre temps comme engendré en quelque sorte par l’incertitude d’Heisenberg, la continuité macroscopique résultant alors d’une statistique opérée sur des éléments affectés d’incertitude » 26.

On voit la signification extrêmement intéressante de ces affirmations qui surprennent au premier abord : c’est que l’espace physique et le temps sont construits par le sujet au fur et à mesure que ses actions procèdent sur des ensembles plus stables et plus déterminables selon une probabilité tendant vers la certitude propre à toute coordination opératoire. L’absence de relations spatio-temporelles générales à l’échelle inférieure, tiendrait réciproquement à l’impossibilité de coordinations simples entre les actions de l’expérimentateur, par le fait que celles-ci, n’ayant plus prise sur le détail des phénomènes, ne suffisent plus à les déterminer selon les compositions nécessaires à la construction d’un espace-temps : la considération des changements d’état et des états stationnaires intercalés entre ces changements fournit les éléments d’un ordre temporel et de la construction des durées et permet ainsi d’amorcer la construction du temps en fonction du changement en général et de son dynamisme ; mais cette considération est loin de satisfaire encore aux conditions d’un continu de durée, lequel ne se constituera que par une coordination des vitesses macroscopiques. Or, ce qui, en microphysique annonce le plus clairement le mode de coordination qui engendrera le cadre spatio-temporel, c’est que le mode de systématisation le plus cohérent qui ait été trouvé pour coordonner les localisations des particules selon un « ensemble spectral » consiste précisément en une composition opératoire telle que les opérateurs en jeu constituent des « groupes » comme ceux qui s’appliquent aux transformations cinématiques à l’échelle macroscopique ; mais ces groupes ne décrivent pas seulement les répartitions comme telles des corpuscules : ils incluent également les actions effectuées par l’expérimentateur lui-même pour retrouver ces particules (actions de triage ou « opérateurs sélectifs »). C’est en présence de ce mode si particulier de composition propre aux opérations des microphysiciens que l’on saisit le mieux la double nature de la construction qui, des simples changements d’état, aboutira, avec la cohérence statistique croissante des ensembles en jeu, à une systématisation spatio-temporelle générale : cette construction s’appuie bien sur le réel, en ce sens que, s’il n’existait ni changement ni mouvement dans l’univers, nous ne connaîtrions pas le temps ; mais elle résulte aussi, et en participation indissociable avec les apports de l’objet, de la coordination même des actions exercées sur les choses. À cet égard l’épistémologie microphysique du temps rejoint les enseignements de l’espace microcosmique quant aux relations entre la genèse des notions et les limites inférieures de l’action.

§ 3. L’objet et la causalité microphysiques

Nous avons souvent insisté, au cours de cet ouvrage, sur le fait que la notion d’objet ne tient pas, comme on l’a soutenu, à une simple identification portant sur les perceptions, mais bien à une coordination effective des actions ou des opérations : l’objet individuel est essentiellement ce qui peut être retrouvé, d’abord grâce à de simples conduites de détour et de retour susceptibles d’être coordonnées entre elles en un « groupe » pratique des déplacements, puis par des opérations mentalisées intériorisant ces retours et détours effectifs sous la forme des opérations inverses et de l’associativité propres à tous les groupes et groupements déductifs élémentaires. Or, si cette origine active de la notion d’objet est évidente psychologiquement dès le niveau sensori-moteur (où la perception seule ne suffit nullement à engendrer la permanence des objets individuels), il est extrêmement instructif de redécouvrir à l’autre extrémité du développement mental un même mécanisme à la fois pratique et intellectuel de constitution de l’objet : que des difficultés dues aux limitations terminales, et non plus initiales, des actions de repérage qui constituent l’individualité de l’objet rejoignent ce que nous enseigne la genèse mentale de l’objet est, en effet, particulièrement de nature à confirmer l’interprétation générale des concepts microphysiques, considérés comme l’expression d’une pensée conditionnée par les limites de l’action elle-même.

C’est devenu un lieu commun que de rappeler le célèbre « seuil d’indétermination » d’Heisenberg, en dessous duquel on ne peut assigner de manière invariante à un micro-élément ni la nature d’un corpuscule ou « objet » au sens macroscopique du terme, ni celle d’une onde proprement dite, puisqu’il est tantôt l’un tantôt l’autre. Pour reprendre l’exemple des expériences photo-électriques, cité au § 1 à propos de l’impossibilité d’une localisation spatiale, l’analyse du phénomène des interférences dû au passage d’un photon à travers un écran percé de trous conduit, nous dit L. de Broglie, à la contradiction suivante. D’une part un seul photon en passant par l’écran « produit un phénomène d’interférence où tous les trous jouent un rôle symétrique, sans qu’on puisse dire que le photon ait passé par l’un au par l’autre » : il est donc onde, car, s’il était objet il faudrait lui attribuer « des dimensions inacceptables ». Mais, d’autre part, « l’effet photo-électrique nous montre le photon apportant toute son énergie dans une très petite région de l’espace et y produisant un effet tout à fait localisé » 27 : il est donc objet, puisqu’il est localisable. C’est pour sortir de telles impasses que les microphysiciens ont été conduits à concevoir l’élément comme étant à la fois onde et corpuscule, et ceci de la manière suivante.

Il s’agit d’abord de retoucher la notion de corpuscule en retenant l’un de ses deux aspects, celui d’un « agent indécomposable susceptible de produire des effets observables bien localisés où se manifeste la totalité de son énergie » 28 et en écartant l’autre, « celui d’un petit objet ayant à chaque instant dans l’espace une position et une vitesse bien déterminées, et décrivant par suite une trajectoire linéaire ». Il s’agit ensuite de retoucher parallèlement la notion de l’onde elle-même dont on ne peut non plus déterminer simultanément la phase et l’amplitude. L’onde attachée à chaque corpuscule, selon la belle hypothèse établie théoriquement par L. de Broglie puis confirmée par l’expérience de la diffraction des électrons par les cristaux (analogue à la diffraction de la lumière) est une onde dont le « champ » est en réalité un champ de probabilité : l’intensité de cette onde représente « en chaque point la probabilité pour que la particule se manifeste par une action observable localisée en ce point » 29. C’est la théorie de ces ondulations et de leur liaison avec les effets observables des particules, qui constitue la mécanique ondulatoire.

Il découle de telles conceptions, non seulement qu’un même élément n’est plus nécessairement permanent, mais encore que deux micro-objets peuvent se confondre à un moment, « un échange de rôles pouvant alors se produire entre eux sans qu’on puisse aucunement s’en apercevoir ultérieurement » 30. Cette indiscernabilité ou cette discernabilité alternatives, se retrouvent jusque dans le formalisme de la mécanique ondulatoire, ce qui est un exemple de la manière dont en microphysique les limites de l’action se traduisent en opérations : certaines « fonctions d’ondes » restent invariables ou changent simplement de signes quand on y permute le rôle de deux corpuscules. En outre il existe des particules à fonctions d’ondes « antisymétriques » (notamment les électrons) : deux d’entre elles ne pouvant jamais avoir le même « état de mouvement », il s’ensuit des fonctions d’ondes à formes statistiques bien différentes selon ces « exclusions ».

Or, ces transformations profondes de la notion d’objet, dont on voit à l’évidence combien elles sont liées à l’impossibilité de « retrouver » un corpuscule par une action spécialisée et à la nécessité de remplacer ces actions différenciées par des opérations statistiques, s’accompagnent de modifications corrélatives, non moins essentielles, des relations causales. C’est ainsi que l’indiscernabilité spatiale des particules entraîne la constitution de formes nouvelles d’interactions : l’« interaction d’échange » et l’« interaction d’exclusion » qui traduisent en termes de causalité les résultats de la non-permanence de l’objet. « Il existe une certaine antinomie, écrit avec profondeur à ce propos L. de Broglie, entre l’idée d’individualité autonome et celle de système où toutes les parties agissent les unes sur les autres. La réalité dans tous les domaines paraît être intermédiaire entre ces deux idéalisations extrêmes et, pour la représenter, il nous faut chercher à établir entre elles une sorte de compromis » 31. Autrement dit, pour employer le langage dont nous nous sommes servis au chap. VI (§ 3 et 6), l’existence d’objets individuels sur lesquels on peut agir permet la constitution de compositions additives tandis que leur indiscernabilité à divers degrés n’autorise l’emploi que de compositions non additives exprimant un mélange. À l’échelle macroscopique ces dernières compositions s’imposent déjà dans les cas d’indiscernabilité pratique et L. de Broglie cite comme exemple du compromis dont il parle l’idée d’« énergie potentielle d’interaction entre particules » 32, mais en des situations où cependant « on peut très approximativement raisonner comme si les corpuscules conservaient une masse, une localisation et par suite une individualité bien définies » 33. Mais, ajoute-t-il après avoir comparé l’individualité et l’interaction aux réalités « complémentaires », « la notion d’énergie potentielle, dont l’aspect mystérieux a souvent paru l’un des scandales de la physique, traduit en réalité sous une forme profonde, bien que peut-être maladroite, la coexistence et la limitation réciproque de l’individualité et de l’interaction dans le monde physique » 34. En microphysique, par contre, l’extension de l’idée d’interaction exprime en toute clarté le démembrement de l’individualité de l’objet. C’est en particulier faute de cette individualité, ainsi que des localisations et du calcul possible des distances, que la mécanique ondulatoire a résolu le problème de l’analyse de ces interactions en les situant dans les « espaces de configuration » auxquels nous faisions allusion plus haut.

En bref, la causalité microphysique consiste essentiellement en relations d’interactions, créatrices de « totalités » distinctes de la somme de leurs parties, par opposition aux interactions de la mécanique classique, qui relèvent d’une composition additive complète (la composition des forces, p. ex.). Ce sont ces interactions, corrélatives de la non-permanence de l’objet, qui expliquent, en définitive, l’impossibilité de constituer en microphysique un cadre spatio-temporel général, puisque l’espace physique et le temps sont solidaires de leur contenu dynamique et que ce contenu consiste alors en objets et en événement à la fois discontinus et interagissant entre eux sans composition additive possible. Espace et objet, temps et causalité forment ainsi, en microphysique comme aux autres échelles, un système interdépendant de notions, puisque l’espace physique et le temps expriment la composition même des actions portant sur les objets et leurs relations causales. Mais, à notre échelle, ces actions sont directement et complètement composables entre elles, par le fait qu’elles se sont développées en fonction des objets immédiatement accessibles : il en résulte que l’espace et le temps paraissent constituer des cadres indépendants de leur contenu, parce qu’ils forment le cadre de toute action portant sur la réalité et qu’ils rejoignent ainsi sans solution de continuité ces coordinations générales de l’action que sont les opérations logico-mathématiques. Par contre aux limites supérieure et inférieure de notre activité, la dissociation entre le cadre et son contenu n’est plus possible parce que les compositions de nos actions ne sont ou plus directes ou plus complètes. Aux limites supérieures, comme nous l’avons vu, le sujet est inclus dans les phénomènes à mesurer et par conséquent ses mètres ou ses horloges sont solidaires des transformations à détecter au lieu de leur demeurer extérieurs : il y a alors indissociation entre l’espace ou le temps et le point de vue des observateurs, lequel dépend des vitesses, des masses, des champs gravifiques, etc. À la limite inférieure c’est la réciproque qui se produit : c’est le phénomène qui est inclus dans l’action du sujet, puisque les objets demeurent relatifs à l’action qui les retrouve et que les interactions impliquent l’« échange », c’est-à-dire la confusion possible des objets. C’est pourquoi l’espace ne peut donner lieu à une mesure directe des distances ou des trajectoires, mais demeure dominé par le voisinage ou la dispersion probables, et le temps ne peut résulter d’une coordination des vitesses, puisque celles-ci demeurent des « vitesses dynamiques » sans constituer des relations entre l’espace et le temps : d’où l’interdépendance entre le cadre spatio-temporel, ou plutôt les premiers linéaments de la composition spatio-temporelle, et le contenu formé des objets et de leurs interactions.

Quant à la solidarité entre la nature causale particulière des interactions microphysiques et la non-individualisation de l’objet, elle est d’une importance épistémologique évidente. On peut distinguer deux faces à la question : l’une mathématique ou relative aux opérations probabilistes elles-mêmes, et l’autre expérimentale ou relative aux actions comme telles de l’observateur. Mathématiquement, l’interaction est incorporée à la probabilité en elle-même : « nous n’arrivons pas, dit Eddington, à la distribution des probabilités initiale d’un essaim de particules simplement en combinant les distributions des particules isolées comme si elles étaient indépendantes. Pour cette raison, on dit qu’un essaim de particules électriques obéit à la « nouvelle statistique » ou statistique de Fermi-Dirac, par opposition à la « statistique classique » qui représente le résultat brutal qu’on obtiendrait en combinant les probabilités indépendantes les unes des autres » 35. Or, cet artifice opératoire de la pensée traduit les limitations de l’action elle-même, en ce sens que l’interaction d’échange, exprimée par la « nouvelle statistique », peut être considérée comme le résultat direct de l’impossibilité où se trouve l’observateur de dissocier les éléments individuels. Eddington, avec son humour habituel, donne un exemple « pour montrer comment des forces peuvent être créées par l’interchangeabilité. En astronomie, les deux composantes d’une étoile double sont traitées comme des particules discernables. Mais il arrive parfois qu’elles se ressemblent étroitement et qu’après un passage périastral très serré, l’observateur les interchange par inadvertance. Il en résulte une « orbite » qui correspond à une force inconnue de Newton ! Si, au lieu d’être exceptionnelle, une telle circonstance était la règle, nous serions incapables de vérifier la loi de Newton dans les systèmes d’étoiles doubles. L’astronomie des étoiles doubles… devrait s’appuyer sur une loi de force appropriée à des étoiles discernables et qui admette une certaine probabilité d’échanges faits par mégarde. On dirait alors… que cette force additionnelle correspond à l’énergie d’échange » 36. Cette boutade du célèbre astronome ne saurait faire mieux comprendre la solidarité intime entre les interactions d’échange et la composition non additive nécessitée par la non-permanence de l’objet individuel, par opposition aux compositions additives de la mécanique réversible.

On se rappelle, en effet, la distinction introduite (chap. VI § 3) à propos des processus réversibles et irréversibles. Il est dans la réalité physique (comme dans l’esprit humain) des systèmes (de transformations, etc.) tels que la totalité du système soit égale à la somme des éléments : ce sont les systèmes réversibles, tels qu’une composition de forces, qu’un ensemble de déplacements ou qu’un groupe d’opérations algébriques. Il est au contraire des systèmes tels que leur totalité soit distincte de la somme des éléments en jeu, c’est-à-dire caractérisés par une composition non additive ou irréversible (ce qui correspond en psychologie à la structure dite de « Gestalt » propre aux perceptions, etc. par opposition aux opérations réversibles de l’intelligence). Or, comme nous y avons insisté à propos du hasard, l’irréversibilité est précisément la caractéristique des systèmes où interviennent des interférences fortuites c’est-à-dire un mélange, par opposition aux systèmes réversibles qui sont à liaisons distinctes, d’où leur composition additive. Plus simplement dit encore, les systèmes réversibles ou à composition dite additive sont ceux dont la composition possible est complète, tandis que les systèmes irréversibles dont la totalité n’est point égale à la somme des éléments sont ceux dont la composition demeure fatalement incomplète, soit (d’abord) à cause d’un mélange croissant excluant les combinaisons peu probables, soit (à la limite) à cause « d’échanges » détruisant l’individualité des éléments. Sur le terrain de la « statistique classique » appliquée au réel, il y a déjà composition incomplète et par conséquent irréversibilité parce que si les probabilités d’ensemble sont composées des probabilités individuelles, le système total néglige cependant les probabilités trop faibles : si un système de probabilités mathématiques, reposant sur des combinaisons aléatoires idéales, est bien un système entièrement déductif, donc à composition additive ou complète, un système statistique réel ne lui est donc pas comparable, parce que ne retenant que les compositions les plus probables et aboutissant ainsi à des valeurs totales irréductibles à la somme des valeurs élémentaires (d’où l’irréversibilité du mélange thermodynamique et le caractère de composition non additive de tout mélange). Mais, dans le cas de la « nouvelle statistique » et des interactions d’échange microphysiques, le caractère non additif de la totalité d’un système et son irréversibilité, tout en résultant également du caractère essentiellement statistique de la composition en jeu, sont encore fortement accentués du fait qu’il n’y a plus seulement mélange, mais « échange » et que, dès le départ, les probabilités d’ensemble sont posées comme distinctes de la somme des probabilités individuelles. Soit, p. ex., un système total formé de deux parties dont l’énergie est respectivement de valeur E1 et E2. L’énergie totale ne sera alors pas E = (E1 + E2) mais bien E = (E1 + E2) + ε, où ε représente l’énergie d’interaction ou d’échange entre les deux parties qui sont isolément une énergie E1 et E2. Ce modèle de non-composition additive s’explique ainsi par le fait que les particules en jeu sont non seulement mélangées, mais encore échangées en cours de route sans retour possible à la discernabilité, ce qui constitue assurément le maximum d’irréversibilité : en un tel cas, il apparaît clairement qu’une composition aboutissant à ajouter des caractères d’ensemble à la somme des parties consiste, non pas en une composition plus complète que la composition simplement additive ou réversible, mais en une composition incomplète, par défaut de liaisons distinctes sur lesquelles l’action expérimentale ou l’opération déductive puissent agir isolément.

Mais alors de telles totalités sont-elles, en définitive, subjectives ou objectives ? L’interaction d’échange repose-t-elle sur une « confusion » subjective de l’observateur, comme dans le cas de l’astronome distrait d’Eddington, qui brouille ses étoiles doubles, ou sur une indissociation réelle ? C’est ici que nous touchons au problème épistémologique le plus central posé par la microphysique, tant en ce qui concerne l’objectivité expérimentale qu’eu égard aux notions d’« indétermination » et de probabilité, qui sont elles-mêmes susceptibles d’être prises en un sens objectif ou subjectif.

On sait assez que le principe d’indétermination, formulé par W. Heisenberg, exprime l’incapacité où se trouve le microphysicien de déterminer simultanément les valeurs de certains couples, valeurs aisément associables sur le plan macroscopique : la figure et le mouvement, la position et la vitesse d’une particule, ou la phase et l’amplitude d’une onde. Cette incapacité tient aux conditions expérimentales elles-mêmes : si l’on détermine une position, on est obligé de localiser l’action d’un corpuscule en mouvement, mais en projetant sur lui des photons qui altèrent la trajectoire et renforcent la vitesse, etc. Cette indétermination exclut alors le déterminisme « absolu » au profit d’un déterminisme simplement statistique. Mais celui-ci recouvre-t-il, comme le pensait Planck (voir chap. VI § 6) des lois absolues d’échelle encore inférieure, ou bien un indéterminisme sous-jacent, c’est-à-dire une indétermination expérimentale inéluctable ?

Mais cette dernière est elle-même susceptible de deux interprétations épistémologiques : l’une subjective, c’est-à-dire relative à notre impossibilité d’exécuter simultanément les actions nécessaires à la détermination, sans que l’on se prononce alors sur l’existence ou la non-existence d’un infradéterminisme à la manière de Planck, l’autre objective, c’est-à-dire attribuant l’indétermination aux propriétés inhérentes à la matière. Or, chose capitale, la solution apportée par les microphysiciens revient à la fois à écarter l’infradéterminisme absolu, donc à prendre parti quant à la nature du réel, et cependant à refuser de s’enfermer dans l’antithèse du subjectif et de l’objectif : ce dernier problème prend, en effet, un nouveau sens à l’échelle microphysique parce que les phénomènes physiques y englobent, à titre de composante, l’action de l’expérimentateur, destinée à les détecter, ou, ce qui revient au même, sont englobés dans les actions exercées par l’expérimentateur ! C’est ainsi que l’indétermination porterait simultanément sur le processus expérimental et sur les propriétés du réel, du fait que l’action du sujet et les transformations de l’objet constituent une totalité indissociable. Bien plus, ce n’est pas seulement du point de vue des actions de l’expérimentateur, mais du point de vue des opérations mathématiques nécessaires à sa représentation théorique, que cette indétermination s’impose ! « Pour sauver le déterminisme, dit ainsi L. de Broglie, on pourrait penser à invoquer l’existence de paramètres cachés : les incertitudes qui nous empêchent d’établir un déterminisme causal des phénomènes à l’échelle quantique seraient alors dues seulement à l’ignorance où nous sommes de la valeur exacte de ces paramètres cachés. C’est un fait très curieux qu’il soit possible de démontrer l’impossibilité d’accepter une telle échappatoire. La forme même des incertitudes quantiques s’oppose, en effet, à ce que l’on puisse attribuer leur origine à notre ignorance des valeurs de certains paramètres cachés. La raison profonde nous paraît en être que les incertitudes quantiques dérivant de l’existence même du quantum d’Action expriment en dernière analyse l’insuffisance de la conception d’un espace-temps indépendant des phénomènes dynamiques qui s’y déroulent » 37.

En solidarité étroite avec la non-individualisation de l’objet, avec les interactions d’échange et avec les systèmes à composition non additive dont il exprime la nature, le principe d’indétermination marque essentiellement le caractère incomplet de nos compositions opératoires et les limites de nos actions spatio-temporelles effectives. Mais ni ce caractère incomplet ni ces limitations ne signifient défaut d’efficacité. D’une part il est possible, par « correspondance », comme dit N. Bohr, avec les données macroscopiques, de retrouver le déterminisme objectif, l’individualisation des macro-objets, etc., mais en ajustant l’une à l’autre les deux échelles différentes d’observation, à la fois sur le plan des actions de l’expérimentateur et sur celui des opérations du mathématicien. D’autre part, cette « limite réciproque d’un genre tout à fait nouveau » comme de Broglie appelle le principe d’indétermination, marque, avec toute la microphysique, une interdépendance infiniment plus grande qu’on n’aurait pu le supposer entre les données du réel et l’action ou les opérations du sujet : on peut même dire que c’est dans la mesure où les actions du sujet sont limitées par l’échelle de l’objet que l’on aperçoit plus clairement la solidarité entre l’« observable » et les interventions de l’observateur ; les limites de l’action constituent ainsi comme la frontière entre la réalité physique et l’opération intellectuelle par le fait que cette opération elle-même n’est pas autre chose que la traduction, en termes de pensée ou de relations cognitives, de l’action comme telle, en tant que prise de contact expérimentale entre le sujet et le réel. Mais pour pouvoir tirer la leçon épistémologique essentielle que comporte un tel résultat, c’est le rôle des « opérateurs » eux-mêmes qu’il s’agit d’examiner maintenant.

§ 4. Le rôle des opérateurs et la logique de la complémentarité

Si l’analyse des notions directement issues de l’action expérimentale des microphysiciens est d’un haut intérêt épistémologique, l’examen des procédés mathématiques d’interprétation de l’expérience ne le cède en rien et permet de constater, sur ce terrain microcosmique, l’existence d’une solidarité encore plus étroite que ce n’est le cas ailleurs entre les opérations mathématiques utilisées dans la déduction des faits et les actions permettant de mettre ces derniers en évidence. Effectivement, les « observables » détectés par l’action sur le réel se traduisent sous la forme d’« opérateurs » qui prolongent, en la symbolisant, cette action elle-même, tandis que les « incertitudes » dues aux limitations de l’action expérimentale aboutissent à la constitution d’une nouvelle logique, ou du moins d’une logique plus opératoire encore que celle s’appliquant aux rapports macroscopiques : la logique de la complémentarité.

Le principe de « correspondance » entre les phénomènes macrophysiques et microphysiques conduit d’abord à rechercher des équations communes à la mécanique classique et à la mécanique ondulatoire ou quantique : or ces équations communes se réduisent à la forme des équations canoniques de la mécanique rationnelle. Mais, si l’on conserve cette forme, on change complètement, par contre, la signification des termes : tandis que, en mécanique rationnelle, les symboles représentent des valeurs coordonnées selon un mode spatio-temporel, les symboles microphysiques représenteront au contraire essentiellement des opérateurs, se substituant aux positions, vitesses, énergies, etc. C’est ainsi que Dirac 38 distingue les « états » représentés par des fonctions d’ondes (fonction ψ dont le sens est celle d’une répartition probable) et les « observables » représentés par les opérateurs. Or, chose remarquable, ces derniers ne se bornent donc pas à relier des termes donnés d’une manière extérieure à eux : ils consistent en schèmes d’opérations mises en quelque sorte sur le même plan que les termes sur lesquels elles portent, comme si la transformation effectuée abstraitement par le mathématicien faisait partie intégrante des objets physiques auxquels s’applique l’équation !

Comme l’a bien dit Bachelard, le sens de l’opérateur est donc alors aussi éloigné du réalisme que du pur symbolisme : l’opérateur ne traduit pas une réalité, une réalité simplement extérieure à nous, puisqu’il exprime la possibilité d’actions proprement dites exercées sur le réel ; mais il n’est pas non plus un simple symbole, au sens nominaliste de ce terme, puisqu’il se réfère à une expérience possible. Il ne vient donc pas à la suite d’une expérience toute faite, qu’il décrirait après coup, ni ne se place au-dessus de toute expérience comme une simple expression symbolique : il est l’un des ingrédients de l’expérience que l’équation interprète. Bien plus, éliminant les grandeurs fixes qui interviennent dans les équations, à l’échelle macrophysique, il soutient avec les grandeurs probables de l’échelle microphysique un rapport d’un grand intérêt : « la microphysique ne construit pas ses moyennes morceau par morceau ; elle ne les calcule pas après l’expérience ; elle les trouve au niveau même de son information mathématique »… puisque l’opérateur « inscrit la prise de moyenne dans l’opération mathématique principale » 39.

Plus catégoriquement encore, Eddington déclare, dans un passage d’une grande portée sur lequel nous reviendrons : « ce que la physique trouve finalement dans l’atome, ou en fait dans toute autre entité étudiée par les méthodes physiques, c’est la structure d’un ensemble d’opérations. Nous pouvons décrire une structure sans spécifier les matériaux employés : ainsi il se peut que les opérations qui constituent la structure restent inconnues. Prise individuellement, chaque opération pourrait être n’importe quoi ; c’est la façon dont elles s’enchaînent les unes aux autres qui nous intéresse. L’équation Pb Pa = Pc [= le produit de deux opérations en donne une troisième du même ensemble] est un exemple d’un genre d’enchaînement très simple ». « Je ne voudrais pas vous amener à penser à tort que la physique ne peut tirer de l’atome autre chose que cette équation… Mais tout ce qu’on tire de l’étude effective (extrêmement difficile) de l’atome, c’est une connaissance du même type, à savoir la connaissance d’un groupe d’opérateurs inconnus » 40.

S’il est évident que le grand astronome force ici un peu la note idéaliste, tout le chapitre qu’il a consacré à la théorie des groupes appliquée aux opérateurs en jeu dans la mécanique microcosmique n’en soulève pas moins un problème d’un haut intérêt. D’une part, en effet, les grandeurs en jeu dans les équations s’orientent dans la direction de la simple probabilité, ce qui semblerait exclure toute espèce de coordination réversible dans les opérations reliant ces grandeurs entre elles. Mais, d’autre part, Eddington nous montre de la manière la plus limpide comment les opérateurs intervenant dans les mêmes équations constituent entre eux des « groupes » bien définis, c’est-à-dire des modèles de composition réversible. C’est ainsi que les sauts (probables) de l’électron d’une orbite à l’autre autour du noyau de l’atome constituent un groupe : « deux sauts d’orbite successifs fournissent un état qui aurait pu être atteint par un saut unique » 41. Ne sachant rien de ces orbites ni de la forme de l’électron, ni de la trajectoire qu’il suit (ou de l’absence de trajectoire), dans ce que nous appelons un « saut », nous pouvons cependant « grouper » ces sauts à titre d’opérations possibles. De même les « opérateurs sélectifs » correspondant à une sorte de triage destiné à déterminer la localisation probable d’une particule, constituent un groupe, lequel détermine un ensemble spectral, car il analyse tout agrégat en ses constituants purs, de façon analogue à la manière dont un prisme décompose la lumière 42. Or, « un des effets de l’introduction d’opérateurs sélectifs est qu’elle écarte la distinction entre opérateurs et opérandes » 43 contrairement aux opérateurs de « saut ». En effet, le physicien « porte son attention non pas sur la nature de ce que donne l’opération, mais sur la nature de l’opération sélective elle-même » 44. Eddington montre également comment un groupe d’opérateurs formant une structure abstraite bien définie a permis à Dirac de rendre manifeste un observable consistant en une nouvelle propriété cachée dans l’électron et devenue célèbre sous le nom de « spin ».

On voit alors le problème : comment expliquer le rapport, dans la connaissance microphysique, entre les données expérimentales probables et en grande partie irréversibles et les systèmes d’opérateurs groupés de façon réversible ? Ou, si l’on préfère une formule de Bachelard, comment expliquer que « la grandeur glisse vers la probabilité dans le même temps que l’opérateur prend un aspect mathématique mieux défini » 45 ? Or, la raison en est précisément que, la connaissance microphysique supposant une solidarité entre l’action de l’observateur et le réel observé bien plus étroite que sur le plan macrophysique, on peut sans contradiction concevoir les actions de l’observateur comme des opérations réversibles susceptibles de former des « groupes » et la réalité observée comme sujette à des dispersions statistiques, à des mélanges et des échanges, des désagrégations, etc., en grande partie irréversibles. Le physicien J. Weigle a comparé la réalité étudiée par sa science à un mécanisme compliqué enfermé en une boîte bien fermée, mais dont les parois sont percées de quelques trous d’où sortent de simples ficelles : en tirant sur l’une d’elles on en allonge une autre, on raccourcit une troisième, on en laisse certaines immobiles, etc. Le théoricien essaie alors de réunir tous ces « observables » en une équation coordonnant les faits et il n’y parvient qu’en ajoutant de temps en temps aux ficelles données d’autres en surplus et surtout en construisant pas à pas une représentation hypothétique du mécanisme caché. On conçoit alors que, même si les transformations reconstituées sont en partie irréversibles, les actions même de tirer les ficelles, de les replacer en leurs positions précédentes et de les relier au moyen de ficelles supplémentaires puissent donner lieu à la construction d’un groupe d’opérations. Que l’on ajoute maintenant à cette image la restriction qu’il est partiellement impossible de distinguer les mouvements réels des ficelles des actions exercées par l’expérimentateur, et l’on comprendra la symbiose inextricable s’établissant entre les opérateurs réversibles et les états réels irréversibles détectés grâce à leur pouvoir.

Un exemple paradoxal de cette sorte d’indifférenciation entre les opérations du sujet et les transformations de l’objet est ce que J. L. Destouches a appelé le « principe d’homomorphisme » 46. La description de l’évolution d’un système au cours du temps, c’est-à-dire l’évolution des prévisions, s’exprime à travers un opérateur d’évolution U. Or, J. L. Destouches a établi ce principe que « A un certain homomorphisme près, l’évolution d’un système entre des instants t et t + ∆t peut être compensée par une rotation autour d’un axe du repère géométrique de l’observateur considéré ». Il y a ainsi transport de l’objet au sujet de la propriété de l’évolution dans le temps, par un processus de subjectivation, et l’on voit que ce transport consiste en un passage de la succession temporelle en une opération spatiale (réversible) de rotation.

Mais il y a plus. En combinant les symboles en jeu par des opérations multiplicatives, on peut construire, comme nous le disions au début de ce chapitre, une nouvelle algèbre non commutative, telle que AB ne soit pas équivalent à BA. Or, deux observables A et B qui ne commutent pas ne peuvent précisément pas, dans l’action expérimentale, être déterminés simultanément : si l’un d’eux est mesuré avec précision, l’autre reste indéterminé et réciproquement. C’est là l’expression la plus générale du principe d’indétermination. Mais, comme on le voit, cela ne signifie nullement que l’une des deux possibilités — tant mathématique qu’expérimentale — soit exclue définitivement par l’autre : elles sont vraies toutes les deux, mais non simultanément. Par exemple un micro-objet n’est ni onde ni corpuscule, il est les deux alternativement, selon que l’on exerce une action expérimentale ou l’autre, ou que l’on traite le formalisme mathématique selon l’un des deux sens non commutatifs de l’association AB ou BA.

Niels Bohr a proposé l’adoption d’une nouvelle notion logique pour exprimer ce rapport entre deux propriétés d’un même être, qui ne sont ni compatibles à la fois ni incompatibles successivement : la notion de « complémentarité ». Or, ce « principe de complémentarité » comme on l’appelle aujourd’hui est d’un évident intérêt épistémologique. Il caractérise, en effet, un nouveau point de vue logique : ce n’est pas qu’il introduise, entre deux jugements simples, contradictoires entre eux, tels que A est x et A est non-x, un tertium à mi-chemin du contradictoire et du non-contradictoire, mais il établit la possibilité d’un rapport nouveau entre deux systèmes opératoires d’ensemble. Si l’« incertitude » est une notion caractérisant surtout le réel ou l’objet, la « complémentarité » est donc une notion essentiellement relative aux opérations du sujet, et c’est ce caractère opératoire que nous aimerions souligner.

Chacun sait que le principe de contradiction ne nous indique jamais à lui seul ce qui est contradictoire et ce qui ne l’est pas : il nous interdit seulement d’affirmer simultanément A et non-A, mais pour savoir si A est contradictoire ou non avec B, il s’agit d’établir si B implique non-A ou l’exclut. Or, comment découvre-t-on que B implique ou exclut non-A ? En définissant A et B de façon univoque et en « groupant » les classes ou relations résultant de ces définitions : c’est donc seulement en fonction d’un « groupement » (au sens du chap. I § 3), ou d’un « groupe » d’opérations que la non-contradiction ou la contradiction entre A et B prend un sens. Ce sens exprime simplement la possibilité ou l’impossibilité d’une composition réversible englobant simultanément ces deux termes. La contradiction ou la non-contradiction de deux jugements isolés portant sur A et B est donc toujours relative à un groupement ou système opératoire d’ensemble.

Cela dit, la « complémentarité » consiste en une relation non pas entre termes isolables, mais entre les totalités opératoires elles-mêmes. Qu’un micro-objet soit tantôt onde tantôt particule signifie qu’il peut être inséré tantôt dans un système de rapports tantôt dans un autre, mais non pas dans les deux à la fois. Or, si nouveau que soit ce mode de raisonnement, il faut noter que, une fois mis en lumière par les physiciens, il éclaire par ailleurs de façon très comparable bien d’autres domaines où interviennent précisément les totalités opératoires comme telles, et cela dès les rapports logico-arithmétiques élémentaires.

Soit p. ex. une suite d’éléments A, A’, B’, C’, etc. Nous pouvons les réunir selon leurs ressemblances et constituer ainsi des classes logiques telles que A + A’ = B ; B + B’ = C ; C + C’ = D ; etc. Nous pouvons également les réunir selon leurs différences et constituer ainsi des séries de relations asymétriques, dont l’une sera A → A’ → B’ → C’… etc. Dans une telle série nous appellerons a la relation A → A’ ; a’ la relation A’ → B’ ; b’ la relation B’ → C’ ; etc., d’où l’emboîtement des relations a + a’ = b ; b + b’ = c ; c + c’ = d ; etc., emboîtement portant donc sur les termes A, A’, B’, etc. mais par l’intermédiaire de leurs relations comme telles. Or, ces deux groupements, de classes (A + A’ = B ; etc.) ou de relations (a + a’ = b ; etc.), tout en étant isomorphes, ne peuvent être effectués simultanément, c’est-à-dire réunis en un seul groupement qui comprennent les deux sortes d’opérations à la fois, car il est impossible de réunir les mêmes éléments à la fois en tant que semblables et en tant que différents : si l’on groupe les ressemblances (A + A’ = B ; etc.) on construit, en effet, des classes (ou des relations symétriques) et l’on procède par addition commutative en faisant, par cela même, abstraction des différences ; au contraire si l’on groupe les différences comme telles (a + a’ = b ; etc.) on construit des relations asymétriques transitives par addition non commutative (donc conservant l’ordre), en faisant par là même abstraction des ressemblances. Les deux systèmes d’opérations (soit la classification et la sériation) sont donc incompatibles simultanément, puisqu’on ne peut les réunir en un seul tout et composer leurs opérations entre elles, mais ils sont parfaitement compatibles successivement et applicables aux mêmes éléments A, A’, B’, etc. considérés tantôt en tant que semblables (ce qu’ils sont en partie) tantôt comme différents (ce qu’ils sont aussi en partie) : ces deux systèmes sont donc « complémentaires » au sens même des physiciens 47, du moins dans la mesure où l’on tient compte des qualités propres aux éléments considérés. Par contre, si l’on fait abstraction des qualités, en prenant chaque individu A, A’, etc. pour une unité, on peut les classer et les ordonner simultanément, ce qu’on fait précisément en les dénombrant (voir chap. 1 § 6), puisque le nombre entier résulte d’une fusion opératoire entre les opérations de classes et celles de relations asymétriques. Mais alors on retrouve la complémentarité d’une autre façon : on ne peut simultanément (c’est-à-dire au moyen d’un système unique d’opérations) compter les objets et les englober en un système de classes ou de relations asymétriques qualitatives, car les opérations de dénombrement font abstraction des qualités, tandis que les seconds systèmes les réintroduisent : il y a donc complémentarité entre la logique qualitative et les opérations numériques.

On voit ainsi que la complémentarité est en réalité une propriété générale caractérisant les rapports, non pas entre éléments ou opérations simples, mais entre totalités opératoires. Seulement, dans la logique usuelle, qui porte sur la réalité à l’échelle macroscopique, la permanence des objets individuels rend aisé le passage d’un système opératoire aux systèmes qui lui sont complémentaires, de telle sorte que les mêmes objets peuvent être traités tour à tour comme éléments qualifiés d’une hiérarchie de classes logiques, comme unités numériques, comme parties d’une configuration spatiale, etc., sans que l’esprit éprouve aucune difficulté à relier en un seul tout les caractères simultanément virtuels, mais successivement actualisés de chaque objet individuel. À l’échelle des limitations de l’action expérimentale et par conséquent de l’algèbre qui les exprime, la perte de son individualité qui caractérise le micro-objet impose, par contre, à l’esprit la prise de conscience de la succession des opérations qui déterminent les caractères alternatifs de cet objet, et empêchent de relier ces caractères en un seul tout permanent. C’est pourquoi il est naturel que ce soient les microphysiciens qui aient découvert la complémentarité, et énoncé ce rapport fondamental dans le concret et non pas dans l’abstrait : une fois de plus les résultats de la limitation du champ de l’action convergent avec ceux que permet de dégager la genèse même des actions, dans leur prise de contact avec le réel.

§ 5. La signification épistémologique de la microphysique

Selon les points de vue, le système des notions microphysiques peut apparaître comme une grande nouveauté dans l’histoire des idées ou au contraire comme l’aboutissement logique et naturel de l’ensemble des procédés de pensée antérieurs du physicien. Comme l’a dit W. Heisenberg, tandis que la théorie de la relativité permet encore de déterminer les coïncidences spatio-temporelles et par conséquent de maintenir une séparation plus ou moins nette entre l’objet et le sujet, par contre dans la microphysique « les notions de « coïncidence à la fois dans l’espace et dans le temps » et d’« observation » demandent une révision radicale. Dans la discussion de quelques expériences, nous prendrons particulièrement en considération l’action réciproque de l’objet et de l’observateur. Dans les théories classiques, cette interaction a toujours été considérée soit comme négligeable, soit comme éliminable dans les calculs grâce à des expériences de contrôle. Dans la physique atomique cette hypothèse est inadmissible, car, à cause de la discontinuité caractéristique des faits atomiques, cette interaction peut provoquer des modifications relativement grandes et incontrôlables » 48. Et encore : « Notre manière habituelle de décrire la nature, et en particulier notre croyance en l’existence de lois rigoureuses entre les phénomènes naturels reposent sur l’hypothèse qu’il est possible d’observer les phénomènes sans les influencer sensiblement. Associer une cause déterminée à un effet déterminé n’a de sens que si nous pouvons observer à la fois cause et effet sans en même temps intervenir et troubler leur relation. La loi de causalité sous sa forme classique ne peut donc, à cause de son caractère même, être définie que dans un système fermé. Or, en microphysique, de la « complémentarité » de la description dans l’espace et dans le temps, d’une part, et de l’enchaînement causal d’autre part, résulte l’indétermination caractéristique de la notion d’« observation ». En effet, c’est toujours arbitrairement que l’on décide quels objets seront considérés comme faisant partie du système observé et quels objets seront considérés comme moyens d’observation » 49. Autrement dit, le rapport entre le sujet et l’objet est en un sens le même en microphysique qu’en physique classique, à une différence près, qui est de degré dans l’ordre de grandeur des interventions du sujet ; mais, en un autre sens, cette différence de degré atteint une limite, dans le contrôle et les corrections possibles, telle que, passée cette limite, on peut parler d’une différence de nature.

A. Eddington, comparant également la microphysique à la physique macroscopique, dans le passage déjà cité (§ 4) sur le réel et les opérations groupées, ajoute : « C’est le mode d’enchaînement mutuel des opérations, et non leur nature, qui est responsable de ces manifestations de l’univers extérieur qui finalement atteignent nos sens. D’après notre attitude actuelle, c’est le principe fondamental de la philosophie de la science » 50. Principe commun, par conséquent, à toutes les échelles considérées par la physique, mais mis en évidence avec une particulière netteté à l’échelle microcosmique, à laquelle les opérations du sujet se trouvent jouer un rôle spécialement visible dans le processus de la connaissance.

La connaissance microphysique, peut-on donc dire, constitue le prolongement logique de la connaissance physique en général, mais les difficultés de l’action à cette limite inférieure des échelles rendent particulièrement évidents les rapports entre l’action expérimentale et les opérations déductives servant à l’interprétation de l’expérience, tandis que les mêmes rapports frappent moins l’esprit aux échelles supérieures. En quoi consistent-ils donc ? C’est la réponse à cette question fondamentale que nous avons à chercher à l’école des microphysiciens.

Or, l’essentiel de cette réponse tient à un fait devenu très naturel et qui domine aujourd’hui toute l’interprétation à donner de la pensée physique. Dans la physique des principes, il y avait lieu de distinguer, d’une part, les faits expérimentaux détectés grâce aux techniques de laboratoire et, d’autre part, un cadre déductif de plus en plus éloigné de ces faits, mais dans lequel il fallait que ceux-ci entrent de gré ou de force ; la pensée déductive complétait (et parfois déformait) ainsi les faits en vertu d’exigences devenues a priori. Sous l’influence de la microphysique on s’aperçoit au contraire que les opérations déductives servant à traduire et à interpréter les faits de l’expérience constituent le prolongement des actions effectivement exécutées par l’observateur au cours de son expérimentation. Ce n’est donc plus directement la pensée qui enrichit le réel de son apport : c’est l’action, et alors, d’une part, l’action expérimentale et le réel constituent une symbiose indissociable ; tandis que, d’autre part, la pensée prolonge cette action elle-même sans la plier d’avance à des exigences inaccessibles. C’est ainsi que là où le cadre spatio-temporel ne donne plus lieu à une représentation adéquate, le microphysicien n’hésite pas à le sacrifier au lieu de le maintenir grâce à ces « coups de pouce » si subtilement analysés par Poincaré : la représentation cède alors le pas à une formulation en apparence beaucoup plus abstraite, de nature algébrique et analytique, mais qui en fait épouse bien davantage les lignes et les sinuosités de l’action elle-même. C’est parce qu’il en est ainsi qu’Eddington a pu attribuer la connaissance physique en général, y compris son aspect sensible, à l’enchaînement des opérations plus qu’à leur nature, un système d’actions devenant, en effet, opératoire par le seul fait de son enchaînement même.

Or, l’immense service rendu à l’épistémologie par la microphysique est de nous faire comprendre qu’il en est en réalité de même à toutes les échelles. Que l’on pense, p. ex., à la mesure spatiale la plus élémentaire : reporter la distance AB sur une autre distance A’B’, en la détachant du contexte des masses, du travail, des vitesses, etc., et en combinant simplement une partition et un déplacement (voir chap. III § 8), comme si ces partitions et ces déplacements étaient des choses physiquement simples. Une telle opération consiste à nouveau à prolonger une action effective, en réalité extrêmement complexe, irréversible physiquement comme physiologiquement, mais rendue simple et réversible sitôt qu’elle est considérée comme une unité composable avec d’autres. Lorsque le microphysicien, ne pouvant déterminer à la fois une position et une vitesse traduit sa manière d’agir ou d’expérimenter en un système algébrique non commutatif portant sur des opérateurs qui correspondent aux observables et sur des fonctions d’ondes qui correspondent aux états, il construit lui aussi un système d’opérations prolongeant le plus directement possible un système d’actions, rendues seulement plus difficiles à coordonner par le fait de l’échelle des objets sur lesquelles elles portent.

Le problème est alors de caractériser cette relation générale entre le sujet et les objets. L’action expérimentale dont procède psychologiquement l’opération déductive est en réalité une interaction entre l’observateur et l’observé : comment donc déterminer la part de chacun, ou la nature d’une telle interaction si ces parts sont indissociables ?

Dans le cas de la mesure simple, l’observateur agit sur l’observé en déplaçant réellement ou en pensée son mètre et en sectionnant effectivement ou en pensée le réel à mesurer ; mais en déplaçant ou en sectionnant, il se soumet lui-même aux nécessités que lui impose la réalité extérieure, de telle sorte que ses propres mouvements expriment cette réalité spatiale et mécanique autant que les objets déplacés ou sectionnés traduisent son action. Seulement comme cette interaction demeure superficielle parce que située à une échelle où suffit une analyse globale et grossièrement statistique (par rapport aux micro-objets), les modifications réciproques de l’objet par le sujet (assimilation) ou du sujet par l’objet (accommodation) n’altèrent pas profondément les choses : il en résulte que le sujet a l’illusion de connaître une réalité en soi, indépendante de son action, et d’exister à titre de sujet en soi, indépendamment de l’action des objets.

Mais dans les mesures des relativistes aux grandes vitesses, lorsqu’il s’agit de déplacer en pensée des unités de longueurs à des vitesses solidaires de mesures temporelles effectuées par le moyen de signalisations, l’interaction du sujet et de l’objet présente des caractères déjà bien différents. L’action du sujet est profondément modifiée par les distances dans l’espace et dans le temps et par l’existence, indépendante de lui, d’une constance de la vitesse relative de la lumière, qui lui imposent des limitations étranges et inaccoutumées dans la détermination des simultanéités et des longueurs. Réciproquement son activité de sujet sera d’autant plus considérable qu’augmentera le nombre et la complexité des relations à construire : loin de se borner à des enregistrements passifs, ses signalisations et les équations qui les exprimeront l’obligeront à établir un système de réciprocités multiples entre les divers points de vue possibles, de telle sorte qu’il sera conduit à détruire sans cesse le réel immédiat au profit d’une réalité plus dépouillée, mais enrichie par ailleurs d’un ensemble d’opérations bien « enchaînées ». Seulement le produit de ces opérations, obligeant le sujet à se situer lui-même dans l’univers ainsi construit, lui donnera encore l’illusion réaliste d’un ensemble de rapports indépendants de lui.

Sur le plan microphysique enfin, c’est-à-dire à l’autre extrémité des échelles d’observation, l’interaction entre le sujet et les objets se présentera sous un jour ne laissant plus guère d’occasions à ces illusions réalistes propres aux échelles plus grandes. Pour connaître les objets, le sujet est, en effet, toujours obligé d’agir sur eux, c’est-à-dire de les modifier d’une manière ou d’une autre. Mais, tandis qu’aux échelles moyennes et surtout supérieures, cette modification consiste surtout à les enrichir de rapports nouveaux sans les altérer profondément, les objets sont cette fois d’un ordre de grandeur considérablement inférieur à celle du sujet et de ses appareils, les actions de localisation, ou de mesure des vitesses, etc., introduisent des changements relativement très grands dans la disposition de ces objets. Il s’ensuit alors que la réalité connaissable est constituée par un complexe indissociable de rapports dus, les uns aux objets et les autres à l’intervention opérative du sujet : celui-ci ne se trouvant jamais en présence que d’un tel complexus ne saurait donc plus tomber dans l’illusion d’atteindre un réel situé au-delà de son action. Mais inversement, cette activité est conditionnée comme il va de soi par les propriétés des objets, puisque c’est la valeur du quantum d’Action qui, comme celle de la vitesse de la lumière à l’autre extrémité des échelles, oblige le sujet aux complications expérimentales que l’on sait.

La question épistémologique se précise donc sous la forme suivante. À toutes les échelles, la connaissance physique implique que le sujet agisse sur les objets, et réciproquement, autrement dit qu’il y ait assimilation des objets aux opérations du sujet et accommodation de celles-ci à ceux-là. Est-il donc possible de concevoir un état d’interaction entre les objets et le sujet tel que les opérations transformant les objets se confondent avec les effets déterminés par l’objet sur le sujet lui-même ? C’est à ce prix qu’une connaissance intégrale serait possible par une sorte de fusion fonctionnelle du sujet et de l’objet, c’est-à-dire de correspondance exacte entre les opérations du premier et la causalité du second.

Or, le premier point à noter à cet égard est que, si bas que l’on descende vers la limite de la déterminabilité, on se trouve toujours en présence d’un compromis inévitable entre certaines opérations réversibles, que l’on peut caractériser comme dessinant le canevas des actions possibles du sujet sur les objets, et une distribution probable, en partie fortuite, marquant la frontière de ces mêmes actions. Assurément l’« incertitude » d’Heisenberg, qui empêche de pousser plus loin l’analyse, ne suffit pas à exclure l’éventualité, non pas (on l’a montré) d’une existence de paramètres cachés, mais d’opérations émanant de sujets à structures physiologiques et mentales toutes autres que les nôtres et qui parviendraient à des déterminations plus poussées. C’est donc relativement à notre structure de sujets humains d’un certain niveau mental que le dualisme entre un réel statistique, simplement probable, et des opérations à enchaînements certains demeure irréductible, et il faut réserver le point de vue de l’« observateur microscopique » de L. de Broglie ou d’un sujet dont les coordinations réversibles ne seraient pas spatio-temporelles et porteraient directement sur les changements d’état. Mais, au seul point de vue auquel il est légitime que nous nous placions, on trouve au terme actuel de l’analyse physique, des opérateurs, d’un côté, « conçus comme des distributeurs de valeurs probables » 51, et ces valeurs probables, de l’autre, expression de la réalité sur laquelle opèrent les premiers.

Le second point à noter est que les uns comme les autres, de ces instruments intellectuels ou de ces réalités, cessent de donner lieu à des « représentations » proprement dites, à l’échelle atomique. Si tributaires qu’ont été longtemps les microphysiciens des images atomistiques, ils ont abouti, comme l’a si bien dit L. Brunschvicg en 1922 déjà, à un « atomisme sans atomes », au sens étymologique du terme 52. « En résumé, conclut Louis de Broglie au terme d’une étude sur le rapport des théories abstraites et des représentations concrètes, les physiciens de l’école abstraite, qui rejettent les représentations concrètes, et voient dans les formules reliant les phénomènes l’essentiel des théories, paraissent bien, en principe, avoir raison et le développement des théories quantitatives contemporaines apporte une très forte confirmation de leurs vues » 53. On pourrait il est vrai objecter à cela que le triomphe apparent du discontinu paraît parler en faveur des intuitions représentatives, mais il est exagéré de voir dans les théories quantiques un triomphe pur et simple du discontinu sur le continu, car si la notion même de quantum introduit le discontinu dans ce qui était conçu comme continu, les notions microphysiques de l’« interaction » et du « champ » rétablissent une continuité relative : la suite des conquêtes alternatives du continu et du discontinu décrite par Hoeffding n’est donc peut-être pas près de prendre fin.

Ainsi le dualisme relatif de la réversibilité opératoire et de l’irréversibilité statistique, joint à l’irreprésentabilité croissante des phénomènes, contraint, du point de vue de la connaissance, de distinguer deux parts possibles dans la réalité microphysique. Il y a d’abord une action réciproque et indissociable entre les opérations, lignes de l’action virtuelle du sujet, et les secteurs du réel sur lequel elles ont prise : les valeurs probables sont, en effet, relatives aux opérations qui les ordonnent autant que ces opérations sont, de leur côté, relatives à la distribution des choses sur lesquelles agit le sujet. Le sujet, autrement dit, se retrouve dans la réalité assimilée autant que le réel se retrouve dans l’action et la pensée assimilatrices. Mais, il y a, d’autre part, l’inassimilé et peut-être — car il ne faut préjuger de rien dans un sens ni dans l’autre — l’inassimilable pour des sujets à notre échelle et de notre structure mentale : cet inassimilé n’est pas seulement le non-représenté, car la représentation intuitive n’est que le symbolisme imagé de l’opération pure, mais le non-formulé, en particulier tout ce qui relève de l’action détaillée des éléments semi-individualisés dont la statistique quantique nous donne un tableau d’ensemble.

Or, le vrai problème de l’idéalisme et du réalisme porte sur cet inassimilé : c’est de lui et non pas de la réalité assimilable qu’il s’agirait de savoir, pour répondre à la question ultime que pose la connaissance, s’il est en définitive de nature extérieure aux actions du sujet — de tout sujet quel qu’il soit — ou si sa structure demeure isomorphe à celle de la pensée vivante et donnera lieu à une assimilation indéfinie.

Mais c’est ici précisément que la science n’a nullement dit son dernier mot. Ce jugement ultime n’appartient point, en effet, au seul physicien, pas plus, naturellement, qu’à l’épistémologiste. Il est en réalité du ressort de l’« observateur microscopique » ou du « bébé atomique », qui pourrait donner raison, soit à l’idéaliste en nous mettant en garde contre les illusions réalistes attachées à nos représentations humaines, soit au réaliste en nous apprenant qu’il a lui aussi à lutter contre un réel hostile et résistant, soit aux deux à la fois (ce qui reviendrait à les renvoyer dos à dos) en nous montrant que ces actions soutiennent avec sa réalité le même rapport que nos opérations avec la nôtre. Or, cet « observateur microscopique » qui fait figure de chimère si on l’imagine sous les traits d’un très petit être humain, pourrait bien prendre place un jour parmi les choses observées ou les « observables » eux-mêmes, sous la forme d’un micro-organisme voisinant avec les « micro-objets ». Comme l’a dit avec une grande profondeur Ch. Eug. Guye, une physique plus « générale » que la nôtre (et non pas plus particulière) engloberait en son domaine les mécanismes élémentaires de la vie, et le problème des « frontières de la physique et de la biologie » est d’ores et déjà posé par les microphysiciens.

Or, si l’on se place au point de vue réaliste, selon lequel les actions de notre organisme et les opérations de notre esprit sont le reflet du réel, ce n’est certes pas sous la forme trop simple d’une pression de l’expérience immédiate et externe, exercée par l’intermédiaire des organes des sens individuels, que le réel interviendrait de la manière la plus efficace sur le sujet : c’est par le canal des mécanismes formateurs de l’organisation vivante elle-même, dont dépend l’organisation mentale. Et comme l’esprit humain est tributaire, de ce point de vue, de l’histoire multimillénaire qui rattache l’homme, de la façon la plus continue, aux organismes les plus primitifs, le problème des rapports entre le sujet et l’objet se trouve, en définitive, décentré eu égard à l’homme et situé au cœur même des relations entre l’organisation vivante et la matière inorganique qui lui sert de milieu ou peut-être de source première.

Ce n’est pas à l’épistémologie à spéculer sur ce que pourra fournir un jour, à la théorie des rapports entre l’organisme et le milieu, l’étude des régions limitrophes situées entre la microphysique et la biologie. Il convient donc de clore ce chapitre. Mais si la prudence s’impose ainsi, elle doit s’appliquer aussi bien dans un sens que dans l’autre. Le réel encore inassimilé, et éventuellement même inassimilable à l’échelle des limites de notre action expérimentale, peut constituer le modèle de ces obstacles extérieurs résistant à toutes les tentatives de l’esprit. Mais il pourrait aussi bien fournir un jour la clef des relations entre le vivant et l’inerte, et par conséquent tôt ou tard, des rapports entre le comportement actif de l’organisme et le milieu physique sur lequel s’exerce son action. Ce jour-là, l’hypothèse réaliste et l’hypothèse idéaliste sont susceptibles d’aboutir à de tout autres relations entre elles que celle d’une simple antithèse. C’est ce que nous verrons déjà, à propos des êtres vivants réels et connus, en passant de l’étude de la pensée physique à celle de la pensée biologique (Partie III : chap. IX et X).