Programmes et méthodes de l'épistémologie génétique. Épistémologie génétique et recherche psychologique (1957) 1 a

§ 1. Introduction

Sous sa forme limitée ou spéciale, l’épistémologie génétique est l’étude des états successifs d’une science S en fonction de son développement. Ainsi conçue l’épistémologie génétique pourrait se définir comme « la science positive, aussi bien empirique que théorique, du devenir des sciences positives en tant que sciences ». Une science étant une institution sociale, un ensemble de conduites psychologiques et un système sui generis de signes et de comportements cognitifs, une analyse rationnelle du développement de cette science porterait donc sur ces trois aspects conjointement. L’aspect épistémologique aurait la primauté puisqu’il constitue le phénomène dont il s’agit de dégager les lois et l’explication ; mais les deux autres aspects en demeureraient indissociables, en tant que fournissant les facteurs éventuels de cette explication.

On aperçoit alors d’emblée qu’une étude systématique du développement d’un secteur quelconque de la connaissance scientifique sera nécessairement amenée, en tentant de dégager les racines sociogénétiques ou psychogénétiques de cette variété de connaissance, à pousser l’analyse de ses mécanismes formateurs jusque sur le terrain préscientifique ou infrascientifique des connaissances communes, dans l’histoire des sociétés (histoire des techniques, ex.), dans le développement de l’enfant et même aux frontières des processus physiologiques et des mécanismes mentaux les plus élémentaires conditionnant

l’acquisition des connaissances (en ce qui concerne, par exemple, l’apprentissage ou la perception).

D’un tel point de vue, on pourrait définir l’épistémologie génétique d’une façon plus large et plus générale comme l’étude des mécanismes de l’accroissement des connaissances. Le caractère propre de cette discipline consisterait alors à analyser, dans tous les domaines intéressant la genèse ou l’élaboration des connaissances scientifiques, le passage des états de moindre connaissance aux états de connaissance plus poussée. 21 En un mot, l’épistémologie génétique constituerait une application, à l’étude des connaissances, de la méthode expérimentale avec variation des facteurs en jeu.

Ainsi définie, l’épistémologie génétique est loin d’être nouvelle, puisque, de tous temps, les théoriciens et même les expérimentateurs ont fait appel, explicitement ou implicitement, aux processus mentaux pour caractériser la portée épistémologique des notions qu’ils acceptaient ou qu’ils rejetaient. Sans remonter aux Grecs, il n’est guère douteux, par exemple, que si Descartes a voulu fonder ses explications de l’univers matériel sur la figure et le mouvement en écartant les notions de finalité et de force, c’est parce qu’il considérait les secondes de ces notions comme entachées d’illusions subjectives en tant que liées à certains aspects de l’activité propre (intentionalité et effort musculaire), tandis que les premières lui paraissaient, en tant que « claires et distinctes », relever de l’activité de l’intelligence elle-même : sans s’appuyer sur une psychogenèse explicite des notions, il recourait probablement ainsi à ce qu’on pourrait appeler une psychogenèse implicite. Quand d’Alembert se livre à une critique de la notion de quantités négatives, qu’il trouve tantôt obscures tantôt « tout aussi réelles que les positives » et n’en différant que par le signe mais par un signe servant « à modifier et à corriger une fausse supposition » [= l’attente d’une existence], 32 il s’appuye par contre sur une psychogenèse explicite en admettant à tort ou à raison que l’al-

gèbre se borne à généraliser des idées premières fondées sur la sensation. Plus près de nous et sans retracer les courants d’idées du XIX siècle, notamment au sujet de la psychogenèse de l’espace (chez Helmholtz, etc.), quand Mach fonde son épistémologie physique sur l’analyse des sensations, 41 quand H. Poincaré explique pourquoi l’espace commun est euclidien et à trois dimensions en recourant aux conditions sensori-motrices de l’organisation des déplacements, 52 ils font au sens propre de l’épistémologie génétique (quelle que soit la valeur de leurs hypothèses). Une mention spéciale doit être faite du grand mathématicien italien Enriques, qui écrivait : « On voit se développer une théorie de la connaissance scientifique qui tend à se constituer sur une base solide, comme une partie de la science elle-même », car « l’arbitraire dans la construction scientifique semble s’éliminer de plus en plus dans la genèse des concepts scientifiques, considérés non pas dans leur possibilité logique, mais dans leur développement réel » ; et encore : « l’analyse que j’ai entreprise me persuade qu’il y a partout un développement psychologique dont les raisons intimes se rattachent à la structure même de l’esprit humain. » 63 Ainsi Enriques ne se borne plus à des appels systématiques à la psychogenèse il trace le programme même de l’épistémologie génétique.

Seulement, deux lacunes de caractère général ont diminué la valeur de ces essais multiples, quel que fût le talent ou le génie de leurs auteurs, et deux lacunes qui méritent de retenir l’attention car elles expliquent pourquoi l’épistémologie génétique n’a point encore conquis droit de cité à titre de discipline autonome : les divers recours à la psychogenèse que réclamaient tous ces épistémologistes n’ont pas correspondu à des réponses suffisantes de la psychologie génétique, d’une part parce que les matériaux expérimentaux et les élaborations théoriques des psychologues n’étaient pas encore de nature à permettre une utilisation épistémologique, et, d’autre part par ce que les mathématiciens, physiciens ou biologistes qui ont soulevé ce genre de problème d’épistémologie n’étaient pas (sauf quelques exceptions notables telles que celle de Helm-

holtz), des psychologues de formation et n’ont pas songé à réunir eux-mêmes les données précises dont ils auraient eu besoin.

Si l’on compare le peu de progrès qu’a fait l’épistémologie génétique avec les succès marquants en de nombreux domaines de ce que nous appellerons l’épistémologie normative 71 - ou étude des fondements par les méthodes de formalisation logique - il y a là une situation sur laquelle il est essentiel de réfléchir. Déclarons d’emblée (et nous y reviendrons plus en détail au § 2) qu’il ne saurait y avoir aucune contradiction ni même aucun conflit de tendances entre ces deux sortes de courants à condition d’en analyser suffisamment les limites et la portée respective : le parallèle que nous allons tenter ne comporte donc aucune intention de valorisation et se borne à vouloir comparer deux situations de fait.

Or, quand les problèmes de fondements se sont posés aux mathématiciens et aux physiciens orientés dans la direction de l’épistémologie normative, il s’est trouvé que, d’une part, il existait déjà un corps de doctrines logistiques suffisamment élaborées (Boole, Morgan, etc.) et que, d’autre part, ils ont pris le soin de construire eux-mêmes systématiquement les instruments techniques qui leur manquaient (Frege, Russell et Whitehead, Hilbert, Bernays et Ackermann, etc. jusqu’à Herbrand, Gödel, Gentzen et à Beth). L’appel à la logique, en d’autres termes, a correspondu, soit à des réponses suffisantes des logi-

ciens, soit à des constructions spécifiques de ceux-là mêmes qui soulevaient les problèmes.

La collaboration entre la psychologie et les spécialistes des Sciences exactes orientés dans la direction de l’épistémologie génétique a par contre souffert et de la carence relative de la psychologie elle-même et du soin insuffisant consacré par les épistémologistes à leurs reconstitutions génétiques.

Commençons par ce second point, car l’épistémologie à tendances psychologiques, si on la considère en un sens un peu large (en y englobant, sinon tous les grands sensualistes et les grands empiristes de l’histoire de la philosophie, du moins tous les spécialistes des sciences exactes qui se sont inspirés de ces tendances, comme d’Alembert pour prendre un exemple déjà cité), s’est manifestée, chose essentielle à noter, bien avant la constitution d’une psychologie scientifique. Le fait brutal dont il convient de partir, et qui constitue la première raison de l’échec relatif des épistémologies génétiques connues, est donc qu’un nombre considérable d’auteurs ont cru pouvoir - et croient encore pouvoir ! - faire appel aux données psychologiques sans s’astreindre à constituer une psychologie précise, et même souvent sans songer à recourir aux travaux des spécialistes, lorsque ces travaux existent…

Les causes d’un tel état de fait sont multiples. La première est assurément que peu d’épistémologistes ont encore vraiment réalisé la séparation entre la psychologie et la philosophie et considèrent donc comme suffisant, lorsqu’il s’agit de reconstituer la psychogenèse d’une notion, d’utiliser les méthodes d’analyse réflexive ou de simple construction spéculative dont les philosophes se contentent si souvent : autrement dit, pour retracer la genèse d’une notion, ils substituent à l’analyse systématique des faits une discussion d’idées aboutissant à l’élaboration d’une genèse idéale et non pas réelle (même si, et souvent en particulier si, l’on fait appel aux sensations et à la perception c’est-à-dire à l’une des sources les plus classiquement et peut-être les plus abusivement invoquées par l’épistémologie psychologie traditionnelle).

La seconde raison est que, tandis que personne ne se croit mathématicien ou physicien sans une formation technique poussée et que peu de gens ont encore la candeur de se croire logiciens sans une préparation- analogue, tout le monde au con-

traire se croit psychologue, même les spécialistes d’autres disciplines sachant par expérience ce que signifie une spécialité. En effet, chacun se fie à son introspection et à ses rétrospections, et personne, sans une éducation appropriée, n’imagine l’impossibilité systématique qu’éprouve un adulte déjà formé à reconstituer la genèse de ses idées avant leur cristallisation. La psychologie présente donc le privilège peu enviable que, de bonne foi, les non-psychologues les plus éminents croient pouvoir improviser ses analyses et anticiper ses résultats. Le « principe de technicité » dont Gonseth a fait une règle de sa philosophie de la connaissance, semble aller de soi pour chacune des sciences sauf pour la psychologie…

La troisième raison de ce caractère en réalité si souvent fictif que présentent les recours à la psychogenèse, est qu’il est moins conforme aux tendances spontanées de l’esprit humain de recueillir des faits et d’instituer des expériences systématiques que de déduire même avec rigueur. Il est donc à certains égards plus laborieux de faire de bonnes expériences en psychologie que de construire des schémas logiques. Quand on songe que les mathématiques et la logique remontent à plus de vingt-siècles, tandis qu’il a fallu attendre le XVIIe siècle pour constituer une physique expérimentale, il n’est pas surprenant que la psychologie expérimentale en soit encore à sa phase de début, malgré bientôt un siècle de travaux accumulés, et il n’est pas étonnant non plus que les non-spécialistes imaginent fort mal les exigences et les difficultés de l’expérimentation en ce domaine.

Ceci nous conduit à la seconde des lacunes systématiques dont a souffert l’épistémologie génétique : non seulement, comme on vient de le rappeler, les épistémologistes sont restés, en réalité, assez loin de la psychologie, même lorsqu’ils l’invoquaient, mais encore, comme il faut y insister maintenant, la psychologie n’a pas toujours été, et n’est pas encore toujours aujourd’hui, en état de répondre à toutes leurs questions. Il y a à cela toutes sortes de bonnes et de moins bonnes raisons. Pour commencer par ces dernières, l’un des principaux malheurs de la psychologie naissante a été que, science de l’homme par excellence, elle a trop vite songé aux applications. Elle a ainsi oublié que, dans la mesure où l’on tend trop tôt à celles-ci, on passe souvent à côté des problèmes dont la solution sera

ultérieurement la plus fertile, même au point de vue utilitaire, mais dont la signification échappe lorsque l’on prétend se dispenser d’une vision théorique assez large. Elle a surtout oublié qu’une science appliquée a rarement précédé dans l’histoire, la constitution de la discipline théorique correspondante (on pour- rait citer cette autre science de l’homme qu’est la médecine, mais encore conviendrait-il d’analyser de près l’importance des apports extra-médicaux aux progrès de l’art médical). Quand aux psychologues s’intéressant aux problèmes généraux et tendant ainsi, comme dans les autres sciences, à un équilibre normal entre l’expérimentation et l’interprétation théorique, ils sont aux prises avec tant de problèmes que celui de la genèse des notions et des opérations intellectuelles ne constitue qu’une partie très restreinte de leurs préoccupations. En plusieurs pays, notamment, les psychologues expérimentaux ne s’occupent que de l’adulte et les « Childpsychologists » constituent un clan à part, sans que les seconds soient suffisamment au courant des travaux des premiers et surtout, ce qui est plus regrettable, sans que les premiers aient compris la nécessité absolue de considérer tous les problèmes psychologiques sous l’angle du dévelonnement, c’est-à-dire en y incorporant la dimension génétique.

Si nous avons pu fournir personnellement quelque contribution à l’étude de la formation des opérations logico-mathématiques et des notions comportant une signification générale dans la pensée scientifique (nombre, espace, mouvement et vitesse, temps, invariants physiques élémentaires, hasard, etc.), c’est que, venant de la biologie, nous nous sommes posé dès le départ le problème de l’épistémologie génétique et n’avons fait de psychologie de l’enfant que dans ce but. Mais il serait naturellement d’une rare candeur de croire que ces quelques données, représentant cependant trente années de travail en collaboration, constituent autre chose qu’une simple introduction à uni monde de questions encore sans solution.

Mais surtout, si nous avons constaté plus haut l’insuffisante documentation, dans le domaine de la psychogenèse, des spécialistes de l’épistémologie mathématique et physique, même lorsqu’ils en appellent explicitement à la psychologie, il convient malheureusement de faire maintenant la constatation réciproque. Si les psychologues ne fournissent pas à l’épistémo-

logie génétique toutes les données dont les spécialistes de l’épistémologie mathématique ou physique auraient besoin, c’est en bonne partie parce qu’ils ne possèdent pas eux-mêmes la culture mathématique et physique suffisante. La préoccupation fâcheusement prédominante des applications pousse naturelle- ment le psychologue à s’intéresser surtout aux questions de statistique concrète et de probabilité appliquée, sans qu’une initiation assez poussée aux problèmes d’algèbre générale, de logique mathématique, de théorie des nombres et de topologie (malgré K. Lewin !) lui permette de saisir toute la portée de certains problèmes de structure que soulève la psychologie de l’intelligence ou de la perception. De même le psychologue moyen connaît de la physique ce qui est nécessaire à la bonne marche d’un laboratoire, mais sans qu’une intimité indispen- sable avec les progrès de la physique théorique le pousse à imaginer les recherches qui conviendraient à l’épistémologie physique.

En d’autres termes, pour prolonger les quelques résultats actuellement acquis dans le domaine de la psychogenèse des notions et des opérations intellectuelles, il faudrait que les chercheurs en psychologie soient directement inspirés par des questions particulières et spécifiques que leur poseraient des mathématiciens et des physiciens ou qu’ils fréquentent d’assez près les cercles mathématiques ou physiques s’intéressant aux problèmes de fondements et d’épistémologie pour imaginer eux-mêmes des recherches que le psychologue laissé à ses seuls moyens ne parviendrait pas à concevoir. Mais, on aperçoit alors d’emblée la difficulté du problème, car, faute de formation psychologique, les spécialistes des sciences exactes ne savent pas toujours non plus poser les questions en termes d’expérimentation psychologique possible… Il y a donc là une sorte de cercle.

En résumé, les problèmes de l’épistémologie génétique sont actuellement posés, et nous avons essayé nous-mêmes, dans une « Introduction à l’Epistémologie génétique », de montrer avec quelques détails en quels termes ils se présentent sous leur forme générale du point de vue des différentes sciences mathématiques, physiques, biologiques et psycho-sociologi-

ques, 81 mais deux obstacles majeurs retardent la solution des innombrables questions particulières que comporte cette discipline nouvelle : le premier est donc l’absence d’un contact suffisant entre les spécialistes de l’épistémologie des sciences exactes et ceux de la recherche psychogénétique, et le second est l’insuffisance actuelle des données psychogénétiques pouvant intéresser l’épistémologie des sciences mathématiques et physiques.

Pour sortir d’une telle situation, il n’existe qu’un seul procédé possible : c’est de recourir au travail en équipe en associant en un même lieu et pour un temps suffisant des spécialistes des sciences exactes et des psychologues s’intéressant aux mêmes questions particulières d’épistémologie génétique. Seul un travail d’équipe, c’est-à-dire un contact quotidien et suivi dans les mêmes locaux de recherche, est, en effet, à même de surmonter les difficultés que la lecture et les entretiens occasionnels n’ont jamais réussi à vaincre : permettre à des cher- cheurs relevant de disciplines différentes de comprendre réciproquement, non pas simplement leurs affirmations ou leurs résultats, mais leurs points de vue fondamentaux et leur manière de poser les problèmes nouveaux. Se comprendre mutuellement est, en effet, malgré les apparences, la plus difficile des conditions à remplir dans les disciplines encore jeunes, et c’est cependant la condition indispensable de ce travail interdisciplinaire que suppose toute question particulière d’épistémologie génétique.

En second lieu, il est clair que la valeur scientifique d’une discipline se reconnaît à un certain équilibre entre les problèmes généraux et les problèmes particuliers qu’elle est capable de résoudre : s’en tenir aux premiers est le propre de la philosophie (qui ne les résoud d’ailleurs pas toujours, précisément par ce qu’elle se borne à ceux-là !) et s’en tenir aux seconds est le propre d’un simple empirisme, tandis que le double progrès vers une généralisation et vers une spécification solidaires l’une de l’autre constitue seul une science. Or, c’est précisément dans la mesure où l’épistémologie génétique compte dépasser les problèmes généraux, ou plus précisément globaux,

qui sont les problèmes de départ, pour atteindre ce double mouvement de la spécification d’abord, et de la généralisation fondée sur elle ensuite, que le travail par équipe est indispensable. Qui dit problème particulier et bien délimité, en épistémologie génétique, dit, en effet, en vertu de la définition même de cette discipline, collaboration entre les spécialistes de la notion ou de la structure opératoire dont on étudie le développement psychologique, et les spécialistes de ce développement lui-même. Or, une telle collaboration implique précisément cette compréhension mutuelle des points de vue et de la position implicite des problèmes qui est si difficile à acquérir et que seule permet un travail suivi d’équipe.

Il convient maintenant de donner quelques exemples des problèmes qui pourraient être traités selon cette méthode collective. Nous disons quelques exemples, car un programme général et abstrait ne présenterait aucun intérêt pour donner une idée de la vie possible d’un Centre tel que nous le projetons, tandis que des exemples, même si le déroulement des travaux effectifs modifie les prévisions, peuvent en suggérer bien d’autres analogues.

Nous nous bornerons en outre dans ce qui suit à des exemples de recherches faisant appel à la psychogenèse (au sens étroit) des notions et des structures opératoires, c’est-à-dire à leur développement chez l’enfant. Il convient de ne pas perdre de vue que de fréquents recours à l’histoire des sciences et à ta sociogenèse en général sont nécessaires pour compléter les données de la psychologie de l’enfant. Il s’agira en particulier tôt ou tard de compléter par une analyse psycho-sociologique de la pensée réelle des adultes, et surtout du fonctionnement effec- tif des méthodes de pensée et de recherche des savants eux-mêmes, les travaux expérimentaux sur l’intelligence et la perception chez l’enfant et chez l’adolescent. Mais, dans ce qui suit, nous nous tiendrons à ce dernier aspect des travaux pos- sibles d’un centre d’épistémologie génétique, car ce qui sera dit des stades élémentaires de la psychogenèse vaudra a fortiori pour les niveaux supérieurs. Nous nous limiterons donc à des problèmes qui puissent donner lieu simultanément à des travaux épistémologiques de spécialistes de la discipline considérée (logique, mathématiques, physique au sens large, biologie) et à des travaux expérimentaux des psychologues dans le

domaine propre de la psychogenèse des notions ou des structures opératoires. Nous donnerons un ou plusieurs exemples possibles pour chacune de ces quatre disciplines.

§ 2. Problèmes d’épistémologie génétique en relation avec la logique

Il convient d’abord de préciser en quelques mots les relations entre ce que nous avons appelé pour abréger (p. 16 note 1) l’épistémologie génétique et l’épistémologie normative, cette dernière s’occupant spécialement des problèmes de fondements par les méthodes de formalisation ou axiomatisation logique. Le problème se pose d’une façon particulièrement aiguë en ce qui concerne les relations entre la psychologie de l’intelligence, utilisée par l’épistémologie génétique, et la logique, utilisée par l’épistémologie normative. Mais rappelons à cet égard que toute définition d’une science est une définition descriptive, qui par conséquent est à juger par une méthode empirique : une analyse partant des relations entre deux sciences fondée sur des définitions n’a donc que le statut d’une hypothèse empirique. Il n’en est que plus utile de préciser nos hypothèses de départ.

En effet, les auteurs sont loin d’être d’accord en ce qui concerne les relations que nous allons examiner ici. Parmi les logiciens encore trop rares qui se sont intéressés au problème des relations entre la logique et la psychologie de l’intelligence, il en existe pour lesquels ces deux disciplines ne sont pas indépendantes : 91 toute norme de logique formelle doit se justifier, diront-ils, et l’on ne peut la justifier que par rapport aux faits (ce qui nous parait logiquement nécessaire acquiert ce caractère à cause de certains faits psychophysiologiques, psychosociaux ou culturels). Réciproquement toute étude de faits obéit à certaines normes. Logique et psychologie du raisonnement devraient ainsi se fonder mutuellement tout en conservant des objets distincts.

Mais d’autres auteurs préconisent à tort ou à raison une indépendance complète entre les deux disciplines et ils sont particulièrement représentés parmi les axiomaticiens (par E. W.

Beth, par exemple). Pour éviter tout soupçon de « psychologisme » nous nous placerons ici au point de vue de cette seconde hypothèse, de manière à montrer que, même alors, un ensemble de questions se posent quant aux relations entre deux domaines en principes indépendants.

En principe, il est vrai, ces relations sont très simples en une telle hypothèse puisque l’épistémologie normative ne s’occupe pas des activités du sujet connaissant mais cherche exclusivement à déterminer, pour un domaine de connaissances données, quelles en sont les conditions de vérité ou quelles sont les normes les plus générales qui fondent cette vérité ; tandis que l’épistémologie génétique ne s’occupe pas des conditions normatives de la vérité, mais cherche exclusivement à établir, pour le même domaine de connaissances données, par quelles activités le sujet est parvenu à les construire et en est venu à les considérer, au niveau final (provisoirement final) qu’analyse pour son compte le normaticien, comme supérieures à ce qu’elles étaient aux niveaux antérieurs.

Non seulement ces deux sortes de recherches - génétiques ou normatives - ne présentent donc pas de conflit de principe puisqu’elles ont des objets différents, mais encore elles semblent constituer deux démarches complémentaires de l’épistémologie scientifique en général : en effet, les normes qu’utilise ou qu’établit le normaticien correspondent tôt ou tard, du point de vue du généticien, à des normes que se donne ou qu’accepte le sujet connaissant (auquel cas le généticien considérera les normes, qu’il n’a pas à établir lui-même, comme des « faits normatifs », c’est-à-dire comme des faits observés dans les activités du sujet connaissant, mais des faits présentant ce caractère particulier d’être conçus comme des normes par ce sujet en tant que sujet connaissant) ; réciproquement, les connaissances que construit le sujet correspondent tôt ou tard, du point de vue du normaticien, à des vérités qu’il considérera comme valables, parce que, sans avoir à s’occuper en rien du processus psychologique ou historique qui a abouti à leur formation, il peut les intégrer en un système de reconstitutions formalisées.

En droit il ne saurait donc exister, dans l’hypothèse de l’indépendance entière, de conflit entre les deux méthodes norma-

tive et génétique, pour autant qu’elles s’en tiennent à ce qui constitue leurs règles respectives strictes : ne jamais faire intervenir de considération psychologique dans la formalisation logique (sous peine de verser dans le « psychologisme ») et ne jamais substituer la déduction logique à l’analyse des faits génétiques (sous peine de tomber dans le « logicisme »).

Mais si, en droit, la situation est donc d’une clarté entière, les choses ne sont pas si simples en fait car certains problèmes de frontière peuvent encore se poser. Ces problèmes demeureraient d’ailleurs sans doute aisés à résoudre en eux-mêmes, mais ils se compliquent en raison de l’intervention des conceptions d’ensemble ou des philosophies propres aux auteurs qui emploient l’une ou l’autre des deux méthodes normative ou génétique. Le principal de ces problèmes de frontière consiste à déterminer à partir de quel niveau ou de quelle structure la logique propre au sujet devient formalisable du point de vue normatif. Or, la difficulté de ce problème augmente naturellement si, au lieu de ne considérer que la logique du sujet et la logique formalisée, on ajoute à cette dernière des hypothèses tirées d’une philosophie telle que ce platonisme implicite ou explicite si répandu chez les logiciens. Une telle hypothèse consisterait par exemple à soutenir que le sujet reçoit toute logique du dehors, par l’intermédiaire du langage et des transmissions culturelles sans aucun apport effectif de ses activités mentales (étant alors sous-entendu que les représentations collectives transmises par voie linguistique et culturelle procèdent elles-mêmes d’une intuition des universaux qui constituerait la vraie source des structures logiques).

Seulement, on constate aussitôt que cette hypothèse sur l’origine extérieure, par rapport au sujet, des normes de la logique ne dérive pas sans plus de la méthode propre à l’épistémologie normative ; mais implique au contraire une certaine interprétation relative à leurs modes d’acquisition et par conséquent aux activités du sujet, interprétation qui relève donc d’une vérification par les méthodes de l’épistémologie génétique.

C’est pourquoi, l’un des premiers problèmes qui se posent à l’épistémologie génétique est de chercher à déterminer à quels mécanisme correspondent les structures logiques (logique des

classes, des relations, des propositions et des fonctions) dans les activités du sujet.

Ce problème est central pour l’épistémologie génétique elle-même, car, si la logique était acquise du dehors par l’enfant au cours de sa formation, c’est-à-dire si elle était reçue par lui grâce à l’action formatrice des transmissions sociales ou éducatives (langage et action des collectivités familiales et scolaires), il en faudrait dire autant de la plupart des autres structures opératoires puisque la logique intervient à titre de partie intégrante dans les connaissances mathématiques et physiques. Notons d’ailleurs que la méthode fondée sur la psychogenèse, propre à l’épistémologie génétique, n’en serait nullement inva- lidée pour autant, car l’enfant n’est pas purement passif ou réceptif dans son assimilation des structures linguistiques ou des connaissances scolaires, et se trouve obligé de réélaborer ce qu’il assimile : les étapes et les mécanismes de cette reconstruction demeureraient donc un document de première importance pour l’étude de la formation des notions et des conditions de la connaissance. Mais il va de soi que cette réélaboration ou reconstruction des structures opératoires serait d’un intérêt moindre que dans le cas où l’on pourrait faire la preuve d’une structuration en partie spontanée, qui constituerait la condition nécessaire de l’assimilation des apports extérieurs, linguistiques et sociaux.

Mais ce problème des correspondances éventuelles entre les structures logiques et les activités du sujet est également central quant aux relations entre l’épistémologie génétique et l’épistémologie normative. En effet, en vertu des méthodes courantes qui consistent à éliminer tout facteur psychologique pour s’en tenir aux conditions de vérité fondant la connaissance sans en expliquer la formation, la logique axiomatique qui constitue le principal instrument de l’épistémologie normative aboutit à la constitution d’une sorte de « logique sans sujet », comme si les conditions de vérité existaient ou subsistaient en elles-mêmes. Mais la réciproque n’est nullement vraie : ni la psychologie ni l’épistémologie génétique ne conduisent à imaginer un « sujet sans logique », et nous connaissons au contraire assez bien les étapes de la formation de la logique chez l’enfant (le mécanisme explicatif de cette formation consti-

tuant par contre le problème qui reste à étudier). Il s’agit donc d’établir les relations entre cette logique du sujet et la logique normative du logicien, ce qui éclairera par le fait même les rapports entre l’épistémologie génétique et l’épistémologie normative.

Il est inutile de revenir ici sur le détail de cette formation de la logique chez l’enfant, que nous avons décrite ailleurs. 101 Rappelons-en seulement les quatre phases principales (avec les âges observés dans les milieux genevois) :

1. (Jusque vers 2 ans). Coordinations sensori-motrices dans lesquelles on discerne, sous une forme pratique et non représentative, certaines mises en relations et certaines généralisations. Celles-ci aboutissant à un schématisme constituant sans doute la substructure des structurations logiques ultérieures, et à la formation d’un invariant élémentaire (schème de l’objet permanent), représentant le point de départ des formes ultérieures de conservation.

II. (De 2 à 7-8 ans). Période représentative préopératoire au cours de laquelle les acquisitions sensori-motrices sont réélaborées sur le plan de la représentation, mais sans être étendues aux situations plus complexes, comportant des transformations proprement dites par opposition aux configurations. Faute d’opérations réversibles, le sujet ne parvient à comprendre la conservation des ensembles (quantités discontinues) ni des quantités continues en cas de modification des configurations spatiales. Il ne parvient même pas à dominer les transivités élémentaires A = C si A = B et B = C ou A < C si A < B et B < C. Il y a donc absence de logique représentative (malgré le progrès continu dans la schématisation des actions prolongeant le schématisme sensori-moteur), faute de toute structuration proprement opératoire.

III. (De 7-8 à 11-12 ans). Constitution d’une logique dite d’opérations « concrètes », portant sur les objets et non pas encore sur les propositions, et ne présentant pas encore de dissociation complète entre la forme et le contenu (une même forme ne structurant que successivement des contenus différents, avec par exemple un décalage de deux ans environ entre les longueurs, etc. et les poids). Les opérations de cette logique ne recouvrent encore qu’une partie de la logique des classes (avec une réversibilité consistant en inversion ou négation : A - A = O) et une partie de la logique des relations avec une réversibilité consistant en réciprocité (A = B) → (B = A) mais comportent la constitution de structures d’ensemble consistant en classifications, sériations, correspondances, etc. que nous avons appelées « groupements élémentaires » : p. ex. A + A’ = B ; B + B’ = C ; etc. ; B-A’=A ; etc ; A + A = A ; A - A = 0 ; (A + A’) + B’ =A + (A’ + B’) mais (A + A) — A ≠ A + (A - A). Ces structures
ne constituent que des semi-réseaux (faute de combinatoire) et des groupes imparfaits (faute d’associativité entière).

IV. (Dès 11-12 ans avec palier d’équilibre dès 14-15 ans). Constitution d’une logique formelle, à raisonnements hypothético-déductifs fondés sur les opérations interpropositionnelles (p ⊃ q, etc.). Deux structures d’ensemble se constituent alors qui marquent l’achèvement de ces structurations incomplètes du palier III : (1) Le réseau de la logique des propositions, reconnaissable à l’apparition d’une combinatoire que l’on voit se manifester par ailleurs dans des conduites variées portant sur la combinaison des objets (combinaisons, permutations et arrangements) ou des facteurs expérimentaux. Le réseau se constitue psychologiquement en tant que généralisation des opérations de classifications. (2) Le groupe des inversions N (p v q nié en p . q) réciprocités R (p v q = R p v q), corrélativités C (p v q transformé en p . q) et identité I. Ce groupe commutatif (RC = N ; RN = C ; NC = R et NRC = I) marque la synthèse en un système unique des deux formes de réversibilité (inversion et réciprocité) jusque là séparées, et se manifeste psychologiquement dans une série de schèmes opératoires apparaissent synchroniquement (proportions, doubles systèmes de référence, équilibre mécanique, etc., etc.).

Ces données étant admises à titre de faits psychologiques (sous réserve de la formulation provisoire que nous avons indiquée pour simplifier), le problème des relations entre la logique et les activités mentales se pose alors de la manière suivante. Il convient d’abord de distinguer trois grands ensembles de réalités distinctes, que nous subdiviserons tôt après :

(1) Nous appellerons F les normes de la logique formalisée (par exemple les axiomes de la logique des propositions, ou des fonctions du premier ordre, etc.). Il s’agit donc par hypothèse de normes à propos desquelles le logicien seul est compétent, sans intervention d’aucune donnée psychologique.

(2) Nous appellerons par contre S les normes cognitives d’origine aussi bien externes qu’internes auxquelles le sujet se conforme et que l’observateur décrit à titre de « faits normatifs ». Par exemple, l’enfant du niveau II reste insensible à la transitivité des égalités de longueurs et de poids, tandis que celui du niveau III se trouve obligé par nécessité logique à admettre, dès 7-8 ans pour les longueurs et dès 9-10 ans pour les poids, que si A = B et si B = C (par constatations successives, A étant caché après comparaison) on a « nécessairement » A = C. (3) Nous appellerons enfin M les mécanismes mentaux, sociaux ou physiologiques (langage, coordination des actions, coordi-

nations nerveuses, etc.) susceptibles d’expliquer la formation des normes S.

Nous pouvons ensuite naturellement subdiviser ces catégories. C’est ainsi qu’aux points d’interférences de M et de S, nous aurons les processus de raisonnement du sujet (MS = R) et que ces raisonnements avec leurs normes engendreront des produits actifs ou verbaux, qui pourront être eux-mêmes nor- més ou non normés.

Les normes S du sujet peuvent être elles-mêmes individuelles (S) ou collectives (S’ ou S", etc.) ; de même pour les mécanismes M ou M’.

Quant aux normes logiques F, nous pouvons encore distinguer entre les normes F de la logique constituée en un corps de doctrines verbalisées et les normes F’ que les membres d’une certaine élite intellectuelle (les logiciens) considèrent comme canon de la déduction correcte.

On peut alors imaginer un ensemble de séries causales distinctes entre lesquelles il s’agira de choisir, telles que F → F’ → S’ → S→R → etc. ou M (S + S’) → F’ → F, et d’autres encore. Mais l’on peut aussi se borner à concevoir un simple parallélisme entre l’axiomatique portant sur les normes F et l’analyse causale ou réelle correspondante portant sur les normes S (et S’) en fonction des mécanismes M. Il importe donc avant tout de sérier les difficultés.

A cet égard, le premier problème est sans doute d’établir au préalable le degré d’isomorphisme possible entre les normes S et F. Or, cette question préjudicielle est loin d’être simple. Certains logiciens admettent certes que tout raisonnement correct est formalisable par la logique, mais, si l’on accepte cette hypothèse de travail, il faut prendre garde de ne pas utiliser des structures formelles F trop complexes pour traduire des structures réelles S notablement plus simples, autrement dit des structures F trop fortes par rapport aux structures S. C’est pourquoi nous nous sommes efforcés d’exprimer les structures S du niveau III en termes de « groupements élémentaires » qui ne sont que de semi-réseaux et que des groupes imparfaits. Mais cette notation n’est qu’une expression symbolique de la norme S et non pas une traduction en normes F et il reste donc à examiner jusqu’à quel point elle est

possible. D’autre part, certains logiciens comme Bernays 111 considèrent que la formalisation ne vaut que dans le cas de démonstrations mathématiques déjà hautement élaborées et ne s’applique pas aux raisonnements courants des sciences expérimentales (donc a fortiori encore moins à ceux du sens commun et à ceux de l’enfant). Dans les deux hypothèses, la correspondance entre les normes S et F ne saurait donc être que partielle, c’est-à-dire que les normes S ne correspondront qu’à certains aspects de F et pas à d’autres, le problème demeurant donc entier de déterminer les limites de ce semi-isomorphisme.

Vient alors le second problème qui est de déterminer les relations causales entre les normes S et les mécanismes mentaux M. Ce problème comporte lui-même une première décomposition sous la forme suivante. Il est évident que l’enfant des niveaux II à IV est de plus en plus influencé, au cours de sa formation, par les normes collectives du langage d’abord, que nous appellerons les normes S’, et par celles des multiples partenaires de ses échanges sociaux (parents, maîtres, etc.) que nous appellerons S". Une première possibilité serait donc que les normes S du sujet en formation dérivent exclusivement des normes S’ et S’’, c’est-à-dire que l’acquisition de la logique soit due à une pure transmission verbale et sociale.

Qu’un tel facteur joue un rôle considérable, cela tombe sous le sens et la simple constatation des différences caractérisant les diverses sociétés humaines du point de vue de l’élaboration des structures logiques suffit à démontrer le rôle au moins accélérateur ou inhibiteur du milieu social et à rendre très vraisemblable son rôle formateur partiel dans l’élaboration de la logique. Nous considérerons même à titre d’hypothèse que le rôle formateur partiel consiste au moins en ceci que le langage et la société constituent des conditions nécessaires à l’achèvement des structures logiques communes (niveau IV). Si nous n’insistons pas davantage sur cet aspect collectif de la logique, c’est qu’il va de soi. Le problème actuel nous paraît donc être non plus de le confirmer, mais de rechercher s’il suffit à tout expliquer ou sur quelles structures psychologiques ou

psychophysiologiques s’appuie la constitution verbale et sociale des normes. 121

Autrement dit, la question ultérieure est de déterminer si cette condition nécessaire que constitue l’action des normes S’ et S" représente également une condition suffisante de l’élaboration des normes S ou si ce n’est pas le cas. Autre chose est, en effet, d’admettre que le développement des opérations logiques chez l’enfant est influencé par son milieu social, ce qui va donc de soi, et autre chose est de considérer les normes S comme le résultat exclusif des normes S’ et S".

Notons d’ailleurs que si l’éventualité d’une action suffisante des normes S’ et S" se vérifiait, et si l’acquisition de la logique était donc le produit d’une pure transmission sociale, le problème subsisterait d’expliquer génétiquement les normes S’ et S", mais ce serait un problème de pure sociogenèse et non plus de psychogenèse et de sociogenèse combinées.

Dans l’hypothèse, au contraire, où les normes S ne dépendent pas exclusivement des normes S’ et S", il s’agit alors de chercher les relations entre les normes S et les mécanismes mentaux M. Or, sous cette désignation globale, un certain nombre de facteurs peuvent entrer en ligne de compte, qui sont à analyser chacun à part pour décider précisément entre le rôle exclusif ou le rôle de condition nécessaire mais non suffisante que joueraient les facteurs linguistiques et sociaux.

Le premier facteur à considérer est encore le langage, mais à titre maintenant de processus de communication. Dans l’hypothèse où la société est exclusivement formatrice, l’individu en développement serait à considérer comme une sorte de réceptacle que viennent meubler simultanément les expériences acquises en fonction de l’univers physique et les structures toutes faites transmises en fonction du milieu social : en un tel sens, le langage serait alors essentiellement l’instrument de la transmission (contenu que l’enfant n’aurait plus alors qu’à assimiler dans un certain ordre de succession). Dans l’hypothèse où l’individu en formation participe activement à la construction des structures, l’utilisation du langage constitue

par contre un facteur formateur, non plus exclusivement parce que le langage contient déjà la logique, mais parce que l’échange de communication que constitue son emploi représente par lui-même un instrument d’élaboration qui confère une certaine structure aux contenus échangés.

Mais il faut introduire ici certaines distinctions essentielles qui ne sont pas toujours suffisamment faites dans les discussions sur les relations entre la logique et le langage, issues des thèses de l’empirisme logique.

En premier lieu, si les positions de l’empirisme logique ont beaucoup évolué quant à ces relations entre la logique et le langage, la thèse suivante a sans doute toujours été considérée comme vraie, notamment par les partisans de cette école qui ont le mieux étudié le statut de la logique (Carnap, Hempel, Reichenbach) : « les lois logiques se distinguent des autres propositions en ce qu’elles sont vraies de par les règles de signification données aux termes du langage ». Plus simplement dit, « ces lois sont vraies de par le sens des termes qu’elles contiennent », par opposition aux propositions empiriques, dont la vérité dépend d’une référence aux propriétés des objets sur lesquelles partent de telles propositions. Or, d’une telle thèse on a souvent été tenté de déduire que l’acquisition des structures logiques est déterminée génétiquement par celle d’un langage, lorsqu’on n’en conclut pas que la nécessité logique se réduit alors à un simple système de conventions verbales. 131 Mais ces conséquences (que nous n’imputons pas sans plus aux formes authentiques de l’empirisme logique), ne découlent nullement de la thèse de départ. Il convient d’abord de rappeler que, si le langage constitue assurément le système le plus perfectionné de significations (à cause de la mobilité inhérente aux signifiants « arbitraires » que sont les signes verbaux), on trouve des significations à tous les niveaux de la hiérarchie des conduites (les indices et signaux perceptifs ou sensori-moteurs, les symboles représentatifs imagés et les signes verbaux sont autant de signifiants relatifs à des signifiés distribués sur tous les paliers du développement). L’on peut ainsi définir la signifi-

cation d’une manière opérationnelle, relative au comportement, 141 par exemple en termes d’assimilation aux schèmes d’actions connues ou d’accommodation modifiant l’action. Dès lors, si le système des significations déborde largement le domaine du langage, il devient légitime de se poser la question suivante : n’existerait il pas, antérieurement au langage ou indépendamment de lui, des coordinations entre actions telles que leur résultat présenterait une signification déterminée par le sens de ces actions comme telles ou de leurs coordinations, et non pas par les propriétés des objets sur lesquels portent ces mêmes actions ? En un tel cas, on se trouverait en présence de structures partiellement isomorphes à celles de règles logiques, mais sans que l’on puisse parler encore de « propositions » ou d’énoncés verbaux. Or, nous avons été précisément conduits, en étudiant l’acquisition de certaines structures logiques ou arithmétiques élémentaires, à distinguer de l’expérience physique, comportant des actions différenciées en fonction de l’objet (par exemple : soupeser) ce que nous avons appelé l’expérience logico mathématique, ne comportant que des actions générales et procédant par abstraction à partir des coordinations entre les actions et non pas à partir de l’objet : 152 par exemple ordonner quelques objets de différentes manières et constater que leur somme est indépendante de l’ordre adopté. En un tel cas, la signification du résultat de la suite des actions ne dépend effectivement que du sens de ces actions elles mêmes (ordonner et réunir), ou de leurs coordinations, et non pas des propriétés des objets. 163

En un mot, il est donc vraisemblable que, à un niveau antérieur à celui de la logique structurée verbalement, il existe une logique ou une semi-logique de l’action, ce qui rétablirait le rôle de l’activité du sujet. Ce rôle est remplacé, dans les logiques abstraites, par un métalangage, tel que l’invoque Carnap à la suite de Tarski et cette sémantique est elle même complétée, depuis Morris, par une pragmatique. Mais il est possible qu’on ait alors avantage à substituer une régression génétique réelle fondée sur les comportements du sujet à la régression métalinguistique.

Ceci nous conduit à une seconde distinction utile. Le pro blème central de l’empirisme logique est : « comment la com munication est elle possible et quels énoncés sont communi cables ? ». Et la plupart des thèses de cette école ne sont que des réponses à cette question. Or, d’une part, nos moyens de communication sont en devenir constant et constituent à chaque moment des solutions du problème de la communication. Dans ce cas, si les propositions logiques découlent de la signification des termes que nous employons, elles procèdent de la solution momentanée qu’en chaque situation spéciale nous avons adoptée pour résoudre le problème de la communication : l’étude de leur devenir devrait ainsi s’inscrire tout naturellement dans la ligne de l’empirisme logique. Mais d’autre part, si cet aspect sociologique et sociolinguistique de la logique est naturelle ment fondamental (comme nous y avons déjà insisté plus haut), il reste que la communication elle même ne saurait s’effectuer sans une activité opératoire des sujets communiquant entre eux, et c’est là un facteur qui, sans primer l’autre en importance, est trop souvent oublié : comme nous avons cherché à le montrer ailleurs, 171 il y a isomorphisme, à partir d’un certain niveau de développement, entre les opérations logiques du sujet et celles qui interviennent nécessairement en toute « coopération » intellectuelle à tel point qu’il s’agit là psychologiquement, de deux aspects indissociables, quoique distincts, d’une même réalité qui est celle des interactions en général. Il en résulte que, si les règles logiques ne s’acquièrent pas seulement en fonction des nécessités de la communication, cela ne les empêche pas d’acquérir leur valeur de vérité à cause des coordi-

nations sémantiques de notre langage : mais celui-ci, comme notre logique, peut être, en fin de compte, dominée par la structure des opérations ou actions prélinguistiques.

Si le langage verbal constitue un premier facteur à considérer, il n’en est donc pas moins important, pour mettre les normes logiques S en relation avec les activités mentales du sujet, de chercher à déterminer les connexions entre les opérations comme telles de la logique (l’addition des classes, etc.) et les actions elles-mêmes du sujet à partir des actions sensori-motrices préverbales. En effet, psychologiquement l’opération est une action intériorisée et devenue réversible par sa coordination avec d’autres actions intériorisées en une structure d’ensemble comportant certaines lois de totalité. Or, comme nous venons de le voir, l’existence d’un niveau d’opérations « concrètes » (niveau III) dans le développement des structures opératoires de l’enfant, montre assez qu’il y a là un problème, puisque les premières structurations logiques ne sont possibles qu’accompagnées d’une certaine manipulation, effective ou intériorisée, en ce dernier cas seulement en présence des « objets » perçus. D’autre part, les formes opératoires les plus importantes de cette logique concrète (réunion, ordre et correspondance) tirent très vraisemblablement leur origine du schématisme sensori-moteur lui-même, puisque, avant l’apparition du langage, les coordinations propres à l’intelligence sensori-motrice englobent déjà des réunions et des relations d’ordre (entre les moyens et les buts, etc.), ainsi que des correspondances (dans l’apprentissage de l’imitation par exemple), réunions, ordres et correspondances pratiques et non représentées, cela va sans dire, mais qui constituent la substructure de la représentation ultérieure. Il n’est jusqu’à une certaine transitivité que l’on observe dans les conduites sensori-motrices caractérisant une forme pratique d’inférence (par exemple trouver X sous l’objet écran A quand X a été glissé au vu du sujet et sous l’objet écran B, lequel recouvrait A à l’insu de ce sujet). Bref, on peut faire l’hypothèse qu’il existe une logique de l’action, caractérisant les coordinations intelligentes de celle ci dès le niveau préverbal et se prolongeant au niveau verbal en effectuant alors une jonction progressive avec la logique développée secondairement par la conduite du langage en tant que communication. Ce serait donc jusqu’aux coordinations sensori-

motrices qu’il conviendrait d’étendre notre investigation sur les correspondances possibles entre la logique et les activités du sujet.

De plus, l’une des formes les plus importantes de conduites sensori-motrices étant constituée par les activités perceptives, il convient de se demander si le schématisme perceptif lui-même ne soulève pas un problème analogue. Cela ne signifie pas qu’il faille revenir pour autant à l’hypothèse d’Helmholtz selon laquelle la perception engloberait des raisonnements inconscients, bien qu’en certains cas on observe effectivement une sorte d’orientation de l’activité perceptive par des schèmes opératoires de niveau supérieur (lorsque, par exemple, sachant que A = B et B = C dans le cas de trois tiges à comparer en profondeur, le sujet ne compare plus directement A et C comme le font les petits, qui sont insensibles à la transivité opératoire, mais compare A à B et B à C en se servant de B à titre de moyen terme). Mais il ne s’agit alors que d’une sorte de choc en retour ou de rejaillissement secondaire de schèmes d’ordre supérieur sur des schèmes inférieurs. La question que nous posons est donc autre : c’est celle de savoir si les compositions perceptives ne comportent pas une sorte de logique au niveau même de l’activité perceptive, logique ne comprenant alors naturellement aucune « opération » au sens défini plus haut, mais des régulations ou « feed backs » semi-réversibles 181 et tendant seulement vers la réversibilité sous une forme qui préfigure peut-être les connexions logiques supérieures. Sur ce point encore une analyse détaillée nous paraît nécessaire, car, si l’on admet une relation possible entre les opérations logiques « concrètes » et le schématisme sensori-moteur, il n’est aucune raison de ne pas étendre cette liaison éventuelle au schématisme perceptif qui donne lieu à de si intéressantes constatations du point de vue génétique lorsqu’on étudie ses transformations de l’enfant à l’âge adulte.

Or, les mécanismes perceptifs comportent une interprétation probabiliste relativement simple, dont nous avons cherché à donner certains linéaments en ce qui concerne les illusions

perceptives et la loi de Weber, 191 ainsi que la structuration en « bonnes formes ». D’autre part, il est clair que si les normes logiques S du sujet se caractérisent par certaines structures d’ensembles réversibles, elles constituent par cela même, du point de vue psychologique, des formes d’équilibre : d’une part, en effet, elles ne se modifieront plus au cours de la vie de l’individu (tout en pouvant naturellement être intégrées à titre de cas particuliers dans les structures ultérieures plus larges) ; d’autre part, comparées aux structures préopératoires antérieures, qui n’admettent ni la réversibilité des transformations ni la conservation des ensembles ou des propriétés des éléments, ces structures opératoires peuvent être caractérisées par des transformations virtuelles minimum et se compensant exactement. En tant que formes d’équilibre elles soulèvent alors également un problème d’interprétation probabiliste, car une marche vers l’équilibre ne saurait s’expliquer sans référence à de tels schémas.

D’une manière générale, à comparer les réactions sensori-motrices et perceptives aux opérations logiques, et, sur le plan de la représentation, à comparer le niveau préopératoire II aux structurations logiques successives des niveaux III et IV, on peut caractériser le développement des structures logiques comme un passage plus ou moins graduel, mais irréversible, d’un état d’irréversibilité relative à une réversibilité toujours plus poussée. Nous sommes ainsi au centre du problème qui est d’expliquer cette marche irréversible vers la réversibilité, celle-ci conférant alors aux régulations semi-réversibles des stades antérieurs le rang d’opérations coordonables en structures, et en structures assez stables pour étayer une logique. C’est dans cette perspective qu’il est indispensable, pour situer les normes S par rapport aux mécanismes mentaux M, de faire remonter l’investigation jusqu’aux conduites sensori-motrices et perceptives. Quant à la solution à donner à ce problème central, le choix portera par exemple sur l’une des trois possibilités suivantes : ou concevoir l’équilibre comme caractérisé par une entropie maximum, ou le concevoir comme dû à l’intervention de coordinations introduisant du dehors un ordre diminuant

l’entropie, ou encore le concevoir comme dû à une suite de « stratégies » dont chacune serait orientée par les résultats de la précédente jusqu’au moment où les actions devenues réversibles par la coordination même de ces stratégies précédentes se libéreraient du processus historique antérieur pour atteindre l’équilibre.

Ceci nous conduit à l’utilisation éventuelle des travaux bien connus sur l’isomorphisme de certaines structures nerveuses et de certaines structures logiques et les données concernant la structure des machines à résoudre les problèmes.

Il va de soi, en effet, que si l’on suppose possible de faire remonter certaines formes générales des connexions logiques jusqu’aux coordinations de l’action, le problème se pose par cela même de mettre en relation ces mêmes formes générales avec les coordinations nerveuses. Chacun connaît à cet égard les isomorphismes décrits par Mc Culloch et Pitts, 201 dont l’interprétation a été discutée en un Symposium sur la cybernétique de la Macy Foundation, etc. 212 Il ne s’agit pas, sans doute, de partir de l’hypothèse selon laquelle les connexions nerveuses expliqueraient directement la formation de telle ou telle structure mentale, comme si la conscience se bornait à prendre acte de l’existence de structures nerveuses préformées pour les traduire en termes de représentation ou d’opération, mais il s’agit au moins de supposer que les structures nerveuses dessinent le tableau des possibilités ou des impossibilités, qui détermineront les frontières du champ à l’intérieur duquel s’effectuera la construction des, conduites : or, ce système des possibilités ou impossibilités présente naturellement une grande importance du point de vue de la formation de la logique, car, même si l’on se refuse à considérer celle-ci comme préformée dans le système nerveux, il reste qu’elle peut y trouver une préfiguration fonctionnelle, ce qui n’est pas identique. Il conviendra, au reste, de méditer sur l’intérêt méthodologique de la tentative de Mc Culloch et Pitts du point de vue de l’isomorphisme psychophysiologique en admettant, en effet, que la

physiologie parvienne à dégager les racines les plus profondes des structures logiques, ce sera à la condition de mathématiser et de logiciser la neurologie elle-même, ce qui constituerait un nouvel exemple de ces assimilations réciproques du supérieur et de l’inférieur que l’histoire des sciences fournit si fréquemment et sur lesquelles nous avons fondé ailleurs l’hypothèse d’une structure circulaire et non pas linéaire de la classification des sciences. 221

Mais notre connaissance du fonctionnement du système nerveux étant restée, comme chacun sait, étonnamment fragmentaire, le recours aux modèles mécaniques constitue une dernière source indispensable d’information (indépendamment même des hypothèses que l’on adopte quant au degré d’isomorphisme entre les machines à calculer et le système nerveux). Il s’agirait entre autres d’examiner en quoi le ou les mécanismes qui décident, eu égard aux problèmes des parties décidables de notre logique se distinguent d’autres mécanismes à calculer construits dans d’autres buts. Il s’agirait en outre de dégager la structure des mécanismes capables d’induire et de modifier les règles selon lesquelles ils induisent : s’il existe certaines règles constantes de ce point de vue nous aurions découvert un aspect de notre logique. Enfin il conviendrait de chercher comment se comportent des mécanismes capables de construire des systèmes formels non décidables et quel sens présente la réalisation mécanique de ces derniers systèmes.

Il va de soi que la liste des questions précédentes n’a rien d’exhaustif et qu’il demeure bien d’autres aspects susceptibles d’intervenir dans nos préoccupations : par exemple les relations entre la logique et les applications psychologiques (ou psychosociales) de la théorie des jeux, notamment de celle des jeux d’information ; ou les relations entre la logique et les structures envisagées par la théorie des groupes.

Au total, le problème des relations entre les structures logiques et les activités mentales du sujet constitue le type de ces questions dont chacun a le sentiment qu’elle se posera tôt ou tard, mais que personne n’ose aborder de front à cause de ses difficultés et sans doute aussi en raison du caractère simpliste des solutions qu’on lui donnait jadis. Le moment est donc

venu de l’aborder en équipe en favorisant la rencontre de ces partenaires sans contact que sont les logiciens et les psychologues dans le dialogue si souvent interrompu de l’épistémologie scientifique contemporaine.

§ 3. Problèmes d’épistémologie génétique en relation avec les mathématiques.

On pourrait soulever ici une question préalable qui serait de savoir si les mathématiques sont distinctes de la logique ou lui sont entièrement réductibles, et si par conséquent il est légitime ou non de dissocier les problèmes d’épistémologie génétique en relation avec l’une et l’autre de ces deux disciplines.

Mais, et cela notamment depuis que les travaux de Gödel, de Gentzen et de Herbrand ont entièrement renouvelé la position du premier de ces problèmes, les mathématiciens sont fort loin d’être d’accord entre eux sur les relations qu’ils établissent entre la logique et les différents aspects des mathématiques : ce n’est donc pas à une épistémologie fondée sur l’étude du développement, et par conséquent essentiellement ouverte, à adopter sur cette question telle ou telle position de départ qui, de son propre point de vue, contiendrait d’avance une réponse aux problèmes à examiner. En distinguant les deux domaines nous nous bornons donc à adopter une attitude heuristique de prudence, sans préjuger des solutions vers lesquelles les recherches génétiques pourraient être conduites.

D’autre part, le peu que nous savons de la formation psychologique du nombre entier et de la mesure ne semble pas correspondre aux réductions classiques de Frege et de Russell-Whitehead des cardinaux à la classe logique et des ordinaux à la relation asymétrique. 231 Il y aurait donc là un problème à reprendre. On a cherché jusqu’ici à fonder les mathématiques soit sur la théorie des nombres naturels, soit sur celle des ensembles, soit sur la logique. On a d’ailleurs invoqué à cet égard différentes conceptions des nombres ou des ensembles, se distinguant par la nature des opérations permettant le passage d’un nombre ou d’un ensemble à un autre. Il pourrait être

intéressant de poursuivre systématiquement l’analyse psychologique déjà commencée des procédés de constructions des nombres et des ensembles, en relation avec l’étude des structures logiques dont il a été question sous II.

Bornons nous, pour l’instant, à dire quelques mots des « structures », dans la, perspective selon laquelle les Bourbaki ont envisagé cette notion.

Dans un ouvrage déjà ancien mais qui conserve tout son intérêt, 241 P. Boutroux cherchait à caractériser les trois principales périodes de l’histoire des mathématiques par les types respectifs d’« idéal scientifique » que les mathématiciens eux-mêmes se proposaient d’atteindre. Les mathématiques grecques, tout d’abord, présentent un idéal « contemplatif » en ce sens que la compréhension mathématique consistait pour eux à contempler les propriétés des nombres et des figures en éliminant du champ de leur discipline tout ce qui rappelait l’activité du sujet (les règles de calcul, l’algèbre, les courbes dites mécaniques non obtenues par la règle et le compas, le mouvement lui-même, etc.). Les mathématiques modernes débutent au contraire sous le signe d’un idéal « synthétiste », qui souligne le rôle de la libre construction de l’esprit : algèbre, géométrie analytique, analyse (ou algèbre de l’infini), etc. Enfin, apparaît avec les mathématiques contemporaines un idéal d’« objectivité intrinsèque » avec le sentiment d’une réalité, non physique, mais qui résiste à la libre construction du sujet.

Du point de vue psychogénétique (qui n’est pas celui de P. Boutroux), il est aisé d’expliquer les deux premières de ces périodes par le processus connu de la prise de conscience, laquelle s’attache d’abord aux résultats extérieurs de l’action ou de l’opération avant de découvrir le mécanisme même de ces opérations. A cet égard la période synthétiste peut être conçue comme caractérisée par la prise de conscience historique des opérations, tandis que les mathématiques grecques s’expliqueraient par un défaut de prise de conscience ou une sous-estimation du rôle de l’opération, d’où leur caractère sta-

tique : leur méfiance à l’égard du mouvement, de l’analyse du continu ou de l’utilisation de l’infini. Quant à 1’« objectivité intrinsèque » de la troisième période, il s’agirait, en cette perspective psychologique, d’une découverte des structures opératoires, c’est-à-dire du fait que les opérations ne s’ajoutent pas librement les unes aux autres mais se coordonnent nécessairement en structures d’ensemble dont les lois de totalité s’imposent de façon organique et résistent à l’arbitraire individuel. S’il en était ainsi, la réalité la plus profonde psychologiquement, à savoir la structure opératoire, serait suivant la règle découverte en dernier lieu, car, selon le mot profond d’Aristote, l’ordre de l’analyse renverse parfois l’ordre de la genèse (πρnω̃οη μὲν έν τῇ άταλύσει ἓσχατον δὲ έν τῇ γενέσει).

Mais, si cette interprétation n’est naturellement qu’une hypothèse, le principal problème que nous paraît poser à l’épistémologie génétique la situation des mathématiques actuelles tient précisément à cette notion de « structure », telle que l’a en particulier renouvelée l’école de Bourbaki. En effet, l’épistémologie mathématique a de tous temps oscillé en deux ensembles de solutions en ce qui concerne le type de réalité ou d’existence à conférer aux êtres mathématiques : les solutions qui leur confère une existence extérieure à l’esprit humain (tels l’empirisme qui les relie à la réalité physique et le platonisme qui leur attribue une existence idéale) et les solutions qui les rattache à l’esprit humain, soit à titre de structures a priori ou innées (Kant), soit à titre de conventions ou de langage (empirisme logique) soit enfin à titre de construction continue en relation avec l’élaboration des structures opératoires de l’intelligence en général. Or, la manière dont les Bourbaki ont repensé « l’architecture des mathématiques » en fonction de la notion de « structure » (entendue comme un système présentant ses lois propres de totalité) nous paraît conduire à poser le problème en des termes plus précis et d’ailleurs assez inattendus, car l’école bourbakiste semble orientée vers les solutions du premier type, dans le sens d’une forme de platonisme, tandis que la psychogenèse des opérations mathématiques chez l’enfant suggère la dernière, des solutions indiquées à l’instant. En effet, les trois « structures mères » de Bourbaki correspondent sous une forme générale et abstraite à ce que sont, sous une forme particulière et limitée à certaines intuitions concrètes, les

trois structures fondamentales caractérisant les opérations logico-mathématiques chez l’enfant. Il vaut sans doute la peine de consacrer quelque effort collectif à la vérification détaillée d’une telle hypothèse, car si elle était vraie, elle conférerait aux structures en question un caractère « naturel », suivant une expression souvent employée, qui serait d’un certain intérêt pour l’épistémologie mathématique.

Rappelons d’abord les termes du problème. A la base de l’édifice des mathématiques, on a d’abord cherché à situer quelques natures simples, imaginées sur le mode atomistique qui paraissait le plus « naturel ». C’étaient par exemple les nombres entiers, que Kronecker attribuait à Dieu lui même par opposition aux autres variétés numériques relevant de la fabrication humaine. 251 Ou bien c’étaient le point, la ligne, etc., c’est-à-dire des êtres donnés en eux-mêmes que l’esprit était appelé soit à contempler soit à manipuler, mais alors préexistant aux opérations s’appliquant à eux après coup. Or, le remaniement qui entraîne l’idée de structure dans le jeu des définitions et des démonstrations renverse ces perspectives. Au lieu de définir les éléments isolément, par convention ou construction, la définition structurale consiste à les caractériser par les relations opératoires qu’ils entretiennent entre eux en fonction du système, et cette définition d’un élément tiendra lieu de démonstration de sa nécessité, en tant qu’il est posé comme appartenant à un système dont les parties sont interdépendantes.

Ainsi un principe de totalité est donné dès le départ dans l’ordre de construction et de filiation des êtres mathématiques et modifie dès lors de façon très significative l’architecture de l’ensemble : partant de quelques structures fondamentales, la marche suivie consiste à les différencier du général au particulier et à les combiner entre elles du simple au complexe d’où une hiérarchie substituant aux anciens domaines juxtaposés une série de plans superposés selon ces deux procédés complémentaires de génération.

Les trois structures fondamentales sur lesquelles repose l’édifice mathématique, seraient alors, selon les Bourbaki, les structures algébriques dont le prototype est le groupe, les

structures d’ordre dont la variété la plus couramment utilisée aujourd’hui est le réseau ou « lattice » et les structures topologiques. Notons d’emblée que la forme de réversibilité propre aux structures algébriques est l’inversion : par exemple dans un groupe le produit de l’opération directe et de son inverse est l’opération identique ou nulle, soit 1. 1-1 = 0. Au contraire la forme de réversibilité la plus générale propre au réseau est la réciprocité : si nous désignons par AR la « borne inférieure » Ou « joint » d’un réseau, par A + B sa « borne supérieure » ou « meet », par le signe → la relation « précède » et par ← la relation « succède », la loi de dualité permutant X et + ainsi que → et ← transforme (AB) → (A + B) en (A + B) ← (AB) ce qui n’est pas une inversion au sens de la négation, mais bien une réciprocité. Nous retrouvons ainsi les deux formes fondamentales de réversibilité qui sont à l’oeuvre dans le développement opératoire de l’enfant ce qui nous permet de supposer l’existence d’une certaine parenté entre les structures de Bourbaki et celles de l’intelligence en général.

Rappelons d’abord que la forme d’organisation des notions dont procède l’idée de « structure », et qui consiste à procéder de la totalité à l’élément et non pas l’inverse comme faisait la composition atomistique, est devenue d’inspiration courante dans la psychologie des fonctions cognitives (perception et intelligence), et en linguistique (structuralisme) et cela indépendamment de l’évolution récente des mathématiques. Sur le terrain de la perception la théorie de la Gestalt nous a habitués depuis 1912 à l’existence de « formes d’ensemble » précédant la dissociation en éléments, et caractérisés par un mode de composition non additif et irréversible. Sur le terrain de la pensée, ces « gestalt » non additives ne suffisent plus à expliquer le mécanisme des opérations intellectuelles et nous avons été conduit à lui substituer la notion de structures d’ensemble opératoires 261 (ce vers quoi a fini par tendre Wertheimer lui-même, l’un des fondateurs de la Gestalttheorie, comme le montre son dernier ouvrage posthume 272). Ce sont ces structures opératoires (dont il a déjà été question au § 2) que nous allons comparer aux structures mathématiques, et non pas naturelle-

ment les « gestalt », qui ne nous paraissent pas constituer la source des autres structures mentales (malgré les espoirs initiaux de la théorie de la forme) et qui constituent un cas particulier relatif à certains domaines (effets perceptifs de champ, etc.).

Il est en effet clair qu’il existe une certaine parenté entre les trois structures fondamentales ou « structures mères » de Bourbaki et les structures les plus élémentaires qui sont élaborées au cours du développement des opérations logico-mathématiques chez l’enfant. Mais il s’agira d’analyser de près en quoi consiste cette parenté et pour cela l’organisation d’un travail d’équipe entre mathématiciens et psychologues sera nécessaire comme dans le domaine des relations entre les structures logiques et les activités mentales du sujet.

Bornons nous donc pour l’instant à rappeler les données psychologiques dont nous disposons déjà actuellement et qui permettent de justifier avec quelque optimisme l’étude d’une telle parenté.

A commencer par les « structures algébriques », on en trouve un certain nombre de cas particuliers chez l’enfant dès le niveau des opérations « concrètes » (niveau III) et, chose intéressante, dès le niveau sensori-moteur sous une forme simplement pratique (niveau I). Il convient d’insister à cet égard sur le fait que, si tardive qu’ait été la découverte de la notion de « groupe » en tant qu’être mathématique (Galois au XIXe siècle), ses propriétés les plus générales expriment en réalité certains des mécanismes les plus caractéristiques de l’intelligence. Par exemple, le fait que le produit de deux opérations du groupe donne encore une opération du groupe correspond à la coordination de deux schèmes d’action en un nouveau schème du même système d’actions ; le fait qu’à une opération du groupe correspond toujours une opération inverse exprime la réversibilité des actions devenues ainsi opératoires et, sur le plan pratique, exprime la conduite du « retour » ; le fait que le produit d’une opération et de son inverse donne l’opération identique ou nulle correspond à la possibilité lors d’une conduite de retour de retrouver le point de départ inchangé ; enfin, l’associativité du groupe correspond à la possibilité d’atteindre un même point d’arrivée par des chemins différents, autrement

dit, sur le plan pratique, à la conduite du « détour ». C’est pourquoi il n’est nullement absurde de considérer les détours et les retours d’un bébé d’1 1/2 à 2 ans, une fois achevée la structuration de son espace pratique et proche, comme caractéristiques d’un « groupe de déplacements », mais en actions et non encore en représentations. C’est ce qu’avait déjà remarqué H. Poincaré, à cette réserve près qu’il considérait ce groupe comme inné, alors qu’il constitue la forme d’équilibre finale d’un développement relativement complexe (avec décentration à partir d’un état initial de centration sur le corps propre, où le groupe est encore impossible faute de trajectoires autonomes des mobiles et de permanence des objets).

Mais c’est au niveau des opérations concrètes (niveau III) que le groupe et les structures algébriques en général prennent toute leur importance. La principale caractéristique de l’emploi de la structure de groupe est sans doute, en effet, la constitution d’« invariants » ; or, c’est précisément à ce niveau de développement que l’enfant, après avoir ignoré ou nié la conservation des formes les plus élémentaires de quantités, en arrive à considérer comme nécessaire l’invariance des ensembles logiques et numériques, des longueurs et des distances, des quantités physiques continues, etc. Et l’examen de la constitution de ces divers invariants met en évidence, en chaque cas particulier, l’intervention d’une structure réversible soit de groupe proprement dit (une transformation et son inverse), soit de « groupement », etc. (voir au § 2). Lorsque l’on songe que la constitution progressive de ces invariants a échappé à l’attention de tous les pédagogues, ainsi d’ailleurs qu’à celle des psychologues, tant les uns et les autre les considéraient comme devant aller de soi à tout âge, on ne peut qu’être frappé de l’importance des structures algébriques pour l’intelligence en général, et de leur caractère spontané, c’est-à-dire relativement indépendant de l’enseignement scolaire explicite.

Quant aux « structures d’ordre », elles sont sous leurs formes élémentaires (sériation, correspondances sériales, etc.), tout aussi importantes et tout aussi spontanées que les structures algébriques, et leur élaboration s’effectue parallèlement et en synchronisme complet avec elles, mais partant sur les systèmes de relations et non plus de classes. Ces structures d’ordre aboutissent notamment à la constitution de la réversibilité par réci-

procité qui joue un rôle aussi essentiel que l’inversion dans le fonctionnement de l’intelligence en général et des structures logico-mathématiques.

Restent les structures topologiques dont la liaison avec les mécanismes spontanés de l’organisation intellectuelle semble au premier abord moins évidente. Mais ce n’est là qu’une apparence, due aux préjugés de notre enseignement scolaire élémentaire qui nous poussent à considérer, conformément à l’ordre historique de la constitution des notions géométriques, les intuitions métriques euclidiennes comme la forme nécessaire de départ de l’organisation de l’espace. Or, il se trouve que, selon la ligne générale des constatations psychologiques que nous rappelons ici, l’ordre de construction génétique des notions spatiales est à la fois inverse de l’ordre historique des découvertes géométriques et conforme, par conséquent, à l’ordre axiomatique de la construction des géométries. Historiquement, la création de la géométrie métrique euclidienne a précédé de nombreux siècles celle de la géométrie projective tandis que la topologie, conformément au renversement dû à la loi de prise de conscience que nous rappelions plus haut, n’a été élaborée qu’en dernier lieu en vertu même de son caractère formateur primitif. Axiomatiquement, au contraire, la topologie est à situer au point de départ de la construction géométrique, tandis que d’elles peuvent être dérivées parallèlement la géométrie projective, d’une part et la métrique euclidienne, d’autre part (celle ci par l’intermédiaire de la métrique générale) ; en outre les groupes projectifs et le groupe des déplacements euclidiens sont eux mêmes reliés entre eux par des structures intermédiaires telles que les groupes de la géométrie affine et des similitudes. 281 Or, il est d’un grand intérêt de constater que les intuitions spatiales les plus élémentaires de l’enfant sont de nature topologique, du moins sur le plan de la représentation imagée et du dessin par opposition aux conduites sensori-motrices et perceptives (mais sur ce plan plus primitif on retrouve sans doute la même évolution, qui préfigure ou anticipe simplement celle des représentations). C’est ainsi que les premières représentations figurales de l’enfant ne tiennent compte que des propriétés de voisinage et de séparation, de

continuité et de discontinuité, de fermeture et d’ouverture, d’intériorité et d’extériorité par rapport à une frontière (y compris la position sur la frontière), etc., par opposition aux propriétés des droites, des angles, des parallèles, etc. Par exemple à un âge où il dessine indistinctement les carrés, rectangles, triangles et cercles comme des courbes fermées, l’enfant de 3 ans environ distinguera une croix ou un anneau ouvert de ces courbes fermées et saura représenter par rapport à une courbe fermée un petit anneau intérieur à sa frontière, extérieur ou placé sur la frontière. C’est à partir de ces relations topologiques que s’élaborent ensuite, mais parallèlement et synchroniquement, les relations projectives (par différenciation des « points de vue »), les relations euclidiennes (par introduction des invariants de distance) et certains cas particuliers ’de relations affines (conservation des parallèles) et de similitude (conservation des parallèles et des angles).

Mais s’il existe ainsi une convergence remarquable entre l’ordre axiomatique et l’ordre génétique des constructions, ce qui justifie le caractère naturel des structures topologiques en ce qui concerne le continu (comme des structures algébriques et des structures d’ordre en ce qui concerne les ensembles quelconques), il n’en faut pas moins souligner la différence considérable suivante : tandis que les trois structures mères des Bourbaki sont de nature générale et abstraite, leurs représentants génétiques dans le développement des opérations logico-mathématiques de l’enfant sont constituées par de simples cas particuliers très limités et très concrets (notamment dans le domaine topologique, où il s’agit de ce qu’on pourrait appeler une topologie euclidienne). 291 Autrement dit, le primitif, axiomatiquement parlant, coïncide avec le plus général, tandis que l’élémentaire, génétiquement parlant, consiste en une sorte d’exemplarité limitée et concrète de structures dont le caractère général demeure en quelque sorte virtuel. Remarquons d’ailleurs que la question est à peu près la même en ce qui concerne les structures logiques, les normes S du sujet (dont nous parlions au § 2) consistant en structures faibles par opposition à leurs correspondants axiomatisés F qui sont beau-

en présence d’un problème de portée assez large et que l’on pourrait appeler celui des rapports entre le général et l’élémentaire, autrement dit entre le fondamental axiomatique et le primitif génétique.

Il va donc de soi que, pour discuter de façon efficace un tel problème, un travail d’équipe est à nouveau nécessaire, de manière à dégager le détail de ces rapports entre l’élémentaire génétique et le général axiomatique. Une telle recherche pourrait être conduite à propos de chacune. des trois « structures mères » des Bourbaki. En ce qui concerne la structure topologique, on pourrait presque chercher à mettre en correspondance les axiomes successifs qu’introduisent, par exemple, Alexandroif et Hopf 301 ou les opérations successives de Kuratowski 312 avec les conduites spatiales de l’enfant rangées dans leur ordre de formation. Jadis le logicien J. Nicod (l’auteur du célèbre « axiome unique » susceptible de fonder la logique des propositions), s’était intéressé à une sorte de genèse de l’espace dans un tel esprit de rapprochement entre l’axiomatique géométrique et nos conduites les plus simples relatives aux objets : 323 mais il ne s’agissait que d’une genèse idéale et l’étude de la genèse réelle supposerait une collaboration dans le détail entre mathématiciens et psychologues.

Nous avons insisté sur le problème des structures parce que c’est le plus général. Mais un grand nombre de questions plus restreintes pourraient donner lieu à une collaboration analogue, en ce qui concerne, en particulier, certaines notions, de signification courante et en apparence évidente, qu’utilise parfois le mathématicien par simples postulats ou conventions, alors qu’elles recouvrent une grande complexité psychologique ou opératoire.

Telle est, par exemple, la notion du « distinct ». Lorsque Russell, à la suite de Frege, réduit le nombre cardinal à la classe logique sans intervention de l’ordre, il admet la possibilité d’une correspondance un à un, c’est-à-dire bi-univoque et réciproque entre les membres individuels de deux classes

rendues ainsi équivalentes, et il est facile de trouver chez l’enfant de telles conduites qui justifieraient en apparence la thèse de Frege Russell en ce qui concerne la formation du nombre cardinal. Mais, pour qu’une telle correspondance soit possible, il est naturellement nécessaire que les éléments de chacune de ces deux classes soient distingués les uns des autres. Sur quoi se fonde alors cette propriété qu’ils présentent d’être « distincts » ? Dans le cas où ces éléments possèdent des caractères qualitatifs différents (tels que ceux d’individus vivants, dont deux quelconques ne sont jamais entièrement ressemblants), on peut assurément faire appel à ces différences qualifiées, encore que ce soit un mauvais argument, car on commence alors par fonder la correspondance sur des qualités dont on fait ensuite abstraction pour transformer les individus qualifiés en unités numériques homogènes ! Mais si les éléments individuels sont tous exactement pareils (comme des jetons, etc., que l’on choisira sans distinction apparente) ? Ici le « distinct » suppose évidemment un ordre, soit spatial (rangée), soit temporel, sot simplement relatif aux conduites d’énumération ou de numérotation du sujet. Ainsi le distinct suppose peut être toujours ou des qualités dont on fait par ailleurs abstraction ou un ordre dont on prétend éviter l’intervention. Quand le mathématicien utilise sans critique le terme de « distinct » en admettant, par définition conventionnelle, l’existence d’une classe, finie ou infinie, d’éléments non ordonnés mais distincts, ou bien il se place au point de vue d’un Dieu qui pourrait se dispenser de l’usage de nos opérations intellectuelles (ce qui simplifierait ses critères de la non contradiction), ou bien il recouvre d’un mot un ensemble d’opérations implicites qu’il serait épistémologiquement intéressant de dégager, car toute la question de la construction du nombre dépend de telles connexions cachées entre les opérations elles mêmes. A cet égard il pourrait même être important d’étudier les connexions entre opérations comme telles, qui sont sans doute distinctes des liaisons entre les notions intervenant en une axiomatique, car si, en bonne règle, l’on doit s’en tenir à la seule définition des notions définies sans faire intervenir en rien leurs autres significations possibles et en bannissant ainsi toute intervention de l’« implicite », il reste à considérer les indéfinissables, et ce sont peut être ces notions indispensables de départ qui dissimuleront toute la complexité opératoire dont il s’agirait de faire l’analyse.

D’autres notions qu’il serait sans doute instructif d’étudier en équipes seraient certains concepts de la théorie des probabilités comportant des implications psychologiques ou opératoires, par exemple celle de la probabilité d’un événement isolé. On sait que pour certains mathématiciens comme V. Mises et Reichenbach, toute probabilité est relative à une collection d’événements. Mais d’autres théoriciens, comme E. Borel ont au contraire voulu sauvegarder l’intuition de la probabilité d’un événement unique, comme le jugement d’un médecin sur le décès probable d’un malade atteint d’une forme rare de tuberculose, de telle sorte que sa classe « se réduirait à la limite à un cas unique ». 331 Mais il se pose alors un problème psychologique, qui est de savoir si l’évaluation de tels cas même supposés uniques, n’implique pas toujours une série d’expériences antérieures, donc malgré tout une table implicite de distribution. De même qu’en logique le « nécessaire » en compréhension correspond au « toujours » en extension, de même il se pourrait que le « plus ou moins probable » en compréhension soit le corrélatif obligé du « plus ou moins fréquent » en extension… On pourrait, de manière plus générale se livrer entre mathématiciens et psychologues, à une étude systématique de la notion de probabilité subjective, notamment dans les cas où cette notion se conforme ou ne se conforme pas aux axiomes d’additivité (cf. les travaux de Ward Edwards).

§ 4. Problèmes d’épistémologie génétique en relation avec la physique.

On pourrait supposer, que l’épistémologie génétique des sciences expérimentales soulève des problèmes d’une autre nature que celle des sciences formelles, en ce sens que celles-là présenteraient une filiation moins directe que celles ci à partir de la pensée commune l’enfant est toujours, dès un certain niveau, plus ou moins mathématicien et logicien, tandis

qu’il semble au premier abord moins orienté vers la connaissance physique et moins encore vers la connaissance biologique. Dès lors, si l’on peut chercher dans le développement de l’enfant les racines du nombre, de l’espace et des structures logiques, il serait impossible de remonter sur ce terrain à la psychogenèse de notions comme celles de « spin » ou d’« invariant relativiste ».

Rappelons d’abord que l’épistémologie génétique ne saurait se limiter aux niveaux élémentaires et qu’un aspect essentiel de l’étude de la genèse des concepts consisterait à suivre leur construction jusque chez l’adulte et chez le savant qui les modifie et en crée de nouveaux. Cette recherche n’a pas été entreprise jusqu’ici parce que les rares auteurs s’intéressant au langage réel de l’adulte (Arne Naess) ne se sont pas placés dans une perspective génétique et que ceux qui ont adopté cette dernière ne se sont pas encore occupé de l’adulte. Mais il est clair que le cadre de l’épistémologie génétique dépasse très largement celui de la psychologie de l’enfant.

Cela dit, il n’est nullement évident a priori que la relation entre les sciences expérimentales et la pensée commune, même si la libération et la constitution autonome de ces sciences par rapport à cette pensée ont été tardives historiquement (et même si ce retard s’explique génétiquement), soit d’une autre nature que la relation entre les sciences formelles et la connaissance logico-mathématique préscientifique. D’une part, en effet, un grand nombre de notions physiques tirent leur origine de notions communes s’élaborant déjà au cours de l’enfance : notions de temps et de vitesse, de force (ou de travail, etc.) de masse et de poids, de loi, de hasard et de causalité, etc. D’autre part, si les transformations et la désanthropomorphisation nécessaires pour conférer un statut scientifique aux notions tirées de la connaissance commune paraissent plus considérables dans le cas des concepts physiques que dans celui des concepts logico-mathématiques, cela est peut être dû au fait que l’on oublie (ou que l’on ignore simplement) les stades initiaux au cours desquels les derniers concepts se présentaient sous une forme préopératoire encore dominée par de nombreuses adhérences subjectives (non conservation, etc.).

La vraie raison des hésitations que l’on peut éprouver quant au rendement possible des recherches génétiques en épistémo-

logie physique tient sans doute davantage aux attitudes historiques courantes des physiciens envers la psychologie, comparées à celles des mathématiciens.

Parmi les représentants des sciences exactes s’intéressant à l’épistémologie, les mathématiciens ont toujours été, en effet, ceux qui ont le plus volontiers fait appel à des considérations génétiques ou au moins psychologiques. Et la chose se comprend d’elle même, car, si portés qu’ils aient pu l’être par ailleurs vers un certain platonisme ou tout au moins vers l’idéal d’une « objectivité intrinsèque » indépendante de la libre construction individuelle, le fait que les objets de leur science aient été ou inventés ou découverts par le seul secours de la déduction ou de l’intuition, c’est-à-dire de mécanismes mentaux sans emploi d’appareils ni de techniques de laboratoire, a naturellement rendu les mathématiciens plus accessibles à l’idée d’un rapprochement avec les données psychologiques. Par contre, sauf lorsqu’ils s’efforçaient de lier leur épistémologie à une philosophie plus générale des sciences, comme l’empirisme (Helmholtz) et l’idéalisme de la sensation (Mach), les physiciens ont été beaucoup plus réservés et ce n’est que récemment, lorsqu’ils ont découvert le rôle nécessaire des activités de l’observateur, dans l’organisation et la lecture même des données de l’expérience qu’ils se sont rapprochés de la psychologie, mais souvent sans en prendre conscience. Ce rapprochement ne fera sans doute que s’accentuer, à la double condition seulement de se libérer de l’emprise illégitime qu’a réussi à acquérir l’hypothèse simpliste de l’origine sensorielle de nos notions physiques et de se placer à un point de vue résolument opératoire, dans la direction indiquée par Bridgman, mais en replaçant l’opération dans son développement réel et dans un contexte psychologique qui lui restitue, en même temps que sa dimension génétique, sa signification entière d’instrument de connaissance.

On peut à cet égard invoquer un exemple récent qui démontre à lui seul la possibilité d’une collaboration entre physiciens et psychologues et qui indique par conséquent le genre de rendement qu’il est raisonnable d’escompter d’une épistémologie physique de caractère génétique.

Il y a de nombreuses années déjà (en 1928), A. Einstein, qui présidait en Suisse des entretiens de philosophie des scien-

ces, s’était intéressé à quelques-uns de nos résultats concernant la causalité physique chez l’enfant et nous avait conseillé de mettre à l’étude le problème suivant : l’intuition de la vitesse suppose-t-elle, dans sa formation, une compréhension préalable de la durée ou se constitue-t-elle indépendamment de cette dernière notion ? On sait, en effet, que, dans la mécanique classique, la vitesse y apparaît comme constituant un rapport v = e : t tandis que les deux termes de ce rapport, c’est-à-dire l’espace parcouru e et la durée employée t constitueraient deux intuitions élémentaires, ou, comme on disait au XVIIe siècle deux « natures simples ». Pour la mécanique relativiste, au contraire, la durée apparaît comme relative à la vitesse et la vitesse comme une donnée première, comportant un maximum et dans ce cas présentant également une propriété d’isotropie que confirme d’ailleurs l’expérience.

Nous nous sommes donc mis au travail, et, après une série d’expériences plus laborieuses que l’on aurait pu prévoir, avons abouti en 1945 et 46 à la publication de deux ouvrages, sur la genèse de l’idée de temps 341 et sur les notions de mouvement et de vitesse chez l’enfant, 352 dont voici, très sommairement, les conclusions essentielles.

Il ne semble pas exister, tout d’abord, d’intuition primitive de la durée, par opposition à l’ordre de succession plus facile à saisir en fonction de l’organisation du contenu temporel c’est-à-dire des événements eux-mêmes. L’estimation de la simultanéité ainsi que des durées totalement ou partiellement synchrones dépend en partie de l’égalité ou de l’inégalité de vitesse des mobiles : facile quand les vitesses sont égales (avec mêmes points de départ et d’arrivée) cette estimation est rendue plus complexe en cas d’inégalité des vitesses comme si deux mouvements de vitesses inégales ne présentaient pas au cours des premiers stades, de dimension temporelle commune. Bref, le temps apparaît comme une coordination des vitesses, tandis que l’espace physique est une coordination des mouvements abstraction faite des vitesses.

Quant à la vitesse, elle donne lieu au contraire en certains cas privilégiés à une intuition primitive fondée sur les relations d’ordre : c’est celle du dépassement. Un mobile A qui se trouve en arrière de B en un état 1 et le devance en un état 2 est jugé à tout âge comme plus rapide que B. Si les trajets sont masqués par des tunnels de longueur très inégale, avec points de départ et d’arrivée respectivement simultanés, l’enfant juge les vitesses égales sans s’occuper des inégalités d’espaces parcourus dans le même temps, mais si l’on enlève les tunnels et que le dépassement redevient visible, l’estimation redevient correcte. De même deux mobiles parcourant de front deux pistes concentriques de longueurs très inégales ne peuvent donner lieu à une estimation correcte des vitesses faute de dépassement. C’est donc à partir de l’intuition du dépassement que se construit la notion de vitesse, par une généralisation conduisant d’abord à un schème de dépassement virtuel, pour aboutir à la structuration solidaire de la durée conçue comme proportionnelle à l’espace parcouru rapporté aux vitesses (t = e : y) et de la vitesse conçue comme le rapport complémentaire v = e : t.

Ajoutons que la perception comme telle de la vitesse est encore mal connue, par opposition aux compositions notionnelles ou représentatives (de caractère préopératoire) que nous venons de rappeler. Mais elle ne saurait constituer la source du rapport v = e : t car il n’y a ni perception correcte de la durée t ni perception correcte de l’espace parcouru e (sur ce point les arrivées constituent aussi l’indice dominant).

Or, ces résultats psychogénétiques sur les notions de temps et de vitesse, aboutissements d’une recherche inspirée par le créateur de la théorie de la relativité, sont récemment retournés à la physique relativiste sous une forme qui nous paraît très significative du point de vue des échanges possibles entre les deux disciplines. Il faut d’abord se souvenir du fait que, antérieurement à la théorie de la relativité, les relations entre le temps et la vitesse ont toujours présenté une sorte de cercle vicieux : on définit, d’une part, la vitesse en utilisant le temps, mais on mesure celui-ci, d’autre part, au moyen de petites oscillations ou de mouvements uniformes qui impliquent la vitesse.

Or, un physicien français, M. J. Abelé, 361 partant de nos recherches en psychologie de l’enfant, a eu l’idée de chercher dans la réduction du concept de vitesse à celui du dépassement un moyen d’échapper à ce cercle vicieux, tout en expliquant simultanément par ailleurs, pourquoi la notion de vitesse est plus primitive que celle de durée, pourquoi la vitesse présente un maximum et finalement pourquoi on doit admettre, en partant de ces prémisses, le principe d’isotropie de la vitesse de la lumière qui restait un peu mystérieux dans l’exposé initial de la relativité. En effet, conçue comme un simple dépassement, la vitesse, nous dit M. Abelé, devient une « grandeur qualitative » (ou quantité intensive). On ne la mesurera donc pas directement, mais en ordonnant les vitesses par une série de dépassements superposés, on en construira la fonction additive par l’introduction d’un groupe abélien et d’une expression logarithmique. On tirera ainsi, d’une part, de cette fonction additive, la loi de composition des vitesses propre à la relativité. En outre, en introduisant la « distance cinématique » entre deux vitesses constantes et de même direction, on aboutira à une expression de l’accélération invariante par rapport aux transformations de Lorentz et surtout à une expression unique pour la masse en mouvement, ce qui permet alors de retrouver la propriété d’isotropie de la vitesse de la lumière. On cherchera d’autre part, à expliquer pourquoi la vitesse en tant que grandeur qualitative présente, un tel maximum.

Il est d’un certain intérêt pour la psychologie et pour l’épistémologie génétiques de constater que, en retraçant la formation réelle d’une notion, par l’analyse des réactions spontanées de l’enfant, on peut ainsi aboutir à un schéma suffisamment élémentaire pour permettre à un physicien de repenser la construction théorique propre à un schéma aussi abstrait que la relativité, et surtout à un domaine portant sur une échelle de phénomènes aussi différente de celle des vitesses usuelles de l’expérience quotidienne.

Néanmoins la collaboration ainsi esquissée entre la déduction physique et l’analyse psychogénétique ne nous paraît pas achevée sur ce point, pour les deux raisons complémentaires

suivantes. La première est que, comme nous le disions plus haut, la perception même de la vitesse nous est encore mal connue, par opposition aux représentations préopératoires et aux premières opérations : or, l’analyse de cette perception comme telle peut introduire de nouveaux éléments d’information. En second lieu M. Abelé, qui ne distingue pas la perception de la représentation préopératoire, nous paraît enclin à traiter la vitesse comme une sorte d’intensité perceptive (voir son chapitre plein d’intérêt sur la loi de Fechner et la mesure des qualités par l’introduction d’un système logarithmique). Or, ce qui est sans doute l’essentiel, génétiquement parlant, dans l’idée du dépassement, c’est la notion du changement d’ordre, notion reliée aux relations d’ordre qui caractérisent de façon générale le primat des intuitions topologiques de l’enfant, par opposition aux relations métriques toujours ultérieures. D’un tel point de vue le dépassement ne comporte par lui-même aucun maximum, faute de constituer une qualité simple. Les questions qui se posent alors sont de savoir si, d’un tel point de vue, la construction physique de M. Abelé demeure inchangée, ce que nous croyons volontiers, 371 mais également si l’antithèse épistémologique entre le qualitatif et le spatial, que l’on pourrait tirer de son ouvrage (en réaction contre la géométrisation cartésienne) se justifie elle aussi, ce dont nous douterions davantage.

En bref, il y a là un beau terrain de coordination entre de nouveaux travaux d’épistémologie physique et de nouvelles recherches psychogénétiques, et nous espérons pouvoir y revenir un jour. On peut de même concevoir une série de recherches en commun sur certains problèmes classiques, comme le mécanisme de formation des notions ou principes de conservation, etc., ou sur des problèmes plus récents tels que d’expliquer psychologiquement pourquoi nous parvenons avec tant d’aisance à nous libérer, en raison des progrès de la microphysique, des intuitions qui paraissaient les plus nécessaires et à certains égards les plus a priori (objet permanent, continuité, etc.).

Mais, par symétrie avec les questions problèmes d’intérêt général que nous avons soulevées à propos de la logique et des

mathématiques, nous aimerions plutôt insister, à propos de la physique, sur deux grands problèmes qui correspondent respectivement à celui des relations entre la logique et les activités du sujet et à celui du caractère « naturel » des structures mathématiques eu égard à la coordination des actions du sujet sur les objets.

Le premier de ces problèmes généraux est celui de la lecture de l’expérience en physique. En ce qui concerne la lecture de l’expérience scientifique, c’est-à-dire la manière dont le physicien en son laboratoire prend acte des caractères des phénomènes qui se produisent en réponse aux questions qu’il a posées à la nature par l’intermédiaire de divers dispositifs expérimentaux, on sait que les opinions des épistémologistes de la physique diffèrent étonnamment les unes les autres.

A l’un des pôles extrêmes de cet ensemble de doctrines, on trouve l’opinion suivant laquelle la lecture de l’expérience est effectivement une lecture, c’est-à-dire un simple enregistrement de données sensorielles dans lesquelles l’activité du sujet connaissant (donc du physicien) intervient au minimum. C’est ainsi que le grand physicien Mach croyait faire de la physique avec ses organes des sens et admettait que lire l’expérience consiste seulement à percevoir ce qui se produit dans les objets sur lesquels on expérimente. Or, cette doctrine radicale a constitué, comme on le sait, l’une des deux sources de l’empirisme logique, par l’intermédiaire du Cercle de Vienne qui a hérité de Mach son empirisme sensoriel, 381 mais en lui ajoutant la nécessité d’une coordination avec la logique.

Le pôle opposé des opinions sur la lecture de l’expérience est représenté sous une forme extrême par la doctrine épistémologique du physicien français Duhem, dont H. Poincaré était fort voisin sur le terrain de la théorie physique. Pour Duhem, la lecture de l’expérience ne constitue en réalité jamais une simple « lecture », étant donné que le contact le plus immédiat possible du sujet de la connaissance scientifique avec les faits est déjà une interprétation. Lorsque par exemple, le physicien regardant un appareil électrique dit « le courant passe », il ne perçoit rien de plus que les oscillations d’une aiguille, et, pour tirer de cette perception la constatation du fait que le courant

passe (alors que l’homme de la rue n’aurait rien vu ou aurait conféré à ce qu’il voyait une toute autre signification), il faut nécessairement qu’il se fonde sur une série complexe d’interprétations : il faut, en effet, qu’il comprenne la structure de l’instrument qu’il utilise, il faut qu’il sache mettre l’aiguille oscillante en relation avec les autres parties de ce dispositif et il faut surtout qu’il confère à la notion de courant électrique un sens ou une portée qui dépendent en réalité de toute une élaboration théorique. En d’autres termes, selon Duhem, il n’existe pas de fait sans interprétation et pas d’interprétation sans une structuration déjà relativement abstraite. C’est pourquoi Duhem en est venu jusqu’à nier la possibilité d’une « expérience cruciale », car la réponse à une telle expérience soi disant cruciale est toujours relative à un système d’interprétations, de telle sorte que l’on n’obtient jamais ni un « oui » ni un « non » absolus, mais toujours et seulement une donnée déjà interprétée — mais plus ou moins facilement ou difficilement — en fonction des théories de départ.

Avant d’examiner en quoi ce débat pourrait donner lieu à une collaboration utile entre l’épistémologie physique et les recherches psychogénétiques, notons combien ce problème de la pure lecture des faits, ou de la lecture conditionnée dès son premier début par une interprétation, est en réalité voisin du problème des relations entre la logique et les activités du sujet dont nous avons parlé au § 2. En effet, dans la mesure où la lecture de l’expérience ne consistera pas en un simple enregistrement de données sensorielles, mais impliquera dès le départ une certaine structuration due aux activités du sujet, il faudra alors s’attendre à trouver une certaine logique au sein de ces activités, antérieurement au niveau de la communication et des syntaxes et sémantiques verbales ; inversement, dans la mesure où les lectures se réduisent à de simples enregistrements perceptifs, il est alors possible de séparer nettement le contenu empirique de la forme logique et même de caractériser les lois logiques par un mode de vérité ne dépendant que des règles de signification données aux termes du langage.

Il est fort intéressant de suivre de ce point de vue l’évolution de l’empirisme logique. Il est vrai que cette doctrine n’a jamais prétendu étudier la formation réelle des concepts scientifiques ni des propositions, et qu’elle s’est donnée pour seul

but de préciser le statut respectif des vérités de fait et des vérités formelles, ainsi que les critères de leur distinction. Mais il va de soi que la manière même dont on analysera ou dont on décrira les expériences confirmant ou infirmant un énoncé de fait se réfère nécessairement à certains caractères mentaux du sujet (perception, etc.) et soulève ainsi des problèmes de psychogenèse et d’épistémologie génétique.

Or, après une première phase au cours de laquelle les vérités logiques étaient conçues comme relevant d’une pure syntaxe et les vérités de fait comme appuyées sur de simples « Protokollsâtze », ce qui dans les deux cas réduisaient au minimum les activités du sujet, 391 l’empirisme logique a révisé depuis lors ses thèses, et ceci en attribuant, dans les deux domaines un rôle plus important à ces activités. Nous avons déjà rappelé comment sur le plan de la vérité logique, Carnap a complété sa syntaxe par l’appel à une sémantique et, depuis lors, à une pragmatique. Sur le terrain des vérités de fait, il a, d’autre part, notamment enrichi sa position 402 en admettant qu’il n’existe pas d’énoncés d’observables parfaitement certains, et surtout (1950, p. 455) qu’il n’existe pas de distinction tranchée entre les énoncés d’observations et les énoncés théoriques (« between observables and non observables prédicates »). Comme le dit Feigl, l’adoption de ces critères plus libéraux de signification permet alors de faire une plus grande part aux inférences dans l’observation des faits et d’abandonner le phénoménisme radical au profit d’un certain réalisme empiriste et critique (1954, p. 109).

Mais le problème se pose en ce cas d’une façon d’autant plus aiguë de déterminer en quoi consiste une observation ou une lecture de fait, du point de vue du sujet. Après avoir défini la notion de « base suffisante de réduction », Carnap soutient (1950, p. 469) que la classe des termes perceptifs constitue, du

point de vue du positivisme, une base suffisante de réduction pour le langage de la science. Seulement tout ce que nous a appris l’analyse génétique des perceptions, ainsi que des relations entre la perception et les schèmes sensori-moteurs, ou les schèmes représentatifs préopératoires, et finalement entre les perceptions et l’activité opératoire, conduit à une révision générale de ce problème du rôle de la perception dans la connaissance empirique. La première difficulté consisterait même à s’entendre sur la définition de la perception et de la « class of perception terms », car il n’existe sans doute pas de perception fondée sur les seules données sensorielles : la perception ajoute toujours à ces données un ensemble de liaisons de complexité variable et s’étageant de façon continue entre les perceptives primaires, celles que construisent les activités perceptives de différents niveaux et les liaisons dues aux inférences représentatives élémentaires. Le problème essentiel reviendrait alors à dissocier ce qui est donné et ce qui est construit, puis de différencier les différents modes de construction ou de composition, ce qui ferait sans doute perdre à la perception le privilège de simplicité qu’on lui a conféré aux époques précritiques de la psychologie. On s’apercevra par le fait même qu’une certaine logique intervient à tous les étages du schématisme permettant d’appréhender les propriétés de l’objet, ce qui excluerait l’hypothèse d’un simple dualisme entre les données perceptives synthétiques et le langage analytique ou tautologique.

D’autre part, il est fort suggestif de constater que, si les épistémologistes de la physique hésitent, comme on l’a vu, entre un grand nombre de solutions possibles sur la question de savoir en quoi consiste la lecture d’une expérience, les physiciens eux mêmes en tant que techniciens et non plus seulement en tant que théoriciens de l’expérience se sont assigné la tâche d’organiser cette lecture d’une façon rationnelle et de déterminer à quelles conditions l’expérimentateur échappera au maximum aux illusions possibles liées à l’enregistrement des données. Or, d’un tel point de vue on en est venu à concevoir la lecture de l’expérience comme une sorte de stratégie relevant de la « théorie des jeux », 411 au cours de laquelle l’expérimenta-

teur en lutte avec la nature dispose ses batteries au préalable (et non plus après coup comme dans les méthodes statistiques classiques de correction des erreurs), en vue de minimiser les pertes maximales que pourrait infliger le déroulement des faits observés. En situant le problème des relations entre le sujet et l’objet au niveau de la mesure comme telle, ces méthodes sont d’un grand intérêt épistémologique : non seulement elles mettent plus que jamais en évidence l’activité du sujet dans le soi-disant enregistrement qui caractériserait la « lecture », mais encore elles tendent en un sens tout nouveau à psychologiser le processus expérimental.

On voit ainsi que le problème de la lecture de l’expérience constitue, sur le terrain de l’épistémologie physique, une sorte de contre-partie de ce qu’est la question des relations entre la logique et les activités du sujet, et cela va de soi puisque dans les deux cas le vrai problème est de déterminer la part d’activité que présente le sujet dans l’organisation de la connaissance. Mais alors, on comprend par cela même l’intérêt qu’il y aurait à remonter aux sources psychogénétiques de la connaissance physique et à faire collaborer sur la question même de la lecture de l’expérience, physiciens et psychologues en fonction de quelques exemples restreints et bien délimités.

En effet, si l’hypothèse d’une pure lecture des faits est soutenable, plus on se rapprochera des stades élémentaires et mieux l’on devra pouvoir mettre en évidence ce contact direct du sujet avec les objets ou de l’esprit avec les faits. Réciproquement, à supposer que l’on ne parvienne pas à atteindre ce contact au cours des stades élémentaires de la connaissance physique, cette constatation vaudra a fortiori au niveau de la connaissance scientifique (étant donné l’action cumulative de l’acquis antérieur), mais le problème se posera alors de comprendre comment le sujet connaissant parvient à l’objectivité après avoir interposé entre les objets et lui l’écran puis le fil conducteur de ses interprétations..,

Or, tous ces problèmes de la lecture de l’expérience, du rôle négatif ou positif des interprétations et de la constitution de l’objectivité présentent une signification très concrète dans les recherches psychogénétiques déjà entreprises au niveau des débuts de la connaissance physique. Pour ne citer qu’un exemple de lecture de l’expérience, il est frappant de constater com-

bien tardive est la possibilité pour l’enfant de prévoir par une représentation adéquate l’horizontalité du niveau de l’eau dans un bocal que l’on incline de différentes manières ou la verticalité du fil à plomb si on le suspend face à des parois d’inclinaisons diverses. Dans les deux cas le problème n’est résolu systématiquement que vers 9-10 ans 421 non pas à cause de petites erreurs perceptives, mais au contraire faute de systèmes de référence : c’est ainsi que les sujets de 4 6 ans, après avoir dessiné sur une figure au trait préparée d’avance ce qui leur paraît devoir être la ligne du niveau de l’eau dans le bocal incliné à 45° ne sont ensuite pas capables, en présence du fait réel, de reconnaître que la surface de l’eau dans le bocal incliné ne se distribue pas conformément à leur dessin. Et s’ils n’en sont pas capables c’est simplement qu’ils ne savent pas encore mettre cette ligne de niveau en relation avec les diverses références constituées par le support du bocal, la table, les parois de la chambre, etc. Autrement dit la lecture même du fait suppose en ce cas un instrument mental d’enregistrement ou d’assimilation qui est constitué par un système de références et ce système consiste en un ensemble de mises en relation supposant à tous les niveaux l’activité interprétative du sujet. Et la preuve que la perception à elle seule ne suffit pas, c’est qu’on retrouve le problème des coordonnées jusque sur le plan perceptif lui même : par exemple la comparaison des longueurs d’une verticale et d’une oblique donne lieu à des erreurs bien moindres à 5-6 ans qu’à 9-10 ans ou chez l’adulte, 432 parce que les grands sont gênés par la différence d’inclinaison, tandis que les petits dont l’espace perceptif en général est moins structuré du point de vue des références et des coordonnées néglige plus facilement ces différences d’inclinaison (en contre-épreuve, on constate, en effet, qu’il juge perceptivement l’inclinaison comme telle avec une erreur bien supérieure à celle des grands !).

Il semble donc raisonnable d’admettre qu’en multipliant de telles recherches en liaison avec celles d’épistémologistes de la physique portant sur la lecture de l’expérience en général on ferait faire un certain progrès à cette dernière question, car (et

il est essentiel de se le rappeler) le problème des « observables » n’est pas de nature simplement normative mais aussi et essentiellement de nature psychologique et par conséquent psychogénétique.

Une autre grande question qu’il serait hautement instructif de traiter en commun entre physiciens et psychologues, mais pour laquelle l’épistémologie génétique devrait s’élargir dans la direction de cette sorte d’épistémologie expérimentale pratiquée par Arne Naess, serait celle de la nature de l’explication en physique, autrement dit du principe de causalité. Il est, en effet, stupéfiant de constater que, malgré le nombre d’écrits consacrés à ce sujet par l’épistémologie scientifique depuis la critique célèbre de la notion de cause par le positivisme classique, il règne encore parmi les hommes de science en général et même sur le terrain solide de la physique mathématique un flottement extraordinaire quant à la notion exacte de ce que l’on entend par « expliquer » un ensemble de phénomènes.

Il convient de partir à cet égard de deux constatations de fait, d’ailleurs complémentaires : l’une est que chacune des formules traditionnellement employées (expliquer c’est prévoir, ou déduire, ou reproduire au moyen d’un modèle, etc.) comporte en réalité les significations les plus hétérogènes ; l’autre est que, selon la fine remarque d’E. Meyerson, 441 les auteurs font autre chose dans l’organisation effective de leurs théories explicatives que ce qu’ils annoncent dans leurs préfaces, et cela, d’une part, à cause du respect des formules courantes (l’hommage au positivisme reste de règle chez des théoriciens qui en fait cherchent constamment à expliquer causalement et pas seulement à prévoir), et d’autre part, à cause de la difficulté systématique à prendre conscience des mécanismes intimes de la pensée en état de fonctionnement réel.

Reprenons le premier de ces deux points. Il est parfaitement clair qu’une théorie bien faite permet de prévoir, et que la prévision de phénomènes nouveaux constitue à certains égards le critère suprême de la réussite d’une théorie. Mais la question demeure alors de savoir si elle conduit à la prévision par ce qu’elle explique correctement ou si elle explique simplement du fait même qu’elle prévoit. Il y a là une équivoque dont on est

souvent dupe et la prévision comme telle peut aussi bien dériver d’une loi exacte mais non expliquée causalement que d’un système déductif contenant la raison de cette loi. Dire alors qu’expliquer c’est déduire représente sans doute un progrès, mais on peut déduire à nouveau de diverses manières une déduction par simple généralisation des quelques ou tous (ou inclusion des cas plus spéciaux dans les cas plus généraux) n’explique rien, mais recule les problèmes, tandis qu’une déduction constructive (réduisant les lois à une structure opératoire, tel qu’un groupe, etc.) explique davantage. On pourrait dire aussi qu’expliquer c’est produire et reproduire (et l’on s’étonne qu’Aug. Comte, avec ses préoccupations d’application, ait voulu écarter de la science des phénomènes la considération de leurs modes de production au profit de la simple prévision, au lieu de voir que cette étude conduit à la découverte de procédés de « production ») : mais on peut reproduire les phénomènes au moyen de modèles qui en constituent une simple schématisation sans en contenir la raison, tandis que la production d’autres modèles atteint une structure explicative. Qu’est ce alors qu’expliquer ?

Il est probable qu’on se trouve à cet égard en présence d’un problème qui constitue l’équivalent sur le plan physique, du problème des « structures » sur le terrain mathématique. S’il est avéré que toute explication causale comporte une part de déduction, tandis que toute déduction n’est pas explicative, la raison en est sans doute à chercher dans l’opposition entre les déductions portant simplement sur les relations de généralité et les déductions structurales aboutissant à un système de transformations interdépendantes. Le rôle que joue notamment la notion de groupe à toutes les échelles de l’explication en physique est remarquable de ce point de vue. 451

Mais comment conduire une recherche sur des sujets aussi généraux, qui n’aboutisse pas simplement à des discussions philosophiques et qui apporte réellement des éléments nouveaux au débat ? C’est ici que l’opposition signalée par E. Meyerson entre les préfaces et les oeuvres proprement dites présente son importance critique, et une réunion de physiciens

délibérant sur ce qu’ils considèrent comme constituant une explication causale risquerait de conduire à un prolongement des préfaces plus que des oeuvres elles-mêmes.

En ce qui concerne les physiciens, il conviendrait donc de pratiquer à leur égard ce genre d’analyses qu’Arne Naess a inaugurées et qui consiste à retracer le travail effectif du théoricien aux prises avec un problème pour saisir dans cette reconstitution les étapes essentielles constituées par le rejet d’hypothèses d’abord admises, mais jugées insuffisamment explicatives, puis par l’arrivée à l’explication trouvée. C’est en considérant ainsi le physicien comme une sorte de sujet supérieur à étudier du dehors, comme un sujet épistémologique en développement, que l’on arriverait peut être à saisir certains mobiles qui éclairerait en retour les données connues de l’histoire des sciences.

Mais il conviendrait alors de ne pas séparer une telle enquête des recherches proprement génétiques. L’explication en physique est en effet liée aux explications du sens commun par des liens multiples dont le principal est celui d’une correction progressive dans le sens d’une désanthropomorphisation ou plus simplement dit d’une décentration des éléments subjectifs au profit d’une construction de structures objectives. Dans différents essais introductifs d’une haute portée, Max Planck 461 a insisté sur le paradoxe de la liaison des notions physiques fondamentales avec les sources de la connaissance commune (Planck pense à une origine perceptive) et de la nécessité d’une désubjectivation progressive : l’explication physique des phénomènes ne satisfait l’esprit, en effet qu’à cette double condition d’utiliser des concepts d’origine concrète et de les libérer de ces attaches anthropomorphiques pour les orienter vers la conquête d’une réalité indépendante et d’ailleurs comme telle peut être inaccessible. Mais, si Planck caractérise ainsi de façon très suggestive les exigences générales d’une explication physique rationnelle (opposée à l’idéalisme sensoriel de Mach), il ne faut pas oublier que ce processus de décentration, en quoi consiste à proprement parler cette désubjectivation des notions explicatives primitivement attachées à l’activité propre, n’est pas l’apanage exclusif de la pensée scientifique mais débute

dès la pensée commune, et c’est pourquoi la dimension génétique est indispensable même pour l’étude de l’explication en physique mathématique.

Il est intéressant, par exemple, de noter que dès le niveau de la perception, où pourtant où il ne saurait être encore question d’une recherche d’explications, mais seulement de la prise de possession des qualités les plus élémentaires de l’objet, on assiste déjà à un conflit entre la centration, source d’illusions subjectives, et la décentration source d’objectivité : d’où la portée des « constances perspectives » de la couleur, de la forme et de la grandeur qui dissocient déjà sur certains points l’apparence de la réalité. Mais c’est au cours de tout le développement intellectuel de l’enfant que les alternances des centrations et décentrations représentatives sont des plus instructives, et permettent déjà d’atteindre le mécanisme de l’élimination graduelle des explications anthropomorphiques et de la constitution des premières explications rationnelles. Sans pouvoir entrer ici dans le détail, on s’aperçoit alors combien la décentration intellectuelle qui permet d’atteindre le réel par un processus continu d’application des opérations aux transformations objectives, ou, si l’on peut dire en un mot, d’extériorisation de ces opérations (par exemple à propos des explications de la conservation sous ses différentes formes), est solidaire et complémentaire du processus d’intériorisation qui conduit à la prise de conscience des structures opératoires. C’est pourquoi le problème de l’explication causale en physique est en réalité si proche, malgré les apparences, du problème des structures logico-mathématiques.

Ces brèves indications suffisent sans doute à montrer à nouveau que même sur le terrain de l’explication ou de la causalité, qui est le domaine classique des discussions de la philosophie des sciences, la perspective génétique peut présenter quelque fécondité.

§ 5. Problèmes d’épistémologie génétique en relation avec la biologie et avec la psychologie

L’enfant, au cours de son développement, élabore des structures logiques et un certain nombre de structures mathématiques. Il parvient, d’autre part, à construire quelques notions

physiques qui, de la pensée commune, sont héritées par les sciences qui les corrigent ou les rectifient de plus en plus profondément. Par contre, on ne saurait sans une certaine complaisance, parler d’une biologie du sens commun ou de la pensée enfantine, sinon pour désigner quelques notions essentiellement animistes qui ont peut être encombré plus que favorisé les débuts de la recherche biologique scientifique.

Cependant il est une notion d’origine spécifiquement enfantine (car elle caractérise déjà les innombrables « pourquoi » spontanés qui débutent dès 3-4 ans), qui est appliquée par l’enfant, par le sens commun et même par certaines formes élevées de la pensée préscientifique (la physique d’Aristote) à la presque totalité des phénomènes physiques comme biologiques, et qui a pesé sur toute l’histoire des sciences de la vie jusqu’à leur période actuelle : c’est la notion de finalité, que Descartes et une suite innombrable de continuateurs ont considérée comme irrationnelle et subjective, et dont un ensemble non moins important d’auteurs, parmi lesquels de nombreux contemporains, déclarent que la biologie ne saurait se passer…

Si l’épistémologie génétique présente quelque signification, autrement dit s’il est exact que l’étude de la formation et du développement réels d’une notion autorise un jugement sur sa valeur de connaissance, le concept de finalité doit donc pouvoir servir de pierre de touche quant à la validation d’une telle méthode. Notons à cet égard que le fait de considérer comme enfantine l’origine d’une notion ne comporte par cela même aucun jugement de valeur : les idées d’espace, de vitesse comme dépassement, etc., etc., sont d’origine enfantine sans être irrationnelles, tandis que celle d’animisme comporte une confusion de l’objectif et du subjectif. En ce qui concerne la finalité comme toute autre notion, dire qu’elle est d’origine enfantine signifie donc simplement que l’on peut espérer atteindre le mécanisme de sa formation avec des données d’observation et d’expérimentation plus complète que s’il s’agissait d’une notion tardive dont la complexité recouvrirait des années d’expérience acquise et une suite indéfinie de schèmes implicites. La notion de finalité constitue, autrement dit, un cas particulier de choix pour une étude comparée et génétique, dont le but serait de montrer simultanément pour quelles raisons tenant à sa formation elle comporte certains aspects justifiant

la fidélité de ses partisans, et pour quelles autres raisons, tenant également à son mode de formation, elle présente par ailleurs certains aspects expliquant la méfiance de ses adversaires.

Il se trouve, en effet, que l’idée de finalité recouvre un certain nombre de caractères dont tout le monde reconnaît la valeur, mais que certains auteurs considèrent comme n’impliquant aucun finalisme, et un certain nombre d’autres caractères que chacun ne reconnaît pas comme valables mais auxquels se réfèrent plusieurs définitions de la finalité. Il y a donc d’abord une question de sémantique à régler si l’on veut atteindre les problèmes réels.

La notion de finalité comporte d’abord trois significations sur lesquelles il semble bien que tous les auteurs soient d’accord, qu’ils soient finalistes ou anti-finalistes : ce sont celles (1) d’utilité fonctionnelle, (2) d’adaptation et (3) d’anticipation ou de régulation anticipatrice. Elle comporte, d’autre part, une dernière signification qui peut être liée ou non aux trois premières et sur laquelle porte tout le débat : (4) c’est celle de but ou de plan préétabli. Tout le problème de la finalité consiste donc à savoir si les significations (1) à (3) impliquent ou non la signification (4) et c’est sur ce point que les divergences commencent. Examinons donc brièvement une à une ces quatre significations avant d’indiquer en quoi la recherche psychogénétique serait peut être en mesure d’éclairer la discussion.

Mais il convient au préalable d’écarter un malentendu possible. L’inventaire des quatre significations que nous venons de distinguer et que nous allons commenter ne résulte pas d’une analyse systématique qui aurait été conduite selon les méthodes de l’épistémologie génétique ni même selon celles d’une épistémologie descriptive (statique) limitée à l’état contemporain de la biologie et de la psychologie. Il ne s’agit au contraire que d’une classification invoquée à titre d’exemple pour fixer les idées, et qui est tirée de notre seule expérience personnelle de psychologue (et d’ancien biologiste). Le but en est simplement de montrer qu’une étude génétique de la notion de finalité devrait commencer par dissocier certaines significations bien distinctes les unes des autres, de manière à discerner celles sur lesquelles peuvent porter les recherches psycho-génétiques

les plus élémentaires. 471 Mais il va de soi qu’au cas où un travail d’équipe devrait se consacrer systématiquement à un tel sujet, la première tâche consisterait à réexaminer la position des problèmes, dont nous ne donnons donc ici qu’un schéma possible.

Cela dit, examinons donc les quatre significations distinguées : (1) L’idée de fonction ou de fonctionnement exprime en général la solidarité d’un certain nombre d’activités différenciées au sein d’une activité totale dépendant de chacune d’elles. Un caractère stable de l’organisme ou un événement momentané seront donc dits utiles s’ils favorisent cette activité totale et nuisibles s’ils l’entravent.

Or, la solution fournie à la question de savoir si cette signification (1) implique la signification (4), autrement dit si toute fonction implique un but, dépend naturellement de l’explication causale que l’on parviendra ou que l’on ne parviendra pas à donner du fonctionnement de l’organisme : si l’on part de l’hypothèse que les explications physico-chimiques déjà proposées pour certains aspects du fonctionnement pourront être complétées jusqu’à une explication d’ensemble, alors cette signification (1) n’implique pas (4), sinon elle l’implique. On petit donc admettre qu’elle ne l’implique pas nécessairement et que le fonctionnement pourrait s’interpréter en termes d’équilibre mobile (régulations homéostatiques, etc.) ce qui ne constitue naturellement qu’une simple possibilité logique.

(2) L’idée d’adaptation ne constitue qu’une extension de celle de fonctionnement, en y englobant les échanges entre l’organisme et le milieu : un organisme est dit adapté si ces échanges favorisent son fonctionnement normal et inadapté s’ils l’entravent.

Certains auteurs évitent d’employer le terme d’adaptation, parce qu’ils lui confèrent une signification finaliste, donc par ce qu’ils lient les significations (2) et (4), liaison qu’admettent naturellement aussi les partisans de la finalité. Mais, définie comme précédemment, la notion d’adaptation n’implique pas nécessairement celle de but et peut se traduire en termes d’équi-

libre mobile entre le milieu et l’organisme, de même que le fonctionnement est un équilibre mobile interne. Seulement comme l’adaptation demeure l’un des grands problèmes de la biologie, cette réduction au langage de l’équilibre ne constitue à nouveau qu’une simple possibilité logique.

(3) L’idée d’anticipation peut également se réduire à celle d’équilibre en distinguant naturellement des formes d’équilibre de plus en plus complexes englobant les régulations ou rétroactions avec compensations approchées aussi bien que les formes stables à compensations entières. 481 Une régulation ne comporte par elle même aucune finalité, comme le montre l’exemple du régulateur automatique imaginé par Watt pour son thermostat. Mais, dans le domaine biologique et surtout sensori-moteur toute régulation est susceptible de devenir en outre anticipatrice. Un conducteur d’auto sur le verglas corrige les déviations vers la gauche ou vers la droite d’abord après coup et par grandes oscillations, mais ensuite il les modère avant que ces déviations aient été entièrement réalisées : la rétroaction devient ainsi anticipation comme cela est de règle dans les apprentissages sensori-moteurs, et, en de telles situations l’anticipation procède simplement de la répétition des rétroactions. En est il de même dans le cas des conduites anticipatrices héréditaires, comme la conduite du sommeil dont Claparède a montré le premier qu’elle ne résultait pas de l’intoxication, mais constituait une protection anticipée contre l’intoxication ? C’est ce que nous ne savons pas faute de toute explication satisfaisante (actuellement) de la genèse des caractères héréditaires. A fortiori demeurons-nous encore dans l’ignorance quant au mécanisme des anticipations morphogénétiques, comme il en existe tant dans le domaine de l’embryogenèse.

Mais l’absence d’explications actuelles ne prouve évidemment rien et, ici encore, c’est en se fondant sur les succès ou sur les échecs des explications causales prévues pour un avenir quelconque en fonction des transformations de notre physico-chimie, que l’on considérera ce caractère anticipateur (3) comme relevant simplement des notions d’équilibre physico-chimique ou comme impliquant une idée de but (4). Mais, sur ce point,

l’existence des modèles mécaniques imaginés par la cybernétique permet, grâce notamment à la réalisation de « feed backs » de complexité progressive, de fournir ce que l’on a appelé très justement un « équivalent mécanique de la finalité ». 491 On répondra sans doute que l’idée de but intervient dans la pensée des constructeurs de la machine, mais le fait demeure que la machine atteint ses résultats par voie exclusivement causale.

(4) La notion de but, enfin, que les finalistes considèrent comme nécessairement liée aux significations (1) à (3), tandis que les antifinalistes contestent cette connexion, soulève un problème difficile de définition. Dans le domaine proprement psychologique, on parle de but lorsqu’un besoin déclenche la recherche de sa satisfaction, et que cette recherche est accompagnée par l’un des états d’une série s’étageant entre la simple intentionalité et la représentation anticipée de la satisfaction finale. Ainsi définie, la notion de but suppose la conscience, ou tout au moins un inconscient conçu comme doué d’intentions et de représentations par analogie avec la conscience. Au point de vue organique ou physique, par contre, la notion de but (lorsqu’elle est employée en ces domaines) implique, ou bien également la conscience (conscience d’un créateur ou conscience organique, etc.), ou bien simplement l’idée que le terme final d’un processus joue un rôle au cours du déroulement même de ce processus. Seulement, en ce dernier cas, on peut toujours se demander si le concept de but ajoute quelque signification nouvelle à la notion d’un pur processus d’équilibration (significations 1-3) 502 et si cette signification nouvelle ne contient pas une fois de plus une analogie avec la conscience. Autrement dit, la notion de but ne comporte de signification claire qu’en référence avec la conscience.

Cela dit, une étude systématique de la notion de finalité en biologie supposerait donc la collaboration de biologistes ou même de cybernéticiens pour les significations (1) à (3) ou toute autre qu’on leur adjoindra, et de psychologues pour la signification (4), et une collaboration sous forme de travail d’équipe

puisque le problème central de déterminer si les significations (1) à (3) ou d’autres encore impliquent ou n’impliquent pas la signification (4).

Pour nous en tenir maintenant à la signification (4), c’est-à-dire à l’idée de but, dans ses relations avec la finalité en général, deux sortes de données peuvent être fournies par la psychologie génétique, les unes relatives à l’évolution de l’idée de finalité au cours du développement intellectuel de l’enfant, les autres relatives à ses origines en relation avec la notion du but de l’action propre, l’étude de la formation de cette dernière notion nous conduisant jusqu’au problème des rapports entre la prise de conscience de l’action et son mécanisme physiologique.

En ce qui concerne, tout d’abord, l’évolution de l’idée de finalité, on se trouve chez l’enfant, comme d’ailleurs dans l’histoire de la pensée préscientifique en général, en présence d’un phénomène très net qui contraste avec ce que l’on observe dans le cas des autres notions (sauf certains aspects de la notion de force également liés à la prise de conscience et d’activité propre) : c’est la diminution continue de l’extension ou de l’application de ce concept, qui au début s’applique à tout pour ne concerner en fin de compte que les processus vitaux et mentaux.

Deux aspects assez généraux du niveau préopératoire (II) montrent d’abord l’extension initiales de l’idée de finalité : ce sont les « pourquoi » dans les questions spontanées des petits, et c’est le rôle des « définitions par l’usage ». Les « pourquoi » qui débutent dès 3 ou 4 ans présentent, en effet, un sens simultanément causal et finaliste, et portent notamment sur tout ce qui pour l’adulte est fortuit et sans raison, mais dont l’enfant recherche la raison d’être sous forme d’une cause finale. 511 Exemples (6 ans) : « Pourquoi le lac de Genève ne va pas jusqu’à Berne ? » ; « Pourquoi y a-t-il deux Salève (montagne au-dessus de Genève), un grand et un petit, et qu’il n’y a pas deux Cervin ? », etc. Ces deux questions posées à d’autres enfants du même âge, ont provoqué les réponses : « Parce que chaque ville doit avoir son lac », « Parce qu’il faut un Grand Salève pour les grandes promenades et un Petit pour les petites », etc. Tout, dans la nature, présente ainsi un but : les nuages avancent

pour répandre la pluie ou surtout pour amener la nuit (qui est une sorte d’air noir), le vent souffle pour pousser les nuages, la lune brille pour nous éclairer, les ruisseaux coulent pour rejoindre les rivières ou le lac, etc., etc. De même, comme Binet l’avait déjà noté dès 1905, 521 les premières définitions des concepts sont des définitions par l’usage, débutant par les mots « c’est pour » : une maman « c’est pour nous aimer », etc. En demandant aux enfants des définitions d’objets naturels nous avons retrouvé la même réaction : un lac « c’est pour les bateaux », le soleil « c’est pour nous réchauffer », une montagne « c’est pour monter dessus », etc. Or, ce finalisme intégral diminue avec l’âge et, dans chacun des exemples que nous venons de citer, il disparaît au niveau des opérations concrètes ou formelles.

Si maintenant nous cherchons à retracer les origines de ce finalisme intégral de l’enfant aux débuts de sa curiosité intellectuelle, nous constatons qu’il n’est pas lié à une prise de conscience adéquate de l’activité propre en tant que telle, c’est-à-dire en tant que s’opposant à des séries mécaniques ou aléatoires quelconques, pour être ensuite appliqué par généralisation analogique à des processus extérieurs : l’idée de finalité prend directement naissance dans un contexte d’indifférenciation ou de non-dissociation entre le psychique et le physique ou entre le subjectif et l’objectif. Le finalisme intégral des débuts de la vie mentale s’accompagne en effet, de maints autres aspects de cette même indifférenciation, tels que l’animisme (indissociation entre le vivant et l’inorganique ou entre le conscient et ce qui ne l’est pas), l’artificialisme (indissociation entre la fabrication humaine et les séquences indépendantes de l’homme), la causalité morale (indissociation entre la loi naturelle et l’obligation morale), etc. Or, ce contexte général d’indifférenciation est une indication précieuse du point de vue de la critique du concept de finalité, car le problème est alors d’examiner si l’idée même de but, appliquée à l’action propre, et surtout l’idée que le but joue un rôle dans la causalité inhérente à cette action, sont des idées claires ou si par un mécanisme courant dans l’histoire des idées, elle n’hériterait pas

de son passé complexe quelque élément résiduel d’indifférenciation.

Or, à examiner l’aspect psychophysiologique d’un acte dans lequel la représentation du but semble constituer la cause permettant d’atteindre celui-ci, on trouve trois sortes d’éléments.

(a) Un besoin tendant à sa satisfaction (même s’il s’agit d’un besoin de l’intelligence se traduisant par une « question » et d’une satisfaction intellectuelle accompagnant la « réponse ). Or Claparède 531 a bien montré que le besoin correspond organiquement à un déséquilibre et la satisfaction à une rééquilibration. On peut donc concevoir physiologiquement l’orientation ou la direction de l’acte comme dû à un processus d’équilibre (cf. significations 1 et 2 discutées plus haut).

(b) Une anticipation du résultat à obtenir, que cette anticipation s’effectue simplement par le moyen de représentations préopératoires imagées ou d’opérations plus complexes. En tous cas, on peut se donner de ce mécanisme anticipateur un modèle fondé physiologiquement sur des schémas d’équilibre (cf. signification 3), cet équilibre pouvant être assuré par de simples régulations préopératoires ou par un système d’opérations : en effet, la semi-réversibilité des régulations et la réversibilité entière des opérations correspondent, en tant que mécanisme causal, aux processus compensateurs d’un système en équilibre (avec les déséquilibres momentanés auxquels correspond le besoin et les rééquilibrations auxquelles correspond la satisfaction).

(c) Des états de conscience consistant toujours simultanément en représentations (cognitives) et en valeurs (affectives) : le but à atteindre est ainsi simultanément conçu en tant que représentation et valorisé en tant que répondant affectivement à un besoin.

Que veut-on dire alors, si cette analyse est exacte, lorsque, en se conformant à l’expression traditionnelle de la finalité, on soutient que le but à atteindre est cause de l’acte tendant vers ce résultat ? Ou bien on se place sur le terrain exclusif de la physiologie, et alors il est possible qu’il n’intervienne sur ce terrain ni but ni cause finale, mais seulement un processus d’équilibration relevant de la causalité simple et susceptible

d’expliquer les réactions anticipatrices elles mêmes. Ou bien on se place sur le terrain des seuls états de conscience, et alors il y a bien représentation et valorisation d’un but, mais ce but ne présente aucune causalité il constitue simplement un élément parmi les autres de l’ensemble des implications représentatives ou des implications entre valeurs dont la construction constitue la fonction de l’activité consciente. Ou bien, enfin, on se place sur un terrain mixte, en quelque sorte psychosomatique, c’est-à-dire en admettant que la conscience intervient causalement à l’intérieur des mécanismes physiologiques, et alors, mais alors seulement, le but peut être considéré comme une cause et la finalité psycho-biologique peut rejoindre l’idée traditionnelle de cause finale.

L’hypothèse de travail à laquelle nous conduiraient ces considérations introductives serait ainsi que la notion de finalité, dans le sens des causes finales, demeure une notion indifférenciée, sinon confuse, tant que l’on adopte par méthode un certain parallélisme ou isomorphisme psychophysiologique, et qu’elle n’acquiert de signification intelligible que dans la perspective d’une interaction entre la conscience et l’organisme.

Une telle conclusion est assurément affligeante pour qui considère le problème classique des relations entre la conscience et le corps comme plus obscur encore que la question du finalisme ou comme ne correspondant qu’à des pseudo-problèmes. Elle n’a par contre rien de décourageant si l’on espère pouvoir rajeunir quelque peu cette question, aussi ancienne que l’épistémologie elle même, en se plaçant à un point de vue à la fois logico-expérimental et intégralement génétique.

Il convient donc de ne pas reculer devant l’effort et d’examiner à quelles conditions il serait possible de dire quelque chose de valable sur ce dernier problème, qui est de nature surtout psychologique et de revenir ainsi par une démarche en quelque sorte circulaire, sur l’examen, par les méthodes propres à l’épistémologie génétique, de questions qui auraient pu, mais à tort, paraître résolues ou écartées d’avance par les principes mêmes de notre discipline.

Notons d’abord que si l’épistémologie génétique peut être considérée comme englobant ou impliquant la psychologie, elle peut aussi prendre cette forme de connaissance scientifique

comme objet, 541 en étudiant dans l’histoire et chez l’individu la formation de cette variété du savoir. D’un tel point de vue, il est clair qu’en plus d’une histoire rationnelle des constructions propres à cette science, il conviendrait d’étudier dans la pensée commune, et de l’enfance à l’âge adulte, la psychogenèse des notions qu’élabore le sujet en égard à la connaissance des autres et de lui-même. Il s’agirait en particulier, d’analyser de près la formation des concepts qui décrivent des états de conscience (comment se forment, par exemple, des notions comme « joie », « colère », « intelligence » etc. et tous les « traits names » du catalogue d’Allport). C’est une fois seulement que l’on serait en possession d’une analyse suffisante de cette psychologie préscientifique du sens commun qu’il deviendrait possible d’expliquer selon quels processus formateurs la psychologie scientifique s’est constituée, et cela, comme toujours, à la fois en continuité et en opposition avec ses formes élémentaires spontanées.

Or, une telle recherche, si elle était conduite systématiquement, serait sans doute plus instructive qu’on ne pourrait le croire, non seulement pour l’épistémologie génétique, mais pour la psychologie scientifique elle aussi, qui reste trop souvent encore, et en trop de domaines, tributaire du langage courant et même parfois des concepts propres à la pensée commune. En particulier, le service que pourrait rendre une telle analyse consisterait peut être à permettre une critique systématique des modes de liaison que le sens commun, et avec lui certaines formes de psychologie, prêtent à la conscience, quelques uns de ces modes étant évidemment légitimes, tandis que d’autres peuvent donner lieu à discussion.

C’est dans cette perspective que la question des relations entre la conscience et l’organisme se pose nécessairement et d’une manière qui semble être propre à satisfaire le behaviorisme le plus exigeant (bien qu’un certain behaviorisme prétende avoir supprimé ce problème parce que la notion de comportement recouvre simultanément les termes psychologiques et physiologiques devenus indissolubles). Une psychologie génétique de l’intelligence, rappelons-le tout d’abord, ne sau-

rait être que behavioriste, et cela pour deux raisons. Du point de vue de ses interprétations, et par le fait même qu’elle cherche les continuités entre les stades supérieurs et les stades inférieurs, elle est sans cesse amenée à exprimer la pensée en termes d’opérations et à concevoir les opérations comme des actions intériorisées, ce primat général de l’action, dont les conduites verbales de communication ne constituent qu’un cas particulier, étant donc dans la meilleure tradition du behaviorisme pragmatique. Mais la psychologie génétique de l’intelligence ne saurait en outre qu’être behavioriste par sa méthode même, car si l’introspection des adultes ne fournit déjà que des résultats bien discutables comparés à ceux que l’on obtient en analysant leurs comportements effectifs dans la solution des problèmes, il en est a fortiori de même des enfants et l’on ne peut accorder pratiquement aucune créance à une introspection ou à une rétrospection enfantines. Mais, cela posé, le problème subsiste entièrement, de chercher d’abord à quelles lois obéit la prise de conscience en général 551 et ensuite quelles sont les éléments valables et, d’autre part, les déformations (éventuellement systématiques) propres à l’introspection. Or, c’est sur ce point que réapparaît, mais en termes de recherches à conduire par une méthode génétique et objective, le problème des relations entre la conscience et les processus physiologiques, problème qui se réduit tôt ou tard à la question essentielle de savoir quelle fonction ou quelle situation sont à attribuer à la conscience dans l’ensemble des mécanismes caractérisant le comportement. Personne, en effet, ne saurait nier la légitimité de ce dernier problème, que l’on retrouve en fait dans toutes les psychologies. 562

Or, l’une des questions que soulèvera immédiatement une analyse génétique des liaisons attribuées à la conscience par la pensée et même l’introspection communes, et dont plusieurs se sont conservées jusque dans certaines formes de psychologie,

sera d’expliquer pourquoi la conscience ou l’« esprit » en général sont si souvent décrits au moyen de notions matérielles ou couramment appliquées à la matière. Sans remonter aux termes indo-européens ou hébreux qui décrivent l’esprit en termes de « souffle » (anima, psyche, rouach), ni aux idées enfantines sur le même sujet, nous constatons que le sens commun décrit sans cesse les processus conscients en termes de force, d’énergie, de travail, etc., et, d’une manière générale, de substance et de cause. Or, quelle est la signification de ces termes, appliqués aux états de conscience, et est-elle la même que lorsqu’ils sont utilisés pour décrire les séquences matérielles ?

Sans vouloir préjuger des résultats que fourniraient une telle étude, méthodiquement menée, il nous paraît utile de signaler qu’un début de recherche dans cette direction nous a conduits à admettre que trois variétés d’hypothèses peuvent être développées au sujet de ces significations, et non pas deux seulement comme on le croit souvent. Ces trois groupes d’hypothèses correspondraient alors à trois groupes distincts de solutions dans la question des relations entre la conscience et le corps, de telle sorte que le choix entre les trois variétés possibles d’hypothèses concernant ce qu’on pourrait appeler la sémantique de la conscience et des processus matériels constituerait un élément utile quant au choix entre les solutions du problème de la conscience et du corps (l’étude de ce dernier problème comportant naturellement bien d’autres sources d’informations, dont les plus récentes sont les études électroencéphalographiques sur la vigilance, etc.). Cherchons donc à distinguer sommairement ces trois groupes d’hypothèses possibles, sans avoir naturellement à choisir ici entre elles (comme nous l’avons fait personnellement ailleurs). 571

Les deux premières répondent à l’alternative classique dans laquelle on s’enferme habituellement ou bien les notions de force, énergie, substance et même causalité ne comportent qu’un emploi illégitime lorsqu’ils sont attribués à la conscience et se réfèrent en réalité à des activités organiques, dont la conscience ne serait que le reflet sans action propre (parallélisme, épiphénoménisme, etc.) ; ou bien au contraire les mêmes notions

présentent une signification légitime lorsqu’elles sont appliquées à la conscience et celle-ci possède alors une causalité particulière, qui vient interférer avec la causalité organique. Inutile de rappeler que la première de ces solutions présente l’inconvénient de rendre peu compréhensible l’originalité ou la fonction propre de la conscience, tandis que la seconde laisse incompréhensible la connexion des deux formes de causalité organique et consciente.

Mais il est une troisième solution, consistant, avec la première à refuser toute légitimité à des notions comme celles de force, d’énergie, 581 de substance et même de causalité appliquées à la conscience, mais à considérer par contre que celle-ci comporte certains modes de liaison originaux, jouant un rôle essentiel dans le fonctionnement de la pensée et ne pouvait s’appliquer tels quels aux liaisons matérielles : en ce cas il pourrait y avoir isomorphisme entre le système des liaisons conscientes et certains systèmes de liaison matérielles sans que l’un des deux systèmes se trouve dévalorisé par rapport à l’autre et sans que cet isomorphisme éventuel entraîne d’interactions inexplicables.

Or, on peut soutenir que les notions de substance ( masse ou résistance), de force, de travail, d’énergie, etc., qui ont un sens physique précis en ce qui concerne le monde matériel, n’ont aucune signification dans la description du processus de conscience, sinon par référence aux processus organiques concomitants. Il en va alors de même de la causalité, entendue dans le sens étroit d’une équivalence métrique entre un antécédent et un conséquent ou dans le sens large d’une composition entre événements successifs comportant une mesure physique.

On peut donc légitimement faire l’hypothèse que la causalité constitue un mode de liaison propre à la matière seule. Par contre, si l’on cherche à écrire en termes exacts, le mode de liaison propre aux états de conscience, on s’aperçoit qu’il existe un tel mode et que sa généralité ainsi que sa spécificité sont d’une importance considérable à la fois pour l’action et pour le développement de la pensée scientifique elle-même c’est le mode de liaison qui unit entre elles les significations et qui comporte deux sous-variétés, la relation entre les signifiants et les signifiés, que nous appellerons « désignation », et la

relation entre les signifiés eux-mêmes (ou entre les significations comme telles) que nous appellerons faute de mieux l’« implication sensu lato ». 591

La conscience constitue, en effet, essentiellement un système de significations. A partir des signaux sensori-moteurs ou des indices perceptifs jusqu’aux symboles imagés et aux signes linguistiques, elle élabore et coordonne des significations cognitives et affectives, ce qui représente quelque chose puisque sans elle l’univers matériel serait au sens propre dépourvu de signification.

Or, en même temps que se constituent les relations de « désignation » entre significants et signifiés, les signifiés (ou significations au sens strict) se coordonnent entre eux d’une manière sui generis, qui ne se confond pas avec la causalité et qui caractérise la conscience comme telle : en effet, une idée n’est pas cause d’une autre idée, ni une valeur d’une autre valeur, dans le sens où un mouvement produit de la chaleur et où un choc fait dévier une trajectoire, mais il existe entre elles une forme de liaison dont les variétés supérieures comportent a nécessité logique ou l’obligation morale qui sont irréductibles à ces constatations physiques. Nous appellerons donc « implication au sens large » ce mode de liaison, disant ainsi qu’à tous les niveaux une signification en entraîne une autre selon un rapport d’implication.

On constate alors que, si dans une telle hypothèse, la conscience perd sa « causalité » c’est au profit d’un mode de liaison non moins important, puisque la logique et les mathématiques entières sont fondées sur l’implication, par opposition à la causalité, ainsi que les relations morales et juridiques (cf. la notion d’« imputation » ou implication juridique dans le normativisme de Kelsen). Il est alors possible de concevoir un parallélisme entre la conscience et l’organisme qui ne diminue en rien le rôle original de la conscience et le parallélisme prend alors la forme élargie d’un isomorphisme entre les relations causales propres à l’organisme et les relations d’implication propres à la conscience. Par exemple, dans la mesure où certaines structures opératoires reliant entre elles des opérations

logiques correspondent à des structures nerveuses ou à des structures intervenant dans les « machines » à calculer, nous dirons que ces deux dernières sortes de structures présentent un caractère causal et ne constituent donc pas comme telles une logique, tandis que les structures isomorphes élaborées par la pensée consciente s’y traduisent sous la forme de systèmes d’implications, c’est-à-dire de systèmes normatifs conduisant à constituer une logique (tout au moins du point de vue du sujet).

Cette hypothèse d’un isomorphisme de l’implication consciente et de la causalité organique ou matérielle, appelle une remarque finale sur l’esprit dans lequel une méthode intégralement génétique, peut concevoir les réductions éventuelles du domaine psychologique au domaine biologique, etc., bref ce qu’on est convenu d’appeler les réductions de supérieur à l’inférieur.

Il convient à cet égard, de distinguer deux types de réductions, que nous appellerons les réductions par correspondance (ou isomorphisme) et les réductions par interdépendance. Or, l’un et l’autre de ces deux types de réduction aboutissent en réalité à une forme d’assimilation réciproque et non pas de réduction à sens unique, de telle sorte que, en fin de compte, le système des sciences constitue une structure circulaire, et non pas linéaire ou hiérarchique comme l’ont donné trop simplement à penser les classifications traditionnelles des disciplines scientifiques.

En « réduisant » une « conduite » psychologique à ses racines physiologiques, on aboutit naturellement à une relation d’interdépendance. Par contre, s’il s’agit de la conscience comme telle, la « réduction » pourrait se traduire, comme on vient de le voir, par un isomorphisme entre l’implication consciente et la causalité organique, donc par une correspondance et non pas une interdépendance. Or, admettons que la neurologie soit assez avancée pour fournir comme nous le désirons, les équivalents d’ordre causal des structures mathématiques et logiques. Il est alors clair, comme nous y avons déjà fait allusion (au § 2), que ce jour là la neurologie sera elle-même logicisée et mathématisée. Faudra-t-il alors admettre que la neurologie « explique » les phénomènes mentaux jusqu’à pouvoir rendre compte de la formation des mathématiques, ou au contraire que celles-ci

expliquent la neurologie ? L’un et l’autre, évidemment, et selon un cercle qui n’a rien de vicieux.

Lorsque, par contre, on « réduit » un phénomène biologique à des mécanismes physico-chimiques, il ne s’agit plus de correspondance puisque les deux domaines appartiennent au même plan de la causalité matérielle. Mais, comme l’a bien montré le physicien Ch. Eug. Guye, (qui a fourni l’une des premières vérifications expérimentales de la relativité), lorsque la physico-chimie deviendra assez « générale » pour comporter une explication des processus vitaux, elle en sera enrichie d’autant au lieu d’appauvrir ces derniers : on peut donc prévoir une sorte d’assimilation réciproque comme celle qui a eu lieu entre la physique et la chimie, ou entre la géométrie de l’univers et la théorie de la gravitation.

Quant aux relations entre la physique et les mathématiques, elles sont à nouveau de correspondance, puisque toute expérience physique est intégrée à des schèmes mathématiques qui l’expliquent, mais que cette explication par déduction du phénomène aboutit à un isomorphisme entre le donné expérimental et les structures déductives qui permettent de l’assimiler. On peut donc dire, à certains égards, que les relations entre la déduction et l’expérience, en ce qui concerne la liaison des mathématiques et de la physique, sont d’un ordre comparable aux relations plus générales entre la conscience et la causalité matérielle dans le domaine des liaisons entre l’esprit et le corps dans les deux cas il s’agit en effet, d’un isomorphisme entre un système d’implications et un système causal.

Pour ce qui est, enfin, des relations entre les structures logico-mathématiques et les activités mentales du sujet, ce par quoi nous avons commencé cet exposé (aux § 1 et 2), nous espérons retrouver, comme entre la psychologie et la biologie, une double relation d’interdépendance et de correspondance : on peut faire l’hypothèse que les normes du sujet (ce que nous appellions les normes S, au § 1) sont réductibles par interdépendance aux mécanismes mentaux (M) en général, tandis que l’on peut espérer établir une correspondance au moins partielle entre les normes formalisées (F) de la logique ou les « structures-mères » des mathématiques et les normes du sujet (S).

Si un tel tableau des formes générales de relations entre les principales sciences est exact on aboutit donc à une sorte de

cercle : les structures logico-mathématiques s’assimilent les réalités physiques et s’assimileront les réalités biologiques, pendant que la psychologie appuyée sur la biologie tend à s’assimiler les structures logico-mathématiques, de telle sorte que la réduction progressive du mental au physiologique et du physiologique au physico-chimique s’accompagne d’une réduction complémentaire du biologique et du physico-chimique au logico-mathématique et au mental.

Or, il est évident qu’un tel cercle ne fait que traduire, dans le domaine indéfiniment différencié des connaissances scientifiques, le cercle épistémologique fondamental du sujet et de l’objet : l’objet n’est jamais connu qu’à travers les modifications qu’exercent sur lui les actions du sujet, tandis que le sujet ne prend jamais connaissance de lui-même qu’à l’occasion des transformations que l’objet provoque en ses actions. C’est pourquoi la méthode propre à l’épistémologie des diverses variétés de connaissances scientifiques nous paraît être la méthode génétique, qui ne cherche pas à sortir d’un tel cercle par l’espoir d’un saut direct dans la connaissance absolue, mais qui se donne pour tâche de suivre pas à pas, sous toutes leurs formes observables, les développements de cette interaction continue du sujet et de l’objet.