La psychogenèse des connaissances et sa signification épistémologique. Théories du langage, théories de l’apprentissage. Le débat entre Jean Piaget et Noam Chomsky (1979) a
Cinquante années d’expériences nous ont appris qu’il n’existe pas de connaissances résultant d’un simple enregistrement d’observations, sans une structuration due aux activités du sujet. Mais il n’existe pas non plus (chez l’homme) de structures cognitives a priori ou innées : seul le fonctionnement de l’intelligence est héréditaire et il n’engendre des structures que par une organisation d’actions successives exercées sur des objets. Il en résulte qu’une épistémologie conforme aux données de la psychogenèse ne saurait être ni empiriste ni préformiste, mais ne peut consister qu’en un constructivisme, avec l’élaboration continuelle d’opérations et de structures nouvelles. Le problème central est alors de comprendre comment s’effectuent de telles créations et pourquoi, tout en résultant de constructions non prédéterminées, elles peuvent en cours de route devenir logiquement nécessaires.
1. L’empirisme
La critique de l’empirisme ne consiste pas à nier le rôle de l’expérimentation, mais l’étude « empirique » de la genèse des connaissances montre d’emblée l’insuffisance de l’interprétation « empiriste » de l’expérience. Aucune connaissance n’est en effet due aux seules perceptions, car celles-ci sont toujours dirigées et encadrées par des schèmes d’actions. La connaissance procède donc de l’action, et toute action qui se répète ou se généralise par application à de nouveaux objets engendre par cela même un « schème », c’est-à -dire une sorte de concept praxique. La liaison fondamentale constitutive de toute connaissance n’est donc pas une simple « association » entre objets, car cette notion néglige la part d’activité due au sujet, mais bien l’« assimilation » des objets à des schèmes de ce sujet. Ce processus prolonge d’ailleurs les diverses formes d’« assimilations » biologiques, dont l’assimilation cognitive est un cas particulier en tant que processus fonctionnel d’intégration. En retour, lorsque les objets sont assimilés aux schèmes de l’action, il y a obligation d’une « accommodation » aux particularités de ces objets (cf. les « accommodats » phénotypiques en biologie), et cette accommodation résulte bien des données extérieures, donc de l’expérience. C’est donc ce mécanisme exogène qui converge avec ce qu’il y a de valable dans la thèse empiriste, mais (et cette réserve est essentielle) l’accommodation n’existe pas à l’état « pur » ou isolé, puisqu’elle est toujours l’accommodation d’un schème d’assimilation : c’est donc celle-ci qui demeure le moteur de l’acte cognitif.
Ces mécanismes, visibles dès la naissance, sont entièrement généraux et se retrouvent aux différents niveaux de la pensée scientifique. Le rôle de l’assimilation s’y reconnaît à ceci qu’un « observable » ou un « fait » sont toujours interprétés dès leur lecture elle-même : celle-ci nécessite, en effet, toujours et dès les débuts, l’utilisation de cadres logico-mathématiques tels que des mises en relation ou en correspondance, des voisinages ou des séparations, des quantifications en plus ou en moins conduisant aux mesures, bref toute une conceptualisation due au sujet et excluant l’existence de « faits » purs, en tant qu’entièrement extérieurs aux activités de ce sujet, et cela d’autant plus que ce dernier doit faire varier ces phénomènes pour les assimiler.
Quant aux processus d’apprentissage, invoqués par les empiristes béhavioristes en faveur de leurs thèses, Inhelder, Sinclair et Bovet ont montré qu’ils n’expliquent pas le développement cognitif, mais sont soumis à ses lois, un stimulus n’agissant comme tel qu’à un certain niveau de « compétence » (autre notion biologique, voisine de l’assimilation). En un mot, l’action d’un stimulus suppose la présence d’un schème, lequel est la vraie source de la réponse (ce qui inverse le schéma SR ou le rend symétrique S ⇄ R). Pribram a d’ailleurs mis en évidence une sélection des inputs dès les niveaux neurologiques.
2. La préformation
Faut-il s’orienter alors dans la direction de la préformation des connaissances ? Nous reviendrons plus loin sur le problème de l’innéité et nous bornerons pour l’instant à la critique de l’hypothèse des prédéterminations. À s’en tenir aux faits de la psychogenèse, on constate d’abord l’existence de stades qui semblent témoigner d’une construction continue. En premier lieu, une période sensori-motrice, antérieure au langage, voit se constituer une logique des actions (relations d’ordre, emboîtement des schèmes, intersections, mises en correspondance, etc.), féconde en découvertes et même en inventions (objets permanents, organisation de l’espace, de la causalité, etc.). De 2 à 7 ans, il y a conceptualisation des actions, donc représentations avec découverte de fonctions entre les covariations des phénomènes, identités, etc., mais sans encore d’opérations réversibles ni de conservations. Ces deux dernières se constituent au niveau des opérations concrètes (7-10 ans), avec « groupements » logiquement structurés, mais encore liés à la manipulation des objets. Enfin, vers 11-12 ans, se constitue une logique propositionnelle hypothético-déductive, avec combinatoire, « ensemble des parties », groupes de quaternalité, etc.
Seulement, ces belles constructions successives et séquentielles (= chacune nécessaire à la suivante) pourraient être interprétées comme l’actualisation progressive (liée aux maturations nerveuses, etc.) d’un ensemble de préformations, à la manière dont une programmation génique règle l’« épigenèse » organique bien que celle-ci demeure en interaction avec le milieu et ses objets. Le problème est alors de choisir entre deux hypothèses : constructions authentiques avec ouvertures successives sur de nouvelles possibilités, ou actualisations successives d’un ensemble de possibles donné dès le départ. Remarquons d’abord que le problème est le même en histoire des sciences : les périodes si distinctes de l’histoire des mathématiques résultent-elles des créations par étapes dues aux mathématiciens, ou ne constituent-elles que la réalisation par thématisations progressives de l’ensemble de tous les possibles correspondant alors à un univers d’idées platoniciennes ? Or, l’ensemble de tous les possibles est une notion antinomique comme l’ensemble de tous les ensembles, car le « tous » n’est lui-même qu’un possible. De plus, les travaux actuels montrent que, au-delà du nombre transfini « kappa zéro » (limite de la prédicativité), des ouvertures sur de nouveaux possibles se manifestent encore, mais sont effectivement imprévisibles faute de pouvoir se fonder sur une combinatoire. Ou bien donc les mathématiques font partie de la nature, et elles sont alors dues à des constructions humaines, créatrices de nouveautés, ou bien elles ont pour source un univers suprasensible et platonicien dont il s’agirait de démontrer, en ce cas, par quels moyens psychologiques nous en prenons connaissance, ce que l’on n’a jamais pu indiquer.
Cela nous ramène à l’enfant, puisqu’en quelques années il reconstruit spontanément les opérations et structures de base de nature logico-mathématique, en dehors desquelles il ne comprendrait rien à ce que lui enseignera l’école. C’est ainsi que, après la longue période préopératoire où lui manquent encore ces instruments cognitifs, il réinvente pour lui, aux environs de 7 ans, la réversibilité, la transitivité, la récursivité, la réciprocité des relations, l’inclusion des classes, la conservation des ensembles numériques, la mesure, l’organisation des références spatiales (coordonnées), les morphismes et certains fondeurs, etc., autrement dit toutes les assises de la logique et des mathématiques. Si celles-ci étaient préformées, cela signifierait donc que le bébé à sa naissance possède déjà virtuellement tout ce que Galois, Cantor, Hilbert, Bourbaki ou MacLane ont pu actualiser depuis. Et comme le petit de l’homme est lui-même une résultante, c’est jusqu’aux protozoaires et aux virus qu’il faudrait remonter pour localiser le siège de l’« ensemble des possibles ».
En un mot, les théories de la préformation des connaissances nous paraissent aussi dénuées de vérité concrète que les interprétations empiristes, car les structures logico-mathématiques, en leur infinité, ne sont localisables ni dans les objets ni dans le sujet à son point d’origine. Il n’y a donc d’acceptable qu’un constructivisme, mais dont la lourde tâche est d’expliquer à la fois le mécanisme de formation des nouveautés et le caractère de nécessité logique qu’elles acquièrent en cours de route.
3. L’abstraction réfléchissante
Si les structures logico-mathématiques ne sont pas préformées, il faut, par contre, remonter très haut pour trouver leurs racines, c’est-à -dire les fonctionnements élémentaires permettant leur élaboration ; et dès les niveaux sensori-moteurs, c’est-à -dire bien avant le langage, on trouve de tels points de départ (sans d’ailleurs jamais de commencement absolu, puisqu’il faut ensuite reculer jusqu’à l’organisme lui-même : voir le § 5). Quels sont alors les mécanismes assurant les constructions, d’un stade au suivant ? Le premier sera ce que nous appellerons l’« abstraction réfléchissante ».
On peut, en effet, distinguer trois sortes différentes d’abstractions : 1) Appelons « abstraction empirique » celle qui porte sur des objets physiques extérieurs au sujet. 2) L’abstraction logico-mathématique sera dite, par contre, « réfléchissante » parce qu’elle procède à partir des actions et opérations du sujet. Elle l’est même en un double sens, d’où deux processus solidaires mais distincts : celui d’une projection sur un plan supérieur de ce qui est tiré du niveau inférieur, et il s’agit alors d’un « réfléchissement »; et celui d’une « réflexion » en tant que réorganisation sur le nouveau plan — cette réorganisation n’utilisant d’abord qu’à titre instrumental les opérations tirées du niveau précédent mais visant (même si cette visée demeure en partie inconsciente) à les coordonner en une totalité nouvelle. 3) Nous parlerons, enfin, d’« abstraction réfléchie » ou de « pensée réflexive » pour désigner la thématisation de ce qui restait opérationnel ou instrumental en (2) ; la phase (3) constitue ainsi l’aboutissement naturel de (2) mais suppose en plus un jeu de comparaisons explicites d’un niveau supérieur aux « réflexions » à l’œuvre dans les utilisations instrumentales et les constructions en devenir de (2). Il importe donc de distinguer les phases d’abstractions réfléchissantes intervenant en toute construction lors de la solution de problèmes nouveaux et l’abstraction réfléchie qui y ajoute un système de correspondances explicites entre les opérations ainsi thématisées.
Les abstractions réfléchissantes et réfléchies sont alors sources de nouveautés structurales pour les raisons suivantes. En premier lieu, le « réfléchissement » sur un plan supérieur d’un élément tiré d’un palier inférieur (par exemple, l’intériorisation d’une action en une représentation conceptualisée) constitue une mise en correspondance, ce qui est déjà une nouveauté, et celle-ci ouvre alors la voie à d’autres correspondances possibles, ce qui représente une « ouverture » nouvelle. L’élément transféré sur le nouveau palier est alors composé avec ceux qui s’y trouvaient déjà ou qui vont s’y ajouter, ce qui est alors l’œuvre de la « réflexion » et non plus du « réfléchissement », quoique suscitée par lui : il en résulte de nouvelles combinaisons pouvant conduire jusqu’à la construction de nouvelles opérations procédant « sur » les précédentes, ce qui est la marche habituelle du progrès mathématique (exemple chez l’enfant : une réunion d’additions engendrant la multiplication 1). De façon générale, tout réfléchissement sur un nouveau palier entraîne et nécessite une réorganisation, et c’est cette reconstruction productrice de nouveautés que nous appelons « réflexion » : or, bien avant sa thématisation d’ensemble, elle entre en action, par un jeu d’assimilations et de coordinations encore instrumentales sans prise de conscience de la structure comme telle (et ceci se retrouve tout au long de l’histoire des mathématiques). Enfin devient possible l’abstraction réfléchie ou thématisation rétrospective, qui, ne portant toutefois que sur des éléments déjà construits, constitue naturellement une construction nouvelle en tant qu’elle rend simultané, par des correspondances transversales, ce qui était jusque-là élaboré par des liaisons successives à directions longitudinales (cf., dans la pensée scientifique, la thématisation des « structures » par les Bourbaki).
4. La généralisation constructive
Abstraction et généralisation sont, il va de soi, étroitement solidaires, chacune des deux s’appuyant même sur l’autre. Il en résulte qu’à l’abstraction empirique ne correspondront que des généralisations inductives, procédant du « quelques » au « tous » par voie simplement extensionnelle, tandis qu’aux abstractions réfléchissantes et réfléchies correspondront des généralisations constructives et, en particulier, « complétives ».
Le premier problème à résoudre est alors celui de la construction des paliers successifs, que nous nous sommes simplement donnés aux paragraphes précédents : or, chacun d’entre eux résulte d’une assimilation ou opération nouvelle destinée à combler une lacune du niveau antérieur et actualisant donc une possibilité ouverte par celui-ci. Un bon exemple est celui du passage de l’action à la représentation grâce à la formation de la fonction sémiotique. L’assimilation sensori-motrice ne consiste qu’à assimiler des objets à des schèmes d’action, tandis que l’assimilation représentative assimile les objets les uns aux autres, d’où la constitution de schèmes conceptuels. Or, cette nouvelle forme d’assimilation était déjà virtuelle dans la forme sensori-motrice, puisque celle-ci portait sur de multiples objets, mais successifs : il suffisait alors de compléter ces assimilations successives par un acte simultané de mise en correspondance pour passer au palier suivant. Mais un tel acte implique l’évocation d’objets non actuellement perçus, et cette évocation nécessite la formation d’un instrument spécifique qui est la fonction sémiotique (imitations différées, jeu symbolique, image mentale qui est une imitation intériorisée, langage gestuel, etc., en plus du langage vocal et appris). Or, il existe déjà des signifiants sensori-moteurs qui sont les indices ou signaux mais ils ne constituent qu’un aspect ou une partie des objets signifiés : la fonction sémiotique débute, par contre, lorsque les signifiants sont différenciés des signifiés et peuvent correspondre à une multiplicité de ceux-ci. On voit alors qu’entre l’assimilation conceptuelle des objets entre eux et la sémiotisation il y a mutuelle dépendance, et que toutes deux procèdent ainsi d’une généralisation complétive de l’assimilation sensori-motrice avec abstraction réfléchissante d’éléments qui lui sont directement empruntés.
Il serait facile, de même, de montrer que les nouveautés propres aux niveaux des opérations concrètes, puis hypothético-déductives, procèdent également de généralisations complétives. C’est ainsi que les opérations concrètes doivent leurs nouveaux pouvoirs à la conquête de la réversibilité, déjà préparée par la renversabilité préopératoire, mais qui exige en plus un réglage systématique des affirmations et des négations, autrement dit une autorégulation d’ailleurs toujours à l’œuvre au sein des généralisations constructives (et sur laquelle nous reviendrons au § 6). Quant aux opérations hypothético-déductives, elles sont rendues possibles par le passage des structures de « groupements » sans combinatoire et dont les éléments sont disjoints, à celles des « ensembles de parties » avec combinatoire et généralisation des partitions 2.
Ces derniers progrès sont dus à une forme particulièrement importante des généralisations constructives, qui consistent à élever une opération à une puissance supérieure : ainsi, les combinaisons sont des classifications de classifications, les permutations sont des sériations de sériations, les ensembles de parties des partitions de partitions, etc.
Relevons enfin une forme plus simple, mais également importante, qui consiste en généralisations par synthèse de structures analogues, comme la coordination de deux systèmes de références, interne et extérieur à un processus spatial ou cinématique (niveau de 11-12 ans).
5. Les racines biologiques de la connaissance
Ce que nous avons vu jusqu’ici parle nettement en faveur d’un constructivisme systématique. Il n’en reste pas moins que ses sources sont à chercher au plan de l’organisme, puisqu’une succession de constructions ne saurait comporter de commencement absolu. Mais avant de proposer une solution, il convient d’abord de nous demander ce que signifierait biologiquement une solution préformiste, autrement dit ce que deviendrait l’apriorisme une fois traduit en termes d’innéité.
Or, un grand auteur l’a montré en toute clarté : c’est K. Lorenz, qui se croit kantien et qui reste partisan d’une origine héréditaire des grandes structures de la raison, en tant qu’elles seraient préalables à toute acquisition tirée de l’expérience. Mais, étant biologiste, Lorenz sait bien que, sauf l’hérédité « générale » commune à tous les êtres vivants ou à des grands ensembles, l’hérédité spécifique varie d’une espèce à l’autre : celle de l’homme, par exemple, demeure spéciale à notre espèce particulière. Il en résulte que, très honnêtement, Lorenz, tout en croyant au caractère inné, en tant que préalable, de nos grandes catégories de pensée, ne peut, de ce fait même, affirmer leur généralité : d’où sa formule très instructive selon laquelle les a priori de la raison consisteraient simplement en « innate working hypotheses ». En d’autres termes, Lorenz retient de l’a priori son point de départ, antérieur aux constructions du sujet, mais en écarte la nécessité, pourtant bien plus importante (alors que nous faisons exactement l’inverse, en insistant sur la nécessité — voir le § 6 — mais en la situant au terme des constructions, sans programmation héréditaire préalable) 3.
Cette position de Lorenz est donc révélatrice : si la raison est innée, ou bien elle est générale et il faut la faire remonter jusqu’aux protozoaires, ou bien elle est spécifique (ou générique, etc.) et il faut expliquer par quelles mutations et sous l’influence de quelles sélections naturelles elle a pu s’installer (même privée de son caractère essentiel de nécessité). Or, dans l’état actuel des connaissances, les explications courantes se réduiraient, pour ce problème particulier, à un pur et simple verbalisme : elles consisteraient, en effet, à faire de la raison le produit d’une mutation aléatoire, donc d’un simple hasard.
Mais ce que les innéistes semblent oublier de façon surprenante, c’est qu’il existe un mécanisme aussi général que l’hérédité et qui la commande même en un sens : c’est l’autorégulation, qui joue un rôle à toutes les échelles, dès le génome, et un rôle d’autant plus important qu’on se rapproche des niveaux supérieurs et du comportement. L’autorégulation, dont les racines sont évidemment organiques, est ainsi commune aux processus vitaux et mentaux, et ses actions ont, de plus, le grand avantage d’être directement contrôlables : c’est donc dans cette direction, et non pas dans la simple hérédité, qu’il convient de chercher l’explication biologique des constructions cognitives, d’autant plus que, par le jeu des régulations de régulations, l’autorégulation est par sa nature même éminemment constructiviste (et dialectique) 4.
On comprend alors pourquoi, tout en sympathisant pleinement avec les aspects transformationnels de la doctrine de N. Chomsky, nous ne pouvons accepter l’hypothèse de son « noyau fixe inné ». Il y a à cela deux raisons. La première est que biologiquement cette mutation propre à l’espèce humaine serait inexplicable : on ne voit déjà nullement pourquoi le hasard des mutations rend l’être humain apte à « apprendre » un langage articulé, et, s’il fallait en outre lui attribuer l’innéité d’une structure linguistique rationnelle, ce serait dévaloriser celle-ci en la soumettant elle-même à de tels hasards et en faisant de la raison, avec K. Lorenz, une collection de simples « hypothèses de travail ». Notre second motif est que le « noyau fixe inné » garderait toutes ses vertus de « noyau fixe » s’il n’était pas inné, mais constituait le résultat « nécessaire » des constructions propres à l’intelligence sensori-motrice, antérieure au langage et résultant des autorégulations à la fois organiques et comportementales qui déterminent cette épigenèse. C’est bien cette explication d’un « noyau fixe » non inné, mais produit par l’intelligence sensori-motrice, qu’ont admise finalement des auteurs comme R. Brown, E. Lenneberg et D. Mac Neill, et cela montre assez que l’hypothèse de l’innéité est inutile à la cohérence du beau système de Chomsky.
6. Nécessité et équilibration
Il nous reste à chercher pourquoi les constructions qu’exige la formation de la raison deviennent progressivement nécessaires, alors que chacune débute par des essais variés, en partie contingents et comportant jusqu’assez tard une part importante d’irrationnel (non-conservations, défauts de réversibilité, réglage insuffisant des négations, etc.). L’hypothèse sera naturellement que cette nécessité progressive résulte des autorégulations et se traduit par une équilibration également progressive des structures cognitives, la nécessité provenant alors de leur « fermeture ».
On peut distinguer à cet égard trois formes d’équilibrations. La plus simple et par conséquent la plus précoce est celle de l’assimilation et de l’accommodation. Dès le niveau sensori-moteur, il va de soi qu’un schème d’actions appliqué à de nouveaux objets doit se différencier en fonction de leurs propriétés, d’où un équilibre tendant à la fois à conserver le schème et à tenir compte des propriétés de l’objet, mais pouvant si celles-ci sont inattendues et intéressantes, entraîner la formation d’un sous-schème ou même d’un nouveau schème qui nécessiteront alors leur propre équilibration. Mais ces mécanismes fonctionnels se retrouvent à tous les niveaux. Même en science l’assimilation des vitesses linéaires et angulaires comporte à la fois une assimilation quant aux rapports spatio-temporels communs et une accommodation à ces situations distinctes ; de même, l’incorporation des systèmes ouverts aux systèmes thermodynamiques généraux exige autant d’accommodation différenciatrice que d’assimilations.
Une seconde forme d’équilibre s’impose entre les sous-systèmes, qu’il s’agisse de sous-schèmes en un schème d’action, de sous-classes en une classe générale ou de sous-systèmes de l’ensemble des opérations dont dispose un sujet, comme, par exemple, les nombres et les mesures spatiales lors d’évaluations où tous deux peuvent intervenir. Or, les sous-systèmes évoluant ordinairement à des vitesses différentes, il peut y avoir conflits entre eux. Leur équilibration suppose en ce cas une distinction entre leurs parties communes et leurs propriétés différentes et, par conséquent, un réglage compensateur entre les affirmations et les négations partielles ainsi qu’entre les opérations directes et inverses, ou encore l’utilisation de réciprocités. On voit alors en quoi l’équilibration conduit à la nécessité logique : la cohérence progressive que recherche et atteint finalement le sujet provient d’abord d’une simple régulation causale d’actions dont les résultats se révèlent après coup compatibles ou contradictoires, puis elle aboutit à une compréhension de liaisons ou implications devenues déductibles et, de ce fait, nécessaires.
La troisième forme d’équilibration s’appuie sur la précédente mais s’en distingue par la construction d’un nouveau système total : c’est celle que nécessite le processus même de différenciation de nouveaux sous-systèmes, laquelle exige alors une démarche compensatrice d’intégration en une nouvelle totalité. Il y a là en apparence une simple balance de forces opposées, la différenciation menaçant l’unité du tout et l’intégration mettant en danger les distinctions nécessaires. En fait, l’originalité de l’équilibre cognitif (et d’ailleurs déjà des systèmes organiques) est d’assurer, au contraire, l’enrichissement du tout en fonction de l’importance de ses différenciations et d’assurer la multiplication de celles-ci (et non pas seulement leur cohérence) en fonction des variations intrinsèques (ou devenues telles) de la totalité en ses caractères propres. Ici, à nouveau, on voit donc clairement les rapports entre l’équilibration et la nécessité logique progressive, la nécessité du terminus ad quem résultant de l’intégration finale ou « fermeture » des systèmes.
En un mot, l’équilibration cognitive est donc « majorante », c’est-à -dire que les déséquilibres ne conduisent pas à un retour à la forme antérieure d’équilibre, mais à une forme meilleure caractérisée par l’augmentation des dépendances mutuelles ou implications nécessaires.
Quant aux connaissances expérimentales, leur équilibration comporte, en plus des lois précédentes, un passage progressif de l’exogène à l’endogène, en ce sens que les perturbations (démentis aux prévisions, etc.) sont d’abord annulées ou neutralisées, puis peu à peu intégrées (avec déplacements d’équilibre) et enfin incorporées au système à titre de variations intrinsèques déductibles reconstruisant l’exogène par voie endogène. L’équivalent biologique de ce processus (voir « From noise to order », de H. von Foerster 5) est à chercher dans la « phénocopie » telle que nous avons tenté de l’interpréter et de la généraliser en un essai récent 6.
7. Psychogenèse et histoire des sciences
Comme l’a dit Holton 7, on peut reconnaître certaines convergences entre la psychogenèse et le développement historique des structures cognitives, et c’est ce que nous chercherons à préciser en un prochain ouvrage avec le physicien R. Garcia.
En certains cas, avant la science du xviie siècle, on peut même observer un parallélisme stade par stade. C’est ainsi que, pour les rapports entre la force et le mouvement, on peut distinguer quatre périodes : 1) celle de la théorie des deux moteurs d’Aristote, avec pour conséquence le modèle de l’antiperistasis ; 2) une explication globale où restent indifférenciés la force, le mouvement et l’élan ; 3) la théorie de l’impetus (ou élan), conçue par Buridan comme un intermédiaire nécessaire entre la force et le mouvement ; 4) une période finale et prénewtonienne où l’élan tend à se réduire à l’accélération. Or, on constate chez l’enfant une succession de quatre stades très analogues. Le premier est celui où les deux moteurs restent assez systématiques comme résidus de l’animisme, mais avec un grand nombre d’exemples spontanés d’antiperistasis (et cela souvent en des situations très imprévues et pas seulement pour le mouvement des projectiles). En un deuxième stade intervient une notion globale comparable à l’« action » et que l’on peut symboliser par mve, où m est le poids, v la vitesse et e le chemin parcouru. En une troisième période (7-10 ans) apparaît spontanément l’« élan » au sens du moyen terme de Buridan, mais avec, en plus, le pouvoir de « traverser » les intermédiaires immobiles en passant par leur « intérieur » quand un mouvement est transmis grâce à leur médiation. Enfin, en quatrième lieu, viennent (vers 11-12 ans) les débuts de l’accélération.
Pour des périodes plus larges de l’histoire, il va de soi que l’on ne retrouve pas de parallélisme stade par stade, mais on peut chercher des mécanismes communs. C’est ainsi que l’histoire de la géométrie occidentale témoigne d’un processus de structuration dont les étapes sont celles d’une centration sur les seules relations intrafigurales avec Euclide, d’une construction des relations interfigurales avec les coordonnées cartésiennes, puis d’une algébrisation progressive à partir de Klein 8. Or, on retrouve en petit un processus analogue chez les enfants, qui débutent naturellement par l’intrafigural, mais qui découvrent vers 7 ans que pour déterminer un point sur un plan il ne suffit pas d’une mesure, mais qu’il en faut deux, et qui soient disposées de façon orthogonale. À cette étape « interfigurale » (nécessaire aussi pour la construction des horizontales) succède celle que nous pouvons appeler « transfigural », où les propriétés à découvrir ne peuvent se lire sur une seule figure mais nécessitent une déduction ou un calcul ; exemple : les courbes mécaniques, les mouvements relatifs, etc.
Or, ces analogies avec l’histoire des sciences parlent assurément en faveur de notre constructivisme. L’antiperistasis ne s’est pas transmis héréditairement d’Aristote aux petits Genevois, mais Aristote a commencé par être un enfant, car l’enfance est antérieure à l’âge adulte chez tous les hommes, y compris celui des cavernes. Quant à savoir ce que l’homme de science tire de ses jeunes années, ce n’est pas une collection d’idées innées, puisqu’il y a tâtonnements dans les deux cas, mais un pouvoir constructif, et l’un de nous en est venu à dire qu’un physicien de génie est un homme qui a su conserver la créativité propre à son enfance au lieu de la perdre à l’école.