Psychogenèse et histoire des sciences ()
Introduction a 🔗
L’opinion la plus répandue, chez les savants et les historiens des sciences, est qu’il n’existe aucun rapport entre la formation des notions et opérations aux stades les plus élémentaires et leur évolution aux niveaux supérieurs. À quoi s’ajoute la croyance fréquente, quoique moins générale, que la signification épistémologique d’un instrument de connaissance est indépendante de son mode de construction, celui-ci relevant de l’histoire et éventuellement de la psychogenèse, tandis que celle-là tiendrait au fonctionnement de cet instrument en un système synchronique et actuel d’interactions cognitives, irréductibles, selon cette hypothèse, aux considérations diachroniques, donc à leurs étapes antérieures.
I. Paliers du développement🔗
Or, le peu d’intérêt général pour les stades élémentaires tient, sans doute, à la conception courante d’un développement des connaissances qui serait linéaire, chaque étape se substituant à la précédente en conservant ordinairement quelques rapports avec cette dernière, mais non avec les premières étapes. Or si les stades successifs de la construction des différentes formes du savoir sont bien séquentiels — c’est-à -dire que chacun est à la fois le résultat des possibilités ouvertes par le précédent et la condition nécessaire du suivant — , tout stade en réalité débute par une réorganisation, sur un nouveau palier, des acquisitions principales dues aux précédents : il en résulte l’intégration, jusqu’aux stades supérieurs, de certaines liaisons dont la nature ne s’explique qu’à l’analyse des stades élémentaires.
Le présent ouvrage en donnera de nombreux exemples. Mais pour fixer les idées, en voici un ou deux schématiquement.
Pour l’ordre séquentiel, historique, on peut citer les trois grandes périodes de l’évolution des mathématiques : le réalisme statique des Grecs, qui ne porte que sur des états permanents (figures et nombres), a cependant fourni un ensemble de connaissances préalables, nécessaires à la découverte des transformations algébriques et infinitésimales du xviie siècle, et l’analyse de ces dernières était elle-même indispensable pour que puissent se constituer les structures propres aux mathématiques du xixe siècle et d’aujourd’hui. Il est clair que, dans le domaine physique, les découvertes de faits nouveaux peuvent modifier de façon variable le cours des idées et que celui-ci ne présentera donc pas clairement les mêmes vections que sur le terrain logico-mathématique.
Quant aux réorganisations, palier par palier, avec intégration de caractères remontant jusqu’aux phases initiales, il convient d’opposer à l’abstraction empirique, tirant ses informations des objets eux-mêmes, ce que nous appellerons l’« abstraction réfléchissante 1 ». Elle procède à partir des actions et opérations du sujet, et selon deux processus nécessairement conjoints : 1. un réfléchissement sur un palier supérieur (par exemple de représentation) de ce qui est tiré du palier inférieur (par exemple d’action) ; 2. une réflexion reconstruisant et réorganisant, en l’élargissant, ce qui est transféré par réfléchissement. Or cette réflexion est constructive pour deux raisons complémentaires. Premièrement parce que le réfléchissement consiste en une mise en correspondance et le mécanisme, ainsi amorcé, conduit, au palier supérieur, à de nouvelles correspondances, associant les contenus transférés à de nouveaux contenus intégrables dans la structure de départ, mais permettant de la généraliser. En second lieu, parce que ces débuts de morphismes aboutissent également à la découverte de contenus voisins, mais non directement assimilables à la structure précédente : il s’agit alors de la transformer par un processus complétif jusqu’à l’intégrer à titre de sous-structure en une structure élargie, et donc en partie nouvelle. Ce mode de construction par abstraction réfléchissante et généralisation complétive 2 se répétant indéfiniment, palier par palier, le développement cognitif résulte ainsi de l’itération d’un même mécanisme, mais constamment renouvelé et élargi par une alternance d’adjonctions de nouveaux contenus et d’élaborations de nouvelles formes ou structures. C’est pourquoi les constructions les plus élevées demeurent en partie solidaires des plus primitives, en raison de ce double fait des intégrations successives et de l’identité fonctionnelle d’un mécanisme susceptible de répétitions, mais qui se renouvelle sans cesse en vertu de sa répétition même sur des paliers différents.
À titre d’exemple très général de ce processus (avant de l’analyser en détail), on peut citer les rapports entre le contenu des observables et leur forme logico-mathématique. La conquête des faits expérimentaux procède assurément par approximations successives, liées à la construction d’appareils d’enregistrement dépendant eux-mêmes des modèles théoriques et des problèmes nouveaux qu’ils soulèvent. Il en résulte une extension progressive des échelles d’observation dans les deux directions, supérieure et inférieure, avec naturellement réorganisation nécessaire de l’ensemble lors de chaque nouvel affinement. La mathématisation de plus en plus complexe des observables et surtout ses variations considérables au cours de l’histoire conduisent alors à deux croyances, dont l’une est fondée, mais la seconde discutable. La première est que, si mathématisé que soit toujours l’observable physique aux niveaux scientifiques, il correspond néanmoins à un donné extérieur au sujet ; ce qui revient à dire qu’il existe des objets, même si les approximations permettant de s’en rapprocher ne les saisissent jamais de manière exhaustive et qu’ils demeurent donc à l’état de limites. La seconde est que si la mathématisation est l’œuvre du sujet et si l’objet existe, on doit pouvoir tracer une frontière stable entre cette mathématisation et les objets eux-mêmes, un « fait » physique ne comportant alors pas, en tant que tel, de dimension logico-mathématique, mais la recevant après coup. Or, c’est ici que s’impose l’analyse des réactions les plus primitives, car elle fournit une réponse décisive : non seulement il n’existe pas de frontière assignable entre les apports du sujet et ceux de l’objet, la connaissance n’atteignant que des interactions entre eux, mais encore c’est seulement en fonction des logicisations et mathématisations successives que l’on se rapproche de l’objet et c’est dans la mesure où elles s’enrichissent que l’objectivité s’améliore. En effet, l’objet élémentaire et perceptif est en partie logicisé dès le départ, quoique beaucoup moins « objectif » que l’objet élaboré. Cette logicisation initiale est due au fait que, pour découper en objets les tableaux perceptifs globaux et pour attribuer ensuite à ces objets la permanence qui leur est constitutive, il est nécessaire que les actions portant sur eux se coordonnent selon des formes d’assimilation, des emboîtements d’ordre, de correspondances, etc. qui sont déjà de nature logico-mathématique : l’interdépendance de relations spatiales de quantifications (en plus ou moins) de telles formes et des contenus, inaccessibles en dehors de ces cadres dus aux activités cognitives du sujet, est donc générale à tous les niveaux et seule l’analyse psychogénétique permet de la vérifier.
II. Formation et signification🔗
Ceci conduit au problème central qui sera sans cesse rediscuté en cet ouvrage : la formation des instruments cognitifs est-elle de nature à éclairer leur signification épistémologique ? ou bien s’agit-il de deux domaines hétérogènes, l’un relevant de la psychologie et de l’histoire, le second faisant appel à des méthodes radicalement indépendantes de celles-ci ?
Mais le terme de psychogenèse donne lieu à des malentendus gênants et très tenaces, tant que l’on ne distingue pas systématiquement les deux problèmes ou terrains d’investigation suivants : 1. la psychogenèse des connaissances ou étude de la formation et de la nature des instruments cognitifs en tant que soumis aux normes que se donne ou qu’accepte le sujet dans ses activités intellectuelles endogènes ou portant sur l’objet ; 2. la psychogenèse des processus factuels, en tant qu’indépendants de tout caractère normatif, c’est-à -dire du vrai et du faux (du point de vue du sujet), et ne portant que sur le fonctionnement psychophysiologique des comportements (mécanisme matériel des actions, états de conscience, mémoire, images mentales, etc.). Il est clair que les auteurs qui contestent l’importance de la psychogenèse pour l’épistémologie ne voient que cet aspect factuel des développements et oublient qu’à tous les niveaux le sujet obéit à des normes cognitives. Or l’intérêt de celles-ci tient au dynamisme de leurs constructions successives, d’une ampleur insoupçonnée, nécessaires à la constitution de toute connaissance valable. Certes il ne s’agit là que de normes préscientifiques, mais le fait fondamental pour l’épistémologie des sciences est que le sujet, partant de niveaux très bas à structures prélogiques, en arrivera à des normes rationnelles isomorphes à celles des sciences à leur naissance. Comprendre le mécanisme de cette évolution des normes préscientifiques jusqu’à leur fusion avec celles de la pensée scientifique inchoative est donc un problème incontestablement épistémologique : il a d’ailleurs été abordé bien souvent au plan de la sociogenèse des connaissances, à propos des nombres « naturels » (terme qui est à lui seul l’énoncé d’un problème et même de notre problème !), des classifications, etc. Le logicien E. W. Beth 3, peu suspect d’un amour exagéré pour la psychologie, après avoir rappelé l’autonomie nécessaire de la logique (sans « psychologisme ») et de la psychologie de la connaissance (sans « logicisme » puisque les normes étudiées sont celles du sujet, non pas du logicien), ajoute : « Mais la situation est bien différente si l’on se place au point de vue de l’épistémologie, dans la mesure où cette discipline se propose d’interpréter la science à titre de résultat de l’activité mentale de l’homme ou, ce qui revient au même, d’expliquer comment la pensée réelle de l’homme peut produire la science en tant que système cohérent de connaissances objectives. »
Quant à préciser comment l’étude des normes cognitives du sujet permet d’atteindre les processus propres à la constitution du savoir, ce n’est naturellement pas à des déclarations verbales que l’on aura recours, ni même à une analyse des prises de conscience, mais essentiellement à l’examen de ce que « fait » le sujet (par opposition à ce qu’il en pense) pour acquérir et utiliser une connaissance, un « savoir-faire », ou en assurer le bien-fondé. Il peut alors arriver qu’un même problème se pose sur les terrains de l’épistémologie des sciences et de la psychogenèse. Un bon exemple est celui de la notion de solide indéformable que de nombreux géomètres du xixe siècle considéraient comme une donnée empirique et même perceptive, ce qui les poussait à considérer leur science comme une mathématique appliquée à l’expérience. Au contraire, on a montré depuis que l’attribution à un solide de son caractère (idéalement) indéformable reposait, en fait, sur toute une structuration déductive, comportant le groupe des déplacements et une métrique conservant l’invariance des distances. Une expérience récente 4 au Centre international d’épistémologie génétique a consisté à présenter aux enfants un dispositif triangulaire, formé de tiges rigides reliant trois petits anneaux, A, B et C, et tel qu’en fixant un crayon dans le trou A, on trace diverses translations, comme — ou |, ∟ ou Z, etc. Il s’agit alors simplement de reconstituer les trajets de B et C sur le papier où vient d’être dessiné celui de A et de les placer juste en dessous de lui (les 3 points A, B et C forment alors un triangle indéformable dont A est le sommet). Les plus jeunes sujets ne parviennent même pas à conserver aux points d’arrivée la configuration qu’avaient A, B et C au départ. En une seconde période, ils respectent cette correspondance, mais ne s’en soucient pas pour les positions intermédiaires, comme si A, B et C se déplaçaient les uns par rapport aux autres en cours de route, pour retrouver leurs emplacements respectifs à l’arrivée. Ce n’est qu’à un stade tardif et en s’appuyant sur des arguments métriques et sur le postulat de l’invariance des relations particulières au cours du déplacement qu’ils parviennent à résoudre le problème : de toute évidence l’indéformabilité du dispositif a donc été construite et non pas donnée par la perception visuelle, pourtant constamment à l’œuvre au cours du déplacement très lent de l’objet global. Nous avons là l’exemple d’une question épistémologique (nature empirique ou construction déductive du concept de solide indéformable) qui se pose simultanément au plan de la philosophie du savoir géométrique et au niveau de la psychogenèse : or, on constate que la réponse fournie par celle-ci confirme l’interprétation rationaliste, alors que si l’empirisme avait été dans le vrai, c’est aux stades élémentaires qu’on aurait dû le vérifier.
III. Problèmes de l’histoire🔗
Quant à savoir si la formation des connaissances nous renseigne sur leur signification épistémologique, au plan de l’histoire des sciences elle-même et non plus de la psychogenèse, c’est là une hypothèse plus facilement et plus couramment admise. Il est, en effet, devenu clair pour chacun que la science est en perpétuel devenir et que l’on n’en peut considérer aucun secteur, si limité soit-il, comme définitivement assis sur ses bases et à l’abri de toute modification ultérieure, même si, comme en mathématiques, ce qui est démontré est intégré dans ce qui suit et non pas remis en question : une telle intégration peut en effet montrer qu’une vérité, tenue pour générale, ne constituait en fait qu’un cas particulier et, lorsqu’il en est ainsi, on peut parler, en ce sens restreint, d’erreur partielle et de rectification.
En ces conditions de devenir général, il va de soi qu’une connaissance ne saurait être dissociée de son contexte historique et que, par conséquent, l’histoire d’une notion fournit quelque indication sur sa signification épistémique. Mais encore faut-il, pour parvenir à une telle liaison, poser les problèmes en termes de vections, donc d’évolution des normes à une échelle permettant d’en discerner les étapes, et non pas en termes factuels d’influences d’un auteur sur un autre et, en particulier, du problème controversé, mais sans grand intérêt, du rôle des précurseurs dans l’achèvement ultérieur d’un nouveau système d’ensemble. L’essentiel est de caractériser les grandes périodes successives du développement d’un concept, ou d’une structure, ou encore des perspectives d’ensemble sur une discipline donnée, et cela avec ou sans accélérations et régressions, actions des précurseurs ou « coupures épistémologiques ». Le problème central, en effet, n’est pas celui de la continuité ou des discontinuités (qui toutes deux interviennent en tout développement 5), mais bien celui de l’existence des étapes elles-mêmes et surtout du pourquoi de leur succession. Quant au rôle des précurseurs, c’est un problème psychologique bien plus qu’épistémologique, selon que le créateur final désire prolonger ou compléter leurs intuitions ou, au contraire, les contester pour les dépasser, ou encore — cas le plus fréquent — , qu’il oscille entre ces deux attitudes !
Or, si chacun reconnaît sans peine la portée épistémologique de l’étude des périodes historiques et des vections qu’elles comportent, on voit moins bien qu’il y a quelque illogisme à reconnaître la valeur informatrice de l’histoire pour analyser la construction des connaissances, tout en la contestant lorsqu’il s’agit de psychogenèse. Or la parenté est étroite entre ces deux sortes d’investigations. Pas seulement du fait que les étapes du savoir, comme on l’a dit, ne se succèdent pas simplement dans l’ordre linéaire, ce qui laisserait à penser que les plus élémentaires ne jouent plus aucun rôle par la suite, mais parce que chaque stade ou période débute par une réorganisation de ce qu’elle hérite des précédents, d’où une intégration partielle jusqu’aux niveaux supérieurs de certaines des positions initiales : on en a vu tantôt (sous II) un exemple à propos de la notion de solide indéformable, où le caractère empirique prêté à ce concept se serait conservé, s’il avait été vérifié psychologiquement, jusqu’en sa signification scientifique elle-même, tandis que sa nature de construction déductive s’est au contraire imposée parce que c’est en fait ainsi que cette propriété d’indéformabilité s’est construite. La raison principale pour laquelle il y a parenté entre l’épistémologie historico-critique et l’épistémologie génétique est que les deux sortes d’analyses conduisent tôt ou tard, et quelle que soit la grande différence des matériaux utilisés, à retrouver à tous les niveaux le problème des instruments et des mécanismes semblables (abstractions réfléchissantes, etc.) non pas seulement dans les interactions élémentaires entre sujets et objets, mais surtout dans la manière dont un niveau antérieur conditionne la formation du suivant, ce qui revient comme on va le voir à se poser les mêmes problèmes généraux, communs à tout développement épistémique.
IV. Expérience et déduction🔗
Le problème le plus général est naturellement celui que soulève déjà l’exemple précédent, mais que l’on retrouve en tous les domaines : déterminer le rôle de l’expérience et la part des constructions opératoires du sujet dans l’élaboration des connaissances. À considérer entre autres le problème des principes de conservation, il est banal de relever les deux sortes de considérations suivantes. D’une part, il s’agit d’exigences de la déduction elle-même, car si tout se transforme à la fois sans invariants, aucune inférence nécessaire ne demeure possible : c’est pourquoi Lavoisier a postulé la conservation du poids dans les réactions chimiques, avant sa mesure ; c’est pourquoi également la notion d’énergie potentielle s’impose indépendamment de toute mesure directe. Mais, d’autre part, les principes de conservation ont changé de contenu, comme cela a été le cas avec la masse et l’énergie, en physique relativiste ou avec l’« action » en microphysique : c’est donc que l’expérience joue elle aussi un rôle indispensable. D’où la déclaration de Poincaré : on sait toujours que quelque chose se conserve, mais c’est à l’expérience à indiquer quoi. Or, l’un des résultats les plus instructifs des études psychogénétiques a été de montrer le caractère non immédiat des conservations les plus simples, comme celles qui sont liées à une pure additivité, et de permettre de suivre pas à pas la formation des opérations constitutives de tels invariants. Sur le premier point, on peut citer la non-conservation initiale du nombre 6 lorsque l’on modifie sans plus la disposition spatiale de sept à dix objets, et que l’enfant (jusque vers sept ans) s’imagine que le nombre a augmenté lorsqu’on espace quelque peu les éléments d’une rangée et que sa longueur est donc modifiée. Sur le second point, rappelons ce que l’on obtient lorsque l’on transforme en boudin une boulette de pâte à modeler 7 : après avoir nié que la quantité de matière, le poids et le volume se conservent, les sujets en viennent à considérer comme nécessaire que la quantité (ou substance totale) demeure invariante, tandis que le poids et le volume sont encore censés se modifier. Or, que peut être une quantité de matière, indépendamment de son poids et de son volume ? Ce n’est à coup sûr pas une donnée perceptive, ni même perceptible, mais bien une exigence logique. De plus, il est possible de suivre sa formation. Au niveau de la non-conservation, le sujet voit naturellement déjà que le changement de forme est dû à des déplacements de parties, mais il n’interprète ceux-ci que comme des productions nouvelles aux points d’arrivée, sans songer à ce qui est alors soustrait aux points de départ : si, au lieu de pousser simplement du doigt les parties déplacées, on enlève un morceau de la boulette puis le replace, mais dans la direction d’un allongement, le sujet parvient plus aisément à admettre la conservation, ce qui confirme notre hypothèse. L’opération constitutive en jeu pourrait donc être caractérisée par la « commutabilité 8 » si nous entendons par là une égalisation ou compensation entre ce qui est soustrait au départ et ajouté à l’arrivée (indépendamment de l’ordre linéaire propre à la commutativité) : la généralité de ce processus inférentiel semble d’un certain intérêt épistémologique, car il subordonne l’invariance à un système de compensations opératoires qui en fournit la forme déductive, quitte à ce que l’expérience lui fasse correspondre les contenus adéquats.
V. Instruments initiaux de la connaissance🔗
Cela conduit à un second grand problème cognitif commun aux épistémologies historico-critique et génétique : celui de la nature des rapports entre le sujet et les objets de sa connaissance, qu’il s’agisse d’objets logico-mathématiques ou physiques. Il n’est pas encore indiqué de poser cette question en termes de grandes interprétations empiristes, aprioristes ou dialectiques, etc., bien qu’elle y conduise : il s’agit plus simplement d’établir de quelles sortes d’instruments le sujet se sert pour résoudre les problèmes, d’où ils sont tirés, et comment ils s’élaborent. Or, à considérer un système de connaissances en son état d’achèvement (par exemple une fois axiomatisé), on peut avoir l’impression que les connaissances ainsi systématisées se réduisent à des énoncés et le positivisme logique a même à ses débuts voulu faire du langage et de la perception la source de tous les instruments du savoir logico-mathématique et physique. Mais le problème est naturellement d’examiner au moyen de quels instruments ont été acquises les connaissances avant ces formalisations, puisque celles-ci portent nécessairement sur un acquis préalable, sauf à se cantonner dans la logique pure qui est, en quelque sorte, une formalisation de l’activité formalisante.
Notons néanmoins auparavant que, même au plan de l’axiomatique stricte, on distingue encore une dualité de processus dont on peut admettre qu’elle est commune à tous les domaines de connaissance et dont l’histoire permet de suivre les multiples manifestations : c’est la dualité des instruments comparatifs, ou mises en correspondances, et des instruments transformateurs, ou constructions opératoires. En effet, d’une part, une axiomatique comporte un ensemble d’implications, qui sont, si p ⊃ q, etc., des correspondances injectives entre la vérité de p et celle de q, etc. Mais, d’autre part, les théorèmes, lorsqu’il ne s’agit pas d’implications à partir d’un seul axiome, résultent de la combinaison d’axiomes non redondants : en ce cas il y a « transformations », si nous nommons ainsi la construction de nouveaux contenus à partir d’autres qui ne les comprenaient pas analytiquement. Effectivement, une composition d’axiomes distincts aboutit à davantage que l’énumération de ce que chacun d’eux contient séparément et le produit de cette synthèse n’est donc pas analytique.
À considérer maintenant les connaissances antérieurement à leur formalisation, on retrouve à tous les niveaux la même dualité entre les instruments comparatifs constitués par les correspondances et les opérations transformantes, mais avec solidarité croissante, en particulier dans la mesure où les transformations ont pu être étudiées en elles-mêmes. Dès les mathématiques grecques, il est fait usage de multiples opérations, dans les transformations d’une figure en vue d’une démonstration géométrique ou dans la manipulation des nombres, et il va de soi que n’importe quelle équation comporte un jeu de correspondances. Celles-ci ont même été élaborées jusqu’à une théorie complète des proportions. Mais, faute d’une prise de conscience des transformations comme telles, les correspondances utilisées n’ont pas atteint le niveau intertransformationnel qu’elles ont présenté de façon explicite dans le cas de l’algèbre et de l’analyse infinitésimale du xviie siècle. Dès cette époque, on assiste alors à la construction d’une multiplicité croissante de transformations reconnues en tant qu’opérations effectives et en solidarité étroite avec les correspondances. Mais la thématisation finale des transformations en « structures » et des correspondances en « catégories » ne s’est réalisée qu’en deux temps, ce qui est une preuve supplémentaire et significative de leur dualité. L’un de nous a cherché à montrer ailleurs que le retard de la théorie thématisée des secondes par rapport aux premières s’expliquait par le fait que, toute thématisation étant un système de comparaisons à base de correspondances, la réflexion comparative portant sur les structures de transformations est directe, donc du premier degré, tandis que la thématisation des catégories suppose une réflexion sur les instruments réflexifs eux-mêmes et est donc du second degré.
Si nous rappelons ces données, c’est qu’il y a là un bon exemple de processus historiques qui peuvent être éclairés par la psychogenèse. Tout d’abord, les faits qu’elle met en évidence prouvent de façon décisive que les instruments initiaux de la connaissance ne sont ni la perception ni le langage, mais bien les actions sensori-motrices en leurs schèmes, ceux-ci dominant dès le départ les perceptions et ne se verbalisant en concepts ou ne s’intériorisant en opérations de pensée que beaucoup plus tard. Or, chaque schème d’action est source de correspondances dans la mesure où il est appliqué à des situations ou objets nouveaux, tandis que la coordination des schèmes est source de transformations en tant qu’engendrant de nouvelles possibilités d’actions. Il y a donc, dès les débuts, dualité mais solidarité possible entre les correspondances et les transformations. Seulement il s’y ajoute ce fait essentiel que la prise de conscience étant d’abord orientée vers l’extérieur (résultats des actions) et non pas vers l’intérieur (coordinations endogènes des actions), les correspondances sont longtemps indépendantes des transformations, avant que toutes deux entrent en interaction. Nous trouvons donc à cet égard une situation pouvant être mise en parallèle avec celle des débuts de la pensée scientifique et pour les mêmes raisons car les lois de la prise de conscience semblent générales et expliquent en outre pourquoi, à tous les niveaux, la thématisation d’une opération est toujours ultérieure à une phase d’utilisation non réflexive.
VI. Construction et préformation🔗
Un troisième grand problème à propos duquel la comparaison de l’histoire avec la psychogenèse est instructive revient à établir dans quelle mesure une connaissance nouvelle était préformée ou si elle relève d’une construction effective, susceptible elle-même d’avoir été prédéterminée. Il peut paraître curieux de soulever une telle question à propos de psychogenèse, car, pour le sens commun, l’enfant n’invente rien et reçoit par éducation tout ce qu’il apprend. Or, la meilleure preuve de la fausseté de cette thèse est le développement spectaculaire auquel on assiste au cours des dix-huit premiers mois de la vie, alors que l’enfant ne parle pas encore et n’est dressé qu’à un petit nombre de conduites : cependant les progrès de son intelligence et la construction de l’espace, des objets permanents, de la causalité, etc., témoignent d’une multiplication surprenante d’inventions et de découvertes. Il en résulte que, dès cette période, le problème se pose de savoir s’il s’agit là de nouveautés successives, de l’exécution d’un programme héréditaire ou encore de l’actualisation des possibilités impliquées dès le départ en des sortes d’intuitions synthétiques a priori.
Sur le terrain des sciences déductives, le problème est d’une grande difficulté car, aussi créatrice que paraisse une invention au moment où elle se fait, ses résultats, une fois démontrés, sont devenus si « nécessaires » que l’on ne peut s’empêcher d’y voir la découverte d’objets ou de relations qui existaient auparavant. Aussi bien, même sans faire appel à un sujet transcendantal ou transcendant qui détiendrait en son sein toutes les vérités logico-mathématiques, les mathématiciens sont-ils presque toujours peu ou prou platoniciens. Mais, dans ce cas, où faut-il situer les « êtres » mathématiques et comment les concevoir ? Or, la notion de ces « êtres » s’est profondément modifiée dans la science contemporaine : n’importe quelle opération ou n’importe quel morphisme est un tel « être » au même titre qu’un nombre ou qu’une figure, auquel cas on voit mal ce que sont une opération ou une comparaison par correspondances sans un sujet qui opère ou qui compare. S’agit-il alors d’un monde de constructions « possibles » ? Mais l’ensemble de « tous » les possibles est une notion antinomique et ce qui est donné ne consiste qu’en de continuelles ouvertures sur de nouvelles possibilités. Cela ramènerait donc à un constructivisme, sauf qu’à chaque ouverture nouvelle il faut une fois de plus se demander si elle n’était pas prédéterminée.
Il n’y a donc en fait que deux attitudes cohérentes : situer les « êtres » mathématiques en dehors de la nature et faire alors de celle-ci, avec G. Juvet 9, un très petit secteur de l’univers de ces êtres, ou les considérer comme appartenant à la nature et relevant donc de processus temporels, mais atteignant l’intemporel une fois atteint le niveau des nécessités intrinsèques, lesquelles demeurent permanentes à partir de leur constitution. Mais si l’on rattache ainsi les formes logico-mathématiques à l’esprit humain, il reste qu’on peut encore les considérer soit comme prédéterminées en vertu d’une programmation héréditaire, soit comme le résultat de constructions successives et chaque fois novatrices.
C’est ici que s’impose le recours à l’histoire et à la psychogenèse : la première montre sans ambiguïté que la nécessité évolue (que reste-t-il aujourd’hui de ce qui semblait « nécessaire » aux Grecs ?) et la seconde peut nous renseigner sur la manière dont elle se constitue sous ses formes les plus simples. Or, s’agissant de choisir entre l’innéité et la construction et étant entendu que l’esprit humain est un produit de l’organisation biologique avant que ne prédomine la culture collective, les faits semblent indiquer que le mécanisme organique jouant le rôle fondamental en cette genèse n’est pas l’hérédité, mais bien un système d’autorégulations. Considérer les structures mathématiques comme innées soulèverait, en effet, les plus graves problèmes biologiques et n’éclaircirait en rien le mystère de leur nature, tandis que le mécanisme même des régulations, avec leurs compositions et la direction rétroactive des feedbacks, semble déjà préparer les structures opératoires avec leur réversibilité. D’autre part, les très longs et laborieux tâtonnements qui précèdent, au cours de la psychogenèse, la construction des invariants, de la transitivité et de la récursivité elle-même seraient difficilement compréhensibles si ces propriétés opératoires fondamentales étaient programmées héréditairement, leur constitution relativement tardive (aux environs de sept ans) ne tenant alors qu’à la lenteur des maturations nerveuses. Cela est d’autant moins vraisemblable que, selon les dispositifs expérimentaux utilisés, on peut accélérer ou ralentir ces constructions. Or, une fois que celles-ci deviennent possibles, il s’ensuit plus ou moins rapidement des généralisations et parfois jusqu’à l’infini. À cinq ans et demi déjà un sujet 10, admettant que si n = n’ on a alors n + 1 = n + 1, prié de prévoir ce qui se passerait si l’on continuait « très longtemps », a répondu : « Quand on sait pour une fois, on sait pour toujours. » C’est ce passage de la construction temporelle à la nécessité intemporelle qui va de soi en une perspective constructiviste, mais qui soulèverait le problème insoluble de la localisation de l’infini si celui-ci ne tenait pas à l’itération illimitée d’un « acte » et devait consister en un « être » prédéterminé dans un programme héréditaire ou dans une réalité platonicienne dont personne n’a jamais pu dire par quel mécanisme mental on peut l’atteindre.
Tous les faits qui seront décrits dans cet ouvrage, en montrant les analogies entre les constructions historiques et les processus psychogénétiques, confirmeront, par ailleurs, une vérité bien connue et qui est éclairante quant au choix entre l’hypothèse constructiviste et celle de la préformation : c’est que, avant la thématisation d’une structure, ses opérations constitutives interviennent déjà à titre instrumental dans la phase antérieure de construction, de telle sorte que la construction s’appuie en fait sur la structure en devenir, de même que la saturation de celle-ci suppose son intégration en une structure supérieure plus forte. Ces faits, relevant à la fois de la construction temporelle et de la théorie intemporelle des limites de la formalisation, montrent la parenté de ces deux sortes de considérations apparemment hétérogènes et la nécessité de concevoir tous les êtres logico-mathématiques comme ne devant leur existence qu’à des actes et non pas à un donné indépendant du sujet.
VII. Chemins différents et leurs points d’arrivée🔗
Mais, si les « êtres » mathématiques sont engendrés par les constructions du sujet et si les vérités physiques sont subordonnées à la fois à ces constructions et aux possibilités d’actions des expérimentalistes, n’en résulte-t-il pas cette conséquence, apparemment inquiétante, que puisque l’état d’arrivée d’un système cognitif dépend du chemin qui y a conduit un même état ne saurait être atteint par des chemins différents : cela reviendrait à dire qu’un objet x, réel ou de pensée, ne serait pas le même x mais un autre (x’), si le trajet tx n’avait pas été suivi et avait été remplacé par t’ ne pouvant conduire qu’à x’. On pourrait ainsi concevoir que, si nos connaissances physiques avaient débuté sur le terrain biophysique au lieu des domaines inorganiques, nous aurions peut-être abouti à une autre physique en la subordonnant dès le départ à la notion de champ ou de « structure dissipative » au sens de Prigogine 11 ; ou qu’une autre mathématique eût été possible si les Grecs étaient partis de postulats non euclidiens ou non archimédiens.
En revanche, si l’on conteste ces suppositions et que l’on attribue à l’esprit humain une seule physique ou une seule mathématique possible, cela nous ramènerait à l’hypothèse d’une prédétermination des connaissances. Il semble donc que nous soyons en présence d’une alternative inéluctable : ou une diversité hétérogène des chemins et résultats possibles ou la préformation du savoir.
Cependant, on peut se refuser à accepter un tel dilemme pour cette double raison que des résultats différents obtenus par des chemins distincts seront tôt ou tard coordonnables au moyen de transformations plus ou moins complexes entre x et x’ mais que les coordinations transformantes ne sont possibles qu’après coup et ne peuvent donc pas être préformées. La confiance en l’intervention de telles coordinations se fonde sur le fait que la nature (ou le « monde ») existe et que, si peu statique soit-elle, puisqu’elle comporte une continuelle évolution des êtres et de l’esprit, elle n’est pas contradictoire pour autant. Or, au sein de cette nature, il se présente deux sortes de jonctions entre l’esprit et la réalité physique, ce qui assure leur interaction, et cela même sous une forme quasi circulaire : une jonction terminale qui permet au sujet de faire des expériences sur le monde extérieur et une jonction initiale reliant son esprit à son organisme et celui-ci aux structures du monde physique avec lesquelles il est en continuelle interaction. Il en résulte que même si les constructions de l’esprit dépassent très largement (voire « infiniment ») les frontières des phénomènes, il peut y avoir accord entre eux deux et, lorsque des chemins différents de recherches ont abouti à des résultats apparemment incompatibles, on peut toujours espérer qu’ils seront coordonnables, moyennant l’invention de nouveaux instruments cognitifs 12. Un bon exemple est celui de l’onde et de la particule microphysique : d’abord conçues comme s’excluant l’une l’autre, puis comme simplement associées, leurs relations demeurent aujourd’hui pleines de mystère, mais on reste certain de pouvoir les expliquer tôt ou tard. Or, de telles coordinations ne sauraient être conçues comme prédéterminées, et cela pour deux raisons dont l’une tient à l’esprit et l’autre à la réalité extérieure elle-même. La première résulte du fait que les termes à coordonner sont nouveaux et variables, de telle sorte que leurs relations ne peuvent être établies que par des constructions après coup. La seconde est que, aussi dynamique et riche en transformations que soit la nature, elle ne procède elle aussi que par ouvertures successives sur des variations nouvelles en fonction de modifications également situées dans le temps : dire que toutes les combinaisons concevables sont préformées dans un ensemble initial de « tous » les possibles est donc dénué de signification, d’autant plus que le « tous » ne constitue qu’une réunion conçue comme elle-même « possible », mais en un sens se référant à la fois à cette classe et à ses sous-classes.
VIII. La notion de « fait »🔗
La question des rapports entre les faits et les interprétations se posera sans cesse dans les pages qui vont suivre et qui porteront en majeure partie sur l’épistémologie de la physique. Il peut donc être utile de préciser en cette introduction les problèmes que soulève la notion même de « fait ».
Un observable, aussi élémentaire soit-il, suppose déjà bien davantage qu’un enregistrement perceptif, car la perception comme telle est elle-même subordonnée aux schèmes de l’action : ces derniers, comportant une logicisation par le jeu même de leurs mises en relations, emboîtements, etc., constituent alors le cadre de tout observable ; celui-ci est donc dès l’abord le produit de l’union entre un contenu donné par l’objet et une forme exigée par le sujet à titre d’instrument nécessaire de toute constatation. Or, si cela est vrai dès l’enregistrement, il va de soi que le rôle de telles constructions du sujet devient de plus en plus important lorsque, de là , on passe aux différents paliers de l’interprétation, et nous allons rappeler qu’il en existe, en effet, plusieurs jusqu’aux niveaux terminaux caractérisés par la recherche de l’explication causale.
On peut donc considérer le « fait » — qu’il s’agisse d’une propriété, d’une action ou d’un événement quelconque — comme un observable à partir du moment où il est « interprété », c’est-à -dire revêtu d’une signification relative à un contexte plus large, tandis que celle d’un simple observable (car toute assimilation confère déjà une signification) peut rester entièrement locale dans l’espace et même dans le temps. Un fait est donc à son tour et toujours le produit de la composition entre une part fournie par les objets et une autre construite par le sujet. L’intervention de ce dernier est si importante qu’elle peut aller jusqu’à une déformation ou même un refoulement de l’observable, ce qui dénature alors le fait en fonction de l’interprétation. C’est ainsi que les enfants, pour atteindre une boîte avec un caillou attaché au bout d’une ficelle que l’on fait tourner en un grand cercle (il s’agit donc d’une sorte de fronde 13), savent assez vite lâcher le caillou tangentiellement (trois heures ou neuf heures si l’on représente le cercle par un cadran horaire), mais, lorsqu’on les interroge sur ce qu’ils ont fait, ils croient avoir libéré le projectile face à la boîte (donc à douze heures sur le cadran) : il y a donc là une déformation de l’observable en fonction d’une fausse interprétation, selon laquelle le mobile ne peut atteindre son but que s’il est lancé perpendiculairement. De nombreux autres exemples pourraient être cités au plan de la psychogenèse, mais chacun accordera que l’on retrouve une attitude analogue dans l’histoire des sciences lorsqu’un chercheur, avant d’accepter un fait qui dément une théorie, essaie par tous les moyens d’en atténuer la portée : Planck lui-même, ayant découvert son premier exemple de quanta, a cherché pendant quelques années où pouvait se trouver ce qu’il croyait être une erreur, avant de se décider à reconnaître le fait. Si l’interprétation du sujet est ainsi bien claire alors même qu’elle est erronée, elle n’en est pas moins nécessaire à la constitution du fait lorsqu’elle est correcte, quel qu’en soit le niveau : la chute d’une pomme est un fait pour un paysan qui y voit la réaction normale d’un fruit mûr, aussi bien que pour Newton qui, dit-on, y a reconnu un exemple de gravitation.
Mais si l’interprétation propre à la constitution du fait montre déjà qu’à tous les paliers celui-ci est solidaire d’un système de concepts ou de schèmes sensori-moteurs, il convient néanmoins de préciser que ce type d’interprétation, quoique supérieur à la simple assimilation servant à l’enregistrement de l’observable, n’est que le moins complexe d’une série hiérarchique conduisant à l’objet, à la légalité et finalement à l’interprétation causale, c’est-à -dire explicative. Les observables peuvent se contenter d’un seul schème pour être enregistrés, quitte à le différencier par accommodation en cas d’obligation. Nous admettons, par contre, qu’il y a « fait » à partir du moment où un système de schèmes devient nécessaire : dire que cette pomme est tombée, que cette montagne est couverte de forêts ou que le soleil s’est couché à telle heure en cet endroit et à telle date, ce sont déjà des faits, supposant tous des coordinations de concepts. Mais, s’il y a là un progrès par rapport aux observables constitutifs, nous sommes encore loin d’une théorie déductive, causale ou même seulement légale.
Avant d’y arriver, notons encore que l’« objet » se constitue en interaction avec les faits, donc au même niveau mais selon une dualité de significations. La formation de l’objet suppose une coordination de faits, ce qui est évident lors des débuts sensori-moteurs de sa permanence, avec l’intervention des positions, successions, etc., permettant la recherche de l’objet masqué par un écran. Mais réciproquement un fait, en tant que solidaire d’un système de schèmes, n’acquiert la signification élargie le distinguant d’un observable que s’il exprime des propriétés ou des actions d’objets. On peut donc considérer l’objet comme une synthèse de faits rattachés à un même substrat et les faits comme l’expression de relations ou d’actions entre objets ou intérieures à l’un d’eux (mais en ce cas avec correspondances possibles par rapport à d’autres).
IX. Légalité et causalité🔗
Cela dit, le progrès ultérieur dans les interprétations que comporte la constitution des faits sera naturellement dû à une généralisation aboutissant à l’établissement de « faits généraux ». Or, un fait général n’est pas autre chose qu’une loi. Cela est vrai dès les niveaux élémentaires, même si sa logicisation demeure qualitative, par exemple lorsqu’un bébé découvre que tout objet suspendu peut être balancé. Mais, même hautement mathématisée, une loi physique demeure à l’état de fait général, tant que sa généralité reste de nature inductive et ne résulte pas encore de connexions nécessaires : en effet, la mathématisation en jeu ne consiste en cette situation qu’en un ensemble de formes « appliquées » par le physicien à un contenu fourni par l’expérience et, si l’emploi de telle forme est à des degrés divers dicté par la nature de son contenu, celui-ci n’est par contre pas encore revêtu de caractères nécessaires tant qu’il n’est pas inséré en un système de relations causales. Or celles-ci dépassent les frontières des faits et des lois puisqu’elles reviennent à considérer un fait comme étant à la fois conséquence obligée d’autres faits et source de nouvelles transformations. L’interprétation en jeu dans la construction d’un modèle causal est donc d’un niveau hiérarchique supérieur à celui de l’interprétation constitutive des faits et des lois, bien que pouvant débuter en simultanéité chronologique avec elle : ce que l’interprétation causale apporte de neuf est alors précisément la nécessité « attribuée » aux séquences en leur contenu même, et cette nécessité intrinsèque est bien distincte de l’obligation d’appliquer telle forme logico-mathématique à tel contenu, celui-ci demeurant en ce cas simplement constaté et non pas encore expliqué. Rappelons surtout que la nécessité des séquences est autre chose que leur généralité et que lorsqu’on parle de « lois causales » pour désigner des séquences simplement régulières (donc déjà générales), il y a abus de langage : la causalité n’exprime pas seulement le « fait » que B succède « toujours » à A, mais prétend dégager le mode de transformation conduisant de A à B, par exemple le transfert de mv et de ½mv2 d’une boule à la suivante lors d’une propulsion.
Il importe donc de préciser les différences entre la loi et la cause, et, pour ce faire, d’analyser la nature des intermédiaires entre les inférences légales et la déduction causale. L’établissement de faits généraux ou lois peut, en effet, donner lieu à deux sortes distinctes d’inférences. Il y a d’abord l’inférence inductive qui permet au physicien de mettre en correspondance ses mesures et d’en dégager les rapports généraux sous la forme d’équations fonctionnelles. Celles-ci constituent donc des formes « appliquées » aux contenus et dont le choix est obligé par eux, mais sans que ceux-ci, simplement constatés, soient encore nécessaires en eux-mêmes. D’autre part, les lois étant ainsi établies, il est possible grâce à de nouvelles inférences de les coordonner en un système déductif tel que les lois particulières soient insérées en des lois plus générales. En ce cas, les formes sont reliées par des connexions nécessaires, tout en demeurant à l’état de formes appliquées et simplement déterminées par leurs contenus. Quant à ceux-ci, leurs degrés divers de généralité constatée (mais seulement constatée) permettent la constitution d’emboîtements inclusifs, mais sans en fournir les raisons intrinsèques, donc l’explication.
La causalité débute, en revanche, lorsque les transformations jusque-là décrites à titre de « faits » peuvent être coordonnées en des structures totales dont les lois de composition subordonnent les emboîtements à des transformations opératoires nécessairement solidaires en tant que systèmes fermés, comportant chacun sa propre logique : telle la structure de groupe. Il y a en ce cas passage des rapports inclusifs à des rapports constructifs, ou plus précisément à une classification de modèles algébriques ainsi constitués qui deviennent de ce fait explicatifs. Mais, comme on le voit, les relations entre formes et contenus sont modifiées : c’est le contenu lui-même qui devient le siège et la source des connexions nécessaires, puisque les objets, relations et transformations du réel (donc de ce contenu) ne sont plus simplement interprétés par une traduction possible dans les formes logico-mathématiques du sujet, mais qu’ils deviennent les opérateurs de la structure algébrique acceptée par ce réel. Telle est la forme supérieure de la série des interprétations qui débute avec le « fait », et nous pouvons donc la caractériser en disant qu’en ce cas les opérations en jeu ne sont plus simplement « appliquées » aux objets, mais leur sont « attribuées » en tant qu’intérieures à la structure algébrique du système réel. Certes, ce système n’est connu du sujet qu’à travers les modèles qu’il en construit et qui englobent les lois établies, de telle sorte que les opérations maintenant attribuées peuvent être en partie les mêmes que celles dont le statut ne relevait que des applications : mais ce qui est nouveau et ce qui définit le propre de la causalité est leur intégration en des structures caractérisées par la nécessité interne de leurs compositions.
Précisons en outre que l’explication causale est à son tour susceptible de degrés et d’approximations successifs, comme la légalité elle-même : lorsque est dégagée la transformation expliquant le passage de A à B, la question se pose de savoir pourquoi il en est ainsi et à un nouveau progrès du « comment » succédera un nouveau « pourquoi », etc. Il en résulte des structurations intermédiaires, que les uns trouvent déjà explicatives, tandis que d’autres auteurs n’y voient qu’une légalité plus poussée. Un bon exemple est celui des premiers modèles météorologiques construits par V. Neumann et J. Charney à l’aide du premier ordinateur. Certains des spécialistes n’y ont vu qu’un système d’équations permettant des prévisions et ne dépassant donc pas le niveau de la légalité. D’autres ont trouvé explicatives les transformations en jeu, du fait que les variables se référaient à toute la physique (notamment à l’hydrodynamique et à la thermodynamique). En notre langage, cela revient à dire que les premiers, se centrant sur la forme, n’y ont aperçu que des opérations « appliquées », tandis que les seconds, considérant suffisant l’engagement du contenu, y ont reconnu des opérations « attribuées » aux processus réels eux-mêmes, opinion qui a prévalu depuis.
X. Découverte et justification🔗
Le point de vue qui sera développé tout au long de cet ouvrage est en accord avec l’une des affirmations fondamentales de l’épistémologie génétique : la nature constructiviste de notions telles que validité, nécessité, justification de la connaissance.
Une telle affirmation s’oppose à celle des auteurs appartenant aux écoles positiviste et néo-positiviste, qui ont exercé au cours de la première moitié du xxe siècle une influence décisive sur la philosophie des sciences, particulièrement dans les milieux anglo-saxons. L’expression la plus caractéristique de la position néo-positiviste à l’égard de cette question se trouve dans l’ouvrage de Reichenbach : Experience and Prediction 14.
Reichenbach introduit une distinction radicale entre ce qu’il appelle « le contexte de la découverte » (context of discovery) et « le contexte de la justification » (context of justification). Le premier est relatif aux processus des découvertes scientifiques, à la façon dont l’homme de science conçoit un nouveau concept, construit une nouvelle théorie ou trouve une explication pour un phénomène qui n’en avait pas jusqu’alors. Le deuxième, en revanche, ne se réfère qu’au mode de validation d’un concept ou d’une théorie scientifique, autrement dit à sa justification rationnelle, sa légitimation à l’intérieur de l’ensemble des connaissances acceptées.
L’étude du contexte de la découverte appartient à la psychologie et à l’histoire ; il est, d’après Reichenbach, étranger à la philosophie des sciences, celle-ci tenant compte seulement du contexte de la justification. À partir de cette distinction, une conséquence se dégage : pour valider la connaissance il faut la dépouiller de toutes les connotations qu’elle a pu acquérir pendant le processus de la découverte. La justification exige donc une véritable reconstruction de la connaissance, visant à mettre en évidence sa cohérence (du point de vue de sa logique interne) et sa confirmabilité (du point de vue de son adéquation à la réalité).
Le but de la philosophie des sciences deviendrait ainsi la reconstruction rationnelle de la pensée scientifique.
Une des objections immédiates à une telle position consiste à montrer que la théorie ne fournit, en aucune de ses formulations, un fondement à ses propres affirmations, une méthode garantissant sa validité. Pourtant les difficultés principales pour accepter cette position se trouvent ailleurs.
Toute théorie qui introduit une dichotomie entre processus constructifs et méthodes de validation dans l’élaboration des théories scientifiques fait référence, explicitement ou implicitement, au sujet connaissant, en lui attribuant un rôle particulier tout au long du processus. Ceci est d’ailleurs vrai pour toute épistémologie. Ce qui n’est pas clair, c’est la part qui revient au sujet dans le processus de l’acquisition de connaissances.
Si l’on fait référence à un sujet « naturel », il est nécessaire de vérifier si ce qu’on dit de lui correspond à la réalité (il suffit de rappeler la critique souvent adressée aux théories empiristes de la connaissance : le rôle attribué par elles au sujet dans l’acquisition de connaissances n’a jamais été vérifié empiriquement).
Si, en revanche, on fait référence à un sujet « idéal », dont les normes sont conçues et formulées selon un autre type de spéculation philosophique, il devient nécessaire de montrer quels sont les critères de validité utilisés pour accepter de telles conclusions épistémologiques, quelles sont les raisons pour remplacer un sujet « naturel » par un sujet « idéal », et quelles sont les relations entre les deux.
Il est intéressant de noter que l’analyse comparative des théories épistémologiques permet de dégager une très grande variété de caractères propres au sujet de la connaissance, caractères malheureusement assez contradictoires entre eux.
L’idée des deux « contextes » proposée par Reichenbach a trouvé des opposants parmi les philosophes des sciences contemporains. Kuhn en est un des plus représentatifs ; il voit dans l’histoire des théories scientifiques un élément essentiel pour rendre compte de leur acceptabilité et de leur justification.
Nous nous référerons en détail à la position de Kuhn dans le chapitre IX, « Science, psychogenèse et idéologie ». Pour le moment, il suffit de signaler que sa position prête, dans un certain sens, aux mêmes critiques. En effet, Kuhn cherche les fondements normatifs utilisés par les « constructeurs » des différentes branches de la connaissance dans leur développement cognitif spontané. Mais alors il devient nécessaire de décider si les spécialistes des diverses disciplines scientifiques sont ou non des représentants authentiques du sujet « naturel ». Dans l’affirmative, ils ne feraient que prolonger les mécanismes et les normes rationnels de tout sujet naturel. Dans la négative, les savants constitueraient une classe à part, différente de celle des sujets « naturels » ; leurs activités cognitives obéiraient à des normes épistémologiques autres que celles de la pensée non scientifique.
Ceux qui admettent qu’un homme de science utilise et applique des normes précises à toutes les étapes de son travail (découverte, invention, vérification, explication), pour tout ce qu’il réalise effectivement, peuvent difficilement fournir des indications précises sur ce que sont ces normes. Les hommes de science ne sont que partiellement conscients de ce qu’ils font. Mis à part ceux qui ont étudié spécifiquement les fondements théoriques de leur discipline, il s’avère que les savants les plus originaux sont susceptibles de soutenir des idées incomplètes, voire fausses, quant à la nature des structures de pensée. Bon nombre de physiciens, positivistes orthodoxes, ont effectué leurs découvertes par des procédés allant à l’encontre des affirmations positivistes les plus fondamentales. Tout au long de l’histoire, des savants ont utilisé des structures de pensée sans même en avoir pris conscience. Un exemple classique : Aristote a utilisé la logique des relations, tout en l’ignorant dans la construction de sa propre logique.
Il y a donc un long chemin à parcourir entre, d’une part, l’utilisation spontanée et inconsciente de structures, et, d’autre part, leur prise de conscience. Une première et souvent considérable difficulté est celle de déterminer les normes effectivement utilisées par le sujet, même par un homme de science : il faut saisir les opérations effectives à l’œuvre dans ses actions, même si leur prise de conscience ne porte que sur des fragments parfois déformés, mal enregistrés et incomplets.
La prise en considération de l’évolution des théories scientifiques dans un cadre tel que celui de Kuhn doit faire face aussi à une autre difficulté : toute connaissance, si nouvelle soit-elle, n’est jamais un fait premier, totalement indépendant de ceux qui l’ont précédé. Elle n’est que réorganisation des connaissances, ajustements, corrections, adjonctions. Même des données expérimentales inconnues jusqu’à un certain moment ne s’intègrent pas sans plus à la connaissance, il y faut un effort d’assimilation et d’accommodation qui conditionne la cohérence interne du sujet.
Les structures cognitives, pour autant qu’elles sont organisation de connaissances, sont essentiellement comparables à des organismes dont l’état actuel est fonction non seulement de l’environnement présent, mais aussi de toute l’histoire ontogénétique et phylogénétique. Ceci n’exclut pas le caractère normatif que de telles structures peuvent avoir pour le sujet. Mais il est nécessaire de préciser que, dans le cas des processus cognitifs, une autre détermination s’y ajoute : la transmission culturelle. Autrement dit, la connaissance n’est jamais un état, mais un processus influencé par les étapes précédentes du développement. L’analyse historico-critique s’impose dès lors.
Nous allons soutenir que les seuls facteurs vraiment omniprésents dans les développements cognitifs — aussi bien en histoire des sciences qu’en psychogenèse — sont de nature fonctionnelle et non structurale. Ils ont trait à l’assimilation des nouveautés aux structures précédentes et à l’accommodation de celles-ci aux acquisitions nouvelles réalisées.
Il faut néanmoins souligner que les contenus et les « organes » de structuration de ces fonctions universelles changent continuellement de sorte qu’elles deviennent partie intégrante des constituants du développement historique. En d’autres termes, la transformation continuelle des connaissances procède par réorganisations et rééquilibrations pas à pas, sans préformation. La nécessité intrinsèque des structures constitue le produit de conquêtes successives.
Si notre position est correcte, il s’ensuit que la connaissance scientifique n’est pas une catégorie nouvelle, fondamentalement différente et hétérogène par rapport aux normes de la pensée préscientifique et aux techniques inhérentes aux conduites instrumentales propres à l’intelligence pratique.
Les normes scientifiques se situent dans le prolongement des normes de pensée et de pratiques antérieures, mais en incorporant deux exigences nouvelles : la cohérence interne (du système total) et la vérification expérimentale (pour les sciences non déductives).
XI. Objet de cet ouvrage🔗
En un cas particulier, qui est celui de l’évolution de la physique entre celle d’Aristote (y compris) et celle des dernières périodes prénewtoniennes, il nous a été possible d’établir une correspondance, et même étroite, entre les quatre phases historiques (les deux moteurs aristotéliciens, le recours au seul moteur externe, la découverte de l’impetus puis celle de l’accélération) et les quatre étapes de la psychogenèse. On observe en particulier une construction et une généralisation frappantes vers sept-huit ans de l’idée de l’« élan » en analogie surprenante avec les conceptions de Buridan. En un tel cas le parallélisme entre l’évolution des notions au cours de l’histoire et au sein du développement psychogénétique porte sur le contenu même des notions successives, et cela est compréhensible puisqu’il s’agit de concepts en quelque sorte préscientifiques. Mais il va de soi qu’il serait absurde de chercher à généraliser un tel parallélisme de contenus dans le cas des théories proprement scientifiques, comme celles qui ont vu le jour entre la mécanique newtonienne et la relativité einsteinienne, de telle sorte que l’essentiel de notre recherche portera, non pas sur le contenu des notions, mais sur les instruments et mécanismes communs de leurs constructions. Que faut-il alors entendre par mécanismes communs ? C’est ce qui nous reste à préciser en cette introduction, car ils sont de natures multiples.
Le plus général de tous tient naturellement à la nature des raisonnements qui, à tous les niveaux de la psychogenèse comme de l’histoire des sciences, comportent des « abstractions réfléchissantes » (voir plus haut) aussi bien qu’empiriques (avec dans le domaine physique alternance continuelle entre les deux formes et sur le terrain mathématique utilisation exclusive de la forme « réfléchissante ») ou des généralisations constructives aussi bien qu’extensionnelles.
Un second caractère général est qu’en aucune élaboration cognitive le sujet ne fait appel à des expériences pures puisque, comme nous l’avons vu, tout observable est toujours interprété et tout « fait » implique nécessairement une interaction entre le sujet et les objets considérés. Il en résulte qu’en tous les domaines la connaissance, exacte aussi bien qu’erronée, comporte un aspect inférentiel et que pour chaque secteur cognitif, même en zoologie et botanique simplement « systématiques », autrement dit descriptives, l’apport du sujet est indiscutable puisque la forme même des classifications relève de la structure de « groupements », autrement dit de semi-treillis. Or, la structure des « groupements » est construite chez l’enfant dès l’âge de sept-huit ans, mais naturellement avec un nombre restreint d’éléments tandis qu’en biologie systématique ceux-ci sont en nombre illimité.
Ces instruments et mécanismes communs en entraînent une troisième variété qui est à l’œuvre dès les constructions sensori-motrices et jusqu’aux formes supérieures de la pensée scientifique : c’est le double processus de différenciations et d’intégrations dont témoigne tout progrès cognitif, et dont les deux aspects deviennent tôt ou tard solidaires.
En quatrième lieu, il est clair qu’à toutes les échelles du savoir, dès le « savoir-faire » sensori-moteur jusqu’aux théories les plus élevées, il y a recherche des « raisons » (des échecs comme des succès) et les raisons reviennent en tous les cas à rattacher les résultats obtenus à des « structures » ou coordinations de schèmes. Par exemple dès neuf à douze mois, les sujets découvrent la permanence des objets cachés 15 et en rattachent la raison à ce que Poincaré appelait déjà un « groupe » (en fait un groupement pratique) de déplacements.
En cinquième lieu, il est remarquable de constater, comme nous le ferons sans cesse, qu’au cours de l’histoire de la pensée scientifique les progrès accomplis d’une étape à la suivante ne se succèdent pas, sauf rares exceptions, de façon quelconque mais peuvent être sériés, comme au cours de la psychogenèse, sous la forme de « stades » séquentiels dont nous chercherons (en chaque domaine) à caractériser les principaux. Par exemple, dans le cas de cette période fondamentale de l’algèbre qui débute avec les « groupes » de Galois, on assiste à une succession de constructions qui ne s’enchaînent pas au hasard, mais dont chacune est rendue possible par les précédentes et prépare les suivantes. Dans le domaine géométrique ce n’est pas par hasard que les géométries non euclidiennes ont vu le jour bien après l’euclidienne ou que les coordonnées ont été conçues bien après l’analyse des figures. La recherche de telles lois de succession constituera l’un des aspects essentiels de notre essai, mais c’est ici qu’il convient de préciser avec soin le but que nous cherchons à atteindre en comparant ces enchaînements à ceux que l’on observe sur le terrain de la psychogenèse : ce but n’est nullement de mettre en correspondance les successions de nature historique avec celles que révèlent les analyses psychogénétiques en mettant l’accent sur les contenus, mais, ce qui est tout autre chose, de montrer que les mécanismes du passage d’une période historique à la suivante sont analogues à ceux du passage d’un stade psychogénétique à son successeur.
Or ces « mécanismes de passage » qui constituent donc l’objet central de notre ouvrage présentent au moins deux caractères communs à l’histoire des sciences et à la psychogenèse : l’un sur lequel nous avons souvent insisté ailleurs, mais l’autre qui nous paraît nouveau. Le premier de ces mécanismes est constitué par un processus général caractérisant tout progrès cognitif : c’est qu’en cas de dépassement, le dépassé est toujours intégré dans le dépassant (ce qui est loin d’être le cas en dehors des dépassements cognitifs, et cela même en biologie). Le second mécanisme de passage, non encore étudié par nous, mais devenant central dans le présent ouvrage, est un processus nous paraissant également de nature tout à fait générale : c’est celui qui conduit de l’intraobjectal ou analyse des objets à l’interobjectal ou étude des relations ou transformations, et de là au transobjectal ou construction des structures. Le fait que cette triade dialectique se retrouve en tous les domaines et à tous les échelons nous paraît constituer la principale acquisition à laquelle ont abouti nos efforts comparatifs. En effet, la généralité de cette triade intra, inter et trans et le fait qu’on la retrouve en toutes les sous-étapes aussi bien qu’au sein des successions globales constituent sans doute le meilleur des arguments en faveur d’une épistémologie constructiviste 16. L’empirisme pourrait à la rigueur rendre compte du passage de l’intra à l’inter, puisqu’il s’agit en ce cas de substituer des relations aux prédicats initiaux et que les relations peuvent être suggérées par de simples constatations, mais le passage de l’inter au trans implique des dépassements avec tout ce qu’ils comportent de constructions nécessaires. Quant à l’apriorisme, s’il pouvait suffire à interpréter les trans, considérés en ce cas comme préformés, il ne saurait expliquer pourquoi les dépassements dans le sens des transformations doivent être préparés par des intra et des inter. La succession obligée des intra aux inter et seulement enfin aux trans montre ainsi à l’évidence le caractère constructiviste et dialectique des activités cognitives et c’est là , croyons-nous, une justification d’une portée non négligeable.