L’épistémologie génétique. Contemporary philosophy : a survey, vol. 3 : metaphysics, phenomenology, language and structure = La philosophie contemporaine : chroniques, vol. 3 : métaphysique, phénoménologie, langage et structure (1969) a 🔗
1. Introductionđź”—
Les théories classiques de la connaissance se sont d’abord posé la question « Comment la connaissance est-elle possible ? », qui s’est vite différenciée en une pluralité de problèmes, portant sur la nature et les conditions préalables de la connaissance logico-mathématique, de la connaissance expérimentale de type physique, etc. Mais le postulat commun des diverses épistémologies traditionnelles est que la connaissance est un fait et non pas un processus, et que, si nos diverses formes de connaissances sont toujours incomplètes et nos diverses sciences encore imparfaites, ce qui est acquis est acquis et peut donc être étudié statiquement : d’où la position absolue des problèmes « qu’est-ce que la connaissance ? » ou « comment les divers types de connaissance sont-ils possibles ? ».
Les raisons d’une telle attitude, qui se plaçait d’emblée sub specie æternitatis, ne sont pas seulement à chercher dans les doctrines particulières des grands philosophes qui ont fondé la théorie de la connaissance : dans le réalisme transcendant de Platon ou dans la croyance aristotélicienne aux formes immanentes mais tout aussi permanentes, dans les idées innées de Descartes ou l’harmonie préétablie de Leibniz, dans les cadres a priori de Kant ou même dans le postulat de Hegel qui, tout en découvrant le devenir et l’histoire dans les productions sociales de l’humanité, les voulait réductibles à la déductibilité intégrale d’une dialectique des concepts. Il s’ajoute à tout cela que la pensée scientifique elle-même a longtemps cru atteindre un ensemble de vérités définitives, quoiqu’incomplètes, et permettant ainsi de se demander une fois pour toutes ce qu’est la connaissance : les mathématiciens, tout en variant d’opinion sur la nature des « êtres » mathématiques, sont restés, jusqu’à il n’y a pas si longtemps, imperméables aux idées de révision et de réorganisation réflexive ; la logique a été longtemps considérée comme achevée et il a fallu attendre les théorèmes de Gödel pour l’obliger à réexaminer les limites de ses pouvoirs ; la physique, après les victoires newtoniennes, a cru jusqu’aux débuts de ce siècle au caractère absolu d’un nombre important de ses principes ; même des sciences aussi jeunes que la sociologie ou la psychologie, si elles n’ont pas pu se vanter d’un savoir bien solide, n’ont pas hésité jusqu’assez récemment à attribuer aux êtres humains, donc aux sujets pensants qu’elles étudiaient, une « logique naturelle » immuable, comme le voulait Comte (malgré sa loi des trois états et en insistant sur leurs procédés communs et constants de raisonnements), ou des instruments invariants de connaissance.
Or, sous l’influence convergente d’une série de facteurs, on en vient de plus en plus aujourd’hui à considérer la connaissance comme un processus plus que comme un état. La raison en tient en partie à l’épistémologie des philosophes des sciences : le probabilisme de Cournot et ses études comparatives des divers types de notions annoncent déjà une telle révision ; les travaux historico-critiques, en mettant en lumière les oppositions entre les divers types de pensée scientifiques ont notablement favorisé cette évolution et l’œuvre de L. Brunschvicg, par exemple, marque un tournant important dans la direction d’une doctrine de la connaissance en devenir. Parmi les néo-kantiens on trouve chez Natorp des déclarations de ce genre : à procéder comme Kant, on part de l’existence de fait de la science et on en cherche le fondement. Mais quel est donc ce fait puisque, on le sait, la science évolue sans cesse ? La progression, la méthode est tout … Par conséquent le fait de la science ne peut être compris que comme un « fieri ». Seul ce « fieri » est le fait. Tout être (ou objet) que la science essaie de fixer doit se dissoudre à nouveau dans le courant du devenir. C’est en dernier lieu de ce devenir, et de lui seul, qu’on a le droit de dire : « il est (un fait) ». Ce que l’on peut et doit alors chercher c’est la loi de ce processus » 1. On connaît bien, d’autre part, le beau livre de Th. S. Kuhn sur les « révolutions scientifiques » 2.
Mais si les épistémologistes ont pu en arriver à des déclarations aussi nettes, c’est que toute l’évolution des sciences contemporaines les y conduisait, et cela dans tous les domaines, déductifs aussi bien qu’expérimentaux. À comparer, par exemple, les travaux des logiciens (d’aujourd’hui aux démonstrations dont se contentaient ceux que l’on appelle déjà « les grands ancêtres », comme Whitehead et B. Russell, on ne peut qu’être frappé de l’étonnante transformation des notions ainsi que de la rigueur même des raisonnements. Les travaux actuels des mathématiciens qui, par « abstraction réfléchissante » tirent des opérations nouvelles d’opérations déjà connues ou des structures nouvelles de la comparaison de structures antérieures, aboutissent à enrichir les notions les plus fondamentales, sans les contredire pour autant, mais en les réorganisant de façon imprévue. En physique on sait assez que chacun des principes anciens a changé de forme et de contenu, de telle sorte que les lois les mieux établies deviennent relatives à une certaine échelle et changent de signification en changeant de situation dans l’ensemble du système. En biologie, où l’exactitude n’atteint pas le même degré et où d’immenses problèmes demeurent encore sans solution, les changements de perspective sont aussi impressionnants.
Il est à rappeler en outre que, en fonction même de tels changements, qui ne sont pas parfois sans s’accompagner de crises, et qui obligent au moins et en tous les cas à un travail constant de réorganisation réflexive, l’épistémologie de la pensée scientifique est de plus en plus devenue l’affaire des savants eux-mêmes : les problèmes de « fondement » sont ainsi de plus en plus incorporés au système de chacune des sciences considérées, en physique comme en mathématiques ou en logique.
2. Épistémologie et psychologie🔗
Cette transformation fondamentale de la connaissance-état à la connaissance-processus, conduit alors à poser en termes assez nouveaux la question des relations entre l’épistémologie et le développement ou même la formation psychologique des notions et des opérations. Dans l’histoire des épistémologies classiques, seuls les courants empiristes ont recouru à la psychologie, pour des raisons faciles à saisir bien que celles-ci n’expliquent ni le peu de souci de vérification psychologique dans les autres écoles, ni la psychologie trop sommaire dont l’empirisme lui-même s’est contenté.
Ces raisons sont naturellement que, si l’on veut rendre compte de l’ensemble des connaissances par la seule « expérience », on ne peut justifier une telle thèse qu’en cherchant à analyser ce qu’est l’expérience, et on en vient alors à recourir aux perceptions, aux associations et aux habitudes, qui sont des processus psychologiques. Mais comme les philosophies empiristes et sensualistes, etc., sont nées bien avant la psychologie expérimentale, on s’est contenté de ces notions de sens commun et d’une description surtout spéculative, ce qui a empêché de voir que l’expérience est toujours assimilation à des structures et de se livrer à une étude systématique de l’ipse intellectus.
Quant aux épistémologies platoniciennes, rationalistes ou aprioristes elles ont cru trouver chacune quelque instrument fondamental de connaissances étranger, supérieur ou antérieur à l’expérience. Mais, à la suite d’un oubli s’expliquant sans doute à nouveau par les tendances spéculatives et par le mépris de la vérification effective, ces doctrines, tout en prenant soin de caractériser les propriétés qu’elles attribuaient à cet instrument (la réminiscence des Idées, le pouvoir universel de la Raison ou le caractère à la fois préalable et nécessaire des formes a priori), ont négligé de vérifier qu’il était réellement à la disposition du sujet. Or, il y a là , qu’on le veuille ou non, une question de fait. Dans le cas de la réminiscence platonicienne ou de la Raison universelle, cette question est relativement simple : il est évident que, avant de conférer de telles « facultés » à « tous » les êtres humains normaux, il conviendrait de les examiner et cet examen aboutit rapidement à mettre en évidence les difficultés de l’hypothèse. Dans le cas des formes a priori l’analyse des faits est plus délicate, car il ne suffit pas d’analyser la conscience des sujets mais ses conditions préalables et, par hypothèse, le psychologue qui voudrait les étudier les utiliserait lui-même à titre de conditions préalables de sa recherche. Mais il reste l’histoire en ses multiples dimensions (l’histoire des sciences, socio-genèse et psychogenèse) et, si l’hypothèse est vraie, elle doit se vérifier non pas à l’introspection des sujets, mais à l’examen des résultats de leur travail intellectuel : or, cet examen montre à l’évidence qu’il est indispensable de dissocier le préalable et le nécessaire, car si toute connaissance et surtout toute expérience suppose des conditions préalables elles ne présentent point d’emblée de nécessité logique ou intrinsèque, et, si plusieurs formes de connaissance aboutissent à la nécessité, celle-ci se situe au terme et non point au départ.
En bref, toutes les épistémologies, même anti-empiristes, soulèvent des questions de fait et adoptent ainsi des positions psychologiques implicites, mais sans vérification effective, alors que celle-ci s’impose en bonne méthode. Or, si ce que nous avançons ainsi est déjà vrai en ce qui concerne les épistémologies statiques, il en est a fortiori de même pour ce qui est des théories de la connaissance-processus. En effet, si toute connaissance est toujours en devenir et consiste à passer d’une moindre connaissance à un état plus complet et plus efficace, il est clair qu’il s’agit de connaître ce devenir et de l’analyser le plus exactement possible. Or ce devenir ne se déroule pas au hasard mais constitue un développement, et comme il n’existe, en aucun domaine cognitif, de commencement absolu à un développement, celui-ci est lui-même à examiner dès les stades dits de formation ; il est vrai que cette dernière consistant donc encore en un développement à partir de conditions antérieures (connues ou inconnues), il y a risque de régression sans fin (c’est-à -dire d’un appel à la biologie) : seulement comme le problème est celui de la loi du processus et comme les stades finaux (c’est-à -dire actuellement finaux) sont aussi importants à cet égard que les premiers connus, le secteur de développement considéré peut permettre des solutions au moins partielles, mais à la condition d’assurer une collaboration de l’analyse historico-critique avec l’analyse psychogénétique.
Le premier but que poursuit l’épistémologie génétique est donc, si l’on peut dire, de prendre la psychologie au sérieux et de fournir des vérifications en toutes les questions de fait que soulève nécessairement chaque épistémologie, mais en remplaçant la psychologie spéculative ou implicite dont on se contente en général, par des analyses contrôlables (donc, sur le mode scientifique de ce que l’on appelle un contrôle). Or, répétons-le, si cette obligation aurait toujours dû être respectée, elle est devenue de plus en plus urgente aujourd’hui. Il est en effet frappant de constater que les transformations les plus spectaculaires des notions ou des structures dans l’évolution des sciences contemporaines correspondent, lorsque l’on étudie la psychogenèse de ces mêmes notions ou structures, à des circonstances ou caractères qui rendent compte de la possibilité de leurs transformations ultérieures. Nous en verrons des exemples à propos de la révision de la notion d’un temps absolu puisque dès le départ la durée est conçue en relation avec la vitesse ou dans l’évolution de la géométrie puisque dès les stades initiaux les intuitions topologiques précèdent toute métrique, etc. Mais auparavant il convient encore de préciser les méthodes de l’épistémologie génétique.
3. Les méthodes🔗
L’épistémologie est la théorie de la connaissance valable et, même si cette connaissance n’est jamais un état et constitue toujours un processus, ce processus est essentiellement le passage d’une validité moindre à une validité supérieure. Il en résulte que l’épistémologie est nécessairement de nature interdisciplinaire, puisqu’un tel processus soulève à la fois des questions de fait et de validité. S’il ne s’agissait que de validité seule l’épistémologie se confondrait avec la logique : or son problème n’est pas purement formel, mais revient à déterminer comment la connaissance atteint le réel, donc quelles sont les relations entre le sujet et l’objet. S’il ne s’agissait que de faits, l’épistémologie se réduirait à une psychologie des fonctions cognitives, et celle-ci n’est pas compétente pour résoudre les questions de validité. La première règle de l’épistémologie génétique est donc une règle de collaboration : son problème étant d’étudier comment s’accroissent les connaissances, il s’agit alors, en chaque question particulière, de faire coopérer des psychologues étudiant le développement comme tel, des logiciens qui formalisent les étapes ou états d’équilibre momentané de ce développement et des spécialistes de la science se rapportant au domaine considéré ; il s’y ajoutera naturellement des mathématiciens assurant la liaison entre la logique et le domaine en question et des cybernéticiens assurant la liaison entre la psychologie et la logique. C’est alors en fonction, mais en fonction seulement, de cette collaboration que les exigences de fait et de validité pourront, les unes comme les autres, être respectées.
Mais pour comprendre le sens de cette collaboration il faut rappeler cette circonstance, trop souvent oubliée, que, si la psychologie n’a aucune compétence pour prescrire des normes de validité, elle étudie des sujets qui eux, et à tout âge (de l’enfance la plus tendre à l’âge adulte et jusqu’aux divers niveaux de la pensée scientifique), se donnent de telles normes. Par exemple un enfant de 5-6 ans ignore encore la transitivité et se refusera de conclure que A < C s’il a vu A < B et B < C mais n’a pas perçu ensemble A et C. De même, si l’on verse une quantité de liquide A d’un verre bas et large en un verre haut et mince où elle prendra la forme A’, il se refusera à admettre que la quantité A s’est conservée en A’ mais il acceptera qu’il s’agit de « la même eau » : il reconnaît donc l’identité qualitative, mais rejette la conservation quantitative. À 7 ou 8 ans il considérera au contraire comme nécessaires à la fois la transitivité et la conservation quantitative. Le sujet comme tel (c’est-à -dire indépendamment du psychologue) reconnaît donc des normes. D’où alors plusieurs problèmes :
(1) Comment le sujet en arrive-t-il à se donner de telles normes ? Et c’est là essentiellement une question de psychologie, indépendamment de toute compétence (que la psychologie n’a donc pas) quant à l’évaluation de la portée cognitive de ces normes : c’est, par exemple, l’affaire du psychologue que de déterminer si ces normes ont simplement été transmises par l’adulte à l’enfant (ce qui n’est pas le cas), si elles tiennent à la seule expérience (ce qui ne suffit nullement en fait), si elles résultent du langage et de simples constructions sémiotiques ou symboliques, quoique à la fois syntactiques et sémantiques (ce qui est à nouveau insuffisant) ou si elles constituent le produit d’une structuration en partie endogène et procédant par équilibrations ou autorégulations progressives (ce qui cette fois est le cas).
(2) Il y a ensuite le problème de la validité de ces normes : c’est alors l’affaire du logicien que de formaliser les structures propres à ces étapes successives : les structures préopératoires (sans réversibilité, transitivité ni conservations, mais avec des identités qualitatives et des fonctions orientées également qualitatives, qui à elles deux correspondent à des sortes de « catégories » au sens de Mac Lane, mais très élémentaires et triviales) ou les structures opératoires (avec des caractères de « groupe » ou de « groupoïdes »). C’est donc au logicien de déterminer la valeur de ces normes et les caractères de progrès épistémique ou de régression que présenteront les développements cognitifs étudiés par le psychologue.
(3) Il y a enfin la question de l’intérêt ou de l’absence de signification des résultats obtenus pour le domaine scientifique considéré. Nous nous rappellerons toujours à cet égard le plaisir qu’éprouvait Einstein à Princeton, lorsque nous lui racontions les faits de non-conservation de la quantité de liquide lors d’un transvasement, chez les enfants de 4-6 ans, et combien il trouvait suggestif le caractère tardif de ces conservations quantitatives. Et effectivement si les notions les plus élémentaires et en apparence les plus évidentes supposent une longue et difficile élaboration, on comprend mieux le retard systématique, dans l’histoire, de la constitution des sciences expérimentales comparées aux disciplines purement logico-mathématiques.
4. Nombre et espaceđź”—
Ces quelques indications étant rappelées, cherchons maintenant à donner quelques exemples des résultats obtenus, à commencer par le problème difficile des réductions du nombre à la logique. On sait, par exemple, que Whitehead et Russell ont cherché à réduire les entiers ordinaux à des classes de classes équivalentes par correspondance bi-univoque, tandis que Poincaré estimait que le nombre repose sur une intuition irréductible du n + 1. Depuis lors les théorèmes de Gödel ont en un sens donné raison à Poincaré pour ce qui est des difficultés du réductionnisme en général, mais psychologiquement l’intuition du n + 1 n’est pas primitive et ne se constitue sous une forme opératoire (avec conservation du nombre si l’on modifie l’arrangement des éléments) que vers 7-8 ans et en connexion avec la structuration des classes et des relations asymétriques. Il faut donc chercher une solution qui dépasse à la fois la réduction des Principia et la thèse d’une spécificité entière du nombre naturel.
En fait, on assiste entre 4 et 7 ans à la construction de trois systèmes corrélatifs d’opérations. En premier lieu l’enfant devient capable de sériations, c’est-à -dire d’un enchaînement transitif de relations d’ordre : A avant B, B avant C, etc. En second lieu, il construit des classifications ou « groupements » de classes, dont la forme la plus simple consiste à réunir les classes singulières A et A’ en B, puis B et la classe singulière B’ en C ; puis C et C en D, etc. Admettons maintenant qu’il fasse abstraction des qualités, c’est-à -dire que A, A’, B’, etc. soient considérés comme équivalents et indiscernables quant à leurs qualités (ce qui est le cas s’il s’agit de jetons ou boutons, etc. tous semblables). En ce cas on aurait A + A’ = B’, etc. et par conséquent A + A = A. Pour éviter cette tautologie (c’est-à -dire en fait oublier un élément ou compter deux fois le même, etc.), il n’existe qu’un moyen : c’est de distinguer A, A’, B’, par leur ordre d’énumération : et effectivement cet ordre les différencie, même s’il y a abstraction des qualités car il s’agit en fait d’un ordre « vicariant », c’est-à -dire que si l’on permute les termes on retrouve le même ordre (un premier, un second, etc. selon que le premier n’a pas de prédécesseur, que le second n’en a qu’un, etc.). Le nombre apparaît ainsi comme la synthèse de l’inclusion des classes et de l’ordre sérial, c’est-à -dire comme une combinaison nouvelle, mais à partir de caractères purement logiques.
Quant à la correspondance bi-univoque entre classes, qu’invoquent les Principia, il y a là une sorte de cercle vicieux, car il existe à ce sujet deux sortes d’opérations bien distinctes : ou bien une correspondance qualifiée (un objet correspondant à un autre de même qualité, comme un carré à un carré, un cercle à un cercle, etc.) ou une correspondance quelconque faisant abstraction des qualités. Mais en ce dernier cas l’objet individuel devient une unité arithmétique et cesse d’être seulement logique (classe singulière qualifiée) : rendre deux classes équivalentes par une correspondance « quelconque » revient alors à introduire implicitement le nombre dans la classe pour l’en tirer ensuite explicitement ! D’ailleurs Whitehead et Russell sont bien conduits eux aussi à faire appel à l’ordre, puisque, pour éviter la tautologie 1 + 1 = 1 et aboutir à l’itération 1 + 1 = 2, ils en viennent à distinguer 0 + 1 de 1 + 0. En disant que le nombre est la synthèse de l’inclusion et des relations d’ordre, nous résumons donc simplement ce que chaque axiomatisation est obligée de dire sous une forme ou sous une autre.
Un certain nombre de conséquences ont pu ensuite être tirées de là quant à la spécificité des raisonnements récurrentiels, dont on trouve des exemples remarquablement précoces chez l’enfant à un niveau déjà préopératoire 3.
Quant aux problèmes de l’espace, nous avons pu insister sur le caractère essentiellement opératoire de la formation de cette notion, qui ne se réduit nullement à l’expérience perceptive, malgré les essais de réduction de F. Enriques des différentes formes de géométries à des catégories sensorielles distinctes. À cet égard, la question se posait d’établir si les opérations spatiales, au cours du développement intellectuel spontané (et indépendant de l’école) se constitueraient conformément à l’ordre historique (métrique euclidienne, puis intuitions projectives et enfin découverte des liaisons topologiques), ou si elles suivraient un ordre de formation plus conforme à l’ordre théorique (intuitions topologiques au départ avec ensuite constitutions parallèles d’un espace projectif et d’une métrique pouvant prendre la forme euclidienne). Or, si l’on considère à part l’espace perceptif et sensori-moteur (se constituant dès les premiers mois de l’existence) et l’espace notionnel ou opératoire, on retrouve dans les deux domaines (mais avec décalage chronologique) la même loi d’évolution : prédominance initiale des liaisons topologiques de voisinage, continuité, fermeture, positions par rapport aux frontières, etc., et ensuite seulement constitution simultanée et corrélative de relations euclidiennes et projectives, jusqu’à une coordination des points de vue quant à ces dernières et des références métriques (mesures à deux ou trois dimensions et coordonnées naturelles) quant aux premières. Il est en particulier à noter combien longtemps les évaluations ordinales l’emportent sur les considérations métriques : de deux tiges droites dont l’égalité de longueur a été vérifiée par congruence, celle qui, tôt après, est mise en décalage et dépasse quelque peu l’autre est estimée « plus longue » parce qu’elle arrive « plus loin » ; et il est facile de vérifier qu’il ne s’agit pas simplement là d’un malentendu sémantique car les deux dépassements (de la tige supérieure en avant et de l’inférieure en arrière) ne sont pas jugés égaux.
5. Temps et vitesseđź”—
Un autre exemple de jonction entre des problèmes psychogénétiques et l’épistémologie des sciences contemporaines est celui des relations entre le temps et la vitesse. On sait, en effet, qu’il a toujours existé une sorte de cercle vicieux entre ces deux notions : on définit la vitesse au moyen du temps, mais on ne peut mesurer les durées qu’au moyen de vitesses. Il y a donc là un problème quant à la filiation épistémologique de ces deux concepts. D’autre part, dans la mécanique classique ou newtonienne, le temps et l’espace sont deux absolus correspondant à des intuitions simples (le sensorium Dei de Newton), tandis que la vitesse n’est qu’une relation entre eux. Dans la mécanique relativiste au contraire la vitesse devient un absolu et le temps (comme l’espace) lui est relatif. Qu’en est-il alors du point de vue psychogénétique ?
L’observation nous montre, en fait, qu’il existe une intuition primitive de la vitesse, indépendante de toute durée et qui résulte de ce primat de l’ordre dont nous venons de parler à propos de l’espace : c’est l’intuition du dépassement cinématique. Si un mobile A est derrière B en un moment T1 et qu’il passe devant le mobile B en un moment T2 il est jugé plus rapide, et cela à tout âge : or il n’intervient ici que l’ordre temporel (T1 avant T2) et l’ordre spatial (derrière et devant) mais aucune considération des durées ni des espaces parcourus. La vitesse est donc initialement indépendante des durées. Par contre les durées supposent à tout âge une composante de vitesse (ou lorsqu’il y a négligence de la vitesse il y a erreur d’estimation de la durée): si les mobiles A et B partent ensemble du même point dans la même direction, les jeunes sujets diront qu’ils partent en même temps, mais qu’ils ne s’arrêtent pas au même moment, même en reconnaissant que quand l’un s’arrête l’autre ne marche plus : lorsque cette simultanéité des arrêts, niée jusque vers 6 ans, est reconnue, le sujet continue de ne pas croire à l’égalité de ces durées synchrones, et cela jusque vers 8 ans. Les simultanéités et durées sont ainsi subordonnées à des effets cinématiques et l’on pourrait en donner bien d’autres exemples et la croyance à l’équivalence « plus vite = plus de temps » si fréquente avant 7 ans et qui s’explique par une sorte d’équation : plus vite = plus loin = plus de temps.
En un mot la genèse même des notions de vitesse et de temps rend assez compréhensible que l’intuition d’un temps universel et absolu n’ait rien de nécessaire et que, produit d’un certain niveau d’élaboration des connaissances, elle ait pu céder le pas à des analyses fondées sur des approximations plus poussées.
6. L’objet permanent, l’identité et les conservations🔗
Un autre exemple de rencontre imprévue entre l’histoire récente des sciences et la psychogénèse est fourni par la notion de la permanence des objets. Cette permanence qui paraissait évidente et nécessaire au début de ce siècle a, comme on le sait bien, été mise en doute par la microphysique contemporaine, pour laquelle un objet n’existe en tant qu’objet (par opposition à son onde) que dans la mesure où il est localisable. Il peut donc être intéressant de chercher à établir comment s’est constituée la notion de l’objet, puisqu’elle n’apparaît plus comme revêtue du même caractère de nécessité que son histoire antérieure semblait lui conférer.
Or, l’analyse de la première année du développement mental montre que cette permanence de l’objet ne correspond à rien d’inné : l’univers primitif est, pendant les premiers mois de l’existence, un univers sans objets, formé de tableaux perceptifs qui apparaissent et disparaissent par résorption, un objet n’étant pas recherché dès qu’il est masqué par un écran (le bébé retirant par exemple sa main s’il était prêt à le saisir et qu’on le recouvre d’un mouchoir). Lorsque l’enfant commence à le rechercher, en soulevant le mouchoir en A où l’objet vient d’être recouvert, et que l’on déplace l’objet sous B (par exemple à sa droite tandis que A était à gauche du sujet) l’enfant, voyant pourtant l’objet être placé en B lors de sa nouvelle disparition, le recherche souvent en A, c’est-à -dire là où son action a réussi une première fois et sans s’occuper des déplacements successifs de l’objet qu’il a pourtant perçus en les suivant avec attention. Ce n’est que vers la fin de la première année qu’il recherche l’objet sans hésiter à l’endroit où il a disparu en dernier lieu : la permanence de l’objet est ainsi liée de près à sa localisation dans l’espace, et, comme on le voit, celle-ci dépend elle-même de la construction du « groupe des déplacements » que H. Poincaré mettait avec raison à la source de l’élaboration de l’espace sensori-moteur. Seulement Poincaré voyait dans ce groupe une forme a priori de notre activité et de notre pensée, parce qu’il considérait comme une donnée première la distinction des changements de position (que l’on peut corriger par un déplacement corrélatif du corps propre) et les changements d’états : or, tant qu’il n’y a pas d’objets permanents, tout est changement d’états. Le groupe des déplacements devient donc nécessaire par l’organisation progressive des actions, mais il ne l’est pas de façon préalable et ne constitue donc pas une forme a priori. On comprend, d’autre part, pourquoi l’objet lui-même dont la permanence dépend des possibilités de localisation, puisse la perdre dans les domaines où la localisation fait défaut.
La permanence de l’objet constitue, avec celle du corps propre (connu lui-même en liaison avec l’observation du corps d’autrui qui est précisément le premier des objets devenus permanents), la première des formes de ce que l’on peut appeler « l’identité qualitative » dans le développement préopératoire du sujet. On peut à cet égard faire de multiples recherches entre 2-3 et 7-8 ans, en demandant, par exemple, si de l’eau qui change de forme en changeant de récipient est toujours « la même eau » ; si un fil de fer auquel on donne des formes de droite ou d’arc de cercle est toujours « le même fil » ; si une « algue » (chimique) que l’enfant voit passer en quelques minutes de l’état de grain à l’état d’arborescence dans un liquide est toujours « la même algue » ; ou encore en demandant dans une expérience perceptive de mouvement apparent (stroboscopique) où un rond semble se transformer en carré ou en triangle, si c’est le même objet qui change de forme ou s’il y en a deux sans changement ; etc. Or, deux résultats nets ont été ainsi obtenus. Le premier est que le champ de l’identité augmente avec l’âge : c’est ainsi que dans le cas de l’« algue » (étudié par G. Voyat) les jeunes sujets disent que l’algue, en grandissant n’est plus « la même algue » puisqu’elle passe de la classe des « petites » à celle des « moyennes » ou des « grandes », etc. : à 7-8 ans c’est au contraire « la même ». Ce second résultat est que les identités précoces sont bien antérieures aux conservations quantitatives : l’« eau » qu’on a versée est « la même eau » bien qu’il y en ait maintenant un peu plus si le niveau est plus élevé, etc.
Cette antériorité de l’identité sur la conservation quantitative est intéressante au point de vue épistémologique. Avant de constituer une opération proprement dite (l’« opération identique » d’un groupe, ou adjonction de l’« élément neutre ») l’identité n’a qu’une signification qualitative et s’obtient par simple dissociation des qualités constantes (la même matière, la même couleur, etc.) et des qualités variables (forme, etc.): elle ne suppose donc aucune structure opératoire pour se constituer et apparaître en même temps que les fonctions à sens unique (applications) : par exemple si un fil se déplace selon un angle droit l’enfant comprend dès 4-5 ans que le segment B augmente en fonction de la diminution du segment A, et il dira que c’est « le même fil », bien qu’il croie que sa longueur totale A + B se modifie avec le déplacement.
Par contre la conservation de cette longueur totale ou de la quantité d’un liquide transvasé, etc. n’est acquise que vers 7-8 ans parce qu’elle suppose des opérations de quantification (compensations entre la dimension qui augmente et celle qui diminue, etc.) : la quantité suppose donc une construction et n’est pas donnée par simple constatation perceptive comme les qualités. Au niveau préopératoire, la seule quantification possible demeure de nature ordinale : « plus long » veut, par exemple, dire « arrivant plus loin », d’où la non-conservation des liquides transvasés parce que leur quantité est jugée simplement par l’ordre des niveaux (arrivant « plus haut », etc.) sans tenir compte des autres dimensions.
La conservation ne dérive donc pas de l’identité, comme le croit J. Bruner et comme le croyait E. Meyerson : elle suppose une composition opératoire des transformations, qui insère l’identité dans un cadre plus large de réversibilité (possibilité des opérations inverses) et de compensations quantitatives, avec les synthèses qui constituent le nombre et la mesure et dont il a été question sous 4. Un grand nombre de recherches ont pu être faites sur la constitution de ces notions de conservation et elles convergent toutes vers cette interprétation épistémologique opératoire.
7. Le hasardđź”—
Il nous reste à dire quelques mots d’une notion assez fondamentale au point de vue épistémologique et dont au premier abord l’origine paraît toute différente de celle des notions précédentes : la notion du hasard, qui a été définie par Cournot comme une interférence de séries causales indépendantes et qui correspond ainsi à ce que l’on peut désigner en général sous le terme de « mélange ». Or, le mélange est irréversible et s’accroît avec une probabilité de plus en plus faible de retour à l’état initial. On peut donc se demander si, aux niveaux préopératoires, c’est-à -dire antérieurs à 7-8 ans, où l’enfant ne parvient point encore à manipuler les opérations inverses ou réciproques, donc la réversibilité, il aura de ce fait même une intuition de l’irréversibilité et parviendra ainsi à une compréhension immédiate du mélange aléatoire.
Pour répondre à cette question, il convient de distinguer deux plans : celui de l’action et celui de la notion. Au plan de l’action, il va de soi que l’enfant est conduit très tôt à tenir compte de fluctuations fortuites, par exemple, à prévoir qu’un objet qui tombe peut arriver au sol sur un côté ou sur un autre, et à évaluer certaines « probabilités subjectives », par exemple à prévoir qu’il aura plus de peine à traverser une rue si elle est pleine d’autos que s’il y en a peu. Mais autre chose est de comprendre le hasard comme tel, en tant que notion d’interférence ou de mélange et de le distinguer de l’arbitraire ou d’un système d’intentions imprévisibles. Nous nous sommes donc livrés, avec B. Inhelder, à un ensemble d’expériences portant sur des situations très simples de pile ou face, de distributions aléatoires élémentaires et surtout de mélanges progressifs : par exemple en faisant basculer plusieurs fois de suite une boîte où sont massées au départ 10 perles blanches et 10 noires, prévoir qu’à chaque mouvement successif de bascule, les perles vont se mélanger davantage au lieu de revenir chacune en son casier, les noires sur la gauche et les blanches sur la droite. Or, deux résultats nets se sont dégagés de telles observations.
Le premier est que jusque vers 7-8 ans il n’y a pas de notion explicite du hasard : en principe on pourrait tout prévoir, dans le comportement des objets individuels, et si les perles se mélangent, contrairement aux prévisions, elles finiront vite par se « démélanger » en rentrant dans l’ordre initial (et souvent après un chassé-croisé qui mènera toutes les blanches du côté des noires et l’inverse). La seconde conclusion, et là est l’essentiel, est que l’irréversible n’est compris qu’en se référant à la réversibilité déductible à laquelle il s’oppose : autrement dit, il faut que le sujet parvienne à construire des structures d’opérations réversibles pour comprendre l’existence de processus qui échappent à ce modèle et ne sont pas déductibles. Après quoi l’opération prend sa revanche sur le hasard et parvient à un calcul des probabilités, mais portant sur les ensembles (grands nombres) et non pas sur les cas individuels. En un mot, l’évolution de la notion de hasard est elle-même subordonnée à la construction des structures opératoires.
8. Conclusionsđź”—
Ces quelques exemples, choisis parmi bien d’autres possibles, montrent l’éventuelle fécondité d’une méthode qui cherche à atteindre les mécanismes de la connaissance en leur source et en leur développement. Si, comme nous le disions au début de cet exposé, la connaissance constitue toujours un processus et ne saurait être figée en ses états toujours momentanés, il va de soi que de telles recherches s’imposent, car l’histoire des sciences ou des idées demeure inévitablement lacunaire. Il est vrai qu’il faut vaincre un certain nombre de préjugés tenaces, quand on s’occupe d’épistémologie logique, mathématique ou physique, pour comprendre qu’une liaison peut être utile avec une discipline aussi restreinte et d’apparence aussi peu solide que la « psychologie de l’enfant » ou du développement. Mais en fait un nombre croissant de spécialistes se sont intéressés à notre Centre international d’épistémologie génétique et ont collaboré à nos publications. Vingt-deux volumes ont déjà paru dans notre collection d’« Études d’épistémologie génétique » (Presses universitaires de France, à Paris) et quatre sont encore sous presse. Ils portent sur la formation des structures logiques, sur la construction du nombre, de l’espace, des fonctions, etc., sur la lecture de l’expérience et la logique des apprentissages, sur les notions d’ordre, de vitesse et de temps, sur les relations entre la cybernétique et l’épistémologie, etc. Nous sommes actuellement plongés dans l’étude difficile de la causalité. Le travail de chaque année est discuté en un symposium final et à ces réunions ont participé d’éminents spécialistes comme W. V. Quine, E. W. Beth, F. Gonseth, Th. S. Kuhn. M. Bunge, D. Bohm, W. McCulloch, B. Kedroff, etc.