La psychologie. Tendances principales de la recherche dans les sciences sociales et humaines, première partie : Sciences sociales (1970) a 🔗
La psychologie scientifique, tout en donnant prise à des méthodes d’expérimentation proprement dites, qui ne sont guère (ou beaucoup moins) accessibles à des disciplines comme la linguistique ou la science économique, a mis plus de temps qu’elles à déterminer l’objet spécifique de ses recherches. Il y a à cela deux raisons en réalité complémentaires. D’une part, en effet, la psychologie s’occupant avant tout de la personne humaine a été longtemps tributaire de la philosophie et n’est donc parvenue qu’assez laborieusement à comprendre les limites de l’introspection et la nécessité de situer la conscience dans le contexte général des « conduites ». D’autre part, une fois décentrée par rapport à la seule introspection, la psychologie scientifique n’a d’abord trouvé en l’homme qu’un mélange d’éléments biologiques et sociaux, avant que les tendances structuralistes contemporaines ne redécouvrent une spécificité mentale plus large et plus profonde que la conscience, tout en englobant celle-ci et en conservant ses liaisons avec l’organisme et avec la vie collective.
Décrire les tendances de la psychologie scientifique contemporaine, ce sera donc d’abord analyser les raisons de sa dissociation d’avec la philosophie (tout en réservant ses contacts sans cesse renaissants avec l’épistémologie). Puis ce sera rappeler l’empirisme des débuts, qui réapparaît aujourd’hui encore toutes les fois que les auteurs se méfient des théories explicatives et se confinent dans la description des observables ou des lois. Ce sera ensuite montrer comment la recherche de l’explication conduit souvent à des essais de réduction dans la direction de la vie organique, ou même, par delà celle-ci, de mécanismes physiques généraux, ou de la vie sociale. Enfin ce sera dégager les divers types de recherches tendant à atteindre la spécificité de la vie mentale ou du comportement dans la direction soit de données qualitatives internes (psychanalyse), soit des observables globaux et quantifiables (comportement), soit d’un structuralisme génétique, soit de modèles abstraits. Un tel tableau sera naturellement complété par des indications sur les tendances interdisciplinaires de la psychologie et sur les multiples applications de cette branche particulière des sciences de l’homme.
1. Psychologies scientifique et philosophique🔗
À relever objectivement l’état des faits et des tendances, deux constatations s’imposent. D’une part l’Union internationale de psychologie scientifique, qui groupe les sociétés de psychologie nationales (environ 40 000 membres individuels pour l’ensemble) n’a jamais voulu adhérer au Conseil international de philosophie et des sciences humaines, non pas naturellement parce qu’elle se désintéresse de celles-ci, mais parce qu’elle tient à garder ses distances à l’égard de la spéculation philosophique, tandis que cette dernière ne menace en rien la linguistique ou la démographie. D’autre part, il existe des penseurs pour lesquels la psychologie scientifique ne suffit pas à fournir une connaissance de l’homme et doit être complétée par une « psychologie philosophique » (dite aussi « anthropologie philosophique »). Il importe donc, pour comprendre les tendances de la psychologie scientifique contemporaine, de commencer par marquer les différences entre ces deux courants et par dégager les exigences propres à la psychologie comme science.
I🔗
Pour de nombreux auteurs, en particulier d’opinions positivistes, la différence entre les psychologies scientifique et philosophique (et ils contestent alors en général toute signification à celle-ci) tient à la nature des problèmes considérés : la science psychologique, comme toute autre science, ne porterait que sur des « observables », tandis que la philosophie chercherait à atteindre la nature des choses et les « essences ».
Au premier abord, c’est bien ainsi que les choses semblent se présenter. Chacun accorde, par exemple, que le problème de la liberté ou de la non-liberté de la volonté humaine est un problème relevant de la philosophie et non pas de la psychologie scientifique (même quand les psychologues admettent par méthode un déterminisme méthodologique en ce qui concerne les phénomènes), tandis que chacun reconnaît que les lois de la mémoire ou de la perception donnent prise à des recherches de caractère scientifique. Seulement l’histoire même de la psychologie montre immédiatement que la frontière entre les problèmes considérés comme philosophiques et les problèmes scientifiques s’est constamment déplacée et en des sens qui étaient imprévisibles. Par exemple, à la fin du siècle dernier, les psychologues s’occupaient peu du mécanisme du jugement dans le domaine de l’intelligence, ou le considéraient sans plus comme relevant des associations d’idées, en laissant aux logiciens le soin d’en dire davantage. Quand Marbe en a entrepris l’étude, il a simplement considéré que, en plus du facteur d’association, intervenait un « facteur extra-psychologique » ou logique, qui ne concernait pas les psychologues. Aujourd’hui, par contre, les théories de l’intelligence sont multiples et personne ne songe à retrancher le jugement du champ de la psychologie. Il serait donc extrêmement aventureux de classer actuellement les problèmes psychologiques en scientifiques et philosophiques et la tendance la plus répandue consiste à concevoir la science comme indéfiniment ouverte et décidant elle-même à chaque instant des problèmes qui la concernent 1.
Pourquoi donc, en un moment considéré de l’histoire, certains problèmes sont-ils envisagés comme relevant de la psychologie scientifique et d’autres comme n’en relevant pas et pouvant être abandonnés à la philosophie ? Tout simplement parce qu’il existe des questions qui peuvent être suffisamment délimitées pour donner lieu à une solution par le moyen de l’expérience et du calcul et que les solutions ainsi obtenues sont susceptibles de rallier l’accord général des chercheurs (ou, en cas de désaccord momentané, de donner lieu à des contrôles ou vérifications laissant espérer un accord ultérieur). Si le problème de la liberté n’intéresse pas (ou pas actuellement) la science, c’est donc non pas à cause de sa nature (phénomène ou « essence », etc.), mais parce que l’on ne voit pas, ou pas encore, le moyen de le poser en termes de vérification expérimentale ou algorithmique et que, du moins dans l’état actuel des choses, les solutions qu’on nous propose dépendent de jugements de valeur, de croyances, etc., tous respectables mais irréductibles les uns aux autres, ce qui constitue un état de fait acceptable en philosophie, mais non pas dans les sciences.
En seconde approximation, on dira donc que la frontière entre les psychologies scientifique et philosophique est affaire de méthodes : méthodes objectives, d’un côté, et simplement réflexives, intuitives ou spéculatives de l’autre. Mais dans un domaine comme l’étude des faits mentaux, qui concerne chacun, où est la limite entre l’objectivité et l’intuition subjective ? On a souvent tendance à croire que cette ligne de partage est relative à l’introspection. Effectivement il a existé une école en psychologie (le behaviorisme, aujourd’hui notablement atténué 2) qui proscrivait toute référence à la conscience pour s’en tenir au seul comportement. Mais il a aussi existé des philosophies qui ont défendu un matérialisme dogmatique et il serait donc entièrement erroné de soutenir que la psychologie scientifique ignore la conscience, tandis que la psychologie philosophique en fait son objet d’analyse. Toute une école de psychologie allemande (la Denkpsychologie de Wurzburg) a même tenté au début de ce siècle, pendant qu’A. Binet s’occupait des mêmes problèmes à Paris, de faire rendre à l’introspection son maximum d’information en utilisant une méthode d’introspection provoquée et en centrant l’introspection sur des questions bien délimitées et décidables : le rôle de l’image dans la pensée et les différences entre un jugement et une association d’idées, etc. Et si ces travaux ont mis en évidence les limites de l’introspection, comme on y reviendra à l’instant, ils n’ont nullement abouti à lui dénier toute signification.
Il serait tout aussi faux de supposer que la psychologie philosophique est seule à considérer l’être humain comme sujet, par exemple comme sujet de connaissance du point de vue épistémologique, tandis que la psychologie scientifique en ferait un objet, car il n’y a là qu’un jeu de mots inconscient (quand il n’est pas délibéré) visant à confondre l’étude objective du sujet avec l’ignorance ou la négligence de ce sujet. Même en psychologie animale ou éthologie, la tendance générale actuelle est de traiter l’être vivant en sujet et K. Lorenz, un des fondateurs de l’« objectivisme » en éthologie (c’est-à-dire de la méthode d’étude objective de l’animal en son milieu même et pas seulement en laboratoire) vient d’écrire une étude très suggestive sur les analogies entre ses conceptions de la connaissance instinctive ou acquise et le point de vue kantien en épistémologie. En psychologie de l’intelligence tous les travaux de l’école de Genève sur le développement des notions et opérations intellectuelles chez l’enfant aboutissent également à montrer le rôle des activités du sujet dans l’élaboration des connaissances, par opposition au rôle exclusif de l’expérience passive au sens de l’empirisme.
Si la différence entre les psychologies scientifiques et philosophiques ne tient ni à l’introspection ni à la considération du sujet, il faut donc la chercher sur un point plus délimité, qui est encore un point de méthode mais qui touche exclusivement au rôle du moi du chercheur lui-même. L’objectivité, telle que l’entend la psychologie scientifique en ses tendances actuelles, ce n’est nullement la négligence ou l’abstraction de la conscience ou du sujet, c’est la décentration par rapport au moi de l’observateur. D’où les trois directions principales de la recherche ou les trois grands points de vue qui caractérisent les tendances les plus générales de la psychologie contemporaine : (1) Le point de vue de la conduite, c’est-à-dire du comportement y compris la conscience ou la prise de conscience. L’introspection à elle seule est insuffisante, parce qu’elle est à la fois incomplète (elle atteint les résultats du travail mental et non pas son mécanisme intime) et déformante (parce que le sujet qui s’introspecte est à la fois juge et partie, ce qui joue un rôle considérable dans les états affectifs, et même dans le domaine cognitif où l’on projette dans l’introspection sa propre philosophie). Mais la conscience demeure un phénomène fondamental si on la situe dans l’ensemble de la conduite et, de ce point de vue, on étudiera la « prise de conscience ». Claparède a ainsi montré que des enfants, à l’âge où ils généralisent à outrance, ont plus de peine à dégager les ressemblances entre deux objets (comme une mouche et une abeille) que leurs différences, la prise de conscience renversant ainsi l’ordre du travail effectif et procédant de la périphérie (désadaptations de l’action) au centre (mécanisme intime) et non pas l’inverse. (2) Le point de vue génétique, au sens du développement ontogénétique : à ne considérer que l’adulte, on n’aperçoit que des mécanismes déjà constitués, tandis qu’à suivre le développement on atteint leur formation, et seule la formation est explicative. (3) Le point de vue structuraliste, non encore admis par chacun mais dont nous verrons qu’il correspond à une tendance de plus en plus profonde et contraignante : c’est la recherche des structures de comportement ou des structures de pensée résultant de l’intériorisation progressive des actions, mais de structures dont on peut établir expérimentalement les effets alors que le sujet lui-même, tout en les ayant construites par son activité même, ne prend pas conscience de leur existence en tant que structures. La psychologie de la Gestalt a frayé la voie à ce genre de recherches que l’on retrouve aujourd’hui dans les domaines les plus variés : structures psycho-linguistiques, psycho-sociales, structures des opérations de l’intelligence, etc.
Cela étant, on comprend alors mieux les frontières entre les psychologies scientifique et philosophique. Ce ne sont ni les problèmes ni les domaines d’études qui les séparent et n’importe quelle question abordée par les psychologies philosophiques peut ou pourrait entrer dans le champ de la psychologie scientifique, de même qu’on voit des philosophes s’occuper du comportement, du développement ou des structures. La seule différence tient à la décentration du moi : là où le psychologue prétend n’avancer que des hypothèses vérifiables par chacun, en fournissant dans ses techniques bien différenciées les instruments du contrôle, le philosophe admet qu’il se connaît lui-même grâce à un ensemble d’intuitions jugées primitives et préalables à toute connaissance psychologique, et l’introspection qu’il utilise est donc une introspection centrée sur son moi. C’est d’un tel point de vue que Maine de Biran croyait saisir une cause et une force dans le sentiment de l’effort, alors que P. Janet et d’autres ont montré depuis que la « conduite » de l’effort (et non pas sa conscience) est une régulation des activations de l’action, qui distribue mais ne crée pas les énergies disponibles. C’est du même point de vue que Bergson a opposé une mémoire pure, qu’il croyait pouvoir atteindre par intuition directe, à la mémoire motrice ou habitude, alors que les travaux contemporains permettent de distinguer au moins dix niveaux de transition entre la récognition des indices (forme de mémoire liée aux conduites innées et aux habitudes sans se confondre avec elles tout en s’appuyant sur elles) et les conduites de reconstitution puis d’évocation. C’est du même point de vue que Merleau-Ponty voit en tout comportement une « conscience incarnée » et cherche à concilier la recherche d’une conscience primordiale et d’une continuelle activité de « transcendance » sans pouvoir décider si l’individu est déterminé par l’ensemble des conduites, l’ensemble de son passé et l’ensemble des structures dans la seule mesure où il a conscience de ces données, ou si la conscience n’est qu’un achèvement que seule l’étude intégrale du développement permet de situer dans son contexte authentique.
Mais si les différences entre la psychologie scientifique et la philosophie semblent ainsi claires, il va de soi qu’elles concernent surtout les tendances. En fait, chaque psychologue demeure en partie tributaire de sa propre épistémologie et c’est à cette raison que E. Nagel attribue la persistance de différentes « écoles » en psychologie 3. D’autre part, aucun auteur ne se prive d’observations faites sur son moi, même si celui-ci diffère quelque peu des autres et de purs positivistes comme R. Carnap et R. von Mises vont jusqu’à admettre aujourd’hui que l’observation interne ne diffère pas « en principe » de l’observation extérieure 4 tout en pouvant porter sur des observables distincts de ceux de la physique et même de la physiologie 5. Seulement la différence subsiste que si la psychologie scientifique reste ouverte à tous les problèmes et à toutes les données, c’est toujours avec l’intention d’atteindre des explications objectives en se pliant aux règles générales de la vérification expérimentale et même, dans la mesure du possible actuel, de la formalisation. Si le discours philosophique peut se contenter de la vraisemblance des postulats et de la cohérence des idées, l’héritage non négligeable qu’en a tiré la psychologie n’est devenu valable que soumis à de tels contrôles. En particulier, depuis la révolution behavioriste, l’introspection, au lieu de fournir un « en-soi » véhiculé par les propos du sujet, est devenue une conduite parmi les autres, soumise aux lois de la « prise de conscience » et réintégrée dans l’ensemble des comportements : à tel point qu’avec Stevens la psychophysique elle-même a pu utiliser des échelles subjectives et qu’on voit se développer aujourd’hui de multiples méthodes d’estimation des données qualitatives, des attitudes et des opinions.
2. L’empirisme sans structuralisme et le besoin d’explication en psychologie🔗
Lorsqu’une science jeune se constitue et de plus est obligée de se détacher, non sans conflits, de la philosophie, elle met en général du temps à découvrir ses tendances principales, parce que celles-ci sont loin d’être conscientes dès le départ (nouvel exemple des difficultés de la prise de conscience) et ne se découvrent qu’en fonction de tâtonnements successifs et souvent même des erreurs ou exagérations des théories initiales.
I🔗
À cet égard, l’associationnisme de la psychologie naissante du xixe siècle, qui cherchait à tout expliquer par des associations mécaniques entre des éléments atomistiques préalables constitués par les sensations et les images, a peut-être rendu plus de services par ses exagérations et son impérialisme de départ que s’il se fût présenté sous une forme modérée comme une hypothèse parmi d’autres possibles. C’est, en effet, lui qui a provoqué par réaction le fonctionnalisme américain, source de la psychologie des conduites, les travaux de la Denkpsychologie allemande et surtout de la théorie de la Gestalt, sources au moins partielles du structuralisme contemporain ; sans parler de la psychanalyse, de l’œuvre de Binet (qui a débuté par l’associationnisme pour s’en détacher résolument dès 1903), de P. Janet et de tant d’autres qui ont ouvert la voie à la psychologie génétique.
Seulement, au sein de cette dialectique de théories conquérantes mais hasardeuses et de doctrines plus profondes qui comblent les lacunes des premières, il surgit périodiquement une tendance dont il est utile de faire mention au début de ce chapitre parce qu’elle renaît sans cesse de ses cendres et compte des représentants contemporains comme historiques : c’est la tendance positiviste qui consiste à s’en tenir aux seuls observables et à établir entre eux des relations répétables, sans souci de dépasser le niveau des faits généraux ou lois par une recherche des explications ou par l’élaboration de théories interprétatives.
Notre objectif n’étant pas l’histoire, mais l’explicitation des principales tendances de la psychologie contemporaine, il suffira, quant au passé, de marquer le contraste assez saisissant que l’on éprouve en feuilletant les actes des premiers congrès internationaux de psychologie pour les comparer à ceux d’aujourd’hui, ou de confronter à son état actuel la situation de la psychologie américaine d’il y a une quarantaine d’années encore. Alors que la grande majorité des recherches contemporaines sont organisées en vue de la solution d’un problème et que leurs résultats sont bien souvent ensuite traduits en des modèles plus ou moins généraux ou abstraits, on a longtemps procédé par collections de faits, comme si les problèmes ou leurs solutions surgissaient après coup. On pouvait, par exemple, trouver dans un laboratoire (encore en 1929) d’admirables documents récoltés année par année sur les mêmes écoliers et fournissant un tableau longitudinal très riche de leurs performances selon tous les tests connus, sans que les auteurs de ce travail de bénédictin sachent ce qu’ils allaient en tirer, tandis qu’aujourd’hui une étude longitudinale n’est entreprise que pour vérifier un ordre de succession nécessaire de stades ou des variations dans la vitesse de croissance, etc. et seule une position précise du problème rend utilisables les faits sélectionnés en cette intention.
Le positivisme contemporain n’a plus ces candeurs et l’un de ses représentants les plus connus et les plus qualifiés, F. Skinner, se pose, par exemple, des problèmes précis d’apprentissage en psychologie animale et humaine. Mais, ne voulant avancer que des données certaines, Skinner en est venu à limiter volontairement et méthodologiquement ses analyses à deux sortes d’observables : les inputs ou stimuli présentés au sujet et les outputs ou réactions constatables et mesurables qui s’ensuivent. Entre deux il y a, bien sûr, l’organisme avec toutes ses variables intermédiaires psychologiques ou mentales, mais par méthode Skinner les ignore et compare cet organisme à une « boîte noire » dont on peut mettre en relation les entrées et les sorties sans rien savoir de ce qui se passe en son intérieur. Ainsi limitée, la recherche n’en a pas moins été féconde et l’on peut noter deux faits à cet égard.
Le premier est l’utilisation de l’« apprentissage instrumental », découvert par Konorski. Avant cet auteur on supposait que tout apprentissage résulte de « renforcements externes » dus à l’expérience ou à l’expérimentateur, qui sanctionnent par des réussites ou récompenses ou par des échecs ou punitions, les réactions du sujet étudié. Konorski a montré qu’il existe au contraire des apprentissages liés à l’utilisation spontanée d’intermédiaires fournis dans le dispositif. C’est ainsi que Skinner a placé dans ses cages expérimentales des sortes de leviers tels que si l’animal en vient à les presser, d’abord par hasard puis systématiquement, la nourriture apparaît. Il a alors observé sur des pigeons, des rats, etc. que l’animal enfermé en arrive, au cours de ses explorations, à agir sur le levier qui devient alors une sorte d’instrument procurant la nourriture. Notons d’emblée à cet égard combien il est suggestif de voir un auteur qui, par système, fait abstraction de l’intérieur de la « boîte noire », utiliser systématiquement une activité fonctionnelle du sujet et une activité quasi instrumentale (sans d’ailleurs qu’elle exclue des renforcements divers). Skinner a fait alors l’observation essentielle que ses pigeons apprenaient plus rapidement ce qu’on attendait d’eux, dans les variations multiples de l’expérience, lorsque l’ensemble du dispositif était réglé mécaniquement quant à la distribution des résultats de chaque action, que si l’expérimentateur s’en mêlait dans le détail. Étant lui-même professeur, Skinner a eu alors l’idée audacieuse d’essayer sur ses étudiants une distribution programmée de nourriture psychologique au moyen d’appareils distributeurs offrant pour chaque question plusieurs solutions au choix : en pressant les boutons correspondants l’étudiant constate alors si son choix est correct ou erroné ; s’il est correct, la manœuvre continue, tandis qu’en cas d’erreur la question est posée à nouveau. On sait assez comment le résultat de cette expérience psycho-pédagogique a conduit Skinner et ses continuateurs à généraliser cette méthode d’enseignement programmé à l’acquisition des langues, du calcul, etc. et combien ce procédé est en vogue actuellement en certains milieux et discuté en d’autres. Parmi les opposants, il faut rappeler le grand linguiste N. Chomsky, pour lequel l’apprentissage spontané du langage est résolument irréductible aux modèles de Skinner 6.
Le strict positivisme dont nous venons de donner un exemple est donc très loin d’être infécond au point de vue expérimental ou même théorique. Le but de cet ouvrage n’étant pas une analyse critique des positions de chacun, mais une étude des tendances, nous n’avons pas à exprimer d’opinion au sujet de cette première tendance, mais à montrer pourquoi elle n’est pas suivie par la généralité des chercheurs et en quoi elle est complétée ou remplacée par d’autres.
II🔗
La première constatation à faire à cet égard est que, en général (ce n’est pas le cas de Skinner et nous verrons pourquoi), un pur empirisme conduit à un morcelage atomistique des conduites et exclut tout structuralisme, non pas par induction ou déduction réfléchies, mais implicitement et par le découpage même des problèmes. La tendance naturelle de l’esprit est d’expliquer le complexe par le simple et de considérer sans plus comme simple ce qui paraît tel par dissociation directe du complexe ; et (ce qui revient au même) l’opération la plus élémentaire de l’esprit est l’opération d’addition, qui porte à croire que tout système complexe est le produit d’une pure réunion additive d’éléments simples. Un empirisme non élaboré risque donc toujours de déformer la réalité mentale en la réduisant à des « atomes » artificiels au lieu d’atteindre des structures d’ensemble. C’est ce qui est arrivé à l’associationnisme classique : dissolvant sans plus (c’est-à-dire sans y voir de problème ni la nécessité d’une justification) la perception en sensations, postulant, d’autre part, la conservation des sensations antérieures sous forme d’images, il ne restait plus qu’à réduire l’activité du sujet à un système d’associations destinées à relier les sensations aux images ou celles-ci les unes aux autres, pour retrouver les totalités concrètes et effectives que sont la perception, le concept, le jugement, etc.
Le modèle actuel stimulus-réponses (ou S → R), qui a remplacé pour beaucoup d’auteurs l’« association » artificielle du passé, peut, selon les cas, conduire ou ne pas conduire aux mêmes inconvénients atomistiques, et ce seul fait prouve d’emblée qu’organisant son expérience le chercheur y projette toute une problématique dont l’existence même montre la difficulté de s’en tenir strictement à une ascèse positiviste. Si le dispositif expérimental est morcelé en petits stimuli discontinus et indépendants, le schéma S → R ramène au strict associationnisme (mais naturellement entre perceptions et mouvements, sans plus d’allusion à des images problématiques). Si, au contraire, avec le talent de Skinner, on choisit comme stimulus une situation complexe faisant intervenir toute une causalité, bref un univers où l’activité du pigeon puisse se manifester plus librement, alors le schéma S → R met en évidence des conduites instrumentales qui n’ont plus rien de simples associations.
La tendance générale est donc aujourd’hui de considérer le schéma S → R comme essentiellement complexe et à lui seul équivoque. Tout d’abord un fait fondamental a été mis en évidence par la psychologie animale et par les analyses électro-encéphalographiques : c’est l’existence d’activités spontanées du système nerveux (ondes) et de l’organisme (recherches de Adrian, etc.), qui ne sont pas des réactions à un stimulus. Lorsqu’il y a réaction S → R, on insiste de plus en plus sur le fait que si l’organisme répond c’est qu’il est sensibilisé au stimulus. Cette condition préalable de sensibilisation au stimulus est très visible dans les réactions instinctives (où le stimulus n’agit que s’il y a « appétence ») et non moins claire dans les apprentissages, si l’on suit le sujet pas à pas au cours de son développement et que l’on observe les débuts de la sensibilité à un stimulus qui laissait jusque-là le sujet indifférent. Or, cette sensibilisation indique la présence d’une disposition nouvelle, laquelle aboutit précisément à la réponse. On est donc de plus en plus porté à penser que le schéma S → R n’est pas linéaire (→) mais circulaire S ⇄ R, ce qui exclut de négliger l’organisme Or, d’où la relation complexe S (Or) R et l’impossibilité théorique de faire abstraction des variables intermédiaires.
D’ailleurs, même en se conformant au schéma du plus strict positivisme, on est bien obligé de reconnaître que l’expérimentation destinée à décrire simplement les inputs et les outputs (par des relations répétables ou lois mais sans explication causale) est le produit d’un découpage en partie arbitraire. Nous avons déjà vu que le choix des inputs ou entrées suppose un découpage de l’univers par l’observateur. Mais la production ou présence des outputs ou sorties n’en est, on vient de le constater, pas moins relative au moment de la vie de l’organisme ou du sujet étudié, ce qui comporte un découpage dans le temps. L’expérience totale, même au point de vue positiviste, consisterait à essayer tour à tour tous les inputs possibles et à les étudier de façon continue dès la naissance (ou la vie fœtale) jusqu’à la mort. Le grand progrès de l’apprentissage instrumental par rapport aux conceptions classiques (voir plus loin sous § 7) est d’avoir élargi les inputs et d’avoir ainsi pu atteindre dans les outputs une tranche de la vie des sujets, mais il faut continuer dans les deux sens et cela conduit nécessairement, même au point de vue positiviste, à une perspective génétique ou relative au développement tout entier.
III🔗
Si nous examinons alors les multiples travaux concernant le développement mental (on y reviendra sous § 8), nous constatons qu’il s’agit soit de répertoires de faits mais destinés à servir à des interprétations, soit de doctrines plus générales fondées sur des faits mais qui toutes visent à les expliquer et pas seulement à les décrire, autrement dit qui dépassent toutes le schéma positiviste : aucune, en effet, n’échappe à la nécessité, quasi inéluctable, de s’occuper à un moment donné des « facteurs » du développement (maturation organique, expérience, vie sociale, etc.) ce qui est une recherche de l’explication causale et une tendance générale à meubler, ne fût-ce que par des hypothèses, l’intérieur de la « boîte » noire ou vide de l’empirisme strict.
À en demeurer, d’ailleurs, sur le terrain de l’apprentissage, la tendance générale est aussi nettement aux théories explicatives. Pour ne citer qu’un petit fait, on peut en rester à la description simple tant que l’apprentissage est progressif et que les lois observées se confirment. Mais si une nouvelle acquisition, trop semblable à une précédente, en vient à l’effacer partiellement et qu’il y a, comme on dit, « inhibition rétroactive », personne ne s’abstiendra de chercher « pourquoi ». Ce qu’on trouvera consiste à nouveau en lois, bien entendu ; mais il restera alors à concilier ces lois partielles avec les lois plus générales et la coordination des lois n’est plus de la simple description, car une élaboration déductive devient en ce cas nécessaire, qui constitue précisément l’un des aspects de l’explication causale.
Sur le terrain des travaux de laboratoire concernant la perception, la mémoire, les processus intellectuels, etc., il en va constamment de même. Il est impossible, par exemple, si l’on reprend en tachistoscope avec un temps de présentation de 1/10 ou 5/100 de seconde, etc., un effet perceptif connu (comme une illusion optico-géométrique) et que l’on découvre une modification régulière nouvelle 7, de ne pas se demander à quoi ce changement est dû, ce qui est à nouveau une recherche de l’explication causale.
Sous des noms très divers (et le vocabulaire ici employé peut ne pas convenir à chacun, mais ce n’est peut-être qu’une question de mots) 8, la tendance générale est donc de dépasser la description dans la direction de l’interprétation, ce qui suppose trois étapes dans la recherche 9 : (1) Il y a d’abord la description des faits généraux ou relations répétables, c’est-à-dire l’établissement des lois. (2) Il y a ensuite la poursuite d’une déduction ou coordination des lois. Le plus bel exemple est celui de Hull qui, après avoir découvert une série de lois concernant l’apprentissage, le rôle des renforcements, les gradients de buts, la hiérarchie des habitudes en « familles », etc. (voir plus loin sous § 7), a construit avec l’aide du logicien Fitsch une élaboration formalisée de ces lois à partir d’un certain nombre de postulats pouvant être considérés comme leurs raisons, puisqu’ils sont suffisants et nécessaires à leur déduction. D’autres auteurs ne prennent pas le soin d’une déduction mise en forme logique, mais, que la déduction soit intuitive ou plus ou moins formalisée, qu’elle soit explicite ou même implicite, il est impossible, dès que plusieurs lois sont en jeu et surtout lorsqu’elles sont d’échelles différentes (globales ou de plus en plus locales et particularisées), de ne pas les grouper en un système où les unes dépendent des autres ou en dérivent. (3) Mais la déduction des lois n’est encore qu’une opération logique et, à elle seule, insuffisamment explicative 10. Cette déduction, si elle est complète, aboutit bien à dégager les postulats de départ en tant que nécessaires et suffisants et ces postulats, en explicitant des « raisons », mettent sur la voie de l’explication. Mais si l’on s’en tient au jeu formel de la déduction, plusieurs systèmes déductifs sont toujours possibles dont les uns considèrent comme postulat ce qui est conséquence en d’autres, et réciproquement. Pour atteindre l’explication il est alors indispensable de concrétiser la déduction des lois sous la forme de « modèles » qui sont censés tout à la fois représenter les processus réels et les exprimer sous forme d’opérations déductives, le but étant atteint lorsqu’aux opérations de la déduction correspondent les transformations effectives en jeu dans la réalité étudiée (voir plus loin sous § 9, etc.).
L’explication est alors obtenue lorsque, aux lois (1) correspond une déduction possible (2), se concrétisant en un modèle (3). Mais chacun sait qu’en psychologie plus encore qu’ailleurs, les hypothèses explicatives sont multiples et, si les tendances actuelles sont dominées par des efforts incontestables d’unification, dont nous verrons des exemples, il n’en reste pas moins que celle-ci est un programme d’avenir plus qu’une réalité et que, selon les secteurs multiples de notre domaine d’études, on trouve encore une hétérogénéité assez grande dans les interprétations. La raison n’en tient pas aux lois, sur lesquelles on s’accorde plus ou moins facilement dans les secteurs les plus expérimentaux et dont les vérifications donnent lieu à des tentatives multiples dans les domaines plus cliniques ou psycho-sociaux. La raison n’en tient pas non plus à la coordination ou déduction des lois, car si les uns poussent davantage la mise en forme logique et si d’autres se contentent de vues plus intuitives, les résultats ne diffèrent pas fondamentalement. La vraie raison est à chercher dans la diversité des modèles possibles, car la vie mentale tire ses sources de la vie organique, s’épanouit dans la vie sociale et se manifeste par des structures multiples (logique, psycho-linguistique, etc.), d’où une grande diversité de modèles selon que dominent les essais réductionnistes de caractère organiciste (voir sous § 3), physicaliste (§ 4), sociologique (§ 5), les tentatives d’atteindre la spécificité psychologique dans les transformations de l’instinct en dialectique avec le moi (§ 6), dans les manifestations du comportement (§ 7) ou dans le développement en général (§ 8), le tout sous des formes plus ou moins concrètes ou orientées vers les modèles abstraits (§ 9). C’est l’examen de ces multiples formes d’interprétation qui permettra de marquer le mieux à la fois les tendances actuelles de la psychologie, autres que positives, et les connexions toujours plus nombreuses que cette discipline entretient avec les autres sciences.
3. La tendance organiciste et les relations de la psychologie et de la biologie🔗
Il n’y a pas de vie mentale sans vie organique, tandis que la réciproque n’est pas nécessairement vraie ; et pas de comportement sans fonctionnement nerveux (à partir des Cœlentérés), tandis que celui-ci déborde celui-là. Et surtout, tout ce qui est organique donne lieu à vérifications concrète et à manifestations plus observables et mesurables que les conduites et la conscience : autant de raisons pour orienter les explications psychologiques vers une mise en relation des processus mentaux et des comportements avec des processus physiologiques.
I🔗
C’est bien là une tendance permanente de la psychologie et elle apparaît de plus en plus comme ayant un grand avenir, en plus des réalisations déjà connues. Mais il est essentiel de comprendre d’emblée qu’elle se manifeste sous deux formes distinctes et que les tendances actuelles ne sont point toujours identiques à certains courants d’idées passés : il y a la tendance réductionniste qui vise à une identification pure et simple du processus mental, conçu comme simple expression phénoménologique, à son concomitant organique conçu comme constituant sa vraie réalité ou tout au moins son explication directe ; mais il y a aussi une tendance que l’on peut appeler relationnelle ou dialectique et qui consiste à distinguer des échelles multiples de phénomènes, tant dans l’organisme ou le système nerveux que dans le comportement ou les conduites, et à discerner des interactions ou feedbacks entre les processus d’échelles différentes, de telle sorte qu’il n’y a plus réduction du supérieur à l’inférieur mais des solidarités de plus en plus étroites.
Notons d’abord, pour prévenir toute équivoque, que ce problème des relations entre la psychologie et la physiologie ou la biologie déborde de beaucoup la question particulière des relations entre la conscience comme telle (donc non pas la réaction dans son ensemble ou conduite) et son concomitant nerveux, question dont il a été traité dans l’« Introduction » (§ 7 sous III). La tendance générale actuelle est d’admettre un isomorphisme et non pas une interaction entre les formes de cette conscience et celles de son concomitant (isomorphisme que nous avons présenté comme existant entre les « implications » propres à la conscience et la causalité propre au processus nerveux), ce qui n’exclut en rien que les processus nerveux s’accompagnant de conscience soient différents des autres, comme les enregistrements électroencéphalographiques des états de « vigilance » pourraient le montrer. Mais nier l’interaction entre la conscience comme telle et ses concomitants nerveux ne signifie nullement que l’on conteste les interactions entre la conduite (qui comprend la conscience, mais la dépasse) et les processus physiologiques : toute la médecine psychosomatique (ou cortico-viscérale) montre de telles interactions, qui ne prouvent rien ni pour ni contre l’action de la conscience comme telle sur les activités nerveuses supérieures, mais bien l’action de ces activités psychophysiologiques sur les régulations de niveau inférieur. Il va de soi que de ce dernier point de vue les recherches psychosomatiques sont d’une grande importance théorique de même que toutes les thérapeutiques psychologiques de nature biologique. Il faut faire à cet égard une mention particulière des travaux en plein essor de la pharmaco-psychologie.
Cela dit, revenons aux tendances réductionnistes ou interactionnistes quant aux relations entre la vie mentale ou les conduites et la vie physiologique ou biologique. Il a existé de tout temps, en psychologie scientifique, certaines tendances essentiellement réductionnistes et, à l’époque où l’on expliquait les processus psychiques par l’association, on cherchait à montrer en celle-ci le reflet direct d’associations nerveuses (dont le nom est resté dans les « voies d’associations » du cortex) ou de frayages, etc. Lorsque Pavlov a découvert les réflexes conditionnés, il n’a pas hésité à les considérer comme « complètement identiques » aux « associations des psychologues » et l’on a naturellement commencé par voir dans ces réflexes conditionnés l’explication à tout faire permettant de réduire l’ensemble de la vie mentale aux conditionnements nerveux : il y a quelques années encore, un médecin-psychologue suisse cherchait à montrer dans le réflexe conditionné la cause unique non seulement des habitudes, du langage, du dessin, etc., mais encore de toute l’intelligence et de la volonté. Sans atteindre ce degré de réductionnisme, il existe cependant certaines tendances, toujours actuelles chez quelques chercheurs et postulant sans discussion une réduction possible des conduites supérieures aux comportements du rat ou du pigeon : or, s’il faut naturellement supposer un certain nombre de mécanismes communs, on ne saurait, sans courir le danger d’une sorte d’« animalisation » de l’homme, décider d’avance jusqu’où ils s’étendent et surtout ce qu’ils deviennent une fois intégrés en des conduites plus complexes et évoluées.
II🔗
Rien n’est plus instructif, pour comprendre comment les tendances interactionnistes ou relationnelles tendent aujourd’hui à supplanter ce réductionnisme, que de retracer à grand trait les destinées de ce réflexe conditionné, sur les deux plans parallèles et finalement interdépendants de la physiologie et de la psychologie.
Sur le terrain physiologique, les grandes découvertes de Pavlov ont conduit à distinguer des échelles de phénomènes et à reconnaître l’existence d’actions des niveaux supérieurs sur les inférieurs et pas seulement l’inverse. L’assimilation de l’« association des psychologues » au conditionnement était une réduction du supérieur à l’inférieur, mais aussitôt après, Pavlov a mis en lumière les effets exercés par l’activité nerveuse supérieure (donc les réflexes conditionnés) sur les mécanismes viscéraux, ce qui est une influence de l’échelle supérieure sur les phénomènes d’échelle inférieure. Puis il a découvert les deux systèmes de signalisations, l’un purement sensori-moteur, l’autre lié au langage et les psychologues soviétiques ont multiplié les exemples d’action des signalisations verbales sur les conditionnements d’échelle inférieure et jusque sur les réactions physiologiques de niveau périphérique.
En troisième lieu, les techniques électrophysiologiques ont montré que le réflexe conditionné n’est pas purement cortical, mais intéresse aussi la formation réticulaire et comporte donc une intégration diencéphalique, ce qui suppose des interactions entre le système associatif cortical et ces systèmes de niveaux inférieurs. D’autre part, les physiologistes et les psychologues soviétiques ont renoncé à voir dans le conditionnement un simple enchaînement d’associations et en fournissent aujourd’hui des modèles cybernétiques à feedbacks, ce qui présente le grand intérêt de substituer à un schéma mécanique de niveau inférieur des schémas comparables à ceux des conduites de tâtonnements ou des régulations cognitives en général. Cela n’empêche en rien ces schémas de régulation d’être courants sur les divers terrains physiologiques et de montrer ainsi des analogies relationnelles entre les multiples échelles, analogies contraires à tout réductionnisme.
Enfin, on en vient avec Fessard à chercher des modèles abstraits, à la fois probabilistes et algébriques, au processus même du conditionnement. Fessard constate d’abord qu’un apprentissage (du moins chez l’adulte) ne dépend pas de la croissance de nouveaux rameaux nerveux terminaux ou de nouvelles synapses et constitue donc seulement un nouveau fonctionnement de connexions déjà formées. Il construit alors un schéma de « réseau » (lattice) dont tous les éléments ont des propriétés identiques (d’où le rôle d’une détermination historique dans le choix des chemins préférentiels), mais avec possibilité d’introduire une certaine stabilité homéostatique malgré les substitutions d’itinéraires. Le pourquoi de ceux-ci s’explique alors par le caractère stochastique du système, le réseau envisagé étant présenté comme un « réseau stochastique subordonné », stochastique parce qu’à chaque élément du système s’attache une certaine probabilité de décharge, et subordonné parce qu’il est connecté avec d’autres champs neuroniques analogues dont il subit les influences.
Nous voyons ainsi que, au point de vue physiologique, le conditionnement a cessé depuis longtemps d’être lié à une seule échelle de phénomènes, ce qui permettait des réductions supposées des processus supérieurs à cette échelle considérée comme inférieure : d’une part il commande ou contrôle toutes sortes de mécanismes inférieurs à lui, tout en dépendant de systèmes sous-corticaux ; d’autre part, l’élaboration théorique de plus en plus raffinée à laquelle il donne lieu le rend comparable à maints systèmes régulateurs de nature supérieure et à des structures algébriques et probabilistes qu’on retrouve à tous les niveaux de l’intelligence.
Du point de vue des conduites psychologiques, le conditionnement a donné lieu à une dialectique analogue. On s’est d’abord aperçu du fait que le réflexe conditionné n’est pas par lui-même stable et ne se stabilise qu’au sein de conduites plus larges susceptibles de l’équilibrer : le chien de Pavlov cesse de saliver si le signal sonore constituant le stimulus acquis n’est plus suivi par la nourriture. Il en résulte que l’association comme telle ne constitue pas une unité naturelle et constante et ne joue qu’insérée dans un ensemble élargi comprenant le besoin initial et sa satisfaction finale : l’association est donc une assimilation, le son entendu présentant une signification dans la mesure seulement où il est assimilé au schème de la nourriture ; et encore s’agit-il d’une assimilation anticipatrice puisque le signal annonce mais n’indique pas encore une présence. Les conditionnements intervenant dans l’acquisition du langage n’acquièrent de même un sens et une stabilité que dans un contexte d’imitation et d’échanges significatifs, etc.
Bref, à tous les points de vue, l’histoire des idées concernant le réflexe conditionné montre à titre d’exemple très représentatif pourquoi et comment les tendances réductionnistes cèdent le pas à une tendance de plus en plus répandue, caractérisée par une dialectique des niveaux et une assimilation relationnelle du supérieur à l’inférieur et réciproquement.
III🔗
À passer maintenant de cet exemple particulier aux considérations les plus générales, il faut, pour comprendre les tendances les plus actuelles de la psychologie dans ses relations avec la biologie 11, mentionner les travaux concernant les rapports entre le comportement, ou spécialement les fonctions cognitives, et les régulations organiques.
Pendant longtemps, les biologistes ont considéré le génome comme un ensemble atomistique formé de gènes indépendants les uns des autres, entièrement séparés du soma et porteurs chacun de caractères héréditaires ou génotypiques se transmettant sans plus, sous la double réserve de mutations, en général perturbatrices, et de combinaisons génétiques dues à l’amphiminie. Dans cette perspective, seul le germen paraissait important du point de vue de la variation et de l’évolution, le phénotype ne constituant qu’une sorte d’excroissance individuelle périssable et d’influence évolutive nulle, l’évolution étant due aux mutations et à leur sélection conçue comme un triage. A fortiori le comportement apparaissait-il comme négligeable, les instincts, les apprentissages et l’intelligence elle-même ne fournissant qu’une petite aide supplémentaire à la survie des organismes dans leur lutte pour la vie au sein des sélections.
On sait au contraire aujourd’hui que le génome est un système régulateur à éléments interdépendants, que les combinaisons génétiques jouent un rôle plus important que les mutations et sont elles-mêmes soumises à des lois d’équilibration au sein du pool génétique des populations. On sait surtout que le phénotype est à concevoir comme une réponse du génome aux tensions du milieu et que la sélection ne porte pas directement sur les gènes, mais sur les phénotypes en tant que réponses plus ou moins adaptées. Quant au comportement, il n’a plus rien alors de secondaire ou négligeable puisqu’il constitue l’activité essentielle du phénotype. De plus, grâce au comportement, les relations entre l’organisme et le milieu deviennent circulaires : l’organisme choisit son milieu et le modifie, autant qu’il en dépend, et le comportement devient ainsi un facteur important de l’évolution elle-même.
Il ne faut donc pas s’étonner de voir un des grands fondateurs de l’éthologie contemporaine, K. Lorenz, qui est un zoologiste et non pas un psychologue, écrire récemment : « En tant que naturalistes connaissant les réalités de l’évolution, nous sommes obligés de considérer les réalisations de l’appareil de connaissance humaine comme toutes les autres fonctions organiques, donc comme quelque chose de formé phylogénétiquement, qui doit ses caractéristiques spécifiques à la confrontation entre l’organisme et le milieu… Et, même si nous ne nous intéressons pas aux processus mêmes de la connaissance, mais exclusivement à sa portée “objective” et extrasubjective, nous sommes obligés de faire de la théorie de la connaissance, à titre de cas particulier de la science des appareils biologiques. 12 » Lorenz lui-même interprète la connaissance humaine comme essentiellement due à des formes a priori au sens d’antérieures à l’expérience, mais sans nécessité et considérées à titre d’hypothèses héréditaires sur le mode des instincts.
Or, ces liaisons possibles entre l’organisation biologique et celle de la connaissance, en particulier entre les régulations organiques et les systèmes régulateurs cognitifs avec leur équilibration progressive ne justifient en rien une tentative réductionniste et cela pour une raison évidente au point de vue de la psychologie du développement : c’est que l’intelligence ne surgit pas tout armée, comme si elle était contenue d’avance dans l’organisme, ni n’évolue non plus en ligne droite à partir de mécanismes élémentaires qui seraient alors préformés dans les systèmes nerveux et génétiques, mais qu’elle se construit peu à peu, paliers par paliers, chacun de ces stades débutant par une reconstruction actuelle de ce qui était acquis sur un autre plan au niveau antérieur. On ne saurait, par exemple, considérer la logique comme innée et préformée dans le cerveau du seul fait que W. McCulloch et W. Pitts ont découvert que les diverses transformations intervenant dans les connexions synaptiques étaient isomorphes aux foncteurs de la logique des propositions : ces structures nerveuses doivent d’abord se traduire en structures sensori-motrices et celles-ci ne sont pas simplement tirées de formes héréditaires mais supposent une construction réelle au cours de laquelle des incitations sont certes tirées du fonctionnement cérébral mais à titre de cadre fonctionnel et non pas d’idées innées. Ce qui a été construit au plan sensori-moteur doit ensuite être reconstruit et dépassé à celui de la représentation ou pensée (car toute autre chose est de savoir exécuter une action et de pouvoir la retracer en pensée), et, dans le domaine même de la pensée, ce qui débute sous forme d’opérations concrètes portant directement sur les objets n’est transposé que plus tard au plan de la réflexion abstraite, etc.
En bref, s’il existe des liaisons étroites entre l’organisation nerveuse ou physiologique en général et l’organisation cognitive, il s’agit là d’interactions multiples entre processus d’échelles superposées et nullement de réduction simple. Il en faudrait dire autant des mécanismes centraux de la motivation, des pulsions, des émotions, etc., mais dont l’étude qui est en plein essor ne permet pas encore de dégager les vues synthétiques dont il pourrait être question dans ce chapitre 13.
4. La tendance physicaliste et les différents paliers de la perception🔗
Une seconde forme d’explication pouvant conduire à des essais de réduction caractérise une tendance assez permanente de la psychologie mais qui, elle aussi, a donné lieu à une inversion de sens assez spectaculaire et très significative des tendances contemporaines de notre discipline comparées aux tendances du passé. Si l’affectivité, la formation des habitudes, certains aspects de l’intelligence elle-même dépendent manifestement de l’organisme, d’autres domaines tels que surtout la perception et les formes objectives, et pour ainsi dire dépersonnalisées, de la connaissance peuvent paraître reliées directement au monde physique : d’où des tentatives répétées pour relier ces processus mentaux aux processus physiques. La tendance a été d’autant plus marquée, naturellement, qu’elle a parfois été représentée par des auteurs ayant reçu une formation de physiciens avant de s’occuper de psychologie, comme jadis Fechner et aujourd’hui W. Köhler.
I🔗
S’il faut rappeler Fechner, bien qu’il appartienne à l’histoire, c’est pour signaler une fois de plus que les divers courants de la psychologie débutent par des manifestations de caractère atomistique avant d’en venir à des interprétations structuralistes. Nous avons déjà noté la nature profondément atomistique des conceptions associationnistes initiales, tandis que les vues actuelles sur le conditionnement témoignent, comme on l’a vu, d’un structuralisme cybernétique ou même algébrico-probabiliste. En ce qui concerne le courant physicaliste, Fechner, après Weber et le Français Bouguer, a de même voulu exprimer simplement la relation constante entre les sensations, considérées isolément, et les quantités physiques qu’elles traduisent subjectivement : d’où la fameuse loi logarithmique reliant l’excitation à la sensation et qui, quoique approximative (Stevens la remplace même par une fonction puissance), a été retrouvée en de nombreuses situations biologiques ; elle régit même les relations entre les intensités lumineuses et les impressions sur une plaque photographique (ce qui montre son caractère simplement probabiliste, cet exemple physique s’expliquant par les probabilités de rencontre entre les photons et les particules de sel d’argent de la plaque).
Avec la psychologie de la Gestalt, par contre, nous nous trouvons en présence d’un physicalisme nettement structuraliste, ce qui explique la grande influence qu’a eue ce courant d’idées, et une influence qui dure encore sous des formes indirectes, ne serait-ce que parce qu’il représente l’une des sources du structuralisme contemporain. Le concept théorique central de la psychologie de la Forme ou Gestalt est celui de champ, au sens d’un champ électromagnétique. Inversant complètement le point de vue associationniste, pour lequel il existe d’abord des éléments isolés ou sensations, et ensuite des liaisons entre eux sous la forme d’associations, la théorie de la Forme part de la perception comme un tout (une mélodie, une physionomie, une figure géométrique). Même dans les cas où la figure semble consister en un élément unique, comme un point noir marqué sur une feuille blanche, il intervient encore une totalité, car le point est une « figure » qui se détache sur un « fond ». Les gestaltistes ont alors dégagé les lois de ces totalités, telles que les lois de ségrégation entre les figures et les fonds, les lois de frontières, les lois de « bonnes formes » ou de « prégnance » (les bonnes formes sont prégnantes parce que simples, régulières, symétriques, etc.), les lois d’effets consécutifs (totalités dans le temps), etc.
Quant à l’explication proposée, elle est belle et simple : les formes perceptives sont l’expression de structurations nerveuses immédiates, au contact des objets, et comme les champs polysynaptiques et les analyses électroencéphalographiques suggèrent la notion de champs nerveux, on peut considérer ces structurations comme dues à des lois physiques de champs, de nature très générale (principes d’équilibre, de moindre action, etc.). Une Gestalt étant (par définition due à cette école)) une totalité non additive, c’est-à-dire dont le tout n’équivaut pas à la somme des parties, Köhler s’est attaché à montrer qu’il existait des « Gestalts physiques », précisément dans le domaine des effets de champ (tandis que le parallélogramme des forces n’est pas une Gestalt, puisqu’il résulte d’une composition additive).
Les lois de Gestalt 14 étant ainsi très générales, les psychologues de cette école ont voulu interpréter en outre, par leur moyen, les réactions motrices et l’intelligence elle-même, les lois logiques en particulier leur paraissent refléter les systèmes d’ensemble qu’ils ont découverts. Tout récemment encore, A. Michotte a cherché à rendre compte de cette manière de la perception de la causalité et de la notion même de cause.
II🔗
Mais si le très grand progrès marqué par le physicalisme gestaltiste demeure sans conteste d’avoir frayé la voie aux interprétations résolument structuralistes, la suite des recherches a montré qu’un structuralisme plus poussé ne demeure pas forcément physicaliste et que, au contraire, en partant de structures plus spécifiquement biologiques ou psychologiques, on finit par éclairer sur certains points notre connaissance physique elle-même.
Les débats ont d’abord porté sur la nature même de la perception. Il est dans la logique du physicalisme, car il prétend atteindre des lois communes à l’univers physique, au système nerveux et aux réactions mentales, de n’utiliser que des interprétations faisant abstraction des activités du sujet, puisque celui-ci constitue seulement le théâtre ou l’acteur d’une pièce écrite avant lui et qu’il n’en est pas l’auteur, et excluant toute transformation profonde en fonction du développement, puisque les lois d’équilibre invoquées sont celles d’un univers tout fait et non pas d’une équilibration biologique et progressive. C’est pourquoi dans le domaine perceptif, les gestaltistes se sont surtout souciés de chercher à prouver que les structures principales n’évoluent pas avec l’âge, notamment les fameuses « constances » de la grandeur (évaluation de la grandeur réelle à distance), ou de la forme, etc.
Or, sur ces points fondamentaux les travaux actuels n’ont pas donné raison à l’interprétation gestaltiste et ont montré que les formes d’équilibre en jeu sont bien plus proches d’une homéostasie biologique (systèmes de régulations avec compensations de proche en proche ou même anticipatrices) que d’une balance physique des forces. En psychologie animale, von Holst a construit un modèle cybernétique de la constance des grandeurs, avec régulation automatique, à l’intention des cas où cette constance est considérée comme innée. Quant à son développement de l’enfance à l’âge adulte, certains travaux ont mis en évidence deux sortes de faits : d’abord une évolution avec l’âge, procédant d’une sous-constance initiale très nette jusqu’à une constance approximativement exacte vers 7 ans et se prolongeant ensuite en une sur-constance ; en second lieu une sur-constance fréquente chez l’adulte, qui à 4 m de distance voit, par exemple, une tige verticale de 8 à 9 cm comme si elle en avait 10. Or cette sur-constance inexplicable dans une hypothèse physicaliste, relève évidemment d’une précaution inconsciente contre l’erreur, donc d’une « décision » au sens de la théorie des jeux et encore selon le critère minimax (minimisation maximale du risque), ce qui n’a plus rien d’une balance de forces physiques et trouve au contraire son équivalent en certaines formes biologiques d’homéostasie avec surcompensation en cas d’accident et non pas compensation exacte.
D’une manière générale, la tendance actuelle des travaux sur la perception n’est nullement orientée dans le sens physicaliste étroit de la théorie des champs, mais, pourrait-on dire, dans la direction d’un physicalisme élargi qui passe par les inspirations biologiques. Les travaux américains de l’école qui se caractérise elle-même plaisamment par un new look en perception insistent surtout sur la dimension fonctionnaliste (rôle de l’affectivité et même de facteurs sociaux), mais les travaux soviétiques insèrent ces mêmes préoccupations dans un contexte de réflexologie pavlovienne avec les nouvelles interprétations cybernétiques du conditionnement. Il est à noter à cet égard que Pavlov, qui avait bien vu ce rôle du conditionnement dans la perception, en concluait à la vérité de « ce que le génial Helmholtz a désigné sous le terme célèbre de conclusion inconsciente », donc à la réalité des inférences ou préinférences perceptives. Mais c’est dans la direction du probabilisme que la théorie de la perception peut être considérée comme revenant à un physicalisme élargi. 15
Quant à l’intelligence, on tend de moins en moins à chercher à la réduire à des modèles de « Gestalts » pour cette raison que ces dernières sont des totalités à composition non additive, précisément parce que probabiliste, tandis que les structures opératoires de l’intelligence (une sériation, une classification, la suite des nombres entiers, etc.) sont rigoureusement additives tout en comportant des lois de totalités bien définies (structures de « groupe », de « réseau » ou lattice, etc.). En d’autres termes, les opérations de l’intelligence sont réversibles au double sens logique (inversions, réciprocités et corrélatives ou transformations duales, involutives) et physique (retour au point de départ en passant par les mêmes états en ordre contraire), tandis que les processus perceptifs sont irréversibles parce que probabilistes et sans « nécessité » intrinsèque ou logique. Il est alors d’un certain intérêt de demander si cette grande bipolarité des fonctions cognitives (avec toutes sortes d’intermédiaires ontogénétiques entre les deux pôles extrêmes) ne correspondrait pas à ce qui constitue peut-être la dichotomie la plus importante des phénomènes physiques, qui se répartissent en processus réversibles (mécanique et cinématique) et irréversibles (par exemple la thermodynamique).
On est donc conduit à penser que l’aspect le plus intéressant, pour la psychologie, des références à la physique n’est sans doute pas la réduction hypothétique d’une structure mentale, fût-ce la perception, à une structure physique (de champ, etc.), mais l’analogie entre le mode de composition intervenant dans la première et le mode de composition utilisé par le physicien dans la connaissance de la seconde. À cet égard, il se pourrait que la coupure entre les phénomènes irréversibles et réversibles soit aussi une division entre le domaine des explications surtout probabilistes et celui de la déduction simple, comme dans la mécanique qui peut aussi bien être présentée comme une discipline rationnelle et mathématique que comme une science expérimentale.
D’un tel point de vue, qui est celui des tendances les plus actuelles de la psychologie, il s’est produit une sorte de renversement assez impressionnant par rapport au physicalisme classique : la théorie de l’information, née de considérations essentiellement humaines, s’est trouvée converger en partie, mais de façon remarquable par son appareil formel et mathématique, avec les équations fondamentales de la thermodynamique concernant l’entropie (l’information pouvant être définie comme une néguentropie) ; et la théorie de la décision ou des jeux, dont le domaine spécifique est l’économie, a trouvé des applications physiques (dans la théorie du démon de Maxwell jouant avec l’entropie). Il va donc de soi qu’en plusieurs domaines de la psychologie, on cherche à utiliser ces modèles en quelque sorte physico-humains (mais, nous l’avons noté dans l’« Introduction » § 6 sous II, nés des sciences humaines et retournés à la physique), en particulier celui des jeux d’informations : W. P. Tanner a fourni de ce point de vue une théorie précise des « seuils » de la perception, Berlyne l’a appliquée au problème des intérêts, J. Bruner et nous-même aux stratégies de la pensée, etc.
5. Les tendances psychosociologiques et les interactions entre le général et le social🔗
On peut concevoir la vie mentale comme une vie organique socialisée, le mental s’évanouissant, à l’analyse, en ses sources organiques et son épanouissement social, ce qui peut même conduire en certains cas à s’engager vers un double réductionnisme, organiciste et sociologique ; ou bien on se placera à un point de vue dialectique ou relationnel en substituant à l’idée de réduction celle d’une suite d’interactions hiérarchisées. Or, nous avons vu, sur les terrains organicistes et physicalistes, la première de ces tendances céder nettement à la seconde, tout en accentuant les aspects structuralistes de l’explication. Dans le domaine des relations entre l’individu et le groupe social, on assiste à une évolution du même genre : les premières doctrines qui ont insisté sur la dimension sociale des mécanismes mentaux et des conduites ont été portées à vouloir réduire à cet aspect sociologique tout ce que comportait le psychisme supérieur de l’individu ; mais, au fur et à mesure que l’on est parvenu à mieux dissocier ce qui est général et commun à tous les individus, autrement dit précisément les « structures », et ce que chaque individu peut inventer ou différencier au cours du fonctionnement de ses spécialisations personnelles, le problème s’est assez profondément modifié en ses termes. Selon les tendances actuelles, la question n’est plus tant, en effet, d’établir jusqu’à quel point l’individu est socialisé (il l’est de sa naissance à sa mort, mais selon des modes bien divers), que de discerner si, entre les structures organiques et les structures sociales, il existe des structures « générales » ou communes à tous les individus membres de la société, mais non exclusivement ou spécifiquement sociales, et quelles sont les interactions entre les trois sortes de réalités.
I🔗
Il est entièrement inutile de retracer l’histoire des disputes classiques autour de la question de savoir si c’est la société qui forme l’individu, ce qui est évident du langage et ce que Durkheim soutenait de la logique naturelle, des sentiments moraux, etc., ou si c’est l’individu qui façonne la société par ses tendances « naturelles » ou organiques, comme le pensaient Rousseau et le sens commun avant la découverte de la sociologie, et comme le supposent les psychanalystes n’appartenant pas à la sous-école dite culturaliste, ainsi que d’autres auteurs s’occupant de celles des conduites qui sont peu modifiées par les sociétés particulières. Posé sur le seul terrain de la psychologie adulte, ce problème ressemble un peu trop à celui, non moins classique, de décider si c’est la poule qui fait l’œuf ou l’œuf qui fait la poule.
Mais, de même que la biologie surmonte ce problème en étudiant le poussin et en réduisant simultanément la poule et l’œuf à des structures dynamiques de caractère génétique, ontogénétique et instinctif, ce qui suppose l’étude coordonnée de l’hérédité, du développement et du comportement, et non pas celle du comportement seul, de même l’étude des relations entre la psychologie individuelle et la vie sociale ne peut se réduire à l’étude des conduites achevées ou adultes. Le phénomène social le plus spécifiquement humain, comme Durkheim l’a bien vu, est la formation des nouvelles générations par celles qui les ont précédées, et une formation procédant par transmissions extérieures, ou éducatives au sens large (du langage aux contraintes économiques et politiques), et non pas par hérédité comme dans le cas de bien des instincts familiaux ou sociaux des animaux. Il n’en reste pas moins que les générations montantes paraissent au monde déjà munies de caractères héréditaires, dont un système nerveux non transmis par la société, et que le processus de socialisation ne se réduit nullement à déposer des empreintes sur une « table rase ». Pour comprendre ce que la société apporte à l’individu, il ne suffit donc pas de constater que chez l’adulte presque tout est socialisé, à part quelques réflexes (et encore sont-ils en partie éduqués), quelques structures perceptives (et encore le langage, la suggestion, etc. peuvent les influencer), quelques rêves (et encore…), etc. Il importe au contraire de connaître avec précision :
(1) Le patrimoine psychologique héréditaire de notre espèce, ce qui n’est pas si simple puisque les psychanalystes ne sont pas en accord, même les uns avec les autres, pour savoir si les tendances « œdipiennes », etc., relèvent de l’« instinct » ou encore de facteurs culturels ; puisque l’on continue à discuter de la part d’innéité dans les tendances criminelles, etc. ; et surtout puisqu’on ne sait encore que bien peu de choses quant aux facteurs de maturation nerveuse intervenant sans doute pour une part dans le développement des opérations intellectuelles.
(2) Le développement de l’enfant et de l’adolescent, notamment le détail des processus de socialisation qui modifient la plupart de leurs caractères psychologiques. On a, en particulier, montré à cet égard que la socialisation ne se réduit nullement aux contraintes spirituelles ou matérielles exercées par l’adulte, dans la famille ou à l’école, et que la « coopération » entre contemporains peut aussi jouer un rôle essentiel, notamment dans le développement des sentiments moraux. Quant aux facteurs de transmission proprement dite, il existe de nombreux processus bien distincts, et l’enfant ne se soumet certainement pas de la même manière aux règles de l’orthographe, par exemple, ou à des croyances collectives relevant des idéologies en cours, qu’aux règles logiques ou mathématiques dont il ne comprend le sens qu’en les réinventant en partie (et en oubliant ce qui n’a pas été reconstruit activement).
(3) Les comportements sociaux de l’adulte, dans la dynamique des groupes ou la vie collective en général, y compris les innombrables conduites sociales intériorisées et appliquées à soi-même, selon un processus bien connu (par exemple le langage intérieur).
On voit alors que le point (2) est en fait le plus important, d’abord parce qu’il porte sur la formation de l’individu et que seule la formation est explicative et source d’informations contrôlables, et ensuite parce qu’il comprend et éclaire les deux autres, les facteurs héréditaires ne se reconnaissant qu’à leur action au cours du développement et les comportements adultes dépendant des précédents.
Or, chose curieuse, on a mis longtemps à s’apercevoir du fait que la psychologie du développement occupait à cet égard une position-clef et remplissait une fonction indispensable au sociologue autant qu’au psychologue. C’est J. M. Baldwin qui le premier sans doute en a eu une claire vision, mais malheureusement sans contrôle expérimental systématique : il reste cependant de lui l’idée très féconde et souvent vérifiée depuis que le sentiment du « moi » lui-même n’est nullement un produit inné ou spontané de la conscience comme telle, qui commence par une phase d’« adualisme » radical, et qu’il est dû aux échanges interindividuels débutant avec l’imitation. Pierre Janet ensuite, ce médecin-psychologue qu’un homme d’esprit appelait « le principal sociologue français » a sans cesse insisté, dans son tableau du développement et de la hiérarchie des conduites (inspirée par la pathologie), sur le mode de formation social d’une série de fonctions d’apparence tout intérieure : la réflexion comme produit de la délibération, la mémoire d’évocation liée à la « conduite du récit », la croyance comme promesse ou engagement, etc. Mais ce sont les psychologues de l’enfance qui ont naturellement fourni le plus de matériaux quant au détail des processus de socialisation, et ces matériaux contrôlés expérimentalement puisque l’on peut, à chaque âge, vérifier les hypothèses par des faits répétables à volonté. On pourrait à cet égard citer un grand nombre de travaux soviétiques, anglo-saxons, parisiens, genevois, etc., qui ne convergent d’ailleurs pas entièrement sur toutes les interprétations proposées.
II🔗
Mais avant de dégager objectivement les deux principales tendances théoriques issues de ces recherches, indiquons encore les tendances de la recherche dans cette branche de la psychologie qu’on appelle psychologie sociale au sens strict et dans le domaine des travaux comparatifs qui, en fait, intéressent directement aussi le problème psycho-sociologique.
La psychologie sociale rejoint tous les problèmes généraux de notre science (psychologie différentielle, personnalité, etc.), puisque l’homme est un être essentiellement socialisé. D’où un ensemble considérable de recherches sur la nature et l’étendue des influences sociales, sur la communication, les conflits, etc. Il faut y ajouter deux objectifs spécifiques et complémentaires, mais dont la complémentarité à elle seule témoigne plutôt d’une interaction entre les domaines psychologiques et sociologiques que d’une réduction à sens unique.
L’un de ces buts est l’étude des relations inter-individuelles et de la dynamique des groupes. Il faut d’abord rappeler les travaux de Lewin et de ses collaborateurs sur les « champs » perceptifs et affectifs (en un sens gestaltiste élargi, comprenant le sujet et ses réactions), et surtout sur la dynamique d’ensemble de ces champs ; Lewin s’est efforcé de montrer que les caractères de désirabilité, les oppositions ou les inhibitions et « barrières psychiques », dépendent de la structure d’ensemble du champ autant que des besoins plus permanents des individus. D’autres modèles ont été élaborés par des auteurs tels que Heider et que Festinger, avec un retentissement analogue. Après que Moreno ait imaginé, sous le nom de « sociométrie », une technique d’estimation des jugements de valeur portés par chaque membre d’un groupe sur chacun des autres, on s’est efforcé de traiter les petits groupes comme des sortes de Gestalts dynamiques en en déterminant les lois de polarisation, les facteurs de leadership, etc.
Un autre but constant de certains psychologues sociaux est de montrer par les exemples les plus variés étudiés expérimentalement en leur détail, que les fonctions mentales les plus indépendantes en apparence du groupe social sont en réalité influencées par le milieu collectif et présentent certaines variations d’un type de société à un autre ou d’un niveau de société à un autre : cela va de soi des catégorisations conceptuelles et affectives, mais on a poussé l’analyse jusqu’au niveau de la perception, etc.
On voit alors que ces deux sortes de recherches s’orientent en réalité vers des schémas d’interdépendance plus que de réductions simples : si le dernier des buts mentionnés est souvent dirigé par un désir de réduction du psychologique au sociologique, l’étude de la dynamique des groupes aboutit par contre à une mise en valeur des relations interindividuelles que les sociologues, sauf G. Tarde, ont en général voulu distinguer nettement des contraintes du tout social comme tel et subordonner à ce tout considéré comme inexplicable psychologiquement. Or, dans la mesure où la psychologie sociale étudie les petits groupes, elle les traite à titre de Gestalts dynamiques constituant l’extension progressive de groupes à 2, à 3, puis à n individus, la frontière sociale n’étant plus située entre le tout social et l’interindividuel, mais entre l’interindividuel, considéré comme constituant déjà une totalité, et l’individuel pur ou même l’organique. En rejoignant de cette manière la microsociologie contemporaine, la psychologie sociale s’oriente ainsi vers des relations d’interdépendance et non plus de réduction simple.
Mais il y a plus. Les études comparatives selon les divers milieux sociaux rappelées à l’instant ne constituent qu’un aboutissement parmi d’autres d’une tendance aujourd’hui générale à adjoindre la dimension comparative à toute recherche psychologique portant non seulement sur l’adulte, mais encore sur le développement même de l’enfant et de l’adolescent. La tendance est même si importante que le Comité de l’Union internationale de psychologie scientifique a décidé récemment de promouvoir systématiquement de telles recherches et de fonder une revue internationale spécialement affectée aux études comparatives. Or nous avons vu (sous I) que la méthode de choix pour analyser les actions de la société sur l’individu était l’étude du développement en tant que socialisation : il va alors de soi que si, dans une société S1 on peut déjà discerner ce que l’organisme individuel possède par lui-même et ce qu’il reçoit du groupe social S1, la contre-épreuve qui s’impose est de répéter ces recherches dans les sociétés S2, S3, etc. Les éléments constants en ces divers milieux pourront alors être considérés avec quelque certitude comme dépendants (1) des facteurs organiques et psychologiques non dépendants du groupe et (2) d’une socialisation générale, en tant qu’interaction ou coopération entre les individus, et non pas des traditions culturelles et formes d’éducation propres à chacune de ces sociétés S1, S2, etc. Par contre les éléments variables seront attribuables à ces derniers facteurs 16.
III🔗
L’hypothèse que suggère la première des deux interprétations précédentes est que les opérations de la pensée et les structures logico-mathématiques en leur sens le plus large tiennent aux coordinations générales de l’action (emboîtements, ordre, correspondances, etc.) et non pas au langage et aux transmissions sociales particulières, ces coordinations générales de l’action se fondant elles-mêmes sur les coordinations nerveuses et organiques qui ne dépendent pas de la société. Seulement, comme les actions humaines sont à peu près toujours à la fois collectives et individuelles, les lois de leur coordination générale s’imposent aussi bien aux relations interindividuelles qu’aux actions privées et notamment intériorisées. Il en résulte ainsi une convergence nécessaire entre les formes les plus « générales » de l’interaction sociale et celles de la coordination des actions individuelles : pour mieux dire ce sont là les deux aspects indissociables d’une seule et même réalité, qui est celle des opérations et de la co-opération (au sens étymologique du terme). Il semble donc assez vain de chercher à opposer l’une à l’autre une logique sociale et une logique individuelle : il s’agit des mêmes structures générales intéressant toutes les actions humaines, sans hiérarchie entre leurs aspects collectifs et leurs aspects individualisés, ces deux aspects correspondant l’un comme l’autre à des normes communes ainsi qu’à des déviations variables pouvant être légères ou quasi pathologiques.
Si tel est le cas, on doit retrouver de telles convergences jusque sur le terrain linguistique. La psychologie sociale au sens large (telle qu’elle est exposée en particulier dans le bel ouvrage récent de R. Brown) comprend la psycholinguistique ainsi que l’étude du développement des opérations cognitives. Or, les lois du structuralisme linguistique, en particulier celles de la grammaire constructiviste de Chomsky, se manifestent chez l’enfant par toutes sortes de productions en partie spontanées qu’a étudiées entre autres Brown lui-même. On peut donc se demander quelles sont les relations entre le développement des opérations logiques chez l’enfant et celui de son langage. Dans un ouvrage récent, la psycholinguiste H. Sinclair a pu montrer que ces relations étaient étroites : il existe en particulier, entre les étapes de la sériation ou celles de la constitution des notions de conservation et celles du langage analysé du point de vue des « vecteurs » et des « scalaires » (au sens de Bull), une corrélation frappante qui marque l’interdépendance de ces deux systèmes opératif et linguistique. Mais un apprentissage verbal n’entraîne qu’un faible effet sur le progrès opératoire, sauf quand les mots employés obligent à des mises en relation conceptuelles nouvelles, tandis que la succession des schèmes opératifs relève d’une équilibration spontanée due aux actions du sujet.
Le domaine des valeurs affectives interindividuelles donne lieu à des considérations du même ordre : leur contenu est sans cesse modifié par la dynamique des échanges et du groupe, qui débute à partir de deux individus, mais la forme même des échanges et notamment la structuration des valeurs selon des échelles isomorphes aux sériations et aux arbres ou graphes de nature logique témoignent à nouveau de coordinations générales, qui constituent le point d’aboutissement des régulations affectives intra-individuelles au sens de P. Janet (voir chap. VII § 12).
Ces interdépendances, succédant au réductionnisme psychosociologique direct dont on a parfois rêvé autrefois, se retrouvent jusque sur le terrain de l’étude de la volonté, cas particulier des « décisions » dont la théorie des jeux a fourni une étude détaillée à la fois psychologique et économico-sociologique. On sait assez que la volonté a longtemps passé pour le type même des actions individuelles irréductibles aux facteurs sociaux, puisque l’individu veut pour lui-même et que les volontés individuelles se contrecarrent souvent et s’opposent fréquemment aussi aux contraintes du groupe. Mais W. James a montré, il y a plus d’un demi-siècle déjà, que la volonté ne se confond pas avec l’intention ou l’effort simples et qu’elle intervient seulement en cas de conflit de tendances : lorsqu’une tendance inférieure, mais momentanément forte, entre en conflit avec une tendance supérieure momentanément faible, l’acte de volonté consiste à renforcer celle-ci jusqu’à l’emporter sur l’autre, tandis que le manque de volonté se marque à la victoire de la première. Or, c’est là une référence implicite aux facteurs sociaux, car la tendance initialement faible mais ensuite renforcée se confond souvent avec le devoir. En outre, le défaut de l’explication est de faire appel à une « force additionnelle » dont on ne voit pas la provenance. Aussi bien, un psychosociologue français, Ch. Blondel, a-t-il cru résoudre le problème en considérant cette force additionnelle comme étant simplement celle des impératifs collectifs : solution réductionniste qui ne suffit pas, car si ces impératifs sont les plus forts, il n’y a plus besoin de volonté, et s’ils ne le sont pas, le problème subsiste. On peut donc faire l’hypothèse que la force et la faiblesse des deux tendances en conflit, avant l’acte de volonté, ne sont pas absolues mais relatives à la situation perceptive du moment (toute perception, sociale et liée aux évaluations affectives, comme purement cognitive, se caractérise par des surestimations et sous-estimations momentanées) ; il suffit alors de concevoir la volonté sur le modèle des opérations réversibles qui corrigent la perception en la subordonnant à des règles de transformation : en ce cas la volonté est l’opération affective (dernier terme des régulations énergétiques opposées par Janet aux régulations structurales) qui corrige l’évaluation en ramenant les valeurs momentanées à l’échelle plus ou moins permanente des valeurs, d’où le changement apparent du plus faible en plus fort 17.
En conclusion, dans tous les domaines psychosociologiques où l’on a débuté par des essais de réduction simple du mental au social, on se trouve actuellement en présence de trois sortes de niveaux et non pas de deux seulement : l’organique, le mental et le social. Mais cette trichotomie conduit à deux dichotomies correspondantes. D’une part, l’organique et le mental donnent lieu à des spécialisations différentielles distinguant les individus les uns des autres (selon les combinaisons de leur patrimoine héréditaire, leurs aptitudes et leur histoire), mais, d’autre part, les individus ont en commun certaines structures générales (opérations intellectuelles, etc.) qui se forment et se développent de façon relativement uniforme. Quant aux relations du mental et du social, il faut également distinguer, d’une part, les diversités sociales opposant les sociétés les unes aux autres selon leurs idéologies, leur histoire, etc., et, d’autre part, les structures générales de la coordination sociale. Or, la grande leçon de l’analyse relationnelle, en contraste avec les réductionnismes poursuivis aux débuts de la recherche, est que les structures générales mentales et les structures générales sociales sont de formes identiques et témoignent donc d’une parenté de nature, dont les racines sont sans doute en partie biologiques (au sens le plus large des interactions rappelées aux § 3 et 4) : quand Lévi-Strauss veut caractériser les structures de la parenté, etc., et donner une expression adéquate de son structuralisme anthropologique, il recourt aux grandes structures de l’algèbre générale (groupes, réseaux, etc.), de telle sorte que l’explication sociologique se trouve alors coïncider avec une mathématisation qualitative de nature analogue à celle qui intervient dans la construction des structures logiques, construction dont on peut suivre le développement chez l’enfant, chez l’adolescent, en leur pensée spontanée et non pas en leur apprentissage scolaire. Ainsi la découverte des interactions entre le général et le social conduit à des tendances explicatives autrement plus profondes que l’idéal de réduction simple, et cela en parallèle avec ce que nous avons vu sur les terrains organiciste et physicaliste.
6. Les recherches psychanalytiques de la spécificité mentale🔗
Si les processus mentaux ne sont réductibles ni à la seule vie organique, ni à la vie sociale, un certain nombre de tendances de la psychologie contemporaine visent à les atteindre par des voies spécifiques : la psychanalyse par l’étude directe du contenu des représentations et des affects, la psychologie des conduites par l’établissement des lois du comportement ou de son intériorisation, et la psychologie génétique par l’analyse générale des structures successives du développement. Nous suivrons cet ordre d’exposition, même si la psychanalyse en ses diverses variétés se dit génétique, et le suivrons pour montrer le progrès des tendances structuralistes, dont on a déjà vu les manifestations dans les domaines précédents, et surtout pour montrer en quoi ces progrès sont solidaires de ce que l’on peut appeler le constructivisme, en opposition avec le réductionnisme.
I🔗
La psychanalyse a passé par un certain nombre d’étapes historiques qu’il est utile de rappeler brièvement pour faire comprendre ses tendances actuelles. Sous sa forme freudienne originelle, en effet, la psychanalyse a fourni cet exemple remarquable d’une doctrine expliquant le présent de l’individu par son passé, donc l’adulte par l’enfant, et qui en ce sens était bien d’intention génétique, mais qui a conçu la genèse non pas comme une construction continue mais comme le seul déploiement de certaines tendances initiales, de telle sorte que le présent s’en est trouvé réduit au passé et les diverses phases du développement réduites au seul déplacement des points d’application de l’énergie pulsionnelle de départ. En un mot, la situation exceptionnelle et unique en son genre des premières doctrines de Freud est d’avoir procédé selon l’idéal réductionniste, seulement par réduction non pas du mental à l’organique ou à du social, mais bien des formes psychiques supérieures à des formes élémentaires subsistant toute la vie sous les premières et dans l’« inconscient ». Il y a donc là un bel exemple de l’explication par identification : les stades oral, anal, narcissique primaire, objectal, œdipien, etc. ne sont que les manifestations successives de la même libido, qui déplace ses « charges » énergétiques d’un objet à un autre en partant du corps pour aboutir aux personnes extérieures à lui et finalement à des sublimations variées ; les représentations elles-mêmes étaient soumises à ce mouvement d’ensemble, en hallucinant la réalisation des désirs ou en conservant dans l’inconscient le souvenir des désirs satisfaits ou des échecs et des conflits.
Mais pour qu’il y ait identification du divers à un principe unique et non pas identité simple dès le départ, il faut des résistances ; d’où un premier dualisme qui fait obstacle à l’identité pure et qui est le dualisme de l’individu porteur de la libido et de la société qui s’oppose à ses désirs. De là la répression, le refoulement, la censure, le symbolisme comme déguisement, etc. Sur la voie des dualismes, Freud a ensuite introduit deux nouveautés : l’intériorisation des interdictions sociales sous la forme du « surmoi » (Freud a d’ailleurs été précédé en ce concept par J. M. Baldwin et par P. Bovet), intégré ainsi dans l’appareil psychique mais sans que le « moi » lui-même conquière son indépendance par rapport à la libido ; et la promotion, sous l’influence de Jung, de la pensée symbolique en une sorte de pensée ou langage primitifs, en partie indépendants de la censure.
II🔗
L’étape importante qui a suivi et qui a mis un terme à ce réductionnisme intégral est celle de l’affirmation, due à Hartmann, de l’autonomie du moi, conçu comme un ensemble d’adaptations libres de conflits sexuels. La pensée, selon D. Rapaport, devient ainsi un système de mécanismes permettant de s’éloigner des sphères de conflits et de ne s’occuper que de conquêtes cognitives : tout travail mental n’est plus sublimation ou mécanisme de défense et il y a donc place pour une genèse réelle intéressant le moi 18. Mais le problème important pour notre préoccupation de marquer les tendances, et non pas simplement de décrire les états de fait, est de discerner si cette porte ouverte au constructivisme génétique et au structuralisme va être franchie dans la direction de l’affectivité elle-même (des stades de la libido), ou s’il subsiste dans la psychanalyse contemporaine une dualité d’inspirations, les unes concernant la vie sexuelle et demeurant fidèles au réductionnisme identificateur de Freud, les autres concernant le moi et la pensée consciente et faisant place au constructivisme et au structuralisme.
En réalité on peut discerner six tendances différentes dans les mouvements analytiques contemporains et il est utile de les noter car des divergences de doctrine sont assez instructives quant à la complexité des interprétations en psychologie et aux difficultés qu’un structuralisme constructiviste a de s’imposer en tous les domaines, même s’il correspond aux tendances les plus générales d’aujourd’hui.
III🔗
(1) La première de ces tendances est à certains égards régressive et revient à accentuer encore le caractère réductionniste de la doctrine freudienne : c’est celle de l’école de Mélanie Klein, qui fait remonter plus haut encore qu’on ne le pensait la représentation comme réalisation quasi hallucinatoire des désirs, la mémoire sous forme de souvenirs-images et les divers complexes freudiens. Mais, selon les auteurs étrangers à cette sous-école kleinienne, le nourrisson devient ainsi curieusement assimilable à cet « adulte en miniature » que la psychologie non psychanalytique de l’enfant a constamment dénoncé comme un produit analogue à ceux du préformisme en embryologie.
(2) Une seconde tendance est celle, comme d’ailleurs certaines des suivantes, d’auteurs qui ne se contentent plus de reconstituer les stades du développement sur la base de quelques observations cliniques (ou, comme faisait Freud lui-même, des souvenirs d’enfance ramenés à la surface par des adultes en traitement), mais qui se livrent à des expérimentations proprement dites, ce qui est nouveau en psychanalyse : E. Kris, Spitz et K. Wolf, Th. Benedek, Th. Gouin-Décarie, etc. L’idée directrice en est que le développement consiste en constructions proprement dites intéressant le moi et qu’il y a corrélation entre les étapes des manifestations de la libido et ces stades de l’élaboration du moi. On distinguera, par exemple, dans l’évolution du nourrisson, un premier stade où il est centré sur lui-même, mais sans encore aucune différenciation du moi par rapport à l’autrui et aux objets, le milieu n’étant connu qu’à travers les activités du sujet. Un second stade est celui où les réactions d’attente et certaines perceptions privilégiées (sourires) introduisent un début de frontières, mais mobiles, entre l’activité propre et les « objets intermédiaires » tels que le « visage humain souriant » (Spitz). Enfin un troisième stade marque la différenciation stable du sujet et de l’objet, d’où la conscience du moi et une « cathexis qui investit de véritables objets libidinaux », autrement dit une fixation « objectale » de l’affinité sur la personne de la mère, etc.
Or, par des expériences précises sur 90 bébés, où elle a repris nos résultats concernant la formation cognitive de l’objet permanent (chercher l’objet après sa disparition perceptive sous un écran, ce qui n’est nullement inné), Th. Gouin-Décarie a pu montrer une corrélation relativement bonne entre nos stades et ceux de l’affectivité préobjectale puis objectale (relativement seulement, car si les stades cognitifs se sont confirmés suivre un ordre constant, ceux de la « libido » ne sont pas aussi séquentiels et comportent des retours). Nous sommes donc sur la voie du constructivisme.
Seulement, il apparaît rapidement que les stades comportant des nouveautés réelles sont ceux du moi, tandis que la cathexis est conçue comme se déplaçant simplement d’objets en objets. Autrement dit, un sentiment nouveau n’est pas nouveau parce qu’il y aurait réélaboration des valeurs, etc. : il n’est nouveau que par son nouvel objet, et il y a simplement « éclosion de tous les éléments contenus en germe dans les étapes antécédentes » (Gouin).
(3) Un constructivisme réel intervient par contre avec une troisième tendance qui est celle de la « psychanalyse culturaliste », mais il s’agit de constructions psychosociales et non plus d’un développement mental conçu comme général, c’est-à-dire commun à tous les individus de toutes les sociétés. La grande nouveauté est, en effet, que la « libido », à titre d’instinct général au sens défini à l’instant, n’est plus le principe unique de toute explication, non pas seulement du moi et des fonctions cognitives puisqu’ils sont devenus « autonomes » depuis Hartmann, mais même de l’affectivité en ses étapes particulières. Des psychanalystes comme E. Fromm, K. Horney, Kardiner, Glover, de même que des anthropologues comme R. Benedict et M. Mead ont montré à cet égard que les complexes freudiens, en particulier celui d’Œdipe, et par conséquent les stades des manifestations de la libido, ne se retrouvent pas dans toutes les formes de sociétés et qu’il s’agit par conséquent de produits culturels autant que psychologiques. Il y a là une contribution de grande valeur à l’étude des interactions psycho-sociales dont il a été question au § précédent.
(4) Si le culturalisme recourt à l’anthropologie sociologique pour expliquer des faits jusque-là considérés comme relevant du seul instinct sexuel, Bowlby au contraire s’oriente vers l’éthologie et ses théories des indices innés (IRM = innate releasing mechanisms). Rapprochement raisonnable, si l’on songe aux indices du visage, etc. Mais surtout il y a là une incitation fort utile à la vérification expérimentale, si l’on se rappelle que C. G. Jung a construit toute une théorie des « archétypes » considérés comme héréditaires, alors que le problème préalable à résoudre, en une telle hypothèse, était de distinguer le « général » (au sens d’une même formation constante assurant les convergences) et l’héréditaire.
(5) La position d’Erikson est particulière et intermédiaire entre les précédentes, mais il a introduit en psychanalyse freudienne une notion importante, développée par ailleurs dans les travaux d’Adler (à qui l’on doit les notions célèbres de « complexes d’infériorité » et de surcompensation orientant certaines carrières) : c’est l’hypothèse selon laquelle nous assimilons sans cesse le passé au présent, en vue des adaptations actuelles, autant que notre présent dépend de notre passé dans la continuité des conduites et des représentations. Erikson a fait à cet égard d’intéressantes observations sur le jeu de l’enfant, où l’on voit le symbolisme remanier le passé autant que le prolonger. Nous sommes donc, cette fois, dans la direction d’un constructivisme psychologique réel, avec intégrations progressives et rétroactives comme dans le développement intellectuel.
(6) À signaler enfin les travaux de l’école de Stockbridge, inspirés par le regretté D. Rapaport et qui s’orientaient nettement vers l’unité entre les développements affectif et cognitif. D. Rapaport a publié dans ce sens en 1960 une étude sur Attention Cathexis dans laquelle, avec sa culture physique et mathématique, il fait la critique de l’énergétique freudienne, où la cathexis ne fait que se déplacer et investir ses « charges » en se liant à tel ou tel objet, et dans laquelle il fait d’intéressants rapprochements entre sa conception du freudisme et nos propres vues sur l’« alimentation » des schèmes sensori-moteurs. Son élève Wolff a repris ces comparaisons entre le développement sensori-moteur de l’enfant et celui de la « libido » 19.
Au total, on voit ainsi les tendances qui se dégagent de l’évolution d’une école intégralement réductionniste à ses origines et que la conscience progressive des interactions entre les domaines cognitif et affectif, individuel et social et en partie mental et biologique conduit sur la voie d’un constructivisme nécessaire à la compréhension du développement en son ensemble.
7. La spécificité du comportement et les structures de la mémoire🔗
Dans sa recherche d’un domaine spécifique entre l’organique et le social, la psychologie s’est orientée entre autres vers l’étude du comportement qui satisfaisait les esprits positifs, méfiants à l’égard de l’introspection et encore plus à l’égard d’un inconscient qu’on ne reconstitue que par voies indirectes. Nous avons déjà parlé du comportement au § 1 à propos des tendances positivistes se refusant à toute « explication ». Mais l’analyse du comportement se prête à des positions différentes et il existe notamment de grandes théories américaines de l’apprentissage, dont les plus connues sont celles de Hull et de Tolman, qui veulent être explicatives, contrairement au point de vue de Skinner, tout en se refusant à des déductions organicistes jugées ou prématurées ou dépassant le champ de la psychologie, comme c’est le cas de la réflexologie pavlovienne.
Or, il est intéressant de montrer que, sitôt abandonnée la préoccupation réductionniste pour atteindre dans les conduites comme telles la spécificité du phénomène psychologique, on s’engage dans une direction constructiviste, c’est-à-dire que, en cherchant à expliquer comment se forment des conduites nouvelles, on en vient à invoquer des constructions en partie endogènes dans la mesure où ces conduites ne sont pas contenues ou préformées dans les précédentes ; et que, sitôt adoptée cette voie constructiviste, on est tôt ou tard obligé de recourir à un structuralisme, c’est-à-dire à l’hypothèse de formes d’ensemble comportant leur autorégulation ou leurs opérateurs, par opposition aux interprétations de type atomistique.
I🔗
Le passage des théories de Hull à celles de Tolman est déjà très significatif à cet égard. Les présuppositions de Hull sont nettement empiristes, non pas au sens du positivisme de Skinner, car Hull ne craint pas les variables intermédiaires entre le stimulus S et la réaction R, tout en les reconnaissant inférées, mais en ce sens que pour lui la nouveauté des conduites acquises est exclusivement due aux données de l’expérience, donc aux liaisons fournies dans le milieu et dont les associations SR constituent une sorte de « copie fonctionnelle ». Mais ces associations SR ne s’accumulent pas d’une façon simplement additive, car il se forme des ensembles structurés que Hull appelle les « familles hiérarchiques d’habitudes », c’est-à-dire qu’une habitude déjà formée pour elle-même peut devenir un segment d’une habitude plus large, donc un moyen au service d’un nouveau but, ou un segment ordonné par rapport au suivant dans une chaîne finissant par constituer un nouvel ensemble. En outre l’activité du sujet n’est pas complètement négligée, car non seulement celui-ci répète ce qu’il a appris et généralise selon des généralisations de la réponse R ou du stimulus S (et Hull a prévu, sans s’en servir, des généralisations combinées stimulus-réponse), mais encore il fragmente et regroupe ses réactions, ou les accélère à l’approche du but (gradients de but). Mais en principe tout ce qu’apprend le sujet est déjà contenu dans les objets, et le constructivisme est ainsi minimal, puisqu’il ne s’agit que d’une construction de « copies ».
Avec Tolman, par contre, nous assistons à deux nouveautés notables. D’une part, le milieu n’est plus présenté comme un ensemble de séquences indépendantes que le sujet apprend à « copier » une à une : il est d’emblée organisé par le sujet en totalités significatives, que Tolman appelle des « sign-gestalts ». Ce terme est à lui seul déjà instructif : il y a « gestalt » en ce sens qu’il y a ensemble structuré, par exemple du point de vue de l’organisation spatiale et des itinéraires à parcourir (le sujet, en ces théories de l’apprentissage, a longtemps été le rat blanc domestiqué, bien qu’il s’agisse d’un animal assez dégénéré qui a perdu l’essentiel de ses comportements de rongeur) ; mais il y a aussi les significations, ce qui dépasse l’associationnisme et montre que les caractères perçus sont assimilés et pas seulement associés aux actions possibles du sujet. D’autre part, Tolman invoque dans l’apprentissage une activité essentielle du sujet qui est une continuelle anticipation (expectation), résultant bien entendu d’assimilations antérieures, mais témoignant de généralisations actives et constantes, ne se bornant pas à appliquer la même réponse à des stimulus analogues ou des réponses voisines au même stimulus.
Du point de vue de l’explication, ces théories de l’apprentissage élémentaire ont donné lieu, outre la formalisation logique à laquelle s’est livrée Hull avec Fitsch dont il a déjà été question (§ 2 sous III), à trois sortes de travaux qui méritent une mention par leur portée générale et actuelle. En premier lieu, Bush et Mosteller ont fourni un schéma probabiliste de l’apprentissage : étant donnée telle situation caractérisée par tels paramètres, on peut en déduire, connaissant telles lois, que telle réaction se produira selon telle probabilité calculable. Ceci n’est encore qu’une traduction, en termes de calcul, des états de fait et des lois observées et il reste à rendre compte du pourquoi de ces probabilités. Or, H. Harlow a fait à cet égard une remarque essentielle, en distinguant l’apprentissage d’une réaction donnée et la conduite générale qu’il appelle « apprendre à apprendre ». C’est bien là, en effet, la véritable question, car sans une logique interne poussant les sujets à assimiler à son schématisme les données extérieures tout en l’accommodant à leur diversité, on ne voit pas d’où viennent les nouveautés, et l’appel à la satisfaction ou réduction des besoins n’est qu’une interprétation finaliste tant que l’on ne comprend pas le comment des adaptations aux situations nouvelles. En troisième lieu, L. Apostel a dégagé, dans une étude d’ensemble sur les théories de l’apprentissage et en tenant précisément compte de cette notion de « learning sets » de Harlow, une algèbre de l’apprentissage, dont les opérateurs essentiels soulèvent cette question des activités structurantes du sujet.
II🔗
En fait, il se pose ici une question préalable dont on commence seulement à voir qu’elle est assez fondamentale parce qu’en travaillant sur cet animal dégénéré qu’est le rat blanc au lieu de s’adresser à des enfants en pleine activité de croissance, on en soupçonnait peu la portée : est-ce l’apprentissage qui constitue le phénomène primaire et qui explique le développement mental lui-même, ou bien le développement obéit-il à ses lois propres et l’apprentissage, en une situation particulière et bien délimitée, n’en constitue-t-il qu’un secteur plus ou moins artificiellement découpé (et cela à tous les âges de la vie, car, au moins sur le terrain professionnel, le développement dure jusqu’à la sénilité) ? Le postulat implicite de la plupart des théories de l’apprentissage est assurément conforme à la première de ces deux solutions, et cela au mépris de l’esprit de toute la biologie contemporaine (qui voit dans les réactions phénotypiques un résultat de la « norme de réaction » du génotype ou du pool génétique, avec interactions constantes entre l’action organisatrice de ceux-ci et les influences du milieu). La seconde solution est au contraire de plus en plus envisagée et elle modifie profondément les données du problème.
Si, en effet, le développement précède et commande l’apprentissage, cela ne signifie nullement qu’il existe des connaissances innées, ou même acquises sans apprentissage, mais cela signifie que tout apprentissage comporte, en plus des données extérieures S et des réactions observables R, un ensemble de coordinations actives dont l’équilibration progressive constitue un facteur fondamental qui représente en fait une logique ou une algèbre.
Aussi bien, le Centre international d’épistémologie génétique de Genève s’est-il posé deux problèmes : quel est le mode, classique ou spécifique, de l’apprentissage des structures logiques, et tout apprentissage, même de données contingentes ou arbitraires, suppose-t-il ou non une logique ? Sur ces deux points, les réponses de l’expérience, faite sur des enfants de différents stades connus quant aux structures opératoires qui les caractérisent, ont été assez claires. En premier lieu l’apprentissage d’une structure logique (inclusion de classes, etc.) ne procède pas par renforcements externes (réussites ou échecs connus d’après les résultats), seul facteur constamment invoqué par Hull, mais repose sur la généralisation et la différenciation de structures logiques ou prélogiques préalables : par exemple, découvrir que, si tous les A sont des B mais non pas tous les B des A, il y a davantage de B que de A (quantification de l’inclusion) ne s’acquiert pas en comptant simplement les B et les A après réponse donnée, mais la compréhension est favorisée si l’on part de l’intersection de deux classes non disjointes C et D, le fait qu’il y ait des objets qui sont « à la fois » C et D conduisant à admettre que A < B provient de AB < B.
Cette hypothèse d’une subordination de l’apprentissage au développement inspire actuellement une série de travaux sur l’acquisition des notions de conservation, etc., conduits par B. Inhelder, H. Sinclair et M. Bovet, ainsi qu’à Montréal par M. Laurendeau et A. Pinard et dont la méthode consiste à étudier comme facteurs d’apprentissage ceux que l’analyse du développement semble indiquer comme décisifs, en particulier lors des passages d’une structure opératoire à une autre (ou à la même mais avec décalage dû à des contenus différents). Sans doute une telle hypothèse doit-elle être vérifiée séparément à tous les niveaux de la conduite (sensori-moteurs, sémiotiques ou représentatifs, etc.). Mais il se peut fort bien que sa valeur soit générale : on constate souvent ainsi en des apprentissages sensori-moteurs le rôle de certaines « formes » d’organisation dont la prégnance dépend des stades du développement (par exemple un enfant de 3 ans apprenant à circuler sur un tricycle peut imprimer à ses jambes un mouvement pendulaire de semi-rotations avant de réussir la rotation complète).
Quant à la logique de l’apprentissage, dont le travail cité d’Apostel a été l’une des recherches poursuivies sur ce sujet, Matalon a pu montrer que même en un apprentissage stochastique, les choix ne dépendent pas seulement des résultats constatés, mais aussi d’une organisation des actions successives du sujet, les stratégies impliquant donc une logique qui dépend en chaque cas du niveau opératoire du sujet.
Il va de soi que ces interprétations s’engagent ainsi dans une direction constructiviste, puisqu’il y a sans cesse élaboration de coordinations nouvelles, et structuralistes, puisque ces coordinations prennent la forme d’une logique opératoire. Il est intéressant de chercher à quel prix une théorie classique de l’apprentissage peut se concilier avec ces tendances nouvelles. Un disciple de Hull, D. Berlyne, l’a montré en un intéressant essai après avoir prouvé lui-même que l’apprentissage d’une série ordonnée suppose un « compteur », autrement dit une structure préalable d’ordre, ce qui est entièrement dans la ligne des interprétations précédentes. Il a, en effet, indiqué que pour rendre compte des structures opératoires, au sens indiqué à l’instant, il fallait introduire les trois adjonctions suivantes, dont les deux dernières modifient passablement la conceptualisation de Hull : (1) des généralisations stimulus-réponse, prévues mais non utilisées par Hull ; (2) des réponses transformatrices en plus des réponses-copies, ce qui équivaut à nos « opérations » ; et (3) des renforcements internes, sous forme de facteurs de cohérence, non-contradiction, etc., ou de surprise, etc., ce qui équivaut aux notions d’équilibration logique.
III🔗
Les problèmes d’apprentissage constituent un terrain d’études commun à la biologie et à la psychologie, et l’intervention d’une logique de l’apprentissage n’a rien de contraire à l’esprit biologique si cette logique est conçue en termes de coordination générale des actions, donc d’autorégulation et d’autocorrection, avant de donner lieu aux intériorisations mentales et réflexives constituant ce qu’on appelle communément la logique naturelle.
Mais l’apprentissage touche une autre question d’intérêt commun aux biologistes et aux psychologues, qui est celle de la mémoire ou conservation de ce qui a été « appris ». Les biologistes parlent de « mémoire » en un sens très large qui peut remonter, par exemple, jusqu’aux faits d’immunité. Lorsqu’une bactérie attaquée par un antigène produit un anticorps qui l’immunise, ou bien il s’agit d’une variation génétique avec sélection, etc., et l’on ne parle pas de mémoire, ou bien il s’agit de réactions acquises (par une sorte de moulage dans la structure de l’antigène), et, dans cette hypothèse, leur conservation serait appelée « mémoire ».
Dans l’état actuel des travaux, il faut distinguer trois grandes catégories de mémoire, ou, pour parler avec plus de précision, trois significations différentes attribuées au terme de mémoire, l’un des problèmes essentiels étant alors celui de leurs relations. (1) Il y a d’abord ce que nous appellerons la « mémoire au sens du biologiste », qui est la conservation, durant la vie de l’individu, de tout ce qui est acquis et non pas exclusivement de ce qui est acquis au niveau du comportement (conditionnement, habitudes, intelligence, etc.). (2) Il y a en second lieu la mémoire liée au seul comportement, mais concernant aussi bien la conservation de schèmes sensori-moteurs, comme un schème d’habitudes (donc l’habitude elle-même en tant que répétition motrice) et même la conservation des schèmes « opératoires » (identité, sériation, etc.), que les « souvenirs » proprement dits se marquant par une récognition, etc. : nous parlerons en ce cas de la « mémoire psychologique au sens large ». (3) Enfin on peut désigner du terme de « mémoire psychologique au sens strict » les conduites comportant une référence explicite au passé et dont les observables sont en particulier (a) la récognition ou perception d’un objet présent mais en tant qu’ayant été déjà perçu antérieurement, et (b) l’évocation par une image-souvenir d’un objet ou événement non présents mais représentés (par une image mentale, un récit verbal, etc.) en tant qu’ayant été connus dans le passé.
Cela dit, la conservation (non héréditaire) du passé, qui est comprise à des degrés divers dans les trois significations précédentes, soulève en réalité deux questions très distinctes, dont la première seule intéresse le biologiste, tandis que toutes deux concernent le psychologue, mais la seconde dépendant en fait étroitement de la première. La première de ces questions est ce que l’on peut appeler celle de la conservation des schèmes, c’est-à-dire de tout ensemble organisé de réactions, susceptible de répétition, d’application à des situations qui se reproduisent, ou même de généralisation en présence de situations nouvelles, mais analogues à certains égards aux précédentes. La seconde question ne concerne que la « mémoire psychologique au sens strict » et est celle de la conservation des souvenirs-images dont on peut observer la fixation et le rappel ou évocation, mais dont on ne sait pas grand-chose, au point que des auteurs comme P. Janet ont admis que le rappel était en réalité une reconstruction à la manière dont procède l’historien (la « conduite du récit »), tandis que d’autres comme Freud supposent que tous les souvenirs sont emmagasinés dans l’« inconscient » pendant la période de rétention.
Or, la première de ces deux questions est indépendante de la seconde, tandis que celle-ci est en bien des cas et probablement toujours liée à celle-là. Sur le premier de ces deux points, rappelons qu’un schème est l’expression d’une activité qui se répète en vertu d’une généralisation (même si les situations sont identiques), tandis qu’un souvenir consiste à retrouver, en réalité ou en pensée, un objet ou un événement singuliers. La conservation du souvenir pose donc un problème spécial, tandis que la conservation des schèmes ne fait qu’un avec leur existence même et la durée de cette conservation dépend entièrement de leur fonctionnement, qui dure par autoconservation ou autorégulation et n’a pas besoin d’être reconnu ou évoqué en des souvenirs particuliers pour durer. C’est ainsi que les mouvements inhérents à une habitude motrice, comme de descendre un escalier, se conservent par leur organisation même et qu’un schème intellectuel commun, un syllogisme ou une implication n’ont pas à être évoqués par des souvenirs particuliers pour être appliqués à nouveau lors de chaque besoin de déduction.
Ce n’est pas à dire naturellement que l’existence des schèmes ne pose pas de problèmes : mais ce sont des problèmes de formation et d’organisation, et pour autant que ceux-ci peuvent être résolus, il n’y a pas de question séparée relative à leur conservation, sauf à invoquer à nouveau les feedbacks ou régulations qui ont présidé à cette formation, puisque chaque fonctionnement du schème ranime son organisation. Il n’y a donc pas de mémoire des schèmes, car la mémoire d’un schème n’est autre que ce schème lui-même. Lorsque les biologistes emploient le terme de « mémoire » dans le premier des trois sens que nous avons distingués, ils soulèvent en réalité le grand problème de l’organisation de l’acquis, et, en parlant de la conservation de l’information non héréditaire, ils nous font espérer la découverte d’organisations analogues, mais sur le terrain phénotypique, à celles des encodages de l’information héréditaire (d’où l’intérêt de l’hypothèse selon laquelle l’intégrité du RNA serait nécessaire à cette conservation de l’information acquise).
Au point de vue psychologique, le problème de la conservation des schèmes d’habitudes ou du schématisme intellectuel se confond donc avec celui de leur constitution et nous venons d’en parler à propos de l’apprentissage. Par contre le problème de la « mémoire psychologique au sens strict » comporte une série de difficultés et est actuellement en plein développement. Il faut d’abord noter qu’entre la mémoire de récognition (définie plus haut) et celle d’évocation, il y a une grande différence de niveaux : la première s’observe dès les Invertébrés et même inférieurs (puisque le conditionnement suppose la récognition du stimulus), tandis que l’évocation semble liée à la fonction sémiotique (images mentales, en tant que symboles représentatifs, et langage), et n’est donc possible que chez l’homme à partir de 1 ½-2 ans et sans doute chez les anthropoïdes. Mais entre ces deux niveaux extrêmes, que l’on considère en général à eux seuls, les travaux de Genève ont mis en évidence chez l’enfant une forme intermédiaire, qui est la mémoire de reconstitution : reconstituer une configuration avec le même matériel, ce qui comporte une certaine récognition d’indices, mais ce qui constitue aussi une sorte d’évocation, seulement en actions et non pas en souvenirs-images. Cette mémoire de reconstitution trouve son expression la plus simple dans l’imitation elle-même, et peut donc être considérée comme apparaissant sous cette forme dès le niveau des Oiseaux au moins (ainsi que probablement des Abeilles).
Quant à savoir comment se conservent les souvenirs, il est probable qu’il intervient toujours une certaine part de reconstitution (au moins quant à l’ordre des événements), ce qu’attestent entre autres les faux souvenirs tenus pour vrais par le sujet jusqu’à vérification, et l’inexactitude connue des témoignages qui s’orientent en général dans le sens du plus probable. Mais Penfield a pu montrer, en des expériences spectaculaires, la possibilité de faire revivre des souvenirs par excitation électrique des lobes temporaux, ce qui prouve une certaine conservation, non contradictoire d’ailleurs avec la part supposée de reconstruction.
En fait, les formes inférieures de mémoire (au sens strict) sont toujours liées à une certaine conservation de schèmes : les habitudes et l’intelligence sensori-motrices comportent sans cesse des récognitions d’indices significatifs et le souvenir de récognition est alors visiblement attaché aux schèmes dont il constitue en ce cas l’aspect figuratif ou perceptible. La mémoire de reconstitution est de son côté liée à l’action, ce qui signifie de nouveau à certains schèmes. Quant à la mémoire d’évocation, qui se situe donc au niveau supérieur caractérisé par la représentation ou pensée, elle est en bonne partie libérée des schèmes de l’action, mais on peut se demander jusqu’à quel point elle est attachée à ceux de l’intelligence 20.
En un mot, il en est de la mémoire comme de l’apprentissage, et cela permet de discerner une partie des tendances en devenir dans ce genre d’études. D’une part, on ne peut pas séparer l’étude de la mémoire de celle du développement, puisque la mémoire d’évocation n’a rien d’inné, mais se « construit » en liaison avec la fonction sémiotique, condition de la représentation. Il est vrai que bien des psychanalystes situent cette mémoire bien plus précocement, mais c’est là une opinion non partagée par la plupart des psychologues de l’enfance et certains soutiennent que si nous n’avons aucune mémoire de notre naissance et de notre première année, c’est moins par refoulement que parce qu’il n’existait encore aucun instrument représentatif permettant la fixation de souvenirs-images. D’autre part, on ne saurait séparer le problème de la mémoire au sens strict de celui de la conservation des schèmes.
8. Le structuralisme psycho-génétique 21 (animal et enfant) et les théories de l’intelligence🔗
Le principal avenir de la psychologie est sans doute à attendre des méthodes comparée et psycho-génétique, car ce n’est qu’en assistant à la formation des conduites et de leurs mécanismes chez l’animal et chez l’enfant (en attendant d’étudier les pré-perceptions et les mouvements chez les végétaux) qu’on comprend leur nature et leur fonctionnement chez l’adulte. Mais on a mis un temps considérable à comprendre ce qui correspond maintenant à une tendance répandue, parce qu’on a longtemps considéré l’enfant comme n’apprenant que ce qui est inscrit d’avance en un monde extérieur tout organisé et surtout ce que lui enseigne l’adulte. Or, les deux grandes leçons que nous donne l’enfant est que l’univers n’est organisé qu’à la condition d’avoir réinventé pas à pas cette organisation, en structurant les objets, l’espace, le temps et la causalité, tout en constituant une logique ; et qu’on n’apprend jamais rien des maîtres qu’en reconstruisant également leur pensée, à défaut de quoi elle ne se fixe ni dans l’intelligence ni même dans la mémoire (ce qui se touche de près, comme on l’a vu à l’instant). En un mot, la psychologie de l’enfant nous apprend que le développement est une construction réelle, par delà l’innéisme et l’empirisme, et que c’est une construction de structures et non pas une accumulation additive d’acquisitions isolées.
I🔗
Il est tout d’abord frappant de constater combien l’évolution de l’éthologie, ou psychologie animale, a passé par des phases parallèles à celle de la psychologie de l’enfant, et cela sans aucune autre influence directe dans un sens ou dans l’autre, car l’éthologie est surtout l’œuvre de zoologistes. Après une phase d’observations isolées, la psychologie animale s’est faite en laboratoire selon des canons stricts d’inspiration associationniste (théories de l’apprentissage). Puis est venue l’école dite « objectiviste » dont l’objectivité a consisté à replacer l’étude dans la nature même, c’est-à-dire dans le complexe indissociable organisme × milieu, mais en conduisant l’analyse de façon systématique : d’où la redécouverte de l’instinct, mais avec une grande abondance de faits nouveaux qui en montrent la complexité. Enfin la génération des fondateurs de cette éthologie en nature a été suivie par une seconde génération qui se méfie de l’innéité pure et cherche l’explication dans un complexe d’innéité et d’exercice en insistant sur la construction des structures plus que sur l’idée de préformation simple.
Or, la psychologie de l’enfant a passé par des phases assez correspondantes. Après une étape d’observations isolées et pour ainsi dire surtout biographiques, on a soumis l’enfant à toutes sortes de tests standardisés donnant des vues quantitatives plus que des idées sur les mécanismes mêmes du développement. Après quoi sont venues les études surtout cliniques, replaçant l’enfant en son contexte de vie et d’activité, et ici également on a surtout insisté d’abord sur les facteurs de maturation interne du système nerveux (Gesell et Wallon), plus naturellement le facteur social général, ignoré de l’animal sous la forme des transmissions éducatives prolongées. Enfin on a insisté sur la construction même des structures, dépassant à la fois les facteurs organiques et l’action de l’adulte.
Pour en revenir à l’éthologie, mais sans remonter aux phases initiales, il faut insister sur l’une des idées centrales qu’a introduites l’objectivisme de Lorenz et Tinbergen : c’est la notion d’une activité spontanée de l’organisme, distincte de toute « réponse » aux stimulus extérieurs. Adrian en avait déjà d’ailleurs prouvé l’existence, et on en retrouve un équivalent net jusque chez le nouveau-né de l’homme. Il y a longtemps d’ailleurs (Coghill, Graham, Brown), que l’on conçoit les réflexes comme un produit de différenciations à partir de mouvements rythmiques d’ensemble, mais l’objectivisme a montré le caractère spontané de certains d’entre eux au moins.
Quant à l’instinct, il en a donné une analyse fort instructive pour la psychologie humaine elle-même, parce que permettant de mieux juger des relations entre l’intelligence et la vie organique. Les initiateurs, Tinbergen, Lorenz et, en France, Grassé, ont insisté sur le caractère essentiellement inné de l’instinct, mais sans pour autant négliger la collaboration nécessaire du milieu. La conduite instinctive se marque d’abord par des tendances appétitives (recherche d’une femelle, d’un emplacement pour le nid, etc.) liées à des modifications hormonales de l’organisme. Puis débute une phase de réalisation, mais guidée par des « indices significatifs » héréditaires : une tache rouge du mâle (chez l’épinoche) orientant la femelle, mais déclenchant chez d’autres mâles une agressivité liée à la défense du territoire, du nid ; la vue d’objets pouvant servir à la confection de ce nid, etc. Il est à noter que les indices (IRM) ne déclenchent pas toujours les actions dans un ordre constant mais qu’on observe déjà à ce niveau une certaine mobilité adaptative liée à la situation extérieure. Grassé a, par exemple, décrit chez les termites des « stigmergies » ou indices tels qu’une boulette de matière, une fois atteinte une certaine grosseur, déclenche sa transformation en piliers, plafonds, etc., mais l’ordre de construction de la termitière demeure variable, le résultat de chaque étape pouvant en déclencher plusieurs autres et non pas seulement une seule. D’autre part, les grandes lignes de la réalisation de l’instinct une fois tracées par les IRM, les actes consommatoires qui s’ensuivent se différencient rapidement en exécutions variées, où alors se dessine une marge d’adaptations momentanées, avec improvisation ou acquisition et non plus déroulement fixe de la programmation héréditaire.
Étant donné ce mélange, à partir d’une certaine phase, d’adaptations partielles nouvelles et de guidage inné, et étant donnée, d’autre part, la révision des notions de la biologie contemporaine sur les relations du phénotype et du génotype, la génération montante des éthologistes ne parle plus qu’avec prudence de l’innéité et aime à employer l’expression de « ce que nous appelions autrefois inné ». Lehrmann et d’autres ont insisté sur la possibilité d’exercices dès les phases initiales de la conduite instinctive, de telle sorte que l’interaction maturation × expérience semble encore plus étroite que ne le supposaient les travaux classiques. Viaud a dit du concept d’instinct chez Lorenz que c’était une notion limite, jamais réalisée en fait.
L’instinct semble ainsi comporter trois sortes d’éléments : un fonctionnement organisateur et régulateur, condition de toute transmission héréditaire, une programmation héréditaire plus ou moins détaillée et des adaptations ou ajustements acquis par chaque individu. Lors de l’éclatement de l’instinct chez les Primates supérieurs et chez l’homme, c’est donc la partie médiane qui s’affaiblit ou disparaît, mais il demeure le fonctionnement organisateur et les ajustements adaptatifs, qui constituent les deux conditions fondamentales de l’intelligence, à la fois orientée vers la conquête des objets extérieurs et vers la prise de conscience et la reconstruction des conditions internes d’organisation ou de coordination générale des actions.
II🔗
C’est cette construction des structures de l’intelligence que nous permet surtout d’analyser l’étude de la psychogenèse chez l’enfant. Cette étude est poursuivie actuellement avec intensité en de nombreux pays et selon des tendances diverses dont il faut signaler les principales.
Tout d’abord Gesell et Wallon ont insisté sur le rôle de la maturation nerveuse, facteur indiscutable et dont on constate les effets aux niveaux sensori-moteurs initiaux (par exemple dans la myélinisation du faisceau pyramidal qui rend possible la coordination de la vision et de la préhension). Mais plus le développement se poursuit, et plus la maturation nerveuse (qui dure jusque vers 15-16 ans au moins) se borne à ouvrir des possibilités sans fixer de programmation, et les possibilités ne donnent lieu à des actualisations multiples que dans la mesure où interviennent d’autres facteurs. Wallon a en particulier insisté sur le rôle de la maturation du système postural ou tonique, qui, tout en étant lié de près au jeu des émotions, considéré par lui comme un facteur positif, prépare les aspects figuratifs de la pensée (images, etc.).
Un second facteur fondamental, sur lequel s’appuient souvent les mêmes auteurs avec l’idée explicite ou implicite que la vie mentale se réduit à un mixte de facteurs organiques et sociaux, est le rôle de la société ambiante : Wallon, l’ancienne école de Vienne (Ch. Bühler) et surtout actuellement les psychologues soviétiques dans la tradition de Vigotsky ont contribué à mettre en évidence un grand nombre de faits importants à cet égard. Mais on a, d’autre part, souligné deux points également significatifs. Le premier est que l’enfant n’est sensible aux influences adultes que dans la mesure où il les assimile. J. Bruner a bien soutenu qu’en principe on peut apprendre à l’enfant n’importe quoi à n’importe quel âge, mais un contradicteur, dans une discussion sur ce thème, demandait combien il faudrait de temps pour apprendre la théorie de la relativité à son voisin qui n’était ni physicien ni mathématicien : à la réponse « trois ou quatre ans », il a ajouté « d’accord, mais si l’on commence au niveau du nourrisson, il en faudra peut-être un ou deux de plus, et même sans cela trois ou quatre ans nous ramènent à la question des stades » (dont la succession peut être accélérée mais non pas supprimée).
En second lieu, rappelons qu’en plus de la socialisation d’adultes à enfants il y a les relations sociales des enfants entre eux et celles-ci ne se développent que progressivement. Si les travaux anciens sur l’égocentrisme du langage enfantin n’ont pas rallié toutes les opinions, il en demeure l’idée d’une décentration nécessaire de la pensée, aussi contrôlable sur le plan des rapports sociaux (action en commun, jeux collectifs, etc.) que sur celui des structures de pensée.
Le troisième facteur invoqué communément est le rôle de l’expérience dans le développement de l’intelligence. Rôle indispensable, et reconnu par tous, mais qui doit donner lieu à une distinction nécessaire. Il y a, en effet, d’une part, l’expérience que l’on peut appeler physique au sens large, c’est-à-dire qui consiste à agir sur les objets pour en tirer des connaissances par abstraction à partir de l’objet lui-même (couleurs, poids, etc.). C’est celle à laquelle on songe communément et que l’empirisme considère à elle seule. Mais il y a encore, d’autre part, l’expérience que l’on peut appeler logico-mathématique et qui joue un grand rôle avant l’apparition des opérations déductives : elle consiste, elle aussi, à agir sur les objets, mais en tirant la connaissance de ces actions elles-mêmes et non pas de l’objet comme tel, ce qui est le cas, par exemple, lorsque l’enfant vérifie la commutativité en changeant l’ordre des objets et en les comptant à nouveau, l’ordre et le dénombrement étant alors dus à l’action elle-même. On a contesté cette distinction, en soutenant par exemple que l’ordre et le nombre sont bien dans les objets : la question demeure cependant de savoir qui les y a mis, l’action du sujet ou leur nature physique elle-même ?
Tant cette distinction que l’étude directe de l’intelligence sensori-motrice se constituant avant le langage et donc indépendamment de lui conduisent alors à admettre que les opérations intellectuelles et spécialement logico-mathématiques sont nées de l’action (par exemple réunir) et consistent en actions intériorisées (l’addition), devenues réversibles (à l’addition correspond son inverse ou soustraction) parce qu’exprimant les coordinations les plus générales (la liaison consistant à réunir ne s’applique pas qu’aux objets, mais à presque toutes les coordinations d’actions). Mais l’étude des opérations montre surtout qu’elles n’apparaissent jamais à l’état isolé et sont d’emblée solidaires les unes des autres en des systèmes d’ensemble dont les manifestations sont, par exemple, une classification, une sériation, la suite des nombres, des correspondances un à un ou à plusieurs, des matrices, etc. Du point de vue logique, ces totalités relèvent de structures bien connues de « groupes », « réseaux » (lattices), « corps », « anneaux », etc. et l’analyse psychologique montre que ces structures sont, en fait, « naturelles », c’est-à-dire qu’elles se constituent spontanément avec les opérations elles-mêmes, à partir d’ailleurs de structures plus élémentaires de « groupements » variés.
Force est donc, en plus des facteurs de maturation, vie sociale ou expérience, que l’on invoque communément pour expliquer le développement, de considérer un facteur de coordination non innée des actions, mais s’affirmant au cours de leur déroulement fonctionnel lui-même et que l’on peut appeler le facteur d’équilibration. Il ne s’agit pas d’une balance des forces, au sens gestaltiste, mais bien d’une autorégulation au sens de la biologie et de la cybernétique, c’est-à-dire d’un facteur qui montre la liaison essentielle de l’intelligence avec ce qu’on sait aujourd’hui des multiples homéostasies propres à la vie organique. En outre, l’équilibration ainsi conçue repose sur les compensations actives du sujet aux modifications extérieures, ce qui conduit à une explication causale de la réversibilité qui, sans cela, ne constituerait qu’un caractère proprement logique des opérations.
Ce facteur d’équilibration explique en outre le caractère séquentiel des stades observés dans la construction des structures et fournit du même coup une interprétation probabiliste de leur succession : un stade quelconque 5 n’est pas le plus probable au début du développement, mais il devient le plus probable, une fois que l’équilibre est atteint au stade 5 − 1, parce que, d’une part, les acquisitions en 5 − 1 sont nécessaires aux constructions en 5 et que, d’autre part, un équilibre atteint ne concerne qu’un secteur limité, est donc incomplet, et laisse occasion à de nouveaux déséquilibres qui expliqueront le passage de 5 − 1 à 5.
III🔗
En ce qui concerne la théorie de l’intelligence, l’ensemble de ces constatations semble alors conduire à quelques conclusions qu’il est difficile de ne pas apercevoir. La première est que l’intelligence est beaucoup plus riche que les aspects dont le sujet prend conscience, car celle-ci ne connaît que les résultats extérieurs de celle-là sauf quand, par un travail réflexif systématique et rétroactif, la logique et les mathématiques formalisent, mais en général sans s’occuper de leurs sources, des structures dont les racines naturelles se trouvent déjà dans l’intelligence en acte. Quant au sujet moyen, il ne connaît cette intelligence qu’à ses performances, car les structures opératoires lui échappent comme d’ailleurs presque tous les mécanismes propres à ses conduites et davantage encore à son organisme. Que les structures existent, c’est donc à l’observateur à les détecter et à les analyser, mais le sujet les ignore à titre de structures et n’en distingue que les opérations particulières utilisées par lui (et encore pas toutes : il utilise sans cesse l’« associativité » et la « distributivité » sans s’en douter, et il en est souvent de même de la commutativité).
Il n’est donc pas surprenant que le structuralisme ait mis tant de temps à s’imposer, et encore à titre de tendance dont les aboutissements possibles sont loin d’être tous atteints. Les théories associationnistes de l’intelligence demeurent atomistiques, la théorie du tâtonnement cherche à tout expliquer par des essais plus ou moins fortuits et par leur sélection après coup en fonction des résultats, comme le faisait la biologie des débuts de ce siècle avant la découverte des systèmes régulateurs. La Denkpsychologie allemande a directement recouru à certaines lois logiques, mais sans apercevoir le problème des structures d’ensemble au double point de vue logico-mathématique et psychologique. La « noogenèse » de Spearman a mis en évidence certaines opérations (éduction des relations et des « corrélats » ou doubles relations), mais sans voir les structures. La psychologie de la Gestalt a découvert des structures, mais a voulu les ramener toutes à un type unique caractérisant la perception et les fonctions cognitives inférieures, et ne s’appliquant pas à l’intelligence. Il a fallu l’étude psychogénétique et la mise en évidence des divers stades préopératoires et opératoires par où passe l’enfant et l’adolescent pour dégager la spécificité des structures intellectuelles.
Mais ce structuralisme ne constitue que l’un des deux services que rend l’analyse psychogénétique. L’autre a trait au constructivisme et n’est pas moins essentiel. Les structures opératoires de l’intelligence ne sont pas innées, mais se développent laborieusement durant les quinze premières années de l’existence, dans les sociétés les plus favorisées. Et si elles ne sont pas préformées dans le système nerveux, elles ne le sont pas non plus dans le monde physique où il n’y aurait qu’à les découvrir. Elles témoignent donc d’une construction réelle, et procédant par paliers sur chacun desquels il faut d’abord reconstruire les résultats obtenus au palier précédent avant d’élargir et de construire à neuf : les structures nerveuses servent d’instrument à l’intelligence sensori-motrice, mais celle-ci construit une série de structures nouvelles (objet permanent, groupe des déplacements, schématisme de l’intelligence pratique, etc.) ; les opérations de la pensée s’appuient sur l’action sensori-motrice dont elles dérivent mais elles reconstruisent, en représentations et concepts, ce qui était acquis pratiquement avant d’élargir considérablement le clavier des structures initiales ; la pensée réflexive et abstraite restructure les opérations mentales initiales en situant le domaine concret dans celui des hypothèses et de la déduction propositionnelles ou formelles. Et, chez l’adulte qui crée, ce mouvement de constructions continues se prolonge indéfiniment, comme en témoignent entre autres les formes de pensée technique et scientifique.
9. Les modèles abstraits🔗
Après avoir examiné les principales tendances de la psychologie contemporaine en les distinguant par les types d’explications qu’elles proposent (ou qu’elles refusent d’adopter, comme c’est le cas du positivisme : § 2), il importe maintenant de faire une constatation assez fondamentale qui éclaire tout ce qui précède. Mais commençons par tirer la leçon de ce qui a été vu.
Sans vouloir extrapoler outre mesure, on peut dire, croyons-nous, que, sous des noms divers, tous les mouvements énumérés sont obligés, à un moment ou à un autre, de faire une part aux idées de construction et de structure. On a souvent rencontré dans le passé des modes d’interprétations qui admettaient des genèses sans structure (l’associationnisme, par exemple) ou des structures sans genèse (la Denkpsychologie). Mais tôt ou tard, chaque mouvement rencontre les deux exigences. Skinner lui-même, qui ne veut pas de théorie, s’est arrangé, dans son jeu d’inputs et d’outputs, à rendre maximale l’activité de ses pigeons et à les voir construire des structures instrumentales. Structures faibles ? Peut-être mais ce n’est déjà plus de la simple association. Les organicistes, les physicalistes, les psychologues sociaux, les psychanalystes, les spécialistes de la « théorie du comportement », les psycho-généticiens, tous recherchent plus ou moins explicitement et sous des formes très diverses à la fois constructions et structures.
Or, le fait nouveau sur lequel il importe d’insister maintenant est que, depuis quelques années, les différents modèles concrets invoqués dans presque toutes les écoles énumérées précédemment sont tôt ou tard traduits sous la forme de modèles abstraits, de nature mathématique, cybernétique, logique, etc., ce qui tend en général à renforcer la tendance conduisant au structuralisme. Nous en avons vu un premier exemple à propos de l’organicisme (§ 3), où un modèle concret essentiellement associationniste au début, comme le réflexe conditionné, a été traduit en un « réseau stochastique subordonné » impliquant à la fois la structure algébrique de réseau, des séquences probabilistes et des liaisons avec les systèmes voisins. Le physicalisme propre à la théorie de la Gestalt se traduit naturellement en des équations de champs, mais a aussi été prolongé par Lewin et ses continuateurs en une sorte de topologie d’ailleurs plus subjective que mathématique et en des modèles de vecteurs. La psychologie sociale exprime la structure des petits groupes en toutes sortes de modèles algébrico-probabilistes ou en graphes, etc. La psychanalyse elle-même a trouvé un théoricien abstrait en la personne de D. Rapaport, qui eût certainement poursuivi ses travaux (s’il n’avait pas été enlevé prématurément) dans la direction d’une énergétique encore plus élaborée (et il se référait déjà au théorème de d’Alembert pour les cathexis constantes) 22. Les théories de l’apprentissage ont donné lieu à des élaborations probabilistes et algébriques, et l’étude psychogénétique de l’intelligence fait naturellement usage de l’algèbre générale et de la logique.
Mais il va sans dire que les structures utilisées en ces différents chapitres de la psychologie ne sont pas identiques d’un domaine à l’autre. Cette diversité est d’ailleurs pleine de promesses car le problème se posera tôt ou tard de leur coordination, en respectant les différenciations aussi bien que les passages possibles des unes aux autres : or, c’est peut-être d’un tel système de transformations et de réciprocités que naîtra l’unité fondamentale de la psychologie, dont le rêve n’est aujourd’hui qu’entrevu.
I🔗
Les modèles abstraits deviennent ainsi d’utilisation plus ou moins courante dans tous les champs de la psychologie et leur étude, du point de vue spécifiquement psychologique, donne lieu à la publication de revues spécialisées et à des colloques fréquents. Il est donc essentiel de se demander d’où provient cette tendance et surtout où elle conduit quant aux modes généraux d’interprétation qui constituent l’essentiel de notre science dans ses réactions aux faits qu’elle découvre.
Quant à ses origines, le modèle abstrait naît d’abord simplement d’un effort d’énoncé exact des lois, permettant une précision précise qualitativement et quantitativement : la loi logarithmique de Fechner ou les premières lois de l’apprentissage de Hull n’en sont qu’à ce premier stade de l’abstraction. Dès qu’il y a plusieurs lois à coordonner, il intervient en plus une déduction de l’ensemble, et c’est ce niveau qu’a ensuite atteint Hull en son système formalisé. Mais si l’on abuse souvent du nom de modèle, jusqu’à y englober tout ensemble déductif utilisé en psychologie, le terme ne prend son sens plein qu’à partir du moment où intervient un cadre plus général que les lois envisagées dans le domaine expérimental étudié et un cadre susceptible de fournir, non seulement une formulation et une possibilité de prévision, mais encore une source d’explication dans la mesure où les transformations opératoires du modèle correspondent aux transformations réelles du phénomène à expliquer. Par exemple, un modèle probabiliste de la loi de Weber-Fechner sera explicatif si, à la série additive des évaluations du sujet, correspond un mécanisme d’enregistrement (rencontres, etc.) dont les probabilités successives ne peuvent croître que multiplicativement.
Mais pourquoi, en ce cas, parle-t-on de modèle abstrait, tandis que son but essentiel est de faire corps avec les mécanismes concrets à interpréter et que, dans toutes les directions possibles de l’explication en psychologie (organicisme, interactions sociales, enchaînements de comportements, etc.), on ne se trouve jamais en présence que de facteurs très concrets qu’il s’agirait simplement, semble-t-il, de mettre en équations pour atteindre la causalité cherchée ? C’est que, dans le réel, on se heurte sans cesse à la nécessité de choisir entre de multiples variables intermédiaires, qu’il s’agit en réalité d’inférer, et que le manque de données, au moment où l’on aurait besoin d’une interprétation hypothétique assez précise pour orienter la suite des recherches, rend ce choix difficile ou impossible : le grand avantage du modèle abstrait est alors, à la fois de dégager les conditions nécessaires et suffisantes dans la perspective adoptée par supposition, et de les formuler sous une forme assez générale, parce qu’abstraite, pour pouvoir s’appliquer à plusieurs réalisations concrètes différentes. En d’autres termes, le modèle abstrait n’est nullement étranger aux modèles concrets dont la psychologie a besoin et qu’elle continuera de construire dans la suite de ses recherches : il recouvre simplement plusieurs modèles concrets possibles et constitue ainsi un intermédiaire nécessaire entre des hypothèses trop générales, parce que mal formalisées ou même mal formulées, et les hypothèses particulières que l’analyse permettra ensuite d’établir, et de soumettre aux vérifications expérimentales.
II🔗
Cela dit, le grand problème, quant à l’utilisation pratique des modèles abstraits et tout autant quant à l’interprétation qu’il s’agit maintenant d’en donner du point de vue des tendances générales de la psychologie, est de déterminer leur degré d’adéquation objective et pour ainsi dire ontologique à la réalité étudiée. Il va de soi que pour le positivisme, qui s’en tient aux observables, le modèle abstrait n’atteint pas le « réel » puisque celui-ci n’a pas de signification en dehors des observables : le modèle abstrait ne constitue donc qu’un langage commode, comme toute structure logico-mathématique, et sa commodité se caractérise à la fois par sa simplicité du point de vue du sujet et par sa capacité de prêter à prévisibilité ; mais le succès des prévisions tient alors aux lois expérimentales manipulées par le modèle, et non pas à la vertu qu’aurait celui-ci d’exprimer les propriétés d’une réalité sous-jacente par ailleurs inaccessible. Pour les esprits, au contraire, qui croient à une réalité dépassant les observables ainsi qu’à la possibilité des explications causales, le modèle abstrait n’a d’intérêt que s’il fournit des vues sur les processus réels, mais encore cachés, qui rendent compte des observables et s’il favorise ainsi l’explication. Néanmoins, à côté des modèles explicatifs en ce sens, on peut concevoir, de ce second point de vue, des modèles favorisant simplement une représentation facile, et conventionnelle, mais en attendant mieux et parce qu’en ce cas, la représentation provisoire a une valeur heuristique et conduit à des modèles plus adéquats.
Un bon exemple montrant que ce problème du coefficient de réalité des modèles joue un rôle effectif et n’est pas qu’une question épistémologique théorique est le cas très simple de la courbe de distribution « normale » ou gaussienne. Il y a peu de temps encore (une ou deux générations tout au plus), les psychologues partaient de l’idée a priori que l’intelligence ou les aptitudes sont distribuées « normalement » en toute population homogène, à l’instar par exemple des tailles. C’était là une vue réaliste et non point nominaliste, mais le conventionnalisme prend sa revanche, sans qu’on s’en doute toujours, en ce sens que, faute d’unité objective de mesure (voir l’« Introduction », § 4 sous II B), il est clair que (l’expérience psychologique ne fournissant jamais que des relations d’ordre) on est obligé de choisir une métrique arbitraire et que l’on peut alors toujours s’arranger de manière à retrouver la distribution « normale » présupposée et souhaitée. Or, la meilleure preuve que le « langage commode » destiné à décrire les « observables » ne suffit pas, c’est qu’on a commencé à se demander ce qui se produit sous les observables ordinaux et les mesures en partie arbitraires, de façon à établir si, « en réalité », la distribution est normale ou pas. Plusieurs travaux ont porté sur la mesure comme telle mais Burt en 1963 23 a réuni des indices proprement psychologiques tendant à montrer que, dans la distribution des niveaux d’intelligence, l’extrémité inférieure de la courbe était vraisemblablement plus étalée que l’autre.
Dans le domaine des modèles pouvant être explicatifs (une courbe « normale » comporte d’ailleurs la recherche de sa propre explication et il en va a fortiori de même de ses exceptions plus ou moins systématiques), il va de soi que la tendance générale n’est pas d’en demeurer à des schémas considérés comme simplement commodes sinon à titre de diplomatie dans la présentation, et que, pour les raisons indiquées au § 2, il y a très rapidement tendance à passer aux interprétations causales.
III🔗
Si l’on examine alors de ce point de vue le rôle des modèles abstraits, on doit bien constater qu’il a toujours consisté à favoriser les progrès du structuralisme et cela dans l’exacte mesure où l’on a cherché à faire coïncider le modèle avec les mécanismes réels de la vie mentale ou du comportement du sujet. Et pourtant il existe des modèles qui en principe auraient pu être de nature atomistique, comme les modèles factoriels et certains modèles stochastiques.
L’analyse factorielle est née de simples procédés de calculs : corrélations de corrélations ou tétrades-différences ; et son but n’a été initialement que de mettre en évidence des « facteurs » échappant à l’analyse qualitative directe. Mais chacun sait qu’en premier lieu on n’a pas toujours compris immédiatement à quoi correspondait ou ce que signifiait tel « facteur » ainsi trouvé, comme le fameux facteur G ou d’« intelligence générale » qu’on a pris tour à tour comme l’expression de l’intelligence elle-même ou comme un artéfact de calcul. D’autre part, il est assez clair que la signification des facteurs dépend en partie des épreuves choisies et que si l’on rattache par exemple les facteurs spatiaux aux facteurs perceptifs et non pas numériques, cela peut provenir d’un choix d’épreuves plus figuratives qu’opératives, ce qui ne supprime pas l’intérêt des faits mais montre qu’ils sont solidaires de classifications préalables. On en est donc venu à essayer de construire des « hiérarchies de facteurs » ou des systèmes comportant des classifications d’ensemble et justifiant les résultats trouvés : or, c’est là une orientation vers un certain structuralisme.
Les modèles stochastiques peuvent être de toutes sortes et paraissent au premier abord dans certains cas assez atomistiques. Mais dès qu’on en veut évaluer la signification du point de vue des conduites, on est bien obligé de se livrer à une épistémologie de la probabilité, du triple point de vue des probabilités a priori, des fréquences et de la probabilité subjective 24, et surtout du point de vue des relations entre les probabilités et l’ordre historique de succession (contrôles séquentiels, chaînes de Markov, etc.) : il est donc clair que, sitôt un modèle probabiliste situé dans son contexte théorique général, il comporte une série de positions dépassant le morcelage des faits et impliquant un certain structuralisme (qu’il s’agisse des perceptions, du conditionnement, etc.).
Le passage est insensible à cet égard entre les modèles probabilistes généraux et les modèles plus spécifiques relevant des théories de la décision ou de l’information, qui ajoutent à leurs bases probabilistes des étages de plus en plus structurés quant aux notions utilisées et à la manière de systématiser les réactions des sujets. En appliquant, par exemple, un modèle d’information à la perception, on est obligé de préciser comment on envisagera la « redondance » dans le cas des « bonnes formes », où la répétition des mêmes éléments ou des mêmes relations d’équivalence aboutit à des symétries significatives et non pas à de simples tautologies comme celles d’un orateur qui redit plusieurs fois la même chose. Ou encore, appliquer la théorie des jeux aux constances perceptives suppose que l’on précise, dans le cas des « sur-constances » (voir § 4 sous II), comment s’effectuent en fait les « décisions » consistant à renverser l’erreur en positif pour échapper à l’erreur négative, ce qui conduit à une conception de l’équilibration par compensations actives et surtout anticipatrices du sujet et non pas une balance de forces, et cela implique toute une élaboration structuraliste.
Dans le cas des modèles de « graphes », on peut se servir de ceux-ci comme d’un simple instrument commode destiné à relier, dans l’esprit de l’observateur lui-même, les réactions successives du sujet. Mais il est évident que le modèle prend un tout autre intérêt sitôt que les relations symbolisées par les nœuds et les flèches correspondent à celles qu’établit le sujet lui-même. De ce second point de vue, le graphe décrit alors une structure d’ensemble dont on peut étudier notamment les ouvertures et fermetures, l’équilibre interne, les lois vectorielles, etc.
Les modèles spatiaux ou géométriques conduisent à des résultats de deux sortes. En certains cas, c’est l’espace même du sujet qui est ainsi décrit, ce qui implique naturellement un haut degré de structuralisme : Luneburg a ainsi cherché à montrer, par l’étude de la perception d’« allées » parallèles, que l’impression directe de parallélisme ne s’accompagnait pas d’estimations correspondantes des équidistances, ce qui l’a amené à conclure au caractère riemanien et non pas euclidien de l’espace perceptif primaire (et Jonkheere a vérifié le bien-fondé des faits eux-mêmes). Il est probable d’après d’autres recherches (espace hétérogène du champ de centration, etc.) que l’espace perceptif initial est plutôt indifférencié, ni euclidien, ni riemanien, et que ce sont ces activités perceptives ultérieures qui l’orientent dans la direction de la métrique la plus économique, qui est euclidienne à cause du plus grand nombre d’équivalences qu’elle comporte (entre autres précisément dans le cas du parallélisme).
En d’autres cas le modèle géométrique est destiné à décrire moins l’espace du sujet que l’espace du champ total dans lequel se meut le sujet et qui est censé déterminer en partie ses réactions. Un exemple célèbre est celui de la « topologie » de K. Lewin, mais qui malheureusement constitue un mélange assez inextricable de topologie mathématique et d’espace « vécu », les propriétés de ce dernier infléchissant sans cesse celles du premier de telle sorte que l’explication est en fait peu mathématique. Elle n’en conduit pas moins à un structuralisme psychologique remarquable, dont Lewin a dégagé l’aspect causal autant que spatial.
Mais la tendance actuelle la plus générale est naturellement orientée vers les modèles cybernétiques ou de « simulation » des activités mentales de tous genres impliquant des régulations, spécialement dans le domaine des activités supérieures. De la « tortue » Nora, de Grey Walter, portant sur le conditionnement, et du « perceptron » de Rosenblatt (dont la théorie est d’ailleurs toujours discutée) à l’homéostat d’Ashby et aux projets de « génétron » de S. Papert (modèle procédant par paliers successifs à équilibration, à la manière du développement de l’enfant), il existe aujourd’hui un grand nombre d’essais qui sont tous extrêmement instructifs quant aux structures de l’apprentissage et de l’intelligence.
Or, un modèle cybernétique comporte toujours un composé de facteurs probabilistes et de facteurs algébriques ou logiques. Il est donc naturel d’utiliser comme modèle les opérations logiques elles-mêmes, ce que fait systématiquement l’École de Genève, non pas dans le sens d’un idéal tout construit et donc statique, qui s’imposerait à la pensée du dehors (ce qui constituerait la tendance de la Denkpsychologie allemande), mais à titre de hiérarchie de structures, cette hiérarchie pouvant alors orienter la recherche psychologique des constructions et filiations. Le grand avantage d’un tel modèle est de permettre une analyse des opérations constitutives et non pas seulement des résultats ou performances, comme c’est souvent le cas d’autres modèles. Les objections adressées à cette méthode par des psychologues reviennent souvent à dire qu’il s’agit là de logicisme et non plus de psychologie pure, mais, de même qu’on ne saurait accuser un expérimentaliste de « faire des mathématiques » s’il utilise le calcul des probabilités ou des fonctions algébriques quelconques, de même on ne saurait dire qu’il « fait de la logique » s’il utilise l’algèbre booléenne ou les autres structures générales (structures d’ordre, etc.) qui interviennent en logique. L’objection des logiciens est surtout que la « logique du sujet » n’a rien à voir avec la logique elle-même ou logique des logiciens. Mais cela va de soi, ce qui n’empêche pas qu’il y a là un problème, que nous allons retrouver sous peu.
Mais si cette section de notre exposé témoigne d’un optimisme résolu, quoique relevant en partie d’espoirs et non pas uniquement de victoires déjà acquises, il importe cependant de prendre conscience des limites probables du structuralisme, qui tiennent à celles de la psychologie générale par rapport à la psychologie différentielle. Or cette dernière branche de la psychologie soulève des problèmes théoriques aussi importants que ceux dont elle est responsable en psychologie appliquée, et des problèmes dont ni l’analyse factorielle ni les essais multiples (et aux succès encore assez relatifs) de la typologie n’ont encore fait le tour. L’un de ces problèmes est en particulier celui du génie, car si c’est une question encore non résolue de psychologie générale que de comprendre comment procède la création scientifique ou artistique, etc., le mystère est encore plus grand de saisir ce qui constitue le secret d’un créateur individuel en sa singularité. C’est en présence de telles questions que l’on aperçoit le mieux les limites probables du structuralisme : si Newton, Bach et Rembrandt ont sans doute passé comme enfants par des stades de développement dont on entrevoit les structures possibles, et si leurs créations peuvent ou pourront peut-être s’expliquer par des combinaisons nouvelles de structures qu’ils ont assimilées puis largement dépassées, le processus même de ces réorganisations puis de ces dépassements échappera sans doute longtemps à l’analyse structurale, parce que tenant à un fonctionnement exceptionnel sinon essentiellement individuel.
10. Les relations de la psychologie avec les autres sciences🔗
Nous avons déjà parlé, et il était impossible d’y échapper, des relations de la psychologie avec les disciplines dont elle dépend étroitement : la biologie et la sociologie. Il reste par contre à examiner ses rapports avec des sciences plus éloignées comme la logique, les mathématiques, etc., ou avec l’épistémologie scientifique elle-même. Quant aux connexions entre la recherche psychologique et les sciences de l’homme autres que la sociologie, il en sera question au chapitre VII.
I🔗
Il n’existe au premier abord aucun rapport entre la logique, science formelle, déductive et normative, et la psychologie, science concrète, expérimentale et nullement normative. Seulement, deux sortes de considérations imposent une mise en relation, d’abord non souhaitée ni de part ni d’autre, mais dont on va voir que les tendances récentes obligent cependant à les examiner avec sérieux. Les premières peuvent paraître secondaires : si la logique symbolique a pu être qualifiée de « logique sans sujet », il n’existe pas de sujets sans logique, et, de même que ces sujets parviennent à construire les « nombres naturels » (ou entiers positifs, les négatifs étant d’ailleurs impliqués en bien des actions spontanées), de même ils sont conduits à élaborer et à utiliser la transivité et bien d’autres inférences, des syllogismes, des classifications et sériations, des correspondances et matrices, etc., et ils se soumettent (plus ou moins efficacement) à des normes telles que l’identité, la non-contradiction, etc. Cette logique « naturelle » pose donc un problème au psychologue, qui est bien obligé alors de la comparer à la logique formelle, qui est celle du logicien. Que celui-ci ne s’intéresse en rien à ces comparaisons, parce qu’une vérité formelle ne s’appuie nullement sur des états de faits (même si 100 % des sujets acceptent telle ou telle inférence), cela est une autre question, mais qui, allons-nous voir, est en révision actuellement.
Les autres considérations qui obligent à une confrontation tiennent non pas à la logique comme technique, mais à son épistémologie. Quand des logiciens épistémologistes nous disent que la logique n’est qu’un langage (une syntaxe et une sémantique épurée et généralisée), ils touchent à la psychologie. Même s’ils sont platoniciens, comme B. Russell au début de sa carrière, ils touchent encore à la psychologie, car il reste à savoir comment l’homme vivant accède aux Idées éternelles, et B. Russell inventait à cet effet une fonction mentale spéciale, appelée la « conception », qui atteignait les Idées comme la « perception » les objets. L’épistémologie de la logique suppose donc une confrontation avec la psychologie.
Cela dit, deux sortes de faits nouveaux sont venus renouveler la question et ont conduit certains logiciens à un examen plus systématique de ces rapports possibles. Le premier est une multiplication de logiques distinctes et toutes cohérentes, mais sans filiations directes entre elles. De cette multiplicité des logiques résulte le fait qu’aucune n’est assez riche pour « fonder » l’ensemble de la logique, et que leur pluralité comme telle est trop disparate pour atteindre ce but. Le logicien en vient alors à se demander comment il construit la logique, ce qui est faire appel à la psychologie des logiciens eux-mêmes et à l’histoire de leurs constructions. Mais en ce cas, comme toujours, l’histoire suppose une psychologie plus générale, qui étudiera, par exemple, par quels modes d’abstraction et de construction la logique du logicien s’élabore en passant du plus intuitif au plus formalisé, etc. Il est dès lors impossible de ne pas rencontrer tôt ou tard le problème central de la psychologie de l’intelligence, c’est-à-dire le problème des structures opératoires que le sujet constitue au cours de ses activités mais qui n’ont pas pour siège sa conscience et ne sont pas à confondre avec les intuitions trompeuses d’évidence, etc., qui caractérisent celle-ci.
Le second fait est bien plus lourd encore de conséquences : c’est la découverte des frontières de la formalisation. Les théorèmes de Gödel ont mis en lumière le fait qu’une théorie, si riche soit-elle, ne peut pas démontrer sa propre non-contradiction par ses seuls moyens ou par les moyens plus faibles des théories qu’elle présuppose : pour parvenir à cette démonstration, il faut faire appel à des moyens plus « forts », c’est-à-dire construire une théorie plus riche qui englobe et dépasse la précédente, et cela ainsi de suite. Il en résulte que, pour une intelligence humaine, en entendant par là celle qui fait la science et non pas qui la projette, une fois faite, dans le monde des Idées platoniciennes, le système des théories déductives n’apparaît plus comme une pyramide reposant sur une base inébranlable ou au moins achevée, avec une superposition d’étages, dont chacun est définitif à son tour, mais bien comme une construction progressive dont chaque palier présente des lacunes qui sont comblées au palier suivant, mais à la condition de continuer indéfiniment. D’où deux conséquences d’importance considérable.
La première est que la logique ne peut plus se refermer sur elle-même. Elle est la science de la formalisation, mais la formalisation a maintenant des limites : la réalité qui surgit au-delà de cette frontière apparaît alors comme simplement intuitive, ce qui donne à penser qu’il existe aussi un « en-deçà » des frontières que la logique aurait pour tâche de formaliser ou d’axiomatiser et qui consisterait non pas en la pensée consciente du sujet, mais en ses structures opératoires. Cela ne signifierait naturellement pas que la logique en reste là, mais simplement qu’elle part de là (c’est ce qu’a fait Aristote avec la syllogistique) et prolonge ensuite ses axiomatiques comme elle l’entend. En effet, la seconde conséquence à tirer de ce qui précède est que le structuralisme logique n’est pas statique mais constructiviste : or, cette construction progressive, consistant à combler sans fin des lacunes qui se rouvrent sans cesse à de nouveaux étages, est singulièrement parallèle au développement psychologique de l’intelligence elle-même avec ses constructions de structures s’équilibrant les unes après les autres, mais en s’appuyant toujours sur les suivantes qui comblent leurs lacunes en les rééquilibrant sur un terrain plus large.
C’est pourquoi plusieurs jeunes logiciens s’intéressent aujourd’hui à la psychologie du développement, non pas pour y trouver la vérité formelle ou logique, mais pour mieux saisir l’épistémologie de leur science.
II🔗
Les rapports entre les mathématiques et la psychologie sont de même nature mais avec une certaine intimité en plus née des préoccupations des mathématiciens concernant l’enseignement des mathématiques modernes dès les niveaux élémentaires et la nécessité de tenir compte ainsi des lois du développement.
En effet, l’enseignement des mathématiques dépend en grande partie de l’idée qu’on se donne d’elles et par conséquent de leur épistémologie. Si un mathématicien ne consultera naturellement jamais un psychologue pour savoir comment démontrer un théorème, autrement dit pour intervenir dans la technique même de sa science, toute autre est la question des « fondements » des mathématiques, et en ce domaine épistémologique, mais qui fait actuellement partie des problèmes mathématiques eux-mêmes, les mathématiciens se sont toujours divisés en trois écoles, qui se réduisent en réalité à deux : ceux qui appuient les mathématiques sur la logique (et on peut y adjoindre les platoniciens, car leurs essences éternelles comprennent la logique à titre de palier élémentaire) et ceux qui recourent à des activités opératoires ou du sujet comme Poincaré, Enriques, Brouwer, et tant d’autres (y compris le physicalisme de E. Borel, car considérer les fonctions comme tirées des êtres physiques n’a de sens que si l’on se réfère en réalité aux actions par lesquelles le physicien fait varier le phénomène jusqu’à pouvoir lui conférer une structure mathématisable).
Or, les tendances actuelles des mathématiques sont orientées, de ce point de vue épistémologique, vers un structuralisme nettement constructiviste. Chacun connaît les idées centrales de l’école Bourbaki, qui met à la base de l’édifice mathématique trois grandes « structures-mères » (structures algébriques, d’ordre et topologiques) dont les innombrables structures particulières dérivent par différenciations et combinaisons : or, les travaux psychologiques de Genève ont pu montrer que ces trois structures-mères correspondent, sous des formes concrètes et limitées, aux trois structures opératoires élémentaires que l’on trouve chez l’enfant dès la formation, vers 7 à 8 ans, des premières opérations logico-mathématiques. L’idée de « structures » au sens bourbakiste tend aujourd’hui à être complétée ou même supplantée par celle de « catégorie » (un ensemble d’objets et toutes leurs fonctions), mais S. Papert a fait remarquer finalement qu’il y avait là un effort pour remplacer les opérations « de la mathématique » par celles « du mathématicien », et, ici encore, on trouve des racines psychologiques ou « naturelles » assez profondes à l’idée de catégorie. Lichnerowicz a montré qu’il n’existe pas d’« êtres » mathématiques au sens courant ou même métaphysique du mot « être », mais que ces soi-disant êtres consistent en isomorphismes, puis en isomorphismes entre isomorphismes, etc., selon un mode de construction dans lequel certains psychologues retrouvent cette « abstraction réfléchissante » qui reconstruit sans cesse sur des plans supérieurs ce qu’elle tire des actions ou opérations des niveaux antérieurs et qui constitue le mode naturel général de formation des structures logico-mathématiques.
De leur côté, les psychologues, en s’occupant de cette formation, spontanée ou guidée par les méthodes d’enseignement, touchent sans cesse, sans le savoir ou en le cherchant explicitement, à ces questions d’épistémologie et de fondements des mathématiques. Une communication récente de P. Suppes à un symposium sur « Les modèles et la formalisation du comportement » s’intitule « The psychological foundations of mathematics ». Un fascicule qui vient de paraître sur Mathematical Learning 25, où des psychologues comme Cronbach, Kessen, Suppes, Bruner, ont collaboré avec le mathématicien Stone, se réfère sans cesse à des processus de formation spontanée qui intéressent autant l’épistémologie des mathématiques que la psychologie du développement. Les travaux de Genève ont constamment porté sur ces deux aspects à la fois, ce sur quoi nous reviendrons sous IV.
III🔗
Pour ce qui est de la physique, ses contacts avec la psychologie semblent au premier abord devoir se réduire à rien, à part les échanges de méthodes que nous avons notés au § 4 à propos des Gestalts physiques (dans le sens physique → psychologie) et de la théorie de l’information (dans le sens inverse ou les deux). En réalité l’épistémologie de la physique soulève des problèmes psychologiques pour au moins deux raisons. La première est qu’elle pose la question de comprendre comment des intuitions qui paraissent fondamentales et permanentes, comme celles du temps absolu, de la simultanéité à distance, de la conservation de l’objet en tant que corpuscule, etc., ont pu si aisément être modifiées par la théorie de la relativité et la microphysique : incompréhensibles s’il s’agissait d’intuitions innées ou de formes a priori au sens de Kant, ces transformations des instruments cognitifs vont de soi si l’on se place dans la perspective du constructivisme psycho-génétique, et même le chassé-croisé de l’onde et du corpuscule en microphysique rappelle les difficultés de la constitution du schème de l’objet permanent entre 4-5 et 12-18 mois et l’évidence psychologique selon laquelle cette permanence est liée très intimement dès son origine aux possibilités de localisation dans l’espace (et au « groupe des déplacements »).
La seconde raison de liaison tient au fait que les physiciens se sont trouvés en présence d’interdépendances entre les effets produits par les manipulations de l’expérimentateur et les effets dus aux liaisons entre les phénomènes eux-mêmes. Ce fait fondamental soulève naturellement le problème de la nature de l’objectivité et conduit à compléter l’opérationnalisme de Bridgman par une théorie psychologique du développement des opérations, montrant que la décentration qui conduit à l’objectivité n’est qu’une décentration par rapport au moi de l’observateur et est corrélative d’une structuration logico-mathématique due aux activités du sujet épistémique et qui procède des coordinations d’actions (d’où les « groupes », etc.) et non plus d’actions isolées sources d’illusions possibles. Ainsi se trouve levé le paradoxe sur lequel insiste souvent Planck en réponse à Mach : que si les connaissances physiques débutent par la sensation (liée à des actions isolées), l’objectivité consiste à lui tourner le dos et non pas à s’y enfermer.
Ces liaisons ouvertes ou virtuelles entre la physique et la psychologie ont donné lieu en fait à certains débuts modestes de collaboration. On peut en donner deux exemples. L’un est celui des travaux d’un historien bien connu de la physique, Kuhn, qui a fait l’épistémologie des révolutions dans la succession des théories physiques et des changements de « paradigmes » (ou conceptions d’ensemble liées à certaines intuitions fondamentales comme la gravitation newtonienne) : or, Kuhn insiste à plusieurs reprises sur l’utilité qu’il y a à conduire ces analyses historico-critiques en liaison avec les recherches de la psychologie de la perception et du développement mental.
L’autre exemple est plus personnel mais non moins significatif. On sait que dans la mécanique classique la vitesse est conçue comme un rapport entre l’espace parcouru et le temps, tandis que l’espace et la durée sont deux absolus. Dans la théorie de la relativité le temps devient relatif à la vitesse, celle-ci acquérant une sorte d’absoluité. D’autre part, il existe un cercle connu entre le temps et la vitesse, celle-ci se référant au temps et les durées ne se mesurant que grâce à des vitesses. Einstein nous avait donc suggéré, il y a déjà longtemps, d’étudier psychologiquement la formation de ces deux notions (sur les terrains perceptifs et notionnels) pour voir s’il existait une intuition de vitesse indépendante de la durée. Or, non seulement nous l’avons trouvée chez l’enfant, sous la forme d’une intuition ordinale du dépassement (qui suppose l’ordre temporel et l’ordre spatial mais aucune mesure ni de la durée ni de l’espace parcouru), mais encore nous avons pu constater que la construction des notions et perceptions temporelles se réfère tôt ou tard à la vitesse. Dans la suite, un physicien et un mathématicien français, Abelé et Malvaux, ont donné un exposé des théories de la relativité dans lequel ils cherchent à surmonter le cercle du temps et de la vitesse ; recourant alors à la psychogenèse de ces notions, ils reprennent nos résultats sur la vitesse-dépassement et, en introduisant un compteur à billes, une loi logarithmique et un groupe abélien, ils retrouvent le théorème de composition des vitesses en évitant tout cercle. Bien entendu, il n’y a pas là une contribution de la psychologie à la technique du physicien, mais à son épistémologie, ce qui demeure néanmoins significatif.
IV🔗
Chacune des relations indiquées sous I-III entre la psychologie et les sciences exactes (logique et mathématiques) et naturelles (physique) est de nature épistémologique, tandis que les rapports entre notre discipline et la biologie, la sociologie et les autres sciences de l’homme consistent en plus en échanges techniques. Ce n’est point là un hasard, et si l’on se réfère à l’hypothèse d’un système circulaire ou spiroïdal des sciences (voir l’« Introduction » § 6), on comprend que le sujet constitue à la fois un objet d’études supposant la collaboration de l’ensemble des sciences, et la source des connaissances nécessaires au développement de ces sciences : d’un tel point de vue, la collaboration entre la psychologie et les domaines limitrophes peut donc être d’échange technique, tandis que les rapports entre elle et les disciplines formelles ou concrètes de base ne peuvent être que de nature épistémologique ou relative à la formation et au fondement des connaissances.
Mais l’épistémologie n’est-elle pas de nature proprement philosophique, ce qui, pour certains auteurs, signifie suprascientifique ? Sans avoir à discuter de ce problème, nous constaterons simplement (1) que toutes les sciences avancées s’occupent aujourd’hui de leur propre épistémologie sans passer par l’intermédiaire des philosophes d’écoles et (2) que toute épistémologie, quelle qu’elle soit, se réfère toujours sur certains points à la psychologie, y compris les cas où il s’agit de démontrer qu’on peut ou doit s’en passer. Or, il arrive très souvent, et surtout en ces dernières positions, que l’épistémologiste juge de la psychologie au nom d’arguments d’introspection et de sens commun (car, sans préparation spécialisée en cette branche, chacun se croit psychologue et il faut en particulier une grande culture technique pour comprendre les difficultés de toute interprétation psychogénétique).
Un groupe de psychologues, logiciens, mathématiciens, biologistes, etc., a donc constitué à Genève un « Centre international d’épistémologie génétique » dans le but d’étudier systématiquement les relations entre les problèmes épistémologiques propres aux différentes disciplines et les faits de développement mental et cognitif susceptibles de les éclairer. Une vingtaine de volumes sont déjà sortis de ce Centre qui portent sur les problèmes d’épistémologie de la logique, des mathématiques (nombres, structures algébriques et leurs filiations, fonctions et catégories, espace, etc.), de la physique, etc., en particulier sur ceux dont il a été question sous I-III en ce § 10.
11. Les applications de la psychologie. Recherches fondamentales et psychologie « appliquée »🔗
La psychologie intéresse toutes les activités et toutes les situations de l’homme : l’éducation, les états pathologiques et la psychothérapie, l’hygiène mentale, le travail et les loisirs en presque toutes les formes du premier (notamment le travail industriel), la sélection et l’orientation scolaire ou professionnelle des individus, etc. Dès sa constitution, la psychologie scientifique s’est donc trouvée engagée de plein gré ou malgré elle dans les problèmes d’application et ce sont même certains de ces problèmes qui ont contribué à son orientation expérimentale de départ (le problème des temps de réaction a été soulevé par l’astronome Bessel à propos des variations individuelles notées dans les mesures de ses collaborateurs et après que Maskelyne ait renvoyé de Greenwich un observateur qui avait un retard systématique de 1/10 de seconde en moyenne sur ses propres mesures). En fait la psychologie s’est toujours trouvée dans une situation un peu comparable à celle de la médecine, c’est-à-dire obligée à des applications avant même d’être en possession des connaissances expérimentales et surtout théoriques qui auraient permis de les fonder avec quelque certitude. Est-ce là un bien ou un mal, du point de vue de la science et de celui de la valeur des applications elles-mêmes ?
I🔗
Du premier de ces deux points de vue, il va de soi que le souci d’application conduit à poser de nouveaux problèmes auxquels on n’aurait pas songé sans elle. Si Binet n’avait pas réclamé la fondation de classes d’élèves arriérés dans les écoles, et si l’administration ne lui avait pas demandé à quel critère il reconnaîtrait un simple retardé par rapport aux cas d’arriération ou de débilité mentales, il n’aurait pas construit avec Simon ni publié en 1905 son Échelle métrique de l’intelligence qui a été la première réalisation concrète des tests mentaux qui ont connu depuis une si grande vogue. Sans les nombreux appels de la psychopathologie aux analyses psychologiques, des chapitres entiers de notre discipline n’auraient point été écrits, et sur ce point l’application rejoint si bien la théorie que des œuvres comme celles de Ribot, de P. Janet ou de Freud, font partie de la psychologie proprement dite et non pas de ce que l’on appelle souvent la « psychologie appliquée ». Il n’en reste naturellement pas moins qu’il existe, et même que se développe de plus en plus, une série d’applications de la psychologie à la clinique et où les psychologues ont leur rôle spécifique à jouer à côté des psychiatres. Ces travaux ouvrent à leur tour une série de perspectives d’avenir et contribueront sans doute à la construction de cet appareil théorique qui leur manque encore (ainsi qu’il nous manque cruellement à tous), et qui serait une théorie intégrative de la personnalité.
Mais il n’y a pas de doute non plus qu’un problème posé en vue d’une application est souvent quelque peu déformé ou même tronqué du seul fait que, en cherchant l’utilité immédiate en fonction des questions particulières posées par la pratique, on risque de négliger toutes sortes d’autres aspects, importants au point de vue théorique et qui seraient même nécessaires à la compréhension du problème en sa spécificité. Et la considération de l’utilité peut conduire d’autant plus à de telles limitations ou de telles restrictions qu’elle est déterminée, d’un côté, par la sphère même d’application prévue, mais aussi, de l’autre côté, par la nécessité d’aller vite en besogne et de choisir les moyens les plus commodes. En construisant ses tests d’intelligence, Binet a eu l’idée excellente de faire appel aux fonctions les plus diverses, persuadé que l’intelligence est partout et constitue une sorte de forme globale de toutes les activités cognitives. Mais quand on lui demandait ensuite ce qu’est l’intelligence, il répondait avec esprit « c’est ce que mesurent mes tests », réaction très sage mais un peu inquiétante quant aux connaissances théoriques atteintes par l’instrument de mesure ainsi construit. Un physicien, au contraire, ne mesure une forme d’énergie qu’après une élaboration théorique autrement poussée du mesuré et du mesurant lui-même.
En réalité les mesures de l’intelligence partent presque toutes d’un postulat certainement limitatif, qui consiste à ne mesurer que les résultantes ou « performances » et non pas les opérations mêmes qui les ont produites. Certes, en physique, on peut mesurer un processus à son résultat, mais parce qu’ils sont homogènes et que les résultats sont constants pour un processus donné. Dans la vie mentale, au contraire, une même résultante peut être atteinte par des voies différentes et surtout une structure opératoire est source d’un grand nombre de résultantes possibles, que l’on ne peut déduire de la performance observée mais qui supposent la connaissance du mécanisme opératoire sous-jacent : c’est donc celui-ci qu’il faudrait atteindre pour juger de l’intelligence d’un individu, d’autant plus que ce qui importe au diagnostic est moins ce que le sujet sait faire actuellement que ce qu’il pourrait faire en de multiples autres situations. On a donc « mesuré » l’intelligence bien avant de savoir en quoi elle consiste et nous commençons seulement à entrevoir la complexité de sa nature et de son fonctionnement. Or, ce ne sont pas les « tests » et autres données fournies par la « psychologie appliquée » qui sont responsables de ces progrès : c’est un ensemble de recherches désintéressées surtout inspirées par des préoccupations théoriques et épistémologiques qu’on aurait sans doute complètement négligées en s’en tenant aux seuls impératifs de la pratique.
Du point de vue de l’application elle-même, ce court-circuitage présente autant d’inconvénients que de celui de la recherche fondamentale. Chacun sait que dans les domaines physico-chimiques les applications les plus imprévues sont parfois nées de recherches purement théoriques. On cite souvent le cas des innombrables utilisations de nos connaissances électro-magnétiques dont la source est à chercher dans les équations de Maxwell : or, ces équations ont été découvertes sous l’influence de préoccupations toutes théoriques et en bonne partie formelles (besoin de symétrie, etc.). La psychologie n’en est certes par là, mais rien ne prouve que les travaux combinés de psychologues et de logiciens sur la filiation des structures opératoires n’aient pas un jour une importance diagnostique et pédagogique plus grande que bien des tests, certes plus commodes à manier (l’examen des opérations comme telles suppose une longue initiation) mais beaucoup moins significatifs.
En un mot, il faut dire de notre domaine, comme on l’a dit de la physiologie, etc., qu’il n’y a pas de psychologie appliquée en tant que discipline indépendante, mais que toute bonne psychologie, en quelque chapitre que ce soit, est toujours susceptible d’applications, prévues ou imprévues.
II🔗
Les applications les plus importantes peut-être de la psychologie sont celles qui concernent l’éducation et il importe de commencer par rappeler à cet égard combien de novateurs en pédagogie moderne ont été des psychologues de métier ou des chercheurs s’inspirant directement de la psychologie : Dewey avec ses conceptions de l’intérêt, Decroly, Claparède, Montessori (qui a d’abord fait semblant d’ignorer la psychologie de l’enfant, mais en sous-entendant qu’elle en offrait une meilleure et qui s’est ravisée ensuite), Ferrière, les continuateurs de Vigotsky, etc. Il faut ensuite noter que la pédagogie expérimentale, jeune discipline en plein épanouissement partout et qui a pour objet de vérifier par l’expérience les hypothèses pédagogiques de tous genres et le rendement des méthodes d’éducation, demeure indépendante de la psychologie tant qu’elle s’en tient aux données de fait et aux lois, mais en dépend étroitement (tout comme la médecine dépend de la psychologie) dès qu’il s’agit de les comprendre et de les expliquer.
Les applications de la psychologie à la pédagogie que le public connaît le mieux sont toutes celles qui relèvent de la psychologie différentielle, autrement dit des caractères et aptitudes qui distinguent les individus les uns des autres. Il y a d’abord tous les problèmes de réadaptation scolaire pour les cas de retards ou de crises momentanées, où il s’agit de faire le départ entre les facteurs affectifs et intellectuels, et parmi ceux-ci entre les facteurs généraux et les inhibitions proprement scolaires (mathématiques, orthographe, etc.). Le maître ne peut souvent pas résoudre lui-même ces problèmes, faute de temps ou de formation, et des postes de psychologues scolaires ont été créés en de nombreux pays, qui ont eu un grand succès, en particulier quand ces spécialistes reçoivent une double préparation psychologique et pédagogique. Des spécialisations plus poussées encore interviennent pour les dyslexies, etc., ou les troubles de la parole et des techniques « logopédiques » ont été constituées, sans parler naturellement de l’aide des psychologues à l’éducation des enfants handicapés, sourds-muets, aveugles, etc. D’autres applications pédagogiques essentielles de la psychologie différentielle sont requises en ce qui concerne l’orientation scolaire et le rôle des psychologues scolaires devient d’autant plus important qu’un grand nombre de systèmes d’organisation scolaire actuels prévoient des classes et même tout un cycle d’orientation, au cours duquel les élèves et les parents disposent d’une certaine liberté de choix, mais dont l’exercice n’est naturellement possible que sur la base de diagnostics et pronostics suffisamment poussés qui dépassent en général ce que le maître peut conseiller à lui seul.
Mais ce n’est là qu’un aspect des applications de la psychologie à l’éducation, et l’aspect essentiel, qui est beaucoup moins souligné mais prendra de plus en plus d’importance dans l’avenir, concerne l’adaptation des méthodes didactiques aux lois du développement de la pensée. Dewey, Claparède et Decroly ont déjà fortement insisté sur le rôle des intérêts et des motivations nécessaires à une éducation active et, de façon générale, on est plus ou moins convaincu, bien que les applications en demeurent encore assez dérisoires, du principe selon lequel l’enfant n’acquiert ses connaissances essentielles qu’au travers d’actions dirigées lui permettant de redécouvrir ou de reconstruire en partie les vérités au lieu de les recevoir toutes faites et toutes digérées. Mais pour ce qui est du déroulement et de la construction même des structures à acquérir, l’éducation moderne en demeure à un empirisme et un opportunisme qui ressemble davantage à la médecine du xviie siècle qu’à celle de nos jours, alors qu’une psychopédagogie scientifique pourrait déjà être constituée et marquera certainement les étapes futures des sciences et techniques de l’éducation. Un certain nombre de signes montrent néanmoins que l’idée est en marche. En URSS il existe des Instituts de recherche psycho-pédagogique qui étudient expérimentalement l’acquisition des connaissances, le rôle de l’action dans cette acquisition, etc. Les mathématiciens se préoccupent un peu partout d’une réorganisation de l’enseignement en fonction des mathématiques modernes et s’il arrive qu’on enseigne celles-ci avec des méthodes pédagogiques qui sont traditionnelles, un grand effort est fait en certains pays pour concilier ces exigences avec celles de la psychologie du développement. Aux USA un certain nombre de physiciens ont quitté leurs laboratoires pour vouer quelque temps à l’initiation des jeunes élèves aux méthodes expérimentales et plusieurs de ces physiciens utilisent les données psycho-génétiques actuelles (par exemple les travaux de Genève).
III🔗
Un autre vaste domaine d’application de la psychologie est la pathologie mentale, domaine médical mais où la psychologie intervient sans cesse, soit que les psychiatres se fassent psychologues soit qu’ils utilisent la collaboration de psychologues spécialisés. La psychopathologie est même si importante pour la psychologie elle-même que les grands auteurs qui se sont consacrés à cette branche sont en même temps de grands noms de la psychologie, comme Freud et Janet. Mais il était difficile, dans notre étude des tendances générales de la psychologie contemporaine (§ 2 à 9), de considérer la psycho-pathologie comme correspondant à une tendance particulière ou même d’y voir un exemple (comme ceux du § 10) de collaboration interdisciplinaire, et cela pour les deux raisons suivantes. En premier lieu, la maladie est comparable à ce que serait une expérience instituée par la nature et consistant à modifier ou écarter un facteur (par exemple le langage, dans l’aphasie) : les résultats de cette expérience naturelle sont alors étudiés par voie d’observation clinique ou d’expérimentation et s’inscrivent dans les acquisitions de la psychologie générale, selon ses diverses tendances. En second lieu, les désintégrations pathologiques s’effectuent en général dans l’ordre inverse des intégrations psychogénétiques, de telle sorte que les grands psychopathologistes en sont presque tous venus à compléter leurs doctrines par des considérations sur le développement (ce qui a justement été le cas de Freud et de Janet). Ces travaux rentrent alors à nouveau dans le cadre des tendances examinées précédemment.
Par contre, l’exercice médical lui-même de la psychothérapie éprouve de plus en plus le besoin de collaborations psychologiques, à tel point qu’en certains pays comme les USA il n’existe pas une clinique de psychiatre, quel que soit son domaine particulier de traitement, qui ne s’adjoigne des psychologues spécialisés ou clinical psychologist. Les psychologues ne s’occupent naturellement pas de la psychothérapie elle-même, qui est l’affaire du médecin, ni même en général de psychanalyse ; leur rôle est de fournir les données psychologiques utiles au diagnostic. Il existe à cet égard de nombreux travaux portant soit sur des tests ou d’autres méthodes d’examen des fonctions cognitives dans les maladies mentales, soit et surtout sur les réactions affectives et la personnalité du sujet. L’emploi des méthodes dites projectives, comme le test de Rorschach, le TAT, etc., supposent, en effet, une initiation poussée et une grande expérience personnelle, de même que le psychodrame et les multiples techniques développées à cet égard aussi bien par de purs psychologues comme Murray que par des médecins-psychologues comme l’était Rorschach lui-même. De telles recherches serviront tôt ou tard à l’édification d’une théorie, encore lointaine, de la personnalité, mais, outre qu’elles demanderont à être complétées par tout un travail expérimental souvent difficile à concilier avec les occupations astreignantes des clinical psychologists, il leur faudra en outre un substrat neurologique qui semble faire encore singulièrement défaut aujourd’hui.
IV🔗
En plus de l’éducation et de la pathologie, la psychologie est de plus en plus utilisée dans l’organisation du travail en général. Il s’agit, d’une part, d’orienter les individus en fonction de leur niveau et de leurs aptitudes, ce qui est la tâche de l’orientation professionnelle en prolongement de l’orientation scolaire. Mais il s’agit aussi, les individus qualifiés étant choisis et placés, de mettre au point dans l’organisation du travail individuel ou collectif les techniques les plus économiques, au sens large d’une économie d’efforts inutiles ou mal dirigés et coordonnés, et les plus humaines au sens de la motivation optimale : d’où l’ergologie, spécialisation récente mais de plus en plus répandue. Il va de soi en outre qu’en fonction du progrès technologique de nouveaux problèmes se posent de plus en plus à cette psychologie du travail et que dans les situations contemporaines des hommes-machines, elle est même appelée à jouer un rôle non négligeable, non pas seulement d’auxiliaire pour pallier les dangers du système, mais de rouage indispensable dans le mécanisme des nouvelles adaptations humaines ainsi requises.
Que les psychologues épris d’application aient tendance à se vanter quelque peu, quant aux possibilités réelles qu’offre une discipline encore bien jeune, cela est humain et va de soi. Mais le grand intérêt de la situation actuelle est, d’une part, que les industriels, les commerçants et les militaires, dont la mentalité n’est en général pas caractérisée par un idéalisme naïf, réclament et encouragent sans cesse de tels services, et d’autre part, que des facilités matérielles et financières sont constamment accordées pour favoriser les recherches en de tels domaines ; ces incitations à la recherche sont d’autant plus remarquables qu’elles s’inspirent très souvent de considérations analogues à celles du début de ce § 11, c’est-à-dire que les recherches demandées de psychologie appliquée à l’industrie ou à l’armée, etc., sont à l’occasion laissées à l’initiative de chercheurs portés vers la théorie, sans que les bailleurs de fonds se préoccupent seulement de l’utilité immédiate et comme s’ils comprenaient mieux que d’autres que tout progrès général de la psychologie peut entraîner des applications imprévues : c’est ainsi que de nombreux travaux sur les théories de l’information ou communication, sur la structure mathématique des régulations et de leurs conditions d’équilibre, etc., ont été poursuivis en de telles situations.
Que l’orientation professionnelle corresponde à des besoins réels, on le comprend facilement, tant du point de vue des jeunes gens qui cherchent un métier sans bien connaître leurs capacités ni celles qui sont requises en telle ou telle profession, que du point de vue des employeurs qui préfèrent un choix contrôlé au simple empirisme. Ce qui est plus surprenant et plus instructif est de constater le nombre de services que la psychologie peut rendre à l’industrie ou dans des relations humaines où le simple bon sens paraît au premier abord apte à résoudre tous les problèmes. On peut citer quelques faits précis, tels qu’un institut typographique ou une fabrique de chocolat qui, en Suisse, ont amélioré considérablement leur rendement par une simple réorganisation du travail, même en ce qui concerne les mouvements à exécuter par les employés en leur travail quotidien : là où un homme du métier n’avait pas vu les simplifications et coordinations possibles, une étude objective du comportement individuel ou interindividuel a permis de proposer les modifications les plus élémentaires, ce qui montre que les habitudes collectives acquises peuvent dépendre de leur histoire au point de manquer les régulations et adaptations actuelles les plus indiquées.
V🔗
En un mot, les applications de la psychologie sont actuellement innombrables et si certaines concernent certaines activités sociales d’intérêt général et fondamental pour l’avenir des nations autant que pour leur état présent, comme l’éducation ou la médecine mentale, d’autres surgissent sans cesse de la façon souvent la plus imprévue. Or, comme une psychologie appliquée est d’autant plus solide qu’elle s’appuie sur une psychologie théorique et expérimentale mieux établie, les problèmes de la formation des psychologues et de la protection légale du titre de psychologue diplômé se posent en de nombreux pays, mais leur solution reste difficile, tant à cause des traditions universitaires que des inerties gouvernementales 26 et, en certains cas, des craintes de concurrence des médecins. La liaison qui subsiste souvent entre les chaires ou instituts de psychologie et la section de philosophie des facultés de lettres en général produit un effet de retardement et la position la plus favorable de la psychologie est cherchée dans les facultés des sciences ou encore des sciences sociales (mais le contact avec la biologie demeure fondamental). Une solution parfois préférée est celle d’instituts interfacultés, comportant des liaisons avec les sciences, les sciences sociales, la médecine et les lettres, mais cette solution n’est idéale qu’à la condition que de tels instituts puissent délivrer leurs licences et leurs doctorats en plus des diplômes spécialisés, et jouir d’une autonomie égale à celle des facultés.