Adaptation vitale et psychologie de l’intelligence : sélection organique et phénocopie ()
V. Le modèle proposé a 🔗
La solution à laquelle nous sommes parvenu est très simple, puisqu’elle consiste à n’invoquer comme facteurs de canalisation des mutations que des sélections soit extérieures soit surtout organiques dans le cadre et le milieu interne hérités de l’accommodat et comme cause de ces mutations que les déséquilibres de ce milieu interne et les essais de rééquilibration qui en résultent. Mais il convient de s’expliquer sur tous ces points en s’appuyant sur les chapitres I à III.
I (1) Tout d’abord il est clair que, si le milieu impose des conditions nouvelles auxquelles l’espèce n’est pas préadaptée, ou si des populations appartenant à cette espèce choisissent un tel milieu malgré ses conditions inhabituelles, il se constitue un nouveau cadre extérieur à caractères x, y, z, dans lequel sont obligés de se mouler les processus synthétiques de l’épigenèse ; d’où la production du nouveau phénotype par interaction ou compromis entre ces processus internes issus de la programmation héréditaire ou génotypique et les effets de ces caractères extérieurs x, y ou z.
(2) Ce phénotype présente alors les caractères x’, y’ ou z’, correspondant aux facteurs exogènes x, y, ou z, cette correspondance pouvant prendre une forme quelconque, et le mode d’action de x, y ou z sur x’, y’ ou z’ demeurant également quelconque : par exemple, si x sont les vagues, dans le cas des Limnées, et x’ la contraction de la coquille, l’effet de x sur x’’ se produit en passant par plusieurs intermédiaires dont les mouvements de l’animal et ses réactions musculaires.
(3) Il faut alors se rappeler (voir le chap. II) que les actions de x, y et z sur x’, y’ ou z’ peuvent atteindre des niveaux différents sur les paliers hiérarchiques caractéristiques de l’épigenèse, d’où des formes distinctes de phénotypes. Dans le cas des Limnées le facteur extérieur x (l’agitation de l’eau) modifie le palier du comportement, celui de l’organe constitué par la coquille et celui des tissus dans la mesure où la coquille est sécrétée par l’épiderme, mais il est douteux que la modification phénotypique (l’accommodat) se répercute morphologiquement à des niveaux plus bas. Dans le cas des multiples facteurs x, y et z des milieux qui produisent de petits phénotypes de Sedum analogues à la var. parvulum, la petite taille, la couleur verte, etc. (x’, y’, z’) intéressent les organes et les tissus, et sans doute aussi les connexions intercellulaires, et les répercussions morphologiques de ces conditions difficiles x, y et z sont sans doute plus profondes que dans le cas d’un simple effet mécanique comme lors du changement de forme d’une coquille.
(4) Il faut donc distinguer en chaque cas deux sortes d’effets dans les actions des facteurs externes x, y et z. Il y a d’abord les effets directs ou morphologiques dont les principaux sont visibles et dont d’autres pourraient être observables lors d’examens d’échelle convenable. Mais il faut en outre considérer des effets possibles indirects et de nature essentiellement fonctionnelle : il s’agirait alors de déséquilibres ou perturbations plus ou moins sensibles à des niveaux de la construction épigénétique inférieurs à ceux où les effets directs se font encore sentir. Cette distinction s’impose en particulier du fait que l’ensemble des synthèses épigénétiques commandées par la programmation génique constitue un système fortement intégré, dont la cohérence interne est assurée par des régulateurs à chacun des niveaux considérés comme des systèmes totaux et de plus, ce qui est essentiel, par des régulations dans les connexions hiérarchiques reliant un niveau inférieur (donc antérieur) aux niveaux supérieurs (donc les successeurs dans la construction). Il est donc nécessaire de distinguer les deux sortes d’effets décrits à l’instant. En premier lieu les effets directs ou morphologiques, que nous appelons donc effets x’, y’ et z’, résultent de l’action des facteurs x, y et z à un ou plusieurs paliers déterminés et sont les produits de l’interaction entre ces facteurs x, y et z et les appareils régulateurs caractéristiques de ces niveaux. Mais, comme il existe aussi des connexions ou inter-régulations entre les paliers inférieurs et supérieurs, conformément à la direction verticale ascendante ↑ de la construction épigénétique, les modifications qui se produisent aux paliers supérieurs peuvent provoquer des déséquilibres selon la direction verticale descendante ↓, sans que ceux-ci se traduisent morphologiquement pour autant : nous parlerons alors de caractère x’’, y’’ ou z’’ et il est indispensable de les considérer si l’on veut comprendre la situation dans laquelle se forment les génotypes nouveaux propres à la phénocopie.
(5) Il faut, d’autre part, ajouter que si les modifications engendrées par la production du phénotype peuvent ainsi conduire à des déséquilibres, il y a naturellement en réponse des essais de rééquilibration et qui sont plus ou moins couronnés de succès dans la mesure où le phénotype est viable. Et il faut rappeler que ces essais se retrouvent à tous les niveaux et se manifestent par des tâtonnements multiples, autrement dit par des activités exploratoires de diverses formes.
(6) Au total, le nouveau phénotype apparaît ainsi, quoique viable, comme un système complexe dont le milieu interne est modifié sous des formes plus ou moins stables ou instables parce que comportant certaines connexions équilibrées mais également des sources de déséquilibres possibles plus ou moins étendues ou profondes, résultant de la complexité des interactions entre les synthèses propres à l’épigenèse et les nouveaux caractères imposés par le milieu.
II (7) Pour rendre compte de la formation du génotype qui vient à un moment donné remplacer ce phénotype déjà viable, il suffirait néanmoins, en première approximation, d’invoquer la production de mutations purement aléatoires, mais sélectionnées par le nouveau milieu interne autant que par le milieu extérieur. Celui-ci, continuant de constituer le même cadre, avec ses mêmes caractères x, y, z, n’admettrait parmi les mutations fortuites que celles dont les propriétés x’, y’, z’ sont analogues à celles de la somation précédente. D’autre part, le milieu interne modifié, comme on l’a vu en 4 et 5, comporterait lui-même ses barrages sélectifs et à tous les niveaux, de telle sorte que les mutations aléatoires seraient également triées en traversant ces barrages et que, en fin de compte, le génotype sortant vainqueur de ces diverses épreuves constituerait jusque dans le détail une « copie » fidèle du phénotype initial.
(8) Mais nous ne saurions nous satisfaire de cette solution apparemment suffisante, parce qu’elle présente les deux graves lacunes suivantes. En premier lieu, du point de vue de la survie, cette sélection de variations nouvelles adaptées, mais devenues héréditaires parce qu’émanant de mutations, ne servirait à rien puisque le phénotype était déjà viable et se reformait automatiquement à chaque nouvelle génération. Si n’importe quel phénotype stable et se reconstruisant ainsi sans modification aboutissait à une phénocopie on pourrait, il est vrai, imaginer qu’il existe quelque raison générale d’économie poussant au remplacement de ce phénotype par un génotype, mais ce n’est précisément pas toujours le cas, et il reste donc à expliquer pourquoi ce remplacement a lieu fréquemment mais non universellement. En second lieu, et cela revient peut-être au même, une telle explication reviendrait simplement à dire que le génotype retrouve la même forme générale d’équilibre que comportait déjà le phénotype, autrement dit qu’il y a eu rééquilibration simple et non pas majorante au sens d’une amélioration ou d’un progrès, donc d’une optimalisation relative. Or il semble, et on a cherché à le justifier plus haut (chap. I et II), que toute équilibration vitale, sur le plan organique déjà (variations plus avantageuse) et de façon évidente au divers paliers cognitifs (des comportements les plus élémentaires avec simples apprentissages jusqu’aux conduites d’intelligence), s’oriente dans une direction majorante, ce qui doit se produire tôt ou tard dans la mesure où interviennent des régulations téléonomiques. Cela étant, il convient donc de préciser et de différencier le mécanisme des sélections, même si, comme supposé jusqu’ici (7), les mutations en jeu demeuraient en leur source purement aléatoires. Étant donné les modifications plus ou moins sensibles du milieu interne corrélatif d’une nouvelle somation, les mutations seront donc sélectionnées non pas seulement en fonction de la survie (ce qui n’a donc guère de sens puisque le phénotype est déjà viable), mais en fonction également des déséquilibres qui renforcent et compliquent les barrages sélectifs : autrement dit la variation acceptée sera celle qui rétablit de la façon la plus stable et la plus satisfaisante l’équilibre menacé.
(9) En effet, si l’on admet le caractère fortement intégré des synthèses régulatoires à boucles ou cycles caractérisant chaque palier, ainsi que les interconnexions entre niveaux supérieurs et inférieurs 1, la variation sélectionnée ne pourra être que celle qui respectera le mieux une telle structure, c’est-à -dire qui rétablira la cohérence et la fermeture des systèmes à boucles modifiés ou menacés par les changements introduits lors de la formation du phénotype. De façon générale, toute nouvelle mutation, en tant que modification des gènes, entraîne ipso facto une altération de degré variable des synthèses antérieures (donc une transformation locale du programme héréditaire) et le problème est de concilier ce qu’il y a de nouveau en cette synthèse avec les propriétés des synthèses antérieures, en remédiant par cela même aux déséquilibres introduits par le nouveau phénotype. En d’autres termes, dans la mesure où les variations endogènes ou mutations succédant au phénotype devront se conformer aux caractères x, y, z du milieu extérieur et aux conditions en partie équilibrées, mais en partie déséquilibrées du nouveau milieu intérieur, il y aura en cas de sélection réussie, rétablissement de l’équilibre dans les processus synthétiques eux-mêmes : les caractères nouveaux et antérieurs retrouveront alors un état de mutuelle dépendance propre à un cycle régulateur fermé, par opposition aux états de simples compromis propres aux somations phénotypiques, ce qui signifie une économie et une amélioration par rapport aux accommodations obligées et aux divers essais contrecarrés par le milieu.
(10) Un tel point de vue permet en ce cas de répondre à l’une des questions centrales soulevées par les phénocopies, tenant à leur caractère éventuel quoique très fréquent, mais non pas général ou obligatoire : lorsque le phénotype est suffisamment stable et ne provoque pas de déséquilibres menaçants dans le système épigénétique, il n’y a aucune raison pour qu’il soit remplacé par un génotype de forme analogue, dont le seul progrès serait de substituer l’hérédité à une reconstitution continuelle à chaque génération. Par contre si le phénotype est source de déséquilibres de divers degrés, le génotype rétablit un jeu normal de synthèses, avec précorrection des erreurs et non plus corrections sous contraintes.
III (11) Si l’on cherche ainsi à corriger le schéma des mutations purement aléatoires avec sélection, en particulier par le milieu interne, jusqu’à pouvoir rendre compte de la ressemblance du nouveau génotype avec le phénotype qui le précède, et que l’on essaie par surcroît de comprendre comment la nouvelle mutation, autrement dit la fixation héréditaire de cette modification des gènes, peut aboutir à un meilleur équilibre que celui de la somation, les deux questions à résoudre sont alors celle du déclenchement de la variation génotypique, ou plus précisément de l’ensemble de ces variations entre lesquelles la sélection par le milieu interne et l’appareil épigénétique aura à choisir, et celui de la nature de ces variations géniques si elles ne sont plus totalement mais seulement partiellement aléatoires.
(12) Il convient d’abord de résumer, en le précisant, ce que nous avons admis jusqu’ici des grands mouvements se produisant dans l’organisme au cours d’une épigenèse lorsqu’elle est modifiée par la formation d’un nouveau phénotype (ce qui se répétera donc à chaque génération pour autant que celui-ci se maintienne). Un premier mouvement ou vecteur que nous désignerons par la flèche ↑a est celui de la construction synthétique normale, conforme à la programmation héréditaire : ce mouvement ↑a part donc de l’ADN du génome, passe aux ARN, au système entier de la cellule germinale avec ses régulations de tous genres (allostériques ou macrocellulaires), puis il se transmet aux connexions intercellulaires, aux tissus, aux organes et atteint finalement le comportement de la sensibilité réactionnelle, chacun de ces systèmes comportant ses lois de totalité ou d’autorégulations en plus des régulations intersystèmes qui sont fondamentales. Nous considérerons ensuite (à nouveau un peu globalement) comme un second vecteur ↓b de direction inverse l’ensemble des modifications exogènes imposées par le milieu. Ce sont d’abord les actions intervenant au sein des variations phénotypiques directes x’, y’, z’ correspondant aux caractères x, y, z du milieu (chap. II) et ces actions constitueront un barrage sélectif (non pas premier mais final) susceptible d’intervenir dans le choix définitif des variations endogènes pouvant être acceptées. Mais ce sont ensuite les divers déséquilibres x’’, y’’ et z’’ se produisant à des niveaux inférieurs à ceux de x’, y’, z’ et ces déséquilibres sont par hypothèse susceptibles eux aussi de jouer un rôle dans la sélection (par le milieu interne) des variations endogènes se produisant selon la direction ↑a. Mais il est essentiel de préciser (et toute notre interprétation implique cette limitation fondamentale) que si les vecteurs ↑a comportent le transport de formes déjà construites, puisque inscrites dans l’information de l’ADN, les vecteurs ↓b ne contiennent aucun programme et constituent purement et simplement la signalisation par feedbacks de l’existence d’oppositions ou de déséquilibres. C’est ainsi que, si nous classons dans les vecteurs ↓b les actions exogènes qui interviennent dans la construction des caractères phénotypiques x’, y’ et z’, ces actions n’en constituent pas l’unique source : elles n’interviennent qu’en déclenchant les tâtonnements ou essais exploratoires que nous appellerons les vecteurs ↑c. Autrement dit les caractères x’, y’ et z’ sont le produit de la conjonction (↓b) × (↑c) et nullement d’une préformation programmée par le milieu et qui serait transmise par les vecteurs ↓b. À plus forte raison, dans le cas des déséquilibres x’’, y’’ et z’’, ce que transmet le feedback ↓b ne saurait constituer un message (comparable à celui d’un ARN) qui indiquerait « ce qu’il faut faire » ni même « ce qui se passe » : l’information transmise en ce cas par le vecteur ↓b se borne exclusivement à signaler que « quelque chose ne fonctionne pas ». Quant aux vecteurs ↑c ils sont alors constitués sur chaque palier par les explorations, essais ou tâtonnements provoqués par les conflits entre les ↑a et les ↓b. Ces conflits (qui résultent concrètement des oppositions entre la programmation génique et le milieu) constituent donc des déséquilibres (ou déviations du programme) et ils peuvent être plus ou moins rapidement surmontés, comme dans la production des variations phénotypiques x’, y’ et z’. Mais ils peuvent aussi demeurer latents, sources d’instabilité actuelle ou virtuelle, etc., et c’est le cas des déséquilibres x’’, y’’ et z’’ lorsqu’ils existent et que le phénotype n’est donc pas entièrement stabilisé (et deviendra par conséquent source de phénocopie). Ajoutons que les essais et explorations ↑c, de par leur caractère même de tâtonnements, n’aboutissent naturellement aux solutions recherchées, c’est-à -dire aux rééquilibrations éliminant conflits et déséquilibres, que par un jeu de régulations avec sélection due aux milieux externe et surtout interne, cette sélection organique contribuant donc en partie à une conciliation progressive du programme ↑a, des déviations ↓b et des essais de correction ↑c.
IV (13) Deux problèmes solidaires se posent alors naturellement : jusqu’à quel niveau descendent les vecteurs ↓b, donc les répercussions ou signalisations des déséquilibres, et à partir de quels niveaux cette information selon laquelle « quelque chose ne fonctionne pas » va-t-elle déclencher ces réponses de type ↑c ?
Aux niveaux supérieurs les déviations ↓b et les réponses ↑c sont d’observation courante. Il suffit, par exemple, qu’un bourgeon soit détruit sur un point quelconque d’un Sedum pour qu’il en repousse un autre à côté qui n’aurait pas été produit sans cette exigence de compensation, ou qu’un rameau non détaché soit mal exposé et se dessèche un peu pour qu’il se munisse de racines adventives : il y a donc eu signalisation en retour des déséquilibres ↓b jusqu’à un relai quelconque avec reprise des constructions à partir de ce niveau, mais il est clair que ces réalisations, conformes au programme épigénétique simplement contrecarré sur un point, n’impliquent pas une rétroaction jusqu’au point d’origine du système total. Par contre, lorsqu’il s’agit de facteurs conditionnant l’alimentation et la vie même de l’organisme au cours de toute la croissance comme ce peut être le cas en des questions de taille, etc., il est alors forcé que le déséquilibre se répercute de proche en proche, jusqu’aux paliers élémentaires.
Notre première hypothèse sera donc que, en cas de déséquilibres durables x’’, y’’, z’’ engendrés par la formation phénotypique, ils finiront, grâce à de telles répercussions de proche en proche, par sensibiliser les gènes régulateurs responsables de la réalisation du programme épigénétique, donc des synthèses en quoi consiste la croissance. Mais, répétons-le avec insistance, cette signalisation par les vecteurs ↓b ne constitue nullement un message différencié, décrivant par un feedback détaillé « ce qui s’est passé », ni surtout « ce qu’il faut faire » : il ne s’agit que de la manifestation d’une perturbation et cette manifestation se traduit non pas par l’envoi d’un message ou d’un messager, distinct des couches tissulaires ou cytoplasmiques qu’il traverserait, mais par une succession de blocages, sources de sélections extérieures. Si nous appelons, par exemple, A, B, C, D, E les niveaux successifs de synthèses qui conduisent des gènes régulateurs en A à un niveau E où se produit un déséquilibre x’’, la synthèse normale est alors perturbée ou bloquée en E : si elle l’est en E il se produira alors également des altérations en D qui perturberont à leur tour le travail synthétique en C puis en B jusqu’à sensibilisation de A.
(14) Notons en particulier qu’en un tel modèle hypothétique nous n’avons pas besoin d’admettre comme nécessaire un message en retour de l’ARN en B à l’ADN en A. Les expériences de Temin et de Beljansky montrent qu’il semble possible en certains cas, par l’intermédiaire de la « transcriptase inverse » (chap. IV sous III), mais nous ne savons pas si le mécanisme est général et n’en avons aucun besoin dans le présent modèle : il suffit que l’ARN quelque peu modifié en B (ou plus précisément gêné en son activité par un blocage relatif en C), ne puisse plus accepter aussi efficacement qu’auparavant les impulsions émanant de l’ADN pour que cette résistance en B sensibilise les gènes régulateurs en A. C’est ainsi sur le mode des barrages sélectifs, donc d’une information en quelque sorte négative et non pas d’un message positif, qu’il faut concevoir le vecteur ↓b, lorsque, de transmetteur de perturbations observables aux niveaux supérieurs, il se borne à les signaliser aux niveaux de départ sous la forme de résistance ou de difficultés dans la construction synthétique. De façon générale, si l’on admet comme tout semble le prouver que la construction épigénétique constitue un système fortement intégré grâce aux régulations propres à chaque palier et aux inter-régulations le reliant aux précédents et aux suivants, il semble évident que l’information dans le sens constructif ta implique comme en tout système téléonomique à boucles une information en retour : ou bien tout, dans la construction, se déroule normalement, et il n’y a pas besoin de signalisation différenciée (« pas de nouvelles = bonnes nouvelles »), ou bien il y a perturbations ou blocages relatifs, et ils ne peuvent que se communiquer par répercussions rétroactives, donc par altérations récurrentes procédant de proche en proche.
V (15) Notre seconde hypothèse pourra paraître plus lourde d’implications que la précédente, mais elle n’en constitue que la suite logique : c’est que si des déséquilibres au cours de l’épigenèse se répercutent rétroactivement jusqu’à une sensibilisation des gènes régulateurs, ceux-ci vont répondre par des tâtonnements variés, cette réponse génique pouvant alors se présenter sous deux formes : ou bien une pure remise en état sans production de mutations, donc une rééquilibration simple rétablissant l’équilibre antérieur au sein du génotype déjà en place, ou bien un ensemble de variations multiples, constituant de nouvelles mutations entre lesquelles le milieu intérieur va opérer un choix sélectif, ce qui, sans aucune « fixation » des caractères phénotypiques, aboutira à une ressemblance avec eux du fait que les conditions sélectives sont les mêmes. Il y a donc là une série de points à commenter et à justifier : a) la liaison éventuelle entre la production de mutations et les déséquilibres épigénétiques, ce qui constituerait en un sens large un cas particulier de « pédogenèse » (voir le chap. III sous II B) ; (b) le caractère semi-aléatoire et semi-exploratoire de ces mutations nouvelles, qui se constitueraient en un sens au hasard, mais dans le seul champ ouvert par les déséquilibres et qui, par rapport aux frontières de ce champ et aux conditions d’une rééquilibration majorante, consisteraient, de ce second point de vue, en des sortes d’essais ou d’explorations ; (c) la ressemblance terminale entre le génotype finalement sélectionné par les milieux interne (sélection organique) ou extérieur et le phénotype dont les imperfections ont produit les déséquilibres qui sont à la source de tout ce processus.
(16) Pour ce qui est des connexions entre la production de mutations nouvelles et les déséquilibres de la synthèse épigénétique, rappelons d’abord que l’on admet souvent une distinction entre de brusques mutations, produits d’une désorganisation plus ou moins tératologique et même léthale, qui seraient de nature entièrement aléatoire, et les « petites » mutations résultant de fluctuations restreintes autour d’un caractère génique considéré. Si cette distinction est fondée, il s’en déduit l’existence, assez naturelle, d’un certain rapport entre les deux fonctions du génome, l’une de transmission héréditaire, l’autre de source des synthèses épigénétiques, en ce sens que si les petites mutations vont modifier les synthèses, réciproquement les perturbations possibles au sein de ces dernières doivent sensibiliser leurs gènes régulateurs et donc modifier les transmissions. Cela ne signifie nullement, répétons-le, qu’il y ait transmissions de caractère phénotypiques acquis. Il y a simplement répercussions ou propagation des déséquilibres dans la direction du vecteur ↓b, jusqu’aux gènes régulateurs chargés de commander les synthèses : il y aurait, en ce cas, production de variations géniques ou « petites » mutations, puisque le génome forme un système total et, comme le dit Dobzhansky, agit « comme un orchestre » et non pas à la manière de solistes.
On pourrait il est vrai objecter que les gènes régulateurs des synthèses épigénétiques ne sont pas nécessairement les mêmes que ceux qui commandent les transmissions héréditaires aux générations suivantes et qui constituent donc la source de mutations possibles. En effet, de façon générale, toute transmission (y compris en cas de mutations) entraîne de nouvelles épigenèses, mais les synthèses épigénétiques n’agissent pas sans plus en retour sur les transmissions par des messages positifs. Seulement si cette vérité demeure évidente lorsqu’il s’agit de niveaux distincts et superposés, il faut répondre que les gènes régulateurs des transmissions et ceux de l’épigenèse, même s’ils sont distincts, ne peuvent que présenter entre eux des connexions, puisqu’ils sont situés au même niveau en tant que faisant partie tous deux du même génome avec son homéostasie totale. D’autre part, répétons que la signalisation dont nous faisons l’hypothèse, comme pouvant sensibiliser en retour les gènes régulateurs des synthèses, n’est que de caractère négatif et non pas positif, c’est-à -dire qu’elle annonce exclusivement un défaut de fonctionnement : ce serait alors cette perturbation qui entraînerait la production de mutations par connexion inévitable avec les gènes responsables des transmissions héréditaires.
(17) Mais une question préalable, que l’on aurait pu soulever à propos de la première hypothèse (discutée sous 13 et 14), et qui se pose de façon encore plus impérieuse ici, est de comprendre pourquoi la signalisation des déséquilibres selon la direction ↓b doit redescendre jusqu’au génome et pourquoi ce serait à celui-ci à réagir par de nouvelles variations, alors qu’on a admis la possibilité de réponses par tâtonnements et rééquilibrations à tous les niveaux sans avoir à redescendre jusqu’au point de départ.
En effet, toutes les cellules de l’organisme possèdent en leur noyau des chromosomes et une fraction au moins d’ADN, de telle sorte que toutes les réadaptations devraient pouvoir en principe se produire en toutes régions, en vertu de ce que l’on a appelé la « totipotence » ou « totipotentialité » des virtualités génétiques d’un génotype quelconque. Mais il est clair que ces systèmes locaux sont subordonnés à un système total, car à tout pouvoir positif doit correspondre une inhibition possible, sinon n’importe quelle partie de l’organisme donnerait naissance à n’importe quelle production. E est donc évident que le système total ne se réduit pas à une somme de systèmes ou de niveaux particuliers et qu’il est chargé d’une régulation d’ensemble, aussi importante pour coordonner les inhibitions que les facteurs positifs et les uns en fonction des autres autant que chaque catégorie séparément. On en peut, semble-t-il, conclure que tout déséquilibre intéressant la totalité de l’organisme (alimentation, etc.), et non pas seulement tel ou tel secteur particulier, se répercutera jusqu’aux sources de ce système total, ce qui ne signifie pas que n’importe quel déséquilibre présente ce caractère général et exige des signalisations nécessaires jusqu’au niveau du génome et jusqu’à déclencher en lui des variations exploratoires ; mais lorsqu’il s’agit de situations normales ou anormales, ou simplement d’instabilité chronique ou de rééquilibration stable, l’hypothèse paraît s’imposer.
(18) Cela dit, pour justifier l’interprétation selon laquelle ces nouvelles variations géniques ne resteront pas purement aléatoires, mais seront en partie exploratoires (avec certes ce que tout tâtonnement ou essai comporte de hasard, mais avec aussi une sorte de balayage du champ des possibles), il convient d’abord de rappeler les mécanismes supposés de la sélection organique qui conduira au choix des mutants acceptables, en plus de la sélection par le milieu.
Nous entendrons par sélection organique un triage ou choix des variations en fonction, non seulement des caractères généraux du milieu intérieur du génotype incarné en un certain phénotype, mais encore des propriétés et du degré de résistance ou d’intégration des mécanismes régulatoires qui interviennent à chaque niveau de synthèse, au cours de son épigenèse. Ainsi conçue la sélection organique peut aboutir d’abord, et de deux manières, à une première élimination de certaines variations au profit de celles qui seront ensuite soumises à un second triage ou choix. L’une de ces manières est naturellement l’exclusion des variations léthales ou pathogènes, mais l’autre revient, au contraire, à empêcher des variations en n’importe quelle direction dans la mesure où elles se heurtent à des systèmes trop stables, qui les éliminent aussitôt et les ramènent dans le droit chemin (celui de l’« homéorhésis » de Waddington.) Restent alors les variations ne rentrant ni dans l’une ni dans l’autre catégories, c’est-à -dire qui vont toucher des régions en déséquilibre relatif, mais durable (comme ce peut être le cas dans la plupart des situations phénotypiques nouvelles). En ce cas, donc lors du second tour d’élimination, la sélection organique se réduit à une sorte d’équilibration de mécanismes élémentaires : si la variation augmente le déséquilibre, il y a alors automatiquement barrage sélectif et elle est écartée ; si au contraire elle le diminue, elle est acceptée, et il en va de même en ce qui concerne les suivantes, qui peuvent comme en tout tâtonnement osciller entre les régressions partielles et les progrès successifs jusqu’à stabilisation.
(19) Il semble en particulier que la forte intégration de la cellule germinale, aux étages inférieurs des synthèses épigénétiques, exerce un contrôle continu sur les mutations, d’où l’idée importante de L. L. Whyte d’une régulation des mutations, pouvant aller d’une « démutation » des nocives jusqu’au renforcement des plus favorables. De même R. J. Britten et E. H. Davidson ont fait en 1969 l’hypothèse d’une « régulation génique » dont l’intérêt est de chercher à relier les nouveautés aux combinaisons antérieures. Or, si les mutations sont soumises à des régulations, il ne semble pas exagéré de considérer comme un ensemble d’essais ou d’explorations les variations géniques se produisant en réponse aux déséquilibres pouvant subsister au sein du phénotype avant la phénocopie. Cela ne signifie naturellement pas qu’il y a essai de copie ou de fixation des caractères positifs x’’, y’, z’ dont nous parlions plus haut, mais il y a utilisation de tous les possibles pour remédier aux déséquilibres x’’, y’’ et z’’, ce qui n’est nullement pareil. Il s’agit, par exemple, d’inhiber un caractère défavorable, comme une spire allongée chez les Limnées vivant en eaux lacustres agitées, ce que réalise de façon stable le génotype lacustris alors que les phénotypes de même forme contractée étaient le siège d’un conflit permanent entre leur comportement ou leur morphogenèse et les caractères de la programmation héréditaire des génotypes de races II ou III (voir le chap. III). Ou bien il s’agit de renforcer un caractère favorable comme l’augmentation de chlorophylle et de pouvoir photosynthétique chez les Sedum de génotype parvulum, alors que les phénotypes correspondants n’obtiennent ce résultat qu’en conflit avec la couleur glauque qui est la plus habituelle dans la programmation génétique des sediforme. En un mot le peu de variations géniques se produisant en de tels cas consiste à explorer les diverses possibilités d’inhibitions et de renforcements (possibilités d’ailleurs corrélatives comme le sont en logique la présence d’un prédicat a et l’exclusion de ceux qui impliquent non-a), jusqu’à atteindre un état de rééquilibration suffisante.
VI (20) Arrivons-en au problème décisif et final : celui de la ressemblance, au sein de la phénocopie, entre le génotype nouveau qui « copie » et le phénotype antérieur qui est à la fois remplacé et « copié ». Tout ce qui précède montre assez qu’en notre interprétation il n’y a ni transmission ni même « fixation » des caractères du phénotype, mais bien reconstruction endogène par le génotype ; si cette reconstruction apparaît après coup comme une « copie », c’est que le génotype avait à résoudre les mêmes problèmes, en conflit avec le même milieu extérieur, donc dans le même cadre x, y, z et qu’il les a résolus en construisant des caractères analogues à x’, y’ et z’ parce que se soumettant aux mêmes conditions sélectives du même milieu interne tout en éliminant les déséquilibres x’’, y’’ et z’’.
La différence entre ce modèle et celui de la transmission lamarckienne est évidente. Si nous appelons A, B, C, D, E les niveaux successifs de l’épigenèse (comme en 13), la solution de la transmission directe reviendrait à supposer qu’un caractère phénotypique x’ ou y’ se produisant aux niveaux E ou D par interaction entre les synthèses endogènes et le milieu va, par le fait même, s’introduire dans le mécanisme de ces synthèses en C et B jusqu’à modifier le génome en A, en s’inscrivant alors, sous la forme d’une nouvelle mutation, dans le programme héréditaire de ces synthèses. Dans le modèle que nous nous proposons les caractères phénotypiques x’ ou y’ ne sont ni transmis ni signalés aux gènes régulateurs en A, mais comme ils perturbent la synthèse normale en D ou en E, ces déviations ou altérations constituent une sorte de blocage ou d’obstacle à surmonter qui engendrent des déséquilibres x’’ ou y’’ en C et en B, et ce sont ces déséquilibres à eux seuls qui sensibilisent les gènes régulateurs en A, sans aucune information sur leur cause ou leur nature en E ou en D ni a fortiori sur les caractères x’ ou y’ en leur morphologie. C’est alors, et uniquement en fonction du feedback annonçant que « quelque chose ne marche pas normalement », mais donc sans dire quoi, que des mutations nouvelles se produisent puisqu’une altération, même légère, au niveau du génome ne peut produire que des variations géniques : la variation agira en ce cas dans l’ordre A → E (donc ↑), tandis qu’en cas de transmission lamarckienne elle serait constituée dans l’ordre E → A (donc ↓).
(21) Le problème est alors de comprendre pourquoi ces variations vont finalement ressembler aux caractères phénotypiques x’, y’ ou z’. En principe, de telles mutations vont s’engager en n’importe quelle direction, à la manière de tâtonnements non orientés. Mais comme la sélection organique, qui intervient d’emblée, est fonction du milieu intérieur et de l’ensemble fortement intégré des appareils de la synthèse épigénétique, un premier triage s’impose, comme déjà dit, dès le départ : les variations ne peuvent s’engager que dans les zones de déséquilibre, les autres régions demeurant stables et donc résistantes.
(22) Quant aux zones de déséquilibre la question se pose comme suit. D’une part interviennent la tendance et les forces propres à la programmation épigénétique héréditaire et normale, mais, d’autre part, elles sont localement contrecarrées ou déviées par les contraintes du milieu extérieur x, y, z, et celles, corrélatives, du modèle intérieur solidaire de la formation des caractères phénotypiques x’, y’ et z’. Or ces contraintes exerçaient jusque-là une action causale directe puisque les caractères phénotypiques x’, y’, z’ constituaient le produit causal, ou « effet », de l’action qu’elles exerçaient sur le déroulement de l’épigenèse. Par rapport aux variations géniques, par contre, ces contraintes ne constituent plus qu’un moule ou un cadre obligés, au sein duquel les mutations doivent s’insérer. On répondra peut-être que c’est jouer sur les mots et qu’un moule exerce lui aussi une action causale, ou tout au moins une réaction au sens de troisième loi de Newton (action et réaction). Mais la différence reste la suivante, et elle est fondamentale puisque toute l’opposition entre la biologie contemporaine et le lamarckisme tient à une telle distinction : la contrainte causale exerce une action directe en ce sens que son effet en traduit les caractères positifs, tandis qu’un moule n’exerce qu’une action sélective, et en ce sens négative, en tant qu’il écarte les variations ne lui étant pas conformes et impose ainsi un triage ou choix par l’intermédiaire d’une série d’essais successifs. En d’autres termes, ce n’est pas le milieu, ni externe ni même interne, qui produit les variations géniques nouvelles comme il a engendré les variations phénotypiques : les mutations demeurent entièrement endogènes et elles explorent les zones de déséquilibre jusqu’à adéquation suffisante au moule ou cadre imposé, donc jusqu’à ce que celui-ci les accepte après sélection, mais sans les avoir produites.
(23) Seulement, comme il s’agit de variations endogènes la solution finale est bien différente de celle qui caractérise le phénotype initial, malgré les ressemblances imposées par le même cadre. Dans le cas du phénotype les conditions extérieures nouvelles x, y et z entraient en conflit avec la programmation épigénétique héréditaire et les caractères phénotypiques x’, y’ et z’ ne constituaient qu’un compromis ou équilibre instable entre ces deux sortes d’influences hétérogènes. Dans le cas du nouveau génotype, au contraire, c’est le programme épigénétique lui-même qui est modifié par les nouvelles mutations, une fois celles-ci sélectionnées par les milieux externe et interne : dans la mesure où elles ont pu s’accorder avec le moule, elles sont donc à la fois ressemblantes aux phénotypes antérieurs en leurs caractères x’’, y’, z’ et bien distinctes en tant qu’équilibrées (en opposition à x’’, y’’, z’’) et faisant dorénavant partie d’un programme héréditaire cohérent.
(24) Le nouvel équilibre présente alors le caractère remarquable d’une sorte d’interdépendance entre les mutations ou les variations (dans les synthèses comme dans les transmissions) et la ou les sélections. Pour ce qui est de ces dernières, le cadre ou moule extérieur (x, y, z) ne représente que l’un des facteurs en jeu, les autres étant constitués, comme déjà dit, par l’ensemble des processus synthétiques et par le milieu intérieur, donc par une sélection organique qui joue un rôle fondamental : J. Monod le résume en parlant de la sélection imposée par « l’ensemble des structures et performances de l’appareil téléonomique » 2. Or, comme celui-ci se trouve en état de déséquilibre local momentané, cette sélection interne joue un double rôle : un rôle conservateur, cela va sans dire, puisqu’il s’agit de maintenir l’intégration générale du système, mais aussi un rôle autocorrectif puisqu’elle oriente ou canalise les mutations dans les zones de déséquilibre. Quant à ces variations, leur effet est également double : un ensemble de changements, d’une part, mais aussi une rééquilibration qui oriente les pressions sélectives tout en respectant la forme générale du système. Si les sélections extérieures, imposées par le milieu, aboutissent à un équilibre local entre ses modifications et l’organisme, la sélection organique conduit donc à un équilibre entre les sous-systèmes d’une même totalité, ce qui constitue un niveau supérieur de cohérence. En ce sens, les variations invoquées ne sont ainsi, ni dues au milieu, puisqu’elles sont endogènes, ni proprement aléatoires, puisque canalisées par un appareil sélectif (et en partie modifié ou orienté par elles), mais consistent en successions d’essais en réponses à des déséquilibres. On comprend alors pourquoi, dans la mesure où la notion de sélection s’oriente dans la direction du choix, en relation avec ce que Monod appelle l’« appareil téléonomique », le concept de variation ne peut qu’appeler par symétrie celui d’essais ou d’exploration dirigés (scanning) : en un mot la variation génique canalisée est comparable à ce qui est, au plan du comportement, un tâtonnement par « essais et erreurs », avec sa part de coups de hasard, mais aussi son orientation générale dictée par les besoins d’une rééquilibration.
(25) À titre de remarque finale il convient de souligner le caractère constructiviste de cette interprétation des phénocopies. D’une part, si le nouveau génotype constitue le résultat ultime de conflits et d’interactions entre l’organisme et le milieu, et si donc ce dernier intervient nécessairement comme l’un des éléments transformants de la situation causale, l’adaptation elle-même a pour facteur de production, non pas le milieu comme tel, mais bien et constamment l’action que l’organisme exerce sur lui, ce qui n’est nullement équivalent. Au plan des phénotypes nous avons déjà insisté sur cette multiplicité des réponses, qui tendent à parcourir le champ des possibles et dont chacune tend à utiliser au mieux les conditions présentes. Or utiliser ne signifie pas se soumettre : qu’un Sedum dirige toutes ses tiges vers le haut ou les déploie en rejets rampants, qu’il provoque l’abscission de ses rameaux secondaires ou les retienne pour ne s’en séparer que plus tard, etc., ce sont là des « stratégies » dans un jeu avec un partenaire et non pas les effets d’une simple détermination extérieure, car, même à dégager les facteurs de lumière, température, sol, etc. qui interviennent à coup sûr, ils n’agissent pas comme en une composition de forces mais donnent lieu à une sorte d’assimilation ou intégration en un système téléonomique dominé par le comportement réactionnel total de l’organisme. Dans le cas des mutations, lorsque seul est retenu un unique génotype final, l’amplitude des tâtonnements préalables peut être plus large, comme c’est le cas, au plan du comportement, lors de l’ajustement d’une conduite de complexité supérieure, d’où l’idée courante de productions purement aléatoires avec triage après coup. Mais, d’une part, on vient de rappeler que ce produit terminal est le résultat de variations se présentant comme des essais ou des tâtonnements orientés ainsi que de sélections, dont les formes organiques équivalent à des choix en fonction de la conservation ou de l’amélioration des régulations propres à l’épigenèse : or ces explorations et ces choix comportent à nouveau une dimension téléonomique qui atteste leur caractère d’activités. D’autre part, dans la sélection du meilleur génotype intervient une propriété fondamentale inhérente à de telles situations d’autorégulation et qui est sa plasticité, autrement dit, dans le cas particulier, sa capacité d’engendrer de nouveaux phénotypes après en avoir remplacé un.
Ces divers aspects des actions que l’organisme exerce sur le milieu, sans revenir sur celle dont nous parlions au chapitre II et qui est l’extension même de ce milieu, semblent donc attester le caractère constructif des variations évolutives, même minimes comme celles dont il a été question en cet essai. Il est vrai que l’on se heurte alors à l’objection connue, selon laquelle toute nouveauté apparente est prédéterminée dans le soi-disant « langage » de l’ADN (il n’a rien d’un langage puisque son information consiste en signifiés et non pas en signifiants 3), dont les « lettres » sont constituées une fois pour toutes, l’évolution ne consistant qu’à les combiner de toutes les manières déductibles en « mots », en « phrases » ou en « chapitres » divers… Cela reviendrait donc à soutenir que notre alphabet étant donné, tous les livres passés et présents n’en sont que des combinaisons : mais comme G. Cellérier l’a fait remarquer avec esprit « il restait à les écrire ». D’autre part, choisir certaines combinaisons, c’est en exclure d’autres, d’où résulte alors un ensemble de processus historiques irréductibles les uns aux autres et qui multiplie les relations d’ordre en plus des combinaisons synchronisables. L’« ensemble des possibles » devient alors une notion antinomique, parce que la réalisation de chacune d’entre elles en « ouvre » de nouvelles : or, c’est cette « ouverture » qui constitue précisément, selon Rensch, le « progrès » évolutif.