[p. 3]

Information n’est pas savoir (octobre-décembre 1981)a

Une des raisons principales du désarroi dans lequel nous jettent les récents développements de la technologie et en général des sciences physiques, chimiques et biologiques, consiste dans notre inaptitude à relier nos moyens et nos buts, à subordonner les premiers aux seconds, à vérifier sans cesse leur convenance ou leur incompatibilité, et à les évaluer globalement par rapport aux fins dernières de l’homme.

Je me propose d’envisager l’informatique non pas dans sa problématique immédiate — utilité certaine, nuisances possibles, aspects économiques et sociaux à court ou moyen terme —, mais dans ses relations avec les processus de pensée, les valeurs éthiques et spirituelles, la formation culturelle et l’éducation des générations à venir.

1. Une rumeur s’élève dans le siècle

L’informatique serait une révolution ! Prenons garde à la métaphore, il en est peu qui égarent davantage l’esprit de nos contemporains.

Dans le domaine proprement scientifique, l’Europe n’a connu qu’une seule révolution au sens propre du terme, c’est la démonstration par Copernic que la Terre tourne autour du Soleil. Toutes les autres découvertes de la science ou inventions de la technologie n’ont été que par métaphore des « révolutions ». Par quoi l’on voulait désigner des changements profonds et de portée générale, des mutations ou des chambardements soudains de la société. Mais non pas du tout un retour à la position de départ, comme le disait le terme primitif. Or, toute « révolution » [p. 4] au sens métaphysique, devenu surtout politique depuis la fin du xviiie siècle français, peut être vue de deux manières contradictoires par ceux qui l’ont fomentée et par ceux qui l’ont subie. Aux yeux des premiers, elle apparaît comme un élan de libération de l’homme en général, ou d’une classe opprimée ; aux yeux des seconds, elle se ramène au renforcement des contraintes publiques et du contrôle des personnes. Et il est vrai, comme l’écrivait Lénine en 1917, que les révolutions bourgeoises n’ont abouti qu’à renforcer l’État central et les pouvoirs de la police. Mais Lénine se trompait sur l’adjectif, en attribuant ces maux aux formes « bourgeoises » de la révolution, comme il allait le prouver dès octobre 17, par sa propre révolution dite « prolétarienne ».

Voilà qui ne manquera pas d’évoquer les deux dangers majeurs qui semblent avoir frappé le grand public subitement confronté à la « révolution informatique » : les pouvoirs accrus de l’État central et de sa police, par ce que le Conseil de l’Europe nomme « le traitement automatisé des données de caractère personnel », c’est-à-dire la mise en fiche de tous les citoyens.

On me dira que le grand public n’y entend rien, qu’il est mal informé, précisément. Sans doute, mais chacun de nous sait bien que toute innovation technique, qu’on la qualifie ou non de « révolutionnaire » pour les besoins de la pub ou de l’intox, présente les mêmes caractères d’ambivalence, les mêmes potentialités antinomiques de libération ou de contraintes accrues, à doses variables selon l’ampleur de ses effets et leur correspondance (ou non) avec telle pente générale de l’esprit humain.

Si l’informatique mérite vraiment d’être présentée comme une révolution, nous avons le devoir absolu, et donc le droit, de poser à son sujet les grandes questions, et notamment la question des finalités réelles que l’on poursuit en la développant.

Le psychologue et pédiatre Bruno Bettelheim, auquel on avait demandé une conférence sur le cinéma pour l’American Film Institute, hésita beaucoup, finit par accepter, lut ou parcourut — dit-il — environ cinq-cents volumes sur le sujet, et débuta par cette phrase : « Pour préparer cette conférence, j’ai commencé par me demander pourquoi les gens allaient au cinéma, ce qu’ils en tiraient au point de vue spirituel. » Ma question sur l’informatique [p. 5] est plus modeste : « En quoi favorise-t-elle la liberté et la responsabilité — inséparables — de la personne ? »

2. Et d’abord, d’où vient-elle ?

Le premier ordinateur, l’ENIAC, construit et terminé en 1945 à l’Université de Pennsylvanie, avait été commandé par le laboratoire de recherches balistiques de l’armée américaine. Cette technique n’est pas née en vue de la sagesse, ni pour satisfaire un besoin généralement humain. Elle est née, comme tant d’autres, de la guerre, et pour répondre à des besoins particuliers de l’armement.

Et ensuite ? Selon Simon Nora et Alain Minc1, « l’histoire de l’informatique s’identifie à un enchaînement d’innovations techniques ». Il semble bien, à lire cette phrase, qu’à aucun des stades de son développement, l’informatique n’ait répondu à l’appel d’une finalité, fût-elle de paix, de bonheur, d’équilibre, de liberté et de responsabilité accrues de la personne.

3. Ambivalence de la technologie

Je ne suis pas et n’ai jamais été, pour des raisons ou préjugés quelconques, contre ce qu’on nomme aujourd’hui les techniques de pointe, telles que l’informatique, la télématique, et tous les iques qu’on en tire à la mode américaine. Je suis bien décidé à les utiliser au maximum pour mes recherches personnelles, j’entends partout où cela me paraît « possible ». Un exemple à l’appui de mes dires : un jour qu’avec Louis Armand nous discutions des complexités effarantes auxquelles une politique fédéraliste aurait à faire face — au niveau national ou paneuropéen, je lui dis (paraphrasant le mot célèbre de Lénine sur « les Soviets plus l’électricité ») : « Le fédéralisme, c’est l’autonomie des régions plus les ordinateurs. » Et il me répondit, j’en suis très fier : « Ah celle-là, vous me rendez jaloux de ne pas l’avoir trouvée ! »

Mais n’oublions jamais l’ambivalence inévitable de toutes nos technologies.

— La « révolution » technique de l’automation devait amener l’ère des loisirs, et nous sommes dans l’ère du chômage.

[p. 6] — La productivité de l’industrie annonçait l’abondance. Et nous avons des pénuries croissantes en Occident, et des famines dans le tiers-monde.

— L’informatique nous propose aujourd’hui de « penser pour nous », plus vite que nous, mais elle crée le risque d’atrophier nos facultés de mémoire, de jugement et de création, tout en multipliant une espèce prospère de débiles mentaux efficaces.

4. Refoulement du problème des finalités

Certes, ce n’est pas la technique que nous devons rendre responsable de ces progrès à contre-fins, mais bien une société qui refuse d’envisager les transformations radicales (dans la répartition des profits notamment), lesquelles seraient sans nul doute nécessaires pour que l’innovation développe ses effets bénéfiques pour l’ensemble du genre humain.

À l’origine de nos problèmes présents de civilisation scientifico-technique, il y a, en Occident, quelque chose comme un refus général d’envisager, avant toute application industrielle et commerciale d’une invention, ses conséquences trop facilement qualifiées de « révolutionnaires », alors qu’elles ne seront peut-être que bouleversantes au hasard et aux dépens de l’homme. Je constate, par exemple, quelque chose comme un refus général d’imaginer, de supputer, d’étudier sérieusement les régimes sociaux qui permettraient de transformer le chômage en loisirs, ou la productivité en moyens de faire vivre, et non de tuer, c’est-à-dire en aliments pour le corps et l’esprit plutôt qu’en armements. Mais je le précise ici très soigneusement : quand je parle d’un refus général, je ne suppose pas le moins du monde qu’après concertation entre philosophes, scientifiques, industriels, éducateurs et technocrates, une décision négative, du type « la question ne sera pas posée », ait été prise en toute conscience. Bien plus que d’un refus délibéré, il s’agit d’un réflexe de fuite devant le problème, d’un refoulement au sens freudien du terme, d’une espèce de blocage des esprits devant ce qu’ils pressentent de l’effarante complexité du problème et de ses aspects possiblement sinistres.

Les Occidentaux de l’ère industrielle, scientifico-technique et censément rationaliste, me paraissent s’en tenir dans leur ensemble à une conduite typiquement infantile : [p. 7] devant les nouveaux jouets technologiques « de pointe » qu’on leur propose et dont on les persuade qu’ils doivent s’enorgueillir — « Grâce à vous, nous nous sentons de nouveau des géants », disait le président Reagan aux cosmonautes de la fusée Columbia —, ils ne voient d’abord que les facilités et les pouvoirs que cela peut leur apporter, non les dangers et encore moins les responsabilités accrues que cela institue. Ils ne voient que l’innovation — éphémère par définition —, mais refusent de prévoir les dommages, souvent irréversibles, qui pourraient en être le prix.

Voilà qui ne se comprend que trop, si l’on pense aux démentis en rafales que subissent les plus grands spécialistes de la futurologie dite scientifique, dans leurs prévisions économiques et politiques. Qu’il s’agisse de la crise de l’auto, du pétrole ou de l’énergie, de la percée japonaise, de l’Iran, de l’Afghanistan ou de Lech Walesa, tout nous a pris au dépourvu dans les événements marquants de la dernière décennie.

Alors, devant cet avenir vertigineux d’imprévisibles en système, faut-il baisser les bras et continuer comme de coutume, c’est-à-dire : faire d’abord, quand il est trop tôt pour rien prévoir, et réfléchir ensuite quand il est trop tard pour rien changer ? (C’est ce qui est arrivé avec l’énergie nucléaire : on a bâti des centrales, puis on s’est demandé comment réduire leurs déchets radioactifs. On ne le sait toujours pas, et même de moins en moins, s’il faut en croire le rapport Globe 2000. Les déchets s’accumulent inexorablement. Arrêter les centrales créerait, dit-on, une pénurie sans précédent d’énergie électrique, cependant que les méthodes de retraitement envisagées posent des problèmes de plus en plus inextricables, tant politiques que techniques.)

La situation ne paraît pas encore aussi sérieuse dans le cas de l’informatique. Mais la prévisibilité des conséquences à long terme, directes, indirectes ou induites, et de leurs combinaisons, convergences ou conflits, nous inviterait à renoncer nous aussi à tout effort de prospective et même de réflexion sur l’avenir informatique. Pour ma part, je refuse l’invitation.

J’ai toujours pensé que nous ne sommes pas sur Terre pour essayer de deviner l’avenir, mais pour le faire. Voici le moment d’appliquer ma formule.

[p. 8] Faute de pouvoir connaître les conséquences lointaines sur l’homme, la société et la nature, de nos innovations technologiques, je propose donc le plan suivant :

1. Comprendre la vraie nature de l’innovation et ses visées, en vérifiant la définition de ses termes de base ;

2. Soumettre à un certain nombre de critères d’usage toute innovation technique qui réclame droit de cité, c’est-à-dire de production et de vente ;

3. Évaluer, à l’aide de ces critères d’usage, les avantages et les dangers qu’une exploitation « sauvage » de l’informatique laisserait prévoir dès maintenant, et que l’on peut encore prévenir.

5. Un peu de sémantique

Pour une définition des termes relatifs à l’information en général et à l’informatique en particulier, il me semble que l’anglais se prête mieux que le français à un premier tri lexical. Il établit à première vue une distinction très nette entre :

data — news — knowledge,

les deux premiers termes désignant deux sortes d’informations, le troisième les résultats ou résultantes dans un individu de ces informations. Cela correspond plus ou moins, en français, à :

données (permanentes) — nouvelles (du jour) — savoir (intégré, c’est-à-dire connaissance).

Pour le mot information, Littré donne cette définition : « Terme de philosophie. Action d’informer, de donner une forme. » Exemple : « L’homme est l’information suprême et comme la vivante synthèse des forces créatrices du globe. » D. Stern, Essai sur la liberté. (L’auteur de cette phrase superbe, D. Stern, est le pseudonyme de la comtesse d’Agoult, belle-mère de Richard Wagner et amie de Liszt.) Information signifiait traditionnellement, dès Aristote, formation par les données de fait observées et les expériences vécues, intégrées dans la mémoire de l’individu. Le sens de « nouvelles du jour » qu’a pris le mot à l’époque des mass médias est des plus contestables, mais s’est imposé.

De ce premier tri sémantique résultent quelques conclusions évidentes ou bien proches de l’être.

[p. 9] a. L’information (data + news) n’est pas du tout synonyme du savoir (ou de la connaissance) que seule une personne peut intégrer. L’information ne nous dit pas ce qui est conforme ou non aux grands buts que les religions assignent à l’humanité : la paix, la liberté, l’amour. Informer au sens d’aujourd’hui (des médias) n’est pas former l’esprit, peut même le déformer. Information n’est pas savoir. Savoir n’est pas encore sagesse ; tout de même que sagesse n’est pas encore amour. (Cet « amour qui nous rendra la liberté », comme le dit une chanson populaire et sublime.)

b. Quand quelqu’un dit : « Je sais maintenant ce que c’est que la peur ! » ou « Je sais maintenant ce que c’est que l’amour ! », il ne parle pas d’une information qu’il viendrait de recevoir, mais d’une expérience qu’il vient de vivre.

c. Littré définit savoir comme « connaissance acquise par l’étude, par l’expérience ». Il est remarquable que connaissance soit au singulier, c’est-à-dire représente une globalisation des connaissances ponctuelles, des informations stockées dans les ordinateurs ou dans les cerveaux.

d. Je ferais volontiers entrer dans cette définition des mots comme jugement, des expressions telles que : juger avec finesse, avoir du jugement, dont il est évident que l’ordinateur ne saurait que faire.

e. Mais si l’information (data + news) augmente nos pouvoirs physiques, il devient impératif et vital d’augmenter simultanément et en proportion notre sagesse morale et spirituelle, qui est le sens des fins dernières auxquelles doivent s’ordonner nos moyens.

Principe de base : il est mortellement dangereux d’augmenter les pouvoirs matériels de l’homme, qu’il va mettre bien sûr au service de ses passions de puissance sur autrui et de destruction, si l’on n’augmente pas en même temps les pouvoirs de l’esprit au service des fins dernières de la personne, donc de sa liberté d’obéir à sa vocation particulière.

f. Il faudra se garder de céder à la tentation journalistique ou carrément publicitaire d’appliquer à l’ordinateur, par métaphore, des facultés spécifiquement humaines comme « mémoire », « pensée », « intelligence ». Je me bornerai ici au mot « mémoire ».

[p. 10] La prétendue mémoire d’un ordinateur se distingue radicalement de celle de l’homme en ceci : qu’elle n’est pas l’histoire d’un individu enregistrée dans son cerveau, et encore moins celle de toute l’espèce, enregistrée dans ses gènes, mais un simple stockage d’informations ponctuelles et d’archives classées, sans date. S’il est un processus de la mémoire personnelle qu’un ordinateur ne pourra jamais reproduire, c’est bien celui décrit par Proust à propos de la petite madeleine trempée dans du thé2 dont la saveur lui restitue dans une lente montée d’émotion presque angoissée toute la magie sensuelle, sensible et sentimentale, de son enfance dans le bourg de Combray. Proclamer que la « mémoire » d’un ordinateur a « une capacité dix fois supérieure à la mémoire d’un homme » ne veut absolument rien dire, pour peu que l’on pense à Proust, ou à sa propre enfance.

6. Quelques critères d’usage de toute innovation

1. Lorsque Henry Ford inaugura en 1899 la première fabrique d’automobiles, personne n’eut l’idée de prévoir ce que serait l’avenir dans cette hypothèse — alors très peu probable — d’un succès total de cette machine. Personne n’imagina nos villes éclatées, embouteillées, irrespirables, nos campagnes bétonnées, les chars et l’aviation, les compagnies pétrolières et l’industrie automobile occupant régulièrement les premières places du palmarès mondial de Fortune, et le sort de toute l’industrie occidentale suspendu aux décisions de quelques émirs du golfe Persique.

La première question à poser devant une invention technique sera donc : en cas de succès total, quels pourront être ses effets ?

2. Le recours à des critères moraux respectés dans tout l’Occident eût induit à rejeter le travail à la chaîne, qui réduit la personne à l’état d’instrument, contrairement au précepte fondamental de Kant, et qui justifie la phrase de Marx sur l’ouvrier que le travail industriel réduit à n’être plus que « le complément vivant d’un mécanisme mort ». D’où ce deuxième critère : écarter délibérément toute innovation dont l’une des conditions de succès s’annoncerait [p. 11] comme incompatible avec la liberté de la personne.

3. L’idée de créer de très grandes unités de production est née du seul souci de rationaliser pour augmenter le profit aux dépens de la main-d’œuvre.

Notre troisième critère sera le complément du deuxième, comme la responsabilité l’est de la liberté : refuser toute innovation qui entraînerait nécessairement, ou favoriserait par sa nature, des entreprises de taille monstrueuse, et des concentrations toujours croissantes de pouvoir, aux dépens de l’autonomie des communautés locales et régionales et de la participation des citoyens à leur gestion.

4. Le quatrième critère nous est devenu familier depuis quelques années seulement. Il nous commande d’éviter tout ce qui peut polluer notre milieu social ou naturel, et de même tout ce qui menace d’épuiser à court terme les ressources naturelles non renouvelables, en vertu d’une croissance exponentielle des besoins, artificiellement provoquée.

5. Plusieurs auteurs3 ont remarqué qu’il serait sage que l’industrie parte non pas des possibilités de la technologie, mais des besoins existants (contrairement à la phrase citée plus haut de Nora et Minc sur l’histoire de l’informatique qui « s’identifie à un enchaînement d’innovations techniques »).

6. Quand une technique nouvelle s’avère capable de changer ou de supprimer un rythme, une durée, une structure temporelle de la vie et de la création humaines, il ne s’agit pas nécessairement d’un progrès, mais peut-être d’une agression contre l’espèce ou contre ses élites créatrices. S’abstenir d’appliquer cette technique tant que le doute n’est pas levé par une expérimentation très poussée.

7. Éviter tout ce qui risque d’entraîner une vulnérabilité excessive de l’industrie par une dépendance trop étroite soit de puissances politiques nationales, soit de ressources naturelles épuisables que l’on ne contrôle pas (pétrole et uranium dès aujourd’hui, mais demain eaux, forêts, aliments).

[p. 12]

7. Avantages de l’informatique

Ils crèvent les yeux. Qui pourrait nier l’utilité de l’informatique dans les domaines sans cesse plus nombreux que peuvent traiter les ordinateurs : temps de calculs réduit de douze mois à une semaine pour la construction d’un barrage. Services hospitaliers. Statistiques, recensements opérés presque sans papier, d’où le sauvetage de grandes forêts. Calcul des impôts. Lancement de fusées spatiales… Pour ne rien dire (bien que ce soit peut-être décisif) des avantages — si l’on ose dire — que les ordinateurs ont présentés dès leur apparition pour toutes les « défenses nationales » du monde.

Je n’allonge pas. La cause est entendue, et plusieurs milliers d’ingénieurs sont mieux placés que moi pour la défendre et l’illustrer.

Je serai un peu plus long sur les dangers, ou plutôt sur les risques possibles que j’imagine et sur lesquels il me paraît encore possible d’alerter l’attention des responsables.

8. Les dangers, ou plutôt les risques

La vitesse. L’argument le plus souvent invoqué en faveur de l’informatique est celui qui me paraît le plus inquiétant dès que l’on sort du numéral et du quantitatif pur : c’est l’argument de la rapidité fabuleuse des opérations de logique ou de calcul dont les ordinateurs sont capables. Dans tous les domaines que je viens de citer, où l’informatique est sans conteste avantageuse, le gain sur le temps d’une opération se traduit en termes de moindre coût et d’efficacité accrue. Mais dans tous les autres domaines : biologique, affectif, artistique, pédagogique, éthique, spirituel, la durée joue un rôle positif, réel, existentiel, souvent constitutif du phénomène considéré, comme c’est évidemment le cas pour la musique.

On nous apprend que l’homme peut absorber normalement 80 000 informations par jour, alors qu’on l’en gave déjà de 200 0004. Cet information overload est négatif, inutile et devient même toxique. C’est un embouteillage de communication.

[p. 13] On nous dit que l’ordinateur, interrogé sur un problème psychologique, « pense » beaucoup plus vite que le cerveau humain. Mais cela n’est pas utile pour la personne qui interroge, car il lui faudra le même temps pour comprendre réellement la réponse, qu’elle n’en eût mis à la trouver, c’est-à-dire à vivre le processus de changement qui permet de la réaliser (au sens anglais). (Je suppose que la réponse est connue, comme dans la plupart des problèmes psychologiques ou éthiques. La difficulté n’étant pas de la connaître, mais de la vivre, jusqu’à la solution réelle.)

La solution quasi instantanée — calculée en « nanos » ou milliardième de seconde — d’un problème n’est utile que dans les domaines où la durée n’est pas vécue, ne fait pas partie de la nature du problème et du processus même de sa solution. Mais dans tous les domaines où la personne humaine est impliquée, par sa biologie, sa psychologie ou son affectivité, la vitesse indéfiniment multipliée devient un facteur destructif de tout ce qui requiert un travail d’assimilation, de digestion, d’intégration ou d’appropriation. Il serait stupide de se nourrir le corps et l’esprit plus vite et plus souvent qu’ils ne peuvent digérer et assimiler. Cuire « le dîner de famille en une minute dans un four à ondes courtes5 » peut dépanner une ménagère ; mais mitonner ou laisser mijoter est la condition de réussite des meilleurs plats. Réduire une méditation au temps d’un clin d’œil n’a aucun sens ; et faire l’amour en deux nanosecondes me paraît absolument dépourvu d’intérêt.

Dans la société entièrement informatisée qu’on nous prépare, c’est la saveur même de la vie que l’homme n’aura plus le temps de goûter, et qu’on ne pourra lui rendre, même au prix de milliards de bits à la seconde. « Jusqu’au jour où l’humanité, sur les traces d’un grand spirituel, découvrira ce luxe inouï : la lenteur au sein du silence6. »

La réduction au rationnel. La technique, entrée dans la vie quotidienne des Occidentaux aux débuts de ce siècle par l’électricité, l’auto, l’avion, le téléphone et la Radio-Télévision, nous prépare certes à penser ou imaginer selon des [p. 14] schémas déduits de la seule réalité physique et de ses mécaniciens, mais elle ne me paraît pas encore avoir modifié substantiellement nos modes de penser, de sentir, ni de croire. L’informatique peut aller beaucoup plus loin d’ici à l’an 2000. En permettant de calculer et combiner, en lieu et place de nos cerveaux, tout ce qui peut être exprimé en termes logiques et chiffrables, elle nous fait entrer dans un monde où les ordinateurs, ayant « traité » nos problèmes, nous restitueront une réalité toujours mieux réduite au rationnel, purifiée de tout mystère, de plus en plus dépersonnalisée et comme prédigérée pour établir plus facilement les connexions entre ordinateurs et cerveaux humains, ceux-ci se trouvant progressivement intégrés au réseau de ceux-là. Ce qui facilitera sans doute les communications — mais de quoi ? De ce qui est rigoureusement pareil pour tous et pour tout. Et non pas de ce qui révélerait l’unicité d’une personne, de ce qui serait donc le plus intéressant à connaître.

En bref, la technique tend par sa nature même à favoriser et propager une forme de communication de ce qui est déjà commun à tous les hommes, de tout ce qui peut donc s’exprimer dans les « langages » de l’informatique ; mais de rien de ce qui serait nouveauté radicale, créée, unique, à révéler… Elle tend donc à favoriser et propager une forme de pensée aseptisée, rationalisée, mise à l’abri des « troubles mentaux » et des « utopies délirantes » (c’est-à-dire du non-conformisme politique ou social dans certains régimes), mais aussi du lyrisme et de la poésie en général, le tout dans un langage que l’on aura rendu systématiquement incapable de communiquer l’inexprimable.

Dans ce sens, une certaine « robotisation » des esprits est à redouter ; un conformisme rationalo-matérialiste, et la perte de tout esprit de résistance aux états-majors des puissances stato-nationales ou industrielles, commerciales ou bancaires, qui auraient su monopoliser l’informatique et la télématique.

9. L’école sans maîtres : « Plato » ou le gourou ?

L’exemple de l’école à venir va me permettre d’illustrer en quelques mots l’essentiel de ce qui précède.

On nous propose aujourd’hui, avec une insistance croissante dans toute la presse, l’école sans maîtres. C’est une [p. 15] idée qui avait germé dans le cerveau du PDG de Control Data, qui l’a baptisée Plato. Il s’agirait d’un apprentissage de données et de structures sur tous les sujets, au moyen d’ordinateurs remplaçant les manuels et le maître. Cela pourrait même se passer au domicile de l’élève, s’il bénéficiait d’un terminal. Et dans ce cas, l’école sans maîtres ne serait même plus une école, et rappellerait le fameux couteau de Lichtenberg7 : couteau sans lame dont on avait perdu le manche.

Relevons tout de suite une erreur dans la définition du projet Plato : ce n’est pas une école sans maîtres, puisque ce sont en fait des maîtres qui ont programmé les ordinateurs. Simplement, ils ne sont pas là, c’est-à-dire qu’ils trahissent leur fonction principale.

Tout professeur — et je l’ai été dans différents pays et universités, pendant vingt ans — découvre un jour à sa plus grande surprise que ce qui reste de son enseignement, c’est ce qui n’était pas « au programme », c’est ce qu’il a communiqué à son insu à ses meilleurs étudiants. Jaurès l’a très bien dit (je viens de le lire après l’avoir vécu) : On n’enseigne pas ce que l’on sait, mais ce que l’on est. L’ordinateur sait beaucoup de choses, il peut même tout savoir, mais il n’est pas. Il est incapable de former les esprits, n’ayant pas de finalités à leur proposer. Mais il est très capable de les réduire au conformisme officiel. Voici ce que publiait Le Figaro, en décembre 1980, à propos de l’école sans maîtres : « Les élèves s’adaptent de façon presque inconsciente à l’ordinateur… Ils acquièrent automatiquement l’esprit ordinateur. » « Déjà, ajoute-t-on, les résultats sont spectaculaires […]. Les élèves de troisième réalisent des programmes de recherche d’enseignement dont la valeur et l’originalité ont permis leur (sic) utilisation à des fins pratiques. »

Les partisans de l’école sans maîtres nous assurent qu’elle pourra multiplier par soixante les possibilités du cerveau. Mais si l’on donne des facilités aux jeunes de moins de 18 ans (les synapses se développent jusqu’à cet âge) on les rend paresseux du cerveau, qui peut s’atrophier comme les jambes de ceux qui ne font plus cinq-cents mètres à pied, mais prennent leur voiture ou leur moto.

[p. 16] Les élèves des ordinateurs seront devant l’appareil en état de passivité croissante, et disposeront de moins en moins des possibilités de doute, de questions au maître, de critique et de discussion avec les copains, qui constituaient hier encore l’essentiel de la formation par l’école.

Enfin, la prétention de Plato à remplacer la mémoire des élèves par des gadgets est en contradiction flagrante avec toutes les observations des psychologues, qui tendent à démontrer que la mémoire est une faculté qui se cultive, se développe ou s’atrophie à la manière d’un muscle : « La mémoire se cultive par l’usage », nous rappelle opportunément le Petit Larousse. Ivan Illich, à l’Université de Kassel, oblige ses étudiants à apprendre par cœur des tranches d’écrits historiques. C’est lui qui est à la pointe du vrai progrès, non pas l’ordinateur avec sa prétendue « mémoire » indépendante des personnes — et du passé !

Au projet Plato j’opposerai la formule de l’ashram hindou, où tout dépend de l’enseignement du gourou, imprévisible, personnel, directeur de méditation et médiateur de la transcendance. Je donnerai pour titre au problème de l’éducation de demain : « Plato » ou le gourou.

Il se trouve que la question a été tranchée par le véritable Platon, il y a près de deux-mille-trois-cents ans, comme on peut le lire au début de la IVe partie du Phèdre.

Socrate raconte que Theuth, le dieu des Égyptiens dont l’emblème est l’ibis, « le premier inventa le nombre et le calcul, la géométrie et l’astronomie, sans parler du trictrac et des dés, enfin les lettres de l’écriture ». Theuth se rendit auprès du roi Thamous qui résidait à Thèbes, et lui présenta ses inventions. « Le roi l’interrogea sur l’utilité que chacune d’elles pouvait avoir […]. Quand on en fut aux lettres de l’écriture : “Voilà, dit Theuth, la connaissance qui procurera aux Égyptiens plus de sciences et plus de souvenirs ; car le défaut de mémoire et le manque de science ont trouvé leur remède !” À quoi le roi de répondre : “[…] Cette invention, en dispensant les hommes d’exercer leur mémoire, produira l’oubli dans l’âme de ceux qui en auront acquis la connaissance ; en tant que, confiants dans l’écriture, ils chercheront au-dehors, grâce à des caractères étrangers, non point au-dedans et grâce à eux-mêmes, le moyen de se ressouvenir ; en conséquence, ce n’est pas pour la mémoire, c’est plutôt pour la procédure du ressouvenir que tu as trouvé un [p. 17] remède. Quant à la science, c’en est l’illusion, non la réalité, que tu procures à tes élèves : lorsqu’en effet, avec toi, ils auront réussi, sans enseignement, à se pourvoir d’une information abondante, ils se croiront compétents en une quantité de choses, alors qu’ils sont, dans la plupart, incompétents ; insupportables en outre dans leur commerce, parce que, au lieu d’être savants, c’est savants d’illusion qu’ils seront devenus !” »

Qu’ajouter à Platon que son Socrate n’ait dit, et qui ne condamne à tout jamais Plato ?

10. Vulnérabilité

Il est certes utile d’apprendre à se servir d’un ordinateur ; il l’est davantage d’apprendre à ne plus s’en servir.

G. Elgozy

Ceci m’amène à ma dernière remarque — ces remarques dont je dois avouer qu’elles ne sont guère qu’introductives à des débats futurs, débats qu’elles se bornent à réclamer, mais avec une urgence accrue — : qu’en sera-t-il de la vulnérabilité d’une société informatisée ?

Nous sommes sur le seuil d’une civilisation rendue fragile par quantité de facteurs virtuellement anéantissant : explosions nucléaires, pollutions irréversibles des lacs, rivières et océans, et destruction des forêts de la planète (déjà 40 %) pouvant entraîner une diminution catastrophique de la production d’oxygène dans l’atmosphère.

Les hommes adaptés depuis une ou deux décennies aux réseaux d’informations qui leur dictent leur conduite sauront-ils encore se débrouiller s’il y a des défaillances dans les réseaux ? De même qu’ils ne savent plus calculer sans calculette, ils ne se rappelleront rien sans les ordinateurs. Démunis devant tout imprévu.

Grâce à l’informatisation, la société court le risque d’être de plus en plus centralisée par les monopoles d’État ou de grandes sociétés, donc de moins en moins capable d’autonomie, d’autogestion en cas de crise. Je citerai là-dessus Joël de Rosnay : « Il est un fait que la complexité de plus en plus grande de la société, l’utilisation de la télématique, des télécommunications et de l’information, [p. 18] rendent le système de plus en plus vulnérable et facile à perturber8. » Même prévision dans la Revue polytechnique 9 : « En cas de panne, les solutions manuelles de secours sont impraticables ; la disponibilité et la validité de l’informatique sont incertaines ; on est à la merci de catastrophes potentielles : incendie, inondation, sabotage, indisponibilité des transmissions ; la complexité croissante des systèmes augmente la dépendance à l’égard des rares spécialistes. »

De même que les calculettes permettent déjà à des millions de gens de lire les résultats d’un calcul sans faire eux-mêmes les opérations, sans les avoir assimilées, l’informatique remplacera de plus en plus l’apprentissage, et la simulation le savoir, en sorte que si une défaillance centrale ou générale réduisait au silence les réseaux d’information, l’homme se trouverait incapable de refaire l’industrie, et désarmé devant la Nature.

Ce qu’on nomme déjà le crime électronique constitue un danger plus immédiat. Aux USA, quatre élèves âgés de 13 ans réussissent à détruire dix millions de bits, un cinquième de ce que l’ordinateur devait enregistrer. D’autres jeunes gens mettent des ordinateurs hors d’usage en déversant sur eux du miel, ou en leur tirant dessus à la mitrailleuse.

Ce dernier exemple illustre opportunément le point que je voulais relever en conclusion.

La technique en soi est neutre, outillage au service de l’homme, de tout l’homme, du bon et du mauvais en lui. Mais en fait le mauvais a des chances de profiter un peu plus que le bon de cette neutralité. Car la technique a pour fonction de faciliter nos efforts et d’en multiplier les effets. Or le mal est en général plus facile à faire que le bien. Passé un certain seuil quantitatif, certains effets du mal peuvent devenir irréversibles, donc mortels. (Ce qui ne serait pas le cas, notons-le, de l’irréversibilité du bien, si elle existait.)

Faudra-t-il donc détruire ou stopper la technique, l’informatique dans notre cas ? Il est trop tard. On ne peut rien désinventer.

[p. 19] Si nous nous reportons à nos critères, nous constatons que l’informatique satisfait très bien aux numéros 1 et 4 (elle n’est pas polluante, elle ne contribue pas au gaspillage des ressources terrestres et de l’énergie) ; et qu’elle peut satisfaire assez bien, moyennant une vigilance alertée, aux critères 2 et 3, c’est-à-dire éviter ce qui est incompatible avec la liberté (juridique) des personnes, et éviter ce qui conduit au gigantisme (quoique, là encore, les illusions de vitesse folle et de chiffres fabuleux puissent en être un équivalent). Mais nous constatons qu’en revanche l’informatique fait mauvaise figure face aux critères 5, 6 et 7, parce qu’elle n’est pas partie de besoins existants mais de possibilités techniques et commerciales ; parce qu’elle peut favoriser de véritables agressions psychologiques et culturelles contre la personne ; et surtout parce qu’elle rend notre société terriblement vulnérable.

Si nous pouvons encore agir sur l’évolution de l’informatique (laquelle, livrée à son mouvement d’accélération paraît déjà hors de toute prise humaine), c’est sur ce dernier point que nous avons à le faire.

Refuser, réfuter activement le point de vue impérialiste de l’informatisation générale de la société. Assigner à l’informatique les limites que lui posent en vérité sa définition scientifique et son utilité, nous pouvons le faire encore — et nous le devons.

C’est bien peu de chose, me dira-t-on. Un effort non mesurable, une décision tout invisible de l’esprit. Mais il est bien probable que de ce peu, de ce très peu, dépend le sort de notre civilisation occidentale.