Campus n°131

« La machine reste à des années-lumière du cerveau humain »

IN.JPG

Les risques liés au développement de l’intelligence artificielle sont réels mais surestimés, selon Jacques Attali. à condition toutefois de conserver un moyen de débrancher le système à tout moment.

Les robots finiront-ils par se rebeller contre leurs créateurs pour mener l’Humanité à sa perte ? Abondamment nourrie par le cinéma (du mythique 2001 l’Odyssée de l’espace, en passant par Terminator ou le récent Blade Runner 2049), l’hypothèse est aujourd’hui jugée sérieuse tant par des scientifiques de renommée mondiale, comme le physicien Stephen Hawkings, que par les dirigeants de la plupart des grandes entreprises actives dans le domaine des nouvelles technologies. Au point que ceux-ci plaident aujourd’hui pour que toutes les informations relatives à l’intelligence artificielle soient rendues publiques (lire Campus 124). « Spin doctor »
le plus écouté de France, l’économiste et essayistes français Jacques Attali estime toutefois que cette menace, bien que réelle, doit être nuancée. Rencontre en marge d’une conférence donnée dans le cadre de l’édition 2017 des prix Latsis, distinctions qui récompensent chaque année des chercheurs talentueux issus des hautes écoles suisses.

Campus : « L’intelligence artificielle » est aujourd’hui devenue un concept « fourre-tout ». Comment la définiriez-vous ?
Jacques Attali : À mon sens, ce qui relève réellement de l’intelligence artificielle se limite aux logiciels auto-apprenants : ceux qui guident les véhicules autonomes, ceux qui permettent aux machines de prédiction ou de traduction de fonctionner ou encore celui qui est parvenu à battre l’homme au jeu de go.

Faut-il craindre que ces innovations ne se retournent un jour contre l’Humanité ?
Toute activité humaine comporte des risques. Dans le cas présent, le plus évident est celui de voir disparaître un grand nombre de métiers ou plus exactement de tâches répétitives. Selon moi, toutefois, c’est plutôt une chance puisque cela conduira à déplacer les activités humaines vers des domaines plus intéressants, ce qui est avant tout une question d’éducation, de formation et de gestion du temps de travail, sujets avec lesquels l’histoire humaine est familière depuis trois mille ans. Sur ce point précis, le vrai risque serait donc de mal gérer la transition liée au progrès technique.

Même la machine la plus parfaite peut cependant être victime d’un « bug » ou d’un piratage…
La possibilité que des robots conçus pour tuer à des fins militaires agissent soudainement de leur propre initiative ou que des voitures autonomes se mettent à foncer dans la foule comme le font les terroristes aujourd’hui existe effectivement. On peut néanmoins s’en prémunir.

Comment ?
Pour commencer, rien ne nous empêche de glisser dans les machines que nous fabriquons des règles de comportement comme celles énoncées par l’écrivain de science-fiction Isaac Asimov, à savoir qu’un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ; qu’un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi et qu’un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. Ensuite, la machine pouvant par exemple considérer que pour servir l’Humanité il faut détruire la nature et donc nous condamner indirectement, il faudra impérativement veiller à garder en permanence la possibilité de débrancher le système.

Qui pourrait fixer les règles que vous jugez indispensables, sachant qu’aujourd’hui l’intelligence artificielle se développe essentiellement grâce à des entreprises privées, généralement nord-américaines et peu enclines à limiter leur marge de manœuvre en édictant des normes contraignantes ?
Pas grand monde pour l’instant. Mais cela ne veut pas dire que la partie est perdue. Il existe aujourd’hui une charte des droits de l’humanité et on travaille actuellement sur une charte des droits du vivant. On pourrait tout à fait imaginer inclure dans ce texte les principes de protection dont nous avons parlé plus haut. Resterait ensuite à trouver le moyen de les faire respecter grâce à une quelconque forme de police internationale. Nous n’en sommes toutefois pas là pour l’instant compte tenu de l’écart qui sépare encore les possibilités de l’intelligence artificielle et les compétences du cerveau humain.

Certaines machines, à l’image du logiciel qui a battu un être humain au jeu de go, semblent pourtant d’ores et déjà capables de surpasser l’intelligence humaine…
Remporter une partie lors d’un jeu de stratégie est une chose. Être capable de reproduire ce que fait le cerveau humain en est une tout autre. Il y a en effet dans nos actes et dans nos choix une dimension intuitive, irrationnelle, prédictive qui est encore difficilement reproductible par une machine. Aujourd’hui, l’intelligence artificielle dispose d’une puissance de calcul équivalant à celle de quelques milliers de neurones. Or notre cerveau en compte un milliard et il y a 1015 synapses et plus encore de relations entre ces dernières, relations dont on ne comprend encore pas grand-chose. Par ailleurs, l’intelligence artificielle reste dans le domaine de la causalité, tel événement entraînant tel autre. Ce qui n’est pas tellement le cas du cerveau humain dont seuls 5 % fonctionnent selon cette logique, le reste utilisant des procédés beaucoup plus complexes visant à prévoir son état ultérieur et qui peuvent entraîner des réactions très différentes selon les individus. Dans les domaines qui demandent une anticipation permanente, la machine reste donc à des années-lumière du cerveau humain.

Trouvez-vous qu’on accorde trop d’importance à ce sujet ?
L’intelligence artificielle renvoie à quelque chose de très profond dans l’histoire humaine et qui touche à notre désir d’immortalité. Je comprends donc très bien la fascination qu’elle peut exercer. Il ne faut cependant pas perdre de vue que le développement de l’intelligence artificielle n’est pas le seul danger qui pèse sur l’humanité ni le plus imminent.

Pouvez-vous préciser ?
Je crains beaucoup qu’en se focalisant sur les dangers supposés de l’intelligence artificielle on n'en vienne à négliger des sujets comme l’injustice, la montée des inégalités ou le changement climatique, qui constituent pourtant des menaces bien plus urgentes pour l’Humanité. Je regrette également que l’on minimise souvent les bénéfices que cette révolution technologique peut apporter.

Et quels sont-ils ?
Il y a de nombreux domaines dans lesquels l’intelligence artificielle peut être extrêmement utile. C’est le cas de tout ce qui touche à la prévention, que ce soit en termes de risques, de sécurité ou de santé. Mais c’est aussi vrai pour l’éducation et les services à la personne. Autant de sujets où l’intelligence artificielle permettra de réduire les dépenses publiques et donc les besoins en impôts. Il peut aussi être intéressant de l’utiliser pour ses capacités d’expertise. Une société de Hong Kong a d’ailleurs d’ores et déjà intégré un robot à son conseil d’administration. Enfin, c’est un marché considérable puisque les chiffres avancés dépassent la dizaine de milliards de dollars.

Compte tenu de la puissance dont dispose aujourd’hui les GAFA (Google, Apple, Facebook, Amazon), l’Europe a-t-elle encore une carte à jouer sur ce terrain ?
Je ne crois pas du tout que la partie soit perdue pour l’Europe à condition qu’elle se donne les moyens de rattraper son retard. La course ne fait que commencer et l’avance des GAFA n’est pas si grande qu’il peut y paraître. La Chine, par exemple, fait actuellement des progrès énormes dans ce domaine. Au point qu'elle est devenue un vrai concurrent pour les États-Unis.

Que faudrait-il faire selon vous ?
Aux États-Unis comme en Chine, c’est la recherche militaire qui est le principal moteur de découvertes dans le domaine de l’intelligence artificielle. À mon sens, il faudrait donc créer l’équivalent, à l’échelon européen, de ce qui existe sous le nom de DARPA aux États-Unis (« Agence pour les projets de recherche avancée de défense », ndlr). Cette instance du Ministère de la défense est chargée de la recherche et du développement de nouvelles technologies destinées à un usage militaire et on lui doit notamment les prémices d’Internet.