Campus 101

Dossier/les superordinateurs

La pharma virtuelle: une approximation de la réalité

La simulation de médicaments par ordinateur est devenue chose courante. Mais l’amélioration de la puissance de calcul va de pair avec une complexification des simulations créées par les chercheurs. Pour s’approcher chaque fois un peu plus de la réalité

photo
«C’est une histoire sans fin: plus nous disposons d’ordinateurs puissants, plus nous complexifions les problèmes que nous voulons résoudre. Et nous avons de la marge puisque les modèles que nous créons, bien qu’ils soient suffisants pour obtenir des résultats utilisables, ne représentent encore qu’une très grande approximation de la réalité.» Pierre-Alain Carrupt, professeur à l’Ecole de pharmacie Genève-Lausanne et président de la Section de pharmacie (Faculté des sciences), sait de quoi il parle: cela fait plus de trente ans qu’il utilise des ordinateurs parmi les plus rapides que l’on puisse trouver pour simuler l’action de médicaments, ou plus précisément de composés bioactifs sur des cibles thérapeutiques.

La simulation par ordinateur est bien implantée en sciences pharmaceutiques. Les chercheurs ne se contentent plus, en effet, d’identifier des substances qui pourraient posséder un pouvoir curateur. Ils les construisent sur ordinateur, prédisent leur efficacité à se lier à leur cible, tentent de simuler leur effet chimique, avant même de les synthétiser ou les tester en conditions réelles. C’est ce qu’on appelle le drug design. Une technique qui entre aujourd’hui, à un degré plus ou moins élevé, dans la conception de n’importe quel nouveau médicament.

La dorzolamide, un médicament indiqué pour le traitement contre une pression intraoculaire élevée, est le premier traitement né sur ordinateur à être commercialisé en 1995. Plus connu est le cas de l’oseltamivir (vendu par Hoffman-la-Roche sous le nom de Tamiflu), un médicament contre la grippe et dont l’action bloque une enzyme du virus impliquée dans sa réplication. Dans ces deux cas, la cible thérapeutique était connue et les chimistes ont façonné par ordinateur des composés capables de la neutraliser.

Car la simulation ne peut pas tout. Avant de faire chauffer les processeurs, le chercheur doit d’abord avoir une idée assez précise de la problématique. Dans le cas d’une maladie, il est indispensable d’avoir identifié une cible d’intérêt thérapeutique, qu’il s’agisse d’une enzyme, d’une autre protéine ou encore d’un acide nucléique. Il doit ensuite déterminer sa structure moléculaire et spatiale afin de la recréer sur un écran. Le site actif de cette cible forme souvent une cavité et c’est pourquoi les chercheurs la surnomment la «poche». Le composé capable de s’y fixer, lui, est nommé le ligand.

«Il est préférable de connaître déjà un ligand à l’avance, précise Pierre-Alain Carrupt. Cela permet de donner une idée de la forme que pourrait prendre notre futur médicament. La dopamine, par exemple, est un neurotransmetteur impliqué, entre autres, dans la maladie de Parkinson. Cette molécule et son récepteur associé qui se trouve à la surface des neurones s’imbriquent selon une géométrie très précise. Si on la connaît, on peut commencer à chercher, par simulation, une substance qui remplacerait la dopamine. L’ordinateur permet ainsi de tester très rapidement de nouvelles substances. Sans lui, ce travail prendrait des années.»

Situation statique

Le degré de difficulté le plus élémentaire, dans la simulation pharmaceutique, est la situation statique qui ne fait appel qu’à la mécanique moléculaire. Dans ce cas, le chercheur tente simplement d’ajuster le ligand pour qu’il se fixe dans la poche de la façon souhaitée. Cette phase ne demande pas énormément de temps de calcul. Les ordinateurs personnels modernes sont suffisants.

Le problème se complexifie lorsqu’on ajoute un solvant, principalement de l’eau, mais parfois d’autres substances présentes dans le milieu biologique telles que les ions inorganiques. On entre alors dans une situation dynamique. Quand le ligand entre dans la poche, par exemple, il faut bien que l’eau puisse sortir de cet espace et se redistribuer autour du complexe ligand-cible nouvellement formé. Les simulations se déroulent donc durant un certain laps de temps. Les supercalculateurs représentent dès lors une aide précieuse, surtout lorsque les chercheurs, dans un souci de coller au mieux à la réalité, augmentent la taille du système (nombre de molécules d’eau, par exemple) et le temps de simulation.

Les choses se corsent véritablement lorsqu’on veut tenir compte des réactions chimiques entre le composé actif et sa cible. En effet, certaines liaisons peuvent se casser ou se modifier quand le ligand se fixe dans la poche. Les chercheurs ne peuvent alors plus se contenter d’un modèle simple. Ils doivent faire intervenir les notions de chimie quantique, la discipline qui décrit les propriétés et les processus chimiques des molécules. Le degré de précision de la modélisation devient si important qu’il intègre les atomes entrant en jeu dans la réaction – moyennant de nombreuses approximations. Même si le nombre d’atomes pris en compte ne représente qu’un faible pourcentage de la quantité totale d’atomes impliqués dans la réalité, de telles simulations commencent à devenir très gourmandes en calcul. A ce stade, le supercalculateur devient très utile.

Un pas presque insignifiant

Le top, aujourd’hui, est de modéliser une telle réaction chimique, à l’aide de la mécanique quantique, et en y ajoutant un solvant. Si l’on rallonge la durée de la simulation et que l’on augmente la taille du système, le supercalculateur devient alors indispensable.

«Cela dit, même avec tous les progrès accomplis en matière de puissance de calcul des ordinateurs et de techniques de modélisation, nous n’avons réalisé qu’un pas presque insignifiant vers la description parfaite de la réalité, souligne Antoine Daina, maître assistant à la Section des sciences pharmaceutiques. Les simulations, par exemple, ne tiennent compte que d’un seul ligand et d’un seul récepteur alors qu’un cachet d’aspirine (500 mg) contient environ 2 x 1020 molécules de principe actif.»

A cela s’ajoute le fait que, du point de vue physique, seules quelques molécules simples comme celle d’hydrogène n’ont plus de secrets pour les chercheurs. Toutes les autres ont encore une part plus ou moins importante de mystère. Sans même parler du fait que les méthodes de simulation de la chimie quantique ont été développées pour copier les réactions se déroulant en phase gazeuse. Elles sont encore imprécises pour la modélisation des réactions en phase liquide et non pertinentes si l’on considère un milieu biologique complexe.

«Toutes les simulations par ordinateurs, quel que soit le sujet étudié, comportent des approximations, admet Pierre-Alain Carrupt. Et de toute façon, n’importe quel résultat obtenu in silico est une prédiction qui doit être vérifiée expérimentalement. On ne peut plus se passer des ordinateurs dans la fabrication des médicaments, mais on ne se passera jamais non plus des essais cliniques.»

L’équipe de Pierre-Alain Carrupt dispose aujourd’hui d’un petit réseau de stations de calcul dont la puissance est en train d’être augmentée. Elle a également acquis un calculateur modeste en taille et en capacité (quelques dizaines de fois plus puissant qu’un PC de bureau). Ces appareils suffisent néanmoins à la plupart des besoins des chercheurs en matière de calcul et de visualisation des résultats en trois dimensions. Pour l’instant.

Temps partagé

«Nous allons bientôt collaborer avec une équipe de l’Ecole polytechnique fédérale de Lausanne (EPFL) sur des projets de mécanique quantique dynamique, souligne Pierre-Alain Carrupt. Nous utiliserons donc vraisemblablement dans un avenir proche le BlueGene (lire en page 15) installé à Lausanne.»

Toutefois, selon le professeur, ces énormes machines comportent quelques désavantages. La plupart du temps, ce sont des ordinateurs partagés, c’est-à-dire que beaucoup de chercheurs les utilisent en même temps. Ce qui divise d’autant leur puissance de calcul.

«Il y a trente ans, lorsqu’il fallait encore manipuler des cartes perforées, nous étions déjà quelques dizaines de chercheurs en compétition pour le même calculateur, l’un des premiers de l’EPFL, se souvient-il. Je devais louer la machine et travailler environ tous les trois week-ends pour avoir plus de temps de calcul et, ainsi, avancer plus rapidement. Aujourd’hui, la compétition s’est exacerbée car de nombreuses disciplines nouvelles font appel à des techniques complexes de simulation. C’est pourquoi, nous avons choisi d’acheter une infrastructure modeste et de nous tourner vers le supercalculateur seulement en cas de réel besoin.»