L'imagerie médicale: le cerveau
Les progrès de l’IRM :
L’imagerie par résonance magnétique (IRM) repose sur un phénomène physique décrit pour la première fois en 1946 par F. Bloch, l’induction nucléaire, mise en évidence par Purcell en 1947, par absorption résonante par des moments magnétiques nucléaires dans un solide. Tous deux reçurent en 1952 le prix Nobel de physique. Cette résonance magnétique nucléaire (RMN) a, dès le début, connu un essor considérable grâce à son double caractère : c’est, d’une part, un domaine de la physique original riche en possibilités de recherche fondamentale, le magnétisme nucléaire, et, d’autre part, un outil extrêmement fin à multiples facettes pour l’étude de la matière condensée solide et liquide, ainsi que pour la chimie et la biologie moléculaire. Enfin, depuis bientôt trente ans la RMN est devenue une technique participant au diagnostic médical, où elle a pris le nom d’IRM.
Certains noyaux atomiques, celui de l’hydrogène (proton) par exemple, sont dotés d’un petit moment magnétique associé à un moment cinétique, ou spin, c’est-à-dire qu’ils se comportent comme des aiguilles aimantées, mais un peu particulières du fait de leur nature quantique. Placé dans un champ magnétique, le moment magnétique de l’hydrogène s’oriente dans le sens du champ ou dans le sens contraire, ce qui correspond à deux niveaux d’énergie possibles. Aux températures ordinaires (et à celle du corps en particulier), les moments magnétiques sont répartis sur les deux niveaux de façon quasi identique, ce qui fait que le moment magnétique macroscopique résultant, somme de tous les moments élémentaires, est très petit. C’est pour cela que l’IRM est une méthode peu sensible dans les conditions habituelles.
Une expérience de RMN consiste à manipuler les moments magnétiques avec des impulsions d’onde radiofréquence, superposées au champ magnétique, à une fréquence correspondant à la différence d’énergie entre les deux niveaux et proportionnelle à l’intensité de ce champ, le coefficient de proportionnalité caractérisant complètement le noyau considéré. Par exemple, pour le noyau d’hydrogène (c’est-à-dire le proton), la fréquence, dite « fréquence de résonance », vaut 42,6 MHz pour un champ magnétique de 1 tesla. Les énergies en jeu sont donc considérablement inférieures à celles impliquées dans la radioactivité, et le terme « nucléaire » de « RMN » a été retiré dans « IRM » pour éviter toute confusion.
Si la fréquence de l’onde radiofréquence est égale à la fréquence de résonance, les spins subissent des changements de niveau, puis reviennent à leur situation d’origine en réémettant des signaux électromagnétiques qui sont captés par des antennes (ou sondes). On peut ainsi identifier la présence de tel ou tel élément noyau, en caractériser les propriétés magnétiques (en particulier les temps de relaxation qui caractérisent la rapidité avec laquelle les noyaux retournent à leur état initial) et le localiser.
La première application en médecine fut publiée par R. Damadian en 1971 (« Tumor détection by nuclear magnetic resonance »), mais la première « image », c’est-à-dire le début de l’IRM, est due en 1973 à P. C. Lauterbur (« Image formation by induced local interactions : Examples employing nuclear magnetic resonance »). Il s’agissait d’une simple image de deux tubes vus en coupe transversale, l’un rempli d’eau, l’autre de graisse, rendue possible par l’utilisation d’un « gradient de champ magnétique » : le champ variant dans la direction du gradient, il est possible de localiser les signaux par leur fréquence de résonance. Il était alors loin d’être évident que l’on obtiendrait dix ans plus tard les images de la qualité à laquelle on est habitué aujourd’hui, car la RMN souffre a priori d’une très mauvaise sensibilité en détection, comparée aux rayons X ou aux molécules radioactives. Ainsi, un système expérimental d’IRM se compose d’un aimant, d’un système de bobines de gradient permettant une localisation dans les trois directions de l’espace, d’une sonde constituée d’une ou de plusieurs bobines accordées autour de l’échantillon, d’un générateur pour la production de l’excitation radiofréquence, d’un amplificateur-détecteur des signaux de résonance et d’un ordinateur pour l’acquisition et le traitement des signaux ainsi que le pilotage des expériences. Initialement limitée à des échantillons de taille réduite, la technique s’est développée grâce à la mise au point d’aimants capables de créer des champs intenses sur de grandes régions (de façon à y placer des sujets testés, animaux ou hommes). Là encore, au-delà des améliorations techniques des aimants, des bobines de gradients et des antennes de localisation, c’est l’informatique qui a permis l’acquisition d’images tridimensionnelles dans des délais très courts, compatibles avec ceux d’un examen médical.
Voir le cerveau penser :
L’IRM fonctionnelle a été rendue possible par le développement de techniques « ultrarapides » d’acquisition et de traitement de données, de l’ordre de la seconde, même s’il est possible de réaliser des images RMN en des temps suffisamment brefs (jusqu’à 0,02 seconde) pour suivre certains organes en mouvement. C’est par exemple le cas de l’imagerie cérébrale, qui permet aujourd’hui de faire un bond dans le vaste domaine des sciences cognitives.
Quand nous parlons, lisons, bougeons, pensons… certaines aires de notre cerveau s’activent. Cette activation électrique et chimique des neurones est corrélée à une augmentation du débit sanguin local dans les régions cérébrales concernées par cette activation, comme on l’a indiqué au sujet de la TEP. Or l’IRM permet de produire des images sensibles au débit sanguin avec une grande précision anatomique (1 millimètre) et temporelle (1 seconde), et ce sans recours à l’injection d’une substance ou molécule particulière. C’est ce qui fait le succès de cette méthode.
Il est intéressant de revenir sur les étapes du développement de l’IRM fonctionnelle. En dehors des développements instrumentaux, il n’y avait pas de concept fondamentalement nouveau, les auteurs ayant seulement transcrit en termes de RMN ce qui faisait le succès depuis dix ans de la TEP, à savoir pouvoir mesurer la perfusion sanguine cérébrale par la méthode des traceurs en utilisant l’eau marquée à l’aide de l’oxygène 15, un émetteur de positrons ayant une période physique très brève (2 minutes). Le principe de la méthode mise au point par M. Raichle est le suivant. Lors d’activations cérébrales, il y a ouverture de canaux ioniques (Na+, K+, Ca2+), dépolarisation des membranes et propagation de potentiels d’action au-delà d’un certain seuil. Ces phénomènes ont une durée de quelques millisecondes, et l’activité électrique qui en résulte peut être détectée par électroencéphalographie (ou par magnétoencéphalographie, sensible au champ magnétique associé), mais non par TEP ou IRM. On sait cependant depuis les travaux de Roy et Sherrington à la fin du XIXe siècle que l’activité neuronale s’accompagne de phénomènes métaboliques et hémodynamiques (il est intéressant de noter que l’origine et le mécanisme de ce couplage neurovasculaire ne sont pas encore complètement élucidés). Or les variations du débit et du volume sanguin cérébral peuvent être mesurées en TEP. En IRMf, au lieu d’utiliser un embole intraveineux d’eau radioactive, Belliveau a utilisé un embole de gadolinium (chélaté pour s’affranchir de sa toxicité), une terre rare qui donne un signal fort en RMN en modifiant le temps de relaxation des protons de l’eau. Le principe des mesures était donc totalement calqué sur celui de la TEP. L’inconvénient en était qu’il fallait injecter le gadolinium au moins deux fois à quelques minutes d’intervalle et dans différentes conditions cognitives.
En fait, une approche très différente a été immédiatement suggérée en 1992 par S. Ogawa dans un article – « Oxygenation- sensitive contrast in magnetic resonance imaging of rodent brain at high magnetic fields » – qui présente la méthode appelée aujourd’hui communément la méthode BOLD (Blood Oxygen Level Dépendent). Le principe général reste le même : dans la région du cerveau activée, le débit sanguin est augmenté et le contenu sanguin en oxygène augmente. La proportion d’hémoglobine oxygénée (Hb02) contenue dans les globules rouges du sang par rapport à l’hémoglobine désoxygénée (Hb) est alors plus importante. Or, si Hb02 est magnétiquement neutre (en fait diamagnétique), déoxyHb est fortement paramagnétisme en raison de l’atome de fer qui n’est plus écranté par les atomes d’oxygène. Le champ magnétique local autour des petits vaisseaux sanguins est donc modifié par les variations de la teneur en déoxyHb/Hb02, ce qui perturbe la relaxation des molécules d’eau avoisinantes. En pratique, l’augmentation du contenu en Hb02 se traduit par une petite remontée du signal des protons de l’eau dans les régions plus oxygénées, c’est-à-dire celles activées par les processus sensitif, moteur, cognitif, etc. Avec cette approche (BOLD pour Blood Oxygen Level Dépendant), aucun traceur n’est introduit, on peut dire que l’hémoglobine est l’agent de contraste endogène, l’augmentation de la quantité d’oxyhémoglobine se traduit par une augmentation du signal. Les variations de signal sont certes faibles, de l’ordre de 1 à 3 % à 1,5 tesla, mais elles augmentent à peu près linéairement avec le champ magnétique, ce qui explique la course aux champs élevés à laquelle se livrent les différentes équipes internationales. Au début de l’IRM, les premiers aimants installés dans les hôpitaux avaient un champ magnétique de 0,15 T ou 0,5 T, puis on est monté à 1,5 T, la norme actuelle (à titre de comparaison, le champ magnétique terrestre est de 5 x 10 5T). Les industriels proposent maintenant à leur catalogue des aimants à 3 et 7 T, et des aimants opérant à 9,4 T ont été installés aux États-Unis et en Allemagne, alors que des projets d’aimants de 11,7 T destinés à l’IRM chez l’homme sont en cours en France (NeuroSpin) et au Japon. On voit ainsi comment les projets de la recherche stimulent l’industrie, dès l’instant où l’on voit poindre des applications médicales, en neurologie et en psychiatrie.
Des travaux récents ont pu mettre en évidence l’activation du cerveau lors de tâches cognitives complexes comme le calcul, le lan-gage, l’apprentissage ou la mémoire. On a pu montrer, par exemple, que nous activons nos aires visuelles « primaires » situées à l’arrière de notre cerveau, non seulement durant la réception d’informations visuelles en provenance de la rétine, mais aussi par imagerie mentale, quand nous pensons les yeux fermés à des images puisées dans notre mémoire. Même résultat pour le langage : le simple fait de penser à des mots suffit à activer les zones de notre cerveau associées aux objets représentés par ces mots. D’autres travaux sur le calcul mathématique ont mis en évidence grâce à l’IRM des différences entre calcul exact et approximatif. Le calcul approximatif active, chez l’être humain, des circuits cérébraux impliqués dans la représentation mentale visuelle et spatiale, tandis que le calcul exact fait appel à des régions de l’hémisphère gauche impliquées dans certains traitements linguistiques. La méthode peut être poussée très loin, et des résultats récents portent sur l’inconscient ou le jugement moral. On est ainsi passé de l’image du cerveau à l’image de l’esprit, « seeing the brain or seeing the mind », comme cela a été dit.
Un autre champ très important de l’IRM est l’IRM de diffusion. Parmi les quatre stupéfiants articles publiés par Albert Einstein en 1905 en est un qui, contre toute attente, a donné naissance à une puissante méthode d’exploration du cerveau humain et de son fonctionnement. Le phénomène de la diffusion moléculaire a été analysé et expliqué par Einstein à partir du mouvement de marche aléatoire des molécules (appelé aussi mouvement brownien) qui résulte de l’énergie cinétique portée par ces molécules. Au milieu des années 1980, D. Le Bihan montra pour la première fois qu’on pouvait obtenir des images du mouvement de diffusion des molécules d’eau dans le cerveau humain avec l’IRM. Dans un milieu libre, durant un intervalle de temps donné, ces déplacements moléculaires tridimensionnels obéissent à une loi de Gauss. La distance statistique parcourue par les molécules dépend de leur « coefficient de diffusion ». Celui-ci ne dépend que de la taille (ou masse) des molécules, de la température et de la viscosité du milieu. Par exemple, des molécules d’eau diffusant librement à 37 °C ont une distance statistique de diffusion de 17 microns en 50 millisecondes.
Le concept puissant qui se cache derrière l’« IRM de diffusion » repose donc sur le fait que les molécules d’eau vont sonder par leur mouvement de diffusion les tissus biologiques à une échelle micro-scopique, bien inférieure à l’échelle millimétrique usuelle des images IRM. En pratique, le temps de diffusion est de l’ordre de 50 à 100 millisecondes et les molécules d’eau diffusent dans le cerveau sur des distances d’environ 1-15 microns, rebondissant ou interagissant avec de nombreux obstacles, comme les membranes cellulaires, les fibres, les organelles, les macromolécules, etc. ; la distance de diffusion est réduite par rapport à la diffusion « libre ». L’observation non invasive du mouvement de diffusion de l’eau dans les tis-sus a déjà donné des informations très précieuses sur la structure fine du tissu cérébral et son organisation dans l’espace, ainsi que lors des changements de structure induits par la physiologie ou la pathologie. L’application la plus importante et la plus spectaculaire de l’IRM de diffusion a été jusqu’ici l’ischémie cérébrale à la phase aiguë. Il a été découvert en effet que la diffusion de l’eau ralentissait immédiatement après le début de cette ischémie (produite par exemple par la migration d’un caillot sanguin dans une artère cérébrale), alors que les neurones commencent à souffrir puis mourir de cette interruption de circulation sanguine locale. L’IRM de diffusion est la seule méthode permettant aujourd’hui d’identifier l’ischémie aiguë et d’en préciser l’étendue et la localisation. Avec cette infor-mation, certains patients peuvent maintenant recevoir en urgence un traitement approprié dès les premières heures, alors que l’état du tissu cérébral est encore réversible, et échapper à la mort ou à des séquelles dramatiques (hémiplégie, troubles du langage, etc.).
Une autre découverte a été que la diffusion de l’eau dans le cerveau n’était pas isotrope. Dans la matière blanche, la diffusion de l’eau varie selon la direction de sa mesure. La matière blanche est faite des prolongements axonaux des neurones organisés en faisceaux de fibres myélinisées parallèles. La diffusion de l’eau est plus rapide dans la direction des fibres que dans la direction perpendiculaire. Cette propriété est exploitée depuis quelques années pour déterminer l’orientation dans l’espace des faisceaux de fibres consti-tuant la matière blanche et pour révéler en quelque sorte le « câblage » cérébral (technique du tenseur de diffusion ou DTI) : pour la première fois, il devient possible de voir en trois dimensions le réseau de connexion entre les aires cérébrales chez un individu donné (et non de manière statistique). Cette possibilité est en train de révolutionner les neurosciences et commence à être utilisée pour étudier certaines pathologies qui pourraient être liées à des anomalies dans les connexions cérébrales comme la schizophrénie.
Une autre application clinique potentielle importante est la détection et le suivi thérapeutique du cancer. Là encore la diffusion de l’eau est réduite dans les lésions cancéreuses ou les métastases. L’IRM de diffusion est en cours de validation comme méthode alternative à la TEP-FDG qui détecte les lésions cancéreuses par leur caractère hypermétabolique. L’IRM de diffusion serait plus directe car le ralentissement diffusionnel est sans doute provoqué par la prolifération cellulaire et l’augmentation de la densité de membranes. Côté thérapie, l’IRM de diffusion permet de voir après quelques jours (au lieu de semaines ou mois) l’efficacité ou non du traitement anticancéreux (la diffusion de l’eau réaugmente dans les parties tumorales sensibles au traitement), faisant gagner un temps très précieux au cas où celui-ci doit être changé du fait de son inefficacité.
Combiner méthodes et compétences pour réaliser le rêve de Claude Bernard :
Sans entrer dans les détails, on peut dire que l’innovation dans l’imagerie ultrasonore a suivi des étapes analogues à l’IRM. Le principe physique est ici très simple, il s’agit de la réflexion des ondes ultrasonores sur des interfaces d’impédances acoustiques différentes ; les lois en sont identiques à celles de la réflexion de la lumière entre deux milieux d’indices différents. Les ondes ultrasonores sont produites par une céramique piézoélectrique excitée par une impulsion électrique. L’onde de pression se propage dans les tissus et est réfléchie aux interfaces. La détection de l’écho (l’onde de pression ultrasonore réfléchie) se fait par le même effet piézoélectrique : cette fois, c’est une différence de potentiel qui apparaît entre les deux faces du cristal soumises à une variation de pression. La première application, le sonar sous-marin, donnera dans les années 1950 l’échographie dite « mode A ». La mesure des vitesses par effet Doppler sera rapidement appliquée en médecine à la mesure de la vitesse du sang dans les artères et les veines superficielles. Là encore, le développement de l’électronique et de l’informatique va permettre la réalisation d’appareils de plus en plus complexes : échographie à balayage dite « mode B », puis surtout échographie en temps réel ou échographie « TM » (pour time motion). Aujourd’hui les appareils combinent images bi-voire tridimensionnelles avec la visualisation des écoulements dans les cavités cardiaques et les vaisseaux (doppler couleur), ils sont dotés d’une électronique complexe et d’une informatique relativement lourde : ils sont devenus des appareils beaucoup plus coûteux bien qu’assez simples d’emploi. Les appareils d’échographie sont bien connus du public et les applications très nombreuses : suivi de la grossesse, détection des cancers du sein, des tumeurs et des calculs biliaires ou urinaires, des anomalies de la contraction cardiaque, etc.
Même si toutes les méthodes d’imagerie tirent leur origine de l’interaction d’ondes ou de particules avec la matière, le délai séparant la découverte physique des applications médicales peut différer considérablement. Mais pour toutes, les progrès fulgurants de l’informatique ont permis des développements analogues, notamment au niveau de la reconstruction, de l’analyse et de la visualisation des images tridimensionnelles, du traitement quantitatif des informations. Finalement on assiste actuellement à la fusion des images numérisées, par exemple celles obtenues par IRM et par TEP. Mieux encore, apparaissent aujourd’hui des instruments hybrides, scanner X-TEP ou IRM-TEP, pour lesquels les deux modalités d’imagerie sont réunies dans le même instrument, principalement pour les applications oncologiques. La fusion d’image est grandement facilitée et les patients ne subissent qu’un seul examen.
Une deuxième évolution commune se dessine également, bien que plus récemment. De purement morphologiques, les méthodes telles que l’échographie ou l’IRM deviennent des méthodes fonctionnelles, comme l’étaient déjà la gammascintigraphie ou la TEP, mais sans nécessairement avoir recours à des traceurs et avec une meilleure résolution spatiale. D’autre part, des traceurs « magnétiques » sont aussi développés pour révéler par IRM les processus moléculaires et cellulaires normaux ou pathologiques (imagerie dite moléculaire).
Au milieu du XIXe siècle, l’inventeur de la médecine expérimentale Claude Bernard indiquait à Ernest Renan, qui l’a relaté, qu’« on ne connaîtrait » la physiologie que le jour où l’on saura décrire le voyage d’un atome d’azote depuis son entrée dans l’organisme jusqu’à sa sortie ». Ce qui était totalement hors de portée du savant du xixe siècle connaît en ce début de XXIe siècle sa réalisation grâce à une série d’avancées techniques liées à la radioactivité et à l’IRM. C’est certainement dans la description du voyage fait par le médicament dans le corps que réside aujourd’hui une des avancées les plus intéressantes dans le domaine pharmaceutique. Mais nous avons vu aussi que quand nous écoutons, parlons, bougeons, réfléchissons, certaines aires de notre cerveau s’activent. Cette activation électrique et chimique des neurones se traduit par une augmentation du débit sanguin local dans les régions cérébrales concernées par cette activation. L’IRM permet aujourd’hui de produire des images sensibles au débit sanguin et ce, sans recours à l’injection d’une substance ou molécule particulière. D’autres approches en cours, comme l’IRM de diffusion, permettraient de détecter directement l’activité des neurones, en repérant des changements de structure (gonflement cellulaire) à la source de leur activation.
L’innovation en imagerie demande toujours plus de temps et d’investissement financier. Même si, du point de vue du médecin, les avantages d’une nouvelle technique peuvent apparaître évidents, ceux-ci doivent être prouvés économiquement. Les études de rapport coût/efficacité d’une nouvelle technique, de sa place dans l’arbre de décision thérapeutique, la nature des examens qu’elle pourrait remplacer et les économies qui en résulteraient, l’autorisation de mise sur le marché éventuelle pour une nouvelle molécule radiopharmaceutique ou un nouvel agent de contraste, tout cela constitue autant d’étapes administratives, longues, coûteuses, que l’industriel peut hésiter à mettre en œuvre, surtout si la nouvelle technique est susceptible de remplacer une technique existante pour laquelle les investissements ne sont pas encore amortis. Néanmoins, comme on l’a vu dans le cas de l’IRM qui est apparue relativement peu de temps après le scanner, une nouvelle technique d’imagerie finit par s’imposer lorsqu’elle apporte une véritable rupture, même si les délais sont parfois longs comme dans le cas de la TEP où la France a un retard considérable sur les autres pays développés. Aujourd’hui, le véritable défi est de faire travailler ensemble des physiciens, des ingénieurs, des informaticiens, des chimistes, des biologistes et des médecins, de préférence dans un même lieu et sur une longue durée. Un programme de ce type a été lancé par le CEA avec NeuroSpin, qui vise à franchir une nouvelle étape pour l’IRM fonctionnelle avec un champ magnétique supérieur à 11 tesla, afin de fournir à des équipes pluridisciplinaires un outil d’observation sans précédent.
Vidéo : L’imagerie médicale: le cerveau
Vidéo démonstrative pour tout savoir sur : L’imagerie médicale: le cerveau