|
|
| . |
|
||||||
| Histoire des neurosciences |
| Les
neurosciences
naissent bien avant que le mot lui-mĂŞme existe. Tout commence avec une
question aussi simple qu'elle est vertigineuse : qu'est-ce qui pense, qu'est-ce
qui sent, qu'est-ce qui commande le corps? Pendant des millénaires, la
réponse hésite entre le cœur et le cerveau. Les Égyptiens
anciens, en embaumant leurs morts, retirent le cerveau par les narines
et le jettent, considérant qu'il n'est qu'une matière de remplissage;
le cœur, lui, est soigneusement préservé, car c'est en lui que réside
l'âme. Aristote partage cette conviction cardiocentriste,
convaincu que le cerveau ne sert qu'Ă refroidir le sang. C'est Hippocrate
qui, dès le Ve siècle avant notre ère,
prend le contrepied de cette intuition et affirme que le cerveau est le
siège de la pensée, des sensations
et des émotions. Il observe des malades épileptiques,
des blessés de guerre au crâne fracassé, et tire de ces observations
cliniques une conclusion révolutionnaire pour son époque.
Galien, médecin grec exerçant à Rome au IIe siècle de notre ère, approfondit cette piste en disséquant des animaux (boeufs, porcs, singes) et en décrivant le cerveau avec une précision anatomique inédite. Il identifie les ventricules cérébraux, ces cavités remplies de liquide, et leur attribue le rôle de contenants de l'"esprit animal", une substance subtile censée circuler dans les nerfs pour transmettre les ordres aux muscles. Sa théorie pneumatique dominera la médecine occidentale pendant près de quatorze siècles, non par sa justesse, mais par le vide intellectuel qui l'entoure. Le Moyen Âge chrétien, sans tout à fait abandonner Galien, superpose à sa mécanique une topographie symbolique : les ventricules cérébraux deviennent les sièges de facultés comme la mémoire, l'imagination et le jugement. La Renaissance brise ce gel. André Vésale, anatomiste flamand, publie en 1543 De humani corporis fabrica, un atlas du corps humain fondé sur des dissections réelles pratiquées en public à Padoue. Il corrige Galien sur des centaines de points, décrit le cerveau humain avec une exactitude nouvelle et commence à démystifier le ventre crânien. Son contemporain Bartolomeo Eustachi dessine le premier les nerfs crâniens avec rigueur. Mais ces hommes sont encore des cartographes sans boussole : ils savent décrire ce qu'ils voient, ils ne savent pas encore expliquer comment cela fonctionne. C'est Descartes qui, au XVIIe siècle, tente la première grande théorie mécaniste du système nerveux. Dans son Traité de l'homme, il imagine le corps comme une machine hydraulique : les "esprits animaux", sorte de fluide très fin, circulent depuis les ventricules à travers des tubes creux que seraient les nerfs, gonflent les muscles et produisent le mouvement. La glande pinéale, cet organe médian unique dans le cerveau, devient chez lui le point de jonction entre l'âme immatérielle et la machine corporelle. La solution est élégante, elle est fausse, mais elle a l'immense mérite de poser le problème en termes physiques et de rompre avec la pensée purement symbolique. Thomas Willis, quelques décennies plus tard, effectue une transformation décisive. Ce médecin d'Oxford dissèque des cerveaux humains avec son ami Christopher Wren, qui en dessine les planches avec une précision d'orfèvre, et publie en 1664 Cerebri Anatome, le premier traité entièrement consacré au cerveau. Willis décrit le polygone artériel qui porte encore son nom, individualise le cervelet, le tronc cérébral, les lobes, et invente le mot "neurologie". Il commence à associer des fonctions précises à des régions précises du cerveau, inaugurant la grande tradition localisationniste qui hantera les neurosciences jusqu'à nos jours. La révolution suivante vient de l'électricité. En 1780, Luigi Galvani observe dans son laboratoire de Bologne que les pattes d'une grenouille morte se contractent lorsqu'un arc métallique relie ses nerfs à ses muscles. Il interprète ce phénomène comme la preuve d'une "électricité animale" résidant dans les tissus vivants eux-mêmes. Alessandro Volta conteste cette interprétation (et a raison sur le mécanisme immédiat) mais le phénomène, lui, est réel : les nerfs conduisent de l'électricité. Cette découverte ouvre un continent nouveau. Emil du Bois-Reymond, dans la première moitié du XIXe siècle, mesure avec des galvanomètres de plus en plus sensibles les courants électriques qui parcourent les nerfs et les muscles, établissant que l'influx nerveux est bien un signal électrique. Hermann von Helmholtz, en 1852, mesure pour la première fois la vitesse de cet influx (environ 27 mètres par seconde chez la grenouille) démontrant qu'il ne s'agit pas d'une transmission instantanée et mystérieuse mais d'un phénomène physique mesurable. Pendant ce temps, la question de la localisation des fonctions dans le cerveau devient un champ de bataille intellectuel. Franz Joseph Gall fonde au tournant du XIXe siècle la phrénologie, théorie selon laquelle les facultés mentales sont localisées dans des régions précises du cortex cérébral, et que les bosses du crâne reflètent le développement de ces régions. La phrénologie est une pseudoscience, mais elle a l'effet paradoxal de populariser l'idée que le cerveau n'est pas homogène et que différentes parties remplissent différentes fonctions. Pierre Flourens, son grand adversaire, ablate chirurgicalement des régions du cerveau d'animaux et conclut au contraire que le cerveau fonctionne comme un tout indivisible, que toute région peut compenser la destruction d'une autre. Les deux camps ont partiellement tort et partiellement raison, et c'est la clinique humaine qui va trancher. En 1861, Paul Broca examine un patient surnommé Tan (il ne peut prononcer que cette syllabe) et, à l'autopsie, découvre une lésion dans le lobe frontal gauche, dans une zone qui prendra son nom. Quelques années plus tard, Carl Wernicke décrit un autre type d'aphasie, liée à une lésion du lobe temporal gauche, où le patient parle abondamment mais de façon incompréhensible. Ces deux découvertes établissent que des fonctions cognitives précises (la production du langage, la compréhension du langage) sont localisées dans des régions définies du cortex. C'est un tournant fondamental : le cerveau a une géographie fonctionnelle. La fin du XIXe siècle est l'âge d'or de l'anatomie microscopique du système nerveux. Camillo Golgi met au point en 1873 une technique de coloration au chromate d'argent qui, mystérieusement, ne marque qu'un petit nombre de neurones au hasard dans une coupe de tissu cérébral, les rendant visibles dans leur intégralité sur un fond transparent. Cette réaction de Golgi permet pour la première fois de voir la morphologie complète d'une cellule nerveuse, avec ses dendrites ramifiées et son long axone. Santiago Ramón y Cajal s'empare de cette technique, l'affine, l'applique à des centaines de régions du système nerveux chez des dizaines d'espèces animales, et produit entre 1888 et 1920 un corpus de dessins anatomiques d'une beauté et d'une précision extraordinaires. Cajal formule la doctrine du neurone : le système nerveux n'est pas un réseau continu et fusionné (comme le croit Golgi) mais un ensemble de cellules individuelles, les neurones, qui communiquent sans se toucher, par contiguïté et non par continuité. Cette théorie, validée par le microscope électronique au milieu du XXe siècle, est le fondement de toute la neurobiologie moderne. Golgi et Cajal partagent le prix Nobel en 1906, dans un désaccord scientifique complet. La question de ce qui se passe entre deux neurones (dans l'espace infime que Charles Sherrington nomme la synapse en 1897) mobilise les décennies suivantes. Deux camps s'affrontent : les "étincellistes", convaincus que la transmission synaptique est électrique, et les "soupistes", persuadés qu'elle est chimique. Otto Loewi tranche le débat en 1921 par une expérience élégante : il stimule électriquement le nerf vague d'un coeur de grenouille isolé, recueille le liquide baignant ce coeur et l'applique à un second cœur, qui ralentit également son rythme. Il y a donc une substance chimique libérée par le nerf, qu'il appelle Vagusstoff et qu'on identifiera bientôt comme l'acétylcholine. Henry Dale caractérise d'autres substances similaires, et la notion de neurotransmetteur est née. On découvre successivement l'adrénaline, la dopamine, la sérotonine, le GABA, le glutamate. Toute une chimie de l'esprit commence à s'écrire. Parallèlement, la physiologie du potentiel d'action,ce signal électrique qui court le long des axones, est élucidée en détail par Alan Hodgkin et Andrew Huxley dans les années 1950. Travaillant sur l'axone géant du calmar, dont le diamètre d'environ un millimètre permet d'introduire des microélectrodes à l'intérieur même de la fibre, ils mesurent les mouvements d'ions sodium et potassium à travers la membrane et formulent les équations différentielles qui décrivent le potentiel d'action avec une précision quantitative remarquable. Ils reçoivent le Nobel en 1963. La même décennie voit John Eccles démontrer que la transmission synaptique est bien chimique dans le système nerveux central, ce qui lui vaut de partager ce même Nobel. Les années 1950-1970 sont aussi celles de la neuropsychologie expérimentale. Karl Lashley passe trente ans à chercher dans le cortex cérébral du rat la trace physique de la mémoire (qu'il appelle l'"engramme") et finit par conclure, avec une frustration bien documentée, qu'il ne la trouve nulle part : la mémoire semble distribuée dans tout le cortex. Mais en 1953, un patient connu sous les initiales H.M. subit à Hartford une ablation chirurgicale bilatérale de l'hippocampe pour traiter une épilepsie sévère. Il guérit de ses crises, mais perd définitivement la capacité de former de nouveaux souvenirs épisodiques. Il peut apprendre de nouvelles habiletés motrices, mais ne se souvient pas de les avoir apprises. Brenda Milner étudie H.M. pendant des décennies et en tire une cartographie fine des différentes formes de mémoire, révélant que l'hippocampe est indispensable à la mémoire déclarative mais non à la mémoire procédurale. H.M. devient l'un des cas cliniques les plus importants de l'histoire de la neurologie. La révolution moléculaire des années 1970-1980 transforme la neurobiologie de fond en comble. On isole et séquence les récepteurs aux neurotransmetteurs, on clone les canaux ioniques, on identifie les cascades de signalisation intracellulaire. Eric Kandel, travaillant sur Aplysia californica, un mollusque dont le système nerveux simple ne compte que vingt mille neurones de grande taille, démontre que l'apprentissage et la mémoire à long terme impliquent des modifications durables des connexions synaptiques, notamment par la phosphorylation de protéines et la synthèse de nouvelles molécules. Son travail établit les bases moléculaires de la plasticité synaptique et lui vaut le Nobel en 2000. Timothy Bliss et Terje Lømo découvrent en 1973 la potentialisation à long terme (LTP) dans l'hippocampe du lapin : stimuler intensément une synapse la renforce durablement. Ce mécanisme devient le modèle cellulaire dominant de la mémoire. Les techniques d'imagerie cérébrale révolutionnent à leur tour la discipline à partir des années 1970. Le scanner X (CT scan) permet pour la première fois de voir le cerveau vivant dans son crâne sans ouvrir la boîte crânienne. L'imagerie par résonance magnétique (IRM), développée dans les années 1970-1980 par Paul Lauterbur et Peter Mansfield (Nobel 2003), donne des images anatomiques d'une finesse extraordinaire. Puis vient l'IRM fonctionnelle (IRMf), qui mesure indirectement l'activité neuronale en détectant les variations du flux sanguin oxygéné : lorsque des neurones s'activent, ils consomment de l'oxygène, ce qui modifie les propriétés magnétiques de l'hémoglobine. Depuis les années 1990, l'IRMf transforme la psychologie cognitive en neuroscience cognitive : on peut voir, en temps quasi réel, quelles régions du cerveau s'activent lorsqu'un sujet résout un problème mathématique, reconnaît un visage, ressent de la peur, prend une décision morale. Des centaines de milliers d'études utilisent cette technique, avec ses forces et ses controverses, notamment autour de la robustesse statistique des résultats. Les années 1990, proclamées "décennie du cerveau" par le président Bush aux États-Unis, voient une accélération sans précédent. Les neurosciences cognitives s'institutionnalisent comme discipline à part entière. On cartographie le génome humain, et l'on commence à identifier des gènes liés aux maladies neurologiques et psychiatriques (la maladie d'Alzheimer, la schizophrénie, l'autisme). La génétique moléculaire et la neurobiologie fusionnent. On développe des animaux transgéniques (souris knockout dont certains gènes sont inactivés) pour étudier le rôle de protéines spécifiques dans le comportement et la cognition. On découvre que le cerveau adulte n'est pas figé, comme on le croyait depuis Cajal : la neurogenèse adulte, la naissance de nouveaux neurones dans l'hippocampe, est démontrée chez les rongeurs dans les années 1990 par Fred Gage et ses collègues, puis confirmée chez l'humain. Les outils optogénétiques, développés à partir de 2005 par Karl Deisseroth et Edward Boyden, permettent de contrôler l'activité de neurones spécifiques avec une précision sans précédent en les rendant sensibles à la lumière grâce à des protéines bactériennes appelées opsines. On peut ainsi activer ou inhiber un circuit neuronal précis chez un animal vivant et observer les effets comportementaux immédiats. C'est une révolution comparable à l'invention de la microélectrode : pour la première fois, on peut interroger des circuits, pas seulement des régions, et établir des liens causaux plutôt que corrélatifs entre activité neuronale et comportement. Dans les années 2010, les grandes initiatives de cartographie du connectome (= la totalité des connexions entre neurones d'un système nerveux ) prennent de l'ampleur. Le projet Human Connectome Project tente de cartographier les grands faisceaux de fibres du cerveau humain par IRM de diffusion. Des équipes comme celle de Jeff Lichtman à Harvard reconstituent au microscope électronique les connexions synaptiques entre chaque neurone dans de minuscules volumes de tissu cérébral. En 2019, un cube de cortex de souris d'un millimètre cube est intégralement cartographié, révélant un réseau d'une complexité stupéfiante : des millions de synapses, des milliers de types cellulaires différents. En 2023, une portion équivalente de cortex humain est cartographiée au niveau synaptique pour la première fois, produisant un jeu de données de 1,4 pétaoctets. Les neurosciences computationnelles, héritières de la cybernétique de Norbert Wiener et des travaux fondateurs de McCulloch et Pitts dans les années 1940, cherchent à formaliser mathématiquement le fonctionnement du cerveau. David Marr formule dans les années 1970 une théorie computationnelle de la vision. Peter Dayan, Larry Abbott et leurs contemporains développent des modèles quantitatifs des réseaux neuronaux, de l'apprentissage par renforcement, du codage de l'information. Le dialogue entre informatique et neurosciences devient bidirectionnel : les algorithmes de deep learning, inspirés vaguement de l'architecture corticale, battent les humains aux échecs, au jeu de go, à la reconnaissance d'images, et en retour, ces succès posent des questions nouvelles sur les mécanismes d'apprentissage dans le cerveau biologique. Aujourd'hui, les neurosciences forment un continent aux frontières floues, irrigué par la biologie moléculaire, la génétique, la physique, l'informatique, la psychologie, la philosophie, la médecine. Elles tentent simultanément de comprendre comment une poignée de protéines assemblent un canal ionique, comment cent milliards de neurones forment une pensée, et comment l'activité d'un cerveau donne naissance à l'expérience subjective. Cette dernière question, celle de la conscience, restant la plus vertigineuse, celle que deux millénaires et demi d'enquête n'ont pas encore réussi à épuiser. |
| . |
|
|
|
||||||||
|